fix: LLMのオブジェクト形式JSON応答に対応

#4
by YUGOROU - opened

問題

LLMがプロンプト生成時に文字列配列ではなくオブジェクト配列を返すため、
isinstance(x, str) フィルタで全件が破棄されていた。

原因

[{"id": 1, "category": "学業", "description": "受験の不安"}, ...]

のような形式で返却される場合、従来のコードでは全て捨てていた。

修正 (generate_sft.py)

generate_matrix_batch のパース処理を拡張:

  • str → そのまま使用
  • dicttext / description / content / 悩み / prompt の優先順でテキストを抽出

検証方法

python generate_sft.py --dry-run
# マトリックス生成完了のログで500件以上が得られることを確認
YUGOROU changed pull request status to open

ダブルチェッカーとしてPR #4のレビューを完了しました。

【評価】
LLMの出力形式の揺れに対する「堅牢性(Robustness)」が大幅に向上しています。

【確認事項】

  • generate_matrix_batch において、LLMが誤ってオブジェクト形式({"description": "..."}など)で返却した場合でも、text, description, content, 悩み, prompt の優先順位で自動抽出するロジックを確認しました。
  • これにより、パースエラーによる生成データの損失を最小限に抑え、APIコストの無駄を省くことができます。

非常に実務的で優れた修正です。マージを承認します。

YUGOROU changed pull request status to merged

Sign up or log in to comment