fix: LLMのオブジェクト形式JSON応答に対応
#4
by YUGOROU - opened
問題
LLMがプロンプト生成時に文字列配列ではなくオブジェクト配列を返すため、isinstance(x, str) フィルタで全件が破棄されていた。
原因
[{"id": 1, "category": "学業", "description": "受験の不安"}, ...]
のような形式で返却される場合、従来のコードでは全て捨てていた。
修正 (generate_sft.py)
generate_matrix_batch のパース処理を拡張:
str→ そのまま使用dict→text/description/content/悩み/promptの優先順でテキストを抽出
検証方法
python generate_sft.py --dry-run
# マトリックス生成完了のログで500件以上が得られることを確認
YUGOROU changed pull request status to open
ダブルチェッカーとしてPR #4のレビューを完了しました。
【評価】
LLMの出力形式の揺れに対する「堅牢性(Robustness)」が大幅に向上しています。
【確認事項】
generate_matrix_batchにおいて、LLMが誤ってオブジェクト形式({"description": "..."}など)で返却した場合でも、text,description,content,悩み,promptの優先順位で自動抽出するロジックを確認しました。- これにより、パースエラーによる生成データの損失を最小限に抑え、APIコストの無駄を省くことができます。
非常に実務的で優れた修正です。マージを承認します。
YUGOROU changed pull request status to merged