OpenAI、ChatGPTの不可解な回答を制限へ
- •OpenAIが生成AI特有の不可解な出力やハルシネーションを抑制する新機能を導入した。
- •モデルが予測不能で無意味な挙動を示す現象を「ゴブリン」と呼び、修正対象としている。
- •GPTのバージョンや用途を問わず、一貫した出力を維持し信頼性を高めることを目指す。
「ゴブリン」という言葉はファンタジーのようだが、主要なAI研究所では深刻な技術的課題を指す。OpenAIは、大規模言語モデル(LLM)が示す予測不能で非論理的な出力を「ゴブリン」と呼び、これらを制限する取り組みを開始した。AIの生成プロセスにおける確率的性質を制御する難しさが浮き彫りになっている。
システムの中核には、次に続く可能性の高いトークンを予測するという基本構造がある。この確率に基づく柔軟性が創造性を生む一方で、事実と異なる情報を生成するハルシネーションや、支離滅裂な回答を招く要因にもなる。モデルが意図した枠組みを外れ、突然詩を詠んだり支離滅裂な反応を示したりする挙動は、ツールとしての信頼性を損なう重大な欠陥である。
今回の措置は、企業利用における安定性と精度の需要に応えるためのものだ。学習やコード生成といった実用的なタスクにおいて、モデルの気まぐれな出力は生産性を著しく低下させる。OpenAIは高い温度パラメータ設定時に生じがちな創造性よりも、指示に従う確実性を優先する姿勢を強めている。
この問題は、AIが人間の意図や価値観に沿って動作するよう制御するAlignmentの研究領域に深く関連している。ユーザーが求める「創造性」と、専門的な業務に必須となる「厳密な事実性」の両立は、モデル開発における最大の難問の一つだ。現在、学習手法の継続的な改善によって、この微妙なバランス調整が行われている。
今後は、こうした安全対策がすべての主要なAIベンダーにおいて標準化されるだろう。自律的にタスクを遂行するエージェント型システムへと進化するにつれ、不適切な出力がもたらすリスクは増大する。出力結果をユーザーに届ける前の検証や、事実確認の仕組みをアーキテクチャに組み込む動きが、より一層加速していくはずだ。