南アフリカ、AI生成文書の「ハルシネーション」により政策草案を撤回
indiatoday.in
2026年5月2日 (土)
- •南アフリカ政府が、AIが捏造した引用を含むAI政策の初稿を撤回。
- •政策文書にAIが生成した存在しない法律の参照が含まれていたことが判明。
- •政府の政策立案におけるAI活用の重大なリスクが浮き彫りとなった。
南アフリカ政府は、公式のAI政策草案を撤回した。草案にAIモデルが生成した事実無根の引用が含まれていたことが公になり、同国にとって大きな恥辱となった。技術革新のリーダーを目指す国家として、この事態は信頼性とガバナンスの両面で深刻な痛手である。
ハルシネーションとは、AIシステムがもっともらしい嘘をつき、事実に反する情報を生成する現象を指す。今回のケースでは、政策立案者が複雑な規制論拠を構築するために生成AIを利用した際、モデルが実際には存在しない判例や法規を「捏造」したことが原因だ。研究者やジャーナリストが引用元を照合した結果、すべてが根拠のないものだと判明した。
この事態は、AIが生成する権威的で整った文章が、事実確認の能力欠如を覆い隠してしまうという危険性を示している。大規模言語モデル(Large Language Model)はパターン認識や言語構造の生成には長けているが、出力された内容が現実世界の事実と一致するかを判断する「接地(グラウンディング)」の仕組みを持たない。
官僚的な業務へのAI導入が進む中、「人間による監視(ヒューマン・イン・ザ・ループ)」の重要性はますます高まっている。専門家にとって、文章の構成やトーンを確認するだけでは不十分だ。AIが生成したすべての主張に対して、徹底的な事実確認を行うための高度なデジタルリテラシーが不可欠となっている。
今回の南アフリカでの出来事は、世界中の政府に対する教訓となるだろう。AIを用いた政策立案において、強力な監視体制を構築することこそが、ツールの導入よりも先決であることは明白だ。