南アフリカ、AIによる捏造でAI政策案を撤回
- •南アフリカ政府が、AIが生成した架空の引用文献が含まれていたことを受け、AI政策の草案を撤回した。
- •政策文書には学術的に存在しない偽の参考文献が記載されていた。
- •今回の事態は、自動化された政策調査プロセスにおける「ハルシネーション」のリスクを浮き彫りにした。
南アフリカ政府は最近、旗艦となる人工知能政策文書を即時撤回するという屈辱的な事態に直面した。国家のAIイノベーションの枠組みを定めることを目的としたこの草案は、文書内の証拠や引用の大部分がAIツールによって捏造されたものであることが研究者によって指摘され、公開審査から取り下げられることとなった。この出来事は、政策立案者や学生に対し、自動執筆支援ツールが真実とはかけ離れた内容であっても、極めて権威的な口調で生成し得るという痛烈な警告を突きつけている。
問題の核心にあるのは「ハルシネーション」と呼ばれる現象である。大規模言語モデル(LLM)において、これはAIが事実誤認や完全に架空の情報を、さも確信に満ちた現実的な内容のように出力する現象を指す。今回のケースでは、起草チームが既存文献の要約や政策セクションの作成を生成AIに依存し、その根拠となるソースの検証を怠った可能性が高い。
その結果、政府文書には現実には存在しない引用が散りばめられることとなった。これは、専門家がAIの出力を十分な精査なしに信頼してしまう「自動化バイアス」が招いた典型例である。テクノロジーとガバナンスの交差点に注目する者にとって、この事例は「ヒューマン・イン・ザ・ループ(人間が介在するシステム)」の重要性を改めて示唆している。
AIはテキストの作成やデータの整理、政策案の提示をかつてない速度で行えるが、真実性や説明責任を理解する能力は持ち合わせていない。法務や学術調査の合成にこれらのツールを使いながら、厳密な手動の事実確認を欠くことは、名声や運営上の重大なリスクを生む。AIが行政のワークフローに深く浸透する中、モデルが生成したフィクションから有効なデータを見極める能力は、コンピュータサイエンス分野に限らず、あらゆるセクターで求められる不可欠なスキルとなりつつある。
南アフリカの経験は、生成AI時代の世界的なガバナンスにとっての先行指標となる。現在利用可能なAIツールの最も危険な側面は、その知能や能力そのものではなく、完璧な自信をもって信頼性を模倣する傾向にあることだ。今後は世界各国の規制機関が、検証プロトコルや「デジタルプロバナンス(データの出自の証明)」基準を確立し、社会政策の根幹をアルゴリズムによる幻影ではなく、検証済みの事実の上に構築していく必要がある。