南アフリカ、AI生成の架空引用で国家AI政策を撤回
- •南アフリカが国家AI政策の草案を撤回。AIによる架空の学術的引用が発見されたため。
- •全67件の参考文献のうち、少なくとも6件がAIによるハルシネーション(幻覚)であったことが判明。
- •マラツィ大臣(南アフリカ通信・デジタル技術担当大臣)は、政府のデューデリジェンスにおける許しがたい失態であると認めた。
ガバナンスと人工知能が交差する領域には新たな難題が山積している。南アフリカの国家AI政策草案が、文書内に重大な誤りである「架空の学術的引用」が含まれていたことが発覚し、急遽撤回された事態がその好例だ。
現地のニュースメディアであるニュース24の調査により、計67件の引用のうち少なくとも6件が、信頼できる学術文献ではなくAIモデルによって創作された「ハルシネーション」であることが明らかになった。AIの責任ある利用を導くはずの政策が、皮肉にもその技術自体が持つ「もっともらしい虚偽を生成する」特性によって瓦解したのである。
大規模言語モデル(LLM)を専門的な業務フローへ急速に導入しようとしている学生にとって、これは「オートメーション・バイアス」の危険性を示す強力なケーススタディとなるだろう。これは人間が自動化された提案を正しく検証せず、盲目的に信頼してしまう心理的傾向を指す。政府の政策立案という高リスクな現場において、このようなバイアスは単なる事務的ミスにとどまらず、公共の信頼を損ない、組織的な意思決定の信憑性を脅かす結果を招く。
マラツィ大臣がこの事態を「受け入れがたい失態」と表現したことは、公共部門における新たなリテラシー基準の緊急性を浮き彫りにしている。単に文章を生成するツールを展開するだけでは不十分であり、利用者は出力結果を正式に採用する前に、ファクトチェックを行う批判的思考能力を備えなければならない。これは、AIツールが政府や企業で普及するにつれ、人間の役割が「コンテンツ作成」から「コンテンツ検証」へとシフトしていることを痛感させる出来事だ。
最終的に、この事件はAIを機密事項や公式な立場で利用する際の厳格なプロトコルの必要性を強調している。AIに調査の要約や法案の草案作成を委ねる場合、専門家がすべての主張を検証可能な外部データベースと照合する「ヒューマン・イン・ザ・ループ(人間の介入)」という枠組みが不可欠である。
現在は、AIの能力という新しさが、制度的な管理能力を追い越してしまっている過渡期にある。次世代のリーダーやプロフェッショナルとして、AI生成物をいかに監査し、妥当性を証明するかを学ぶことは、今後10年間で最も重要なスキルとなるだろう。