AIのハルシネーションが学術論文の引用を汚染している
- •学術文献における捏造された引用数は2023年から2025年の間に6倍に増加した。
- •専門家は、この偽の参照情報の急増が生成AIツールの誤用に起因すると指摘する。
- •200万本の論文を対象とした調査で、4,000件ものハルシネーションによる架空の出典が特定された。
学術分野における生成AIの活用は、文献調査の自動化や複雑なデータの要約といった効率化の恩恵をもたらすと期待されていた。しかし、捏造された引用が急増するという厄介な副作用が浮き彫りになっている。医学誌『ザ・ランセット(The Lancet)』に掲載された新たな分析によれば、2023年から2025年にかけて、ハルシネーションによる参照情報は6倍に増加しており、科学文献の信頼性に重大な危機が迫っている。
研究者が論文の草稿作成や先行研究の要約に大規模言語モデル(Large Language Model)を使用する際、これらのツールはもっともらしいが実際には存在しない引用を生成することがある。このハルシネーションは、モデルが静的で検証済みのデータベースから事実を検索するのではなく、確率に基づいてテキストを予測するために発生する。研究者が文献目録の作成をこれらのモデルに依存することは、科学的知識の集合体に虚偽を混ぜ込むリスクを孕んでいる。
主執筆者であるマキシム・トパズ(Maxim Topaz)らが200万本以上の論文を精査したところ、4,000件もの捏造された参考文献が特定された。全体から見ればわずかな割合に思えるかもしれないが、その増加ペースは極めて深刻だ。2026年の最初の7週間だけで、その割合は論文277本に1本の割合に達しており、AI以前の時代とは明らかに異なる状況にある。この傾向は、正確な出典が信頼性の根幹を成す系統的レビューや臨床ガイドラインの作成を著しく困難にしている。
専門家は、この現象がより深い構造的な問題を反映していると論じる。学術界に蔓延する「出版か、滅亡か(publish or perish)」という文化が研究者に近道を選択させ、AIがその表面的な作業を助長する究極のツールになっているのだ。文献を深く読み込み、統合するという本来のプロセスを放棄し、研究を単なる作業項目の消化として処理する著者も存在する。これにより、研究者の役割は批判的思考者から、機械が生成した成果物の編集者へと変質してしまった。
主要な出版社は対応に追われている。自動化ツールで文献目録を相互照合する試みもあれば、依然として誤検出に悩まされているところも多い。現状では、正当な出典を誤って排除してしまう「偽陽性」の問題が解消できていない。今後の学術界の課題は、AI支援による執筆の恩恵と、科学に必要な知的誠実さという厳格な基準をどう両立させるかにある。
結局のところ、科学的記録の完全性は人間の監視にかかっている。批判的な検証を欠けば、知識を加速させるはずのツールは、かえって真実を曖昧にする道具となってしまうだろう。