학술 연구를 오염시키는 AI의 할루시네이션
- •학술 논문 내 조작된 인용문이 2023년과 2025년 사이 6배 증가했다.
- •전문가들은 이러한 허위 참고문헌 급증의 원인으로 생성형 AI 도구의 오남용을 꼽는다.
- •200만 편의 논문을 조사한 결과, 실존하지 않는 출처를 인용한 사례가 4,000건 발견되었다.
학계에서 생성형 AI는 문헌 검토를 자동화하고 복잡한 데이터를 종합하는 효율적인 도구로 주목받았다. 하지만 이 기술의 부작용으로 조작된 인용문이 확산되는 심각한 문제가 발생했다. 의학 저널 The Lancet에 발표된 새로운 분석에 따르면, 2023년에서 2025년 사이 할루시네이션에 의한 참고문헌 인용이 6배나 증가했으며, 이는 과학 문헌의 신뢰성을 위협하는 수준에 이르렀다.
연구자가 논문을 작성하거나 기존 연구를 요약할 때 대규모 언어 모델을 활용하면, 그럴듯해 보이지만 실제로는 존재하지 않는 인용문이 생성되기도 한다. 이러한 할루시네이션은 모델이 사실 확인을 거친 데이터베이스에서 정보를 가져오는 것이 아니라, 통계적 확률에 기반해 텍스트를 예측하기 때문에 발생한다. 결과적으로 연구자가 AI에 의존해 참고문헌을 작성할 경우, 과학적 지식 체계에 허구의 정보가 섞여 들어갈 위험이 있다.
수석 저자인 맥심 토파즈(Maxim Topaz, 컬럼비아 대학교 교수) 연구팀은 200만 편 이상의 학술 논문을 정밀 조사하여 4,000건의 조작된 참고문헌을 식별했다. 비록 전체 논문 수에 비하면 작은 비율일지라도, 증가 추세는 매우 위협적이다. 실제로 2026년 첫 7주 동안 조사된 논문 중 277건당 1건꼴로 오류가 나타났는데, 이는 AI 도입 이전과는 완전히 다른 현상이다.
전문가들은 이러한 현상이 '출판하지 않으면 도태된다'는 학계의 압박 문화와 관련이 있다고 분석한다. 일부 연구자들은 깊이 있는 분석 대신 AI를 활용한 손쉬운 방법을 선택하며, 연구 과정을 단순한 작업 반복으로 전락시키고 있다. 이로 인해 연구자는 비판적 사고를 하는 주체에서 AI가 생성한 결과물을 다듬는 편집자로 그 역할이 변질되고 있다.
주요 출판사들은 문제를 해결하기 위해 서둘러 대응책을 마련 중이다. 일부는 참고문헌을 자동 교차 검증하는 도구를 도입했지만, 실제 존재하는 논문을 오류로 잘못 판단하는 '위양성' 문제 또한 여전히 해결해야 할 과제다. 향후 학계는 AI가 제공하는 효율성과 과학이 요구하는 지적 정직성 사이에서 균형을 찾아야 하는 무거운 과제를 안게 되었다.