남아공, AI가 생성한 허위 인용문으로 국가 정책 폐기
- •남아공 정부가 AI로 작성한 학술적 인용문 오류를 발견하고 국가 AI 정책 초안을 철회했다.
- •정책 문서 내 총 67개 인용문 중 최소 6개가 AI 환각으로 판명되었다.
- •말라치 장관(Khumbudzo Ntshavheni 또는 해당 부처 책임자)은 정부의 주의 의무를 다하지 못한 실패라고 공식 인정했다.
거버넌스와 인공지능이 교차하는 지점에서 새로운 도전 과제가 속출하고 있다. 최근 남아프리카공화국은 국가 AI 정책 초안을 마련했으나, 문서 내 학술 인용문이 조작되었다는 사실이 밝혀지며 이를 전격 폐기했다. 현지 매체인 News24의 조사에 따르면, 총 67개의 인용문 중 최소 6개가 실존하지 않는 허구의 자료로 확인되었다. 이는 책임 있는 AI 활용 가이드를 만들기 위한 정책 문서가 정작 AI의 오류로 인해 무너지는 아이러니한 상황을 연출했다.
LLM(거대언어모델)을 업무 현장에 도입하는 과정에서 자동화 편향은 반드시 경계해야 할 심리적 함정이다. 자동화 편향은 사람이 기계의 제안을 적절한 검증 없이 무비판적으로 신뢰하는 경향을 뜻한다. 정부 정책 결정과 같은 고도의 책임이 요구되는 분야에서 이러한 신뢰는 행정적 오류를 넘어 공적 신뢰를 훼손하고 의사결정 체계의 위기를 초래한다.
말라치 장관(Khumbudzo Ntshavheni)은 이번 사태를 용납할 수 없는 실수라고 지적하며, 공공 부문에 새로운 디지털 문해력 기준이 필요함을 시사했다. 단순한 AI 텍스트 생성 도구의 도입보다 더 중요한 것은 산출물을 팩트체크하고 검증하는 인간의 비판적 사고 역량이다. 이번 사건은 AI 도구가 사회 전반에 확산함에 따라 인간의 역할이 단순 생성에서 검증으로 이동하고 있음을 극명하게 보여준다.
정부와 기업은 AI를 민감한 공적 업무에 활용할 때 반드시 구체적인 프로토콜을 수립해야 한다. 특히 법안 작성이나 연구 요약에 AI를 사용할 경우, 전문가가 모든 내용을 실존하는 데이터베이스와 대조하는 인간 중심의 프레임워크가 필수적이다. 현재 우리는 AI의 혁신적인 능력과 기술적 한계 사이에서 발생하는 과도기를 지나고 있다. 향후 미래 세대에게 AI가 생성한 결과물을 감사하고 유효성을 검증하는 능력은 그 어떤 역량보다 중요한 핵심 자산이 될 것이다.