남아공, AI 정책 초안 폐기… 생성형 AI의 허상 드러나
- •남아공 정부, AI가 조작한 허위 인용구가 포함된 AI 정책 초안 공식 폐기
- •존재하지 않는 법률 및 판례를 인용한 AI 생성 콘텐츠의 신뢰성 문제 노출
- •정부 및 공공 정책 수립 과정에서 AI 활용의 치명적인 위험성 시사
남아공 정부가 최근 발표한 국가 AI 정책 초안을 공식적으로 철회했다. 해당 문서에 AI가 생성한 허위 인용구들이 포함된 사실이 드러나면서 국제적인 망신을 샀기 때문이다. 미래지향적인 기술 국가로 도약하려던 남아공에 이번 사건은 정책의 신뢰도와 절차적 정당성을 크게 훼손하는 중대한 실책으로 남았다.
이번 사태는 고위급 정책 문서조차 Large Language Model(LLM)이 가진 근본적인 위험에서 자유로울 수 없다는 사실을 단적으로 보여준다. AI 모델이 그럴듯하게 들리지만 실제로는 사실과 다르거나 지어낸 정보를 만들어내는 현상을 Hallucination이라고 한다. 실제로 정책 작성자들은 복잡한 규제 논리를 구성하기 위해 생성형 도구를 활용했으나, 모델이 존재하지 않는 법률과 판례를 꾸며내면서 정책 전체의 무결성이 훼손되었다.
해당 사건은 비전문가 정책 결정자들에게 큰 과제를 남겼다. AI가 권위 있고 정교한 문장을 생성하는 능력은 뛰어나지만, 제시된 정보가 실제 사실에 부합하는지 검증하는 기능은 결여되어 있기 때문이다. LLM은 패턴 매칭과 언어적 구조 파악에는 탁월하나, 현실 세계의 검증 가능한 진실과 연결되는 '접지(grounding)' 메커니즘은 갖추지 못했다. 그 결과 속도와 효율성을 쫓던 정책 현장에서 오히려 전문적 결함이 발생하는 새로운 위험이 확인되었다.
정부 업무에 AI 도입이 가속화됨에 따라 이제 '사람이 개입하는 검증(human-in-the-loop)' 절차는 선택이 아닌 필수가 되었다. 전문가들은 더 이상 AI가 작성한 문장의 매끄러움만을 확인해서는 안 된다. 모든 생성 결과물에 대해 깊이 있는 사실 관계를 직접 확인하는 디지털 리터러시 역량이 요구되는 시점이다.
남아공의 이번 사례는 전 세계 정부에 강력한 경고가 될 것이다. 민감한 정책 수립 과정에서 생성형 도구를 도입하기에 앞서, 이를 철저하게 통제할 수 있는 견고한 감독 프로토콜을 마련하는 것이 무엇보다 선행되어야 함을 시사한다.