남아공, AI 정책 초안 내 가짜 출처 적발로 폐기
- •남아프리카공화국이 AI가 생성한 허위 출처 표기가 발견된 국가 AI 정책 초안을 공식 철회했다.
- •솔리 말라치(Solly Malatsi) 통신·디지털기술부 장관은 정부 주도 AI 도입 시 인간의 관리 감독이 필수적임을 강조했다.
- •정부 관계자들은 AI 생성 결과물을 검증하지 않은 책임을 물어 징계 절차를 밟게 될 예정이다.
남아프리카공화국 정부가 국가 AI 정책 초안을 폐기하기로 한 결정은 오늘날 생성형 AI 시스템이 가진 근본적인 한계를 적나라하게 보여준다. 이번 정책 철회는 정부 관계자들이 작성 과정에서 LLM(거대언어모델)이 생성한 가상의 출처가 포함된 것을 발견하면서 이루어졌다. 대학생을 비롯한 기술 분야 관찰자들에게 이 사건은 알고리즘에 지적 노동을 과도하게 위임하면서도 충분한 인간의 검증 과정을 거치지 않는 현대 행정 체계의 허점을 일깨워준다.
이 사태의 핵심 원인은 환각 현상이다. 생성형 AI는 객관적인 데이터베이스에서 사실을 검색하는 것이 아니라, 통계적 확률에 기반하여 다음 토큰을 예측하도록 설계되었다. 따라서 AI에게 출처나 법적 근거를 제시하라고 요구하면, 시스템은 사용자의 프롬프트를 충족하기 위해 그럴듯해 보이지만 완전히 허구인 자료를 생성할 수 있다. 이는 소프트웨어의 오작동이 아니라, 경험적 정확성보다 언어적 일관성을 우선시하는 설계 구조 자체에서 비롯된 결과이다.
이번 사건은 '인간이 개입하는(Human-in-the-loop)' 작업 방식의 중요성을 다시금 강조한다. 솔리 말라치(Solly Malatsi) 장관의 언급처럼, 기술의 배포는 엄격한 전문가의 감독 없이 진행될 수 없다. AI 생성 콘텐츠가 일상화된 시대에, 알고리즘이 내놓은 출력물에서 유효한 정보를 판별하는 능력은 이제 선택이 아닌 전문적인 필수 요건으로 자리 잡고 있다.
또한, 이번 사례는 안전한 프레임워크 없이 AI 도입을 서두르는 정부 기관의 취약성을 여실히 드러냈다. 정책 결정에는 절대적인 정밀함이 요구되는데, 허위 데이터가 포함된 문서는 단순한 품질 저하를 넘어 정부 기관에 대한 대중의 신뢰까지 훼손할 수 있다. 이는 대학 및 연구 기관에도 중요한 교훈을 준다. 국가 정부조차 프롬프트 오류에 속을 수 있다면, 민간 기업이나 법률 사무소, 교육 기관 또한 동일한 위험에 노출되어 있기 때문이다.
기술이 성숙함에 따라 'AI 준비성'의 기준은 최신 모델 도입 여부를 넘어설 것이다. 앞으로는 검증 가능한 감사 기록을 구축하고, 의무적인 인간 검토 주기를 강화하며, 자동화된 결과물을 향한 비판적 문화를 조성하는 것이 핵심이다. AI는 초안 작성의 속도를 높여줄 수는 있지만 작성자의 책임을 대신할 수는 없다. 이제 우리에게 필요한 가장 중요한 전문 역량은 AI에게 명령을 내리는 기술이 아니라, 그 결과물을 검토하고 진실을 지키는 최종 편집자가 되는 것이다.