AI 신뢰성 확보 위해 표준화된 감시 체계 도입 서둘러야
Partnership on AI
2026년 3월 27일 (금)
- •AI 배포 전 테스트 중심에서 배포 후 지속적인 모니터링으로의 패러다임 전환 촉구
- •규제 불확실성과 영업 비밀 유출 우려로 인해 독립적인 AI 보증 서비스 수요 정체
- •자율적인 에이전틱 AI 시스템의 급격한 확산 속도를 따라잡지 못하는 안전 표준 개발
전 세계 경제 전반에 AI 도입이 가속화되면서 단순히 시스템을 믿는 수준을 넘어선 임계점에 도달했다. 글래스고에서 개최된 AI 표준 허브 글로벌 서밋에서 Partnership on AI(PAI)와 영국 국립물리연구소 전문가들은 '교정된 신뢰'로의 전환을 강력히 촉구했다. 이러한 방식은 엄격하고 독립적인 검증을 통해 특정 시스템이 가진 구체적인 역량과 한계를 명확하고 객관적으로 이해해야 한다는 점을 강조한다.
현재 가장 시급한 과제 중 하나는 AI 모델의 보증 절차가 배포와 동시에 사실상 중단되는 경우가 많다는 점이다. 배포 전 테스트는 비교적 활발히 이뤄지지만, 배포 후 지속적인 모니터링은 관련 생태계에서 가장 활용도가 낮은 서비스로 조사됐다. 특히 스스로 판단하고 행동하는 에이전틱 AI 시스템의 도입이 늘어남에 따라 계획이나 실행 단계에서 발생할 수 있는 잠재적 실패 위험이 커지고 있다. 이에 따라 실시간 오류 탐지는 이제 선택적 보호 장치가 아닌 핵심적인 요구사항으로 자리 잡고 있다.
하지만 독립적인 보증 시장은 명확한 규제적 인센티브의 부재와 기업 비밀 노출에 대한 우려로 인해 성장이 정체된 상태다. 서밋 설문 조사 결과에 따르면, 전문가의 46%가 새로운 법안 도입이 수요를 창출할 가장 효과적인 동력이 될 것이라고 답했다. 표준화된 프레임워크가 신속히 마련되지 않는다면, 재앙적인 위험을 초래할 수도 있는 프론티어 모델들이 적절한 안전 감독 없이 대중에 공개될 위험이 크다는 지적이다.