히로시마 AI 프로세스, 글로벌 보고 체계 초안 공개
OECD AI
2026년 1월 25일 (일)
- •OECD와 G7, 히로시마 AI 프로세스 행동 규범을 위한 신규 보고 체계 시범 운영
- •글로벌 기관들의 피드백을 수렴해 고도화된 AI 시스템 모니터링 메커니즘 정교화
- •보고서를 통해 차기 '1.0' 운영 버전의 강점 및 개선 방향 제시
G7 이탈리아 의장국과 OECD가 히로시마 AI 프로세스의 보고 체계를 시범 운영하며 글로벌 AI 거버넌스를 향한 중요한 첫걸음을 뗐다. 이번 이니셔티브는 조직이 고도화된 AI 시스템을 개발할 때 국제 안전 표준을 얼마나 준수하고 있는지 증명할 수 있는 표준화된 방식을 마련하는 데 목적이 있다. 단순히 고차원적인 원칙에 머무는 것이 아니라 구체적인 보고 구조를 구축하려는 시도다. 이는 기업들의 자발적 약속과 실질적인 책임 사이의 간극을 메우려는 노력의 일환이다. 시범 운영 단계에는 학계, 산업계, 시민 사회 전문가들로 구성된 연합체가 참여해 초안의 효과성을 정밀하게 평가했다. 수집된 피드백은 '1.0' 정식 운영 버전의 완성도를 높이는 데 핵심적인 역할을 한다. 특히 모델의 실제 행동이 의도한 목표에서 벗어나는 현상인 능력 정렬 편차와 같은 잠재적 위험을 포착할 수 있을 만큼 엄격하면서도 실용적인 체계를 지향한다. 많은 조직이 규범 준수 의지를 보였으나, 구체적으로 어떤 데이터를 공유해야 하는지에 대한 더 정교한 지침이 필요하다는 지적이 많았다. 이러한 노력은 혁신을 장려하면서도 위험을 완화하려는 AI 안전성 강화의 흐름과 궤를 같이한다. G7은 통일된 보고 언어를 확립함으로써 글로벌 협력을 저해할 수 있는 규제의 파편화를 방지하고자 한다. 개발자가 안전 프로토콜과 위험 평가 방법론을 더 투명하게 공개하도록 요구하는 이번 체계에는 위험 프로필 분류를 위한 AI 안전 수준 (ASL)과 같은 표준 지표도 도입될 전망이다.