EU, AI 법 규제 면제 논란으로 협상 난항
- •EU 국가들과 의원들 사이의 AI 법안 협상이 교착 상태에 빠졌다.
- •이미 기존 제품 안전 규정을 적용받는 산업의 면제 여부가 쟁점이 되고 있다.
- •AI 법은 고위험 AI 활용에 대해 엄격한 기준을 부과하는 것을 목표로 한다.
최근 유럽연합(EU)의 핵심적인 AI 법안을 둘러싸고 내부 갈등이 격화되면서 글로벌 AI 거버넌스의 지형이 변화하고 있다. 법안의 틀을 확정하기 위한 협상이 주요 산업군에 대한 면제 범위 문제를 두고 의견 차이를 좁히지 못하면서 중대한 난관에 부딪혔다.
이번 입법 교착의 핵심은 의료, 유틸리티, 소비재 등 이미 특정 안전 기준에 따라 운영되는 산업군에 AI 관련 추가 규제 면제를 허용할지 여부다. 이는 혁신을 저해하지 않으면서도 강력한 안전장치를 마련해야 한다는 정책 설계의 고전적인 딜레마를 잘 보여준다.
면제를 주장하는 측은 이미 존재하는 안전 규정에 새로운 AI 규범을 덧씌우는 것이 관료적 중복을 초래해 기술 도입을 지연시킬 수 있다고 지적한다. 반면, 비판적인 이들은 생체 인식이나 신용 평가 시스템 같은 고위험 AI 애플리케이션의 경우, 일반적인 안전 규정이 다루지 못하는 전문적인 감독이 반드시 필요하다고 강조한다.
기술과 법의 교차점을 관찰하는 학생들에게 이번 사태는 신흥 기술을 규제하는 일이 얼마나 복잡한지 보여주는 좋은 사례다. EU AI 법은 사회적 해악의 가능성이 높은 AI 시스템에 가장 엄격한 테스트와 투명성 의무를 부과하는 단계별 위험 프레임워크를 지향한다.
만약 특정 산업군이 이 프레임워크에서 제외된다면, 비판적인 시각에서는 중요 인프라가 고위험 AI에 필요한 감시를 피할 수 있는 규제 공백이 생길 것을 우려한다. 결국 이번 협상은 AI 기술의 독특한 특성을 고려해 통합된 표준을 적용할지, 아니면 기존의 파편화된 규제를 유지할지에 대한 근본적인 질문을 던진다.
EU는 과거 일반 데이터 보호 규칙(GDPR)을 통해 글로벌 기술 규제의 표준을 제시해온 만큼, 이번 AI 법의 최종 형태 또한 전 세계적인 영향력을 발휘할 것으로 보인다. 유럽의 입법자들이 산업계의 효율성 요구와 공공의 안전 보장 사이에서 어떤 합의점에 도달할지 전 세계가 주목하고 있다.