보스턴 공립학교, 엄격한 AI 안전 정책 제안
- •보스턴 공립학교가 교실 및 학교 네트워크 내 AI 사용을 규제하는 종합적인 가이드라인을 도입함.
- •학생들의 기술 문해력 교육을 의무화하여 허위 정보와 기만적인 합성 미디어에 대응함.
- •허가되지 않은 생성형 AI 도구 사용을 명시적으로 금지하고, 딥페이크 기반 괴롭힘을 완화하기 위한 구체적인 대책을 마련함.
생성형 AI의 급격한 확산으로 인해 교육 현장의 리더들은 단순한 관찰자에서 벗어나 적극적인 거버넌스 체계를 구축해야 하는 상황에 직면했다. 이러한 변화의 흐름 속에서 보스턴 공립학교는 기술의 잠재력과 안전한 교육 환경 사이의 균형을 맞추기 위한 포괄적인 정책을 공식적으로 제안하며 앞장서고 있다.
정책의 핵심은 기관의 안전성과 기술 문해력이라는 두 가지 기둥으로 구성된다. 오늘날 모바일 기기의 일상적인 접근성을 고려할 때 전면적인 금지는 현실적으로 실효성이 낮다. 이에 따라 학교는 무분별한 접근을 차단하는 대신, 학교가 승인한 도구만을 제한적으로 활용할 수 있도록 엄격한 디지털 환경을 조성하려는 전략을 취하고 있다.
이번 정책에서 특히 주목할 점은 딥페이크와 같은 합성 미디어의 위험성에 대한 대응이다. 딥페이크는 AI 기술을 이용해 특정 인물의 모습이나 영상을 거짓으로 조작하는 것을 의미하며, 이를 악용한 괴롭힘은 학생들에게 심각한 심리적, 사회적 피해를 줄 수 있다. 따라서 교육 당국은 생성형 기술이 가진 부작용으로부터 학생들을 보호하기 위해 징계 및 피해 회복을 위한 명확한 절차를 마련하고 있다.
더불어 의무적인 기술 문해력 교육을 도입한 것은 디지털 역량을 교육의 필수 요소로 바라보는 교육계의 인식 변화를 보여준다. 단순히 도구의 접근을 차단하는 것을 넘어, 알고리즘이 지배하는 사회를 살아가기 위해 필요한 비판적 사고 능력을 함양하는 데 집중하고 있다. 이는 생성형 AI 시대에 요구되는 지적 능력을 전통적인 읽기 및 쓰기와 같은 핵심 역량으로 간주하겠다는 의지이다.
보스턴 공립학교의 이번 시도는 향후 다른 교육 기관의 AI 거버넌스를 위한 중요한 본보기가 될 것으로 보인다. 기술의 오남용을 막기 위한 제한적 조치와 미래 노동 시장이 요구하는 AI 활용 역량을 길러주기 위한 교육적 목표를 조화롭게 연결했기 때문이다. 기술의 발전 속도는 정책의 대응력을 상회하기 마련이지만, 이와 같은 프레임워크는 점점 복잡해지는 디지털 환경에서 최소한의 안전장치를 마련하려는 실용적인 시도로 평가받는다.