미 국가정찰국, 위성 AI의 설명 가능성 강화 추진
- •국가정찰국(NRO)이 AI의 의사결정 과정을 파악하기 위한 '설명 가능성' 확보를 최우선 과제로 선정함.
- •위성 군집 운영 및 실시간 센서 데이터 분석을 위해 자율 시스템 도입을 확대하고 있음.
- •크리스 스콜리스(Chris Scolese) 국장이 '블랙박스' AI 모델에 대한 강력한 검증 체계의 필요성을 강조함.
국가 안보라는 엄중한 영역에서 미국 국가정찰국(NRO)은 인공지능의 '블랙박스' 문제라는 익숙한 도전에 직면했다. 정보기관이 점점 더 자율적인 위성 군집으로 전환함에 따라, 퇴임을 앞둔 크리스 스콜리스(Chris Scolese) 국가정찰국장은 모델의 추론 과정을 추적할 수 있는 '설명 가능성'을 핵심적인 임무 해결 과제로 지목했다. 알고리즘이 지상의 의심스러운 활동을 감지하는 것만으로는 부족하며, 정보 분석가들은 중대한 결정을 내리기 위해 그 판단의 근거를 반드시 이해해야 한다.
현재 국가정찰국은 소규모 중앙 집중식 위성 클러스터에서 저궤도상의 방대한 위성 군집으로 전환하는 과도기에 있다. 이러한 복잡성은 인간 운영자가 단독으로 관리하기 어려운 수준이기에 자율 시스템의 통합은 필수적이다. 이러한 AI 에이전트는 실시간 임무 할당과 궤도 수정, 상황 대응을 수행하며 인간의 상시 개입 없이도 위성 군집을 효율적으로 관리한다. 하지만 일상적인 자동화를 넘어 복잡한 데이터 합성으로 나아감에 따라 이러한 모델을 검증해야 할 필요성은 기하급수적으로 커지고 있다.
크리스 스콜리스 국장의 우려는 AI 적용 방식의 양면성을 보여준다. 위성 유지 보수나 발사 체크리스트와 같은 단순 작업용 봇을 테스트할 때는 검증 과정이 명확하다. 그러나 동일한 시스템이 전 세계의 다양한 센서 데이터를 실시간으로 합성하는 임무를 맡게 되면 상황은 완전히 달라진다. 국가정찰국은 현재 내부 및 산업 파트너가 개발한 모델을 엄격하게 테스트하기 위해 고성능 컴퓨팅 클러스터인 '초고밀도 환경(Ultra-Dense Environment)'을 활용하고 있다.
이는 국방 분야 AI 도입에 있어 속도만큼이나 철저하고 감사가 가능한 검증 체계가 중요하다는 더 넓은 흐름을 시사한다. 이 분야를 공부하는 학생들에게 이번 사례는 현재 머신러닝이 가진 현실적인 한계를 보여주는 좋은 교재가 될 것이다. 학문적 환경에서는 모델의 성능 지표에 집중하는 경우가 많지만, 국가 안보 현장에서는 '결과'만큼이나 '왜 그런 결과가 나왔는지'에 대한 이유가 중요하다.
AI가 잠재적 위협을 식별할 때, 의사결정권자는 법적·윤리적 차원에서 증거의 흐름을 이해할 책임이 있다. 국가정찰국이 추진하는 알고리즘 의사결정의 투명성 확보는 향후 정부 기관이 AI를 도입하는 방식에 큰 영향을 미칠 전망이다. 이는 블랙박스식 편리함에서 벗어나 해석 가능하고 검증 가능한 지능형 시스템을 지향하는 새로운 변화의 신호탄이 되고 있다.