NRO, 위성 운영에 설명 가능한 AI 도입
- •NRO는 고위험 정보 결정의 신뢰성을 확보하기 위해 모든 AI 시스템의 설명 가능성을 의무화했다.
- •기관은 자율 위성 항법, 데이터 분류, 대규모 데이터 세트 기반 예측 분석에 AI를 도입 중이다.
- •NRO는 알고리즘을 속이기 위한 악의적인 공격으로부터 AI를 방어하기 위해 견고성 연구에 투자하고 있다.
미국 국가정찰국(National Reconnaissance Office)은 현대 AI 배포의 핵심 과제인 '설명 가능성'의 필요성에 직면했다. 정보 기관이 우주 기반 자산에 자율 시스템을 통합함에 따라, 단순한 성능을 넘어 모델의 판단 근거를 감사할 수 있는 능력이 국가 안보를 위한 필수 조건으로 부상했다.
NRO는 임무 요구 사항을 충족하기 위해 내부 판단 과정을 알 수 없는 '블랙박스' 시스템을 배제하고 있다. 대신 인간 분석가가 AI가 생성한 평가의 논리적 과정을 추적할 수 있도록 하는 연구를 추진 중이다. 이는 쏟아지는 위성 영상과 신호 데이터를 사람이 직접 검토하기에는 너무 방대하기 때문에, 적절한 자동화 도구가 필수적이기 때문이다.
이러한 연구는 위성 자체의 운영 자율성까지 확장된다. NRO는 위성 하드웨어가 촬영 시점과 대상을 실시간으로 결정하도록 돕는 AI를 활용하고 있다. 다만 자율성이 높아질수록 투명성도 함께 확보되어야 하기에, 대학 및 연구 기관과 협력하여 새로운 설명 가능성 프레임워크를 개발하고 있다.
모델의 내부 논리뿐만 아니라 시스템 보안도 핵심 과제다. AI 의존도가 높아지면서 악의적인 입력을 통해 알고리즘을 속이는 위협 또한 증가하고 있다. 따라서 NRO는 정교한 데이터 입력을 통해 발생할 수 있는 잘못된 결론을 방지하고자 견고성 연구에 적극적으로 투자 중이다.
결국 NRO의 로드맵은 정보 커뮤니티의 미래인 '인간-기계 협업' 모델을 지향한다. 목표는 인간 분석가를 대체하는 것이 아니라 그 능력을 보강하는 것이다. 인간의 판단이 최종 결정권자로 남고, 이를 설명 가능하고 견고한 알고리즘이 뒷받침함으로써 정보 업무의 효율성과 안전성을 동시에 추구하고 있다.