TerraScope AI, 픽셀 단위 지형 추론 구현
- •TerraScope 모델이 복잡한 지형 공간 추론을 위해 픽셀 수준에서 근거를 제시하는 기능을 도입했다.
- •추론 체인과 마스크가 포함된 100만 개의 샘플로 구성된 새로운 Terra-CoT 데이터셋이 공개됐다.
- •벤치마크 평가 결과, 시계열 변화 분석 및 이종 데이터 융합 분야에서 압도적인 성능을 증명했다.
지구 관측(EO) 분야에 인공지능을 통합하려는 시도는 추상적인 언어적 추론과 정밀한 시각적 좌표를 연결하는 데 오랜 어려움을 겪어왔다. 기존의 시각-언어 모델은 위성 이미지를 설명할 수는 있었지만, 결론 도출의 근거가 되는 정확한 픽셀 위치를 집어내는 데는 한계가 있었다. TerraScope는 이러한 간극을 메우기 위해 픽셀 단위로 근거를 제시하는 통합 아키텍처를 도입했으며, 이를 통해 모델이 지도나 위성 영상의 특정 관심 영역을 강조하며 자신의 추론 과정을 직접 보여줄 수 있게 되었다.
TerraScope의 가장 큰 특징은 데이터 유형과 시점에 대한 뛰어난 유연성이다. 이 모델은 표준 광학 이미지뿐만 아니라 전파를 이용해 지표면을 지도로 만드는 합성 개구 레이더(Synthetic Aperture Radar) 데이터와 같은 단일 모달리티 입력을 원활하게 처리한다. 특히 이러한 능력은 구름이 짙게 낀 지역을 모니터링할 때 매우 핵심적인 역할을 한다. 또한, 시간에 따른 이미지 시퀀스를 분석하는 시계열 추론에 특화되어 환경 변화나 도시 개발 패턴을 매우 세밀하게 감지해낼 수 있다.
이러한 기술적 발전을 뒷받침하기 위해 연구진은 사고 연쇄(Chain-of-Thought) 추론을 활용한 100만 건의 대규모 데이터셋인 Terra-CoT를 구축했다. 논리적 단계에 픽셀 수준의 마스크를 직접 포함함으로써, 모델은 시각적 증거를 통해 자신의 공간적 의사결정을 정당화하는 법을 학습한다. 실제로 새로운 벤치마크인 TerraScope-Bench에서의 평가 결과, 이 방식은 답변의 정확도를 개선할 뿐만 아니라 해석 가능한 결과를 제공하여 연구자와 도시 계획가들에게 AI의 통찰력을 더욱 신뢰할 수 있게 해준다.