수중 AI 팀: 인간과 로봇의 협업 장벽을 넘다
- •MIT 링컨 연구소(MIT Lincoln Laboratory)가 인간 잠수부와 자율 수중 차량의 실시간 협업을 가능케 하는 AI 시스템을 개발했다.
- •광학 데이터와 소나 데이터를 통합하는 새로운 인지 알고리즘이 수중 항법 및 객체 분류의 난제를 해결하고 있다.
- •이번 프로젝트는 수색 구조 및 해저 케이블 수리 등 핵심 인프라 분야의 현장 요구를 해결하기 위해 설계되었다.
해저 공간은 가혹한 환경 조건으로 인해 오랫동안 현대 로봇 공학의 '사각지대'로 남아 있었다. 지상과 상공에서는 GPS를 통해 자유로운 항로 탐색이 가능하지만, 심해는 빛이 거의 없고 위성 신호도 닿지 않는 폐쇄적인 공간이다. 현재 해저 전력 케이블이나 통신망과 같은 핵심 인프라를 유지보수할 때는 원격 조종 로봇(ROV)을 이용하거나, 신체적 한계가 명확한 인간 잠수부에 전적으로 의존하는 분절적인 방식을 취하고 있다.
MIT 링컨 연구소의 연구진은 이러한 패러다임을 전환하고자 인간과 기계의 강점을 극대화한 새로운 협업 프레임워크를 개발했다. 잠수부는 탁월한 손기술과 실시간 판단 능력을 갖췄지만 이동성과 지구력이 부족하며, 반대로 자율 수중 차량(AUV)은 높은 이동성과 센서 성능을 자랑하지만 물체 조작과 같은 섬세한 작업에는 여전히 어려움을 겪는다. 두 주체를 하나의 팀으로 통합함으로써 인간의 작업 범위와 인지 능력을 대폭 확장하는 것이 이번 연구의 핵심이다.
이 과정에서 가장 큰 걸림돌은 인지 문제였다. 수중에서는 일반적인 카메라 영상의 빛이 투과되지 않고, 다양한 부유물로 인해 노이즈가 발생하여 기존의 컴퓨터 비전 모델이 혼란을 겪기 쉽다. 연구팀은 이를 해결하기 위해 센서 퓨전 기술을 도입하여, 가능한 곳에서는 광학 데이터를 활용하고 시야가 확보되지 않는 곳에서는 소나를 통해 구조적 지도를 생성하는 하이브리드 접근법을 구현했다.
또한, 통신 기술의 비약적인 발전도 뒷받침되고 있다. 전파가 전달되지 않는 수중에서는 소리를 이용한 통신인 'Acoustic Modem'을 사용해야 하는데, 이는 대역폭이 매우 낮고 지연 시간이 길다는 치명적인 단점이 있다. 연구진은 전송할 정보를 핵심 요소로만 압축하는 프로토콜을 개발해 데이터 효율성을 극대화했다. 이제 AI가 탐색과 분류의 기초 작업을 수행하면, 잠수부가 최소한의 데이터만 확인하여 최종 결정을 내리는 '인간 개입형(human-in-the-loop)' 아키텍처가 완성된 것이다.