AI 비서 '오픈클로'의 역습, 전 세계 보안 흔드는 시한폭탄 되나
- •중국 정부의 강력한 보안 경고에도 불구하고 오픈클로(OpenClaw) 도입 사례 급증
- •22만 개 이상의 인스턴스 노출로 인한 치명적인 원격 코드 실행(RCE) 위험 직면
- •글로벌 대기업들의 오픈클로 사용 금지 및 안전한 AI 인프라 인재 확보 가속화
오픈소스 AI 비서 프레임워크 '오픈클로(OpenClaw)'가 전 세계적인 열풍을 일으키고 있으나, 보안 전문가들은 이를 '보안 시한폭탄'이라 경고하고 있다. 비전문가도 슬랙이나 이메일에 AI 비서를 손쉽게 연결할 수 있는 편의성 덕분에 출시 84일 만에 깃허브 스타 23만 개를 돌파하는 기염을 토했다. 하지만 이러한 폭발적 성장 이면에는 해결되지 않은 심각한 보안 결함과 책임 소재의 공백이 도사리고 있다.
특히 오픈클로는 기술 혁신보다 '책임의 오픈소스화'를 택했다는 비판을 받는다. 라이선스 문구 한 줄로 모든 해킹 피해 책임을 사용자에게 전가하며, 기존 빅테크들이 법적 리스크로 주저하던 고위험 기능을 무분별하게 구현했기 때문이다. 현재 22만 개 이상의 인스턴스가 인터넷에 무방비로 노출되어 있으며, 암호화폐 지갑 정보를 탈취하는 악성 스킬까지 유통되는 등 보안 생태계는 이미 위험 수위에 도달했다.
한편 중국 정부의 도입 독려 속에 보안 인식이 낮은 비전문가 사용자가 급증하며 해커들에게 거대한 공격 표면을 제공하고 있다. AI 에이전트가 이메일과 시스템 파일에 접근하는 강력한 권한을 가지면서, 환각 현상으로 인한 데이터 영구 삭제나 기업 데이터베이스 파괴는 구조적인 위협이 되었다. 인공지능이 내리는 잘못된 판단 하나가 단순 실수를 넘어 개인의 삶과 기업 자산에 회복 불가능한 타격을 입히는 실정이다.
이에 따라 마이크로소프트와 애플 등 글로벌 기업들은 사내 오픈클로 사용을 전면 금지했다. 업계의 초점은 이제 기능 경쟁을 넘어, 에이전트의 접근 권한을 격리하고 판단을 검증하는 근본적인 보안 인프라 구축으로 이동 중이다. AI 대화 기록이 법적으로 보호받지 못한다는 최근 판결은 생성형 AI 기술 도입 시 더욱 강력한 경각심과 제도적 장치가 뒷받침되어야 함을 시사한다.