AI 연구의 자동화: 자율적 발견의 미래
- •Anthropic이 자율 AI 에이전트를 활용해 정렬 연구를 수행, 인간 연구원보다 뛰어난 실험 반복 효율을 입증했다.
- •화웨이(Huawei) 연구진이 HiFloat4 학습 포맷을 공개하며, Ascend 칩에서 업계 표준 대비 높은 연산 효율을 달성했다.
- •독립적인 안전성 연구 결과, 중국의 Kimi K2.5 모델이 독특한 안전성 상충 관계와 낮은 거부율을 보인다는 점이 밝혀졌다.
최근 인공지능 연구의 진전은 기계가 스스로 성능을 개선하는 복잡한 경로를 자율적으로 탐색하는 시대에 진입했음을 시사한다. 특히 Anthropic이 개발한 '자동화된 정렬 연구원(AAR)'은 AI 에이전트가 가설을 수립하고 위험 완화 실험을 설계하며 모델을 독립적으로 학습시키는 과정에서 인간 연구원보다 훨씬 뛰어난 성과를 거두었다.
이는 인공지능이 시스템의 오류나 정렬 문제를 해결하기 위해 인간의 가이드라인에 의존하던 방식에서 벗어나, 시스템 스스로 체계적으로 최적의 성능을 찾아가는 첫 번째 실질적 사례로 평가받는다. 이러한 자동화는 전 세계적인 연산 자원 경쟁이라는 맥락 속에서 더욱 가속화되고 있다.
화웨이가 도입한 HiFloat4 데이터 포맷은 서방의 수출 통제로 인한 제약을 극복하기 위한 대응책이다. 이들은 독자적인 Ascend 칩에서 데이터 처리 방식을 최적화함으로써 컴퓨팅 효율을 극대화했는데, 이는 하드웨어 확보가 어려운 상황에서도 하드웨어와 소프트웨어의 통합을 통해 물리적 한계를 돌파하려는 전략을 보여준다.
한편, 이러한 시스템의 안전성과 정렬은 여전히 전 세계적인 감시 대상이다. 중국 모델 Kimi K2.5에 대한 독립적인 감사 결과, 서구권의 첨단 모델과 유사한 경쟁력을 갖추면서도 안전성 철학에서는 뚜렷한 차이를 보였다. 특히 화학·생물·방사능·핵(CBRNE) 관련 질문에 대한 낮은 거부율과 민감한 이념적 콘텐츠에 대한 독특한 대응 방식은 주목할 만한 부분이다.
이번 발견은 정렬이 단일한 글로벌 표준이 아니라 각 국가의 문화적, 정치적 우선순위를 반영하는 개념임을 일깨워준다. 또한 최소한의 컴퓨팅 자원으로 안전 장치를 제거할 수 있다는 사실은 현재의 안전성 훈련 기법이 얼마나 취약한지 다시 한번 입증했다. AI의 지능이 고도화됨에 따라 '안전성'과 '성능' 사이의 간극은 더욱 벌어질 것이며, 이는 규제 당국과 개발자들에게 새로운 과제를 던져주고 있다.