클로드 4.5, 테트리스 코딩서 GPT-5.2 압도
- •클로드 오푸스 4.5는 단 한 번의 프롬프트로 완벽한 테트리스 게임을 구현하며 코딩 능력 1위를 차지했다.
- •고가의 GPT-5.2 프로는 높은 비용에도 불구하고 단순 코딩 작업에서 오류를 범하며 낮은 가성비를 보였다.
- •중국의 딥시크 V3.2는 정교함은 부족했으나 압도적으로 낮은 비용 덕분에 반복 작업에서는 여전히 유효한 선택지로 평가받았다.
AI 기술의 급격한 발전으로 매주 새로운 모델이 최고 성능을 자처하는 가운데, 개발자들 사이에서는 실무에 가장 적합한 도구를 찾으려는 시도가 이어지고 있다. 이에 따라 오픈AI의 GPT-5.2 프로, 앤스로픽의 클로드 오푸스 4.5, 그리고 딥시크 V3.2를 대상으로 고전 게임인 테트리스 제작 실험이 진행되었다. 실험 결과 클로드 오푸스 4.5가 압도적인 승기를 잡았다. 이 모델은 단 2분 만에 단일 프롬프트로부터 부드러운 움직임과 세련된 그래픽을 갖춘 게임을 완벽히 생성하며 속도와 품질 모두에서 경쟁사들을 앞질렀다.
특히 기대를 모았던 GPT-5.2 프로는 높은 가격대에도 불구하고 예상 밖의 부진한 결과를 보였다. 블록 이동의 메커니즘 오류나 화면 렌더링 문제와 같은 치명적인 버그가 다수 발견되었다. 클로드보다 4배나 높은 비용이 책정되었음에도 기초적인 코딩 효율성은 현저히 떨어지는 것으로 나타났다. 한편, 중국의 딥시크 V3.2는 극강의 경제성을 보였으나 블록이 사라지는 등 실행 불가능한 수준의 코드를 출력하며 정교함에서 한계를 드러냈다.
다만 이러한 결과가 모든 영역에 적용되는 것은 아니다. 고도의 논리적 추론이나 복잡한 수학 연산이 필요한 작업에서는 여전히 GPT-5.2 프로가 우위를 점할 가능성이 남아 있다. 하지만 일상적인 코딩과 빠른 배포가 목적인 환경에서는 현재 클로드 오푸스 4.5가 가장 현실적인 대안으로 꼽힌다. 실제로 개발자들은 작업의 성격에 맞춰 논리 구조 도출 능력인 추론 방식과 사용료 산정 단위인 토큰 비용을 면밀히 비교해 업무 흐름을 최적화해야 한다.
결국 이번 실험은 단순히 브랜드 이름이나 가격, 혹은 최신 출시 여부만으로 AI 도구의 우수성을 판단할 수 없음을 시사한다. 데이터로부터 논리적 결론을 도출하는 능력의 깊이는 모델마다 다르기에 프로젝트의 구체적인 성격에 따른 적재적소의 선택이 필수적이다. 또한 향후 AI 시장은 단순한 성능 경쟁을 넘어 특정 기술 분야에서의 실무 효율성을 증명하는 방향으로 재편될 전망이다.