OpenAI, WebSocket 도입으로 AI 에이전트 속도 40% 개선
- •OpenAI는 지속적인 WebSocket 연결을 도입해 에이전트 워크플로우 처리 속도를 40% 향상했다.
- •새로운 상태 캐싱 메커니즘을 적용하여 대화 기록을 매번 재구성할 필요 없이 작업을 처리한다.
- •Vercel의 AI SDK, Cline, Cursor 등 실제 개발 환경에서 유의미한 성능 향상이 검증되었다.
인공지능 생태계가 단순한 대화형 인터페이스를 넘어 자율적인 '에이전트 워크플로우' 중심으로 급격히 재편되고 있다. 과거의 AI 도구들이 일회성 질의응답에 집중했다면, 최신 에이전트는 코드 버그 수정이나 파일 수정과 같은 복잡한 작업을 완수하기 위해 수십 번의 재귀적 연산을 수행한다. 이 과정에서 기존의 통신 방식은 병목 현상을 유발하는 주된 원인이 되었다.
기존의 HTTP 통신은 단순한 교환을 위해 설계된 방식이다. 에이전트가 생각의 각 단계를 거칠 때마다 서버와 매번 새로운 연결을 시도해야 했고, 이 과정에서 발생하는 연결 설정 및 인증 작업은 불필요한 '오버헤드'를 야기했다. 마치 대화의 문장마다 정식 서신을 주고받는 것과 같은 비효율이 발생한 셈이다.
OpenAI는 이 문제를 해결하기 위해 클라이언트와 서버 사이의 통신을 상시 유지하는 WebSocket 방식을 도입했다. 이를 통해 매번 반복되던 핸드셰이크 과정을 생략하고, 메모리 기반의 캐시 시스템을 추가했다. 서버는 이전 대화 상태를 저장하고 특정 식별자를 통해 이를 즉시 불러옴으로써, 매 단계마다 전체 대화 문맥을 처음부터 재구성할 필요가 없게 되었다.
대학생이나 개발자들에게 이번 변화는 매우 실질적인 의미를 갖는다. 모델이 생각을 마무리할 때까지 수 초를 기다려야 했던 과거와 달리, 이제는 거의 즉각적인 응답을 기대할 수 있기 때문이다. 실제로 Vercel의 AI SDK는 이 업데이트를 통해 최대 40%의 속도 향상을 기록했다. 또한 Cline이나 Cursor와 같은 자율 코딩 환경에서도 더욱 매끄럽고 반응성 높은 사용자 경험이 구현되고 있다.
이번 업데이트는 2025년 초 개발자 도구 제품군이 출시된 이후 가장 중요한 인프라 개선 사례로 꼽힌다. 모델의 지능이 향상되는 만큼, 서버 간의 통신 방식과 상태 관리 전략 또한 발전해야 한다는 교훈을 보여준다. 이제 AI의 속도는 모델 자체의 성능뿐만 아니라, 도구와 도구 사이를 얼마나 효율적으로 연결하느냐에 의해 결정되는 시대로 접어들었다.