AWS, M8azn 인스턴스 출시 및 Bedrock 신규 모델 대거 추가
- •Amazon EC2 M8azn 인스턴스는 고주파 매매와 게이밍을 위해 5GHz AMD EPYC 프로세서를 탑재했다.
- •Amazon Bedrock에 DeepSeek V3.2와 Qwen3 Coder Next를 포함한 6종의 오픈 웨이트 모델이 통합됐다.
- •Project Mantle은 OpenAI API 호환성을 갖춘 서버리스 추론을 통해 대규모 모델 서빙을 지원한다.
AWS가 5세대 AMD EPYC 프로세서를 탑재한 M8azn 인스턴스를 정식 출시하며 클라우드 시장에서의 지배력을 더욱 공고히 했다. 이 인스턴스는 5GHz의 압도적인 클럭 속도를 구현해 실시간 금융 분석이나 고성능 컴퓨팅(HPC)처럼 지연 시간에 민감한 작업에 최적화된 설계를 자랑한다. 특히 이전 세대보다 연산 성능이 2배 향상됨에 따라, 1밀리초의 차이가 중요한 항공우주 시뮬레이션 및 통신 산업 등에서 핵심적인 역할을 수행할 전망이다.
생성형 AI 분야에서도 주목할 만한 변화가 있었다. Amazon Bedrock은 DeepSeek V3.2와 GLM 4.7을 포함해 6종의 주요 오픈 웨이트 모델을 새롭게 추가하며 라이브러리를 대폭 확장했다. 이번 업데이트를 통해 개발자들은 복잡한 추론부터 자율 코딩까지 특화된 워크로드에 맞춰 모델을 선택할 수 있는 유연성을 확보하게 됐다. 무엇보다 널리 사용되는 OpenAI API 표준과 호환되는 저비용 모델을 특정 제공업체에 종속되지 않고 배포할 수 있다는 점이 큰 장점이다.
이러한 업데이트의 이면에는 AI 모델의 사용자 서빙 방식을 관리하는 정교한 분산 추론 엔진인 Project Mantle이 자리 잡고 있다. AWS는 자동화된 용량 관리를 지원하는 서버리스 추론 기능을 제공함으로써, 기업들이 복잡한 하드웨어 관리 없이도 애플리케이션을 자유롭게 확장할 수 있도록 돕는다. 이는 시스템이 스스로 복잡한 과업을 수행하는 자율 에이전트 역할을 하는 에이전틱 AI 구축 과정을 한층 간소화해 준다.
하드웨어와 인프라 외에 비용 효율성 측면의 개선도 함께 이루어졌다. Amazon OpenSearch Serverless에 도입된 '컬렉션 그룹' 기능은 여러 데이터 세트 간 컴퓨팅 자원을 공유하게 함으로써 운영 비용을 절감해 준다. 이러한 일련의 행보는 개발자들이 차세대 지능형 애플리케이션을 보다 효율적이고 유기적인 환경에서 구축할 수 있도록 지원하려는 AWS의 강력한 의지를 반영하고 있다.