NVIDIA, 고효율 AI 모델 'Nemotron 3 Nano' 출시
AWS ML Blog
2026년 3월 10일 (화)
- •NVIDIA Nemotron 3 Nano 30B 모델이 Amazon Bedrock에서 서버리스 엔드포인트로 제공된다.
- •Transformer와 Mamba 레이어를 결합하고 전문가 혼합(MoE) 방식을 적용한 하이브리드 아키텍처로 고효율 추론을 구현했다.
- •SWE-bench 및 AIME 2025 벤치마크의 코딩과 수학 분야에서 최고 수준의 성적을 기록했다.
NVIDIA가 고성능 기업용 애플리케이션을 위해 설계된 300억 파라미터 규모의 정교한 모델인 Nemotron 3 Nano를 Amazon Bedrock에 출시하며 입지를 넓혔다. 기존의 밀집형(dense) 모델과 달리, 이 모델은 전문가 혼합(Mixture-of-Experts) 아키텍처를 활용하여 실제 작동 시에는 30억 개의 파라미터만 활성화한다. 이러한 설계 덕분에 모델은 높은 정확도를 유지하면서도 개별 응답에 필요한 연산 능력을 획기적으로 줄여 '빠른 사고'가 가능해졌다.
Nemotron 3 Nano의 기술적 근간은 Transformer와 Mamba 아키텍처를 통합한 혁신적인 하이브리드 설계에 있다. Transformer는 구조적 추론과 복잡한 계획 수립에 강점을 보이며, Mamba 구성 요소는 메모리 부하를 최소화하면서 방대한 정보를 효율적으로 처리한다. 특히 수백 페이지 분량의 텍스트에 해당하는 256,000 토큰의 컨텍스트 윈도우를 갖추고 있어, 복잡한 소프트웨어 개발이나 금융 데이터 분석에 최적화된 성능을 발휘한다.
개발자들은 Amazon Bedrock을 통해 별도의 인프라 관리 없이 서버리스 환경에서 이러한 기능을 즉시 활용할 수 있다. 이에 따라 개발 팀은 서버 유지보수 대신 핵심 기능 구현에만 집중할 수 있게 되었다. 또한 이 모델은 AWS의 보안 도구 및 검색 시스템과 유기적으로 통합되어, 기업 내부 문서를 기반으로 안전하고 신뢰할 수 있는 데이터 중심의 인공지능 어시스턴트를 구축하는 데 유리하다.