Llama 4 Maverick은 128개 전문가와 순방향 연산당 170억 활성 매개변수(총 4,000억)를 갖춘 전문가 혼합(MoE) 구조의 Meta 대용량 멀티모달 언어 모델입니다. 12개 언어의 텍스트·이미지 입력과 100만 토큰 컨텍스트 창을 지원하며, 조기 융합 방식으로 네이티브 멀티모달을 구현합니다. 어시스턴트형 상호작용과 이미지 추론에 맞게 지시 조정되어, 고급 멀티모달 이해와 높은 처리량이 필요한 비전-언어 작업에 최적화되어 있습니다.
Llama 4 Maverick은 128개 전문가와 순방향 연산당 170억 활성 매개변수(총 4,000억)를 갖춘 전문가 혼합(MoE) 구조의 Meta 대용량 멀티모달 언어 모델입니다. 12개 언어의 텍스트·이미지 입력과 100만 토큰 컨텍스트 창을 지원하며, 조기 융합 방식으로 네이티브 멀티모달을 구현합니다. 어시스턴트형 상호작용과 이미지 추론에 맞게 지시 조정되어, 고급 멀티모달 이해와 높은 처리량이 필요한 비전-언어 작업에 최적화되어 있습니다.