AWS-Oumi, 맞춤형 LLM 미세조정 및 배포 간소화
AWS ML Blog
2026년 3월 11일 (수)
- •AWS와 Oumi, 오픈소스 Llama 모델의 미세조정 및 배포 프로세스 간소화
- •Oumi 플랫폼, Amazon EC2 기반의 레시피 기반 학습 및 합성 데이터 생성 기능 제공
- •맞춤형 모델을 Amazon Bedrock과 통합하여 관리형 서버리스 추론 구현
실험적인 모델 미세조정 단계에서 실제 운영 환경의 배포로 전환하는 과정은 파편화된 도구와 복잡한 하드웨어 관리로 인해 그동안 상당한 마찰을 겪어왔다. 이에 AWS는 오픈소스 모델 개발 프레임워크인 Oumi와 Amazon Bedrock의 서버리스 기능을 결합하여 간소화된 파이프라인을 도입함으로써 이 문제를 해결했다.
이 통합 워크플로우는 레시피 기반 학습을 활용하며, 덕분에 개발자는 모델 구성을 한 번만 정의하면 이를 여러 실험에서 손쉽게 재사용할 수 있다. 특히 컴퓨팅 비용을 절감하기 위해 모델 매개변수의 일부만 수정하는 저차원 적응 기술과 여러 GPU에 걸쳐 효율적인 학습을 가능케 하는 FSDP 기술을 지원한다. 또한 개발자는 Amazon EC2에서 이러한 도구를 활용해 부족한 데이터셋을 보완할 합성 데이터를 생성할 수 있으며, 이를 통해 모델이 고품질 정보로부터 단계적으로 학습하도록 보장한다.
미세조정 프로세스가 완료되면 모델 가중치는 Amazon S3에 저장되며 Amazon Bedrock으로 직접 가져올 수 있다. 이후 커스텀 모델 가져오기 기능을 통해 추론 인프라의 프로비저닝이 자동화되어, 클라이언트 애플리케이션은 표준 API로 맞춤형 모델을 호출하게 된다. 결과적으로 수동 GPU 확장 부담이 사라졌으며, 기업용 생성형 AI 애플리케이션을 위한 안전하고 확장성이 뛰어난 경로가 마련되었다.