아마존 세이지메이커 AI, 서버리스 모델 미세 조정 기능 출시
- •아마존 세이지메이커 AI가 딥시크, 라마 등 주요 모델에 대해 인프라 관리 부담이 없는 서버리스 미세 조정 기능을 선보였다.
- •DPO 및 AI 피드백 기반 강화학습(RLAIF)과 같은 고급 기술을 지원하여 모델의 정확도와 비즈니스 적합성을 높였다.
- •자동화된 자원 할당과 실험 추적 기능을 통해 모델 최적화에 소요되는 기간을 수개월에서 수일로 대폭 단축했다.
아마존이 자사의 세이지메이커(SageMaker) AI 플랫폼을 통해 거대언어모델(LLM)을 서버리스 방식으로 맞춤화할 수 있는 혁신적인 기능을 도입했다. LLM은 방대한 양의 텍스트 데이터를 학습하여 인간과 유사한 언어를 이해하고 생성할 수 있도록 설계된 정교한 인공지능 시스템을 의미한다. 이번 업데이트를 통해 개발자들은 메타의 라마(Llama)나 딥시크(DeepSeek)와 같은 고성능 모델을 대상으로 미세 조정(Fine-tuning) 작업을 수행할 때 복잡한 서버 관리나 하드웨어 프로비저닝에 신경 쓸 필요가 없게 되었다. 미세 조정이란 이미 사전 학습된 모델에 특정 도메인의 데이터셋을 추가로 학습시켜 특정 작업에 최적화된 성능을 발휘하도록 개선하는 핵심적인 과정이다.
이 시스템은 컴퓨팅 자원의 설정을 완전히 자동화하며, 입력되는 데이터셋의 크기에 맞춰 인프라를 자연스럽게 확장함으로써 고도화된 AI 개발의 문턱을 획기적으로 낮췄다. 특히 단순한 매개변수 업데이트를 넘어선 정교한 훈련 방법론들이 대거 지원된다. 다양한 출력 결과를 비교하여 모델의 행동을 인간의 선호도와 일치시키는 직접 선호도 최적화(DPO) 기술과, 하나의 AI가 다른 AI의 학습 과정을 돕는 AI 피드백 기반 강화학습(RLAIF) 기법이 그 예다. 이러한 고등 기술들은 특정 비즈니스 환경에서 AI의 답변 정확도를 극대화하고 보안 및 윤리적 안전성을 확보하는 데 매우 중추적인 역할을 수행한다.
AWS 뉴스 블로그의 수석 블로거이자 수석 개발자 권익 옹호자인 차니 윤(Channy Yun)은 이번 기능 도입이 기존에 수개월이 소요되던 프로젝트 일정을 단 며칠로 단축시키는 혁신을 가져올 것이라고 평가했다. 또한 이번 릴리스에는 서버리스 실험 추적 통합 기능이 포함되어 있어, 개발팀은 추가 코드 작성 없이도 여러 모델 버전의 성능 지표를 자동으로 기록하고 시각화할 수 있다. 이에 따라 최적의 모델을 선별하는 과정이 훨씬 간소화되었다. 한편 준비가 완료된 모델은 API 호출 방식인 아마존 베드락(Amazon Bedrock)으로 즉시 배포하거나 더욱 정밀한 제어를 위해 전용 엔드포인트에 구성하는 것도 가능하다. 실제로 이러한 전 과정의 자동화는 가공되지 않은 원천 데이터를 전문화된 AI 서비스로 변모시키는 워크플로우를 강력하게 뒷받침한다.