아마존 세이지메이커 AI, 대규모 모델 맞춤화 및 훈련 효율 강화
- •아마존 세이지메이커 AI는 노바와 라마 등 최신 모델을 위한 서버리스 맞춤화 기능을 출시했다.
- •노바 포지를 통해 조기 체크포인트를 활용한 고성능 맞춤형 모델 구축과 파멸적 망각 방지가 가능해졌다.
- •하이퍼팟의 탄력적 및 무중단 훈련 기능은 하드웨어 효율을 극대화하여 GPU 가동률을 95%까지 높였다.
아마존 세이지메이커 AI(Amazon SageMaker AI)가 대규모 AI 모델의 훈련 및 미세 조정 과정을 간소화하는 대대적인 업데이트를 발표했다. 이번 업데이트의 핵심인 서버리스 모델 맞춤화 기능은 AI 에이전트를 통해 개발자가 인간의 선호도나 특정 비즈니스 목표에 맞춰 모델을 정렬하는 복잡한 과정을 안내한다. 특히 에이전트가 기술적 설정을 자동으로 처리함에 따라, 기업들은 별도의 서버나 고비용 컴퓨팅 클러스터를 직접 관리하지 않고도 고유한 데이터와 산업별 제약 조건에만 집중할 수 있게 되었다.
이와 함께 고도의 추론 능력을 갖춘 모델을 구축하기 위한 전문 도구인 '아마존 노바 포지(Amazon Nova Forge)'가 도입되었다. 노바 포지는 개발자가 훈련 초기 단계나 중간 단계에서 개입할 수 있도록 지원하며, 이를 통해 처음부터 다시 훈련할 필요 없이 효율적인 모델 개선이 가능하다. 또한 기업의 독점 데이터와 정제된 데이터셋을 혼합하여 학습함으로써 AI가 기존 지식을 잃어버리는 '파멸적 망각' 현상을 효과적으로 방지한다. 실제로 노무라 종합연구소의 이나바 타카히코 상무이사는 이러한 기술이 금융 서비스에 특화된 거대언어모델(LLM) 구축을 가능하게 한다고 평가했다.
한편 대규모 운영을 지원하는 '세이지메이커 하이퍼팟(SageMaker HyperPod)'은 신뢰성 향상을 위해 탄력적 및 무중단 훈련 기능을 새롭게 지원한다. 탄력적 훈련은 가용 하드웨어 상황에 따라 작업 부하를 자동으로 조절하며, 무중단 훈련은 하드웨어 결함 발생 시 정상적인 칩으로 데이터를 즉시 전송해 수 초 내에 복구를 완료한다. AWS의 기술 리드인 안쿠르 메로트라는 이러한 시스템이 컴퓨팅 자원의 가동률을 최대 95%까지 끌어올려 모델 개발 비용과 시간을 획기적으로 줄여준다고 설명했다. 또한 오픈소스 도구인 MLflow의 서버리스 버전을 포함하여 개발자가 훈련 과정을 실시간으로 모니터링할 수 있는 관측성도 강화했다.
마지막으로 콜리니어 AI(Collinear AI)의 공동 창립자인 소우먀딥 바크시는 이러한 혁신이 복잡한 인프라 관리 부담을 줄여준다고 강조했다. 이에 따라 기업들은 인프라 운영보다는 모델의 성능 최적화와 실제 비즈니스 가치 창출에 더 많은 역량을 투입할 수 있을 것으로 기대된다. 또한 이번 업데이트는 복잡한 강화 학습 없이도 인간의 선호도를 반영하는 직접 선호도 최적화(DPO) 기법을 쉽게 적용할 수 있게 하여 AI 모델의 윤리성과 효율성을 동시에 확보했다는 평가를 받는다.