Amazon SageMaker, EU AI 법 준수 지원 도구 출시
- •EU AI 법은 모델 공급자의 규정 준수 여부를 판단하기 위해 LLM 파인튜닝 시 FLOPs 기반 컴퓨팅 자원 추적을 의무화했다.
- •Amazon SageMaker AI는 규제 보고 및 임계값 모니터링을 자동화하는 오픈 소스 FLOPs Meter를 출시했다.
- •EU AI 법 기준을 준수하지 않을 경우 최대 1,500만 유로 또는 전 세계 연 매출의 3%에 해당하는 벌금이 부과될 수 있다.
대규모 언어 모델(LLM)을 파인튜닝하는 조직은 2025년 8월 2일에 도입된 EU AI 법 규정에 따라 부동소수점 연산(FLOPs) 단위로 컴퓨팅 자원을 추적해야 한다. 이 규정은 하류 사용자(Downstream users)와 범용 AI(GPAI) 모델 공급자를 구분하며, 특히 공급자에게 더 엄격한 정보 공개 및 저작권 준수 의무를 부여한다. 법안에 따르면 원본 모델 사전 학습 컴퓨팅의 3분의 1을 초과하는 파인튜닝 작업은 실질적 수정(Substantial modifications)으로 간주된다. 사전 학습 컴퓨팅 수치를 모를 경우 3.3×10²² FLOPs가 기본 임계값으로 적용되며, 10²³ FLOPs 이상의 모델은 30%의 상대적 임계값이 적용된다. 규정을 위반할 경우 최대 1,500만 유로 또는 글로벌 연 매출의 3%에 달하는 과태료가 부과될 수 있다.
Amazon SageMaker AI는 이러한 규제 준수 추적을 자동화하기 위해 오픈 소스 Fine-Tuning FLOPs Meter를 공개했다. 이 도구는 'compute_flops: true' 설정 하나로 기존 Hugging Face 학습 워크플로우에 통합된다. 또한 TrainerCallback을 통해 비패딩 토큰을 추적하고, NVIDIA Management Library(NVML)를 활용해 하드웨어 기반의 GPU 성능을 모니터링한다. 시스템은 아키텍처 기반 FLOPs와 보수적인 하드웨어 기반 상한선을 모두 계산하여 전체 파인튜닝 및 LoRA와 같은 파라미터 효율적 학습 방식에서도 정확성을 보장한다.
규제 준수 워크플로우는 사전 학습 추정, 런타임 추적, 사후 감사 기록 생성의 3단계로 구성된다. 개발자는 작업 시작 전 추정 유틸리티로 예상 자원 사용량을 규제 한도와 비교할 수 있으며, 학습 중에는 입력된 값을 바탕으로 자동으로 임계값 로직을 적용한다. 작업이 완료되면 감사 준비가 완료된 JSON 형식의 문서를 Amazon S3나 Amazon DynamoDB에 저장한다. 이러한 자동화는 수동 계산의 운영 부담을 줄이고 규제 검토를 위한 영구적인 기록을 제공한다. 이 기능은 AmazonSageMakerFullAccess와 같은 표준 권한이 필요하며 분산 학습 환경을 지원한다. 이를 통해 기업은 규제 상태를 검증하고 GPAI 모델 공급자로 재분류될 위험을 최소화할 수 있다.