PFN, 독자 개발 AI 칩 'MN-Core2' 가이드 공개
- •Preferred Networks(PFN)가 독자 AI 가속기 'MN-Core2'를 위한 그래프 컴파일러 제작 입문 가이드를 공개했다.
- •Python으로 작성된 모델을 하드웨어 전용 어셈블리 명령어로 최적화 및 변환하는 백엔드 기법을 상세히 해설한다.
- •MNIST 학습 과정을 실습하며 AI 가속기의 저수준 제어와 내부 데이터 흐름을 직접 경험해 볼 수 있다.
AI 개발 환경에서 계산 리소스의 효율화는 언제나 최우선 과제로 꼽힌다. 이에 따라 일본의 대표적인 AI 기업 Preferred Networks(PFN)는 자사 전용 AI 가속기인 'MN-Core2'의 성능을 극한까지 끌어올리기 위한 핵심 도구인 '그래프 컴파일러'의 제작 입문 가이드를 공개했다. 그래프 컴파일러란 프로그램의 계산 절차를 '계산 그래프'라는 형식으로 추상화한 뒤, 타깃 하드웨어의 특성에 맞춰 연산 순서를 재배치하거나 여러 처리를 하나로 묶는 연산자 융합 등의 과정을 통해 고속 실행 코드를 생성하는 고도의 소프트웨어 기술이다.
이번에 공개된 튜토리얼에서는 Python의 PyTorch로 작성된 AI 모델이 어떻게 MN-Core2 전용 저수준 명령어인 어셈블리로 변환되는지 그 백엔드 메커니즘을 단계별로 학습할 수 있다. 특히 MNIST 데이터셋을 활용한 다층 퍼셉트론 학습을 예제로 채택하여, 실제 훈련 과정 중에 칩 내부에서 데이터가 어떻게 움직이는지 생생하게 체감할 수 있도록 구성했다. 기존 범용 컴파일러가 미세한 명령어 순서를 정렬하는 수준에 머물렀다면, 그래프 컴파일러는 AI 특유의 행렬 곱이나 ReLU 같은 대규모 연산 단위로 계산을 파악하기에 더욱 과감하고 효율적인 최적화가 가능하다.
또한 MN-Core2만의 독특한 메모리 계층 관리 방식에 대해서도 깊이 있는 해설이 담겨 있다. 연산 유닛에 직결된 고속 소용량 메모리와 대용량 메인 메모리 사이의 데이터 이동을 얼마나 효율화하느냐가 AI 하드웨어의 진정한 성능을 좌우하는 열쇠가 된다. 이 가이드는 평소 의식하기 어려운 AI 칩의 내부 동작을 상세히 풀어내고 있으며, 하드웨어와 소프트웨어가 밀접하게 연결된 '수직 통합' 설계 사상을 배우고자 하는 엔지니어와 학생들에게 매우 귀중한 학습 자료가 될 것으로 보인다.