PFN, 독자 칩 'MN-Core'로 AI 인프라 경쟁 가속
- •PFN, 첫 MN-Core 컨퍼런스 개최 및 독자 칩 설계 사상과 SDK 전모 공개
- •LLM 추론의 핵심 지표인 'Tokens/sec' 강조 및 AI 에이전트용 인프라 최적화 추진
- •반도체 미세화 한계를 니어 메모리 설계와 AI 기반 칩 설계 자동화로 극복
Preferred Networks(PFN)가 자사 개발 AI 가속기 'MN-Core'에 집중한 첫 기술 컨퍼런스 'MN-Core Technology Conference 25'를 개최했다.
생성형 AI의 폭발적 보급으로 계산 자원 확보가 글로벌 경쟁의 핵심이 된 가운데, PFN은 설계부터 소프트웨어 스택까지 수직 통합한 계산 기반의 전모를 공개했다. 이번 행사는 연구개발 단계를 넘어, 상용 AI 클라우드 서비스인 'Preferred Computing Platform'을 통한 사회 구현 단계로의 전환을 명확히 보여주었다.
세션의 핵심은 반도체 미세화의 물리적 한계인 무어의 법칙 둔화에 맞선 '아키텍처를 통한 도전'이었다.
MN-Core는 프로세서 바로 옆에 메모리를 배치하는 '니어 메모리' 설계를 철저히 따르며, 데이터 이동 거리를 최소화해 압도적인 전력 효율과 연산 성능을 동시에 잡았다. 이는 특히 추론 시 처리 능력이 중요한 대규모 언어 모델 (LLM) 운용에서 큰 강점을 갖는다. 추론 속도, 즉 '토큰(Tokens)/sec'의 향상은 AI가 자율적으로 사고하고 외부 도구를 조작하는 AI 에이전트 구현을 위한 핵심 지표로 꼽혔다.
미래 전망으로는 칩 설계 자체에 AI를 도입하는 방식이 제시되었다. 물리적 설계 자동화와 고속화에 AI를 활용해 통상 수년이 걸리는 반도체 개발 기간을 획기적으로 단축하고, 나날이 진화하는 알고리즘에 하드웨어를 즉각 적응시키겠다는 전략이다.
특히 문서나 SDK조차 '사람뿐만 아니라 AI가 읽고 해석하는 것'을 전제로 최적화한다는 대목은 AI 개발 현장 자체가 다음 단계로 진입했음을 시사한다. 하드웨어와 소프트웨어를 동시에 제어하는 PFN의 강점이 차세대 AI 인프라 경쟁의 판도를 어떻게 바꿀지 귀추가 주목된다.