MIT 연구원, 신경 세포 자동자로 음악을 시각화하다
MIT AI News
2026년 3월 27일 (금)
- •MIT의 마리아노 살세도(Mariano Salcedo)가 신경 세포 자동자를 활용해 실시간으로 음악을 시각화하는 AI 시스템을 개발했다.
- •웹 기반 인터페이스를 통해 사용자는 오디오 에너지와 AI의 상호작용을 조정하며 시각적 퍼포먼스를 직접 제어할 수 있다.
- •AAAI 2026에서 발표된 해당 연구는 음악을 넘어 생물학적 모델링 등 자가 조직 시스템의 다양한 활용 가능성을 탐구한다.
MIT의 음악 기술 및 계산 프로그램 석사 과정에 재학 중인 마리아노 살세도(Mariano Salcedo)가 음향학과 시각 예술의 경계를 새롭게 정의하고 있다. 그는 신경 세포 자동자(NCA)를 활용해 음악이 단순한 시각적 배경에 머무는 것이 아니라, 능동적으로 시각적 진화를 주도하는 프레임워크를 구축했다. 기존의 시각화 방식이 정적인 필터에 의존했다면, 이 시스템은 각 픽셀을 청각 자극에 반응하는 살아있는 세포처럼 다루는 것이 특징이다.
이 기술의 핵심은 자가 조직 시스템을 활용한다는 점에 있다. 이는 새 떼나 생물체처럼 개별 요소들이 국소적으로 상호작용하며 복잡하고 창의적인 행태를 만들어내는 체계를 의미한다. 살세도가 개발한 웹 인터페이스는 신호 처리와 생성형 예술 사이의 간극을 좁히는 역할을 한다. 특히 연주자는 내부 매개변수를 실시간으로 조정함으로써 음악 스트림의 에너지와 시각적 자동자의 성장 패턴을 정교하게 동기화할 수 있다.
현재는 청취 경험을 강화하는 데 집중하고 있으나, 해당 연구는 복잡한 시스템을 모델링하는 데 있어 더욱 폭넓은 함의를 지닌다. 실제로 살세도는 2026년 초 개최된 AAAI 컨퍼런스에서 '인공 댄싱 지능(Artificial Dancing Intelligence)'이라는 제목으로 연구 결과를 발표해 주목받았다. 그의 작업은 거대 생성 모델에서 벗어나, 자연 현상을 정교하게 시뮬레이션하고 디지털 음악 표현에서의 문화적 편향을 줄일 수 있는 소규모 특화 아키텍처로의 전환을 시사한다.