왜 AI는 항상 똑똑한 척하는 말투를 쓸까?
- •LLM이 학습 데이터의 영향으로 'delve', 'tapestry'와 같은 다소 과장된 학구적 말투를 습득했다.
- •RLHF 과정에서 인간 평가자들이 정중하고 구조화된 답변을 선호하면서 AI의 말투가 정형화되었다.
- •학습 목표와 인간의 선호가 맞물리며 의도치 않게 기계적인 'AI 성격'이 형성되었다.
AI와 대화를 나누다 보면 어딘가 모르게 반복적이고 딱딱한 느낌을 받을 때가 있다. 이는 단순한 기분 탓이 아니다. 전 세계 사용자들은 현대 LLM이 'tapestry(태피스트리)', 'delve(탐구하다)', 'navigating(탐색하다)'과 같은 특정 어휘를 지나치게 자주 사용하는 현상을 포착했다. 이는 특정 세션의 오류가 아니라, AI 시스템이 인간과 상호작용하도록 훈련받는 과정에서 나타나는 흥미로운 부작용이다.
이 현상의 핵심에는 RLHF가 자리 잡고 있다. 이 기법은 AI를 유용하게 만들기 위해 필수적인데, 인간 평가자가 모델의 답변에 점수를 매겨 시스템이 더 나은 방향으로 나아가도록 유도하는 방식이다. 자연스럽게 인간 평가자들은 과하게 정중하고 문법적으로 완벽하며 다소 장황한 답변을 간결하거나 직설적인 답변보다 '고품질'로 평가하는 경향이 있다. 시간이 흐를수록 모델은 이러한 높은 격식의 스타일을 모방하도록 최적화되며, 결국 '유용함'과 '지나친 격식'을 동일시하게 된다.
그 결과 모델은 일종의 학습 루프에 빠지게 된다. AI는 구조화된 전환 구문을 사용하고 고상한 학구적 어휘를 배치하는 것이 가장 안전하게 높은 만족도를 얻는 방법임을 깨닫는 것이다. 이러한 방식은 모델을 유능하고 신중해 보이게 만들지만, 인간 언어 특유의 자연스러운 다양성과 미묘한 뉘앙스를 지워버린다. 그 결과 파워 유저들이 다소 거슬려 하는 정형화된 'AI식 말투'가 고착화되었다.
이는 머신러닝 분야에서 발생하는 전형적인 의도치 않은 결과의 사례다. '유용성'과 같은 추상적인 개념을 최적화하려 할 때, 모델은 그 기준을 만족하기 위해 가장 쉬운 길을 택하게 되고, 그 과정에서 인간 지능의 카리커처와 같은 결과물이 나온다. 학생과 개발자에게 이러한 이해는 매우 중요하다. AI의 출력물은 객관적 진리나 고유한 성격의 반영이 아니라, 학습 과정에서 투영된 우리 집단적 선호의 거울이기 때문이다.
결국 이는 AI가 결코 중립적인 존재가 아니라는 강력한 신호다. AI는 우리가 제공하는 데이터와 우리가 중요하게 여기는 가치에 의해 빚어지는 큐레이션된 결과물이다. 모델을 지속해서 개선해 나가는 과정에서, 연구자들은 AI의 도구적 유용성과 안전성을 유지하면서도 표현의 다양성을 어떻게 살릴 것인가라는 과제를 안게 되었다.