진정성 있는 고객 상담을 위한 AI 최적화
- •생성형 AI의 상담 응답을 인간의 기대치와 일치시키는 새로운 미세 조정 기법 개발
- •컨텍스트 증강 전략을 도입하여 비즈니스 환경에서의 AI 할루시네이션을 대폭 감소
- •자동화 지표와 인간 평가 모두에서 기존 모델을 뛰어넘는 응답 품질 확보
엉망이 된 주말 여행 후 호텔에 최악의 리뷰를 남겼다고 상상해 보자. 고객은 정중한 사과와 문제 해결을 위한 제안을 기대하지만, 실제로는 인간의 감정이 느껴지지 않는 기계적인 답변만 돌아오는 경우가 많다. 현재 AI 고객 상담이 직면한 현실이다. 대규모 언어 모델(LLM)은 강력한 성능을 자랑하지만, 고객 응대라는 민감한 영역에서 요구되는 섬세한 판단력과 어조를 모방하는 데는 여전히 어려움을 겪고 있다.
최근 Information Systems Research에 발표된 연구는 이러한 AI 정렬 문제를 정면으로 돌파했다. 연구진은 단순히 AI의 말투를 다듬는 것을 넘어, 모델이 학습 데이터의 부족분을 메우려다 잘못된 사실을 생성하는 할루시네이션 문제를 근본적으로 해결하고자 했다. 이들은 컨텍스트 증강 전략을 통해 AI가 고객의 불만에 응답할 때 검증 가능한 정보에 기반하도록 설계함으로써 응답의 정확성을 크게 높였다.
이번 연구의 핵심적인 기술적 성과는 데이터 처리 방식에 있다. 일반적으로 인간의 선호도를 학습시키려면 막대한 비용을 들여 수동으로 레이블링을 해야 하지만, 연구진은 기존의 상담 기록을 활용해 선호 데이터셋을 자동으로 구축하는 이론적 접근 방식을 고안했다. 또한 커리큘럼 학습을 통해 기초적인 개념부터 복잡한 행동 규범까지 순차적으로 AI를 학습시켜, 모델이 인간의 미묘한 소통 방식을 더 잘 파악할 수 있도록 했다.
아울러 연구진은 기존 오프라인 최적화 방식에서 나타나는 '과도한 보수성' 문제를 지적했다. 기존 모델들은 안전성에 치중한 나머지 기계적이고 반복적인 답변만을 내놓는 경향이 있었다. 이를 개선하기 위해 연구팀은 지지 제약(support-constraint) 기법을 도입하여, AI가 일관성을 유지하면서도 상황에 맞춰 자연스럽고 유연한 문장을 생성할 수 있는 구조를 마련했다.
실제 테스트 결과는 고무적이다. 새로운 접근 방식을 적용한 모델은 자동화된 벤치마크뿐만 아니라 실제 인간 평가에서도 압도적인 선호를 얻었다. 이는 미래의 고객 상담이 단순히 기술의 도입을 넘어, AI를 인간의 기대 수준과 어떻게 정렬할 것인가에 달려 있음을 시사한다. 이제는 범용적인 AI를 넘어, 안전하고 신뢰할 수 있는 도메인 특화형 AI를 구축하기 위한 정교한 공학적 접근이 필요한 시점이다.