핀테크 기업 Kepler, 금융 서비스에 검증 가능한 AI 도입
- •Kepler, Anthropic의 Claude API를 활용해 금융 서비스용 검증 가능한 AI 아키텍처 구현
- •출처 표기와 엄격한 오류 감소를 우선시하여 규제 준수 표준 충족
- •실험적 챗봇을 넘어 데이터 기반의 감사 가능한 금융 의사결정 도구로 전환
생성형 AI가 금융 서비스에 통합되는 과정은 근본적인 모순 때문에 오랫동안 정체되어 왔다. 금융업계는 절대적인 정밀함을 요구하지만, 기술은 본질적으로 확률에 기반하기 때문이다. 금융기관은 정확성보다 유창함을 우선시하는 시스템에 의존할 여유가 없다. 자본, 규제, 보고 등을 다루는 시스템에서 허용되는 오차 범위는 사실상 제로에 가깝다.
여기서 검증 가능한 AI라는 개념이 등장한다. 이는 초기 창의적 글쓰기 챗봇에서 벗어나 데이터 무결성을 최우선으로 하는 기업용 증거 기반 시스템으로의 중요한 전환을 의미한다. 금융과 머신러닝의 교차점에서 활동하는 기업인 Kepler는 최근 이 격차를 해소하는 방법을 입증했다.
Claude API를 활용하여 단순한 텍스트 생성을 넘어 검증 가능한 에이전트로 작동하는 시스템을 설계했다. 이 핵심 메커니즘은 AI의 출력을 특정 원천 데이터에 직접 연결하는 것이다. 시스템이 금융 규제나 시장 통계에 대해 주장할 때, 사용자가 원본 문서를 추적할 수 있는 출처를 제시하도록 강제한다. 이를 통해 AI는 사실을 왜곡하지 않고 검증된 정보의 전달자 역할을 수행한다.
이러한 접근 방식은 시스템을 대하는 비전문가들에게도 큰 의미가 있다. 기존 챗봇은 사실 관계가 불분명한 답변을 그럴듯하게 꾸며내는 오류인 할루시네이션(Hallucination)에 취약했다. 하지만 AI가 인증된 문서 라이브러리를 참조하도록 구조화함으로써, 기업들은 대규모 언어 모델을 신뢰할 수 있는 검색 및 분석 도구로 탈바꿈시키고 있다.
이러한 AI 활용의 진화는 의료나 법률과 같이 규제가 강한 분야의 표준이 될 것으로 보인다. 전략의 핵심은 모델의 복잡성을 키우는 것이 아니라, 더욱 절제되고 규율 있는 시스템을 만드는 것이다. 이는 AI 안전이 단순히 정렬 훈련의 문제가 아니라 모델이 작동하는 환경 설계의 문제임을 시사한다.
AI 산업화의 흐름을 지켜보는 대학생들에게 이번 변화는 하이브리드 아키텍처로의 이동이라는 중요한 추세를 보여준다. 거대 모델의 창의적 능력을 엄격한 논리적 가이드레일 안에 가두는 성숙기를 지나고 있는 셈이다. 앞으로의 전문적인 업무는 AI 결과물을 맹목적으로 신뢰하는 것이 아니라, 시스템이 제공하는 증거 기반의 추론을 검증하는 방식으로 바뀔 것이다.