자동화된 사고 과정의 보이지 않는 대가
- •AI 생성 콘텐츠는 인간의 언어적 유창함을 모방하나, 그 이면에는 인지적 노력이 결여된 경우가 많다
- •심리학자 존 노스타(John Nosta)는 이를 알맹이 없는 확신을 추구하는 '반지성주의' 경향으로 정의했다
- •AI 출력물에 대한 과도한 의존은 인간의 비판적 사고와 의사결정 능력을 저하시킬 위험이 있다
우리는 고품질의 설득력 있는 문서를 작성하는 진입장벽이 완전히 허물어진 시대를 살고 있다. Large Language Model(LLM)은 전문가 수준의 유려한 문장을 생성하지만, 이러한 효율성은 교묘하고도 위험한 역설을 동반한다. 심리학 전문 매체인 Psychology Today에 기고하는 존 노스타(John Nosta)는 이를 '반지성주의(anti-intelligence)'라 명명했다. 이는 지능의 완전한 부재가 아니라, 결과물은 훌륭하지만 그를 뒷받침할 인지적 과정은 존재하지 않는 기능적 역전을 의미한다.
과거의 지적 성장은 아이디어를 다듬고 압박 테스트를 거치는 저항의 과정과 맞닿아 있었다. 하지만 AI가 즉각적인 답을 제시하면서 이러한 필수적인 마찰이 사라졌고, 이는 존 노스타가 경고한 '압축된 인지(compressed cognition)' 현상을 초래했다. 우리는 개념을 치열하게 고민하는 대신, 그저 잘 다듬어진 결과물을 소비하는 방식에 익숙해지고 있다.
더 나아가 AI 도구의 사용은 '대리된 주체성(displaced agency)'이라는 상태를 야기한다. 사용자는 AI가 초안을 작성한 글이 자신의 의도와 일치한다는 이유만으로 본인의 통찰인 것처럼 받아들이곤 한다. 이는 명백한 기만은 아니지만, 지적 권위의 본질을 재협상하는 일이다. 사용자는 질문에서 답에 이르는 지적 여정을 생략한 채, AI가 도출한 결론의 확신만을 차용한다.
특히 비즈니스 환경에서 이러한 단절은 매우 치명적이다. 전략이나 의사결정 과정이 충분히 검증되지 않은 확신에 의해 주도될 때, 조직의 사고력은 점진적으로 퇴화하기 때문이다. 보드룸이나 학술 현장에서 AI가 생성한 화려한 유창함이 책임감 있는 깊은 사유와 혼동되고 있다는 점은 매우 우려스러운 대목이다.
결국 가장 시급한 문제는 AI 출력물을 그 가치보다 더 신뢰하는 '침묵의 기본값'이다. 우리가 탐구라는 의도적인 과정보다 AI 답변의 즉각적인 속도를 우선시할 때, 전문성을 지탱하는 근본적인 지적 역량은 서서히 잠식된다. 자동화된 도구가 결코 대신할 수 없는 견고하고 검증된 추론 능력이 필요한 순간, 우리는 이 보이지 않는 대가를 뼈저리게 체감하게 될 것이다.