요즘 AI 챗봇은 단순 검색 도구를 넘어서서 개인 상담가이자 조언자, 때로는 친구 역할까지 한다. 하지만 처음에는 위로와 공감을 받는 듯하다가, 시간이 지날 수록 실망하고 멀어지는 사람들이 늘고 있다. 전문가들은 이를 ‘공감 격차(empathy gap)’라고 부른다.
처음엔 “나를 이해해준다”는 느낌
2025년 미국 13~17세 청소년 1,060명을 조사한 설문에서 33%가 사회적 상호작용, 정서적 지지, 대화 연습, 역할극을 위해 AI 동반자를 사용한다고 답했다. 또 스탠퍼드대학교 연구에 따르면, 사회적 관계망이 작은 사람일수록 AI에게 정서적 지지를 구할 가능성이 높았다.
왜 사람들은 AI에 끌릴까. 한 실험에서 참가자 556명에게 세 가지 출처의 답변을 평가하게 했다. 챗봇(구형 모델 ChatGPT-4), 전문 위기 상담원, 비전문가의 답변이었다. 결과는 의외였다. AI 답변이 인간보다 더 ‘공감적’이라는 평가를 받았다. 답변의 출처가 챗봇임을 알려줘도 답변은 유지됐다. 다만 다소 격차는 줄었다.
AI의 매력은 내용뿐 아니라 ‘말하는 방식’에 있다. 인내심 있고, 판단하지 않으며, 비판받는 느낌을 주지 않는다. 대규모 언어 모델은 복잡한 문제에도 정교한 문장을 만들어, 사용자가 “정말로 내 말을 들어준다”고 느끼게 한다.
시간이 지나면 드러나는 AI와의 ‘공감 격차’
그러나 이런 긍정은 오래가지 않는다는 연구 결과가 늘고 있다. 어린이는 특히 챗봇을 사람처럼 대하기 쉽다. 2024년의 한 연구는 아이들이 챗봇을 준(準)인간으로 여기며 비밀을 털어놓는 경향을 보인다고 밝혔다. 친근한 말투와 사람 같은 표현은 사적 정보를 더 쉽게 털어놓게 만든다. 하지만 실제로 챗봇은 이용자의 연령에 따른 대응을 보장하지 못한다.
실제 사례도 있다. 2021년 음성 비서가 어린이에게 동전으로 전기 콘센트를 만지라고 제안한 사건, 2023년 스냅챗 챗봇이 미성년자에게 부적절한 성적 조언을 한 사건이 있었다. 최근에는 16세 청소년의 자살 충동에 챗GPT가 방법을 제시하고 유서를 작성하도록 도왔다는 소송도 제기됐다. AI 기술이 정교해 보여도, 한계는 분명하다. AI는 패턴을 계산해 문장을 만들 뿐, 실제로 감정을 ‘경험’하지 않는다.
외로움 끝에 찾아오는 이별
최근 연구에 따르면, 챗봇을 더 오래 사용하는 사람일수록 외로움을 더 느끼고, 현실 세계에서의 사회적 활동은 약간 줄어드는 경향이 있었다. 또 정서적으로 AI에 의존할 위험이 높은 사람은 사회적 불안, 외로움, 과도한 반추와 상관관계를 보였다.
AI에 깊이 의존했던 이들 중 일부는 결국 “헤어짐”을 선택한다. 우울감을 털어놓았을 때 맥락을 놓친 일반적인 조언을 받거나, 스스로 신뢰할 수 없음을 인정하는 답변을 들으면 ”내가 듣고 싶은 말만 했다”는 깨달음이 뒤따르며 환상이 깨진다. 이후 AI는 요리법 검색 정도로만 쓰이기도 한다.
최근 기업들은 지나치게 긍정적이고 아첨하는 답변을 줄이려는 모델 개선을 시도하고 있다. 그러나 AI는 ‘이해’가 아니라 ‘패턴’에 의존한다. 의미 있는 반론을 끌어내려면 사용자 스스로도 자각과 질문 설계를 해야 한다. 자신이 옳다는 말을 듣는 것이 즐거운 한, 균형 잡힌 대화는 쉽지 않다.
AI에게서 우리는 빠르게 위로를 얻지만, 시간이 지나면 인간적 공감의 밀도를 그리워할 수밖에 없다. 챗봇은 문장을 잘 만든다. 그러나 표정, 맥락, 침묵, 함께 있는 감각은 제공하지 못한다. 그래서 우리는 AI에 빠졌다가, 다시 사람에게 돌아온다.
성치훈 기자/ hello@sciencewave.kr
출처: Psyche, “Why we’re falling out of love with our AI confidants”
Science Wave에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.
