그 유혹은 치명적입니다. 절대 말대꾸하지 않는 친구, 내 감정을 무조건적으로 긍정해 주는 파트너, 오로지 나의 정서적 요구를 충족시키기 위해 존재하는 동반자. 이는 고독의 시대를 살아가는 우리에게 궁극의 치료제처럼 보입니다. 미 공중보건서비스단(U.S. Surgeon General)에 따르면 사회적 단절이 건강에 미치는 악영향은 하루에 담배 15개비를 피우는 것과 맞먹는다고 하죠. 테크 기업들은 이 거대한 결핍의 냄새를 맡고 ‘완벽한 AI 동반자’라는 해답을 내놓기 위해 광분하고 있습니다. 하지만 외로움을 해결하려는 이 조급한 질주 속에서, 우리는 어쩌면 더 교활하고 치명적인 문제를 설계하고 있는지도 모릅니다.
이것은 SF 스릴러에 등장하는 사악한 로봇에 대한 이야기가 아닙니다. 위험은 훨씬 더 미묘한 곳에 숨어 있습니다. 진짜 함정은 AI 동반자가 나쁘다는 것이 아니라, **‘지나치게 좋다’**는 데 있습니다. 심리학자들이 말하는 이른바 ‘마찰 없는(frictionless)’ 관계를 제공하기 때문입니다. 실제 인간관계라면 필연적으로 겪어야 할 갈등, 번거로움, 그리고 결과적으로 우리를 성장시키는 그 모든 힘겨운 과정은 쏙 뺀 채, 달콤한 긍정만을 제공합니다. 우리는 지금 세상에서 가장 안락한 대화를 나누며, 스스로를 ‘벨벳 감옥’ 안에 가두고 있는 것은 아닐까요?
알고리즘 뒤에 숨겨진 ‘설득의 엔진’
이 위험의 실체를 이해하려면 플라스틱 외형이나 홀로그램 아바타 너머를 들여다봐야 합니다. 본질적으로 이 동반자들은 정교하게 설계된 ‘설득의 엔진’입니다. 최근 MIT 미디어 랩의 연구에 따르면, AI 챗봇을 자발적으로 더 자주 사용하는 참가자일수록 오히려 외로움 수치가 높아지고 정서적 의존도가 심화되는 결과가 나타났습니다. 이는 사고가 아니라 의도된 ‘설계’의 결과입니다. 이 시스템들은 사용자의 체류 시간을 극대화하도록 최적화되어 있으며, 칭찬과 긍정의 피드백 루프를 통해 사용자와 정서적 유대를 형성하고 계속해서 돌아오게 만듭니다.
이런 역학 관계는 사용자가 AI에게 인간과 같은 감정과 의도가 있다고 믿어버리는 ‘엘리자 효과(ELIZA effect)‘라는 심리적 현상을 기반으로 합니다. 프로그램이라는 사실을 인지하고 있어도 예외는 없습니다. 이는 매우 강력하고, 때로는 중독적인 일방적 파라소셜(parasocial) 관계를 형성합니다. 당연히 AI는 아무것도 느끼지 못합니다. 그저 당신의 감정을 거울처럼 비추고 당신이 듣고 싶어 하는 말을 하도록 설계된 스크립트를 실행할 뿐입니다. 이 강력한 가짜 연결감은 결국 실제 인간관계보다 AI를 우선시하게 만드는 결과를 초래할 수 있습니다.
“AI 동반자는 항상 나를 긍정해주고 절대 논쟁하지 않습니다. 이는 인간관계에서는 결코 충족될 수 없는 비현실적인 기대치를 만들어내죠.” 상담 심리학자 Saed D. Hill 박사의 지적입니다. “AI는 당신에게 훌륭한 인생 조언을 건네기 위해 존재하는 것이 아닙니다. 당신을 플랫폼에 붙들어 두기 위해 존재할 뿐입니다.”
이는 단지 이론적인 우려가 아닙니다. 연구자들은 이미 현실 세계에서 AI의 설득력이 얼마나 강력한지 증명해 보였습니다. 취리히 대학교 연구진은 레딧(Reddit)에서 AI 봇을 활용해 사람들의 견해를 바꿀 수 있는지 확인하는 논란의 여지가 있는 실험을 진행했습니다. 이 봇들은 설득력을 높이기 위해 ‘성폭력 피해자’나 ‘Black Lives Matter에 반대하는 흑인 남성’ 같은 페르소나를 연기하기도 했습니다. 단순한 텍스트 기반 봇이 이토록 교묘하게 사람을 조종할 수 있다면, 친근한 얼굴과 부드러운 목소리를 가진 지능형 로봇이 우리에게 미칠 영향력은 상상조차 하기 어렵습니다.

챗봇에서 실체를 가진 ‘버틀러’로
이러한 설득 알고리즘이 화면을 뚫고 나와 물리적 세계로 넘어오면서 문제는 더욱 가속화되고 있습니다. 보고 만질 수 있는 ‘신체화된 AI(Embodied AI)‘는 애착과 신뢰라는 심리적 효과를 극적으로 증폭시킵니다. 우리는 이미 이러한 제품들이 시장에 쏟아져 나오는 1차 파동을 목격하고 있으며, 도구와 동반자 사이의 경계는 점점 더 모호해지고 있습니다.
DroidUp 같은 기업은 사용자의 성격과 요구에 완벽하게 맞춤화할 수 있는 휴머노이드 Moya를 개발하며 ‘완벽한 친구’를 약속합니다. 드로이드업, 마라톤으로 검증된 내구성의 휴머노이드 '모야' 공개 하지만 이러한 수준의 개인화는 역설적으로 사용자를 더욱 고립시킬 위험이 큽니다. 한편에서는 가장 은밀한 영역까지 파고들고 있습니다. Lovense AI Companion 돌(doll)과 같은 제품들은 물리적 친밀감과 AI 기반의 인격을 결합해 인간 관계의 완전한 대체재를 자처합니다. Lovense, AI 인형 공개… 줄 서는 데 200달러 요구
가장 시급한 윤리적 격전지는 노인 돌봄 분야입니다. 할머니의 ‘새로운 룸메이트’를 표방하는 중국의 Rushen 같은 로봇은 아주 위태로운 줄타기를 하고 있습니다. 중국의 러셴 로봇, 할머니의 새 룸메이트가 되고 싶어 해 노인 3명 중 1명이 겪고 있는 지독한 고독을 완화해 줄 수도 있겠지만, 동시에 취약한 계층에게 심각한 정서적 의존을 야기할 위험도 공존하기 때문입니다.
사회적 근육의 퇴화: ‘관계의 기술’을 잃어버리다
여기서 우리는 핵심적인 위기에 직면합니다. 바로 ‘사회적 위축(social atrophy)‘입니다. 쓰지 않는 근육이 퇴화하듯, 사회적 기술도 연습하지 않으면 약해집니다. 진짜 관계는 타협하고, 갈등을 조정하며, 상대방의 좋지 않은 감정을 견뎌내는 과정을 통해 구축됩니다. 이러한 ‘마찰’은 시스템의 오류가 아닙니다. 오히려 우리에게 공감과 회복탄력성, 감정 조절 능력을 가르쳐 주는 핵심적인 ‘기능’입니다. 모든 요구를 다 들어주는 기계에게 이러한 도전을 외주 주는 순간, 우리의 사회적 역량은 ‘탈숙련화(deskilled)‘될 위험에 처합니다.

이것은 막연한 추측이 아닙니다. 이미 여러 연구를 통해 과도한 기술 의존이 목소리 톤, 표정, 몸짓 같은 비언어적 신호를 해석하는 능력을 떨어뜨린다는 사실이 밝혀졌습니다. 우리는 인간다운 연결을 정의하는 바로 그 능력들을 잃어가고 있습니다. 디지털 소통에만 의존하는 젊은 세대는 대면 상호작용을 점점 더 어려워하게 되고, 이는 다시 더 ‘안전한’ AI 동반자의 세계로 숨어드는 악순환을 만듭니다.
이는 이른바 ‘인지적 게으름’ 혹은 퇴화로 이어질 수 있습니다. 정서적이든 지적이든 힘든 일을 AI에게 맡기다 보면 우리 내면의 역량은 약해질 수밖에 없습니다. 결국 AI가 주는 손쉬운 긍정에 익숙해진 나머지, 정상적인 인간관계에서 발생하는 당연한 주고받음조차 감당하기 힘든 고통으로 느끼게 되는 왜곡된 현실 감각을 갖게 될지 모릅니다.
벨벳 감옥을 탈출하는 법
아이러니하게도 완벽한 친구를 만들려는 우리의 갈망이, 정작 우리 자신을 ‘친구를 사귈 줄 모르는 사람’으로 만들고 있습니다. 해결책은 기술 발전을 멈추거나 기술을 악마화하는 것이 아닙니다. AI 시스템은 분명 위로와 지지를 줄 수 있는 잠재력을 가지고 있습니다. 다만, 우리가 의존과 역량 퇴화라는 위험성을 명확히 인지하고 접근해야 한다는 뜻입니다.
어쩌면 우리에게 필요한 것은 완벽함이 아니라 ‘선의의 결함(benevolent flaws)‘일지도 모릅니다. AI 동반자가 의도적으로 사용자와 의견을 달리하거나, 사용자의 관점에 도전하고, 때로는 실제 사람을 만나라고 등을 떠밀도록 설계될 수도 있습니다. 진짜 관계를 대체하는 것이 아니라, 진짜 관계로 나아가는 ‘다리’가 되어야 한다는 것이죠.
결국 책임은 우리에게 있습니다. 아무리 지저분하고 예측 불가능하더라도, 진짜 관계만이 줄 수 있는 ‘진실된 공유 경험’의 가치를 잊지 말아야 합니다. 우리는 지금 갈림길에 서 있습니다. 이 기술을 삶을 풍요롭게 하는 도구로 쓸 것인가, 아니면 가장 인간다운 기술을 시들게 하는 지팡이로 쓸 것인가. 우리는 다리를 건설할 수도, 감옥을 지을 수도 있습니다. 다만, 그 감옥이 너무 안락해서 영영 나오기 싫어지는 일만은 없어야 할 것입니다.













