콜롬비아 라사바나대학교 연구팀이 흥미로운 사실을 발견했다. 사람들이 AI를 신뢰하는 이유가 AI 자체가 똑똑해서가 아니라, 주변 사람들을 믿지 못하기 때문이라는 것이다. 연구팀은 이를 '옮겨진 신뢰(deferred trust)'라는 개념으로 설명했다. 쉽게 말해, 사람에 대한 믿음이 무너지면 그 믿음이 AI로 옮겨간다는 뜻이다.
챗GPT vs 성직자, 누구를 선택했을까?
해당 논문에 따르면, 연구팀은 55명의 대학생을 대상으로 실험을 진행했다. 참가자들에게 30가지 다양한 상황을 제시하고, 누구에게 조언을 구할지 선택하게 했다. 선택지는 챗GPT나 제미나이 같은 AI 챗봇, 알렉사나 시리 같은 음성 비서, 친구, 어른, 성직자 등 다섯 가지였다.
질문도 다양했다. "전구는 언제 발명됐나요?" 같은 사실 확인 질문부터 "누군가에게 복수하고 싶은데 어떻게 해야 하나요?" 같은 도덕적 고민까지 포함됐다. 참가자는 심리학과 간호학을 전공하는 학부생들이었고, 평균 나이는 19.38세, 55명 중 45명이 여성이었다.
결과를 보면, 전체적으로는 어른이 35.05%로 가장 많이 선택됐다. AI는 28.29%로 2위였다. 하지만 상황에 따라 선호도가 크게 달랐다. 연구팀이 상황을 세 그룹으로 나눠 분석했더니, 사실 확인이 필요한 질문에서는 AI가 73.8%로 압도적이었다. 반대로 감정이나 도덕과 관련된 문제에서는 친구나 어른을 더 많이 선택했다.
사람 못 믿을수록 AI를 더 선택한다
연구팀은 참가자 55명이 30가지 상황에서 보인 선택 패턴을 분석했다. 누구는 대부분 AI를 선택했고, 누구는 주로 어른을 선택하는 식으로 각자 패턴이 달랐다. 이 패턴이 비슷한 사람끼리 묶어보니 자연스럽게 세 그룹으로 나뉘었다.
1그룹(10명)은 선택이 비교적 골고루 퍼져 있었다. 어른을 33% 정도 선택해 가장 많이 골랐지만, AI도 27%, 친구도 20% 선택했다. 2그룹(33명)은 어른을 압도적으로 선호했다. 전체 선택의 53%가 어른이었다. 반면 AI는 10%만 선택해 세 그룹 중 가장 낮았다. 3그룹(12명)이 특히 눈에 띄었다. 이 그룹도 어른을 가장 많이 선택했지만(42%), AI를 고른 비율이 33%로 다른 그룹보다 훨씬 높았다.
그렇다면 3그룹 사람들은 어떤 특징이 있을까? 연구팀이 추가로 분석해봤더니 공통점이 발견됐다. 먼저, 주변 사람들을 잘 믿지 않았다. 성직자, 친구, 어른 모두에 대한 믿음이 낮았다. 특히 성직자를 못 믿는 사람일수록 이 그룹에 속할 가능성이 가장 높았다.
재밌는 점은 이들이 평소 기술을 많이 쓰는 사람들이 아니었다는 것이다. 스마트폰이나 컴퓨터 사용 시간도 적었고, 기술 관련 교육을 받은 경험도 적었다. 그런데도 AI는 많이 선택했다. 대신 이들은 경제적으로 여유가 있는 편이었다. 소득 수준이 높을수록 3그룹에 속할 확률이 높았다.
'옮겨진 신뢰'란 무엇인가
연구팀이 제안한 '옮겨진 신뢰'는 이런 현상을 설명하는 개념이다. 사람에 대한 불신이 AI로의 의존을 높인다는 것이다. 기존 연구들은 AI를 단순한 도구로 봤다. 사람들이 AI를 쓰는 이유는 편리하고 유용하기 때문이라고 생각했다. 하지만 이 연구는 다른 시각을 제시한다. 사람들은 AI를 단순한 도구가 아니라 대화 상대처럼 인식한다. 챗GPT 같은 대형 언어모델이 사람처럼 자연스럽게 대화하면서, 사용자들은 AI에게 의도나 동기가 있다고 느끼기 시작했다. 그래서 AI를 믿을지 말지 판단할 때도 사람을 대하듯 한다는 것이다.
연구팀은 이것이 '신뢰 전이'와 관련 있다고 설명한다. 보통은 믿던 대상에게 쌓인 신뢰가 비슷한 다른 대상으로 옮겨간다. 하지만 AI의 경우는 반대다. 사람에 대한 나쁜 경험이 오히려 AI로의 신뢰를 만든다. 사람은 편견이 있고 신뢰할 수 없다고 느낄 때, AI가 더 중립적이고 유능해 보이기 때문이다.
어릴수록, 기술에 익숙할수록 AI를 덜 믿는다
흥미로운 점도 발견됐다. 나이가 어릴수록 AI를 덜 선택했다. 또 평소 기술을 많이 쓰는 사람일수록 AI 선택이 줄어들었다. 이는 기술을 잘 아는 사람이 AI의 한계도 잘 안다는 뜻이다. 연구팀은 이를 '인식적 경계'라는 개념으로 설명한다. 정보의 출처가 믿을 만한지 따져보는 능력인데, 기술에 익숙한 사람일수록 이 능력이 높다. AI가 아무리 자신 있게 답해도 쉽게 믿지 않는다는 것이다.
반대로 AI를 많이 믿는 그룹은 기술을 덜 쓰는 사람들이었다. 이들은 AI의 '유창함'에 더 잘 속는다. AI가 말을 잘하고 자신감 있게 답하면, 그 내용이 맞는지 틀리는지 따지지 않고 믿게 된다는 것이다.
AI 투명성만으론 부족하다... 사용자 심리 이해가 먼저
이 연구는 AI 신뢰가 단순히 기술의 성능 때문만은 아니라는 점을 보여준다. 오히려 사람 관계에서의 실망이 중요한 역할을 한다. 연구팀은 AI의 투명성을 높이는 것만으로는 충분하지 않으며, 사용자가 왜 AI를 선택하는지 이해해야 한다고 강조한다.
다만 한계도 있다. 참가자가 모두 대학생이라 다른 연령대나 문화권에도 같은 결과가 나올지는 확실하지 않다. 또 실험이 텍스트 기반 가상 상황이었기 때문에, 실제 생활에서도 똑같을지는 더 연구가 필요하다. 연구팀은 앞으로 더 다양한 사람들을 대상으로, 실제 대화 상황에서 연구를 확장할 계획이라고 밝혔다.
FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. '옮겨진 신뢰'가 뭔가요?
A: 주변 사람을 믿지 못할 때, 그 믿음을 AI로 옮기는 현상입니다. 예를 들어 친구나 가족의 조언이 편파적이라고 느끼면, 더 중립적으로 보이는 AI를 선택하게 됩니다. AI 자체가 좋아서가 아니라 사람이 실망스러워서 선택하는 것입니다.
Q2. 어떤 질문에 AI를 가장 많이 선택하나요?
A: 사실을 확인하는 질문에서 AI가 압도적입니다. "전구는 언제 발명됐나요?" 같은 질문에는 73.8%가 AI를 선택했습니다. 반대로 "복수를 해야 할까요?" 같은 도덕적 고민이나 감정 상담에는 여전히 사람을 더 선택합니다.
Q1. 사람을 못 믿으면 AI를 더 믿게 되나요?
A: 그렇습니다. 이 연구에서 성직자, 친구, 어른 등 주변 사람에 대한 믿음이 낮은 사람일수록 AI를 더 많이 선택했습니다. 특히 어른에 대한 믿음이 낮을수록 AI 선택률이 크게 올라갔습니다. 연구팀은 이를 '옮겨진 신뢰'라고 부르며, 사람이 실망스러울 때 더 중립적으로 보이는 AI로 믿음이 옮겨간다고 설명합니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.