오픈AI(OpenAI)의 텍스트-투-비디오(text-to-video) 서비스 소라(Sora)에서 실제 사용자들은 어떤 경험을 하고 있을까. 일리노이대학교 어바나-샴페인(University of Illinois Urbana-Champaign) 등 공동 연구팀이 소라 플랫폼의 사용자 댓글 254개를 질적으로 분석한 결과, 사용자들이 AI 생성 영상의 진위 여부를 판별하고, 프롬프트(prompt·AI에게 내리는 텍스트 지시문)의 소유권을 주장하며, 플랫폼 규칙을 스스로 해석하고 우회하는 복잡한 행동 양식을 보이는 것으로 나타났다.
물리 법칙으로 진짜 영상을 판별하는 사용자들
연구팀이 주목한 첫 번째 현상은 사용자들이 AI 생성 영상을 수동적으로 소비하지 않는다는 점이다. 이들은 영상의 전체적인 완성도보다 물이 튀는 방식, 그림자가 움직이는 방향, 병이 깨질 때 나는 파편의 물리적 움직임 같은 세부 요소를 집중적으로 관찰하며 진위를 가렸다.
연구에 따르면 사용자들은 "바닥의 반사가 너무 실제 같아서 AI라고 믿기 어렵다", "카메라가 움직일 때 그림자도 정확히 따라간다"는 식의 반응을 보였다. 반대로 "오리는 손이 없다"처럼 비현실적 요소를 지적하며 스스로 검증자 역할을 수행하기도 했다. 연구팀은 이를 '물리 리터러시(physics literacy)'라고 명명했다. 일상적 시청 행위가 일종의 참여형 검증 활동으로 전환되고 있다는 의미다.
일부 사용자는 영상을 보다가 실제 상황으로 착각하는 경험도 보고했다. "소라에서 보고 있다는 걸 잊고 진짜 영상이라고 생각하며 봤다", "잠깐 AI인 걸 잊었다"는 댓글이 실제로 수집됐다. 연구팀은 소라가 AI 영상 특유의 어색함을 뜻하는 '불쾌한 골짜기(Uncanny Valley)' 구간을 상당 부분 넘어선 것으로 해석했다.
프롬프트는 내 지식재산권, 도용하면 안 된다
연구에서 두드러진 두 번째 현상은 사용자들이 텍스트 프롬프트를 창작물로 인식하고 적극적으로 보호하려 한다는 점이다. 소라 커뮤니티에서는 "프롬프트를 보호해라, 사람들이 훔칠 것이다", "그 프롬프트는 팔아도 된다" 같은 발언이 실제로 등장했다.
연구팀은 이를 '심리적 소유권(psychological ownership)' 개념으로 설명했다. 법적 보호 장치가 없더라도 사용자들은 자신이 정성껏 만든 프롬프트에 대해 도덕적 권리를 주장한다는 것이다. 실제로 "그거 내 프롬프트 그대로잖아", "내 콘텐츠 훔쳐줘서 감사하네"와 같은 항의성 댓글도 수집됐다.
텍스트 기반 AI 도구와 달리, 영상 생성 AI는 결과물을 사후에 편집하기가 사실상 불가능하다는 점도 프롬프트 소유권 문제를 더욱 민감하게 만드는 요인으로 분석됐다. 텍스트는 초안을 수정하고 다듬는 과정에서 사람의 창작 기여가 생기지만, AI 생성 영상은 프롬프트 자체가 창작의 거의 전부를 결정하기 때문이다.
가짜 뉴스 우려부터 댓글도 봇인지 의심하는 불신
연구에서 확인된 세 번째 현상은 사용자들이 영상의 진위뿐 아니라 플랫폼 전체의 신뢰성을 의심하기 시작했다는 점이다. "이 앱 사용자들도 AI인 것 같다", "댓글 절반은 봇이다", "AI가 AI 영상에 댓글을 다는 루프에 빠져 있다"는 발언이 실제로 수집됐다.
미디어 리터러시가 낮은 집단에 대한 우려도 등장했다. "이거 페이스북에 올리면 80%는 진짜로 믿는다", "우리 엄마는 완전히 속을 것"이라는 댓글은 사용자들이 자신을 '정보 환경을 감시하는 목격자'로 인식하고 있음을 보여준다. 연구팀은 AI 생성 콘텐츠에 워터마크를 의무화하는 것이 실질적 해법이 될 수 있다고 제안했으며, 실제로 "왜 이 영상에 소라 표시가 없냐"는 사용자 댓글도 확인됐다.
검열 우회 전략 공유와 자체 윤리 경찰 활동의 공존
네 번째로 확인된 현상은 사용자들이 플랫폼 규칙에 대해 이중적 태도를 보인다는 점이다. 소라의 콘텐츠 필터링을 우회하기 위해 사용자들은 단어 사이에 공백 삽입, 의도적 오타, 이모지 활용, 다른 언어로 입력하기, 민감한 단어를 유사 표현으로 대체하기 등의 방법을 커뮤니티 내에서 공개적으로 공유했다. 예를 들어 특정 캐릭터 이름 대신 외모를 묘사하는 방식으로 필터를 피하는 전략이 실제로 수집됐다.
동시에 같은 사용자들이 실제 인물의 얼굴을 무단으로 사용하는 행위에는 "그건 앱 가이드라인 위반이다", "동의 없이 유명인 얼굴을 쓰는 건 안 된다"며 자체적으로 제재에 나서는 모습도 나타났다. 연구팀은 이를 공식적 규칙 우회와 비공식적 윤리 집행이 동시에 작동하는 이중 구조로 설명했다. 사용자들이 거부하는 것은 규칙 자체가 아니라 불투명하고 일관성 없는 운영 방식이라는 분석이다.
FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q. 소라(Sora)가 무엇인가요? 소라는 오픈AI(OpenAI)가 개발한 텍스트-투-비디오(text-to-video) 서비스로, 텍스트로 지시문을 입력하면 AI가 영상을 자동으로 생성해 주는 플랫폼입니다. 전문적인 영상 제작 기술 없이도 사실적인 영상을 만들 수 있어 주목받고 있습니다.
Q. AI 생성 영상이 가짜 뉴스에 악용될 위험이 있나요? 네, 실제 연구에서도 사용자들이 이 문제를 심각하게 우려하는 것으로 나타났습니다. 연구팀은 AI 생성 콘텐츠에 워터마크를 의무적으로 표시하는 방식이 현실적인 대안이 될 수 있다고 제안했으며, 법적 의무화 가능성도 언급했습니다.
Q. AI 영상 프롬프트도 저작권 보호를 받을 수 있나요? 현재로서는 프롬프트에 대한 명확한 법적 보호 장치가 없습니다. 다만 사용자들은 커뮤니티 내에서 비공식적으로 프롬프트 도용을 문제 삼고 있으며, 일부 학자들은 프롬프트를 지식재산권으로 보호해야 한다는 주장을 제기하고 있습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.