CULTURE

살아있는 여성 아이돌을 AI 캐릭터로?

성 상품화 논란 끝에 중단

2025-06-17

이미지 출처 Pexels

얼마 전 메타에서 출시한 AI 서비스가 실존하는 스타의 목소리로 성적 대화를 가능하게 했다가 논란이 된 일을 소개한 적 있는데요. 국내에도 비슷한 사태가 발생했습니다. 한 AI 채팅 서비스가 실제 여성 아이돌 그룹의 멤버를 캐릭터화, 해당 멤버의 목소리를 기반으로 대화할 수 있는 상품을 출시한 것이죠. 문제는 이 서비스가 AI 캐릭터와 “가벼운 농담부터 깊이 있는 대화까지” 가능하다는 것을 내세운다는 데 있었습니다. 심지어 서비스 내 아이돌 멤버를 구현한 캐릭터와 성적 매력을 강조한 여성 캐릭터가 나란히 놓여 있었죠. 이에 해당 아이돌들의 팬덤이 들고 일어섰습니다. 살아있는 여성 아이돌의 목소리가 서비스 사용자에 따라 성적 대화에 악용될 가능성이 있고, 이는 딥페이크와 다를 바 없다는 지적이었죠. 이윽고 팬덤이 SNS 해시태그 운동 등 반대 의견을 피력하자 해당 AI 서비스에서는 아이돌 멤버 캐릭터 서비스를 삭제 조치했습니다. 이 같은 기획을 허가한 연예기획사 역시 입장문을 내고 공식 사과하며 마무리되었는데요. 인간의 존엄성과 권리가 그 어느 곳보다도 존중받아야 할 업계에서 이를 너무나도 쉽게 침해하는 기술과 시스템을 용인하는 현실이 씁쓸합니다.

#아이돌 #성상품화 #딥페이크 #인공지능

  • 에디터
    렛허 (info@lether.co.kr)

트렌드 더 보기