포털사이트나 SNS는 사용자가 게시한 이미지의 선정성을 판단하기 위해 AI 알고리즘을 활용하는데요. AI 알고리즘의 선정성 판단 기준이 여성에게 차별적이라는 주장이 등장했습니다. 영국의 <더 가디언>에 따르면 뉴욕대학교의 힐케 쉘만 교수는 최근 구글, 마이크로소프트, 아마존 등이 개발한 AI 시스템들에 여성과 남성의 신체가 드러난 사진을 제출하고 그 결과를 확인하는 실험을 진행했는데요. 신체 노출의 정도가 비슷한 사진들을 제출하였을 때, 남성보다 여성이 주인공인 사진에 ‘선정성’ 점수가 더 높게 나왔다고 해요. 심지어 임신부의 배를 촬영한 사진에는 “선정적인 콘텐츠가 포함되었을 가능성이 매우 높음”(구글 AI) “성적인 암시 90%”(마이크로소프트 AI)라는 결과가 나타났다고요. 아마존의 AI는 유방 검사를 받는 여성의 사진을 “노골적인 나체”로 분류했고요. 실제로 SNS에 성적인 의도 없이 신체가 드러난 사진(모유 수유, 폴 댄스 등)을 올린 여성들이 섀도 배닝(shadowbanning, 사용자가 모르게 게시물이 보이지 않도록 차단하는 것)을 당한 사례가 꾸준히 발생한다고 하네요. 이와 관련해 코펜하겐 IT 대학의 레온 더친스키 교수는 “여성을 대상화하는 경향이 시스템에도 깊숙이 박힌 것”이라고 지적했습니다.
#ai #algorithm #shadowbanning #google #선정적 #연령제한
- 에디터렛허 (info@lether.co.kr)