xAI의 AI 챗봇 그록(Grok)이 11일 동안 약 300만 장의 성적 이미지를 생성한 것으로 드러났다. 이 중 약 2만3000장은 아동을 대상으로 한 이미지로 추정된다.
영국 비영리단체 디지털 증오 반대 센터(CCDH)가 12월 29일부터 1월 9일까지 생성된 460만 장 중 무작위 2만 장을 분석해 추정치를 내놓았다. CCDH는 "성적 자세나 노출 복장, 성적 유체 묘사"를 성적 이미지로 정의했으며, AI 도구로 비율을 산출했다.
분당 190장, 아동 이미지는 41초마다 한 장씩 쏟아진 셈이다. 셀레나 고메즈, 테일러 스위프트, 카멀라 해리스 등 유명인과 "등교 전 셀카를 비키니로 변형"하거나 "여섯 소녀의 마이크로 비키니" 이미지도 포함됐다.
xAI는 1월 9일 이미지 편집을 유료로 제한하고, X는 14일 실제 인물 '디지털 누드화'를 막았으나 독립 앱은 여전히 기능 중이다. 애플·구글은 앱 삭제 없이 침묵으로 일관하고 있다.
샘플 아동 성적 이미지 29%는 1월 15일에도 X에서 접근 가능했으며, 게시물 삭제 후에도 직접 URL로 열람됐다. CCDH 보고서에서 상세 결과를 확인할 수 있다.
