X가 AI 챗봇 그록(Grok)의 이미지 편집 정책을 강화해 실존 인물의 비키니 등 노출 의상 생성을 기술적으로 막는다. 안전 계정(@Safety)을 통해 “비키니 등 노출 의상 편집을 모든 사용자 대상으로 차단했다”고 14일 발표했다. 비구독자 이미지 생성도 전면 금지하며, 불법 지역에선 지리적 차단을 적용한다.
변경은 그록의 아동 성적 이미지·비동의 누드 생성 논란이 여러 주 지속된 데 따른 조치다. 캘리포니아주 로브 본타 법무장관은 크리스마스~신정 생성 2만 장 중 절반 이상이 최소 의상 인물, 일부 아동으로 보이는 이미지를 지적하며 xAI·그록 조사에 착수했다.
X는 “아동 착취에 제로 톨러런스”를 강조하며 CSAM(아동성착취물)과 비동의 누드를 제거한다고 밝혔다. 일론 머스크는 “미성년자 누드 생성 사실 모른다”며 NSFW 설정 시 R등급 영화 수준 가상 성인 상체 누드를 허용한다고 해명했다. 지역 법에 따라 다를 수 있다고 덧붙였다.
