디스코드가 3월 초 전 세계적으로 아동 안전 강화를 위한 대대적 업데이트를 시작한다.
모든 사용자는 기본적으로 "10대 적합 경험"을 가지며, 성인 콘텐츠와 연령 제한 공간 접근을 위해 연령 인증이 필요하다. 대부분 일회성 절차지만 일부는 다중 인증을 요구한다.
인증 방식은 셀카 영상으로 연령 추정하거나 정부 ID를 제출하는 두 가지다. 영상은 기기에서 처리되며 ID는 대부분 즉시 삭제된다.
인증되지 않은 사용자는 민감 콘텐츠가 흐려지고 연령 제한 채널·서버가 차단되며, 알 수 없는 사용자 DM·친구 요청은 별도 받은편지함으로 이동한다.
디스코드의 안전 조치는 2023년 10대 데이팅 채널 금지, AI 생성 아동성착취물 차단에 이어 세 번째다. 당시 NBC 뉴스 보도로 Discord 관련 납치·그루밍·성폭행 35명 성인 기소 사실이 드러났다.
신규·기존 사용자 모두 3월부터 인증을 거쳐야 하며, 디스코드가 13~17세 청소년 10~12명으로 Teen Council을 구성해 의견을 수렴한다.
