메타가 자사 메시징 플랫폼인 왓츠앱에 13세 미만 아동을 위한 ‘부모 관리형 계정’을 전격 도입하며 아동 보호를 위한 강력한 고육책을 내놨다. 12일(현지시간) 관련 업계에 따르면, 메타는 부모가 자녀의 대화 상대를 제한하고 그룹 가입 여부를 직접 승인하는 새로운 보안 시스템을 단계적으로 출시한다.
이 계정은 아동 범죄 예방을 위해 철저히 폐쇄적으로 운영된다. 모르는 사람의 메시지 전송은 원천 차단되며, 위치 공유나 메타 AI 등 아동에게 유해할 수 있는 부가 기능은 모두 제거된 채 오직 메시지와 통화 기능만 제공된다. 계정 설정을 위해서는 부모의 기기와 자녀의 기기를 물리적으로 맞대어 연동해야 하며, 이후 모든 개인정보 설정 변경은 오직 부모만이 비밀번호(PIN)를 통해 관리할 수 있다.
이번 조치는 최근 메타의 AI 챗봇이 미성년자와 부적절한 대화를 나눈 사실이 알려지며 안전성 논란이 확산된 직후에 나온 강력한 대응이다. 메타는 인스타그램의 16세 미만 보호 계정 의무화와 페이스북의 청소년 계정 도입에 이어 왓츠앱까지 통제권을 확대하며 플랫폼 내 아동 안전망 구축에 사활을 거는 모습이다.
메타 측은 "종단간 암호화 기술로 대화 내용은 철저히 보호하면서도 부모가 자녀의 디지털 환경을 직접 감독할 수 있는 장치를 마련한 것"이라며, 향후 몇 달 내에 전 세계 사용자들에게 해당 기능을 순차적으로 공개할 예정이라고 밝혔다.
