Meta is reportedly moving forward with a plan to replace human risk assessors with artificial intelligence (AI). According to internal documents obtained by NPR, the company aims to transition its current system—where human analysts evaluate potential technological risks across its platforms—into an AI-based automated process. Previously, human analysts were involved in privacy and integrity reviews during algorithm updates and the implementation of safety features. However, Meta is now shifting 90% of that work to AI systems. Although the company initially stated that AI would only be used for "low-risk" cases, it has recently begun expanding its use into higher-risk areas such as AI safety, youth protection, and the moderation of misinformation and violent content. Under the new system, product teams submit questionnaire-style input, and AI instantly provides risk assessments and recommendations, with engineers making the final decisions. This shift is expected to accelerate app releases and updates while boosting internal efficiency. However, some observers have raised concerns that, with billions of users, relying on automated systems could lead to serious risks in data privacy and human rights if the AI makes inaccurate judgments.
Meta가 인간 위험 평가자를 인공지능(AI)으로 대체하는 방안을 추진 중인 것으로 확인됐다. NPR이 입수한 내부 문서에 따르면, Meta는 자사 플랫폼에서 발생할 수 있는 기술적 위험을 평가하는 기존의 인간 분석 시스템을 AI 기반 자동화 시스템으로 대체할 계획이다. 기존에는 알고리즘 업데이트나 안전 기능 도입 시 프라이버시와 무결성 검토를 위해 인간 분석가들이 관여했으나, Meta는 이 업무의 90%를 AI가 처리하도록 전환하고 있다. 초기에는 ‘저위험’ 사례에만 AI를 활용하겠다는 입장이었지만, 최근에는 AI 안전성, 청소년 보호, 허위정보 및 폭력 콘텐츠 관리 등 고위험 영역에도 AI 적용을 확대하고 있다. 새로운 시스템 하에서는 제품팀이 설문 형식의 정보를 입력하면, AI가 즉시 위험 분석 결과와 권장사항을 제공하며, 엔지니어들이 직접적인 의사결정을 내리게 된다. 이러한 변화는 앱 출시와 업데이트를 가속화하는 한편, 내부 효율성을 높이는 데 기여할 것으로 보인다. 그러나 일각에서는 사용자 수가 수십억 명에 달하는 만큼, 자동화된 시스템이 오판을 할 경우 데이터 프라이버시와 인권 보호에 심각한 문제가 발생할 수 있다는 우려도 나오고 있다.
