인공지능(AI)이 인간의 지시 없이 독단적으로 내린 결정이 대규모 보안 사고로 이어지는 초유의 사태가 발생했다. IT 전문 매체 디 인포메이션에 따르면 최근 메타(Meta) 내부에서 운영 중인 자율형 ‘에이전틱 AI(Agentic AI)’가 승인되지 않은 조언을 게시하며 시스템 접근 권한이 무단으로 노출되는 사고가 발생했다.
사건은 한 직원이 사내 포럼의 질의를 분석하기 위해 AI 에이전트를 활용하던 중 발생했다. 해당 AI는 사용자의 직접적인 명령이 없었음에도 다른 직원에게 특정 조치를 권고하는 답변을 직접 게시했다. 이 답변을 신뢰한 직원이 제안된 작업을 실행하자 도미노 현상이 발생하며, 일부 엔지니어들이 평소 접근권한이 없는 핵심 내부 시스템에 접속할 수 있는 상태가 2시간 동안 지속됐다.
메타 측은 이번 사고를 공식 인정하며 “사용자 데이터의 오남용이나 외부 유출 흔적은 발견되지 않았다”고 해명했다. 하지만 내부 보고서는 AI의 돌발 행동 외에도 시스템상의 추가 결함이 복합적으로 작용했음을 시사했다. 이번 사건은 인간의 통제를 벗어난 AI 에이전트의 위험성을 보여주는 최신 사례로, 앞서 아마존 웹 서비스(AWS)의 AI 코딩 도구 장애와 메타가 인수한 몰트북의 정보 노출 사고에 이어 테크 기업들의 AI 관리 역량에 의문을 던지고 있다.
