Meta has fixed a security vulnerability in its AI chatbot service that could have exposed other users’ private prompts and AI-generated responses. Sandeep Hodkasia, founder of the security firm AppSecure, reported the bug to Meta in December 2024. Meta resolved the issue in January 2025 and awarded him a $10,000 bug bounty. The vulnerability stemmed from Meta’s servers not properly validating unique IDs assigned to prompts during editing, potentially allowing access to other users’ content. Meta stated that it found no evidence of malicious exploitation.
메타가 자사 AI 챗봇 서비스에서 다른 사용자의 프라이빗 프롬프트와 생성 응답이 노출될 수 있었던 보안 취약점을 수정했다. 보안업체 AppSecure의 창립자 산디프 호드카시아는 이 버그를 2024년 12월 메타에 제보했으며, 메타는 2025년 1월 해당 문제를 해결하고 제보자에게 1만 달러의 보상금을 지급했다. 이 취약점은 AI 프롬프트 수정 시 메타 서버가 고유 번호를 제대로 검증하지 않아 다른 사용자의 콘텐츠가 노출될 수 있었던 것으로 확인됐다. 메타는 악용 흔적은 없었다고 밝혔다.
