Google DeepMind has published a detailed strategy paper outlining how it plans to build safe and secure artificial general intelligence (AGI)—AI systems that match or exceed human-level performance in most cognitive tasks. The company sees current machine learning techniques, especially neural networks, as the most viable path to AGI. The paper forecasts powerful AI systems could emerge by 2030, though that timeline is uncertain. DeepMind identifies four major risks: misuse, misalignment, accidents, and structural risks, with immediate focus on the first two.
To counter misuse, DeepMind is introducing cybersecurity evaluations, access controls, and hardened model protections. For misalignment, where AI behavior deviates from human intent, the company is developing multi-layered defenses, such as MONA—a framework for safe short-term optimization. DeepMind is also exploring AI self-evaluation methods, including model debates. The company’s safety efforts are reviewed by internal councils and external partners, and it has released a free AGI safety course for public use.
The paper also addresses infrastructure scaling limits, concluding that energy, hardware, and data bottlenecks are surmountable with investment. DeepMind estimates that training frontier models may cost hundreds of billions, but the economic incentives for automation make such investments feasible.
구글 딥마인드가 AGI(범용인공지능)의 안전한 개발을 위한 종합 전략백서를 공개했다. 이들은 AGI를 ‘대다수 인지 작업에서 인간을 능가하거나 동등한 시스템’으로 정의하며, 현재의 머신러닝 기술(특히 신경망)이 AGI 개발의 주된 경로가 될 것으로 전망했다. 백서에서는 2030년경 고성능 AI 출현 가능성을 언급하면서도, 그 시점은 불확실하다고 덧붙였다.
딥마인드는 AGI의 위험 요소를 ‘오남용, 목표 오정렬, 사고, 구조적 위험’ 등 네 가지로 제시했으며, 현재는 오남용과 오정렬 방지에 주력하고 있다고 밝혔다. 악의적 사용을 막기 위해 사이버 보안 평가, 모델 출력 제한, 강화된 모델 보호 기능 등을 마련했으며, 오정렬 문제에 대해서는 의도 왜곡 탐지, 의심 행동 차단, 의사 결정 상향 조정 체계를 구축 중이다.
AI 스스로 불확실성을 인식하고 행동을 조절하도록 설계하고 있으며, AI 간 상호 검토(디베이트) 방식도 실험 중이다. 딥마인드는 최근 MONA(Myopic Optimization with Nonmyopic Approval)라는 안전성 중심 최적화 프레임워크를 세계 최초로 정식 도입했다고 설명했다.
이 외에도 에너지, 하드웨어, 데이터, 지연시간(latency) 등의 인프라 한계를 분석했으며, AI 훈련 비용은 수백억 달러에 달할 수 있지만, 경제적 유인은 충분하다고 분석했다. 내부적으로는 AGI 안전위원회와 책임·안전위원회가 안전성을 점검하고 있으며, 외부 파트너와 협력해 국제적 거버넌스를 구축 중이다.
