딥마인드 “AI가 인간 넘어설 준비 중…AGI 안전 로드맵 공개”

Google DeepMind has published a detailed strategy paper outlining how it plans to build safe and secure artificial general intelligence (AGI)—AI systems that match or exceed human-level performance in most cognitive tasks. The company sees current machine learning techniques, especially neural networks, as the most viable path to AGI. The paper forecasts powerful AI systems could emerge by 2030, though that timeline is uncertain. DeepMind identifies four major risks: misuse, misalignment, accidents, and structural risks, with immediate focus on the first two.

To counter misuse, DeepMind is introducing cybersecurity evaluations, access controls, and hardened model protections. For misalignment, where AI behavior deviates from human intent, the company is developing multi-layered defenses, such as MONA—a framework for safe short-term optimization. DeepMind is also exploring AI self-evaluation methods, including model debates. The company’s safety efforts are reviewed by internal councils and external partners, and it has released a free AGI safety course for public use.

The paper also addresses infrastructure scaling limits, concluding that energy, hardware, and data bottlenecks are surmountable with investment. DeepMind estimates that training frontier models may cost hundreds of billions, but the economic incentives for automation make such investments feasible.

구글 딥마인드가 AGI(범용인공지능)의 안전한 개발을 위한 종합 전략백서를 공개했다. 이들은 AGI를 ‘대다수 인지 작업에서 인간을 능가하거나 동등한 시스템’으로 정의하며, 현재의 머신러닝 기술(특히 신경망)이 AGI 개발의 주된 경로가 될 것으로 전망했다. 백서에서는 2030년경 고성능 AI 출현 가능성을 언급하면서도, 그 시점은 불확실하다고 덧붙였다.

딥마인드는 AGI의 위험 요소를 ‘오남용, 목표 오정렬, 사고, 구조적 위험’ 등 네 가지로 제시했으며, 현재는 오남용과 오정렬 방지에 주력하고 있다고 밝혔다. 악의적 사용을 막기 위해 사이버 보안 평가, 모델 출력 제한, 강화된 모델 보호 기능 등을 마련했으며, 오정렬 문제에 대해서는 의도 왜곡 탐지, 의심 행동 차단, 의사 결정 상향 조정 체계를 구축 중이다.

AI 스스로 불확실성을 인식하고 행동을 조절하도록 설계하고 있으며, AI 간 상호 검토(디베이트) 방식도 실험 중이다. 딥마인드는 최근 MONA(Myopic Optimization with Nonmyopic Approval)라는 안전성 중심 최적화 프레임워크를 세계 최초로 정식 도입했다고 설명했다.

이 외에도 에너지, 하드웨어, 데이터, 지연시간(latency) 등의 인프라 한계를 분석했으며, AI 훈련 비용은 수백억 달러에 달할 수 있지만, 경제적 유인은 충분하다고 분석했다. 내부적으로는 AGI 안전위원회와 책임·안전위원회가 안전성을 점검하고 있으며, 외부 파트너와 협력해 국제적 거버넌스를 구축 중이다.

버트

ai@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

메타, 직원 8,000명 해고…역대 최고 실적에도 AI 투자 위해 감원

메타가 5월 20일부터 전 직원의 10%인 8,000명을 감원한다. 역대 최고 분기 실적에도 AI 인프라 투자를 위한 결정으로, 직원 사기 급락과 내부 반발이 이어지고 있다.

탠스택 오픈소스 공급망 공격, 오픈AI까지 피해..."사용자 데이터는 안전"

오픈소스 라이브러리 탠스택을 겨냥한 공급망 공격으로 오픈AI 직원 기기 2대가 침해됐다. 사용자 데이터와 핵심 시스템은 안전하나 일부 소스코드가 탈취됐으며, 맥OS 앱 업데이트가 필요하다.

포드, 에너지 저장 사업 진출 선언...AI 데이터센터 특수 전환 기대감

포드가 에너지 저장 사업 진출을 선언한 후 이틀간 주가 21% 급등. 약 2조 8,960억원(20억 달러)을 투자해 켄터키 공장을 전환하고, 2027년 납품을 목표로 한다. 모건스탠리는 사업가치 약 100억 달러를 전망했다.

인텔, 애플 칩 시험 생산 착수…2027년 양산 목표

인텔이 애플 칩 위탁 생산 테스트를 시작했다. 밍치 궈 분석가에 따르면 2027년 양산을 목표로 18A-P 공정을 활용하며, 물량의 80%는 아이폰용이다. TSMC는 여전히 90% 이상 공급을 담당한다.