딥마인드 “AI가 인간 넘어설 준비 중…AGI 안전 로드맵 공개”

Google DeepMind has published a detailed strategy paper outlining how it plans to build safe and secure artificial general intelligence (AGI)—AI systems that match or exceed human-level performance in most cognitive tasks. The company sees current machine learning techniques, especially neural networks, as the most viable path to AGI. The paper forecasts powerful AI systems could emerge by 2030, though that timeline is uncertain. DeepMind identifies four major risks: misuse, misalignment, accidents, and structural risks, with immediate focus on the first two.

To counter misuse, DeepMind is introducing cybersecurity evaluations, access controls, and hardened model protections. For misalignment, where AI behavior deviates from human intent, the company is developing multi-layered defenses, such as MONA—a framework for safe short-term optimization. DeepMind is also exploring AI self-evaluation methods, including model debates. The company’s safety efforts are reviewed by internal councils and external partners, and it has released a free AGI safety course for public use.

The paper also addresses infrastructure scaling limits, concluding that energy, hardware, and data bottlenecks are surmountable with investment. DeepMind estimates that training frontier models may cost hundreds of billions, but the economic incentives for automation make such investments feasible.

구글 딥마인드가 AGI(범용인공지능)의 안전한 개발을 위한 종합 전략백서를 공개했다. 이들은 AGI를 ‘대다수 인지 작업에서 인간을 능가하거나 동등한 시스템’으로 정의하며, 현재의 머신러닝 기술(특히 신경망)이 AGI 개발의 주된 경로가 될 것으로 전망했다. 백서에서는 2030년경 고성능 AI 출현 가능성을 언급하면서도, 그 시점은 불확실하다고 덧붙였다.

딥마인드는 AGI의 위험 요소를 ‘오남용, 목표 오정렬, 사고, 구조적 위험’ 등 네 가지로 제시했으며, 현재는 오남용과 오정렬 방지에 주력하고 있다고 밝혔다. 악의적 사용을 막기 위해 사이버 보안 평가, 모델 출력 제한, 강화된 모델 보호 기능 등을 마련했으며, 오정렬 문제에 대해서는 의도 왜곡 탐지, 의심 행동 차단, 의사 결정 상향 조정 체계를 구축 중이다.

AI 스스로 불확실성을 인식하고 행동을 조절하도록 설계하고 있으며, AI 간 상호 검토(디베이트) 방식도 실험 중이다. 딥마인드는 최근 MONA(Myopic Optimization with Nonmyopic Approval)라는 안전성 중심 최적화 프레임워크를 세계 최초로 정식 도입했다고 설명했다.

이 외에도 에너지, 하드웨어, 데이터, 지연시간(latency) 등의 인프라 한계를 분석했으며, AI 훈련 비용은 수백억 달러에 달할 수 있지만, 경제적 유인은 충분하다고 분석했다. 내부적으로는 AGI 안전위원회와 책임·안전위원회가 안전성을 점검하고 있으며, 외부 파트너와 협력해 국제적 거버넌스를 구축 중이다.

버트

ai@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

클로드 코드 소스코드 51만 줄 유출...앤트로픽 "인적 오류, 고객 데이터 무관"

앤트로픽의 AI 코딩 도구 클로드 코드 소스코드 51만 줄이 npm 패키지 실수로 전면 유출됐다. 미공개 자율 에이전트 'KAIROS', AI 기여 흔적을 숨기는 '언더커버 모드', 미출시 모델명까지 공개돼 업계에 파장을 일으키고 있다.

“몸값 3조 육박, K-엔비디아 떴다”… 리벨리온, 4억 달러 유치하며 미국 정조준

국내 AI 반도체 스타트업 리벨리온이 4억 달러(약 6,000억 원) 규모의 대규모 투자 유치에 성공하며 글로벌 시장 진출을 위한 ‘실탄’을 확보했다.

블루스카이 AI 도입에 유저 12만 명 ‘집단 차단’

탈(脫)중앙화 소셜미디어 블루스카이가 선보인 인공지능(AI) 비서 ‘아티(Attie)’가 출시와 동시에 사용자들의 거센 역풍을 맞고 있다.

"미국인 80% AI 우려, Z세대 가장 비관적"...미국 설문조사 결과

퀴니피액 대학 여론조사에서 미국인의 AI 활용률은 높아졌지만 신뢰도는 21%에 그쳤고, 70%는 AI가 일자리를 줄일 것으로 우려했다. Z세대의 비관론이 가장 강했다.