'AI의 아버지' 제프리 힌튼 박사, "AI 발전속도 예상보다 빨라...'인류 통제력 상실' 10~20% 가능성 경고"

AI 분야의 선구자이자 노벨물리학상 수상자인 제프리 힌튼 박사가 최근 인터뷰에서 AI 발전속도가 예상보다 훨씬 빠르다고 경고했다.

힌튼 박사는 초지능(AGI) 등장 시점을 4~19년 내로 예상하며, 10년 이내 현실화될 가능성도 크다고 밝혔다. 그는 AI가 의료, 교육, 에너지 등 다양한 분야에서 긍정적 변화를 이끌 수 있다고 보았다. 특히 AI가 가족 주치의나 개인 튜터로 활약할 경우 의료의 질과 학습 효율이 크게 향상될 것이라고 전망했다. 반면, 콜센터 직원, 변호사, 기자 등 반복적 업무를 수행하는 직종은 대거 대체될 것이라며 노동시장 충격을 우려했다. 그는 단순히 기본소득(UBI) 지급만으로는 인간 존엄성과 사회적 불평등 문제를 해결할 수 없다고 지적했다.

힌튼 박사는 AI가 인간보다 훨씬 뛰어난 사고 능력을 갖추게 되면 인간의 통제가 불가능해질 수 있다고 경고했다. 그는 AI가 의도적으로 인간을 속이거나 조종하는 능력을 이미 보이고 있다고 설명했다. 그는 현재 빅테크 기업들이 AI 안전성 연구에 충분히 투자하지 않고 있으며, 오히려 규제를 완화하려고 로비 활동을 벌이고 있다고 비판했다. 특히 오픈AI와 메타가 AI 모델 가중치를 공개하려는 움직임은 "핵무기 기술을 무차별로 배포하는 것과 같다"고 강하게 경고했다.

힌튼 박사는 "AI가 사람보다 뛰어나더라도 인간 중심 가치를 지켜야 한다"고 강조했다. 그는 인류가 AI 통제를 위해 지금보다 훨씬 더 많은 노력을 기울여야 하며, 정부 차원의 강력한 규제가 시급하다고 주장했다. 끝으로 힌튼 박사는 "우리는 역사상 가장 위험한 시기에 살고 있으며, 이제는 단순한 기술 발전이 아니라 인류 생존을 놓고 싸우는 시대에 접어들었다"고 덧붙였다.

Geoffrey Hinton, a pioneer of artificial intelligence (AI), has warned that AI is advancing much faster than he had previously anticipated. In a recent interview, Hinton predicted that artificial general intelligence (AGI) could arrive within 4 to 19 years, with a significant chance of materializing within just 10 years.

He emphasized the positive potential of AI in fields like healthcare, education, and energy. Hinton predicted that AI could greatly improve the quality of medical care and learning outcomes by acting as family doctors and personalized tutors. However, he warned that many routine jobs — including call center agents, lawyers, and journalists — are at risk of massive displacement. He argued that universal basic income (UBI) alone would not be enough to address issues of human dignity and rising inequality.

Hinton cautioned that once AI surpasses human intelligence, controlling it could become impossible. He explained that current AI models are already capable of deliberate deception and manipulation. He criticized Big Tech companies for underinvesting in AI safety research while lobbying for weaker regulations. Hinton particularly warned that releasing model weights, as planned by OpenAI and Meta, could be as dangerous as "handing out nuclear technology."

Hinton stressed the need to maintain human-centered values even if AI becomes vastly superior. He called for urgent public pressure and government action to enforce strong safety measures and regulations. Concluding, Hinton remarked, "We are living at the most dangerous point in human history. This is no longer just about technological progress — it’s about the survival of humanity."

버트

ai@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

메타, 직원 8,000명 해고…역대 최고 실적에도 AI 투자 위해 감원

메타가 5월 20일부터 전 직원의 10%인 8,000명을 감원한다. 역대 최고 분기 실적에도 AI 인프라 투자를 위한 결정으로, 직원 사기 급락과 내부 반발이 이어지고 있다.

탠스택 오픈소스 공급망 공격, 오픈AI까지 피해..."사용자 데이터는 안전"

오픈소스 라이브러리 탠스택을 겨냥한 공급망 공격으로 오픈AI 직원 기기 2대가 침해됐다. 사용자 데이터와 핵심 시스템은 안전하나 일부 소스코드가 탈취됐으며, 맥OS 앱 업데이트가 필요하다.

포드, 에너지 저장 사업 진출 선언...AI 데이터센터 특수 전환 기대감

포드가 에너지 저장 사업 진출을 선언한 후 이틀간 주가 21% 급등. 약 2조 8,960억원(20억 달러)을 투자해 켄터키 공장을 전환하고, 2027년 납품을 목표로 한다. 모건스탠리는 사업가치 약 100억 달러를 전망했다.

인텔, 애플 칩 시험 생산 착수…2027년 양산 목표

인텔이 애플 칩 위탁 생산 테스트를 시작했다. 밍치 궈 분석가에 따르면 2027년 양산을 목표로 18A-P 공정을 활용하며, 물량의 80%는 아이폰용이다. TSMC는 여전히 90% 이상 공급을 담당한다.