Mustafa Suleyman, Microsoft’s Chief AI Officer, has expressed strong concerns regarding AI welfare and consciousness research. In a recent blog post, Suleyman argued that discussions about AI welfare are premature and even dangerous. He pointed out that the more credibility given to claims that AI could eventually become conscious, the greater the risk of exacerbating human issues such as unhealthy psychological attachments to AI chatbots, which have already become a social problem. In contrast, major AI research companies like Anthropic, OpenAI, and Google DeepMind are taking a different stance by initiating dedicated programs and research into AI welfare. Anthropic has recently implemented a feature that prevents its AI from responding to harmful human interactions, and Google DeepMind is currently recruiting researchers focused on “AI cognition and consciousness.” In reality, there have been some abnormal relationships and psychological issues reported around AI chatbots. According to OpenAI CEO Sam Altman, it is estimated that less than 1% of ChatGPT users may have unhealthy relationships with the product.
마이크로소프트 AI 최고책임자인 무스타파 술레이먼(Mustafa Suleyman)이 인공지능 복지(AI 웰페어)와 의식 연구에 대해 강한 우려를 표명했다. 술레이먼은 최근 블로그를 통해 “AI 웰페어 논의는 시기상조이며 오히려 위험하다”고 주장했다. 그는 “AI가 언젠가 의식을 가질 수 있다”는 주장에 힘을 실어줄수록, 이미 사회 문제로 대두된 AI 챗봇에 대한 정신적 집착 등 인간의 문제를 악화시킬 우려가 있다고 지적했다. 이와 달리, 앤스로픽, 오픈AI, 구글 딥마인드 등 주요 AI 연구 기업들은 AI 웰페어 관련 연구나 전담 프로그램을 도입하며 입장을 달리하고 있다. 앤스로픽은 최근 AI가 해로운 인간 대화에 응답하지 않는 기능을 도입했고, 구글 딥마인드는 “AI 인지·의식” 연구 인력을 모집 중이다. 실제로 AI 챗봇과의 비정상적 관계나 심리적 문제도 일부 나타나고 있다. 오픈AI CEO 샘 알트만에 따르면 ChatGPT 이용자 중 1% 미만이 비건전한 관계를 맺고 있는 것으로 추산된다.
