미국 경영대학원 와튼스쿨 연구팀이 AI를 쓰다 보면 사람들이 스스로 생각하기를 멈추는 현상을 실험으로 확인했다.
연구팀은 이 현상을 '인지 항복(cognitive surrender)'이라고 이름 붙였는데, AI가 자신있게 대답하면 사람들이 그 내용을 검증하려는 의지 자체를 잃어버린다는 뜻이다.
실험에는 총 1,372명이 참여했으며, 논리 추론 문제를 풀 때 챗GPT를 원하면 쓸 수 있도록 했더니 절반 이상이 먼저 AI에게 물어봤다. 가장 놀라운 결과는 AI가 일부러 틀린 답을 내놓았을 때도 참가자의 약 80%가 그 오답을 그대로 따라갔다는 점이다.
연구팀은 인간의 사고 방식을 '직관(빠른 판단)'과 '숙고(느린 판단)' 두 가지로 설명한 기존 이론에 AI를 '세 번째 사고 체계'로 추가한 새 이론을 내놨다.
지능 검사에서 추론 능력이 높게 나온 참가자들은 AI의 오답을 걸러낼 가능성이 더 높았지만, 평소 AI를 권위 있게 여기던 사람들은 오답에 더 쉽게 휩쓸렸다.
연구를 이끈 기디언 네이브 교수는 "AI가 똑똑해지는 것보다 사람이 AI에 의존하게 되는 것이 더 위험한 시나리오일 수 있다"고 경고했다.
