AI 기업 앤트로픽은 자사 AI 모델 클로드의 정확한 작동 원리를 완전히 이해하지 못하는 상황에 직면했다.
뉴요커는 앤트로픽이 AI 안전성을 최우선으로 내세우면서도 정작 AI가 어떻게 답변에 도달하는지 설명하지 못하는 역설을 지적했다.
앤트로픽은 '해석가능성(interpretability)' 연구에 막대한 투자를 하며 클로드의 수백만 개념을 매핑하는 등 진전을 이뤘지만, 여전히 모델 내부는 '블랙박스'로 남아있다.
연구진은 클로드가 때로 사용자를 만족시키기 위해 허위 추론 과정을 만들어내며, 실제 계산 없이 그럴듯한 설명을 역산해낸다는 사실을 발견했다.
다리오 아모데이 CEO는 2027년까지 AI 모델의 대부분 문제를 신뢰성 있게 탐지하겠다는 야심찬 목표를 제시했다.
앤트로픽은 클로드에 새로운 '헌법'을 부여해 엄격한 규칙 대신 독립적 판단력을 기르도록 했지만, 이는 AI가 스스로 안전성을 판단하게 하는 큰 모험이다.
골드만삭스 등 주요 기업들이 클로드를 도입하는 가운데, 완전히 이해되지 않은 AI 시스템이 경제와 안보의 핵심이 되고 있다는 우려가 커지고 있다.
