Apple's recently launched AI-based news summarization service, 'Apple Intelligence', has sparked controversy by generating fake news. As a result, Apple has temporarily suspended the service. This incident occurred despite Apple engineers warning of serious flaws in AI models in a study released last October. The researchers tested the mathematical problem-solving abilities of top industry large language models (LLMs). The study found that AI models' accuracy dropped significantly when just numbers or names in problems were changed. Particularly, when irrelevant details were added, performance decreased by up to 65%. This demonstrates that AI doesn't actually reason but simply replicates patterns from training data. Experts point out that these flaws could also manifest in AI's process of reconstructing news headlines. Despite being aware of these issues, Apple released the AI model, which appears to be a common practice across the AI industry. This incident has once again highlighted the limitations of AI technology and the importance of responsible AI development.
애플이 최근 출시한 AI 기반 뉴스 요약 서비스 '애플 인텔리전스'가 가짜 뉴스를 생성해 논란이 되고 있다. 이로 인해 애플은 해당 서비스를 일시 중단했다. 이번 사태는 애플 엔지니어들이 작년 10월 발표한 연구에서 이미 AI 모델의 심각한 결함을 경고했음에도 불구하고 발생했다. 연구진은 업계 최고의 대규모 언어 모델(LLM)들을 대상으로 수학 문제 풀이 능력을 테스트했다. 연구 결과, AI 모델들은 문제의 숫자나 이름만 바꿔도 정확도가 크게 떨어졌다. 특히 관련 없는 세부 사항을 추가하자 성능이 최대 65%까지 하락했다. 이는 AI가 실제로 추론하지 않고 단순히 훈련 데이터의 패턴을 복제한다는 것을 보여준다. 전문가들은 이러한 결함이 AI가 뉴스 헤드라인을 재구성하는 과정에서도 나타날 수 있다고 지적한다. 애플은 이러한 문제점을 인지하고 있었음에도 AI 모델을 출시했으며, 이는 AI 업계 전반의 관행으로 보인다. 이번 사태는 AI 기술의 한계와 책임 있는 AI 개발의 중요성을 다시 한번 부각시켰다.
