The European Union (EU) has begun prohibiting the use of artificial intelligence (AI) systems deemed to pose 'unacceptable risk' as of February 2. This marks the first compliance deadline for the AI Act approved by the European Parliament in March last year. The Act classifies AI systems into four risk levels, with AI applications falling under the 'unacceptable risk' category being completely banned. Prohibited systems include social scoring, AI that manipulates individual decisions, AI that exploits vulnerabilities, and AI for appearance-based crime prediction. Violating companies may face fines of up to €35 million or 7% of their previous year's annual revenue, whichever is higher. However, the implementation of fines is scheduled to begin in August.
유럽연합(EU)이 2월 2일부터 '수용 불가 위험'으로 간주되는 인공지능(AI) 시스템의 사용을 금지하기 시작했다. 이는 지난해 3월 유럽 의회에서 승인된 AI 법안의 첫 번째 준수 기한이다. 이 법안은 AI 시스템을 위험 수준에 따라 네 가지로 분류하며, '수용 불가 위험' 카테고리에 해당하는 AI 애플리케이션은 전면 금지된다. 금지 대상에는 사회적 점수 매기기, 개인의 결정을 조작하는 AI, 취약점을 이용하는 AI, 외모 기반 범죄 예측 AI 등이 포함된다. 위반 기업에는 최대 3,500만 유로 또는 전년도 연간 수익의 7% 중 더 큰 금액의 벌금이 부과될 수 있다. 다만, 벌금 시행은 8월부터 시작될 예정이다.
