악의적 선거 딥페이크 사용 방지를 위한 자율협의체 공동선언 채택

한국인터넷기업협회는 회원사인 네이버, 카카오, SK커뮤니케이션즈(가나다 순) 등과 올해 치러지는 선거 과정에서의 공정성과 신뢰성을 위한 ‘악의적 선거 딥페이크 사용 방지를 위한 공동선언’을 채택했다고 11일 밝혔다.

협회에 따르면 이번 공동선언은 주요 IT 기업들이 악의적 선거 딥페이크에 대응하기 위해 자발적으로 구성한 자율협의체 활동의 일환으로, 제 22대 국회의원 선거 기간 동안 참여 기업 간 긴밀한 협력 기조를 세우기 위해 마련됐다.

공동선언문은 “악의적 선거 딥페이크의 위험을 낮추기 위한 탐지 및 신속한 조치 노력”을 기울이고, “대응 정책 공개 등을 통해 대응 투명성”을 높이며, “확산 방지를 위한 지속적 논의와 정보 및 의견 교류 활성화” 등의 내용을 담고 있다.

또한 “다양한 시민단체, 학계 등 외부 전문가와의 지속적 교류 및 논의”, “악의적 선거 딥페이크에 대한 대중들의 인식을 높이기 위한 노력” 등의 내용도 포함하고 있다.

이번 공동선언문 채택 기업들은 이를 계기로 인공지능(AI) 생성 콘텐츠에 대한 플랫폼 운영 기조와 자율규제의 중요성을 공고히 하고, 선거 관련 허위 정보 신고 채널 운영, 딥페이크 주의 안내 문구 표시 등 다양한 방안을 마련하고 있다.

또한 각 기업 서비스 특성에 따른 추가적 조치 방안도 준비하고 있다. 네이버는 콘텐츠의 출처 정보를 확인할 수 있는 ‘글로벌 기술 표준(C2PA) 채택 추진’과 ‘비가시성 메타 정보 피처 반영 및 생성 콘텐츠를 탐지하는 기술’ 확보를 중장기적 목표로 연구개발하고 있다.

카카오는 생성형 AI로 작성한 기사에 대해 AI 기술 적용 사실을 표시하고, 생성형 AI 이미지 생성 모델 「칼로」에 ‘비가시성 워터마크를 부착하는 기술’ 도입을 준비하고 있다.

SK커뮤니케이션즈는 AI를 이용한 이미지 생성 시 주요 정치인의 성명에 관한‘검색어 제한 조치’를 통해 선거 관련 딥페이크 제작을 방지한다.

끝으로 앞서 뮌헨협약을 통해 기만적 AI 선거 콘텐츠 대응 방침을 밝혔던 구글코리아, 메타(페이스북코리아), X(구 트위터코리아) 등 해외 기업들은 기술협정(A Tech Accord to Combat Deceptive Use of AI in 2024 Elections)에 따라 이번 선언문을 채택한 국내 기업들과의 자율협의체 활동에 참여하면서 제 22대 국회의원 선거 기간 동안 적극 동참하고 대응할 예정이다.

황정호 기자

jhh@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

트럼프 행정부가 발표한 ‘AI 규제’의 모든 것

백악관이 발표한 AI 입법 프레임워크가 주 차원의 AI 규제를 막으려는 트럼프 행정부의 움직임으로 지적받으며 수많은 전문가의 우려를 불러일으키고 있다. 백악관의 제안된 규제안은 AI 기술로 인한 ‘피해 책임 소재를 명확히 할 길이 없다’는 비판이 나오고 있다. 특히 일부 주에서는 이미 딥페이크 영상 제작이나 고용 차별 등 AI의 잠재적으로 위험하고 유해한 사용 사례를 다루는 법률을 제정한 상황이어서 논란은 불가피할 것으로 보인다.

AI 교과서 논란 이후… 교육의 AX는 멈춘 것일까?

교육의 디지털 전환이 멈춘 것은 아니다. 오히려 방식이 달라졌다. 정책의 전면 드라이브는 멈췄지만, 현장에서는 교사 대상 AI·디지털 연수가 이어지고 있고, AI 튜터와 맞춤형 학습 시스템 도입도 일부 시·도교육청을 중심으로 계속 진행되고 있다. 교육 플랫폼은 고도화되고, 생성형 AI를 활용한 수업 사례도 빠르게 늘고 있다. 예전이 ‘교과서 중심 AI’였다면, 지금은 ‘수업 중심 AI’로 관점이 바뀌고 있는 셈이다.

기술 패권 전쟁, 8.6조 쏟아붓는다”… 정부, 23개 부처 합심 ‘기술 주권’ 선포

글로벌 기술 패권 전쟁이 심화되는 가운데, 정부가 대한민국의 미래 생존을 좌우할 전략 기술 확보를 위해 8조 6,000억 원이라는 역대급 예산을 투입한다.

[AI 기본법 톺아보기⑤] ‘고영향 AI 사업자 책무’가 만든 운영 표준… 위험관리부터 이의제기까지

고영향 AI 사업자 책무가 겨냥하는 것은 기술의 완벽함이 아니라 절차의 일관성이다. 위험을 어떻게 관리했는지, 이용자에게 무엇을 어떻게 설명했는지, 이의제기나 피해가 발생했을 때 어떤 루트로 처리했는지, 그리고 그 모든 것을 문서로 남겼는지가 결국 책임의 기준이 된다.