자나 깨나 헛소리 조심! ‘2024 AI’ 알고 갑시다

[AI요약] 생성AI가 선거에 미치는 영향에 대한 우려가 시급해졌다. 유권자가 완전히 환상에 가까운 정보의 세계에서, AI 환각과 정치적 편의의 독성이라는 혼합을 기반으로 생성된 온라인 현실에서 살게 될수 있다는 우려의 목소리가 커지고 있다.

챗GPT와 같은 생성AI 및 기술의 등장으로 ‘헛소리 봇’이 증가하고 있다는 지적이 나온다. (이미지=생성AI)

‘자나 깨나 헛소리 조심!’, 올해 우리 삶의 모토로 삼아야 할지도 모르겠다.

생성 인공지능(AI)가 우리 삶의 방식에 현실적이고 임박한 위협이 되는 이유에 대해 더가디언, CNN 등 외신이 3일(현지시간) 보도했다.

지난해 미국에서는 앞으로 다가올 정치가 될 영상이 등장했다. 해당 영상에서 전 민주당 대선 후보이자 국무장관이었던 힐러리 클린턴은 “내가 이 말을 하면 사람들이 놀랄지도 모르지만 저는 사실 론 드샌티스를 아주 좋아합니다. 나는 그가 바로 이 나라에 필요한 사람이라고 말하고 싶습니다.”라고 말했다.

론 드샌티스는 공화당 대선 후보이며, 클린턴이 공화당 대선 후보를 열렬히 지지한다는 것은 이상해 보인다. 그렇다. 해당 영상의 추가 조사 결과 해당 영상은 생성 AI를 이용해 제작된 것으로 드러났다.

그러나 클린턴 비디오는 생성AI가 가까운 미래에 어떻게 정치를 근본적으로 바꿀 수 있는지 보여주는 작은 예일 뿐이다. 생성 AI로 제작된 허위정보는 대부분 자본없이 생성될 가능성이 크며, 여기에는 유권자를 조작하기 위해 고도로 개인화된 광고가 포함된다.

전문가들은 허위 정보 유포의 결과가 선거결과에 직접적인 영향을 미칠 것으로 지적한다. 예를들어 11월 미국 대선을 가짜 뉴스가 터져 나올 경우 잘못된 정보에 반박할 시간도 부족하다. 투표소의 위치 같은 선거행정에 대한 잘못된 정보가 생성될 수도 있다.

특히 2024년은 전 세계 수십억 명의 사람들이 투표하게 될 해다. 올해에는 미국, 영국, 유럽연합, 대만, 인도, 러시아, 남아프리카공화국, 멕시코, 이란, 파키스탄, 인도네시아 등에서 선거가 예정돼 있다.

선거의 대부분은 단지 국가의 미래만을 결정하는 것이 아닌, 지정학적 긴장과 기후 위기와 같은 글로벌 과제를 해결하는 방법을 결정하게 되며 여기에는 수많은 정치적 이슈가 연결돼 있다.

2010년대 선거가 소셜 미디어에 엄청난 영향을 받은 것과 마찬가지로 앞으로 진행될 선거는 새로운 생성AI 기술의 영향을 받을 가능성이 크다.

그러나 2010년대 정치인들이 선거를 유리하게 끌고가기 위해 소셜 미디어의 힘을 활용하는 데 엄청난 자금을 소비한 반면, 생성AI는 오해의 소지가 있는 정보를 생성하는 데 드는 비용을 효과적으로 ‘제로’로 줄인다.

특히 미국은 지난 10년 동안 이른바 ‘헛소리’가 실제로 정치에 어떤 영향을 주는지 목격하면서 우려의 목소리가 커지고 있다.

통계에 근거해 답변을 내놓는 생성AI가 ‘환각’을 생성할수 있다는 것은 이미 잘 알려져 있다. 표면적으로 그럴듯해 보이지만 실제로는 질문에 대한 정답이 아닌, 설명이나 이미지와 같이 현실과 거의 관련이 없는 인위적으로 생성된 정보를 생성하는 것이다.

문제는 인간이 생성AI가 만든 허위 자료를 무비판적이고 경솔한 방식으로 사용할수 있는 것이다. 그리고 사람들이 무엇이 참이고 거짓인지 아는 것을 더 어렵게 만든다.

AI가 생성한 환각이 경제 상황이나 우크라이나 전쟁 등 중요하지만 확인하기 어려운 질문에 답하는 데 사용된다면 일부 사람들이 다음을 기반으로 중요한 투표 결정을 내리기 시작할수 있다. 완전히 환상에 가까운 정보의 세계에서 유권자는 AI 환각과 정치적 편의의 독성 혼합을 기반으로 생성된 온라인 현실에서 살게 될 실질적인 위험에 맞닥트린 것이다.

생성AI가 많은 직업과 산업을 근본적으로 변화시키기 시작한 가운데, 이런 변화의 선두에는 정치가 있을 가능성이 크다. (이미지=생성AI)

물론 AI 기술은 위험을 초래하지만 이를 제한하기 위해 취할수 있는 조치는 분명히 있다. 기술기업은 사용자가 AI 생성 콘텐츠를 쉽게 식별할수 있도록 워터마킹을 계속 사용할 수 있다.

또한 언론인들은 선거기간 동안 AI가 생성한 기사를 취재하지 않도록 특별한 예방 조치를 취할수 있으며, 정당은 거짓 AI 생성 정보의 사용을 방지하기 위한 정책을 개발할 수도 있다. 가장 중요한 점은 유권자가 자신이 확신하지 못하는 중요한 정보의 현실을 확인함으로써 비판적 판단을 행사할수 있다는 것이다.

전문가들은 생성AI의 등장은 이미 많은 직업과 산업을 근본적으로 변화시키기 시작했으며, 이런 변화의 선두에는 정치가 있을 가능성이 크다고 관측한다.

최근 벌어지는 이러한 형상에 대해 미국 프린스턴대학교 교수이자 철학자 해리 프랑크푸르트는 “헛소리(bullshit)를 진실에 대해 고려하지 않고 설득하려는 의도”라고 구체적으로 정의했다. 또한 그는 챗GPT(ChatGPT)와 같은 생성AI 및 기술의 등장으로 ‘헛소리 봇’(botshit)이 증가하고 있다고 지적했다.

브루킹스 연구소는 “생성AI가 정치에서 사용될수 있는 긍정적인 방법도 존재하지만, 현재로서는 부정적인 용도가 가장 명백하고 즉각적으로 우리에게 영향을 미칠 가능성이 더 크다”고 설명했다.

또한 “생성AI가 유익한 목적으로 사용되고 가짜 정보 생성으로 이어지지 않도록 노력하는 것이 중요하다”고 강조했다.

류정민 기자

znryu@daum.net
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

‘링크의 시대’에서 ‘답변의 시대’로…구글 ‘서치 라이브’가 바꾸는 검색의 질서

서치 라이브는 검색 결과를 읽는 경험보다, 검색과 ‘대화하는’ 경험에 가깝다. 사용자는 구글 앱 안에서 음성으로 질문을 이어가고, 필요하면 카메라로 사물을 비추며 실시간 도움을 받을 수 있다. 이는 검색이 단발성 쿼리에서 벗어나 문맥을 유지하는 세션형 인터페이스로 이동하고 있음을 보여준다.

‘AI’를 향한 아마존의 거대한 ‘20년 승부수’

[AI요약] 20년전 생소한 개념의 클라우드 컴퓨팅 서비스인 AWS를 출시한 후, 해당 서비스를 인터넷 기반 도구에 의존하는 거의 모든 기업에게 필수불가결한...

[AI, 이제는 현장이다③] AI가 커질수록 공격도 빨라진다… 기업 보안이 다시 ‘기본기’로 돌아가야 하는 이유

AI를 말하면서 이제 보안을 따로 떼어놓기는 어렵다. AI가 기업 전반으로 퍼질수록 공격자도 같은 기술을 손에 넣고 있기 때문이다. 문제는 공격의 방향이 완전히 새로워졌다는 데 있지 않다. 오히려 익숙한 공격이 더 빨라지고, 더 값싸지고, 더 넓게 퍼질 수 있게 됐다는 점이 더 중요하다.

‘AI 에이전트 Vs. 일상생활’ 실리콘 밸리와 대중의 격차

빅테크들이 엄청난 자금을 투입하면서 미래 기술로 보고 있는 AI를 우리는 얼마나 활용하고 있을까. AI 에이전트가 차세대 기술의 핵심으로 강조되고 있는 가운데, 미국인의 65%는 업무에 AI를 전혀 사용하지 않는 것으로 나타났다. 혁신적인 기술은 막대한 가치를 창출하지만 그 가치의 대부분은 기술을 개발하고 도입하는 기업과 투자자에게 돌아간다는 지적이 나온다.