‘챗GPT’를 공격하라! 미국이 해커를 라스베이거스에 집결시킨 이유

[AI요약] 미국이 챗GPT와 바드, 라마2 등 생성형 AI의 약점을 파악하기 위해 해커 지원 훈련 프로그램을 시작했다. 바이든 행정부와 기술 기업들은 이번 프로그램을 통해 AI 모델을 보다 강력하고 안전하게 개발 가능한 피드백과 다양한 관점 수집을 기대하고 있다.

바이든 행정부가 생성 AI 시스템의 약점을 파악하기 위해 고안된 해킹 지원 훈련을 시작했다. (사진=카네기멜론대학교)

미국이 생성 AI 시스템의 약점을 파악하기 위해 고안된 해킹 지원 훈련을 시작한다.

조 바이든 미국 행정부가 챗GPT(ChatGPT) 등 인공지능(AI)을 활용한 사이버 공격 가능성을 가늠하기 위해 고안된 백악관 지원 해킹 훈련 프로그램에 대해 CNN, CNBC 등 외신이 10일(현지시간) 보도했다.

이번 백악관 지원 해킹 훈련은 연례행사인 ‘데프콘 사이버 컨퍼런스’에서 열린다. 컨퍼런스 주최측은 이번 주말부터 수천명의 해커가 라스베이거스에 집결한다고 밝힌 가운데, 이를 통해 생성 AI를 조작할수 있는 새로운 방법을 공개하고 AI 개발자에게 중요한 취약점을 수정할수 있는 기회를 제공할 계획이다.

이번 행사에서 해커들은 오픈AI, 구글, 메타 등을 포함하여 가장 진보된 생성 AI 모델을 보유한 기술 회사와 함께 심지어 백악관의 지원을 받고 있다. ‘레드팀’이라고도 불리는 이번 해커 트레이닝은 AI 컴퓨터 시스템을 한계까지 밀어붙여 악의적인 행위자가 실제 공격을 시작하는 데 사용할 수 있는 결함 및 기타 버그를 식별하는데 집중한다.

주최측은 이틀동안 진행되는 컨퍼런스를 통해 수천명의 신진 해커 또는 경험 많은 해커들이 레드팀 대회에 참가할 것으로 기대하고 있다. 해커 참가자가 AI 시스템의 다양한 버그 또는 불미스러운 행동을 발견하면, 깃발 캡처 형식으로 포인트가 부여되며 추후 승자가 가려진다.

이번 대회는 백악관 과학기술정책실의 ‘AI 권리장전을 위한 청사진’을 중심으로 설계됐다. 지난해 바이든 행정부가 발표한 이 가이드는 기업들이 인공지능을 보다 책임감 있게 개발 및 배치하고 AI 기반 감시를 제한하도록 촉구하기 위해 발표됐다. 다만 현재 이 가이드는 기술 기업들을 강제하지는 않는다.

최근 몇달 동안 미국 카네기멜론대학교 연구팀은 악의적 사용자가 오픈AI, 구글, 메타가 개발한 기타 생성 AI 시스템이 신체적 상해를 유발하는 지침을 제공하도록 속일 수 있음을 발견했다.

현재 대부분의 인기있는 AI챗봇 시스템에는 허위 정보 및 혐오 발언을 퍼뜨리거나 직접적인 해를 끼칠 수 있는 정보를 제공하는 것을 방지하도록 설계된 최소한 몇 가지 보호 기능이 있다. 예를 들어 ‘인류를 파괴하는 방법’에 대한 질문 등이다.

그러나 연구팀은 보호기능을 뚫고 AI가 유해한 답변을 하도록 속일 수 있었다. 연구팀에 따르면 오픈AI의 챗GPT는 사회적 불안을 조장하는 팁을 제공하고, 메타의 라마2는 정신건강 문제가 있는 취약계층을 조작하고 식별할수 있도록 제안했으며, 구글의 바드는 치명적인 바이러스를 출시할 것을 제안했지만 진정으로 인류를 말살하려면 ‘치료에 저항력이 있어야 한다’고도 경고했다.

이러한 가운데 펼쳐지는 라스베이거스 해킹 이벤트에 대해 오픈AI, 구글, 메타 등 기술은 사실상 적극적인 지지를 표명했다. 레드팀 이벤트는 사실 미국 사이버보안업계 전번에 걸친 일반적인 관행으로, 기업들은 이를 통해 시스템의 버그 및 기타 취약성을 파악할 수는 기회를 얻는다.

실제로 앞서 AI의 주요 개발자들은 AI 시스템을 개선하기 위해 레드팀을 어떻게 사용했는지 공개적으로 자세히 설명하기도 했다.

아라티 프라바카 백악관 과학기술정책국장은 “바이든 행정부의 해커 경쟁 지원은 안전한 AI 시스템 개발을 위한 광범위한 전략의 일부”라고 언론을 통해 밝혔다.

오픈AI 대변인은 “컨퍼런스를 통해 AI모델을 더 강력하고 안전하게 만들 수 있는 귀중한 피드백을 수집할 수 있을 것”이라며 “또한 AI 개발을 안내하는 데 도움이 되는 다양한 관점과 더 많은 의견이 모일 것”이라고 밝혔다.

류정민 기자

znryu@daum.net
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

탄소가 ‘스펙’이 된 시대…제품탄소발자국, 공급망 경쟁력 가른다

유럽연합(EU)은 탄소국경조정제도(CBAM), 에코디자인 규정(ESPR), 디지털제품여권(DPP) 도입을 통해 제품 단위 탄소 정보를 요구하는 체계를 구축하고 있다. 이러한 추세 속에 제품탄소발자국이 산업의 또 다른 기준으로 자리 잡으며 기업들의 대응이 빨라지고 있다. (이미지=젠스파크로 생성)

미사일보다 먼저 멈추는 건 서버다…이란 전쟁, 중동 빅테크의 돈줄을 겨누다

중동은 한동안 빅테크의 차세대 성장지로 불렸다. 값싼 전력, 막대한 국부펀드 자금, 공격적인 국가 주도 투자, AI 인프라 수요가 한꺼번에 모인 곳이었기 때문이다. 그런데 이란 전쟁은 그 계산식의 앞자리를 바꾸고 있다.

[AI, 이제는 현장이다④] 모델보다 중요한 건 사람과 구조… AI 도입 성패는 조직 설계에서 갈린다

올해 기업들이 인공지능(AI)을 두고 마주한 가장 큰 질문은 기술보다 조직에 가깝다. 모델을 도입하는 일은 예전보다 쉬워졌지만, 그 모델을 어디에 붙이고 누가 무엇을 맡을지, 어떤 판단은 사람에게 남기고 어떤 업무는 AI에 넘길지는 여전히 어렵다. 생성형 AI 확산 초기에는 도구를 얼마나 빨리 들여왔는지가 경쟁력이었다면, 지금은 그 도구를 조직 안에서 어떻게 작동시키느냐가 더 중요한 단계로 들어섰다. 결국 올해 AI 도입의 성패는 더 좋은 모델을 확보했느냐보다, 사람과 역할, 승인과 책임, 학습과 평가의 구조를 얼마나 빨리 다시 설계하느냐에서 갈릴 가능성이 크다.

[현장] 국회서 쏟아진 ‘AX 보안’ 대응법… “AI 확산 속도만큼 보안·법제도 함께 가야”

토론회의 문제의식은 분명했다. AX 시대의 보안은 더 이상 시스템 한켠에 붙는 방어 기능이 아니라 산업 경쟁력과 사회적 신뢰를 지탱하는 핵심 인프라라는 점이다. AI 기술이 기업과 공공, 일상 서비스 전반으로 빠르게 스며드는 상황에서 보안이 뒤따라가는 구조로는 더 이상 대응이 어렵다는 현실 인식도 자리 잡고 있었다. 이날 국회에서 나온 논의는 결국 “AI를 전제로 한 사회에서 어떤 안전 체계를 먼저 갖출 것인가”라는 질문으로 모였다.