'AI 판단에 설명 요구권 필요' vs '산업 진입 장벽될 것'

AI 이루다의 개인정보 남용, 이유를 알 수 없는 AI 면접 탈락 원인, 화장실 가면 라이더 등급 떨어뜨리는 요기요의 AI 배차 시스템...

이미 수많은 AI 시스템이 우리 생활 속에서 활용되고 있지만, 이를 관리할 수 있는 최소한의 기본적인 가이드라인 법안은 없는 상태다.

이에 정필모 더불어민주당 의원실은 18일 '인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안' 입법공청회를 열고 전문가와 국민 의견을 들었다.

 

공청회는 정필모 의원을 비롯해, 이우일 한국과학기술단체총연합회 회장이 참석했으며, 최재식 카이스트 교수, 신용우 법무법인 지평 변호사, 권세화 한국인터넷기업협회 정책실장, 장여경 정보인권연구소 이사, 김세진 MBC기자, 김경만 과기정통부 인공지능기반정책과장이 각계 전문가로 참석해 해당 법률안에 의견을 개진했다.

한국과학기술회관 대회의실에서 열린 이날 공청회는 유튜브를 통해 실시간 온라인을 진행 됐으며, 전문가 의견과 유튜브 실시간 댓글 등으로 수렴된 의견은 국회 심의 과정에서 다뤄질 예정이다.

 

"수용 가능한 인공지능 규제와 산업 육성을 위한 기반 조성할 것"

'인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안의 주요 내용은 AI 활용에 대한 '사전 고지', '신고제', '설명 가능성'으로, 이를 충족할 수 있는 제도 틀로 구성됐다.

법은 AI의 주요 활용 분야를 ▲보건의료 ▲필수 공공재 ▲범죄수사 ▲원자력 ▲민사결정 ▲국가활용 ▲포털 ▲기타 등 8개로 구분해 특수 활용 AI로 지정하고, 해당 분야의 공공 및 민간 사업자는 서비스 이용자에게 AI를 활용한다는 점을 미리 밝히도록 사전 고지 의무를 부과했다.

또 AI의 서비스 결과에 대한 설명 의무를 더해 기업 및 기관의 책임을 기술에 전가하지 않도록 막았다. 이같은 의무가 이행될 수 있도록 특수 활용 AI 사업자는 과기정통부에 신고하도록 하고, 의무를 이행하지 않을 경우 폐업/정지명령, 과징금/과태료 등을 처분하는 내용이 담겼다.

더불어 AI 기술 기준과 표준화를 위한 근거 조항과 함께 AI 사업자가 윤리원칙 준수를 위해 자체 `민간자율인공지능윤리위원회`를 설치하도록 하고, 과기정통부가 위원회 구성과 운영에 대해 인증하는 제도를 도입했다.

 

발제를 맡은 박철민 보좌관(정필모 의원실)은 "요기요 (라이더 등급 판정)사례에 보듯, 기업이 민사적 책임을 AI에 돌리고 있다"며, "서비스 이용자의 설명요구건을 도입하기 위한 타협점"이라고 설명했다. 이어 "기업 위원회 역시 민간의 윤리수준을 자율적으로 끌어 올리기 위한 동기"라며, "제품과 서비스에 대한 인증 아니다"라고 부연했다.

또 "강력한 규제가 아닌, 사회가 수용 가능한 내용을 담겠다는 것"이라며, "기업이 자율적으로 자정과 발전을 기대하고 인공지능의 활성화"를 위한 법이라 강조했다.

공청회를 주최한 정필모 의원은 "AI 면접의 결과는 그 이유를 알 수 없다"며, "어떤 인재가 더 적절한지 판단할 수 없어도, (떨어진) 이유조차 알 수 없다는 것은 큰 문제"라고 법 제정의 계기를 설명했다. 이어 "(해당 법이) 수용 가능한 인공지능 규제와 산업 육성을 위한 기반 조성"의 역할을 할 것"이라 말했다.

 

AI의 설명성은 세계적 동향, 설명되지 않으면 쓸 수 없어

각계 전문가는 공청회를 통해 법의 당위성을 공감하면서도, 보완점와 우려를 밝혔다.

최재식 카이스트 교수는 범죄 가능성 예측 AI 모델 '컴퍼스(COMPAS)' 를 예를 들며, AI의 설명 가능성의 필요성에 대해 설명했다. '컴퍼스'은 백인의 범죄 가능성을 낮게, 흑인은 높게 평가해 논란을 샀다. 실제로 백인은 예측대로 범죄를 일으켰으나, 흑인은 일으키지 않았다.

최재식 교수는 "AI는 학습 데이터 자체의 편향, 모델에 적용된 편향, 알고리즘 학습 과정에서 만들어진 편향이 반영될 수 있다"며, "AI의 설명성을 요구하는 것은 세계적 동향으로, 설명되지 않으면 쓸 수 없다"고 말했다.

 

 

신용우 법무법인 지평 변호사는 인공지능 규제와 관련 해외 동향을 전했다.

해외의 경우, 침해 사례를 중심으로 딥페이크 등 당사자의 인권을 침해하는 '인간 존엄성', 안면 인식, AI스피커의 도청 등 '프라이버시와 알 권리', AI를 활용한 평가 시스템의 문제 '평등권(차별 받지 않을 권리)'를 보완하는 규제 중심으로 설명했다.

 

 

김세진 MBC 기자는 배달 앱 AI를 중심으로 기업의 'AI를 앞세운 노동 착취' 사례를 제시했다. 비대면 시장이 커지면서 급격히 성장한 배달앱 기업들이 효율적인 자원과 노동력 분배를 이유로 도입한 AI가 노동력 착취와 기본권 침해라는 부작용을 낳고 있다고 분석했다.

그 사례로, AI가 책정한 거리와 실제 거리가 달라, 그래서 거리 책정에 따른 배달료를 제공하는 배달의 민족과 라이더가 화장실에 간 사이 AI가 배정한 일감을 받지 않았다는 이유로 일감을 없애버린 요기요를 들었다. 김세진 기자는 "기업들은 AI의 판단 기준을 밝히지 않았다"며, "요기요의 경우 개선할 뜻도 전하지 않았다"고 전했다.

 

AI 설명 의무, 무력화될 가능성도 있어

신중한 접근을 요구하는 목소리도 있었다.

권세화 한국인터넷기업협회 정책실장은 "자율 부분을 법으로 규정한다는 점에서 강행규정으로 받아들여질까 걱정"이라며, "기술 기준에 대해서 인공지능의 기준을 정부가 결정할 수 있다는 점이 우려된다"고 말했다. 이에 대해 박철민 보좌관은 표준화 부분은 기술 진흥을 지원 조항이라고 설명했다.

더불어 "8개 특수 활용 AI의 분야 내 사업자가 사전 신고, 과태료, 폐업 등 규제가 인공지능 개발 분야 유입을 제한해 진입장벽으로 작용할 수 있다"고 지적했다. 이어 "정부의 인공지능의 육성 지침이 산자부, 중기부 등 너무 남발되고 있다"며, "과기정통부 등 전문성 있는 하나의 부서가 인공지능 산업을 이끌길 바란다"고 전했다.

 

장여경 정보인권연구소 이사는 법이 무력화될 가능성에 대해 언급했다.

장여경 이사는 "민간 회사의 영업 비밀과 시민 권리 충돌할 수 있다"며, "설명 의무를 무력화할 수 있다"고 말했다. 이에 "(AI 판단에 대한) 설명이 반드시 필요한 항목을 열거해야 한다"고 강조했다.

덧붙여, 인권과 안전, 권리 구제를 위해 인공지능에 대한 국가 감독 체계에 산업 부처나 기술 부처가 아닌, 국가인권위원회, 공정거래위원회, 개인정보보호위원회가 반드시 포함되어야 한다고 강조했다.

정부 측 발언자로 참석한 김경만 과기정통부 인공지능기반정책과장은 "해당 법안이 진흥책뿐만아니라, 신뢰 기반 전체를 다루고 있어 상당히 조심스럽다"며, "법안의 취지, 필요성은 공감하지만 중소기업의 설명 의무 등 일부 조문 등 대해 면밀한 검토와 사회적 합의 필요하다"고 밝혔다.

석대건 기자

daegeon@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

나는 팔 하나 더 달린 사이보그···'멀티 태스킹' 거뜬히

사람에게 두 개의 팔 외에 또다른 팔이 있다면 좀더 편할 수도 있다. 일상생활에서 멀티 태스킹을 할 수 있을 것이다. 팔이...

[디지털 마케팅]③ 30년 전부터 디지털 마케팅이 시작된 나라, 영국

[AI 요약] 유럽의 디지털 강국, 유튜브가 강세를 보이는 영국은 24세 이상 인구의 85% 이상이 스마트폰을 사용하고 있고, 가정용 인터넷 보급률은...

닐슨 vs 컴스코어...OTT 시대, 시청률 조사도 치열한 경쟁

공중파 TV 방송을 보는 시간과 넷플릭스나 유튜브 같은 OTT(온라인동영상서비스) 플랫폼에서 콘텐츠를 즐기는 시간의 차이는? 세대별로 다르겠지만 코로나19 이후 OTT 시청...

특금법 신호탄으로 시작된 가상자산 제도권 편입...향후 과제는?

[AI 요약] 25일 특정금융정보법(특금법) 시행을 앞두고 추석 휴가가 끝난 직후 가상자산 거래소를 비롯한 업계는 뒤숭숭한 분위기를 감추지 못하고 있다. 업비트,...

One comment on “'AI 판단에 설명 요구권 필요' vs '산업 진입 장벽될 것'”

  1. […] 대표적으로 AI 배차 시스템을 도입한 요기요가 있습니다. 배차 AI는 배달 라이더의 등급을 임의로 하향 조절해 인권 침해 문제를 일으켰지만, 회사 측은 AI의 결정이라며 책임을 회피했습니다. XAI는 AI가 내린 판단의 이유를 사람이 이해할 수 있도록 해야 한다는 개념과 기술입니다. (관련 기사) […]