
지난 1월 시행된 AI기본법이 산업 현장에 본격적으로 영향을 미치기 시작했다. 법 시행 이후 최소 1년간 계도기간이 주어졌지만, 현장의 고민은 단순히 “준비할 시간이 부족하다”는 수준에 머물지 않는다. 생성형 인공지능을 활용한 서비스가 텍스트, 이미지, 음성, 영상, 추천, 번역, 업무 보조 등으로 빠르게 확산되면서, 법이 요구하는 ‘표시의무’를 실제 서비스 구조 안에서 어떻게 구현해야 하는지에 대한 질문이 커지고 있다.
스타트업얼라이언스가 28일 발간한 이슈페이퍼 ‘AI기본법 ‘표시의무’, 현장은 무엇을 고민하는가’는 이 지점을 정면으로 다룬다. 생성형 AI 결과물임을 이용자가 알 수 있도록 표시하자는 제도 취지 자체에는 산업계도 대체로 공감한다. 딥페이크, 허위정보, 오인·기만 콘텐츠가 확산되는 상황에서 이용자의 알 권리를 보장하고 AI 서비스에 대한 사회적 신뢰를 높여야 한다는 방향성에 이견은 크지 않다.
문제는 제도의 목적이 아니라 작동 방식이다. 현장은 지금 “AI를 사용했는가”라는 단순한 질문보다 더 복잡한 질문에 직면해 있다. 사람이 쓴 문장을 AI가 다듬은 경우도 AI 생성물인가. 영상 속 음성을 자막으로 바꾸는 음성-텍스트 변환(STT) 기능도 생성형 AI 표시 대상인가. 번역, 추천, 오타 교정, 문장 요약, 카메라 필터, 돌봄 목적의 음성 서비스까지 동일한 강도의 표시의무를 적용해야 하는가. AI 모델 개발사, API 제공사, 최종 서비스 사업자, 공공기관이 함께 얽힌 구조에서는 누가 책임을 져야 하는가. 이슈페이퍼는 이러한 질문이 제도 회피가 아니라, 표시의무를 실제로 작동 가능한 제도로 만들기 위한 현장의 현실적 고민이라고 짚는다.
‘AI 생성물’의 경계가 흔들린다…생성과 보조, 변환과 배열을 구분해야 하는 이유
AI기본법상 표시의무는 생성형 AI 또는 이를 이용한 제품·서비스를 제공하는 경우 그 결과물이 생성형 AI에 의해 생성됐다는 사실을 표시하도록 하는 데 초점을 둔다. 그러나 실제 AI 서비스는 법 문장처럼 단순하지 않다. 오늘날 많은 서비스에서 AI는 결과물을 처음부터 끝까지 만들어내는 존재라기보다, 사람의 작업 일부를 보조하거나 기존 정보를 다른 형식으로 변환하거나 기존 콘텐츠의 노출 순서를 조정하는 방식으로 쓰인다.
예컨대 기자, 마케터, 디자이너, 개발자가 직접 기획한 콘텐츠를 AI가 일부 교정하거나 요약한 경우가 있다. 사람이 전체 구조와 맥락을 설계하고 AI가 배경 이미지, 색감, 문장 표현만 보완하는 경우도 있다. 전문가가 작성한 문서를 AI가 정리하거나, 고객 응대 문안을 일부 추천하는 경우도 있다. 이런 활용까지 모두 ‘AI 생성물’로 묶어 동일하게 표시해야 한다면, 제도는 고위험 영역을 겨냥하기보다 AI가 관여한 거의 모든 디지털 작업을 포괄하는 방식으로 확장될 수 있다.
스타트업얼라이언스가 이번 이슈페이퍼에서 특히 주목한 영역은 STT, TTS, 번역, OCR 같은 ‘변환형 기술’이다. STT는 음성을 텍스트로 바꾸는 기술, TTS는 텍스트를 음성으로 읽어주는 기술, OCR은 이미지나 문서 속 문자를 인식해 텍스트로 추출하는 기술이다. 이 기술들은 딥러닝이나 대규모 언어모델을 활용할 수 있지만, 본질적으로는 새로운 의미의 콘텐츠를 창작한다기보다 기존 정보를 다른 형식으로 바꾸는 데 가깝다.

시각장애인을 위해 책을 읽어주는 TTS 기능, 영상 속 발화를 자막으로 변환하는 STT 기능, 외국어 문서를 한국어로 옮기는 번역 기능은 이용자의 정보 접근성을 높이는 역할을 한다. 이는 특정 인물의 얼굴이나 목소리를 합성해 실제로 하지 않은 발언을 만들어내는 딥페이크와는 위험 수준이 다르다. 이 둘을 같은 규율 체계 안에 넣으면 표시의무의 초점은 흐려지고, 정작 위험도가 높은 기만적 생성물에 대한 경고의 의미도 약해질 수 있다.
추천 시스템도 같은 맥락이다. 온라인 쇼핑몰이 구매 이력에 따라 상품을 추천하거나, OTT 서비스가 취향에 맞는 영상을 제안하는 기능은 새로운 콘텐츠를 만드는 것이 아니라 기존 콘텐츠의 배열과 노출 순서를 조정하는 행위에 가깝다. 이슈페이퍼는 이러한 기능까지 생성형 AI 결과물과 동일하게 표시 대상으로 볼 경우, 이용자 보호의 실익은 제한적인 반면 규제 범위가 과도하게 넓어질 수 있다고 지적한다.
결국 핵심은 ‘AI가 관여했는가’가 아니라 ‘AI가 어떤 방식으로, 어느 정도, 어떤 위험을 수반하며 관여했는가’다. 생성, 편집, 가공, 보조, 변환, 배열의 경계를 구분하지 못하면 기업은 가장 보수적인 해석을 택할 수밖에 없다. 그 결과 이용자는 곳곳에서 반복되는 AI 표시를 마주하게 되고, 기업은 낮은 위험의 기능까지 규제 대응 비용을 부담하게 된다. 표시의무가 신뢰 장치가 되려면 먼저 표시해야 할 대상의 범위가 정교하게 정의돼야 한다.
워터마크만으로는 부족하다…표시의무가 ‘형식적 준수’에 머물 수 있는 기술적 한계
두 번째 쟁점은 표시의 실효성이다. 표시의무는 이용자가 콘텐츠의 생성 방식을 인지하도록 하는 제도다. 하지만 실제 유통 환경에서는 표시가 계속 유지된다는 보장이 없다.
텍스트 콘텐츠가 대표적이다. 플랫폼에서 ‘AI 생성’이라는 문구를 붙여 제공하더라도, 이용자가 해당 문장을 복사해 다른 웹사이트나 SNS에 붙여넣는 순간 표시 정보는 쉽게 사라진다. 이미지와 영상도 마찬가지다. 워터마크를 넣더라도 캡처, 크롭, 편집, 재업로드 과정을 거치면 제거되거나 훼손될 수 있다. 표시의무가 최초 제공 단계에서는 지켜졌더라도, 콘텐츠가 외부로 이동하는 순간 사업자의 통제 범위를 벗어나는 것이다.
이 지점에서 현장은 또 다른 질문을 던진다. ‘AI 사업자가 콘텐츠를 최초 제공하는 단계에서 표시의무를 충실히 이행했다면, 이후 이용자의 복사·재게시·편집까지 사업자가 책임져야 하는가’ ‘표시의무 이행 여부는 사업자가 실질적으로 통제할 수 있는 최초 제공 단계 기준으로 판단해야 하는가’ 이 질문에 대한 명확한 기준이 없다면 기업은 법적 리스크를 줄이기 위해 과도한 고지, 반복 팝업, 화면 내 상시 표시 같은 보수적 방식을 선택할 가능성이 크다.

그러나 표시가 많아질수록 반드시 이용자 보호가 강화되는 것은 아니다. 이슈페이퍼에서는 반복적 고지로 인해 이용자가 경고에 둔감해지는 ‘경고 피로’ 가능성을 지적한다. 모든 AI 관여 콘텐츠에 동일한 문구가 반복되면, 이용자는 이를 위험 신호가 아니라 배경 정보처럼 받아들일 수 있다. 그렇게 되면 정작 딥페이크, 허위정보, 금융 사기, 선거 관련 조작 콘텐츠처럼 강한 경고가 필요한 영역에서 표시의 주목도가 떨어질 수 있다.
기술적 표시 방식 역시 간단한 해법은 아니다. 글로벌 차원에서는 C2PA처럼 콘텐츠의 생성·편집 이력을 메타데이터로 남기는 출처 증명 기술이 확산되고 있다. 메타데이터는 사람이 바로 보는 문구가 아니라 기계가 판독할 수 있는 정보다. AI기본법 시행령도 기계가 판독할 수 있는 방법의 표시를 허용하고 있지만, 이용자가 명확히 인식할 수 있는 안내가 함께 요구되는 구조다. 이 때문에 메타데이터 기반 표시만으로 법적 의무를 충족할 수 있는지에 대한 해석상 불확실성이 남는다.
더구나 특정 글로벌 표준을 사실상 의무화할 경우 스타트업과 중소기업에는 또 다른 진입 장벽이 될 수 있다. 기술 구현 비용, 표준 대응 인력, 외부 솔루션 도입 비용이 발생하기 때문이다. 대형 플랫폼에는 감당 가능한 비용도 초기 스타트업에는 제품 출시 속도를 늦추는 부담이 될 수 있다. 그래서 이슈페이퍼는 ‘눈에 보이는 마크’ 중심의 접근과 특정 표준 중심의 접근 모두를 경계하며, 기술 중립적이고 서비스 특성에 맞는 다양한 표시 방식을 인정해야 한다고 제안한다.
여기서 중요한 것은 표시 방식의 정답을 하나로 정하는 것이 아니라, 표시의 목적을 기준으로 수단을 유연하게 설계하는 일이다. 이용자가 이미 서비스명, 화면 구성, 대화형 인터페이스를 통해 AI 작동 사실을 충분히 인지할 수 있는 경우라면 별도의 반복 고지가 반드시 필요한지 따져볼 필요가 있다. 반대로 실제 인물의 얼굴이나 목소리를 합성한 영상처럼 오인 가능성이 높은 경우에는 강하고 명확한 표시가 필요하다. 표시의무가 실효성을 갖추려면 기술 방식보다 위험 맥락을 먼저 봐야 한다.
모델 개발사인가, 최종 서비스 사업자인가…복합 서비스 구조가 만든 책임의 공백
세 번째 쟁점은 책임 주체다. AI 서비스는 더 이상 한 기업이 모델을 만들고, 서비스를 개발하고, 최종 이용자에게 직접 제공하는 단순 구조로만 운영되지 않는다. 모델 개발사, API 제공사, 솔루션 기업, 플랫폼 사업자, 최종 서비스 운영사, 공공기관이 연결되는 다층 구조가 일반화되고 있다. B2B2C, B2B2G 구조에서는 AI 기능을 실제로 구현한 주체와 이용자에게 서비스를 제공하는 주체가 다를 수 있다.
예를 들어 한 스타트업이 AI 모델을 API 형태로 제공하고, 다른 기업이 이를 고객 상담 서비스에 탑재해 소비자에게 제공한다고 가정해보자. 이 경우 표시의무의 1차 책임은 모델 개발사에 있는가, API 제공사에 있는가, 소비자와 직접 접점을 갖는 최종 서비스 사업자에 있는가. 또 민간 기업이 개발한 AI 돌봄 서비스를 지방자치단체가 시민에게 제공하는 경우, 표시 방식과 책임 귀속은 누구에게 돌아가야 하는가.
AI기본법은 표시의무 주체를 ‘AI 사업자’로 규정하지만, 복합 서비스 구조에서는 이 표현만으로 책임 범위를 충분히 가르기 어렵다. 책임 주체가 불명확하면 두 가지 문제가 동시에 발생한다. 하나는 중복 부담이다. 모델 개발사, API 제공사, 최종 서비스 사업자가 모두 책임 리스크를 우려해 각자 표시 장치를 덧붙이면 서비스 경험은 복잡해지고 계약 비용은 늘어난다. 다른 하나는 책임 공백이다. 각 주체가 “최종 이용자와 직접 접점이 없다”거나 “우리는 기술만 제공했다”고 해석할 경우, 실제 이용자 보호가 필요한 지점에서 책임이 불분명해 질 수 있다.
글로벌 서비스에서는 혼란이 더 커진다. 한국 이용자에게만 별도 표시를 적용해야 하는지, IP 기반으로 국가별 표시 방식을 구분할 수 있는지, 글로벌 UI를 운영하는 기업이 한국 규제에 맞춰 별도 화면을 설계해야 하는지 등이 쟁점이 된다. 기준이 불명확하면 기업은 기능 출시를 지연하거나 국내 서비스 범위를 축소하는 보수적 선택을 할 수 있다. 특히 규제 대응 인력이 부족한 스타트업에는 이러한 불확실성 자체가 시장 진입 장벽으로 작용한다.
이와 관련 이슈페이퍼는 최종 이용자와 직접 접점을 형성해 결과물을 제공하는 사업자를 중심으로 책임 구조를 설계하되, 모델 개발사 등 상위 단계 사업자의 역할과 영향력도 함께 고려하는 유연한 기준이 필요하다고 본다. 이는 단순히 책임을 한쪽에 몰아주자는 의미가 아니다. 서비스 구조별로 누가 무엇을 통제할 수 있는지, 이용자에게 어떤 정보를 제공할 수 있는지, 계약 단계에서 어떤 고지·표시 의무를 분담할 수 있는지를 명확히 해야 한다는 뜻이다.
규제의 방향은 ‘더 많이 표시’가 아니라 ‘더 정확히 표시’여야 한다
이번 이슈페이퍼가 제시하는 핵심 대안은 위험도 기반 차등 표시 체계다. 현재 논의가 AI 관여 여부를 기준으로 일률적인 표시를 요구하는 방향에 가깝다면, 앞으로는 실질적 피해 가능성에 비례해 표시 강도를 달리해야 한다는 것이다.
고위험 영역은 비교적 분명하다. 특정인의 얼굴·목소리·신체적 특징을 합성해 인격권이나 초상권을 침해할 수 있는 딥페이크, 선거·금융·재난 등 공공 신뢰에 영향을 미칠 수 있는 허위정보, 사기나 기만 목적이 명확한 콘텐츠는 강한 표시가 필요하다. 이용자가 직관적으로 알아볼 수 있는 방식의 고지, 삭제되기 어려운 표시, 유통 단계에서의 추적 가능성 확보가 요구될 수 있다.
반면 문법 교정, 단순 요약, 오타 수정, 이미지 밝기·색감 보정, 노이즈 제거, 추천 알고리즘 기반 배열, 소상공인의 마케팅 문구 초안 작성, 고객 응대 문안 보조, 배리어프리 지원, AI 돌봄콜, 병원·약국 예약 연계, 날씨·재난 안내 같은 서비스는 위험 수준이 다르다. 이들 기능까지 딥페이크와 같은 강도의 표시의무로 묶으면 규제 자원은 분산되고 기업 부담은 커진다. 더구나 공익적·접근성 개선 목적의 AI 활용까지 과도하게 위축될 수 있다.
따라서 표시의무의 정책 목표는 “AI가 조금이라도 쓰였는지 모두 알리자”가 아니라 “이용자가 오인하거나 피해를 입을 가능성이 있는 지점에서 정확히 알리자”에 가까워야 한다. 그래야 이용자 보호와 산업 경쟁력이라는 두 목표가 충돌하지 않는다.
중복 규제 정비도 필요하다. 기업은 AI기본법뿐 아니라 정보통신망법 개정 논의, 부처별 가이드라인, 산업별 규율을 함께 고려해야 한다. 규제의 엄격성보다 더 큰 문제는 기준의 중첩과 해석의 불일치다. 어느 규정을 우선 적용해야 하는지, 부처별 가이드라인이 다를 때 무엇을 따라야 하는지, 행정해석의 범위가 어디까지인지 명확하지 않으면 기업은 혁신보다 회피를 선택하게 된다. 이슈페이퍼가 단일 해석 창구, 즉 원스톱 질의·회신 체계의 필요성을 강조하는 이유다.
글로벌 정합성도 빼놓을 수 없다. AI 서비스는 대부분 글로벌 시장을 전제로 설계된다. 국내에만 독자적이고 과도한 표시 체계가 적용될 경우 기업은 해외 출시를 우선하거나, 국내 서비스 출시를 늦추거나, 글로벌 투자자 입장에서 한국 시장을 규제 리스크가 큰 시장으로 볼 수 있다. 이는 ‘갈라파고스 규제’ 우려와 맞닿아 있다. 국내 제도가 글로벌 규범과 완전히 같을 필요는 없지만, 기업이 이중·삼중의 준수 체계를 떠안지 않도록 정합성을 확보할 필요가 있다.
계도기간의 의미…규제를 미루는 시간이 아니라 설계를 고치는 시간
이번 이슈페이퍼가 던지는 메시지는 규제 반대론이 아니다. 오히려 표시의무의 필요성을 전제로, 그 제도가 사회적 신뢰를 만드는 장치로 작동하려면 더 정교해야 한다는 제안에 가깝다. 산업계가 우려하는 것은 이용자 보호가 아니라 예측 불가능성이다. 무엇이 표시 대상인지, 어떤 표시 방식이면 충분한지, 어느 단계의 사업자가 책임지는지 알 수 없다면 스타트업은 제품을 빠르게 실험하기보다 법적 리스크를 피하는 방향으로 움직일 가능성이 크다.
이와 관련 스타트업얼라이언스 임정욱 대표는 “이용자 보호와 산업 경쟁력은 상충하는 목표가 아니라 함께 달성해야 할 과제”라며 “계도기간은 단순한 유예가 아니라, 현장의 목소리를 반영해 제도를 정교하게 다듬을 수 있는 중요한 시간”이라고 강조했다. 이어 임 대표는 “표시의무가 산업계의 부담이 아닌 사회적 신뢰를 높이는 제도로 안착할 수 있도록 관련 논의와 제도 보완이 지속적으로 이어져야 한다”고 말했다.
AI기본법의 표시의무는 한국 AI 규제 체계가 실제 산업 현장과 만나는 첫 시험대 중 하나다. 이 제도가 성공하려면 단순한 원칙 선언을 넘어 서비스 설계, 기술 구현, 책임 배분, 글로벌 운영 방식까지 고려한 실행 기준이 필요하다. 모든 AI 활용을 같은 위험으로 취급하는 방식은 이용자 보호에도, 산업 성장에도 충분한 답이 되기 어렵다.
결국 지금 필요한 것은 규제를 더 강하게 하느냐, 더 약하게 하느냐의 이분법이 아니다. 위험한 것은 더 분명하게 표시하고, 낮은 위험의 보조적 활용은 합리적으로 예외를 인정하며, 기업이 예측 가능한 방식으로 준수할 수 있도록 기준을 세우는 일이다. AI가 산업 전반의 기본 인프라로 확산되는 지금, 표시의무의 성패는 한국 AI 규제가 ‘신뢰를 높이는 제도’가 될지, ‘불확실성을 키우는 부담’이 될지를 가르는 기준점이 될 전망이다.
