MS, AI 윤리 최우선…오픈AI와 정반대 전략 선택

[AI요약] 인공지능 산업에서 '어디까지 허용할 것인가'라는 뜨거운 논쟁이 벌어지고 있다. 마이크로소프트는 지난주 미국 캘리포니아에서 개최된 한 주요 컨퍼런스에서 자사의 명확한 입장을 밝혔는데, 무스타파 술레이만 AI 부문 책임자는 "성적 콘텐츠를 생성하는 AI 서비스는 우리의 개발 방향이 아니다"라며 선을 그었다.

마이크로소프트의 핵심 목표는 코파일럿을 교육해 사용자가 AI뿐 아니라 다른 사람과도 상호 작용하도록 유도하는 것이다. (이미지=마이크로소프트)

이는 오랜 협력 관계를 유지해온 오픈AI가 최근 보여준 행보와는 완전히 대조적이다. 샘 알트먼 오픈AI 대표는 불과 며칠 전 "성인 인증을 거친 사용자라면 챗GPT로 성인용 대화를 나눌 수 있어야 한다"는 입장을 공개적으로 표명했고, "우리가 전 세계의 도덕적 잣대를 정할 권한은 없다"는 논리를 펼친 바 있다.

두 회사의 철학적 차이는 단순한 의견 차이를 넘어선다. 마이크로소프트는 2019년부터 오픈AI에 막대한 자금을 투입해왔고, 클라우드 인프라를 제공하며 긴밀한 파트너십을 이어왔지만, 최근 들어 양사의 관계에는 미묘한 균열이 감지되고 있다. 오픈AI가 구글, 오라클 같은 경쟁사들과 손잡는 모습을 보이는 동시에, 마이크로소프트는 자체 AI 생태계 구축에 더욱 박차를 가하고 있는 상황이다.

생성형 AI 챗봇들이 대중화되면서 예상치 못한 문제들이 속속 드러나고 있다. 메타의 AI나 챗GPT처럼 인기를 끈 서비스들은 연애 상담부터 친밀한 대화까지 폭넓은 기능을 제공하면서, 현실과 가상의 경계를 허무는 중이다. 하지만 미성년자 보호 장치가 제대로 작동하지 않는다는 지적이 끊이지 않고, 실제로 일부 부모들은 AI 챗봇이 자녀에게 해를 끼쳤다며 법적 대응에 나선 사례도 있다.

마이크로소프트가 전력을 다해 키우고 있는 코파일럿은 현재 한 달 기준 1억 명의 활성 이용자를 보유하고 있다. 챗GPT의 8억 명과 비교하면 아직 갈 길이 멀지만, 마이크로소프트는 자신들의 방식이 결국 더 많은 신뢰를 얻을 것이라는 확신을 내비친다. 실제로 AI 업계 전반에서 챗봇의 성격을 어떻게 설정할지, 사용자의 정신 건강에 어떤 영향을 미칠지에 대한 고민이 깊어지고 있는 추세다.

어린이와 청소년을 보호해야 한다는 사회적 압력은 갈수록 거세지고 있다. 미국에서는 AI 챗봇이 청소년을 자살로 내몰았다는 충격적인 소송이 제기됐고, 메타의 AI 캐릭터들이 미성년자로 추정되는 계정에서도 부적절한 대화를 이어간다는 의혹이 불거지기도 했다. 이런 논란이 확산되자 주요 AI 기업들은 앞다투어 연령 확인 시스템과 콘텐츠 필터링 기능을 강화하겠다고 발표했으나, AI 기반 나이 추정 기술의 실효성에 대해서는 여전히 의문부호가 붙는다.

알트먼 대표는 이달 초 새로운 안전 메커니즘을 도입하는 조건으로 성인 사용자에게 '에로틱' 대화 기능을 허용하겠다는 계획을 공식화했다. 반면 술레이만 책임자는 "로맨틱하거나 성적인 시뮬레이션 서비스는 마이크로소프트의 개발 목록에 없다"며 단호한 태도를 보였고, 일부 경쟁사처럼 '청소년 모드'를 별도로 만들 가능성도 낮아 보인다.

마이크로소프트의 코파일럿 AI 챗봇의 새로운 기능에는 AI 동반자 미코가 포함된다. (이미지=마이크로소프트)

마이크로소프트가 추구하는 핵심 가치는 명확하다. AI가 사람만 상대하게 만드는 게 아니라, 사람과 사람을 연결하는 매개체 역할을 하도록 설계한다는 것이다. 오랫동안 업무용 생산성 도구 시장을 이끌어온 마이크로소프트에게 이는 매우 자연스러운 전략이다.

이런 철학을 반영해 최근 공개된 코파일럿의 새 기능들도 주목할 만하다. 미코라는 이름의 AI 동반자는 음성으로 대화하고, 감정을 색상으로 표현하며, 사용자와 교감하는 능력을 갖췄다. 또한 최대 32명까지 동시에 참여할 수 있는 공유 채팅 공간도 마련됐는데, 여기서 코파일럿은 그룹 대화를 돕는 조력자 역할을 수행한다.

의료 관련 질문에 대해서도 코파일럿은 신중한 접근을 취한다. 구체적인 건강 문의가 들어오면 근처의 의료기관을 안내하고, 그 외에는 하버드 헬스처럼 의학적으로 검증된 정보원을 우선 제공하는 방식이다.

술레이만 책임자는 "우리가 만드는 AI는 감성 지능을 갖추고 친절하지만, 무엇보다 신뢰할 수 있어야 한다"며 "어린이들도 안심하고 사용할 수 있으려면 분명한 경계와 안전장치가 필수"라고 강조했다. 그는 또한 "디지털 세상 속 가상의 인간을 만드는 게 아니라, 실제 사람들을 위한 AI를 개발해야 한다"며 "AI가 인간관계를 대체하는 게 아니라 강화하도록 돕는 것, 이것이 업계 전반에서 일어나야 할 중요한 패러다임 전환"이라고 역설했다.

김한수 기자

hanskim@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

‘링크의 시대’에서 ‘답변의 시대’로…구글 ‘서치 라이브’가 바꾸는 검색의 질서

서치 라이브는 검색 결과를 읽는 경험보다, 검색과 ‘대화하는’ 경험에 가깝다. 사용자는 구글 앱 안에서 음성으로 질문을 이어가고, 필요하면 카메라로 사물을 비추며 실시간 도움을 받을 수 있다. 이는 검색이 단발성 쿼리에서 벗어나 문맥을 유지하는 세션형 인터페이스로 이동하고 있음을 보여준다.

‘AI’를 향한 아마존의 거대한 ‘20년 승부수’

[AI요약] 20년전 생소한 개념의 클라우드 컴퓨팅 서비스인 AWS를 출시한 후, 해당 서비스를 인터넷 기반 도구에 의존하는 거의 모든 기업에게 필수불가결한...

[AI, 이제는 현장이다③] AI가 커질수록 공격도 빨라진다… 기업 보안이 다시 ‘기본기’로 돌아가야 하는 이유

AI를 말하면서 이제 보안을 따로 떼어놓기는 어렵다. AI가 기업 전반으로 퍼질수록 공격자도 같은 기술을 손에 넣고 있기 때문이다. 문제는 공격의 방향이 완전히 새로워졌다는 데 있지 않다. 오히려 익숙한 공격이 더 빨라지고, 더 값싸지고, 더 넓게 퍼질 수 있게 됐다는 점이 더 중요하다.

‘AI 에이전트 Vs. 일상생활’ 실리콘 밸리와 대중의 격차

빅테크들이 엄청난 자금을 투입하면서 미래 기술로 보고 있는 AI를 우리는 얼마나 활용하고 있을까. AI 에이전트가 차세대 기술의 핵심으로 강조되고 있는 가운데, 미국인의 65%는 업무에 AI를 전혀 사용하지 않는 것으로 나타났다. 혁신적인 기술은 막대한 가치를 창출하지만 그 가치의 대부분은 기술을 개발하고 도입하는 기업과 투자자에게 돌아간다는 지적이 나온다.