Google has taken its first major step toward the era of “agentic AI” by fully integrating its AI assistant, Gemini, into the Chrome browser. AI Pro and AI Ultra subscribers using the Beta, Dev, or Canary versions of Chrome can now access this feature via the Gemini button located at the top-right corner of the browser. Unlike traditional web-based chatbots, Gemini in Chrome can recognize what’s currently displayed on the user’s screen. This enables real-time interactions such as summarizing web pages, analyzing YouTube videos, and identifying product information. It also supports a voice recognition feature called “Live,” allowing users to ask questions and receive spoken responses through their microphone. However, Gemini can only access visible on-screen information and does not provide real-time data such as product inventory or a user's current location, which limits its functionality. Users may also find some responses too lengthy or the follow-up questions somewhat repetitive, affecting overall user experience. Looking ahead, Google plans to introduce “Agent Mode” to Gemini through its Project Mariner initiative.
구글이 자사 AI 어시스턴트 '제미나이(Gemini)'를 크롬 브라우저에 본격 통합하며, '에이전트 AI' 시대를 향한 첫걸음을 내디뎠다. 베타, 개발자, 카나리 버전의 크롬을 사용하는 AI Pro 및 AI Ultra 구독자라면 브라우저 우측 상단 제미나이 버튼을 통해 해당 기능을 체험할 수 있다. 크롬 내 제미나이는 기존 웹앱 기반 챗봇과 달리 사용자의 현재 브라우저 화면을 인식할 수 있다. 사용자는 이를 활용해 웹페이지 요약, 유튜브 영상 분석, 상품 정보 탐색 등 다양한 실시간 상호작용을 수행할 수 있다. 음성 인식 기능 ‘라이브(Live)’도 지원해, 마이크를 통한 질문과 음성 응답이 가능하다. 다만 화면에 보이는 정보에만 접근할 수 있고, 실시간 상품 재고나 현재 위치 정보 등은 제공하지 않아 기능적 제약도 있다. 응답 길이가 길거나 반복적인 후속 질문이 나오는 등 사용자 경험 면에서도 아쉬운 부분이 있다. 구글은 향후 ‘프로젝트 마리너(Project Mariner)’를 통해 제미나이에 ‘에이전트 모드’를 도입할 계획이다.
