
구글이 검색 기능에 최신 AI 모델을 접목한 ‘AI 모드’를 공개하고, 삼성전자와 협력해 스마트 안경 개발에도 본격 나선다. 생성형 AI 기술의 급속한 발전과 시장 변화에 대응해 검색 및 하드웨어 전략 전반을 강화하는 모양새다.
구글은 20일(현지시간) 캘리포니아 마운틴뷰 본사에서 열린 연례 개발자 회의(I/O)에서 AI 기반 검색 경험을 대폭 확장한 AI 모드와 멀티모달 기능을 지원하는 새로운 검색 인터페이스를 선보였다.
AI 모드는 최신 AI 모델 ‘제미나이 2.5’의 맞춤형 버전을 활용하며, 단순 키워드 검색을 넘어 AI가 텍스트, 음성, 이미지, 영상 등 다양한 입력값을 분석하고 요약·해석해 종합적인 답변을 제공한다.
순다르 피차이 구글 CEO는 기조연설에서 “AI 모드는 정보 검색을 넘어 분석, 요약, 결과 제공까지 AI가 수행하는 완전히 새로운 검색 방식”이라며 “정보에서 지능으로 전환하는 검색의 미래를 제시할 것”이라고 말했다.
구글은 텍스트 중심 검색에 AI 요약 기능을 통합한 ‘AI 오버뷰’를 작년 선보인 바 있으며, 이를 확장한 것이 이번 AI 모드다.
이번에 도입된 기능 중 하나인 ‘서치 라이브’는 스마트폰 카메라로 실시간 장면을 보여주면 AI가 이를 분석해 즉각 설명하거나 정보를 제공하는 기능이다. 또 ‘딥 서치’ 기능은 AI가 방대한 웹 데이터를 탐색해 심층 분석 결과를 제공하며, 복잡한 데이터 세트를 기반으로 맞춤형 그래픽도 자동 생성한다.
‘프로젝트 마리너’ 기반의 AI 에이전트는 티켓 예매, 레스토랑 예약, 서비스 신청 등 다양한 작업을 사용자를 대신해 처리하며, 가상 착용 후 결제까지 가능한 쇼핑 기능도 포함됐다. 이 기능들은 현재 미국 사용자부터 적용되며 향후 다른 국가로 확대될 예정이다.
이 외에도 구글은 삼성전자 및 한국 안경 브랜드 젠틀몬스터와 협력해 안드로이드 XR 운영체제를 기반으로 한 차세대 스마트 안경 개발에도 착수했다. 이는 2013년 출시됐던 '구글 글라스' 이후 10년 만에 재도전하는 스마트 안경 프로젝트다.
신형 스마트 안경은 카메라, 마이크, 스피커를 내장하고 스마트폰과 연동돼 음성 명령만으로 전화 통화나 문자 발송, 앱 실행이 가능하다.
특히 ‘제미나이 라이브’ 기능이 탑재돼 사용자의 시각·청각 정보를 AI가 실시간으로 인식하고 문맥에 맞는 정보를 제공하거나 일정과 알림을 자동으로 안내한다. 실시간 번역 기능도 포함돼 다국어 사용자가 자연스럽게 대화할 수 있도록 지원한다.
이날 행사에서는 삼성의 스마트 안경 시제품이 함께 공개됐다. 구글은 하반기부터 개발자들이 해당 제품을 위한 앱 개발에 착수할 수 있도록 개발 환경을 제공할 계획이다.