구글의 AI 검색 혁명... 알고 싶어하는 것을 알려준다

reporter-profile
Sejin Kim 2024.05.14 14:12 PDT
구글의 AI 검색 혁명... 알고 싶어하는 것을 알려준다
순다르 피차이 구글 CEO가 마운틴뷰에서 열린 구글I/O 2024에서 구글의 AI 모델 제미나이를 적용한 서비스를 공개하고 있다. (출처 : 더밀크 박원익)

[구글I/O 2024]
AI 도입 아닌 합병 보여준 이벤트...'실세' 데미스 하사비스 첫 등장
멀티모달AI ‘프로젝트 아스트라’ 공개…카메라 화면 인식∙설명까지
“내 차 번호판 번호가 뭐였지? 올 여름, 구글 포토에 음성 검색 도입
주력 상품 워크스페이스엔 제미나이프로1.5∙크롬에는 제미나이나노
오픈AI∙애플 의식했나...음성비서∙검색엔진 경쟁 격화

구글은 당신을 위해 구글링할 것이다(Google will do the Googling for you)
리즈 리드(Liz Reid) 구글 검색 총괄

구글이 모든 제품과 서비스에 인공지능(AI) 모델 '제미나이'를 적용하는 '제미나이 시대(Gemini Era)'를 선언했다. 검색엔진부터 지도, 안드로이드, 워크 스페이스까지 거의 전 제품의 중심에 AI 모델을 놓는 것이다.

순다르 피차이 알파벳(구글 모회사) 최고경영자(CEO)는 14일(현지시각) 진행된 개발자 컨퍼런스 ‘구글 I/O 2024’ 기조연설에서 자사 대형언어모델(LLM) 제미나이(Gemini)를 구글 포토, 지메일, 검색 등 구글 주요 기능에 전면 적용한다고 밝혔다.

특히 오픈AI가 구글I/O 하루 전 공개한 멀티모달(Multimodal, 다중모드) AI 및 음성 검색 기능을 강조해 눈길을 끌었다. 최근 조직 개편에서 암시했듯 모바일 운영체제(OS) 안드로이드와 스마트폰 픽셀 등 모바일 제품에 주력하던 이전 IO와 달리 이제는 완전히 AI에 사업 초점을 맞췄다.

특히 이날 '구글 AI 실세'로 올라선 데미스 허사비스 딥마인드 CEO가 데뷔했다. 구글은 검색엔진 부동의 1위지만 AI레이스에서만큼은 오픈AI에 뒤쳐졌다는 평가를 받아왔다. 오픈AI가 AI를 바탕으로 구글의 메인 사업까지 바짝 뒤쫓자 최근 조직개편을 단행했다.

‘음성’ 검색 전면에…구글 포토에 “내 번호판 번호가 뭐였지?”

이날 구글이 강조한 건 음성에 기반한 AI 검색이다.

순다르 피차이 CEO는 기조연설(키노트)에서 올 여름 ‘구글 포토’에 자사 대형언어모델(LLM) 제미나이를 활용한 새로운 음성 검색 기능 ‘포토에 물어보기(Ask Photos)’를 도입한다고 발표했다. 피차이 CEO는 “‘구글 포토’에서 자동차 번호판을 찾기 위해 고생하지 말고, 간단하게 물어보라”고 했다.

현재 포토 앱에서 차량 번호판을 알려면 수많은 자동차 사진을 스크롤해야 하는데 해당 기능을 활용해 “내 차 번호판 번호가 뭐야?”라고 물어보자 수년간 쌓은 구글 포토에서 차량이 등장한 횟수 등을 자동으로 추출해내고 어떤 차량이 사용자가 찾는 차량인지 파악하고 이미지와 함께 번호를 문자로 보여줬다.

“우리 딸의 수영 실력이 어떻게 늘어나고 있는지 보여줘”라고 입력하자 AI는 여자아이가 수영을 배우는 과정이 담긴 사진만을 선택해 시간순으로 보여줬다.

순다르 피차이 알파벳(구글 모회사) 최고경영자(CEO)는 14일(현지시각) 진행된 개발자 컨퍼런스 ‘구글 I/O 2024’ 기조연설에서 구글 포토, 지메일, 검색 등 구글 주요 기능에 인공지능(AI)을 전면 적용한 모습을 선보였다. (출처 : Google, 김세진 발췌)

구글 검색 이렇게 바뀐다

구글은 주력 상품인 검색과 검색결과 표시에도 AI를 전면 적용했다. 'AI 오버뷰(개요)'가 그것. AI 오버뷰는 제미나이를 이용, 검색 결과를 빠르게 요약하고 관련 링크를 제공받을 수 있는 기능이다. 검색 시 대화 형태로 결과를 받고 글이 아니라 사진, 동영상으로도 검색이 가능해진다. 특히 검색에 대한 결과를 '페이지 링크'가 아닌 '대화' 형태로 제공하는 것은 큰 변화다.

구글은 이 같은 변화로 '다단계 추론'이 가능해질 것이라고 강조했다.예를 들어 검색 창에 '요가 학원'만 검색하는 게 아니라 '우리 동네에서 가장 좋은 요가는 어떤 곳인지, 집에서 도보로 얼마나 걸리는지, 혜택은 무엇인지' 등과 같은 종합적인 검색이 가능해진다. 중요한 것은 이렇게 원하는 정보를 알아서 대화형으로 제공해준다는 것이다. 사용자 별 맞춤형·개인화된 전용 검색 페이지도 제공된다.

구글 검색, AI 오버뷰

이는 지난해 실험적으로 보여준 AI 검색을 올해 전면 도입한 것이다. 검색 엔진에 생성AI를 탑재한 것은 구글이 검색 사업을 시작한 이후 25년만에 가장 큰 변화이며 검색광고 사업을 시작한 이후 가장 큰 비즈니스 모델 변화다. 구글 창업자 래리 페이지를 딴 이름이며 오늘날 구글을 만든 기술과 비즈니스 모델의 이름은 '페이지 링크'를 개편할 정도로 전면적 변화다.

미국 이용자를 시작으로 앞으로 몇 달 안에 더 많은 국가에 제미나이를 탑재한 새로운 검색 기능이 제공된다. 구글은 연말까지 10억 명 이상의 사용자에게 제공할 계획이라고 밝혔다.

최근 새로 영입된 리즈 리드(Liz Reid) 구글 검색총괄은 "모든 검색에 AI가 필요한 건 아니"라면서 장소 검색이 대표적인 활용처가 될 수 있다고 꼽았다. 특정 지역의 맛집, 여행지, 학원 등 다수 리뷰를 검토해야 하는 검색에 AI가 강점을 보일 수 있다는 설명.

이는 트래픽을 웹사이트에서 구글로 이전하는 효과를 낳는다. 더 많은 탭을 열기보다 구글에서 채팅으로 찾을 수 있기 때문이다. 이는 제미나이 수익을 올릴 수는 있지만 광고사업과는 상충한다.

이를 의식한 듯 리드 총괄은 "우리 초기 데이터에 따르면 웹사이트에 대한 더 많은 클릭을 유도할 것이라고 확신한다"면서 "가치가 낮은 콘텐츠에 대한 클릭은 줄겠지만, 관점이나 경험, 전문 지식을 훌륭하게 제공하는 웹사이트는 여전히 사람들이 원한다"고 강조했다.

오픈AI는 구글을 맹추격하는 AI기업 중 하나다. 검색 사업도 위협하고 있다. 링크트인 프로필에 따르면 오픈AI는 구글 검색 광고 사업을 이끌었던 21년 경력의 시바쿠마르 벤카타라만(Shivakumar Venkataraman) 전 구글 엔지니어링 부사장을 고용했다. 그의 프로필에는 5월 초 부사장으로 오픈AI에 합류했다고 나와 있다. 더인포메이션은 지난 2월 오픈AI가 구글에 대항할 검색엔진을 개발하고 있다고 보도했다.

'구글 AI 실세' 된 허사비스 첫 등장. '프로젝트 아스트라' 미래로 꼽아

오픈AI에서 미라 무라티 CTO가 새로운 얼굴로 등장한 것처럼 이날 구글 행사에서는 데미스 허사비스 딥마인드 CEO가 구글IO에 데뷔했다. 그는 멀티모달 AI인 ‘프로젝트 아스트라(Astra)’와 지난 8일 공개한 알파폴드3를 소개했다. 멀티모달은 인간처럼 시각, 청각 등 여러 감각을 동시에 활용해 더 복잡하고 많은 정보를 이해하고 처리하는 기술이다. 단순히 텍스트에 국한된 AI가 아니라 사진이나 동영상, 아니면 카메라가 현재 촬영 중인 환경을 관찰·이해하고 필요한 답변을 내준다.

특히 프로젝트 아스트라는 일종의 멀티모달 에이전트(비서)로 AI가 사람처럼 보고 들을 수 있고 음성으로 대화하는 이용자의 개인 비서다. 구글 지메일과 구글 문서, 캘린더 등 구글 앱에서 개인 정보를 가져와 이용자의 스케줄을 알려주고 계획을 만들어 제안해준다.

구글은 사전 제작된 시연 영상에서사용자가 카메라로 촬영하는 스피커의 부품을 식별하거나 사용자가 "내 안경을 마지막에서 어디에서 보았나?"라고 물으니 "네 안경은 O번째 테이블에 빨간 사과 옆에 있었다"며 잃어버린 안경을 찾아주고 보여준 코드를 검토하는 작업을 대화 형식으로 처리해 구글I/O에 참석한 개발자들의 큰 호응을 얻었다.

하사비스 CEO는 프로젝트 아스트라를 영화 스타트렉에 등장하는 커뮤니케이터에 비유하며 "오랫동안 이 비전을 염두에 뒀다. 우리는 이 에이전트를 곧 갖게 될 것이다. 그는 다중 모드이며 항상 당신과 함께 있다”고 말했다.

이날 행사에서는 데미스 허사비스 딥마인드 CEO가 데뷔했다. (출처 : Google I/O, 김세진 발췌)

구글은 '제미나이 라이브'를 수개월 내에 출시하고 이후 실시간 시각과 청각 등 프로젝트 아스트라를 위한 기능도 추가할 계획이다.

구글 딥마인드가 다른 AI 모델 기업과 확실한 차별화를 두는 알파폴드는 신약 개발 및 연구에 활용되는 AI모델이다. 이날 허사비스 CEO는 알파폴드3로 DNA, RNA, 리간드(Ligand) 같은 물질의 분자 구조까지 예측하는 모습을 시연했다. 알파폴드3는 여기서 단백질 분자 구조뿐 아니라 각 물질이 어떻게 상호작용하는지 분석해 신약 개발 분야에서 주목을 받고 있다.

딥마인드에 따르면 알파폴드3의 예측 정확도는 알파폴드2 대비 50% 향상됐다. 연구 도구 플랫폼인 ‘알파폴드 서버’를 공개, 연구자들이 알파폴드3의 일부 기능을 비상업적 용도로 활용할 수 있게 했다.

구글은 최근 4월 2024년 4월 대대적 사업부 개편을 단행했다. 이때 데미스 허사비스 딥마인드 CEO가 이끄는 딥마인드 부서에 AI 모델 구축을 담당했던 구글 리서치팀과 AI를 안전하고 윤리적으로 개발하기 위한 규칙을 개발하는 책임 있는 AI(Responsible AI)팀 등을 통합한 바 있다.

동시에 기존 안드로이드 및 크롬 부서가 플랫폼 및 디바이스라는 새로운 부서로 편입되며 안드로이드의 낮아진 위상을 실감하게 했다. 릭 오스텔로 수석부사장(SVP)은 그동안 구글의 하드웨어를 이끌어 왔는데 안드로이드와 크롬도 릭 오스텔로 아래로 뒀다. AI로 모든 조직을 재편하면서 사실상 구글 '안드로이드 시대 종료'를 선언했다는 평가다.

이제는 제미나이 시대

구글은 이제 제미나이 시대에 완전히 들어갔다. 모든 사람들이 제미나이가 할 수 있는 일을 통해 혜택을 받길 바란다
순다르 피차이 구글 CEO

기존 지메일, 구글닥스, 드라이브, 슬라이드, 시트 등 워크스페이스 내 측면 패널에 있는 AI챗봇 제미나이엔 최신 언어모델인 제미나이 1.5프로를 적용했다. 구글 제미나이는 텍스트와 이미지, 비디오, 코드 등 멀티모달 현존하는 가장 광범위한 AI 모델이다. 구글은 기존 100만 토큰이었던 '제미나이 1.5 프로'의 토큰 처리 능력이 200만개로 확장했다.

순다르 피차이 구글 CEO는 "제미나이는 우리가 할 수 있는 질문을 확장하고 우리가 얻을 수 있는 답변을 지식의 잠금 해제해 제공해 준다"고 강조했다.

그는 이어 "우리는 1년 전 I/O에서 제미나이에 대한 계획을 처음 공유했다. 이제 150만명 이상의 개발자들이 제미나이를 활용하고 있고, 20억명이 넘는 사용자도 확보하게 됐다. 구글은 이제 제미나이 시대에 완전히 들어갔다. 모든 사람들이 제미나이가 할 수 있는 일을 통해 혜택을 받길 바란다"며 의미부여했다.

진화된 제미나이 1.5 프로

AI 챗봇 제미나이에 ‘자녀의 학교에서 보낸 최근 이메일’ 등을 특정 주제에 대한 이메일을 요약하도록 요청하면 핵심사항과 조치 항목에 대한 요약을 제공한다. 이때 백그라운드에서는 관련 이메일을 식별하고 PDF 형태의 첨부파일도 분석한다.

참석하지 못한 구글 밋(Meet) 녹화본이 있을 경우 제미나이가 요약해주고, 이메일 답변 초안도 작성해준다. 구글 밋에는 수주안에 60개 이상의 실시간 통번역 기능을 도입한다고 밝혔다.

구글 LLM 제미나이는 학습양에 따라 최상위 버전인 울트라와 그 아래로 프로, 나노로 구분된다. 2월 초기 테스트 버전으로 공개된 제미나이 1.5는 중형 모델인 제미나이 프로의 차세대 모델이다.

기존의 1.0 프로에 비해 동시에 정보를 처리할 수 있는 능력이 크게 향상돼 긴 문맥을 이해하는 역량이 87% 뛰어나다는 것이 구글의 설명이다. 피차이 CEO는 이날 “제미나이 1.5 프로는 다양한 부문에서 놀라운 발전을 이뤘다”며 “더 적은 컴퓨팅 자원으로 (최상위 모델인) 제미나이 1.0 울트라에 필적하는 성능을 갖추고 있다”고 밝힌 바 있다. 일부 개발자 및 클라우드 고객 대상으로는 200만 토큰의 컨텍스트 윈도우를 지원한다.

더 빠르고 더 효율적이면서 경량 모델인 '제미나이 1.5 플래시'도 처음 공개했다. 제미나이 1.5 플래시는 빈도가 높은 작업에 최적화됐다는 것이 구글의 설명이다.

크롬에는 제미나이 나노를 도입하기 위해 미세조정(파인튜닝) 작업 중이라고 밝혔다. 제미나이나노는 픽셀8 프로에도 도입했다.

구글은 개방형 대형언어모델(LLM)인 ‘젬마(GEMMA)’의 업그레이드 버전인 젬마2.0은 올 여름 공개할 예정이다. 젬마는 구글의 LLM ‘제미나이’와 동일한 기술을 바탕으로 만들어진 경량언어모델(sLLM)이다. 젬마 2.0 매개변수(파라미터)는 270억개일 것으로 보인다.

지난 2월 20억개인 ‘젬마 2B’와 70억개인 ‘젬마 7B’ 두 종류를 발표한 바 있다. 젬마는 캐글, 허깅페이스, 엔비디아 네모, 버텍스 AI 등 오픈소스 AI 모델을 배포하는 플랫폼을 통해 사용할 수 있다. 경량 모델인 만큼 향후 네트워크 연결 없이 기기에서 바로 AI를 구동하는, 온디바이스AI로도 활용할 수 있다는 게 구글의 설명이다.

미디어 혁명 가속기

구글은 구글I/O 2024에서 비디오 및 사진 생성, 편집을 쉽게 해주는 AI 도구를 대거 공개했다.

특히 비디오 생성모델인 비오(VEO)가 새로웠다. 비오는 동영상 생성 모델로 다양한 시네마틱 비주얼 스타일로 1분 이상의 고화질 1080p 해상도 동영상을 생성할 수 있다. 자연어와 시각적 의미에 대한 이해도가 높고 긴 프롬프트의 내용도 정확하게 렌더링할 수 있는 것이 특징이다. 구글은 유명 영화 감독인 도널드 글로버와 손잡고 개발 과정에 크리에이터의 의견을 반영했다.

구글은 텍스트 투 이미지 모델인 이마젠의 최신버전인 이마젠3(Imagen3)도 공개했다.

이와 함께 구글은 자체 개발 AI반도체 가속기인 TPU의 6세대 모델인 ‘트릴리움’도 공개했다. 트릴리움은 기존 모델(TPU v5e)에 비해 대비 칩당 최대 컴퓨팅 성능이 4.7배 향상됐다. 또 메모리 HBM 용량과 대역폭 및 ICI(Interchip Interconnect) 대역폭도 각각 두 배씨기 늘렸다. 구글은 이를 통해 에너지 효율성이 67%이상 높아져 AI 학습 속도를 높이고 레이턴시와 비용을 낮췄다고 설명했다.

구글은 마지막 프리젠테에션에서 '책임감 있는 AI 원칙'에 따른 새로운 기술도 공개했다. AI로 생성한 이미지와 오디오에 눈에 띄지 않는 워터마크를 삽입하는 ‘신스ID(SynthID)’ 가 그것. 이 기술을 텍스트 및 동영상에 확대 적용하기로 했다.

오픈AI 하루 전날 ‘음성’ 강조한 멀티모달AI 공개

미라 무라티 오픈AI (출처 : OpenAI 김세진 발췌)

구글이 '프로젝트 아스트라'를 필두에 내세운 것처럼 음성비서와 검색은 빅테크들의 AI 격전지 중 하나다.

오픈AI는 ‘스프링 업데이트’ 라이브 스트리밍에서 새로운 AI 모델(GPT-4o)를 공개한 바 있다. GPT-4o는 인간의 대화를 보다 자연스럽게 모방하도록 빠른 반응을 강조했다.

GPT-4o는 음성 인식, 스피치-투-텍스트(Speech to text), 이미지 인식 기능 등이 통합돼 대화형 인터페이스 형태로 자연스러운 실시간 상호작용이 가능한 멀티모달 모델이다. 기존 GPT 모델이 프롬프트를 데스크톱이나 모바일을 통해 글자(텍스트)를 입력하는 것에 그쳤다면 GPT-4o는 음성, 텍스트, 시각 등 다양한 인간의 활동을 입력, AI가 추론하고 그 결과를 거의 실시간으로 내놓는다.

실제 GPT-4o의 평균 응답 시간은 232밀리초인데 이는 평균 320밀리초로 대답하는 인간과 비슷했다. 50개 언어로 자동번역도 지원한다. 발표에서는 미라 무라티 최고기술책임자(CTO)가 전면에 나서고, 기존에 오픈AI얼굴이었던 샘 알트만 CEO나 그렉 브록만 사장은 소셜미디어 타임라인 등에만 등장하며 이목을 끌었다. 라이브 데모 시연의 삐걱거림이 있었고 공개한 데모 영상에도 '한계' 섹션이 있었지만 전체적으로 호평을 받았다.

애플도 오는 6월 음성비서 시리에 AI를 도입한 기능을 선보일 것으로 알려졌다. 10일 미 뉴욕타임스(NYT)에 따르면 애플은 다음 달 10일부터 열리는 애플의 연례 세계개발자회의(WWDC)에서 새로운 시리를 공개한다. NYT는 “새로운 시리에는 기존처럼 한 번에 한 질문에만 응답하는 방식이 아닌 대화가 가능한 생성형 AI 시스템이 포함될 예정”이라고 관측했다.

회원가입 후 뷰스레터를
주 3회 무료로 받아보세요!

단순 뉴스 서비스가 아닌 세상과 산업의 종합적인 관점(Viewpoints)을 전달드립니다. 뷰스레터는 주 3회(월, 수, 금) 보내드립니다.