‘GPT 필요없다’ 구글의 반격… 지메일 등 25개 제품에 ‘팜2’ 적용
‘팜2’ 구체적 정보는 공개 안 해… “더 큰 데이터 세트 활용”
제품 집중 전략… 워터마킹 적용한 ‘제미나이’ 출격 대기
서울에 있는 동료와 컴퓨터 프로그램 오류를 찾고 있다고 가정해 보죠. 코드를 수정하고 한국어 주석을 추가해 달라고 AI에 요청, 능동적으로 협업할 수 있습니다.순다르 피차이 알파벳(구글 모회사) CEO
순다르 피차이 알파벳(구글 모회사) CEO는 10일(현지시각) 진행된 개발자 컨퍼런스 ‘구글 I/O 2023’ 기조연설에서 “‘팜2’(PaLM2)는 다양한 규모에 걸쳐 탁월한 기능을 제공한다”며 이같이 말했다.
팜2는 구글이 이날 공개한 차세대 언어 모델이다. 지난해 공개한 ‘팜’(PaLM)의 업그레이드 버전으로 100개 이상의 다국어 텍스트(문자)를 학습해 번역, 코딩, 추론에 뛰어난 성능을 발휘한다는 게 구글 측 설명이다.
피차이 CEO가 언급한 사례가 대표적인 예다. 팜2를 사용하면 전문 개발자들의 영역으로 여겨졌던 프로그램 오류를 찾아달라고 AI한테 요청할 수 있고, 주석까지 영어가 아닌 한국어로 자동 생성할 수 있다. 제품 개발 및 협업 시간을 획기적으로 줄일 수 있는 솔루션인 셈이다.
피차이 CEO는 “과학, 수학 문제에 대한 광범위한 학습을 거쳐 논리력과 추론 능력이 강화됐다”며 “특히 특정 영역의 데이터를 활용해 미세조정(fine tuning)할 때 빛을 발한다”고 강조했다.
그는 “보안 성능을 강화한 ‘Sec-PaLM’, 의료 데이터를 활용해 미세조정한 ‘Med-PaLM 2’가 대표적 사례”라며 “방사선과 전문의가 엑스레이 사진을 해석할 때 도움을 줄 수 있는 AI 협력자(collaborator)가 있다고 생각해 보라”고 했다.
피차이 CEO는 “구글은 ‘AI 퍼스트 기업’을 선언한 후 지난 7년 동안 AI 기술을 더욱 유용하게 만들기 위해 노력해 왔다”며 “과감하면서도 책임감 있는 접근 방식으로 검색을 포함한 모든 구글의 핵심 제품을 재창조하고 있다”고 했다.
구글은 이날 AI 챗봇 ‘바드(Bard)’, 지메일(Gmail), 구글독스(Google Docs, 문서 작성 도구) 등 25개 자사 제품에 PaLM2를 적용했다고 밝혔다.
‘팜2’ 구체적 정보는 공개 안 해… “더 큰 데이터 세트 활용”
지난해 공개한 PaLM의 파라미터(Parameter, 매개변수) 개수는 5400억 개로 대규모 언어 모델(LLM) 중 가장 큰 규모를 가진 모델 중 하나였다. 오픈AI가 2020년 공개한 GPT-3의 파라미터 개수(1750억 개)와 비교하면 세 배에 달한다.
한데 이날 구글은 PaLM2의 파라미터 개수를 공개하지 않았다. 통상 파라미터 개수는 AI 모델의 크기 및 성능 비교 용도로 활용돼왔는데, 이와 관련한 구체적 정보를 밝히지 않은 것이다. 이는 단순히 파라미터 숫자를 늘리는 것이 능사가 아니라는 판단에 따른 결정으로 풀이된다. 최근 AI 업계에서는 “큰 모델이 무조건 더 훌륭한 성능을 내는 건 아니다”라는 의견이 대두됐다. 지난 3월 오픈AI가 출시한 최신 언어모델 ‘GPT-4’가 파라미터 개수를 밝히지 않은 것도 비슷한 이유에서였다.
이와 관련 구글 측은 블로그를 통해 “연구 결과 ‘큰 모델이 좋다’는 식으로 단순화할 수 없다는 걸 발견했다”며 “훌륭한 모델을 구축하기 위해서는 연구 창의성이 핵심”이라고 밝히기도 했다.
그럼에도 불구하고 PaLM2가 더 좋은 성능을 낼 수 있는 건 학습 과정에서 더 많은, 양질의 ‘데이터 세트(data set)’를 사용했기 때문이다. 구글은 이날 별도로 공개한 PaLM2 기술 보고서에서 지난해 공개한 PaLM 보다 ‘더 큰 데이터 세트’를 사용했다고 설명했다. 웹 문서, 책, 코드, 수학 등 구글이 확보한 다양한 데이터를 포함했다는 게 구글 측 설명이다.
구글에 따르면 PaLM2는 특히 다국어 텍스트에 강하고, 다양한 언어에서 관용구, 시, 수수께끼 등 미묘한 차이를 보이는 텍스트를 이해하며 생성, 번역할 수 있다. 수학적 표현이 포함된 과학 논문, 웹 페이지 등을 학습해 상식 및 추론 성능이 강화된 것도 특징이다.
대량의 소스 코드 데이터 세트로 사전 학습을 거친 덕에 코딩 성능도 향상됐다. 파이선(Python), 자바스크립트(JavaScript) 같은 널리 사용되는 프로그래밍 언어는 물론, 프롤로그(Prolog), 포트란(Fortran), 베릴로그(Verilog) 같은 특수한 프로그래밍 언어로도 코드를 생성할 수 있다.
더밀크의 시각: 제품 집중 전략… 워터마킹 적용한 ‘제미나이’ 출격 대기
순다르 피차이 CEO는 이날 PaLM2 성능 등 기술적 부분을 강조하는 대신 PaLM2가 지메일, 구글맵, 구글포토 등 구글이 보유한 제품에 어떻게 적용됐는지 설명하는 데 많은 시간을 할애했다.
구글독스, 스프레드시트 등 마이크로소프트 오피스에 해당하는 ‘구글 워크스페이스’(Google Workspace)’ 제품 업데이트로 PaLM2를 즉시 배포한다고 밝혔고, 지메일에 적용된 자동 이메일 작성 기능 ‘헬프 미 라이트’(Help me write)를 직접 소개하며 “이렇게 정교하게 이메일을 작성하면 환불을 받을 확률이 높아진다”고 농담을 던지기도 했다.
수십억 명의 사용자를 보유한 자체 제품을 앞세워 오픈AI와 마이크로소프트에 대한 반격에 나선 것으로 풀이된다. 과거와 달리 25개 이상 제품에 언어 모델을 대대적으로 적용하는 과감함도 보여줬다.
PaLM2를 게코(Gecko), 오터(Otter), 바이슨(Bison), 유니콘(Unicorn) 네 가지 크기로 상품화, API(애플리케이션 프로그램 인터페이스)로 기업에 제공한다고 밝힌 것도 같은 맥락이다. 연구 목적의 AI를 떠나 상용화된 제품으로 기업 고객을 유치하는 전략이다.
AI 기술로 몰입형 뷰를 제공하는 구글 지도(런던, 뉴욕, 도쿄, 샌프란시스코를 포함한 15개 도시 출시 예정), AI 기반 편집 기능이 적용된 구글 포토 제품을 언급한 것도 구글이 보유한 AI 기술 기반 제품의 우수성을 강조하기 위한 의도로 해석된다.
피차이 CEO는 “올해 말 구글 포토에 ‘매직 에디터’ 기능을 출시한다. 기대가 크다”며 “구글은 현재 5억 명 이상이 사용하는 제품 15개를 보유하고 있으며, 그중 6개 제품은 20억 명 이상의 사용자를 보유하고 있다”고 했다.
그는 이어 “구글은 수십억 명의 사용자에게 책임감 있는 방식으로 AI를 제공하기 위해 노력해 왔다”며 “현재 학습 중인 차세대 파운데이션(기초) 모델 ‘제미나이(Gemini)’는 멀티모달(다중 모드, 이미지나 텍스트 등 다양한 양식의 정보를 동시에 인식) 모델이자 안정성도 갖췄다”고 했다.
AI가 만들어 내는 컨텐츠의 진위를 가리기 어렵다는 문제 인식에 대한 답도 내놨다. ‘워터마킹(저작권 등 정보 표시)’과 ‘메타 데이터 워터마킹’을 도입해 AI가 생성한 콘텐츠를 식별할 수 있는 도구가 포함한다는 계획이다. 피차이 CEO는 “AI 모델을 구축할 때부터 워터마킹 및 기타 안전 관련 기술을 포함할 것”이라며 “AI가 만든 이미지가 얼마나 정교한지 보면 이런 작업이 향후 더 중요해질 것이란 걸 알 수 있다”고 했다.