Tags
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 AI 뉴스레터 [박원익의 AI인사이트]입니다. 최근 AI 업계에는 오픈AI GPT-4o 발표, 구글 I/O, 마이크로소프트 빌드로 이어지는 뉴스 폭풍이 몰아쳤습니다. 쉴 새 없이 현장에서 취재하다 보니 시간이 훌쩍 흘렀는데요, 27일(현지시각) 메모리얼 데이(Memorial Day, 미국의 현충일)에 작성하는 오늘 레터는 새로운 소식과 함께 현재 AI 업계가 직면한 중요 이슈를 한차례 돌아볼 수 있는 내용으로 준비했습니다.
박원익 2024.05.28 13:41 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 프리미엄 리포트 ‘위클리AI브리핑(Weekly AI Briefing)’입니다.한 주 동안 쏟아지는 AI 뉴스 홍수 속에서 놓치지 않고 꼭 챙겨봐야 할 정보를 선별해 드립니다. 핵심 요약으로 독자분들이 시간을 아낄 수 있도록 돕고 ‘실리콘밸리+실리콘앨리’ 현장에서 빅테크, 유망 스타트업의 움직임을 취재하는 더밀크만의 인사이트를 추가했습니다. 보다 자세한 내용은 더 알아보기 링크로 확인하실 수 있습니다.
박원익 2024.05.21 08:14 PDT
“안녕 제미나이, 이 영화가 뭐지?”“닌자, 그리고 거북이를 그린 것 같네요. 영화 ‘닌자 거북이(Teenage Mutant Ninja Turtles)’인가요?”“맞았어!”15일(현지시각) 오전 캘리포니아주 마운틴뷰에 위치한 ‘쇼라인 앰피시어터(Shoreline Amphitheatre, 야외 원형 극장)’. 눈 부신 햇살 아래 형형색색의 부스들이 테마파크처럼 늘어선 야외 전시장에는 구글이 발표한 새로운 제품, 서비스, 기술을 체험해 보려는 개발자들로 가득했다. ‘AI 샌드박스’는 그중에서도 가장 많은 사람이 몰린 부스였다. 이번 ‘구글 I/O 2024(구글 연례 개발자 컨퍼런스)’에서 최초 공개, 큰 주목을 받은 ‘프로젝트 아스트라(Project Astra)’를 체험해 볼 수 있었기 때문이다.
박원익 2024.05.19 17:58 PDT
“인간이 AI(인공지능)와 사랑에 빠질 수 있다고 보시나요?”“먼저 아내에게 사랑한다는 말을 해야 할 것 같습니다.”(좌중 웃음)15일(현지시각) 캘리포니아주 마운틴뷰 구글 본사. 순다 피차이 구글 CEO의 답변에 취재진의 웃음이 터져 나왔다. 연례 개발자 컨퍼런스 ‘구글 I/O 2024’ 둘째 날 열린 글로벌 기자 간담회에서 이탈리아 기자로부터 예상치 못한 질문을 받자 피차이 CEO가 농담을 던진 것이다. 언뜻 엉뚱해 보일 수 있으나 전혀 맥락 없이 나온 질문은 아니었다. 이틀 전 오픈AI가 새로운 AI 모델 ‘GPT-4o’를 공개하자 “AI와 사랑에 빠지는 영화 ‘허(Her)’가 현실이 됐다”는 반응이 나왔기 때문이다. 오픈AI는 13일 GPT-4o가 스마트폰 카메라를 통해 사물을 인식, 인간과 관련 주제에 관해 실시간 음성 대화를 나누는 장면을 시연했다. 구글 역시 14일 진행한 구글 I/O 2024 기조연설에서 ‘프로젝트 아스트라(Project Astra)’를 공개하며 기술력을 뽐냈다. 시연에서 아스트라는 스마트폰 카메라를 통해 테이블 위에 놓인 사물을 인식하고 기억, 특정 사물(안경)의 위치를 알려달라는 사용자의 요청을 정확히 수행했다. 인간의 곁에서 인간을 돕는, 인간처럼 똑똑한 ‘AI 에이전트(agents, 대리인)’라는 미래 비전을 보여준 셈이다.
박원익 2024.05.16 03:11 PDT
세계경제포럼(다보스포럼·WEF)은 지난 1월 발간한 ‘글로벌 위험보고서 2024’에서 올해 세계가 직면할 위험 요인으로 ‘AI 생성 가짜 뉴스’를 지목했다. 전 세계에서 여러 선거가 진행되는데, AI로 만든 가짜 뉴스가 시민들의 잘못된 판단을 유도할 수 있다는 이유에서다. 올해 11월 대선을 앞둔 미국에서는 병원에 누워 있는 바이든 대통령, 감옥에 들어간 트럼프 전 대통령 등 악의적으로 조작된 이미지가 유포되기도 했다. 텍스트(text, 글) 역시 마찬가지다. 이미지, 동영상 못지않게 쉽게 생성이 가능하며 사람이 쓴 것과 구별이 어려울 정도로 정교해지는 추세다. AI로 만들어 낸 그럴듯한 허위 사실, 실체 없이 조작된 글을 구별하는 방법은 없을까? ‘신스ID(SynthID)’는 이런 문제를 풀기 위해 구글이 제시한 해결책이다. 구글은 14일(현지시각) 캘리포니아주 마운틴뷰에서 진행한 연례 개발자 컨퍼런스 ‘구글I/O 2024’에서 이미지, 오디오에 적용되던 신스ID 기술을 텍스트, 동영상으로 확장한다고 밝혔다.
박원익 2024.05.15 00:45 PDT
구글이 모든 제품과 서비스에 인공지능(AI) 모델 '제미나이'를 적용하는 '제미나이 시대(Gemini Era)'를 선언했다. 검색엔진부터 지도, 안드로이드, 워크 스페이스까지 거의 전 제품의 중심에 AI 모델을 놓는 것이다. 순다르 피차이 알파벳(구글 모회사) 최고경영자(CEO)는 14일(현지시각) 진행된 개발자 컨퍼런스 ‘구글 I/O 2024’ 기조연설에서 자사 대형언어모델(LLM) 제미나이(Gemini)를 구글 포토, 지메일, 검색 등 구글 주요 기능에 전면 적용한다고 밝혔다. 특히 오픈AI가 구글I/O 하루 전 공개한 멀티모달(Multimodal, 다중모드) AI 및 음성 검색 기능을 강조해 눈길을 끌었다. 최근 조직 개편에서 암시했듯 모바일 운영체제(OS) 안드로이드와 스마트폰 픽셀 등 모바일 제품에 주력하던 이전 IO와 달리 이제는 완전히 AI에 사업 초점을 맞췄다. 특히 이날 '구글 AI 실세'로 올라선 데미스 허사비스 딥마인드 CEO가 데뷔했다. 구글은 검색엔진 부동의 1위지만 AI레이스에서만큼은 오픈AI에 뒤쳐졌다는 평가를 받아왔다. 오픈AI가 AI를 바탕으로 구글의 메인 사업까지 바짝 뒤쫓자 최근 조직개편을 단행했다.
Sejin Kim 2024.05.14 14:12 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 프리미엄 리포트 ‘위클리AI브리핑(Weekly AI Briefing)’입니다.한 주 동안 쏟아지는 AI 뉴스 홍수 속에서 놓치지 않고 꼭 챙겨봐야 할 정보를 선별해 드립니다. 핵심 요약으로 독자분들이 시간을 아낄 수 있도록 돕고 ‘실리콘밸리+실리콘앨리’ 현장에서 빅테크, 유망 스타트업의 움직임을 취재하는 더밀크만의 인사이트를 추가했습니다. 보다 자세한 내용은 더 알아보기 링크로 확인하실 수 있습니다.
박원익 2024.05.14 05:06 PDT
“새로운 음성 모드는 사용해 본 컴퓨터 인터페이스 중 최고였습니다. 마치 영화에 나오는 AI처럼 느껴지는데, 이게 현실이라는 게 아직도 조금 놀랍습니다.”샘 알트만 오픈AI CEO가 13일(현지시각( 새로운 ‘GPT-4o’ 모델을 선보이며 밝힌 소회입니다. 그는 “AI가 사람 수준의 응답 시간과 표현력을 갖추게 된 것은 큰 변화”라며 “개인화, 사용자 정보에 대한 접근, 사용자를 대신해 조치를 취할 수 있는 기능이 추가되면 컴퓨터로 훨씬 더 많은 일을 할 수 있게 될 것”이라고 강조했습니다. 샘 알트만 CEO의 발언은 오픈AI가 GPT-4o를 앞세워 어떤 미래를 그리고 있는지 짐작케 합니다. ‘인간처럼 말하는 AI, 사용자 정보에 대한 접근’ 무언가 떠오르지 않나요? 바로 애플의 음성비서 ‘시리(Siri)’입니다. 지금까지 시리가 잘 해내지 못 했던 일을 더 똑똑한 GPT-4o로 할 수 있게 만드는 것이죠. 애플은 오는 6월 연례 개발자 컨퍼런스 ‘WWDC 2024’에서 챗GPT를 탑재한 차세대 시리를 공개할 것으로 관측되고 있습니다.
박원익 2024.05.13 15:42 PDT
오픈AI는 13일(현지시각) 진행한 스프링 제품 업데이트 라이브 스트리밍 이벤트에서 새로운 AI 모델 GPT-4o를 공개했다. GPT-4o는 음성 인식, 스피치-투-텍스트(Speech to text), 이미지 인식 기능 등이 통합돼 대화형 인터페이스 형태로 자연스러운 실시간 상호작용이 가능한 멀티모달(Multimodal, 다중 모드) 모델이다. 기존 GPT 모델이 프롬프트를 데스크톱이나 모바일을 통해 글자(텍스트)를 입력하는 것에 그쳤다면 GPT-4o는 음성, 텍스트, 시각 등 다양한 인간의 활동을 입력, AI가 추론하고 그 결과를 거의 실시간으로 내놓을 수 있도록 한 것이다. GPT-4o의 o는 모든 것을 아우른다는 의미인 ‘옴니(omni)’에 따왔다. 이날 발표는 샘 알트만 CEO가 아닌 미라 무라티 CTO(최고기술책임자)가 무대에 올라 주요 기능을 설명했다.발표를 맡은 무라티 오픈AI CTO는 “GPT-4o는 GPT-4 터보 대비 2배 빠른 API(애플리케이션 프로그래밍 인터페이스)를 제공한다”고 밝혔다. 전 세계 인구 97%가 사용하는 50개 언어를 지원하며 텍스트 및 이미지 기능은 무료로 사용할 수 있다. GPT4o는 새로운 데스크톱 UI(사용자 인터페이스)를 통해 마치 '코파일럿' 처럼 작동할 수 있게 했다. 기존 GPT4 터보에 비해 2배 빠르고 50% 저렴하며 글자 제한도 5배나 높였다. 또 사람의 감정과 얼굴 표정도 인식하면서 현장에 참석한 오픈AI 직원들의 큰 박수를 받았다. 무라티 CTO는 “GPT-4o는 GPT-4 레벨의 지능을 더 빨리 제공한다"고 강조했다. 사람이 물흐르듯 대화하듯 빠른 반응을 내세운 것이다. 실제 GPT-4o의 평균 응답 시간은 232밀리초인데 이는 평균 320밀리초로 대답하는 인간과 비슷하다. GPT-3.5는 평균 2.8초의 응답 시간을, GPT-4가 5.4초였다.
박원익 2024.05.13 10:14 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 프리미엄 리포트 ‘위클리AI브리핑(Weekly AI Briefing)’입니다.한 주 동안 쏟아지는 AI 뉴스 홍수 속에서 놓치지 않고 꼭 챙겨봐야 할 정보를 선별해 드립니다. 핵심 요약으로 독자분들이 시간을 아낄 수 있도록 돕고 ‘실리콘밸리+실리콘앨리’ 현장에서 빅테크, 유망 스타트업의 움직임을 취재하는 더밀크만의 인사이트를 추가했습니다. 보다 자세한 내용은 더 알아보기 링크로 확인하실 수 있습니다.
박원익 2024.05.08 01:15 PDT