Tags
“딥시크(DeepSeek)의 R1 출시는 맛집 레시피가 공개된 상황과 비슷합니다.”신정규 래블업 대표는 6일 더밀크가 주최한 ‘딥시크 쇼크 & 포스트 CES 산업별 집중분석 웨비나’에서 “현재 가장 곤란한 회사는 오픈AI일 것”이라며 이같이 말했다. 지금까지 오픈AI는 AI 업계에서 ‘독보적인 레시피(AI 모델 개발 비법)를 가진 미슐랭 쉐프’ 같은 지위를 유지해 왔는데, 중국 스타트업 딥시크의 부상으로 상황이 바뀌었다는 설명이다. 특히 오픈AI가 지난 9월 놀라운 성능의 추론 모델 ‘o1’을 처음 공개한 후 업계에서는 “AI 모델로 오픈AI와 경쟁하기는 힘들다”는 시각이 팽배했다. 하지만 딥시크가 o1과 비슷한 성능의 추론 모델 R1을 ‘오픈 웨이트(open-weights, 개방형 가중치)’로 공개하면서 분위기가 반전됐다. 오픈 웨이트란 AI 모델의 성능을 좌우하는 가중치(weights, 변수 간 연결 강도) 값을 공개한 모델을 말한다. 모델 크기를 이야기할 때 주로 언급하는 ‘매개변수(parameters)’가 가중치 역할을 수행한다. 연구자들은 모델이 이렇게 정해진 값에 따른 계산을 거친 후 적절한 답을 도출하는지 확인하는 과정을 반복하며 AI 모델을 개발한다.예컨대 반만 그린 고양이 그림을 주고, 나머지를 완성해 달라고 요청했을 때 실제 고양이와 흡사한 그림이 완성된다면 모델 내 존재하는 수십, 수천억 개의 매개변수, 즉 가중치 값이 잘 조정됐다고 말할 수 있다. AI업계에서는 공개된 R1의 가중치가 오픈AI o1 모델의 가중치와 비슷할 것으로 추측한다. 맛집의 비밀 레시피가 공개되자 이 레시피를 활용한 다른 식당들이 생겨나는 상황인 셈이다. 실제로 o1과 비슷한 오픈형 추론 모델이 우후죽순 등장하고 있다.
박원익 2025.02.06 13:21 PDT
“o3-미니(o3-mini)가 출시됐습니다. 챗GPT 사용자에게 무료로 제공합니다.”샘 알트만 오픈AI CEO는 31일(현지시각) X에 올린 글에서 “챗GPT 플러스(유료 플랜, 월 20달러)를 사용하면 더 나은 답변을 제공하는 ‘o3-미니-하이(high)’를 선택할 수 있다”며 이같이 밝혔다. 작년 12월 차세대 추론 특화 모델 o3, o3-미니를 공개한 후 약 한 달 보름 만에 경량 모델인 o3-미니를 먼저 출시한 것이다. 그는 “o3-미니는 똑똑하고 빠른 모델”이라며 “특히 높은 성능에 주목할 가치가 있다. API(애플리케이션 프로그래밍 인터페이스) 가격도 훌륭하게 제공한다”고 했다. 오픈AI에 따르면 o3-미니의 API 가격은 백만 토큰(token, 의미를 지닌 말의 최소 단위)당 입력(input) 1.10달러, 출력(output) 4.40달러로 책정됐다. o3-미니는 비전(vision, 시각 정보 이해) 기능이 없는 텍스트(text, 문자) 전용 모델이다.
박원익 2025.01.31 19:23 PDT
“중국이 생성 AI 분야에서 미국을 따라잡고 있습니다.”AI 4대 석학으로 꼽히는 앤드류 응 스탠퍼드대 교수는 29일(현지시각) 자신의 AI 교육 스타트업 ‘딥러닝닷AI(DeepLearning.AI)’에 올린 글에서 “딥시크(DeepSeek) 이슈가 중요한 트렌드를 구체화했다”며 이같이 밝혔다. 중국 항저우에 본사를 둔 AI 기업 딥시크가 공개한 R1 모델이 공개된 후 AI 업계 및 비즈니스 리더들로부터 많은 질문을 받았고, 크게 세 가지 트렌드를 확인할 수 있었다는 것이다. 그가 첫 번째로 제시한 트렌드는 중국의 급격한 부상이다. 그는 “2022년 11월 챗GPT가 출시됐을 때 미국은 생성형 AI 분야에서 중국보다 훨씬 앞서 있었다”며 “하지만 지난 2년 동안 이 격차가 빠르게 줄어들었다”고 했다. 딥러닝닷AI 팀에서 알리바바 ‘큐원(Qwen)’, 베이징에 본사를 둔 문샷AI(Moonshot AI)가 개발한 ‘키미(Kimi)’, 딥시크 R1 등을 실제로 사용해 봤더니 분명히 격차가 좁혀졌다는 것이다. 그는 “동영상 생성 분야에서는 중국이 앞서가는 것처럼 보이는 순간도 있었다”며 “딥시크의 R1이 많은 세부 사항을 공유하는 기술 보고서와 함께 개방형 가중치(Open weight) 모델로 출시됐다는 사실이 매우 기쁘다”고 했다.
박원익 2025.01.30 14:52 PDT
“딥시크(DeepSeek)의 ‘R1-제로(Zero)’는 자연어로 사람처럼 추론(reasoning)하는 기술을 보여줬습니다. 강화학습(Reinforcement Learning, RL)만으로 만들어낸 결과입니다.” 아라빈드 스리니바스 퍼플렉시티 CEO는 29일(현지시각) 중국 스타트업 딥시크가 개발한 AI 모델 R1의 논문 일부를 공개하며 이같이 말했다. 딥시크가 달성한 성과가 놀랍다며 회사를 치켜세운 것이다. 그가 공유한 논문에는 AI 모델이 수학 공식을 풀어내는 과정에서 사람처럼 스스로 방법을 알아내고, 이를 ‘깨달음의 순간(aha moment)’라고 표현하는 시연 장면이 등장한다. 논문에 따르면 딥시크는 사람이 데이터를 생성, 모델 개선에 도움을 주는 STF(Supervised Fine-Tuning, 지도 미세 조정) 방식이 아니라 별도의 지침 없이 강화학습만으로 이 결과를 얻었다. 마치 알파고가 별도의 지침 없이 바둑 두는 방법을 찾아낸 것처럼 기계 스스로 수학 문제 해결법을 찾아낸 것이다. 실리콘밸리 벤처캐피털 a16z의 마크 앤드리슨은 R1에 대해 “지금까지 내가 본 가장 놀랍고 인상적인 혁신 중 하나였다”고 평가하기도 했다. 딥시크는 어떻게 실리콘밸리를 충격과 흥분에 빠뜨릴 수 있었을까? 딥시크 설립자의 목표, 비전은 무엇일까?
박원익 2025.01.29 17:10 PDT
고성능 컴퓨팅 초창기에 주요 기술 기업들은 각각 자체적인 클로즈드 소스(closed source, 폐쇄형) 버전의 ‘유닉스(Unix, 벨 연구소에서 개발한 운영 체제. 현대적 컴퓨터 운영 체제의 원형)’ 개발에 막대한 투자를 했습니다. 당시에는 다른 접근 방식으로 이런 고급 소프트웨어를 개발한다는 걸 상상하기 어려웠습니다. 하지만 결국 오픈 소스(open source)인 ‘리눅스(Linux)’가 인기를 얻게 됐습니다. 개발자가 원하는 대로 코드를 수정할 수 있고, 더 저렴했기 때문입니다. 시간이 지나면서 리눅스는 폐쇄적인 유닉스보다 더 발전, 더 안전하면서도 더 많은 기능을 지원하는 광범위한 생태계를 갖추게 됐습니다. 오늘날 리눅스는 클라우드 컴퓨팅과 대부분의 모바일 장치를 실행하는 운영 체제 업계 표준이 됐고, 덕분에 우리 모두는 우수한 제품의 혜택을 누리고 있습니다.AI도 비슷한 방식으로 발전할 것이라고 믿습니다. 현재 여러 기술 기업이 선도적인 폐쇄형 모델을 개발하고 있습니다. 하지만 오픈 소스가 그 격차를 빠르게 좁혀가고 있습니다. 작년에 출시된 라마 2는 프론티어(Frontier, 최첨단) 대비 뒤처진 구세대 모델과 비교됐으나 올해 출시된 라마 3는 가장 진보된 모델과 경쟁하며 일부 영역에서는 선두를 달리고 있습니다. 내년부터는 향후 출시될 라마가 업계에서 가장 발전된 모델이 될 것으로 예상합니다. 지금도 라마는 이미 개방성, 수정 가능성, 비용 효율성 측면에서 선두를 달리고 있습니다.우리는 오늘 오픈 소스 AI가 업계 표준이 되는 다음 단계로 나아가고 있습니다. 최초의 프론티어급 오픈 소스 AI 모델인 라마 3.1 405B와 개선된 라마 3.1 70B 및 8B 모델을 출시합니다. 405B 모델은 폐쇄형 모델에 비해 비용 대비 성능이 훨씬 뛰어날 뿐만 아니라 개방형 모델입니다. 미세조정(fine-tuning), 증류(distilling)를 통한 소규모 모델 개발에 가장 적합한 선택이 될 것입니다.메타는 이런 모델을 출시하는 것 외에도 다양한 기업들과 협력, 더 넓은 생태계를 만들고 있습니다. 아마존, 데이터브릭스, 엔비디아는 개발자가 (라마를 활용해) 자체 모델을 미세 조정하고 증류할 수 있도록 지원하는 전체 서비스 제품군을 출시합니다. 혁신 기업 그로크(Groq)는 메타의 새 모델을 위한 저지연, 저비용 추론 서비스를 구축했습니다. 라마 3.1은 AWS, 애저(Azure), 구글, 오라클을 포함한 모든 주요 클라우드에서 사용할 수 있습니다. 스케일AI(Scale.AI), 델, 딜로이트는 기업이 라마를 도입하고 자체 데이터로 맞춤형 모델을 학습할 수 있도록 지원할 준비가 돼 있습니다. 커뮤니티가 성장하고, 더 많은 기업이 새로운 서비스를 개발함에 따라 우리는 함께 힘을 모아 라마를 업계 표준으로 만들 수 있습니다. 그리고 모든 사람에게 AI의 혜택을 제공할 수 있습니다.메타는 오픈 소스 AI에 전념하고 있습니다. 오픈 소스가 최고의 개발 스택이라고 생각하는 이유, 오픈 소스 Llama가 Meta에 좋은 이유, 오픈 소스 AI가 전 세계에 좋은 플랫폼이며 따라서 장기적으로 지속될 플랫폼인 이유를 간략하게 설명하겠습니다.
박원익 2024.07.25 15:01 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 AI 뉴스레터 [박원익의 AI인사이트]입니다. “AI 모델에 대한 접근 권한을 판매하는 건 우리의 비즈니스 모델이 아니다.” 마크 저커버그 메타 CEO는 23일(현지시각) 새로운 오픈형 모델 라마 3.1을 공개하며 이렇게 밝혔습니다. 마치 폐쇄형 AI 모델로 돈을 버는 ‘오픈AI’를 콕 집어 언급한 것처럼 느껴집니다. AI 모델 경쟁이 치열해지면서 주도권 쟁탈 전쟁이 벌어진 것이죠. 오늘은 오픈 소스를 앞세운 메타의 AI 생태계 지배 전략, 이와 궤를 같이하는 오픈AI의 가성비 모델 출시 소식 등을 중심으로 레터를 준비했습니다. 매주 수요일 발행하는 ‘AI인사이트’를 통해 글로벌 AI·테크업계의 최신 흐름, 중요한 시그널을 놓치지 말고 확인하세요!
박원익 2024.07.24 13:18 PDT
메타가 역대 최고 성능의 개방형 인공지능(AI) 모델 라마(Llama)의 업데이트 버전(라마 3.1)을 내놨다. 생성AI 성능을 좌우하는 매개변수가 4050억개(405B)로 오픈형 모델 중 최대 규모를 자랑한다. 마크 저커버그 메타 CEO는 "오픈 소스 운영체제(OS) 리눅스(Linux)는 오늘날 클라우드 컴퓨팅과 대부분의 모바일 장치를 실행하는 업계 표준으로 자리 잡았다”며 “AI 모델 역시 비슷한 방식으로 발전할 것으로 믿는다”고 의미부여했다. 또 "여러 기술 기업이 선도적인 폐쇄형 모델을 개발하고 있지만, 오픈 소스가 그 격차를 빠르게 좁혀가고 있다”며 “내년부터는 라마가 업계에서 가장 뛰어난 모델이 될 것으로 예상한다”고 강조했다.
박원익 2024.07.23 08:49 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 프리미엄 리포트 ‘위클리AI브리핑(Weekly AI Briefing)’입니다. 한 주 동안 쏟아지는 AI 뉴스 홍수 속에서 놓치지 않고 꼭 챙겨봐야 할 정보를 선별해 드립니다. 핵심 요약으로 독자분들이 시간을 아낄 수 있도록 돕고 ‘실리콘밸리+실리콘앨리’ 현장에서 취재하는 더밀크만의 인사이트를 추가했습니다. 보다 깊이 있는 내용은 더 알아보기 링크로 확인하실 수 있습니다. 그럼 출발해 볼까요?
박원익 2024.02.26 21:28 PDT