생성AI 르네상스는 엔비디아+라마가 열었다... 온디AI 가속도 붙을 것
[더웨이브 서울 2024] 신정규 래블업 대표
AI 산업 지형도 변화 분석 및 미래 전망 “라마, AI업계 베를린 장벽처럼 무너트려”
①특명: 엔비디아에서 벗어나라
②사람들은 복잡한 걸 바라지 않는다
③온디바이스AI를 위한 환경의 도래
+두 가지 예측… CPU 춘추전국시대 열린다
메타의 AI 모델 ‘라마(Llama)’ 이후 독점적 파운데이션 모델, 클라우드 중심 시장 구조가 붕괴되기 시작했습니다. AI 모델을 찍어내는 세상이 됐습니다.신정규 래블업 대표
신정규 래블업(Lablup) 대표는 19일 “2023년 이후 3만 개 이상의 새로운 파인튜닝(Fine-tuning, 미세조정) 모델이 등장했다”며 이같이 말했다.
이날 ‘더웨이브 서울 2024’ 컨퍼런스 연사로 나선 신 대표는 라마의 등장을 ‘베를린 장벽 붕괴’에 비유했다. 소련 중심의 사회주의 몰락의 시작인 베를린 장벽 붕괴가 갑작스레 시작된 것처럼 메타의 라마도 지난 2023년 3월 의도치 않은 유출로 공개되면서 AI 산업 전반에 큰 변화를 일으켰다는 것이다.
실제 라마는 메타가 자체 거대언어모델(LLM)인 '라마'를 처음부터 오픈소스로 풀겠다는 의지를 갖고 있던 것은 아니었다. 하지만 구글과 오픈AI 사이에서 생존을 고민하던 메타가 연구목적의 대학과 연구소에 모델을 무료로 공개하면서 퍼지기 시작했으며 깃허브에 소스가 올라가면서 사실상 '오픈소스'가 되버린 것이다. 이후 마크 저커버그 메타 CEO가 공식적으로 라마의 오픈소스를 공식적으로 선언했다.
이후 라마를 미세조정한 모델이 우후죽순 쏟아지며 갑자기 'LLM 르네상스'를 맞이하게 됐다. 신 대표는 이처럼 생성AI 혁명의 시작은 오픈AI가 지난 2021년 11월 챗GPT를 선보이면서 이지만 실제 각 분야로 넓게 퍼지며 촉발된 것은 메타가 라마를 오픈소스로 공개하면서 부터라고 의미부여했다.
이후 라마를 미세조정해 새로운 AI 모델을 개발하는 방식이 확산하면서 AI 모델 개발 비용이 크게 감소했다. 또 개인용 장비·기기에서 AI 모델을 활용하는 ‘온디바이스AI(On-device AI)’가 동시에 부상하게 됐다.
신 대표는 “AI 모델을 기기 자체에서 실행하면 지연 시간이 짧고, 인터넷 없이 사용할 수 있다”며 “사용자 데이터가 외부로 나가지 않는다는 장점도 있다. 프라이버시 보호가 중요한 음성 비서, 헬스케어, 스마트홈 기기 등에서 많이 활용되는 추세”라고 강조했다.
신정규 대표의 래블업은 AI 가속기(AI Accelerator, AI 전용 연산장치) 인프라의 성능을 극대화하고 사용성을 개선해 주는 AI 인프라 운영 플랫폼 ‘백엔드.AI(Backend.AI)’를 제공하는 스타트업이다. 올해는 신 대표는 특히 엔비디아 GTC, 구글 I/O, 애플 WWDC 등 주요 이벤트의 개발자 기조연설을 현장에서 듣고 분석, 생성AI 트렌드를 누구보다 잘 파악하고 있다는 평가를 받고 있다.
2015년 신 대표와 포스텍 출신 멤버들이 창업, 삼성전자, LG전자, KT 등에 서비스를 제공하고 있다. 엔비디아를 비롯한 AI 인프라 기업, AI 모델 개발자들과 밀접히 협업 중인 신 대표가 분석한 AI 산업의 지형도 변화 및 예측을 정리했다.
①특명: 엔비디아에서 벗어나라
오픈AI의 ‘GPT-3’ 이후 거대모델 경쟁이 벌어졌다. 모두 ‘더 크고 강력한 AI 모델’에 주목했고, 지난 5년간 AI 모델 훈련(training)에 사용된 연산량은 만 배 급증했다.
규모 이슈에 한동안 가려져 있던 온디바이스AI(Local AI)가 최근 다시 부상한 배경에는 엔비디아가 제시하는 방향에서 벗어나려는 목적도 있다는 게 신 대표의 분석이다.
신 대표는 “현재 AI 아젠다는 엔비디아가 정립하고 있다. 더 강력한 모델 개발을 위해 빅테크들은 엔비디아의 GPU 확보 경쟁을 벌이는 실정”이라며 “빅테크들은 이런 상황이 마음에 안 들기 때문에 현재 아젠다에서 벗어나고 싶어한다”고 했다.
새로운 방향성 제시를 위해 온디바이스AI를 강조하고 있다는 설명이다. 애플 인텔리전스라는 용어를 사용, 온디바이스AI를 강조한 애플이 대표적 사례다. 마이크로소프트 역시 코파일럿+PC를 출시, 온디바이스AI에 드라이브를 걸고 있다.
② 단순한 작업에 AI를 쓰더라
실제 AI 사용 패턴도 한 가지 배경으로 제기된다. 2022년 11월 30일 공개된 챗GPT 이후 다양한 AI 모델이 등장했지만, 실제로 사람들이 AI 사용하는 방식은 대부분 단순한 작업이었다는 것이다.
신약 후보 물질 발견, 기후 및 날씨 변화 예측 같은 복잡한 문제 해결에도 AI 모델이 사용되지만, 학계나 첨단 산업 분야가 아닌 일반 소비자용 앱, 서비스에는 경량화 모델로도 충분하다는 판단을 한 것으로 풀이된다.
신 대표는 “사람들이 날씨를 묻거나 단순한 질의에 챗GPT를 사용한다”며 “사람들이 AI에 바라는 것들은 대부분 복잡하지 않은 것”이라고 했다.
그는 이어 “개인 정보를 활용한 작업도 AI에 요청하고 싶어 하는데, 프라이버시를 보호하려면 결국 온디바이스AI, 로컬에서만 이런 작업이 가능하다”고 설명했다.
③온디바이스AI를 위한 환경의 도래
마지막으로 가장 중요한 배경은 온디바이스AI를 실제로 구현할 수 있는 기술적 환경이 마련됐다는 점이다.
라마의 출현 이후 적절한 성능을 갖춘 오픈 소스 모델이 다수 등장했고, 기기에서 AI를 구동할 때 필요한 연산 자원 비용도 급감했다는 게 신 대표의 설명이다.
그는 “초거대 AI 모델을 증류(distillation, 크고 복잡한 AI 모델을 작은 모델로 만드는 작업)해서 더 작은 모델을 만들 수 있게 됐고, 작은 모델을 감당할 수 있는 연산 자원이 보급됨으로써 로컬 AI, 온디바이스 AI 시대가 왔다”고 했다 .
신 대표는 “CPU(중앙처리장치)는 지난 7년 동안 4배 속도가 증가한 반면 온디바이스AI 용 NPU(신경망처리장치) 성능은 50배 이상 개선됐다”며 “손(휴대폰) 안의 스케일(scale, 성능 증가) 전쟁이 벌어지고 있다”고 했다.
두 가지 예측… CPU 춘추전국시대 열린다
온디바이스AI 부상은 AI 업계 지형도를 어떻게 바꿀까?
신 대표는 이런 추세에 힘입어 PC 외장형 NPU 시장이 탄생할 것으로 예측했다. CPU 발전 속도 기울기와 NPU 발전 속도 기울기를 비교하면 NPU가 10배 가까이 빠르기 때문에 결국 PC에 연결해 쓰는 외장형 NPU가 등장할 가능성이 높다는 것이다.
저전력 반도체 아키텍처로 유명한 암(Arm) IP(지식재산권) 기반 CPU가 늘어날 것이란 전망도 내놨다. 온디바이스AI 부상으로 CPU 시장 경쟁 역시 치열해 질 것이란 관측이다.
신 대표는 “마이크로소프트와 퀄컴이 체결한 윈도우(PC 운영시스템)용 Arm 기반 CPU 독점 계약이 2024년에 종료된다”며 “구글, 마이크로소프트, 엔비디아 모두 Arm 기반 서버용 CPU를 개발해 둔 상황이라 PC용 시장에 들어오는 건 시간 문제”라고 했다.
더밀크 회원으로 가입하시면 실리콘밸리에서 나오는 혁신 비즈니스 트렌드와 자본의 흐름을 가장 먼저 파악하고 앞서갈 수 있습니다. 주 4회 뷰스레터를 무료로 제공합니다. 유료 회원으로 업그레이드하시면 더밀크 콘텐츠를 제한없이 보고 더밀크의 스페셜 리포트를 받아보고 이벤트에 참석하실 수 있습니다.
더밀크 회원 가입하기