‘생성 AI 질주’ 아마존… 75% 저렴한 첨단 AI 모델 ‘노바’ 출격
[AWS 리인벤트 2024]
앤디 재시 아마존 CEO 기조연설
아마존 노바 6종 전격 공개… 베드록 최적화로 지연 시간 짧아
“실용적인 AI로 문제 해결” 구글 우회 비판… 2025년 2종 추가 공개
성능 4배 뛰어난 ‘트레이니움3’ 발표… 인프라 경쟁력 강화
새로운 첨단 파운데이션(foundation, 기초) 모델 ‘아마존 노바(Amazon Nova)’는 업계 최고 비용 대비 성능을 자랑합니다.앤디 재시 아마존 CEO
앤디 재시 아마존 CEO는 3일(현지시각) 라스베이거스에서 진행된 클라우드 컨퍼런스 ‘AWS 리인벤트(re:Invent)’ 2024 기조연설에서 “75% 저렴하게 최고 성능을 누릴 수 있다”며 이같이 말했다.
구글 제미나이, 오픈AI GPT-4 등 업계 주요 AI 모델과 비슷한 성능을 내면서도 비용은 더 저렴하다는 것이다. 자체적으로 계속 프론티어(frontier, 최첨단) 모델 개발 작업을 진행해 왔고, 특히 지난 4~5개월 동안 큰 진전을 이뤘다는 게 그의 설명이다.
아마존 노바 6종 전격 공개… 베드록 최적화로 지연 시간 짧아
AWS는 이날 아마존 노바 제품군 총 6종을 전격 공개했다. 가장 낮은 지연 시간을 가진 텍스트 전용 모델 ‘아마존 노바 마이크로(Amazon Nova Micro)’, 이미지와 비디오, 텍스트를 처리할 수 있는 초저가 멀티모달 모델 ‘아마존 노바 라이트(Amazon Nova Lite)’, 고성능 멀티모달 모델 ‘아마존 노바 프로(Amazon Nova Pro)’, 2025년 초 출시 예정인 가장 강력한 멀티모달 모델 ‘아마존 노바 프리미어(Amazon Nova Premier)’ 등이다.
마이크로 모델은 12만8000 토큰의 컨텍스트 길이를 지원하며 라이트는 최대 30만 토큰 입력 및 최대 30분 분량의 동영상을 분석할 수 있다. 프로는 최대 300만 개의 입력 토큰 처리를 지원하며 재무 문서 분석, 코딩 능력이 우수하다.
스튜디오 품질의 이미지 생성이 가능한 첨단 이미지 생성 모델 ‘아마존 노바 캔버스(Amazon Nova Canvas)’, 최첨단 동영상 생성 모델 ‘아마존 노바 릴(Amazon Nova Reel)’도 출시했다. 캔버스는 생성된 이미지를 편집할 수 있으며 릴은 텍스트 입력 혹은 참조 이미지를 사용해 최대 6초 분량의 동영상을 생성할 수 있다.
재시 CEO는 “라이트 모델의 벤치마크(성능 평가) 결과를 보면 오픈 AI GPT-4o 미니, 제미나이, 클로드 3.5 하이쿠 등에 비해 동일하거나 더 우수하다”며 “훨씬 저렴한 비용으로 동등하거나 더 나은 서비스를 제공할 수 있다는 점에서 매우 경쟁력이 있다”고 재차 강조했다.
아마존 노바 모델은 AWS의 생성 AI 애플리케이션 개발 플랫폼 ‘아마존 베드록(Amazon Bedrock)’에서 독점적으로 이용할 수 있으며 API(애플리케이션 프로그래밍 인터페이스)와 함께 작동하도록 모델을 최적화해 지연 시간이 짧고, 미세 조정도 가능하다는 게 AWS 측 설명이다.
“실용적인 AI로 문제 해결” 구글 우회 비판… 2025년 2종 추가 공개
재시 CEO는 “AI 애플리케이션을 개발 고객들은 더 나은 지연 시간, 더 낮은 비용, 미세 조정 기능을 요구한다. (베드록에 AI 모델을 제공하는) 파트너사에도 이런 피드백을 전달하고 있다”며 “우리가 자체적으로 프론티어 모델을 계속 개발해 온 이유”라고 했다.
그는 이어 “아마존은 실용적인 AI를 만들어 고객의 문제를 해결하고자 한다”며 “세계 최고 수준의 AI 체스 플레이어를 만드는 것보다 개인화된 더 나은 추천을 제공하거나 상품을 더 빨리 배송할 수 있는 최적의 경로를 갖추는데 AI를 사용하는 게 더 중요하다”고 강조했다.
체스 AI ‘알파제로(AlphaZero)’를 개발하는 구글 딥마인드를 염두에 둔 발언으로 풀이된다. 딥마인드는 지난 11월 25일 싱가포르에서 열린 ‘월드 체스 챔피언십 2024’를 공식 후원하기도 했다.
재시 CEO는 “우리가 가치를 발견하면 고객들도 가치를 발견할 수 있을 것”이라며 “2025년 1분기 즈음 음성 처리 모델인 ‘음성 대 음성(Speech-to-Speech)’, 진정한 멀티모달 대 멀티모달 모델인 ‘모든 것 대 모든 것(Any-to-Any)’ 모델을 출시할 예정”이라고 했다.
트레이니움3 발표… 인프라 경쟁력 강화 전략
이날 기조연설자로 나선 맷 가먼 AWS CEO는 클라우드 부문의 다양한 새로운 기능 발표와 함께 AWS가 자체 개발한 차세대 AI 칩 ‘트레이니움3(Trainium3)’을 발표했다.
12월부터 AWS 고객사에 트레이니움2 기반 인스턴스(가상 머신)를 제공하고, 2025년 말 트레이니움3 기반 인스턴스를 제공한다는 계획이다.
트레이니움3는 최첨단 공정인 3나노미터 공정으로 제작되는 최초의 AWS 반도체다. AWS에 따르면 트레이니움3는 전 세대 칩 대비 최대 40% 에너지 효율이 우수하며 트레이니움3를 여러 개 묶어 구축하는 ‘울트라 서버’는 트레이니움2 기반 울트라 서버 대비 4배 뛰어난 성능을 발휘한다. 엔비디아 칩을 사용하면서도 자체 하드웨어 인프라 제품을 계속해서 개발, 가격 및 성능 경쟁력을 확보하려는 전략으로 풀이된다.
AWS 클라우드를 활용하는 브누아 뒤팽 애플 머신러닝 및 AI 수석 디렉터가 무대에 등장, 애플과 AWS의 파트너십을 강조하기도 했다.
뒤팽 디렉터는 “그래비톤(Graviton), 인퍼런시아(Inferentia) 같은 AWS 칩을 사용해 머신 러닝 추론에서 x86 아키텍처 기반 인스턴스 대비 40% 이상의 효율성 향상을 달성한 바 있다”며 “최신 버전인 트레이니움2로 모델을 훈련할 경우 효율성이 최대 50% 향상될 것으로 기대한다”고 했다.