“AI로 인류 멸종할 수도” 성명... 샘 알트만∙제프 힐튼 서명 배경은?

reporter-profile
박원익 2023.05.30 15:18 PDT
“AI로 인류 멸종할 수도” 성명... 샘 알트만∙제프 힐튼 서명 배경은?
(출처 : Shutterstock)

민간 비영리단체 ‘AI 안전 센터(CAIS)’ 성명 발표
한 문장으로 위험 강조… 샘 알트만, 제프리 힌튼 서명
6개월 중단 촉구와 달라… ‘AI 기업 로비용’ 지적도

AI로 인한 멸종 위험을 완화하는 건 팬데믹, 핵전쟁 같은 다른 사회적 규모의 위험과 마찬가지로 전 세계의 우선순위가 되어야 한다.
AI 안전 센터(CAIS, The Center for AI Safety)

인공지능(AI) 기술이 인류를 멸종하게 만들 수 있을 정도의 위험성을 가지고 있다는 경고가 나왔다. AI를 핵전쟁, 팬데믹(Pandemic, 세계적으로 전염병이 대유행하는 상태)과 같은 수준의 위협으로 취급해야 한다는 주장이다. 

샘 알트만 오픈AI CEO, 데미스 하사비스 구글 딥마인드 CEO 등 업계를 이끄는 기업 리더는 물론, 제프리 힌튼을 비롯한 학계 석학 등 많은 전문가들이 이 주장에 동조하고 나섰다. 

AI 위험에 대한 성명(Statement on AI Risk) (출처 : CAIS)

한 문장으로 위험 강조… 샘 알트만, 제프리 힌튼 서명

미국 샌프란시스코에 본사를 둔 민간 비영리단체 ‘AI 안전 센터(CAIS, The Center for AI Safety)’는 30일(현지시각) 웹사이트에 단 한 문장으로 된 성명서 ‘AI 위험에 대한 성명(Statement on AI Risk)’을 게재했다. 

CAIS에 따르면 이 단체는 의도적으로 성명을 간결하게 작성했다. 전문 용어, 복잡한 수식어를 걷어내고 AI 기술이 가진 위험성, 그 핵심만을 강조하기 위해서다. 

CAIS는 “AI 전문가, 언론인, 정책 입안자, 일반 대중에 이르기까지 AI를 둘러싼 중요하고 시급한 위험에 대해 점점 더 많은 사람이 논의하고 있다. 그러나 AI의 가장 심각한 위험에 대한 우려를 표명하는 건 간단치 않다”고 주장했다. 

이어 “간결한 성명은 이런 장애물을 극복하고 토론의 장을 여는 것을 목표로 한다”며 “더 많은 전문가와 대중이 AI의 위험을 심각하게 받아들이고 있다는 사실을 널리 알리기 위한 목적도 있다”고 했다. 

이 성명에는 샘 알트만 오픈AI CEO, 데미스 하사비스 구글 딥마인드 CEO 등 AI 업계를 이끄는 기업 리더들이 서명했다. ‘컴퓨터 과학계의 노벨상’으로 불리는 튜링상을 공동 수상(2018년)한, AI 석학 제프리 힌튼 토론토대 교수, 요슈아 벤지오 몬트리올대 교수도 서명에 참여했다.  

다만 다른 공동 수상자인 얀 르쿤 뉴욕대 교수는 서명에 참여하지 않았다. 페이스북의 모회사 메타에서 수석 AI 과학자로 활동 중인 르쿤 교수는 AI의 위험성에 대한 우려가 과도하다는 입장을 견지하고 있다. 공개 웨비나 등을 통해 그 근거를 밝히기도 했다.

CAIS 미션. AI로 인한 위험을 줄이는 게 이 조직의 목표다. (출처 : CAIS)

6개월 중단 촉구와 달라… ‘AI 기업 로비용’ 지적도

지난 3월 미국 비영리단체 ‘퓨처오브라이프 인스티튜트(Future of Life Institute) 역시 ‘대규모 AI 시스템’ 개발 중단을 촉구하는 성명을 발표한 바 있다. 전 세계 AI 연구소에 “GPT-4보다 강력한 AI 시스템에 대한 훈련(training)을 최소 6개월 동안 멈추라”고 요구하는 내용이었다.

다만 이 성명은 “전 세계가 AI 개발을 6개월 중단하는 건 현실적으로 불가능하다”, “특정 이해 관계가 얽혀 있다”는 비판을 받았다. 오픈AI를 공개적으로 비판한 머스크 CEO가 퓨처오브라이프 인스티튜트의 외부 자문(external advisor)으로 활동하고 있으며 머스크 재단은 퓨처오브라이프 인스티튜트에 가장 많은 돈을 기부하는 단체 중 하나라는 이유에서였다. 

이번 CAIS의 성명은 이런 선례를 고려해 잡음을 최대한 방지하는 접근법을 취하고 있다. 댄 핸드릭스 CAIS 전무이사는 뉴욕타임스와의 인터뷰에서 “30가지의 잠재적 개입이 포함된 거대한 방지책을 제시하고 싶지 않았다. 그렇게 하면 메시지가 희석된다”고 했다. 

그는 이어 “AI 업계 내에서 AI의 위험성을 우려하는 사람이 소수인 것처럼 잘못 인식되는 경향이 있다”며 “실제로는 훨씬 많은 업계 관계자들이 우려를 표하고 있다. 이번 성명은 이들의 ‘커밍아웃’”이라고 설명했다.  

일각에서는 성명이 나온 배경에 의심의 눈초리를 보내는 시각도 있다. AI 기업, 연구소의 ‘개발 중지’가 아닌 ‘위험 완화’ 쪽으로 여론을 돌리기 위한 수단이라는 주장이다. 실제로 오픈AI는 유럽의 규제에 대응하기 위해 적극적으로 움직이고 있다. 샘 알트만 CEO가 미 의회 청문회에 출석해 규제 도입을 촉구한 것도 같은 맥락으로 받아들여진다. 

테크크런치는 “오픈AI는 규제 당국을 대상으로 지속적인 로비 활동을 펼치고 있다”며 “CAIS에 대한 정보는 제한돼 있으나 이 단체가 정책 입안자들에 대한 로비에 관여하고 있는 것은 분명하다”고 지적했다.

회원가입 후 뷰스레터를
주 3회 무료로 받아보세요!

단순 뉴스 서비스가 아닌 세상과 산업의 종합적인 관점(Viewpoints)을 전달드립니다. 뷰스레터는 주 3회(월, 수, 금) 보내드립니다.