오픈AI 안전 ‘레드라인’은 신기루?... 전문가들이 지적하는 3대 루프홀
[AI와 국가안보] 오픈AI ‘레드라인’ 분석
Q1. 오픈AI 기술, 미국 내 대량 감시에 사용되지 않는다?
Q2. 자율 무기 시스템(살상용 로봇) 금지 가능할까?
Q3. ‘분류기’, ‘안전 스택(Safety Stack)’ 작동할까?
더밀크의 시각: 업계는 더 명확한 설명을 요구하고 있다
‘오픈AI가 안전 장치로 제시한 ‘레드라인(Red Line, 넘어선 안 되는 한계선)’은 정말 안전한걸까?’
오픈AI가 지난 28일(현지시각) 공개한 미국 국방부(Department of War, DoW)와의 협정에 대한 우려의 목소리가 나오고 있다. 오픈AI가 내세운 레드라인에 루프홀(Loophole, 빠져나갈 구멍)이 존재한다는 지적이다.
미 국방부가 앤트로픽(Anthropic)을 ‘공급망 위험(supply-chain risk)’으로 지정하겠다고 통보, 거래 대상에서 제외한 직후 발표된 성명에서 오픈AI는 “이번 협정은 앤트로픽을 포함한 그 어떤 기밀 AI 배포 협정보다도 더 많은 안전장치를 갖추고 있다”며 “포괄적이고 다층적인 접근 방식을 통해 우리의 레드라인을 보호할 것”이라고 밝혔다.
👉AI가 설계한 전쟁... 미국의 이란 공습, 앤트로픽 클로드 금지 사태의 전말
오픈AI가 공식 성명을 통해 밝힌 3대 레드라인은 다음과 같다.
첫째, 미국 내 대량 감시에 오픈AI 기술 사용 금지. 둘째, 자율 무기 시스템 지휘에 오픈AI 기술 사용 금지. 셋째, 고위험 자동화 의사 결정에 오픈AI 기술 사용 금지다.
👉오픈AI, 미 국방부와 전격 합의… ‘AI 국유화’와 소버린 AI의 미래
현재까지 공개된 전문가 및 업계 내부자들의 주요 발언을 바탕으로 왜 오픈AI의 레드라인에 대한 의구심이 제기되는지 질의응답(Q&A) 형식으로 정리했다.