AI는 왜 편향적인가?... "LLM, 기계적 중립성의 함정에 빠졌다"

reporter-profile
Sejin Kim 2024.03.25 07:33 PDT
AI는 왜 편향적인가?... "LLM, 기계적 중립성의 함정에 빠졌다"
'2차대전 당시 독일 군인' 이미지를 생성해달라고 요청했을 때 흑인과 아시아 남성이 나왔다. (출처 : Adobe Firefly)

[더밀크 인터뷰] 파비앙 오퍼트 UC산타바바라 교수
구글∙어도비 AI의 역사 바꾸기. ’흑인 나치 군인’ 이미지
진보∙보수 진영 모두 반발…강화학습∙그림자 프롬프팅 역부족
AI는 데이터 그대로 증폭하는 구조…데이터 편향도 거들어
오퍼트 교수 “데이터 무결, 전제 바뀌어야”
더밀크의 시각: AI가 다양성과 정확성 구분할 수 있을까?

생성 AI 서비스가 정치적, 역사적 논란으로 확대되고 있다. 생성AI 챗봇은 정보 검색, 이미지 제작에 본격적으로 활용되고 있지만, 답변에 인종 및 민족을 부정확하게 묘사하거나 기존 인간이 차별, 고정관념을 반영한 이미지를 생성,하고 가짜 정보를 사실처럼 제공(환각)하는 등 부작용이 점차 커지고 있는 것.

특히 대형 선거가 치러지는 올해, 생성AI 챗봇에 대한 여론조작 우려가 커지자 정치권이 규제에 나서면서 이는 비즈니스에 직접적인 영향을 미치는 중이다.

이에 콘텐츠 조정과 언어 뉘앙스를 이해하는 기술적 발전이 AI비즈니스의 성패를 가를 요소가 되고 있다. 지난 8일부터 16일까지 미 텍사스 오스틴에서 열린 SXSW2024에서도 이 문제가 집중적으로 거론됐다.

더밀크는 이 문제에 권위자로 인정받고 있는 파비앙 오퍼트(Fabian Offert) UC산타바바라 교수를 인터뷰했다.

회원가입 후 뷰스레터를
주 3회 무료로 받아보세요!

단순 뉴스 서비스가 아닌 세상과 산업의 종합적인 관점(Viewpoints)을 전달드립니다. 뷰스레터는 주 3회(월, 수, 금) 보내드립니다.