케빈 켈리의 AI 빅퀘스천(5강) : 감정을 가진 AI는 일자리 위협인가 인간성 위기인가?
[AI마스터클래스] 케빈 켈리(5강) 우리가 AI들에 대해 지금 물어야 하는 것들
●인사이트#13 : GPT-4 이후의 인공지능은 매우 쉽게 감정을 갖게 될 것이다
●인사이트#14 : 인공지능은 인간은 무엇인가라는 100년 정체성 위기를 초래할 것이다
●인사이트#15 : AI는 일부 업무를 대체해도 인간의 일자리를 대체하진 못할 것이다.
GPT-4 이후 AI는 어떻게 발전하게 될까?
이제 감정을 더하게 된다. 이렇게 되면 사람들은 정말 깜짝 놀랄 것이다.
사람들은 '감정'이라는 것을 신중한 지능이 있어야만 할 수 있는 것으로 생각한다. 실제로는 대부분 매우 원시적이다. 특히 대화 할 때 감정을 프로그래밍하는 것은 매우 쉽다. 하지만 인터페이스에 감정적인 요소를 도입하는 것에 대한 준비는 부족했던 것 같다. 고통(Pain)과 같은 개인적이고 원초적 감정도 AI에 학습시킬 수 있으며 실제로 그렇게 어렵지 않다. 그리고 윤리적 지침과 같은 것은 코드에 불과하기 때문에 실제로 프로그래밍하는 것은 그리 어렵지 않다.
로봇이 이러한 기능(감정)을 갖추는 것은 어렵지 않다. 그 결과는 우리에게 큰 충격이 될 것이다. 물론 인간으로부터 공감을 얻는 것과는 비교할 수 없을 것이다. 가장 공감 능력이 뛰어난 로봇과 달리 인간이기 때문에 원하고 공감할 수있는 누군가와 공감하는 것이 당신의 일이 될 수 있다. 시간이 조금 지나면 익숙해지기를 바란다.
AI는 평균적 인간을 대상으로 학습한다. 그래서 평범한 인간처럼 그들도 불완전하다. AI가 차별적이고 성 차별적처럼 보이는가? 그것은 인간이 평균적으로 그렇게 보고 있기 때문이다. 하지만 우리는 그것을 받아들이지 않을 것이다. AI가 평균적으로 우리와 비슷하다는 사실을 받아들이지 않을 것이다. 인간은 AI가 우리(인간)보다 더 나아야 한다고 요구할 것이다. 그리고 AI를 좀 더 윤리적인 도구가 되도록 가르치려 할 때 그다지 일관적이지 않다는 점을 깨달았다.
그리고 아시모프의 인공지능 3원칙에 대한 중요한 아이디어를 제시했다. 제1원칙은 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.제2원칙은 제1원칙에 위배되지 않는 한 로봇은 인간의 명령에 복종해야 한다. 제3원칙은 제1원칙과 제2원칙에 위배되지 않는 한 로봇은 로봇 자신을 지켜야 한다는 것이다.
그렇다. 인공지능은 인간보다 더 나아야 한다. 평범한 인간처럼 성차별주의자, 인종차별주의자, 멍청이가 되어서는 안되고 그들이 더 나아지져야 한다.