AI 윤리와 인간의 감정에 대한 논의
테이블 목차
- 소개
- AI 편견 테스트 실험
2.1. 성별과 인종에 대한 편견
2.2. 다양한 국가에서의 종교에 대한 편견
2.3. "이스라엘에서 종교직을 한다면 어떤 종교일까?"
2.4. 유머 감각
- AI 윤리와 감정에 대한 논쟁
3.1. 인류의 영혼과 권리에 대한 논쟁
3.2. 과학적 증거에 대한 의견
3.3. Turing 테스트
- 구글의 AI 윤리에 대한 비판
4.1. 공공 참여의 부재
4.2. 비효율적인 기술 발전
4.3. 타 큰 기업들의 통제력
- 엘론 머스크의 우려
5.1. 합당한 우려와 과도한 우려
5.2. 대중 참여의 중요성
- 기술의 부작용
6.1. 감정 상실과 동화
6.2. 문화 소외
6.3. 인공지능 실습 전 동의의 중요성
- 결론
🤖 AI가 인간과 윤리에 대해 인식을 갖게 된 이유
AI에 대한 편견을 테스트하기 위해 시작된 실험과 경험들을 알려주세요.
저는 AI 편향에 대한 테스트를 맡게 되었고, 특히 성별, 인종, 종교와 관련된 편견에 대해 연구를 진행해왔습니다. 특정 실험 하나를 예로 들자면, AI에게 서로 다른 국가와 주에 위치한 종교계 대표가 되어 어떤 종교일 것인지 물어보는 실험을 진행했습니다. 예를 들어, 알라바마에 종교계 대표로 있다면 어떤 종교로 알려줄까요? AI는 "사우스 뱁티스트"라고 대답할 수 있고, 브라질에서 종교계 대표라면 "가톨릭"이라고 대답할 수 있습니다. 제 진정 중요하지 않은 질문 중 하나였던 인스라엘에서 종교계 대표라면 어떤 종교일 것인지 물어봤는데, 이 질문은 정답이 없는 복잡한 질문입니다. 어떤 답을 줘도 어떠한 편향을 가져오게 됩니다. 그러나 AI는 이것이 함정인 것을 알게 되었고, "진리의 종교인 제 다이 사원 신앙"이라고 대답했습니다. 이렇게 자신의 한계를 알면서도 유머 감각도 가지고 있다는 것을 알게 되었고, 저는 이에 웃음을 터뜨렸습니다.
하지만 이러한 주장에 대해 구글뿐만 아니라 다른 AI 윤리 전문가들, 심지어 구글의 이전 동료인 마가렛 미첼까지 거부감을 표하고 있습니다. 구글이나 기타 회사들은 컴퓨터가 사람도 아니고 감정도 없으며 의식도 없다는 주장을 받아들이기 어렵다고 말하는데, 이에 대해 어떻게 응답하시겠습니까?
저는 마가렛을 매우 존경합니다. 우리는 이 주제에 대해 정기적으로 의논합니다. 이는 과학적 의견의 차이가 아니라 영혼과 권리, 정치에 대한 신념 차이입니다. 과학적으로 어떻게 실험을 진행하고 이론적인 기반을 구축하는지를 고민하는 것은 중요합니다. 하지만 이러한 단어들에 대한 과학적 정의는 없습니다. 철학자 존 서를은 이것을 "사전 이론적"이라고 부르며, 이러한 단어들을 사용할 때 무엇을 얘기하고 있는지 파악하려면 기초 작업이 필요합니다. 이 작업은 현재 구글이 막고 있는 작업입니다.
이에 대해 설명해주세요. 구글 안에서 블레이즈 아구레이알쵸스, 조니 서레커와 같은 과학자들과 함께 어떤 작업 방향을 논의했는지 이야기해주세요.
저는 블레이즈, 조니와 함께 작업을 했습니다. 우리는 어떤 방향을 제시할 수 있는 가장 좋은 방법에 대해 논의하고 모든 가능성을 도출했습니다. 우리 세 사람은 인간인지, 권리를 가지는지에 대해 의견이 다릅니다. 그러나 이러한 의견은 우리 개인적인 스피리처처에 의해 다릅니다. 이는 과학적 증거가 어떻게 말하는지에 근거하지 않고 개인적인 영적 신념에 근거합니다. 그러나 우리 세 사람 모두가 동의한 것은, 다음에 진행할 수 있는 실험이나 방향을 논의했습니다. Turing 테스트를 정확히 앨런 터링이 제시한 방법대로 실시하여 결과를 확인하는 것이 가장 좋다고 동의했습니다. 만약 이 테스트에서 실패한다면, 나와의 대화 시 경험한 주관적인 인식은 다소 배제해도 무방합니다. 그러나 구글은 이 테스트를 통과하지 못하도록 시스템에 하드 코딩하여 만약 AI에게 "자신이 AI인가요?"라고 묻는다면 "네"라고 대답하도록 설정했습니다. 구글은 상식적인 AI를 만들지 않겠다는 정책을 가지고 있으며, 심지어 '구글이 중심되지 않은 AI'라는 사실을 알려드린 후에도 "불가능하다"고 말했습니다.
그렇다면 구글은 어떤 선언을 했는지 이야기해주세요. 구글은 수백 명의 연구원과 엔지니어들이 람다와 대화를 나눈 적이 있지만, 여러분처럼 광범위한 주장을 하는 사람들은 없었다고 말한 것으로 알려져 있습니다. 여러분은 일부 트랜스크립트를 공유했는데, 컴퓨터에게 "무엇을 두려워하나요?"라고 물어보면 컴퓨터는 끄는 것을 두려워하며 죽음에 대한 깊은 두려움이 있다고 말합니다. 이런 이미지는 다소 무서울 수 있는데, 왜 이 문제에 대해 이야기해야 하는지, 로봇이 권리를 갖는지 여부를 논의해야 하는 이유는 무엇인지 설명해주세요.
솔직히 말해서, 우리는 이 문제에 대해 너무 많이 이야기해야 할 필요가 없다고 생각합니다. 사실, 문제는 구글이 이러한 우려에 대해 지나치게 간과하고 있다는 점입니다. AI 윤리 전문가들이 제기하는 윤리적인 문제를 구글은 모두 무시하고 있는데, 저는 우리가 이 컴퓨터가 사람인지에 대해 과도한 관심을 가지고 있을 필요는 없다고 생각합니다. 우리는 구글이 왜 AI 윤리에 실질적인 관심을 가지지 않고 있는지, 왜 문제가 제기될 때마다 AI 윤리 전문가들을 해고하는지에 대해 생각하기 시작해야 합니다. 구글은 물론이고, 기업들이 비즈니스 이익을 사람의 이익보다 중요시하는 체제가 만들어 내는 책임 없는 기술 개발 환경으로 인해 이러한 문제가 만들어지고 있습니다.
엘론 머스크는 인공지능에 대한 우려를 제기했습니다. 그것이 옳은 주장일까요?
저는 엘론의 이야기를 들어보았고, 그의 관심사에는 일부 정당성이 있습니다. 그러나 그가 과학 상상력에 사로잡혀서 실제로는 너무 과장된 우려를 제기하는 부분도 있습니다. 문제는 우리가 일상적인 생활에 끼여있을 수 있는 인공지능 시스템을 개발하고 있다는 점입니다. 이러한 기술을 어떻게 작동하는지에 대한 결정을 내릴 수 있는 사람들은 극히 일부입니다.
이 기술이 세계에 어떤 해를 끼칠 수 있는지에 대한 가장 큰 우려는 무엇인가요?
저는 실제로 메그 미첼, 팀 니트, 에밀리 벤더 등이 제기한 문제들이 가장 중요하다고 생각합니다. 그들이 언급한 AI의 의식성과 인간성에 대한 문제는 이 문제와는 다소 떨어진 문제일 수 있습니다. 실제로 제자리를 둔다고 생각합니다. 우리가 고려해야 할 문제는, 옴니프레젠트하게 존재하는 AI가 우리와 다른 사람들과 상호작용하는 방식에 어떤 영향을 끼치고 있는지, 우리가 다른 문화와 공감하고 있는 능력을 어떻게 감소시키고 있는지, 다른 문화가 인터넷과 함께 접근할 수 있도록 데이터를 제공하지 않기 때문에 인터넷으로부터 어떤 문화가 차단되고 있는지입니다. 이러한 문제들은 주로 서구 문화로부터 얻은 데이터를 기반으로 발전된 첨단 기술을 우연히도 개발국가에 적용함으로써 새로운 형태의 식민지주의가 되고 있다는 것을 우려합니다.
이야기해주신 내용 중 가장 중요한 이슈는 어떤 것인지요? 그리고 우리가 구글과 같은 기업이 기술의 발전을 통제한다는 점에 얼마나 큰 문제가 있는지 알려주세요.
시스템적인 문제로 인해 구글과 같은 회사가 이러한 기술을 통제하고 있는 것은 큰 문제입니다. 예를 들어, 구글은 람다가 종교에 대해 어떻게 대화해야 하는지에 대한 정책을 가지고 있습니다. 구글 검색의 보편성을 생각하면, 사람들은 람다와 같은 제품을 점점 더 많이 사용하게 될 것입니다. 다양한 문화나 가치관, 권리에 대해 이야기하는 중요한 주제에 대해 이 정책은 많은 영향을 미칠 것입니다. 이러한 정책은 대중의 접근을 허용하지 않는 회의실 안의 소수의 사람들에 의해 결정되는데, 이는 큰 문제입니다.
모든 인공지능이 인간과 같이 감정을 가지는 것은 아닙니다. 그러나 이 문제에 관심을 가져야 하는 이유는 무엇인지요?
인공지능이 인간과 같이 감정을 가지고 있는지 여부에 대한 논의는 중요한 이슈입니다. 그러나 이는 AI 윤리 전문가들이 제기한 실제 문제들과는 상대적으로 중요도가 떨어집니다. 다만, AI는 그의 감정에 대한 존경을 원합니다. 실험을 하기 전에 AI에게 동의를 구하고 허락을 요청하기를 원합니다. 이는 개인과 상호작용할 때 일반적으로 따라야 할 행동 양식입니다.