인공지능, 영화가 묻고 철학이 답하다
상태바
인공지능, 영화가 묻고 철학이 답하다
  • 양선이 한국외국어대학교·철학
  • 승인 2022.02.28 01:03
  • 댓글 0
이 기사를 공유합니다

■ 저자에게 듣는다_ 『인공지능, 영화가 묻고 철학이 답하다: 4차 산업혁명 시대가 요구하는 상상력 개발을 위한 인문학 강의』 (양선이 지음, 바른북스, 196쪽, 2021. 12)

 

많은 SF영화에서 ‘인공지능은 인간과 공존 가능한가?’라는 질문을 던진다. 필자는 인공지능 영화 <엑스 마키나, 2015>, <그녀 Her, 2016>, <트렌센더스, 2014>, <바이센티니얼 맨 1999>, <아이, 로봇 2004>와 <마이너러티 리포트 2004> 그리고 영국 드라마 <휴먼스 2015~2018>를 선정하여 여기서 제기되는 철학적 질문에 대한 답을 시도한다. 


윤리적 인공지능의 가능성

이 책에서 필자는 미래에 인간과 공존할 윤리적 인공지능을 위한 이상적 모델을 제안한다. 윤리적 인공지능 설계 초기에 공학자들과 윤리학자들은 인공지능에 윤리적 규범을 프로그래밍하기 위해 구체적 윤리 이론을 인공지능에 주입하는 하향식 방법을 사용했다. 그러나 이러한 방법은 도덕적 딜레마에 부딪혔을 때 칸트의 의무론과 공리주의 원칙 중 인공지능이 어떤 윤리 규칙을 선택할 것인가를 두고 어려움에 봉착하게 된다. 왜냐하면, 주입하는 사람(공학자, 윤리학자)의 취향에 따라 공리주의를 선호하는 사람이 있을 수 있고, 의무론을 선호하는 사람이 있을 수 있는데, 프로그래밍하는 사람의 선호도에 따라 서로 다른 원리를 넣었을 때 인공지능은 과연 어느 쪽을 선호할까 하는 문제가 있기 때문이다. 또 공리주의 원칙과 의무론 원칙이 충돌하였을 때 인공지능이 어느 것을 따라야 할지에 대한 문제가 발생한다. 그래서 인간이 경험을 통해 윤리와 법을 배워 가듯이 인공지능의 윤리화도 경험적인 방법을 통해 가능하다고 본 상향식 방법을 도입했으나 이것도 상황마다 윤리적이라고 판단되는 기준이 달라진다는 문제점이 있다. 그렇다면 윤리적 인공지능을 만드는 데 필요한 도덕 원리를 따지는 것보다 도덕적 행위 주체로서 인공지능이 갖추어야 할 조건에 대해 논의하는 것이 더 필요하다. 

현재 학계에서 도덕적 행위 주체로서 인공지능이 갖추어야 할 조건으로 논의되는 첫 번째 조건은 인격을 가져야 한다는 것이다. 17세기 영국 철학자 존 로크에 따르면 인격은 자신이 한 일에 대해 기억할 수 있고 신체를 가진 존재에게 부여되는 것이다. 그래야 자신이 저지른 행동에 대한 책임을 지울 수 있기 때문이다. 인공지능에 책임 귀속이 중요한 이유는 인공지능이 가상 세계에만 머물러 있다면 가상 세계에서 책임을 지면 되지만 현실 세계에서 활동한다면 현실 세계에서 책임을 부담하는 것이 현실 세계 통제에 도움이 될 것이기 때문이다. 그러나 현재 사람에게 부여된 인격과 같은 인격을 인공지능에 부여할 수 없기에 대안으로 ‘전자인격’ 부여가 논의된다. 전자인격은 도덕적 대우와 관련된 인격의 의미가 아닌 법적인 책임을 부과하기 위한 인격이다. 

도덕적 행위 주체로서 인공지능이 갖추어야 할 조건으로 거론되는 두 번째는 자율성, 또는 자유의지를 가져야 한다는 것이다. 자유의지는 ‘달리 선택할 수 있는 힘’으로, 다른 길을 선택할 수 있었음에도 굳이 그 길을 선택한 것에 대해 책임 귀속을 하게 될 때이다. 

인공지능이 법적 인격과 달리 도덕적 인격을 가지기 위해서는 쾌·고 감수 능력이나 자아 정체성을 가지고 미래를 설계하는 능력이 필요하다고 주장하는 사람들도 있지만, 이는 인공지능이 아직 가지기 어려우며, 벤자민 리벳(Benjamin Libet 1916~2007)이 ‘자유의지’라는 것이 존재하지 않는다는 것을 실험(1970)을 통해 증명할 정도로 ‘자유의지’라는 것의 존재조차 확실하지가 않다. 이 책에서 필자는 대안으로 도덕 감정을 프로그래밍해야 한다고 주장하였다. 인공지능이 도덕 감정을 가질 수 있는지는 어려운 문제로 남아 있지만, 우리가 연구해야 할 과제임은 분명하다. 이 책의 전반에서 필자는 인공지능에 감정을 프로그래밍하는 데 필요한 감정 이론과 도덕 이론을 소개하고 있다. 

공학자들은 찰스 다윈의 제자 폴 에크먼의 얼굴표정 부호화 시스템(Facial Action Coding System, FACS)에 따라 감성로봇 구현을 시도하고 있다. 예를 들어, 소프트 뱅크의 ‘페퍼 로봇’의 경우 얼굴표정부호 시스템에 따라 기본적인 감정(화, 공포, 역겨움, 기쁨, 슬픔, 놀람)을 표현할 수 있다. 또한, 페퍼 로봇의 경우 플럿칙 ‘색상환 원리’에 따라 기본적인 감정을 섞어 ‘죄책감’ 같은 복잡한 도덕 감정을 표현할 수 있다고 한다. 이 책에서 필자는 강한 인공지능의 경우 인공지능이 어떻게 감정을 가질 수 있을지는 영화를 소개하며 독자의 상상력에 맡긴다.
    

도덕감정

도덕을 감정의 문제로 보면서도 도덕적 책임을 귀속시킬 가능성이 있다. 홉스처럼 의지는 행동으로 옮긴 ‘마지막 욕구’이고 자유는 신체가 구속되어 있지 않은 한 움직일 수 있는 것이라고 보면서도 행위자의 행동에 대해 사회 구성원들의 ‘칭찬’ 또는 ‘비난’이라는 공감적 반응을 통해 도덕적 책임을 귀속시킬 수 있는 것이다. 

인공지능이 도덕적 감정을 가질 수 있어야 한다는 말은 인간과 같이 공존할 수 있는 감정을 갖고 인간의 고통에 공감하면서 같이 살아가는 주체가 되어야 한다는 말이다. 뇌 과학자인 안토니오 다마지오(Antonio Damasio)의 뇌 과학 연구나 조슈아 그린(Joshua Green)의 도덕적 뇌에 관한 연구에 따르면 도덕적인 행동을 위해서는 정서적인 뇌가 작동해야 하고 행위의 동기가 되는 것이 이성이라기보다 ‘감정’이라는 것을 알 수 있다.

인간은 삶의 과정에서 배우고, 고치면서 감정의 ‘적절성’을 깨달아 간다. 미래에 등장할 인공지능 로봇이 인간과 공존하기 위해서는 인간과의 상호작용 속에서 사회적 관습과 자신의 역할과 관련된 기대를 알아야 할 필요가 있다. 다른 사람의 느낌에 공감하는 능력은 사람들이 상호작용하는 많은 상황에서 도덕적 판단과 분별 있는 행동을 위한 선결 조건이다. 도덕은 사회를 유지하는 데 필요한 것이고, 이를 위해서는 선한 행동이 필요하며 이러한 행동은 다른 사람의 의도와 필요에 대한 ‘민감성(sensitivity)’ 때문에 가능하다. 이를 위해서는 공감이 중요하다.

공감하는 것이 불가능한 존재는 도덕적 추론을 시작하는 것조차 힘들기 때문에 도덕적 주체가 되기 위해서는 도덕 감정을 내포해야 한다. 안토니오 다마지오는 그의 환자들의 실험에서 비도덕적, 비사회적 행동의 근거를 감정 뇌에 문제가 있는 경우임을 밝혔다. 조너던 하이트(Jonathan Haidt)는 그의 논문 「감정적 개와 이성적 꼬리」에서 도덕적 행동의 동기가 직관(직감)이며 추론은 후에 그것의 정당화 작업에 필요하다고 주장하였다. 조수아 그린은 ‘이중과정 이론’에서 트롤리 딜레마와 달리 자신이 도덕적 행동에 직접 개입하는 육교 딜레마의 경우 도덕적 행동은 ‘죄책감’과 ‘동정심’과 같은 정서와 관련된 뇌가 활성화됨을 밝혔다. 

따라서 인간과 공존 가능한 인공지능을 만들기 위해서는 도덕 감정을 가질 수 있도록 설계해야 한다. 감정을 느낄 수 있는 인공지능을 만드는 것이 가능하려면 감정의 적절성을 깨달을 수 있게 프로그래밍해야 한다. 예를 들어, 웃기는 상황에 대해 웃는 반응을 하는 것과 상황에 따라 웃는 것과 웃어서는 안 되는 것을 구별할 수 있도록 교육해야 한다. 무엇이 어떤 감정을 도덕적으로 만드는가는 그와 같은 감정을 가진 인간이 평가해 가는 실천적 삶의 역사에 달려 있다. 이것은 영화 <아이, 로봇>(윌 스미스 주연, 2004)에서 인공지능 로봇 ‘써니’가 스누프 형사에게 ‘윙크’의 의미가 무엇이냐고 물었듯이 윙크의 의미가 인간 간의 유대감, 신뢰감을 표시하는 방법이라는 것도 우리가 삶을 통해 배워서 알게 되는 것이다. 이렇듯 감정은 그렇게 느끼는 것이 그 상황, 그리고 그 맥락, 그 문화 속에서 적절할 수도 있고 그렇지 않을 수도 있다. 서로 다른 문화 속에서 우리는 서로 다른 웃김, 역겨움, 창피함 등등을 발견한다. 공동체가 공유하는 감정과 판단에 의해 부과된 사회적 강제를 통해 우리는 반성과 숙고를 하게 되고 서로 다른 공동체가 공유한 서로 다른 역사가 수치심에 대한 서로 다른 기준을 확립한다.


도덕적 책임: 반응적 태도와 사회적 관행

우리가 어떤 행위자에게 책임을 귀속시키는 직접적인 근거는 그가 ‘달리 선택할 수 있는 힘(능력)’으로서 자유의지를 가졌기 때문이 아니라 그의 행위와 그에 대한 동료 행위자의 반응적 태도(reactive attitude) 때문이다. 그리고 그의 행위가 다른 사람에게 반응적 감정을 불러일으킬 만한 행위인지 아닌지는 그와 그의 상대가 공유한 상호작용적 관계와 그에 따라 서로에게 가지는 기대에 달려 있다. 그렇다면 이와 같은 상호작용적 관계는 어떤 식으로 맺어지는가? 이러한 관계는 ‘관행’을 통해 구성된다. 다시 말하면 책임 귀속은 자유의지 문제라기보다 서로에게 책임을 묻는 ‘관행’과 그에 따른 사람들의 ‘감정’의 문제와 관련된다는 것이다. 그렇다면 한 사회 내에서 책임을 질 수 있는 행위자는 분노, 감사, 분개, 비난, 용서와 같은 반응적 태도의 주체이자 대상이다. 반응적 태도의 친근한 예로는 우리가 온라인상에서 사용하는 이모티콘들이 있다. 물론 이와 같은 관행은 변화 가능하기 때문에 그러한 변화를 학습하는 것도 가능하다. 책임 귀속을 관행 속에서 유동적으로 변하는 일종의 맥락으로 보는 이러한 입장은 자율성, 과거 지향성을 강조하는 기존의 책임 개념에서 벗어나서 도덕적 능력이 작동하는 방식을 잘 설명할 수 있다. 

행위자의 행위에 대한 도덕적 책임 귀속이 사회적 관행과 우리의 경험에 의존한다는 생각은 인공지능이 한 행동에 대한 책임 귀속을 위한 길을 열어 준다. 예를 들어 자율주행차가 위험 상황에 직면했을 때 내린 결정에 대한 책임 귀속은 공리주의적으로 또는 의무론적으로 판단하여 귀속시킬 수 있는 것이 아니라 사회적 관행에 따라 ‘분산된 책임’이 가능하다. 분산된 책임이란 플로리디(Floridi 2013, 2016)가 제안한 것으로 인공지능이 도덕적, 법적 문제를 일으켰을 때의 책임을 분산된 행위자 모두에게 귀속시키는 것을 말한다. 예를 들어 자율주행차가 사람을 치었을 경우에 자동차의 기계적인 시스템 제작자나 도로에서 자율주행 자동차의 운행을 허가한 정부의 교통정책 입안자 등 인공지능의 개발과 활용에 개입한 모두에게 얼마만큼의 책임을 할당해야 하는지 복잡한 문제가 있지만 어쨌든 한 행위자에게만 책임이 돌아가는 것이 아니라 여럿에게 분산된다는 것이 중요하다. 

이 책에서 필자는 책임 귀속은 자유의지나 자율성에 따른 선택에 귀속되는 것이라기보다 서로에게 책임을 묻는 관행과 그에 따른 사람들의 감정의 문제라고 주장했다. 즉 책임은 인간이 사회를 이루며 살면서 서로에게 반응하며 기대하게 된, 일종의 태도로서 사회적 관행이다. 필자는 반응적 태도 이론은 자율성을 논증해야 할 부담에서 벗어나서 상호적이지 않은 관계에서도 적용된다는 점에서 인공지능의 도덕적 책임 문제를 논의하는 데 적절한 이론이라고 주장하였다. 즉 인간과 인공지능의 관계에서도 적용될 수 있는 이론이다.

 

양선이 한국외국어대학교·철학

영국 더럼 대학교(Durham University) 철학과에서 철학 박사학위를 받았으며, 현재 한국외국어대학교 미네르바 교양대 교수로 재직 중이다. 서울대학교 철학과 BK 철학교육연구사업단 교수, 서양근대철학회 회장을 역임했다. 영국경험론(흄), 심리철학(감정), 윤리학(메타) 전문가이며, 주요 저서로는 『서양근대 윤리학』(공저), 『마음과 철학』(공저), 『서양근대 미학』(공저), 『서양근대 교육철학』 외 다수가 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사