〈AI는 양심이 없다〉 어떻게 집필하게 되었나?
상태바
〈AI는 양심이 없다〉 어떻게 집필하게 되었나?
  • 김명주 서울여자대학교·정보보호학과
  • 승인 2022.06.26 21:37
  • 댓글 0
이 기사를 공유합니다

■ 책을 말하다_ 『AI는 양심이 없다: 인간의 죽음, 존재, 신뢰를 흔드는 인공지능 바로 보기』 (김명주 지음, 헤이북스, 336쪽, 2022.05)

 

2022년 6월 중순. 구글이 개발 중인 초대형 인공지능 챗봇 ‘람다 2’가 글로벌 뉴스의 중심에 등장했다. 이 인공지능 람다 LaMDA가 과연 사람처럼 ‘인지 능력’을 보유하고 있는지에 대한 논란이 벌어진 것이다. 광범위한 소재로 인공지능 람다와 숱하게 대화를 진행해가면서 hate speech와 같은 문제성 발언을 하지 않는지를 점검하는 전담팀에 소속하여 일해 온 수석 엔지니어 ‘블레이크 르모인’이 이 논란에 불을 지폈다. 상당 기간 경험해 본 바에 의하면, 인공지능 람다는 분명히 ‘인지 능력’이 있으며 심지어 ‘영혼’도 있을 뿐만 아니라 ‘자의식’도 있다고 그는 확신했다. 이러한 주장을 르모인은 구글 경영진에게 보고했다. 구글은 윤리학자를 포함한 전문위원회의 자문을 거쳐 그의 이러한 주장이 잘못되었다는 결론을 내렸다. 그는 이에 불응하여 변호사를 고용했고 구글이 인공지능을 비인간적으로 다룬다며 미국 의회에 호소하기에 이르렀다. 그러자 구글은 회사 기밀 유지 정책을 위반했다며 르모인을 강제휴직 조치함으로써 글로벌 뉴스의 중심에 섰다.

많은 인공지능 전문가들은 르모인이 람다를 직접 개발한 인공지능 전문가가 아니라 인공지능 이용자 시각에서 접근해온 일반 엔지니어로서 일으킨 착각이며 정서적 오류라고 사건의 원인을 진단했다. 2013년의 SF 로맨스 영화 ‘그녀 Her’에서 인공지능 운영체제 ‘사만다’와 사랑에 빠진 대필작가 ‘테오도르’라는 주인공에 르모인을 빗대기도 했다. 람다는 엄청난 개수의 문장 데이터를 학습한 후, 인간의 대화 유형을 모방하여 동작하는 인공지능이 분명하다. 이것은 객관적인 사실이다. 그렇기에 이러한 인공지능은 인지 능력도 없으며 영혼도 없다. 그리고 책 제목 <AI는 양심이 없다>처럼 양심도 없다. 

 

순다르 피차이 구글 최고경영자가 지난 달 구글 연례 개발자회의(I/O)에서 초거대 인공지능(AI) 대화형 언어 모델인 ‘람다2(LaMDA2)’를 소개하고 있다. /사진=구글

이렇게 명확하고 객관적인 결론에도 불구하고 르모인의 주장이 왜 사회적으로 큰 파장을 일으키는 것일까? 구글을 비롯한 많은 인공지능 전문가들의 적극적인 설명에도 불구하고, 구글이 일종의 노이즈 마케팅을 벌이는 중이며 르모인의 주장이 정말 맞을 수도 있다는 생각을 여전히 많은 사람이 하는 이유는 무엇일까? 이번 사건은 인공지능이 미치는 사회적 영향력과 윤리를 바라보는 시각이 사회 구성원의 입장에 따라 얼마나 극명하게 다를 수 있는지를 보여준다. 구글과 같은 인공지능 개발자나 사업자가 바라보는 인공지능 윤리 이슈는, 르모인을 대표로 하는 인공지능 이용자 또는 일반시민이 바라보는 인공지능 윤리 이슈와 확연하게 다르다. 이 점을 인공지능 개발자와 사업자들이 잘 모르거나 심지어 일부러 무시하는 것처럼 보인다. <AI는 양심이 없다>는 이러한 극명한 시각 차이를 극복해 보고자 시도한 책이다. 시간이 지날수록 인공지능 시대에 더 깊숙이 들어가면서 지금 우리가 무엇을 ‘먼저 그리고 중요하게’ 걱정하는 것이 옳은지 구체적으로 다루어보고자 했다.

2014년 ‘인공지능 캠브리지 핸드북’에서 옥스포드대 닉 보스트롬 교수가 ‘인공지능 윤리’라는 표현을 공식적으로 사용한 이래, 지금까지의 인공지능 윤리는 대부분 ‘개발자’ 중심의 윤리이었다. 어떻게 보면 당연한 접근이었다. 인공지능 기술은 그 이름만 들어서는 일반인들이 이해하기 힘든 신기술이다. 따라서 이를 개발하는 전문가들만이라도 먼저 윤리적으로 똑바로 서서 올바르게 인공지능을 개발할 경우, 장차 인공지능 때문에 발생할 수 있는 부작용과 역기능 그리고 사회적 문제는 크지 않을 것이라고 대부분 예상했는데 이는 다분히 상식적이다. 인류 모두에게 ‘선한 기술’을 만드는 것이 신기술 개발자들이 꿈꾸는 궁극적인 목표이긴 하지만, 실상은 늘 그렇지 못하다. 선하기까지는 못하더라도 ‘가치중립적인 기술’을 만드는 것만으로도 기술 개발자는 사회적 책무와 윤리의 부담에서 벗어날 수 있다고 생각해온 관례를 따른 과정이기도 했다. 어차피 어떤 기술이든 세상에 나온 후에 오용이나 악용 현상은 불가피하다. 기술 개발자가 그런 최악의 상황까지 예측하여 신기술을 계속 개발할지 말지를 결정할 수도 없는 노릇이며 그럴만한 힘이나 권력도 없다. 더구나 신기술이 가져올 경제적 이득과 새로운 기회는 이러한 윤리적 고민 과정을 일종의 사치라고 몰아세우는 상황도 적지 않다. 그냥 개발 시작 단계부터 개발자들이 최선을 다하여 윤리적 이슈를 고민하여 도출하고 이를 최소화하려고 노력했다는 것 자체만으로도 혹시나 있을 사회적 파장에 대한 일종의 면죄부이자 조커를 보유할 수 있기 때문이다. 

국제전기전자학회 IEEE가 2016년과 2017년 EADv1, EADv2라는 두 번의 갱신 작업을 거쳐 2019년 3월 공식적인 초판으로 발표한 ‘윤리적으로 조율된 설계 EAD Ethically Aligned Design’도 ‘개발자’를 위한 인공지능 윤리의 대표적인 사례이다. 2017년 1월 비영리단체 ‘생명의 미래 연구소 FLI Future of Life Institute’가 미국 캘리포니아 아실로마에서 인공지능 컨퍼런스를 개최한 바 있다. 이 컨퍼런스에 참석한 인공지능 전문가, 미래학자, 산학연 관련자들이 함께 서명하여 발표한 ‘아실로마 인공지능 23원칙 Asilomar AI Principles’ 역시 개발자 중심의 유명한 사례이다. 유럽연합을 비롯하여 많은 선진국 및 유수 학회가 지금까지 발표해온 다양한 인공지능 윤리 가이드라인 역시 시작 지점과 핵심 포인트를 ‘인공지능 개발자’에 초점을 맞추고 있다. 그리고 지금까지 해외 및 국내에 출간된 몇 안 되는 ‘인공지능 윤리’ 서적도 같은 시각에서 집필되었다. 

반면에 <AI는 양심이 없다>는 단순히 개발자의 시각에서만 인공지능 윤리를 접근하지 않는다. 일반 시민의 시각에서 최대한 사례 중심으로 인공지능 윤리를 풀어내려고 했다. 이 점이 지금까지의 인공지능 윤리나 서적들과의 가장 큰 차이점이다. 사실 저자 본인도 2016년부터 ‘Seoul PACT’ 지능정보사회 윤리라는 국내 최초의 인공지능 윤리를 개발하는 정부 산하 TFT 위원장을 3년간 맡은 경험이 있기에, 개발자 시각에서의 인공지능 윤리를 전개하는 접근법으로부터 완전히 자유롭지 못하다. 

그런데 최근 6년 넘게 인공지능 윤리 운동을 벌여오면서, 왜 이렇게도 이 인공지능 윤리 분야에 사회적 반응이 없고 자꾸 제자리에 맴돌며 동일한 이론단계를 답습하고 있는지 고민해왔다. 그러던 중 인공지능 윤리를 바라보는 시각이 개발자 입장에만 편중되어 있고, 인공지능 윤리가 소수의 전문가만의 리그이었음을 가장 큰 원인으로 깨닫게 되었다. 그래서 기존의 ‘인공지능 개발자’ 시각에서 완전히 방향을 바꾸어 ‘이용자’ 시각에서 인공지능 윤리를 재해석하면서 이 책을 집필했다. 이러한 배경 때문에 여전히 ‘개발자’를 위한 인공지능 윤리 지침도 소중하다는 생각은 버릴 수 없어서 집필 과정에서는 모두 포함하여 집필을 진행했다. 하지만 마지막 편집과정에서 독자들이 느낄 난이도 편차가 너무 커질까 봐 ‘인공지능 개발자를 위한 구체적인 지침과 관련 자료’는 결국 제외하고 초판을 출간하였다. 참고로 이 제외된 내용은 사회적 필요성이 생각보다 시급함을 고려하여 다음 판부터는 작은 ‘별책’ 형태로 독자들에게 무료 배포할 계획이다.

<AI는 양심이 없다>의 내용은 크게 4개의 장으로 구성된다. 1장부터 3장까지는 인공지능이 인간을 어떻게 흔들어대고 있는지를 주제별 및 사례별로 전개하고 있다. 그리고 마지막 4장에서는 이에 대한 윤리 원칙과 행동 지침을 구체적으로 제시하고 있다. 데이터와 알고리즘의 공정성 문제, 학습 데이터 안의 개인정보 보호 문제 등 개발자 중심의 ‘전통적인’ 인공지능 윤리 이슈는 후반부인 3장과 4장에서 주로 다룬다고 보면 된다. 특히 3장에서는 ‘신뢰’를 흔드는 인공지능을 중심으로 소개하고 있는데, 이는 유럽연합을 포함하여 많은 국가가 추구하는 공통된 목표 인공지능이라 할 수 있는 ‘신뢰할 수 있는 인공지능’과 흐름을 같이 한다. 즉, 인공지능 윤리의 글로벌 트렌드도 포괄하여 논의하고 있다.

앞선 1장과 2장에서는 기존의 인공지능 윤리에서는 거의 다루지 않은 이슈들을 다루고 있다. 주로 인간의 ‘죽음’과 ‘존재’ 문제에 인공지능이 어떤 혁신적인 변화를 일으키고 얼마나 큰 영향력을 끼치게 될지 소개한다. 2022년 6월 24일 글로벌 뉴스에 <숨진 가족 목소리 되살린다. 아마존 AI ‘알렉사’ 신기능 논란>이라는 제목의 기사가 많은 매체를 장식했다. 이처럼 죽은 사람이 인공지능으로 인하여 부활하며 인공지능을 이용하여 새로운 보이스 피싱 범죄도 가능하다는 이야기가 본문 중에 이미 예견되어 있다. 이외에도 인공지능 사회에서 곧 일어날 현상들이 다양하게 소개되고 있다. 고인이 된 유명인이 인공지능으로 부활하여 살아있는 자와 경쟁하는 새로운 고용사회가 곧 현실화 될 것이다. 존재하지 않은 존재인 ‘가상 인간’이 실존하는 인간을 대신하는 사회에 이미 우리는 진입하여 살고 있음도 강조한다. ‘AI 윤석렬’, ‘AI 이재명’은 시작에 불과하다. 영화 해리포터의 마술 학교 벽에 걸려있던 살아있는 초상화는 딥노스텔지어 인공지능 기술로 이미 구현할 수 있다. 죽은 자를 인공지능 챗봇으로 부활시키는 기술은 몇 년 전에 마이크로소프트사가 이미 특허로 출원하여 등록한 상태이다. 그럼에도 불구하고 구체적인 제품이나 서비스를 일부러 만들지 않고 기다리고 있다는 사실이 함의하는 바에 우리는 주목해야 한다. 

죽음과 존재의 문제는 매우 철학적이며 종교적일 수 있어서 사회적 합의는 고사하고 바라보는 시각 자체에 대한 상호 인정도 불편할 만큼 민감한 사안이다. 그래서 인공지능 윤리 이슈로 이들을 다루기는 매우 부담스럽다. 더구나 인공지능 이전의 다른 신기술에서 각자의 실용윤리를 다룰 때, 해당 기술로 인하여 인간의 죽음과 존재 자체가 흔들리며 도전을 받아본 경험이 없었다. 그렇기에 유독 인공지능 윤리에서만 이를 최초로 다루는 것에 대한 부담이 클 수밖에 없다. 특히 인공지능 개발자 입장에서 볼 때, 인공지능 개발 시작 단계에서부터 사회적 여파의 끝단에 벌어질 영향까지 미리 고려하기는 힘에 부친다. 더구나 사회적 합의도 거의 불가능한 이슈에 대한 에너지 소진은 더더욱 무의미할 수밖에 없다. 

그러나 일반 시민이 바라보는 인공지능 시대에 대한 걱정과 우려는 인공지능 개발자들이 이슈로 삼는 것들과 차원 및 내용이 크게 다른 것이 현실이다. 오히려 SF 영화에서나 나옴직한 인간의 죽음과 존재에 관한 윤리 이슈가 다수의 일반 시민에게는 더 큰 관심사이다. SF 영화에만 등장하는 디스토피아적 미래를 인공지능이 곧 초래할 것이라는 걱정은 한낱 기우에 불과하며, 더구나 특정 분야에서만 뛰어난 ‘약한 인공지능 ANI’라는 지금 수준의 기술에서는 전혀 일어나지 않을 미래 현상이라며 도외시해 왔다. 그러나 최근 10년 사이 인공지능 기술은 우리 생각보다 빠르며 광범위하게 발전했다. 그리고 지금의 약한 인공지능 기술 상황에서마저도 인간의 죽음과 존재를 흔드는 현상은 이미 심각하게 벌어지고 있다. 그래서 <AI는 양심이 없다>는 마음먹고 이를 앞서 1장과 2장에서 다루고 있다. 

인공지능은 미래 기술이 아니라 현재 기술이다. 인공지능 윤리는 개발자들만이 고민할 이슈가 아니라 사회 구성원 전체 특히 일반 시민들도 함께 고민할 이슈이다. 똑똑한 소비지가 똑똑한 제품과 서비스를 만든다는 소비자 운동의 효과는 인공지능 사회에 있어서도 여전히 유효하다. 그래서 인공지능 윤리는 개발자에게만 필요하지 않고 일반 시민에게도 동일하게 필요하다. 인공지능 개발자는 앞서 주어진 인공지능 윤리 개발지침에만 충실하지 말고 자신들이 개발할 인공지능 제품과 서비스가 우리 사회에 장차 어떤 영향을 끼칠 것인지, 그리고 이를 접하게 될 일반 시민들은 어떤 걱정을 하며 어떤 우려의 목소리를 내는지 미리 함께 고민해 봐야 한다. 몇몇 골치 아픈 윤리 이슈에 대하여 사회적 합의점에 도달하기 어려우므로 처음부터 논의하지 않는 것이 효과적인 것이 아니다. 오히려 사회적 합의점에 다다르기 힘든 이슈일수록 앞서 더 많이 공론화하고 논의의 층을 두껍게 해야 부작용과 역기능 그리고 사회적 비용을 최소화할 수 있다. 

그런 면에서 이 책 <AI는 양심이 없다>는 인공지능 개발자에게는 기존의 인공지능 윤리에만 메이지 않고 더욱 확장된 시각을 새롭게 부여할 것이다. 그리고 일반 시민에게는 이미 눈앞에 펼쳐진 인공지능 시대를 막연한 두려움과 걱정으로 수동적으로 대하기보다는 효과적으로 공존할 수 있는 지혜와 경험을 앞서 체험하게 해 줄 것이다. 아울러 인공지능 윤리에 관한 사회적 공론화 과정에 모두가 적극적으로 참여할 수 있도록 구체적인 생각거리와 윤리적 상상력을 제공해줄 것이다.


김명주 서울여자대학교·정보보호학과

서울대학교 컴퓨터공학과를 졸업한 후 같은 대학원에서 석사와 박사 학위를 받았다. 현재 서울여자대학교 교수로 재직 중이며 정보보호학과장·바른AI연구센터장을 맡고 있다. 2001년 수도권 최초로 서울여자대학교에 정보보호학과를 신설하고, 2014년 국내 최초로 교육부 지정 정보보호영재교육원도 설립했다. 2018년 국내 최초로 <인공지능 윤리 가이드라인 Seoul PACT>를 만든 공로로 근정포장 훈장을 받았다. ㈔한국인터넷윤리학회 회장을 역임했으며, 저서로는 <AI는 양심이 없다>, <지능정보사회와 AI 윤리>, <4차산업혁명시대의 인터넷윤리>가 있다. 최근에는 인공지능윤리정책포럼 위원, 디지털포용포럼 위원 활동을 통해 사회적 공론화 작업에도 힘쓰고 있다. 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사