KAIST 김대식, 기계와의 대화를 시도하다
상태바
KAIST 김대식, 기계와의 대화를 시도하다
  • 이명아 기자
  • 승인 2023.03.26 13:52
  • 댓글 0
이 기사를 공유합니다

■ 챗GPT에게 묻는 인류의 미래: 김대식 교수와 생성인공지능과의 대화 | 김대식·챗GPT 지음 | 동아시아 | 348쪽

 

2022년 말, 출시와 동시에 전 세계를 충격과 혼란에 빠뜨린 챗GPT에게 KAIST 교수이자 뇌과학자인 김대식이 도전장을 내밀었다. 그러나 그가 챗GPT와 나눈 열두 개의 대화는 그야말로 놀라움 그 자체다. 1장에서 챗GPT가 자기 입으로 자신의 작동원리를 설명해주는 것을 시작으로, 사랑이나 정의, 죽음, 신 등 사람도 쉽게 이야기하기 어려운 형이상학적인 주제들에 대하여 온갖 자료를 바탕으로 한 폭넓은 논의를 이어나간다. 하지만 그보다 놀라운 것은 엄격한 윤리 기준하에서 두루뭉술하고 애매하게 얘기하도록 제한이 걸려 있는 것으로 보이는 챗GPT를 상대로 이야기를 끌어내는 저자의 기술이다.

프롤로그에서 에필로그까지, 책의 모든 콘텐츠를 챗GPT와 함께 만들어나가면서 저자는 계속해서 질문을 던지고, 부족한 부분을 찌르면서 이야기를 촉발시킨다. 흔히 사람 사이의 커뮤니케이션에는 ‘대화의 기술’이 필요하다고 하지만, 생성인공지능의 시대에 경쟁력을 확보하기 위해서 그보다 중요한 것은 ‘AI와 대화하는 기술’이라는 점을 직관적으로 보여준다. 이 책은 ‘인간 VS 기계’의 도식을 넘어, 어떻게 기계를 잘 활용하여 인간 지성의 지평을 넓혀나갈지를 선구적으로 보여주는 모범 사례다.

챗GPT가 선풍적인 인기를 끌면서 트위터, 페이스북, 레딧을 막론하고 전 세계의 온 인터넷 커뮤니티는 ‘챗GPT 놀이’에 빠져 있다. 단순히 자료를 정리·요약시키는 수준에서 자기소개서를 쓰게 하는 등 놀이 방법은 다양하다. 그런데 그중에서도 주목을 받는 것이 바로 ‘허구의 증명 찾기’ 놀이다. SNS를 중심으로 유행하는 이것은, 챗GPT에게 질문을 던지고 챗GPT가 내놓은 대답에서 틀린 부분이나 모순을 찾아내는 것이다. 특히 오답을 내놓는 사례 등을 공유하면서 챗GPT를 비롯한 AI가 제대로 쓰이려면 아직 한참 멀었다는 식으로 이야기하며 비웃곤 하는 것이다. 그러나 이런 챗GPT의 ‘한계’는 사실, 생성인공지능이나 GPT 모델의 특성에 대한 오해 혹은 몰이해에서 비롯한다.

사실 구글의 어프렌티스 바드가 오답을 내놓았다고 해서 실망하는 것 또한 마찬가지의 맥락이다. 생성인공지능이 ‘정답’을 내어놓기를 기대하는 것이다. 빅데이터로 학습한 결과니까 으레 ‘정답’을 내어놓겠지 하는 기대를 가지거나 당연히 정답을 내놓았을 것이라고 맹신하기도 한다. 그러나 이들이 ‘대화형’ 인공지능인 데는 이유가 있다. 챗GPT는 ‘강의형’ 인공지능도, ‘해결사’ 인공지능도 아니다. 이들은 답을 주지 않는다. 판단을 내리지도 않는다. 학습한 정보의 범위 내에서 주어진 문장의 맥락을 보고 다음에 나올 단어로 가장 ‘가능성이 높은’ 단어의 최적해(最適解)를 찾아 나간다. 그저 그뿐이다. 

그래서 챗GPT에게 질문할 때, 질문자는 한편으로 ‘어떤 질문을 해야 잘 질문하는 것인가’ 하는 시험대에 오르게 된다. 사람이 보기에는 같은 의미의 질문이라도 약간의 어휘 차이에 따라 인공지능이 받아들이는 값은 전혀 달라지기도 하고, 같은 질문을 던져도 조금씩 다른 답변을 주기도 한다. 이것이 우리가 챗GPT에게 ‘정답’을 요구하는 게 아니라 ‘대화’를 시도해야 하는 이유다. 저자는 책에서 챗GPT에게 다양한 질문을 던진다. 사랑, 정의, 죽음, 신, 기후위기…. 얼핏 봤을 때 “왜 이런 걸 인공지능에게 물어보지” 싶은 질문이지만, 그의 이런 질문은 단발성으로 끝나지 않는다. 질문과 답변이 꼬리에 꼬리를 물고 이어지면서, 챗GPT의 말하는 방식과 특성, 한계와 가능성이 선명하게 드러난다. 저자는 “챗GPT는 ○○○○다”라고 말하지 않는다. 애초에 이런 빈칸 맞추기는 그의 관심사가 아니다. 그는 이 대화 프로젝트를 통해 챗GPT를 위시한 생성인공지능의 작동 방식을 직관적으로 ‘보여준다’.

“사랑을 느끼기 위해서는 육체가 꼭 필요할까?” “사랑과 이와 관련된 신체 감각을 느끼는 능력은 신체를 가지고 있을 때만 가능하기 때문에 물리적 육체가 없는 객체의 경우에는 사람이 느끼는 것과 동일한 감각으로 사랑을 경험하는 건 불가능합니다.”

저자가 챗GPT와 나눈 대화의 한 대목이다. 사람이 사람에게 같은 질문을 했을 때는 어떤 대답이 돌아올까? 물론 사람과 상황에 따라 다르겠지만, 아무리 육체적 사랑을 중요시하는 사람이라도 면전에서 “그건 불가능하다”라고 대놓고 말하는 게 쉬운 일은 아닐 것이다. 그런데 이 어려운 일을 아무렇지도 않게 해내는 것이 바로 챗GPT다. 챗GPT는 인공‘지능’이지만 마음도 없고, 감정도 없다. 그저 주어진 데이터세트와 알고리즘에 따라서 입력값에 맞는 대답을 출력하는 언어 모델일 뿐이다. “앞으로 30년도 못 살 나를 위로해 달라”, “영원히 나를 기억해줄래?”라고 묻는 질문에 챗GPT는 무미건조하게 답변한다. “저는 죽음의 개념은 이해하겠지만 공감이나 연민과 같은 감정을 경험할 능력은 없습니다”, “제가 학습 데이터에는 기한이 있으며, 사적인 방식으로 당신을 영원히 기억하는 것이 불가능합니다.”

아뿔싸! 말이야 바른 말이다. 챗GPT라는 언어 모델에게 ‘인간적인’ 반응을 기대할 수는 없다. 이 잠시간의 섭섭함을 이기고 나면, 챗GPT의 활용 가능성에 눈이 돌아간다. 챗GPT는 3,000억 개가 넘는 문장 토큰과 그 사이의 확률적 상호관계를 학습한 언어 모델이다. 질문에 포함된 단어들과 ‘확률적으로’ 가장 잘 ‘어울리는’ 문장을 즉각적으로 생성해낸다. 챗GPT가 학습한 것은 어느 개인의 사감이나 판단이 들어 있지 않은, 인류가 지금껏 인터넷에 모아온 온갖 문장과 생각의 모음이다. 우리는 약간의 노력만으로 그 어마어마한 보물창고에 접근할 수 있는 기회를 얻었다. 그것도 이 보물창고에 무엇이 들어 있는지 다 파악하고 있으면서, 원하는 것을 꺼내다 주는 기계 비서를 대동한 채 말이다.

저자는 챗GPT의 등장을 두고 “미래 생성인공지능 시대의 모습을 먼저 살짝 보여주는 티저”라는 평을 내린다. 지금은 많이 부족하고, 그 부족함 때문에 놀림감이 되기도 하지만, 동시에 이 기술이 순조롭게 발전하고 인간 지성과 기계가 결합되었을 때 얼마나 폭발적인 결과물을 만들어낼 것인지를 예감하게 만들기도 한다. 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사