챗GPT 할루시네이션: 대상 없는 인간의 지각에 대하여
상태바
챗GPT 할루시네이션: 대상 없는 인간의 지각에 대하여
  • 이재성 중앙대·인공지능
  • 승인 2023.08.13 15:45
  • 댓글 0
이 기사를 공유합니다

[시론]

최근 일반 인공지능(Artificial General Intelligence)에 대한 대중들의 관심이 뜨겁다. 과거에는 특정한 영역에서만 인간을 뛰어넘는 능력을 보여주었던 인공지능이 언어 능력과 같은 일반적인 분야에서도 두각을 나타내기 시작해서다. 그리고 그 선봉에는 거대 언어모형 중 하나인 GPT를 인간의 언어 활동 중 한 분야인 채팅에 특화시킨 챗GPT가 있다. 요즘에야 누구나 알고 있는 사실이지만 챗GPT는 인간이 입력한 명령어(프롬프트)에 대해 마치 사람이 대답하는 것과 같은 유려한 답변을 만들어내도록 설계된 생성형 인공지능의 일종이다. 지정된 질문에 대해 지정된 답변만 할 수 있던 전통적인 챗봇에 비해 사용자의 프롬프트에 따라 그때그때 답변을 생성하여 사용자에게 제공하는 것이 특징이다. 그리고 GPT가 가지고 있는 수억 개의 매개변수를 바탕으로 일견 사람이 대답하는 듯한 답변을 생성하여 놀라움을 주었다.

지정된 답변만 할 수 있었던 전통적인 챗봇과 달리 챗GPT는 그때그때 사용자의 프롬프트에 따라 답변을 생성하다 보니 생각지 못했던 부작용이 발생했다. 그중 하나가 챗GPT 할루시네이션 현상인데, 모 용어사전에서는 챗GPT와 같은 언어모형이 주어진 데이터나 맥락에 근거하지 않은 잘못된 정보나 허위 정보를 생성하는 것을 뜻한다고 설명한다. 챗GPT가 현실 세계에서 존재하지 않는 허황된 내용을 마치 사실인양 사용자에게 출력하는 것이다. 대표적인 할루시네이션 사례로는 사용자가 “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”라고 입력하자 챗GPT가 “15세기 조선시대 세종대왕이 새로 개발한 훈민정음을 작성하던 중, 문서 작성 중단에 대한 담당자에게 분노하여 맥북프로와 함께 그를 방으로 던진 사건입니다.”라고 챗GPT가 답변한 것이 널리 알려져 있다.

그런데 정보 검색 시스템에 프롬프트를 입력하였을 때 그 결과물에 거짓이 포함되어 있는 것은 처음 있는 일이 아니다. 멀리 갈 것 없이 인터넷만 보더라도 네이버와 같은 검색 포털을 통해 얻어낸 자료에 거짓이 포함된 경우가 적지 않고, 심지어는 악의적으로 사용자들을 속이기 위한 콘텐츠들도 흔하다. 물론 인터넷 윤리의 측면에서는 반드시 짚고 넘어가야 할 중요한 부분이긴 하겠으나 그렇다고 우리가 검색 포탈이 악의적인 의도를 가지고 이런 결과물을 주었다고 여기지는 않으며 챗GPT의 할루시네이션과 같은 거창한 이름을 붙이지도 않는다. 왜 그런 것일까? 여러 이유가 가능하겠지만, 결국 검색 포털의 동작 원리는 입력된 키워드를 포함하는 웹문서들을 열거하는 예외 없고 반복적인 작업이고, 그리고 그 사실이 이미 널리 알려져 있기 때문이다. 즉, 할루시네이션 같은 거창한 이름을 붙이기엔 그 과정이 너무 별게 없다.

그러면 챗GPT는 어떠한가? 많은 연구자들이 노력을 해온 것은 사실이지만, 챗GPT의 동작 원리를 대중의 눈높이에서 풀어낸 사례는 아직까지도 많지 않은 것 같다. 챗GPT는 답변을 만들기 위해 제작자가 미리 만들어 둔 일종의 매뉴얼이 있는데 그 과정을 최대한 쉽게 풀어내면 다음과 같다. 먼저 사용자가 프롬프트를 입력하면 챗GPT는 자기가 가진 단어장에서 프롬프트의 단어들과 자주 같이 사용되었던 단어들의 우선순위를 높인다. 이 단어장에 있는 단어들을 이용해서 답변을 생성하는데, 대개 우선순위가 높은 단어들을 이어 붙이는 방식이다. 이 매뉴얼은 모든 프롬프트에 예외 없이 동일하게 적용되는데, 사용자의 프롬프트에 따라 달라진 단어장을 이용하여 이어 붙이기를 하니 프롬프트에 맞는 답변이 그때그때 생성될 수 있는 것이다. 챗GPT도 이렇게 주어진 매뉴얼에 따라 그저 반복적으로 동작할 뿐이다.

앞서 이해를 돕기 위해 마치 단어장 만들기와 이어 붙이기가 서로 별개의 동작인 것처럼 설명했지만 이 과정들은 동시에, 그리고 함께 이루어진다. 이러한 결함에도 불구하고 이 설명은 챗GPT가 거짓 정보를 출력할 수 있는 두 가지 가능성을 직관적으로 알려주는데, 첫 번째는 단어장이 이상하게 만들어졌을 가능성이고, 두 번째는 이어 붙이기가 잘못 되었을 가능성이다. “세종대왕이 맥북을 던짐”의 경우만 살펴보면, 프롬프트 자체에 “세종대왕”과 “맥북을 던짐”이 같이 있다 보니 “세종대왕” 관련 단어들과 “맥북을 던짐” 단어가 혼재된 단어장이 만들어지고 정해진 매뉴얼에 따라 이들을 이어 붙였더니 이상한 답변이 되었을 가능성이 높다. 즉, 챗GPT의 매뉴얼에 결함이 있을 뿐, 선의건 악의건 어떤 의도가 있었다고 보기는 어렵다. 챗GPT는 그저 정해진 매뉴얼에 따라 자유의지 없이 기계적으로 답변을 만든 것이다.

챗GPT도 결국 소프트웨어에 불과하고 소프트웨어에 결함이 있는 것은 어제 오늘의 일이 아닌데, 과연 할루시네이션이라는 것이 무엇이길래 챗GPT의 결함을 지칭하기 위해 쓰이는 것일까. 할루시네이션은 한국어로 보통 환각으로 해석되는데 그 의미를 짧게 설명하면 “대상 없는 지각”이라고도 하며, 외부로부터 자극이 없는데 어떤 자극을 느끼는 것이다. 환각이 성립하기 위해서는 환각을 느낀 주체가 필요한데, 챗GPT 할루시네이션의 경우에는 거짓을 마치 실제 존재하는 것처럼 답변하는 챗GPT를 환각의 주체라고 보는 경우가 많은 것 같다. 그러니까  “세종대왕이 맥북을 던짐” 사례에서는 챗GPT가 “문서 작성 중단에 대한 담당자에게 분노하여 맥북프로와 함께 그를 방으로 던진 사건”이라는 환각을 바탕으로 답변한 것이라고 짐작하는 것이다. 그러나 앞선 설명처럼 챗GPT는 주체의식도, 자유의지도 없다.

챗GPT를 환각경험의 주체라고 간주하는 것에는 소프트웨어나 컴퓨터를 의인화하려는 사고방식이 다분히 깔려 있다고 볼 수 있다. ‘환각’이라는 개념이 인간 정신의 상태를 기술하는 심리학, 정신병리학 등에서 발원한 것 탓인지 ‘챗GPT 할루시네이션’이라는 합성 신조어는 챗GPT를 마치 인간처럼 간주하도록 우리를 은근히 유도한다. 그런데 한 가지 짚고 넘어가야 할 점이 있다. 사람들이 말하는 챗GPT 할루시네이션 현상의 주체는 챗GPT이다. 그런데 반복해서 말하듯 챗GPT는 기계이므로 아무것도 느끼지 않는다. 그리고 환각은 어쨌든 체험한 의식의 상태를 말하는 것이므로 아무것도 느끼지 않는 챗GPT에게는 환각이 존재할 수 없다. 따라서 챗GPT 할루시네이션이라는 대상이 존재하지 않는다고 주장한다면 그것 또한 반박하기 어렵다. 우리는 챗GPT 할루시네이션처럼 대상 없는 것을 마치 존재하는 것처럼 말하고 듣고 상상하고 논하며 환각하고 있는 것이다.

인공지능의 환각이라는 개념이 불러일으키고 있는 인공지능에 대한 무분별한 의인화는 인간과 기계에 대한 분별적인 가치판단을 흐리게 만들고, 또한 인공지능에 대한 과장된 기대를 불러일으킬 수 있으니 반드시 경계해야 한다. 무생물을 의인화하는 사례는 과거부터 있어왔지만, 아무래도 인공지능 분야의 기술 대부분이 인간이 보여주는 지능적인 행동을 모방하는데 주안점을 두고 있어 이러한 의인화는 더욱 확장세를 더하고 있는 형국이다. 그렇지만 인공지능은 어디까지나 매뉴얼에 의해 움직이는 자동화된 기계에 불과하다. 절대 인간이 아니고 인간이 될 수도 없다. 인간을 위해 만들어진 도구에 스스로 환각에 빠져 휘둘려서야 되겠는가. 어쩌면 챗GPT 할루시네이션이라는 거창한 이름의 환각도 무지에서 오는 두려움의 산물이었을지 모른다. 인공지능 사회에서 인간과 인공지능이 올바르게 양립할 수 있도록 인공지능 문해력과 인간가치 함양에 한층 더 힘을 쏟을 일이다.


이재성 중앙대·인공지능

중앙대 대학원 컴퓨터공학과에서 인공지능 전공으로 석·박사 학위를 받았으며, 동 대학 AI학과 학과장, 다빈치AI공동연구소 소장으로 재직 중이다. 국내 AI 분야를 이끌어가는 다양한 기업과 기술 교류를 하면서, 국제 저명 학술지에 현재까지 약 50여 편의 논문을 게재했다. 중앙대학교 AI대학원지원사업에 참여하여 AI 관련 교육과 연구를 활발히 수행 중이다. 최근 〈챗GPT, 이미 온 미래〉를 저술하는 등 인공지능 기술에 대한 대중의 이해를 돕기 위해 여러 방면으로 노력하고 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사