공공분야 챗GPT 활용에 따른 학습 데이터 오염과 “할루시네이션(환각)” 개선 방안
상태바
공공분야 챗GPT 활용에 따른 학습 데이터 오염과 “할루시네이션(환각)” 개선 방안
  • 고현석 기자
  • 승인 2023.05.21 05:29
  • 댓글 0
이 기사를 공유합니다

[KIPA 이슈 페이퍼]

 

챗GPT 같은 인공지능 기술이 세간의 이목을 끌면서 공공분야에서도 이를 활용하기 위한 다양한 방안을 모색하고 있다. 인공지능이 습득한 정보를 활용하기 위해 가장 중요한 것은 사실에 기반한 정보 전달인데, 대화형 인공지능인 챗GPT가 편향・왜곡・오염된 데이터를 이용해 ‘사실처럼 그럴듯해 보이는’ 허위 정보를 제공할 경우, 막대한 사회적 비용은 물론 국민의 생명과 안전을 위협하는 요인이 될 수 있다. 

이에 한국행정연구원은 챗GPT가 활용하는 학습 데이터의 편향 및 '할루시네이션(환각)'을 식별하기 위한 대응 방안을 모색하는 이슈페이퍼 124호 〈공공분야 챗GPT 활용에 따른 학습 데이터 오염과 “할루시네이션(환각)” 개선 방안〉(저자: 한윤수 책임행정원·류현숙 선임연구위원)을 최근 발간했다.

현 정부는 최근 발표한 디지털플랫폼정부 실현계획의 기본 원칙으로 국민중심, 하나의 정부, 인공지능・데이터 기반, 민관협력을 공표했고, 이러한 원칙을 실현하기 위한 공통요인으로 초거대 AI 활용 인프라 구축 방안 제시했다. 또한 최근 행정안전부(‘23.05.08)는 ‘챗GPT 활용방법 및 주의사항 안내’ 지침을 배포하면서 다양한 형태의 데이터 오염과 환각에 대한 주의를 당부한 바 있다.

챗GPT는 학습된 데이터 조합을 통해 언어모델을 기반으로 인간과 유사한 대화를 ‘생성’하므로 데이터 오염 및 환각의 취약성이 존재한다. 따라서 디지털 플랫폼 정부의 다양한 공공분야에서 챗GPT를 신뢰할 수 있고 안전하게 활용될 수 있도록 하기 위해서는 단순 업무에 활용할 수 있는 공개문서작성, 요약 등에 활용하고, 반드시 생성된 정보는 해당 분야 전문가가 직접 사실확인(human-in-the-loop)을 하는 과정이 필수적이라고 필자들은 제언했다.

 

◇ 이슈페이퍼의 주요 내용은 다음과 같다

■ 챗GPT 확산에 따른 데이터 신뢰성 이슈

▶ 챗GPT라는 ‘초거대 AI’ 등장과 함께 전 세계적 열풍

• 2020년 6월 OpenAI가 발표한 GPT-3기반 대화형 인공지능 언어모델인 챗GPT는 출시 두 달 만에 1억 사용자를 돌파하며 다양한 분야에 활용되면서 세계적으로 주목받고 있음.
• 챗GPT는 생성형(Generative) AI의 대표적 모델인 GPT(Generative Pre-trained Transformer)에 대화형 챗봇(챗bot)을 접목한 기술임.

▶ 데이터 ‘할루시네이션(hallucination・환각)’과 데이터 오염 문제 대두

• 자동회귀 언어모델(Auto Regressive-LLM)을 기반으로 한 인공지능의 환각 현상(hallucination)에 따른 챗GPT 생성물에 대한 신뢰 저하
- 자동회귀 언어모델(AR-LLM)은 주어진 문장의 단어 다음에 올 단어를 자동으로 예측하는 확률적 언어모델로, 이전 시점의 단어 다음에 올 단어를 통계에 기반하여 가장 빈번하게 나왔던 단어를 나열하여 문장을 완성. 
- 인공지능이 잘못된 정보의 데이터를 학습하여 틀린 정보를 마치 맞는 정보인 것처럼 답변하는 현상을 ‘할루시네이션(hallucination・환각)’이라고 함
- 챗GPT가 신뢰할 수 없고 출처를 알 수 없는 잘못된 데이터를 학습하여 “논리적이고 사실처럼 보이는 허위 정보”를 제공하여 잘못된 의사결정으로 이어질 가능성이 커짐. 

• 최근 과학기술, 법률, 의료, 복지, 행정 등 다양한 분야에서 챗GPT를 활용하고 있으나, 부정확하고 편향된 데이터 오염으로 잘못된 정보 유통 가능성도 커짐
- 생성형 AI가 사실을 잘못 해석하거나 편향된 데이터, 부정확한 데이터로 학습・훈련될 경우, 가짜뉴스, 허위 정보, 유해한 콘텐츠 등의 오염된 데이터를 재생산할 위험 역시 급증
- 데이터오염(data pollution)은 ‘부정확하거나 손상 또는 유해한 데이터로 디지털 생태계에 유출되면서 산업 폐기물 처럼 디지털 환경을 오염시키는 데이터를 뜻함’.4
- 상황에 대한 이해 부족, 훈련 데이터의 오류, 편향성 등을 그대로 반영하고, 2021년까지 생성된 데이터만 학습해 최신 정보는 알지 못하는 등 단점 노정

• 또한, 챗GPT는 학습과 종합 추론으로 문장이나 언어 표현을 ‘창작’할 수 있는 능력은 있으나, 입력된 학습데이터 기반으로만 답변을 생성할 수 있고, 학습데이터 출처가 명확하지 않아 챗GPT가 제공하는 정보에만 의존하는 것은 단기적으로 위험할 뿐만 아니라 장기적으로 지식 생태계를 오염시킬 수 있음.
- 유행성 콘텐츠 분별력도 이전 모델과 비교해 향상되었으나 여전히 완벽하지 않고, 악성코드 생성, 프로그래밍 언어 변환, 개인 정보침해 등의 윤리적 이슈는 물론, 챗GPT를 악용한 사이버공격 등으로 보안업계도 위협하고 있음.
- 인터넷 등에서 시시각각으로 재생산되는 질 낮은 데이터, 허위 데이터, 편향 데이터 등의 데이터오염은 ‘그럴듯한 답변’인 데이터 환각(Hallucination)으로 이어져 챗GPT의 신뢰도를 잠식하는 등의 문제 초래


■ 데이터 오염과 환각 발생의 피해

▶ 개발자의 의도적 행위나 기술적 오류 등에 의해 데이터 오염과 환각 발생

▶ 데이터 오염과 환각에 의한 각종 피해 발생

• AI 시스템에 대한 신뢰 저하를 초래해 다양한 영역에서 도입과 활용을 방해
• 데이터 오염 및 환각에 노출된 챗GPT 생성물은 잠재적으로 유행한 고정관념이나 편견, 잘못된 허위 정보를 유통시켜 윤리적 문제 초래
• AI 시스템은 금융, 의료, 법률, 복지, 과학기술, 행정 등 다양한 분야에서 중요한 의사 결정을 위한 자료 생성과 분석에 활용되는데 이러한 데이터오염과 환각은 잘못된 의사결정과 선택으로 이어져 막대한 사회적 비용을 초래할 수 있음.
• 부정확하거나 오해의 소지가 있는 챗GPT 생성물은 AI 개발자는 물론 사용자를 잠재적인 법적 책임과 분쟁에 노출시킬 수도 있음.

 

■ 데이터 오염과 환각 현상 탐지 기술

▶ 데이터 오염과 환각 탐지 및 보완 기술 연구와 개발 지연

• 챗GPT로 생성한 정보들의 진위 또는 사실 여부를 감지할 수 있는 수단이나 방법이 필요하나 현재 이와 관련한 연구와 개발은 지연
• 최근 미국 프린스턴대학교 Edward Tian이 에세이가 챗GPT가 작성한 것인지 사람이 쓴 것인지를 감지하고, 챗GPT의 데이터 오염과 환각을 탐지하고 표절 여부를 확인할 수 있는 ‘GPTZero’ 도구 개발
• 한편, 일부 개발자들은 챗GPT의 ‘환각’ 문제를 해결하기 위한 도구, ‘Autonomous Articlebot’ 일종의 팩트체크 프로그램인 진실 감별기 개발
• 따라서 향후 생성형 AI 개발사들은 챗GPT의 데이터오염과 환각을 탐지하는 기술개발과 함께 GPT가 생성한 정보의 정확도와 신뢰성을 정기적으로 평가하고 이에 따른 정책과 조치 마련 필요.


■ 공공 부문 챗GPT 활용과 개선방안

▶ 공공부문 챗GPT 도입 확대 및 ‘정부용 초거대 챗GPT’ 개발 발표

• 최근 정부 부처를 포함한 공공영역에서도 챗GPT를 활용하는 방법을 앞다투어 다각적으로 모색 중. 특히, 행정 현장에서 일하는 방식의 변화와 행정 효율성을 제고하고, 국민 편의를 증진하는 업무에 접목할 수 있는 다각적 방안들이 제시되고 있음.

• 지난 4월 14일 디지털플랫폼정부위원회는 “정부용 챗GPT” 구축을 표방, 이를 위해 부처별 보관하고 있는 데이터를 활용하도록 만들고, 데이터 활용과정에서 개인정보 침해 사고 예방을 위한 기준 마련 발표
• 민간영역과 달리, 정부 부처의 정책이나 행정 서비스의 핵심은 ‘신뢰’이고, 이러한 신뢰를 토대로 한 정부 정책에 대한 대국민 수용성이라고 할 수 있음. 그러나 현재 챗GPT가 생성하는 자료나 답변에는 다양한 형태의 허위 정보나 부정확한 데이터, 그리고 오염된 데이터로 ‘그럴듯하게 만든’ 자료들이 많고, 단기 시일 내에 정보와 지식 생태계에 이러한 데이터 환각 현상이 국경을 초월해 확대 재생산될 위험이 큼. 

▶ 공공 부문 챗GPT 도입 확산에 따른 데이터 품질 제고 개선방안

• 챗GPT 데이터 오류와 환각 탐지 기술개발과 연구지원 투자 확대: 인공지능 스스로 학습용 데이터에 대한 정합성과 무결성을 자가 검증하고 잘못된 정보를 스스로 교정하고 제공한 정보에 대한 출처나 관련 자료를 함께 제시할 수 있는 기술 개발과 관련 연구 투자 필요. 

• 한국형 챗GPT 모델개발과 한국어 데이터셋 구축: 챗GPT는 학습한 데이터가 대부분으로 영어 데이터이므로 한국어 구사는 다소 부족. 이에 공공과 민간이 협력하여 한국어로 자연스럽게 문장 구사가 가능한 한국형 챗GPT 모델 개발이 시급. 

• 챗GPT 학습용 데이터 품질관리 방안: 챗GPT와 같은 인공지능 학습용 데이터 생성부터 활용까지 전주기에 따라 단계별 품질관리를 통해 한국형 챗GPT의 학습용 데이터의 신뢰성, 정확성, 유효성을 확보하여야 함.

• 챗GPT 신뢰성 확보를 위한 전문가 검증 시스템: 학습과정에서 발생하는 챗GPT 오류 탐지를 위한 다양한 분야의 전문가 검증 시스템과 사용자의 평가 시스템 필요

• 챗GPT 학습용 데이터 전주기 모니터링: 인공지능 학습용 데이터의 생애주기는 계획, 구축, 운영, 활용으로 분류되며 전주기를 통해 품질 관리의 대상과 범위를 명확히 정의하여 그에 맞는 품질관리를 수행하여야 함


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사