인간과 AI, 공존을 위한 윤리와 법
상태바
인간과 AI, 공존을 위한 윤리와 법
  • 고현석 기자
  • 승인 2023.11.16 13:45
  • 댓글 0
이 기사를 공유합니다

- 2023년도 제6차 인문관통-제4회 NRC-KAIST 공동심포지엄 개최

 

경제·인문사회연구회(이하 NRC)는 NRC 인문정책특별위원회·KAIST 디지털인문사회과학센터·한국과학창의재단과 공동 주관으로 2023년도 제6차 인문관통(제4회 NRC-KAIST 공동심포지엄)을 세종국책연구단지 대강당에서 11월 14일(화) 개최했다. 

「인문관통」은 ‘인간과 문명을 직관적으로 통찰한다’는 취지로 NRC가 개최하는 인문학 특강 시리즈이다. NRC와 KAIST는 2022년부터 연 2회 NRC-KAIST 공동심포지엄을 개최하고 있다.

이번 공동심포지엄은 “인간과 AI, 공존을 위한 윤리와 법”이라는 주제로 김란우 교수(KAIST 디지털인문사회과학부)가 사회를 맡았으며, 전봉관 교수(KAIST 디지털인문사회과학센터장, NRC 인문정책특별위원회 위원)의 개회사와 NRC 정해구 이사장의 환영사로 시작하여 기조강연과 주제발표, 패널토의로 구성·진행되었다.
 
ㅇ 개회사에서 전봉관 교수는 ‘AI 시대 무엇이 윤리적인 것인지, 무엇이 착한 것인지’에 대한 논의에 기술 전문가 뿐만 아니라 인문학자의 역할이 있음을 강조하면서 AI의 윤리에 대한 문제는 어느 한 순간에 완료되는 것이 아니라 진동하는 개념으로 앞으로 이와 같은 심포지엄을 통해 지속적으로 논의가 되어야 하는 사항이라 말했다.
 
ㅇ 환영사에서 정해구 이사장은 인공지능 기술은 ChatGTP 출현 이후 1년 만에 윤리와 법의 문제를 논의해야 하는 수준으로 발전하고 있다면서, 자율성 비중이 높은 ‘교육’, 타율성의 비중이 높은 ‘규제’, 그 중간 지점의‘훈련’과 같이 인간에 적용되던 윤리와 법의 준수를 어떻게 AI에게 요구해야 하는지에 대한 방안이 이번 심포지엄을 통해 제안되기를 기대한다고 밝혔다.

□ 이후에는 김주호 교수(KAIST 전산학부)의 기조강연과 박도현 교수(광주과학기술원 AI 대학원), 이화란 박사(NAVER AI Lab)의 주제발표가 이어졌다.

▶ 김주호 교수는 “인간 중심 AI : AI가 범용 기술이 되기 위한 핵심 요소”라는 제목의 기조 강연에서 생산성과 효율성을 획기적으로 향상시키고 있는 AI가 이를 제대로 활용할 수 있는 법과 윤리가 준비되어 있지 않으면 범용 기술이 되기 어렵다고 전망했다. 

또한, 인간의 의도를 해석하는 AI의 가치에 대한 문제, 차별없는 일관된 경험을 제공하는 문제, 주도권의 문제를 ‘상호작용’과 ‘설계’, 그리고 ‘평가’와 같은 핵심요소를 통해 기술에서 사람으로 넘어가는 문제에 대한 해결을 할 수 있다 말했다. 

그리고 현재 AI 평가는 정확도와 같은 퍼포먼스에 대한 측정만을 위주로 하고 있지만 앞으로는 학습의 결과, 자기효능감 등 상호작용을 통한 성취, 실세계의 복잡한 가치 반영 여부 등 다양한 지표를 개발하고 검증하는 방법에 대한 연구가 필요하다는 의견을 피력했다. 

                박도현 교수

▶ “인공지능법의 현안과 과제”라는 주제 강연에서 박도현 교수는 인공지능의 윤리원칙이 과거 조직 내부의 자율 규제를 위한 공통의 언어 역할을 담당하다가 국제기구에서의 윤리원칙들이 발표된 이후로 현재는 자율 규제 수준을 넘어서는 경성 규제인 법 마련과 같은 패러다임 쉬프트를 맞이하고 있다고 사례를 통해 설명했다. 

더불어 현재 인공지능의 위험 분류에 대한 접근이 미국식과 유럽식이 다르다고 소개하면서 우리나라에서 발의 중인 법률 안은 양측의 모델을 융통성 있게 적용하여야 한다고 말했다. 

              이화란 박사

▶ 이어서 네이버 AI Lab 리더인 이화란 박사가 “책임감 있는 AI”라는 제목으로 주제 강연을 이어갔다. 이화란 박사는 생성형 인공지능의 실행 수단인 Large Language Model(LLM)을 소개하면서 실제 운영 중인 국내외 시스템에서 발현된 양상인 학습의 품질에 따른 폭력적, 편견적, 불법적 콘텐츠 생성 사례와 함께 산업계에서 이러한 위험한 행동에 대한 주의를 위해 시스템적인 처리 노력과 기업차원의 윤리정책을 마련한 사례를 함께 소개했다. 

또한 윤리적 행동 뿐 아니라 향후에는 논쟁적 질문, 정해진 윤리적 기준에 대한 질문, 미래를 예측하는 질문 등과 같은 민감 질문에 대한 고민을 해결하기 위한 노력도 필요하다고 주장했다.

□ 주제강연 후에는 김란우 교수의 사회로 문정욱 실장(정보통신정책연구원 지능정보사회정책연구실), 정한별 부연구위원(한국과학기술기획평가원 제도혁신센터)과 주제발표자 간 토론이 진행됐으며, 지정토론 후 자유로운 질의응답이 이어졌다. 

▶ 문정욱 실장은 인공지능 윤리 문제를 해결하기 위한 정책마련 경과를 소개했으며, 인공지능이 긍정적 편리성, 효율성, 생산성 등의 순기능도 있으나, 다양한 잠재적 위험의 상황에서의 정보 편향과 정보 환각, 저작권과 지적재산권 문제 등이 존재하는 상황에서 이해관계자가 많은 인공지능 윤리정책을 마련하는 데 산업의 보호와 이용자 보호가 공존하는 정책 개발이 쉽지않다고 말했다. 

더불어 진흥과 규제와 같은 이분법적 접근보다는 기술성숙도와 이용자 활용에 대한 균형잡힌 정책개발의 필요성에 대해서도 의견을 피력했다. 

▶ 정한별 부연구위원은 인공지능 기술이 모델에서 활용 단계로 진입하는 초기부터 윤리에 대한 고려가 있었다고 말하면서, 그러나 상호작용 방식에 따라 민간, 공공, 정부에 어떤 책임이 주어지는지에 대한 문제가 존재하고, 더불어 사회·경제적 네트워크를 고려한다면 이용자가 인지하고 있는 인공지능의 정도만큼의 윤리정책이 뒷받침 되어야 하는 문제가 있다는 의견을 제시했다. 

▶ 박도현 교수는 기존의 인간에게 요구되던 윤리와 법은 인간의 합의로 느슨하게 봉합되어도 인간의 의사결정 방법에 의해 설명이 가능하였으나 의사결정 체계가 다른 인공지능의 윤리에 대한 문제는 느슨하던 봉합을 명시적으로 정확하게 풀어내고 정의해야 하는 상황에 놓여 있다고 말했다. 

▶ 이화란 박사는 윤리는 매우 주관적인 개념으로 인문학적인 측면에서 문화 종속적인 부분이 있다고 하더라도 인공지능의 기술은 점점 글로벌해지고 있다면서, 기업과 정책분야에서 앞으로 고민해야 하는 인공지능의 윤리와 지침 마련의 문제는 국내‧외가 구분된 활용 기준이 아닌 큰 틀에서의 고민에 기반한 지속적인 집단지성을 통해 진행되어야 한다는 의견을 제시했다.  


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사