인공지능(AI) 윤리 동향…인간과 AI, 어떻게 공존할 것인가?
상태바
인공지능(AI) 윤리 동향…인간과 AI, 어떻게 공존할 것인가?
  • 고현석 기자
  • 승인 2020.12.06 18:00
  • 댓글 0
이 기사를 공유합니다

[학술·연구 이슈]
- 한국연구재단, ‘주요 국가의 인공지능(AI) 관련 연구윤리 정책 동향 조사’ 보고서(이슈리포트 2020-18호) 발간
- 과기정통부, '국가 인공지능 윤리기준(안)' 공개

인공지능은 인간의 지능적 행동을 대체하는 기술로 유례가 없는 속도로 빠르게 진화하고 있다. 이에 인공지능과 인류가 공존하기 위한 인공지능 윤리 이슈도 급부상하고 있다. 인공지능 윤리는 기술의 부작용에 대한 대비, 인공지능 장치의 도덕적 개념 구현 등 인공 지능이 우리의 삶과 공존하기 위한 규범적 토대를 논의하는 분야로 인공지능의 태동 시점부터 논의가 지속돼 왔다.

한국연구재단은 지난달 11월 20일 [NRF ISSUE REPORT 2020-18호]로 ‘주요 국가의 인공지능(AI) 관련 연구윤리 정책 동향 조사’ 보고서(저자: 송충한 비즈니스전략연구소 수석전문위원)를 발간했다. 송 수석전문위원은 이 보고서를 통해 인공지능과 윤리의 관계, 인공지능 윤리와 관련된 대표적 이슈들, 그리고 AI 윤리에 대한 각국의 대응을 소개했다.

한편, 과학기술정보통신부와 정보통신정책연구원은 2020년 11월 27일 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 「국가 인공지능 윤리기준」(안)을 발표했다. 이는 윤리적 인공지능을 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하는 기준으로, 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했다.

한국연구재단 이슈리포트의 ‘요약’ 부분과 「국가 인공지능 윤리기준」(안)의 주요 내용을 소개한다.

■ [NRF ISSUE REPORT 2020-18호] ‘주요 국가의 인공지능(AI) 관련 연구윤리 정책 동향 조사’ - 송충한 비즈니스전략연구소 수석전문위원

우리가 인터넷을 검색하면 AI는 그 내용을 기억하고 있다가 검색하는 사람이 관심을 가질만한 내용을 제시하거나 유사 상품에 대한 광고를 노출시키는 등 이미 우리 생활 깊숙이 자리 잡고 있다. 그러나 이러한 현상이 오랜 시간을 두고 발전해온 것이 아니라 새로운 밀레니엄을 기점으로 점점 가속화되면서 발전하고 있다. 특히 컴퓨터 처리속도의 비약적인 발전에 힘입어 딥러닝(Deep Learning)이 가능해진 것이 중요한 요소로 평가되고 있다.

알고리즘과 인공지능의 활용은 데이터 처리에 엄청난 잠재력을 가지고 있으나 동시에, 그것은 수많은 윤리적, 법적 문제를 야기하게 된다. 이에 따라 AI에 관한 윤리가 점차 논의의 대상으로 부각되고 있다.

2010년에는 영국의 EPSRC(Engineering and Physical Science Research Council)가 「로봇에 대한 원칙」을 발표하였고, 2015년에 미국의 비영리 단체인 The Information Accountability Foundation이 「빅테이터 분석을 위한 통합 윤리 프레임」을 발표하였다. 2017년에는 미국 보스턴에 본부를 두고 있는 Future of Life Institute가 23개의 「아실로마(Asilomar) AI 원칙」을 발표하였고, 같은 해에 프랑스 국가데이터보호위원회(CNIL)는 당시 알고리즘과 AI가 어느 수준까지 발전해왔고 어떠한 문제점이 있는지 살펴본 후 이에 대한 대응 방안을 제시하였다.

2018년에 우리나라의 방송통신위원회와 정보통신정책연구원은 2019년 11월 「이용자 중심의 지능정보사회를 위한 원칙」을 발표하였고, 프랑스에서는 프랑스 의회 의원인 Cedric Villani가 수상 Edouard Philippe의 요청으로 2018년에 보고서 「의미 있는 AI를 위하여: 프랑스와 유럽의 전략」을 작성하였다. 캐나다 몬트리올대학교는 「인공지능의 책임 있는 발전을 위한 몬트리올 선언」을 2018년에 발표하였으며, 같은 해에 유럽집행위원회(EC) 산하의 유럽 과학기술윤리위원회(EC EGE)는 글로벌 스탠더드 확립과 입법행동의 기반이 될 수 있는 일련의 윤리지침의 수립을 위한 첫 단계로 EU 조약과 EU 기본권 헌장에 제시된 기본적 가치에 기초하여 일련의 기본 원칙을 제안하였다.

2019년 유럽 집행위원회는 AI에 관한 문제를 다루기 위해 전문가들로 구성된 위원회(EC AI HLEG)를 통하여 「신뢰할 수 있는 AI를 위한 가이드라인」을 마련하였다. 독일은 연방정부의 데이터 윤리위원회(Data Ethics Commission)를 설치하고 2019년 AI가 지켜야 할 윤리적 및 법률적 원칙을 발표하였고, 일본은 내각부(Cabinet Office)에 설치된 ‘인간 중심 AI 사회적 원칙 협의회’가 2019년 3월 「인간 중심 AI를 위한 사회적 원칙」을 발표하였다.

같은 해에 영국의 Government Digital Service와 Office for Artificial Intelligence는 앨런튜링연구소(Alan Turing Institute)와 협력하여 인공지능에 대한 올바른 사용을 위한 안내서 「AI 윤리와 안전에 대한 이해」를 발표하였고, 호주도 2019년에 산업·과학·에너지·자원부(Department of Industry, Science, Energy and Resources)가 IEEE가 발간한 「Ethically Aligned Design(2019)」을 바탕으로 「AI 윤리원칙」을 발표하였다.

2019년에는 AI에 관한 정부 간 최초의 표준인 인공지능(AI) 권고안이 2019년 5월 22일 ECD 장관급 회의에서 채택되었으며,  6월 오사카에서 열린 G20 정상회의에서 G20 지도자들은 OECD 권고안을 요약하여  G20 AI 원칙」으로 채택하였다.

2020년 미국 국방부(DoD)는 AI의 윤리적 설계, 개발, 배치 및 사용에 대해 5가지 윤리원칙을
제시하였다. 미국 백악관 소속의 관리예산처(Office of Management and Budget, OMB)는 2020년 3월 행정명령(Memorandum)을 통하여 "인공지능 활용 규제 지침" 초안에 대한 의견을 각 행정부서장에게 요청한 바 있어 이를 토대로 미국 연방정부 차원의 대응책을 마련하는 것으로 보인다.

2020년 우리나라 과학기술정보통신부는 「국가정보화 기본법」을 전면 개편하여 「지능정보화 기본법」으로 재편하여 ‘인공지능 시대의 기본법’을 마련하였으며, 2020년 11월 27일 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 「국가 인공지능 윤리기준」(안)을 발표했다.

각 국가들이 발표한 15개의 윤리원칙 중에서 가장 많이 나타나는 원칙은 책임성(Accountability)으로 12개의 자료에서 원칙으로 정하고 있다.  다음으로 많이 언급되는 원칙이 인간의 존엄성 또는 인간 중심의 가치(Human dignity or Human centric/centered value), 공정성(Fairness), 안전과 외부로부터의 보안 그리고 AI 시스템에 대한 신뢰(Safety, Security, Reliability)이다. 다음으로는 투명성(Transparency)과 설명가능성(Explicability or Explainability)이 언급되고 있으며, 그 뒤를 이어 사생활 보호(Privacy), 인간의 자율성 혹은 통제가능성(Human Control, Autonomy)이 원칙으로 제시되고 있다.

다양성 및 포용성(Diversity/Inclusion) 그리고 지속가능성(Sustainability)과 함께 사회적 가치인 민주주의(Democracy), 준법(Rule of law), 공동의 이익(Shared benefit) 등이 원칙으로 제시되고 있으며, 다른 국가에서는 언급하지 않았으나 호주의 경우 다양성 및 포용성에서 성소수자가 차별받지 않도록 해야 한다는 점도 명시하고 있다.

대부분의 자료들에서 대체로 AI 윤리가 언급되고 있으나, AI 기술의 발전 특히 머신러닝(machine learning)이 발전함에 따라 AI에 대한 규제를 강화해야 한다는 인식도 종종 제기되고 있다.

앞서 살펴본 국가 중 프랑스 CNIL의 보고서에서는 AI에 대한 대응 방안으로 윤리보다는 규제로의 전환이 필요하다고 언급하고 있으며, 독일의 경우에는 사람들이 그들의 데이터가 책임감 있게 사용될 것이고, 윤리적으로 용인할 수 없는 사용을 방지하기 위한 조치가 취해질 것이라는 사실을 믿을 수 있도록 효과적인 규제를 채택해야 한다고 주장하고 있다. 미국의 아실로마(Asilomar) 원칙에서는 재귀적 자기 개선 즉, 인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면, 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다는 원칙을 제안하고 있음.

우리나라의 경우 2019년 정보통신위원회와 정보통신정책연구원이 「이용자 중심의 지능정보사회를 위한 원칙」을 발표하였으나 정부 전체의 의견을 반영하기에는 다소 부족한 것으로 보인다. 2020년 6월 기존의 「국가정보화 기본법」을 전면 개정하여 「지능정보화 기본법」(2020.12.10. 시행)을 마련하였고 동 법률에서 인공지능 윤리를 마련하도록 규정하고 있다. 2020년 11월 27일 과학기술정보통신부와 정보통신정책연구원은 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 「국가 인공지능 윤리기준」(안)을 발표했다.

■ 과기정통부, 사람이 중심이 되는  「국가 인공지능 윤리기준(안) 공개

- 학계·기업·시민단체 등 전문가 의견수렴 거쳐 ‘인간성(Humanity)을 위한 인공지능(AI)’의 3대 원칙·10대 요건 담아
- 12월 7일 공청회 등 공개 의견수렴 거쳐 12월 최종 발표 예정

인공지능 기술의 발전·확산과 함께 인공지능 기술의 윤리적 개발·활용 역시 세계 각국과 주요 국제기구의 관심 대상이 되어 왔으며, 지난해 우리나라가 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안(‘19.5)을 비롯하여 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙이 발표되었다.

이에 과학기술정보통신부는 이러한 글로벌 추세에 발맞추어 지난해 발표된 「인공지능 국가전략(’19.12)」 주요 과제로 ‘국가 인공지능 윤리기준’ 마련을 추진해왔다.

그간 과기정통부는 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계하여 ‘인간성을 위한 인공지능(AI for Humanity)’를 목표로 하는 윤리기준 초안을 마련하였으며, 3개월에 걸쳐 학계·기업·시민단체 등 각계의 다양한 전문가로부터 의견을 수렴하였다.

이러한 과정을 거쳐 마련된 「국가 인공지능 윤리기준」(안)은 ‘사람 중심의 인공지능’을 위한 최고 가치인 ‘인간성(Humanity)’을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있으며, 주요내용은 다음과 같다.

* 목표 및 지향점: ① 모든 사회 구성원이 ② 모든 분야에서 ③ 자율적으로 준수하며 ④ 지속 발전하는 윤리기준을 지향한다.

① 인공지능 개발에서 활용에 이르는 전 단계에서 정부·공공기관, 기업, 이용자 등 모든 사회 구성원이 참조하는 기준
② 특정 분야에 제한되지 않는 범용성을 가진 일반원칙으로, 이후 각 영역별 세부 규범이 유연하게 발전해나갈 수 있는 기반 조성
③ 구속력 있는 ’법‘이나 ’지침‘이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성
④ 사회경제, 기술 변화에 따라 새롭게 제기되는 인공지능 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼으로 기능

* 최고 가치: 윤리기준이 지향하는 최고가치를 ’인간성(Humanity)’으로 설정하고, ‘인간성을 위한 인공지능(AI for Humanity)’을 위한 3대 원칙·10대 요건 제시

ㅇ 3대 기본원칙 - ‘인간성(Humanity)’을 구현하기 위해 인공지능의 개발 및 활용 과정에서 ① 인간의 존엄성 원칙, ② 사회의 공공선 원칙, ③ 기술의 합목적성 원칙을 지켜야 한다.

ㅇ 10대 핵심요건 - 3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 개발~활용 전 과정에서 ⓵ 인권 보장,  ⓶ 프라이버시 보호, ⓷ 다양성 존중, ⓸ 침해금지, ⓹ 공공성, ⓺ 연대성, ⓻ 데이터 관리, ⓼ 책임성, ⓽ 안전성, ⓾ 투명성의 요건이 충족되어야 한다.

과기정통부 최기영 장관은 “이번 「국가 인공지능 윤리기준」(안) 공개가 국가 전반의 인공지능 윤리 이슈에 대한 인식과 논의를 활성화함으로써 ‘사람 중심의 인공지능’으로 나아가는 기반이 되기를 기대한다”고 밝혔으며, “앞으로 「국가 인공지능 윤리기준」이 새롭게 제기되는 인공지능 윤리이슈에 대한 토론과 숙의의 토대가 되고 현장에 정착할 수 있도록 노력하고, 윤리기준의 사회 확산을 위한 주체별 체크리스트 개발 등 실천방안도 마련해나가겠다”고 밝혔다.

과기정통부는 12월 7일 공개 공청회를 통해 「국가 인공지능 윤리기준」(안)을 소개할 예정이며, 12월 15일까지 시민들의 자유로운 의견을 이메일로 접수(aiethics@kisdi.re.kr)할 계획이다.

공개 의견수렴을 거쳐 보완된 최종 「국가 인공지능 윤리기준」은 12월 중순경에 대통령 직속 ‘4차산업혁명위원회’ 심의를 거쳐 확정될 예정이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사