인간과 인공지능(AI)의 공존을 위한 사회·윤리적 쟁점
상태바
인간과 인공지능(AI)의 공존을 위한 사회·윤리적 쟁점
  • 이현건 기자
  • 승인 2021.11.08 06:22
  • 댓글 0
이 기사를 공유합니다

[KISTI ISSUE BRIEF] 인간과 인공지능(AI)의 공존을 위한 사회·윤리적 쟁점: 신뢰할 수 있는 인공지능 실현 방안

 

[사진=게티이미지뱅크]

오늘날, 인공지능(AI)은 거의 모든 산업에 적용되어, 복잡한 문제 해결, 생산성·효율성 증가, 비용 절감 등의 경제적 가치를 창출하고 있다. 하지만 AI의 발전과 확산은 사회·윤리적 측면에서 예상하지 못한 부작용도 초래하고 있어, 신뢰할 수 있는 AI 실현을 위한 논의가 요구된다. 세계 각국은 AI의 활용·확산 과정에서 발생할 수 있는 위험이나 부작용을 방지하기 위한 방안을 마련하고 있으며, 우리나라도 AI 윤리, 사람 중심의 AI의 중요성에 대한 논의를 추진 중에 있다. 

이에 한국과학기술정보연구원(KISTI)은 지난 1일 이슈 브리프 제35호로 〈인간과 인공지능(AI)의 공존을 위한 사회·윤리적 쟁점: 신뢰할 수 있는 인공지능 실현 방안〉 보고서를 발간했다(작성자: 정도범 KISTI 정책부 정책연구실 책임연구원·유화선 KISTI 정책부 정책연구실 선임기술원).

보고서는 AI의 활용 활성화를 위해 발생 가능한 문제에 대해 사전에 논의하거나 다양한 상황에 대한 구체적인 논의가 이루어져야 하며, AI 윤리는 AI 자체가 아닌 인간의 윤리에 대한 논의라는 점도 인식해야 할 것이라 강조했다. 이어 보고서는 신뢰할 수 있는 AI 실현을 위해 기술적 측면뿐만 아니라 사회·윤리적 측면에 대해서도 함께 논의되어야 하며, 사회적 합의를 이끌어내기 위해 거버넌스를 구축하는 방향도 고려할 수 있다는 정책 제언을 내놓았다.

 

■ 인공지능과 인공지능 윤리

◦ 2016년 3월에 개최된 이세돌과 알파고의 대국은 인공지능(AI)1)에 대한 인식을 확산하는 계기가 되었고, 2019년 12월에 발생한 코로나19(COVID-19)는 디지털 전환을 가속화 하여 AI의 활용을 촉진하고 있다. 

◦ AI는 거의 전 산업에 적용되어, 복잡한 문제 해결, 생산성·효율성 증가, 비용 절감 등의 경제적 가치를 창출할 수 있다. AI가 국가 경쟁력의 핵심 동력으로 부상함에 따라, 미국, 중국 등은 AI 주도권 확보를 위해 국가 차원에서 투자와 지원을 적극 확대하고 있다.

◦ 그러나 AI의 발전과 확산은 사회·윤리적으로 예상하지 못한 부작용도 초래하고 있다. 인공지능 윤리(AI ethics)는 AI 시스템의 오용이나 남용, 잘못된 설계, 의도하지 않은 부정적인 결과가 초래할 수 있는 개인 및 사회적 피해에 대한 대응으로 등장했다.

세계 각국은 AI 윤리의 중요성을 인식하고 신뢰할 수 있는 AI 실현을 위한 원칙을 마련 중에 있다. 특히 2015년 이후, AI 컨퍼런스에 제출된 논문의 제목에 ‘윤리(ethics)’ 관련 키워드가 포함된 논문 수가 크게 증가해 왔다.

 

◦ AI로 인한 잠재적 피해는 그 파급효과가 매우 크기 때문에, 윤리적이고 신뢰할 수 있는 적절한 기준 및 방안을 모색해야 한다.

 

◦ 2020년 발표된 ‘정부 AI 준비 지수(Government AI Readiness Index)’를 살펴보면 우리나라는 7위를 차지하여 2019년(26위) 대비 순위가 크게 상승했다. 특히, 우리나라는 ‘데이터 및 인프라’ 측면에서 스마트폰과 인터넷의 높은 보급률 등으로 인해 아시아 지역에서 1위를 차지했다.
 
하지만 정부가 AI를 얼마나 책임 있게 사용하는지를 측정하는 ‘책임 있는 AI 하위 지표(Responsible AI Sub-Index)’에서 우리나라는 34개 국가 중 21위를 차지했다. 즉, 우리나라는 AI 활용을 위한 인프라가 잘 구축되어 있고 AI 분야에 대한 지원도 꾸준히 강화되고 있지만, AI 거버넌스나 윤리, 정책/제도 등의 측면은 상대적으로 미흡하다고 볼 수 있다.

 

■ 인공지능 정책 동향 

▶ 국외 인공지능 정책 동향 

◦ 2019년 5월, 42개 국가는 AI 시스템을 안전하고 공정하며 신뢰할 수 있는 방식으로 설계하는 데 동의하는 AI에 관한 OECD 원칙에 서명했다.

OECD는 AI가 새로운 도전을 추구하고 있지만 불안과 윤리적 우려도 일으킴에 따라, 안전과 개인정보보호 등의 측면에서 사람들이 신뢰할 수 있는 AI에 대해 언급함과 동시에 AI R&D 투자, AI를 위한 디지털 생태계 육성 및 정책 마련, 노동시장 전환을 위한 준비, 신뢰할 수 있는 AI를 위한 표준 개발 및 국제 협력 등을 강조했다. 

 

◦ EU 집행위원회는 2019년 4월 ‘신뢰할 수 있는 AI를 위한 윤리 지침(Ethics Guidelines for Trustworthy AI)’ 발표를 통해 신뢰할 수 있는 AI를 위해 ① 모든 관련 법률과 규정 준수, ② 윤리적 원칙과 가치 준수, ③ 기술적/사회적 측면에서 강건성 확보를 강조했으며, 2020년 2월, AI의 활용을 촉진하는 동시에 AI와 관련된 위험을 해결하기 위한 AI 프레임워크를 제시하는 ‘인공지능 백서’를 발표하는 등 다양한 정책을 추진해 오고 있다.

또한 2021년 4월, EU 집행위원회는 세계 최초로 ‘인공지능 법안(Artificial Intelligence Act)’을 발표하고, AI의 위험 수준별 규제 방안을 제안했다.

 

◦ 미국, 중국, 일본 등 세계 주요국도 AI의 활용·확산 과정에서 위험이나 부작용을 방지하기 위한 방안을 마련하고 있다.

미국은 2019년부터 AI를 규제하기 위한 법안을 도입하고 있으며, 구글, 마이크로소프트 등의 주요 기업을 중심으로 윤리적인 AI 실현을 위해 자율적인 AI 개발 원칙을 마련했고, 중국은 2020년 8월 AI 산업의 건전하고 지속 가능한 발전을 위해 ‘국가 차세대 AI 표준체계 구축 지침’을 발표했으며, AI의 투명성, 책임성, 개인정보보호 등 윤리·보안 이슈에 대해서도 관심을 표명했다. 일본도 2019년 3월 ‘인간 중심의 AI 사회 원칙’을 발표했고, 2020년 7월 사회·경제·윤리·법적 과제에 대한 ‘AI 활용 가이드라인’을 제시했다. 

 

▶ 국내 인공지능 정책 동향 

◦ 우리나라는 2019년 12월 ‘인공지능 국가전략’의 발표와 함께 사람 중심의 AI 실현을 강조했다. 이어 AI 제품·서비스의 확산에 대응하여 신뢰성·안전성 등을 검증하는 품질관리체계를 구축하고, AI 윤리 관련 논의를 추진했다. 

2020년 12월, 기술의 급속한 발전과 함께 AI 윤리 이슈가 지속적으로 제기됨에 따라, 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 마련하여 인공지능이 지향하는 최고 가치를 ‘인간성(Humanity)’으로 설정하고, 모든 인공지능은 ‘인간성을 위한 인공지능(AI for Humanity)’이여야 함을 명시했다.

 

◦ 2021년 5월, AI 윤리의 실천과 이용자의 AI 수용성 향상을 위해 ‘신뢰할 수 있는 인공지능 실현 전략(안)’을 발표했다. 여기서 AI의 기술적 한계 극복과 함께, 오·남용 등에 따른 잠재 위험 예방을 위한 제도 보완과 윤리의식 확산을 강조했으며, 주요 추진전략으로 ‘신뢰 가능한 인공지능 구현 환경 조성’, ‘안전한 인공지능 활용을 위한 기반 마련’, ‘사회 전반 건전한 인공지능 의식 확산’을 제시했다. 

▶ 주요 시사점 

◦ 세계 각국은 AI 기술의 주도권 확보를 위한 노력과 함께, AI의 부작용 및 잠재적 위험 등에 대비하여 AI 윤리의 중요성을 인식하고 있다. 하지만 아직까지 국가 차원의 AI 윤리는 큰 틀에서의 기준만 마련되어, 세부적인 논의를 바탕으로 사회적 합의가 이루어져야 할 것이다. 

 

■ 인공지능의 사회·윤리적 쟁점

▶ 발생 가능한 문제에 대한 사전 논의 

◦ 현재 AI 사고가 발생한 후 AI 원칙이나 가이드라인, 윤리기준 등의 후속조치가 이루어지고 있고, AI의 복잡성, 불완전성 등으로 인해 개발자도 예측하지 못한 사고가 항상 발생할 수 있기 때문에, AI 활용·확산을 위해서도 다양한 측면에서 AI의 잠재적 위험을 고민해야 한다.

따라서 고위험 AI에 대한 명확한 기준을 설정하여, 사전에 발생 가능한 문제에 대해 지속적인 논의를 통해 예방할 수 있어야 한다. AI는 오직 설정된 목표를 달성하기 위해 작동하기 때문에 인간의 존엄성이나 생명, 윤리에 대한 가치를 벗어난 선택을 할 가능성에 대해 모니터링할 필요가 있다. 

 

◦ AI 의사 사례
왓슨(Watson), 닥터앤서 등은 의료 데이터를 바탕으로 진단이나 치료 방법을 보조하는 역할에 한정되어 있지만, AI 기술이 발전함에 따라 AI 의사의 역할과 범위, 사고 발생 시 책임 문제 등에 대해 선제적인 논의가 요구된다. AI 의사는 단순히 기술적 측면뿐만 아니라, 인간의 생명을 책임지는 의료 분야에 AI가 적용된다는 측면에서 매우 다양하고 복잡한 이슈가 등장할 수 있다.

▶ 다양한 상황에 대한 구체적인 논의 

◦ 앞으로 과학기술뿐만 아니라 운송, 의료, 금융, 교육, 법률, 보안, 마케팅 등 광범위한 분야에서 AI가 활용될 것이며, AI가 의사결정을 해야 하는 상황에 지속적으로 직면하게 될 것이다. 하지만 AI로 인해 발생할 수 있는 사고에 대한 책임 소재나 보상 등이 여전히 불분명하고, AI 전반에 관한 세부적인 윤리기준도 미흡한 상황이다. 따라서 ‘사람이 중심이 되는 AI 윤리기준’이란 선언적인 측면에서 더 나아가, AI 시대의 다양한 상황에서 어떻게 AI가 사람 중심으로 의사결정을 할 것인지 등에 대해 구체적인 논의가 필요하다. 

◦ 자율주행자동차 사례
자율주행자동차가 다른 차량이나 보행자를 피해야 하는 상황에 직면했을 때 AI의 의사결정, 즉 사회·윤리적 선택 시 우선해야 할 가치에 대해 지속적인 논의가 이루어져야 한다. 

AI의 의사결정은 탑승자 및 자체 차량, 보행자, 생존 확률, 전체적인 피해 규모 등과 같이 어떤 측면을 우선적으로 고려해야 하는지 사회적 합의가 요구된다. 보행자의 경우 노인, 어린이를 둔 어머니, 학생 중에서 우선 피해야 할 대상을 어떤 기준으로 선택할 것이며, 개인 또는 집단 등에 따라 우선순위가 어떻게 달라져야 하는지 등도 주요 논의사항이 될 수 있다.
 
- 또한 차량에서도 승용차나 트럭 등이 고려될 수 있으며, 트럭 중에서도 유조선 트럭일 경우 등과 같이 다양한 상황이 발생할 수 있다. 만약 AI가 학습을 통해 특정한 상황에서 탑승자를 희생시키는 결정을 한다면 사람들은 자율주행 자동차를 타려고 하지 않을 것이므로, 각종 상황에 대한 구체적인 대응 방안을 마련해야 한다.

▶ 인공지능이 아닌 인간의 윤리에 대한 논의 

◦ AI 윤리는 AI 자체라기보다 AI를 개발하고 운영하는 규범으로의 윤리라는 점을 인식해야 한다. 오늘날, AI의 핵심은 데이터를 기반으로 학습하고 일정한 패턴을 찾아 예측하는 머신러닝인데, 이러한 학습 알고리즘을 AI가 자율성을 가진 것으로 과대평가하는 경향이 있다. 

결국 AI 윤리는 AI가 아닌 AI 개발자나 설계자, 즉 인간의 윤리로 볼 수 있다. 자율살상무기의 경우에도 AI 자체가 아니라 살상 대상을 결정하고 그 무기를 개발하여 사용하는 인간이 비난받아야 할 것이다.

◦ 앞으로 AI의 개발 과정에서 인간의 윤리적 가치를 반영한 설계가 이루어져야 하고, 인간을 위한 방향으로 AI가 활용되어야 한다. 

AI 기술의 발전은 ‘인간 고유의 능력은 무엇인가?’, ‘인간에게 중요한 가치는 무엇인가?’, ‘과연 인간은 공정한가?’ 등에 대해 고민하고 답을 찾아나가는 계기가 될 것이다. 인간의 윤리에 대한 논의는 과학기술 분야뿐 아니라 인문·사회 분야를 포함한 다학제적(multidisciplinary) 접근이 요구되며, 산·학·연·정 등의 구성원들이 함께 참여하고 협력해야 한다.

 

■ 인공지능 활용 활성화를 위한 제언 

▶ 신뢰할 수 있는 인공지능 실현 방향 

◦ 오늘날 AI는 ‘메타버스’ 등을 포함한 모든 분야에서 활용되고 있으며, 앞으로 ‘싱귤래리티’, ‘1인 1로봇’ 등과 같이 AI가 크게 발전하는 미래를 전망하고 있다. 

최근 메타버스 공간에서 실제 사람인지, AI인지 구분하기 힘든 다양한 특성을 가진 AI 캐릭터들이 존재하는 등 AI는 점점 더 우리의 생활과 밀접하게 관련될 것이다. 아직까지 AI는 ‘약한 AI’ 수준에 머물고 있지만, 향후 ‘강한 AI’가 도래할 것을 고려하여, 신뢰할 수 있는 AI 실현을 위해 기술적 측면과 사회·윤리적 측면을 모두 반영한 가이드라인 등을 수립해야 한다.

◦ 현재 AI와 관련하여 이슈가 되고 있는 편향성, 불투명성, 안전성 등 AI의 불완전성을 해결하기 위한 과학기술적 측면의 노력이 요구된다. 

AI의 핵심 원천은 양질의 데이터이며, AI의 편향성이나 차별성 논란을 해소하기 위해 충분한 학습 데이터를 구축해야 한다. AI는 ‘블랙박스’ 구조를 가진 학습 알고리즘으로 인해 많은 불확실성을 내포하고 있으므로, 설명 가능한 인공지능(XAI: Explainable AI)을 위한 연구가 더욱 활발히 수행되어야 하며,  또한 예측하지 못한 AI 사고나 부작용에 대비하여 AI 개발 및 운영과 관련된 표준화된 AI 가이드라인을 수립해야 할 것이다. 

◦ AI가 활용·확산되기 위해 사회·윤리적 이슈에 잘 대처함으로써 AI에 대한 신뢰성을 확보할 수 있어야 한다.

AI로 인한 사회적 혼란과 충돌을 방지하기 위해 사후 규제도 중요하지만, 예방적인 차원에서 AI 윤리에 대한 지속적인 논의가 필요하다. 또한 AI 윤리의식을 제고하기 위해서는 선언적인 원칙을 넘어 발생할 수 있는 다양한 상황을 고려한 구체적인 기준을 마련해야 한다. 이를 위해 AI 윤리, 즉 AI를 개발하고 활용하는 인간의 윤리에 대한 포럼, 세미나, 공청회 등을 개최하여 사회적 합의를 이끌어내야 할 것이다.

▶ 정책적인 제언 

◦ AI 윤리와 관련된 이슈를 총괄하고 조정하여 사회적 합의를 도출하기 위한 거버넌스를 구축해야 한다.

신뢰할 수 있는 AI를 실현하기 위한 명확한 목표 설정, 이해관계자들의 협의 등을 위한 조직을 통해 AI 윤리, 정책/제도 등을 수립해야 하며, AI 기술 개발과 함께 AI 윤리, 신뢰성·안전성 등을 위한 투자를 확대하고, 공공·민간, 국내외 협력 체계를 추진해야 할 것이다.

 

◦ AI 윤리가 AI 개발자나 설계자에게 한정된 것이 아닌 모든 사람들과의 공유를 통해 신뢰할 수 있는 AI를 위한 인식을 확산해나가야 한다. 이를 위해 모든 사람들이 AI 사고나 부작용, 윤리 등에 대해 쉽게 공유할 수 있는 공통의 지식 기반을 구축할 필요가 있다. 공통의 지식 기반은 단지 구축하는 것보다 실제로 많은 사람들이 참여하여 소통할 수 있는 실질적인 논의의 장을 마련하는 방향이 되어야 한다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사