인공지능의 윤리적 쟁점에 관한 탐색적 연구
상태바
인공지능의 윤리적 쟁점에 관한 탐색적 연구
  • 고현석 기자
  • 승인 2022.11.13 09:32
  • 댓글 0
이 기사를 공유합니다

[경기연구원 연구보고서]

인공지능의 자율성과 권한이 확대됨에 따라 의사결정 결과에 대한 위험성이 증가할 것이라는 우려가 제기되고 있다. 인공지능 챗봇 ‘이루다’의 차별화 혐오 발언 문제, 개인정보 유출 및 오남용 문제, 인공지능 딥페이크 기술을 활용한 디지털 성범죄, 인공지능 채용시스템의 남성 편향 문제, 인공지능 범죄예측 프로그램의 인종차별 문제 등이 대표적이다. 

인공지능 알고리즘을 설계할 때 상황에 따라 어떻게 문제를 판단하고 처리할 것인가에 대한 가치판단 기준이 필요한데 이때 개발자의 윤리적 가치판단 기준이 반영될 수 있으며 이에 따라 학습 데이터의 편향이 나타날 수 있다. 이렇게 모호한 윤리 기준을 인공지능 알고리즘에 어떻게 적용하여 인간에게 이로운 기술로 활용할 수 있을지에 대한 고민이 필요한 시점이다. 

요컨대, 윤리적 판단 기준은 개인의 특성과 상황적인 요인 등 복합적인 요인에 의해 가변적일 수 있다. 인공지능 윤리에 대한 가치판단 기준을 명확히 하고 이를 법·제도화 하는 것은 한계가 있으며 아직 어려운 일이다. 다만, 인공지능 기술이 발전함에 따라 사회적으로 인공지능 윤리적 쟁점에 대해 공론화하고 합의하는 과정은 동시에 진행될 필요가 있다.

이에 경기연구원은 연구보고서 〈인공지능의 윤리적 쟁점에 관한 탐색적 연구〉(연구책임자: 배영임 연구위원)를 지난달 발간했다.

이번 연구에서는 인공지능 윤리에 관한 선행연구와 사례를 조사하고 국내외 정부와 기업들의 대응 노력을 정리했다. 또한 인공지능 제품과 서비스의 수요자인 시민들이 윤리적 문제를 어떻게 인식하고 대응 필요성을 느끼는지를 설문조사를 통해 분석했다.

보고서는 연구 결과에 따른 정책적 시사점으로 ‘△ 첫째, 인공 지능 신뢰성 확보를 위한 기술개발 투자를 확대해야 한다. △ 둘째, 인공지능 윤리 대응을 위해 정부와 공공기관, 민간기업, 시민 단체 등 관련 이해관계자와의 협의체를 운영해야 한다. △ 셋째, 인공지능 라이프 사이클 단계별 대응 매뉴얼을 구체화하고 문제 발생 시 책임소재를 명확히 해야 한다. △ 넷째, 지역별 인공지능 윤리 혁신센터 구축・운영이 필요하다.’를 도출했다.

 

□ 보고서의 주요 내용은 다음과 같다.

▶ 2장에서는 우선 인공지능 윤리의 개념과 필요성에 관한 선행연구를 조사했다. 인공지능은 1956년 ‘인공지능’이라는 정식명칭으로 등장한 이후 지금까지 인간과 경쟁하면서 발전해왔으며 최근에는 기술의 발전과 함께 윤리적 개념의 필요성에 대해 연구가 진행되고 있다. 인공지능이 사람의 통제를 벗어나 자율적인 학습과 의사결정 권한을 갖게 됨에 따라 인간을 지배할 수도 있다는 위기감과 문제가 발생 했을 때 책임 공백을 어떻게 해결할 것인지에 대한 연구가 진행되고 있다. 

하지만 인공지능 윤리에 관한 선행연구는 아직 시작 단계로 충분하지 않고 개념과 특성, 이슈를 제기하는 데 머물러 있는 상황이다. 최근에 불거지고 있는 인공지능 윤리적 이슈 사례를 조사했는데 챗봇 ‘이루다’의 성희롱 발언, 사회적 약자에 대한 혐오 발언이 대표적이다. 이외에도 딥페이크 기술의 오남용, 채용시스템과 범죄예측 프로그램의 성차별 및 인종차별 문제, 자율주행차의 딜레마 문제 등이 사회적 이슈로 대두되고 있다.

 

<한국: 인공지능 윤리기준의 3대 기본원칙 주요 내용>

▶ 3장에서는 국내외 주요국과 기업들의 인공지능 윤리 대응 현황을 살펴보았다. 유럽, 미국, 일본, 영국, 한국 등 여러 국가들이 윤리 가이드라인을 수립하고 정책을 추진 중이다. 또한 글로벌 빅테크 기업들을 중심으로 민간 자율 규제를 만들고 기술적 해결방안을 모색 중이다. 

여기에서 주목할 점은 인공지능 윤리 대응을 제도적 관점에서만 바라보는 것이 아니라 기술적 관점에서도 접근하고 있다는 점인데 알고리즘의 편향성 문제를 해결하거나 차별과 혐오 발언을 탐지해 제거하는 등 다양한 기술적 대응 노력이 그것이다. 인공지능 윤리 문제 대응은 기술・비기술 관점에서 종합적으로 접근해야 하며 정부와 함께 민간기업이 적극적으로 참여해 해결해 나가야 할 것이다.

 

<인공지능 윤리 대응 사례 연구 종합>

▶ 4장에서는 전국 1,000명의 시민을 대상으로 인공지능 윤리 인식조사를 실시했다. 응답자들은 인공지능 기술이 일상생활을 편리하게 해주는 유용한 기술이라고 인식하고 있으며 대체로 신뢰하지만 일부 응답자들은 인공지능 알고리즘의 불확실성과 개인정보 침해 위험 때문에 신뢰하지 않는다고 답변했다. 인공지능 윤리 문제에 대해서는 현재도 심각하다고 우려하고 있으며 미래에는 지금보다 더 심각해질 것이라고 예상하는 것으로 나타났다. 

윤리 문제에서 가장 우려되는 요인은 개인정보 침해 문제와 문제 발생시 책임소재 문제, 인공지능의 오남용이라고 응답했는데 이는 인공지능이 개인의 일상에 깊이 관여하고 있으며 잘못 사용되거나 문제가 발생할 경우 책임 공백에 대한 우려를 의미한다. 

정부가 발표한 인공지능 윤리기준에 대한 우선순위를 조사한 결과, 인간존엄성의 원칙이 가장 우선되어야 하며 인권을 보장하는 방향으로 인공지능이 개발되어야 한다고 응답했다. 인공지능 신뢰성 실현방안으로는 제도화보다 신뢰성 확보를 위한 기술개발이 가장 중요하다고 응답 했으며 인공지능 개발 전 단계에 걸쳐 민간기업의 역할보다 정부와 공공의 역할이 중요하다고 응답했다.

 

▶ 정책적 시사점

• 첫째, 인공지능의 윤리적 활용 및 신뢰성 확보를 위한 기술개발 투자를 확대해야 한다. 
• 둘째, 인공지능 윤리 대응을 위해 정부와 공공기관, 민간기업, 시민단체 등 관련 이해관계자와의 협의체를 운영해야 한다. 
• 셋째, 인공지능 라이프 사이클 단계별 대응 매뉴얼을 구체화하고 문제 발생시 책임소재를 명확히 해야 한다. 
• 넷째, 지역별 인공지능 윤리 혁신센터 구축 및 운영이 필요하다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사