인공지능의 윤리와 신뢰의 문제는 미래의 일이 아니라 지금의 일이다!

2021-10-18     이명아 기자

■ 신뢰할 수 있는 인공지능: 인공지능을 사회에서 받아들이기 위한 조건 | 한상기 지음 | 클라우드나인 | 260쪽

 

이 책은 국내 최초로 최근 인공지능 논란의 핵심으로 떠오른 신뢰성 문제를 본격적으로 다루고 있다. 그럼 왜 지금 인공지능의 신뢰성이 문제인가? 인공지능 기술이 일상생활, 기업활동, 사회 시스템에 활용되면서 과거 전문 영역에서 사용하던 차원과는 다른 일들이 일어나기 시작했기 때문이다. 인공지능 자체에 여러 가지 취약점이 있다는 것이 밝혀지면서 해킹 가능성이나 오류 발생의 문제가 사회 구성원 전체에게 미칠 영향이 크다는 것을 알게 된 것이다. 인공지능이 인류에게 유익하게 사용돼야 한다는 것에는 모두 다 동의한다. 그런데 어떻게 그렇게 할 것인가에 대한 논의는 없다. 지금 우리가 인공지능의 신뢰성에 대해 논의해야 하는 이유이다.

지금 인공지능 신뢰 문제는 곳곳에서 일어나고 있다. 예를 들면 얼굴 인식이 인종과 성별의 차이로 됐다거나 금융, 복지, 채용에서 프로그램에 의한 판정이 자신에게 부당하게 처리됐다고 여겨도 그 과정이 제대로 설명되지 못하고 있다. 왜 네이버나 유튜브에서 뉴스나 영상 콘텐츠를 추천하는지, 왜 내가 보는 검색 결과는 다른 사람과 다른지, 과연 인공지능을 얼마나 신뢰할 수 있는지 의심하기 시작한 것이다. 자율주행이나 의료 진단, 치료 방식 제안의 경우 인공지능이 제시하는 결정이 윤리적으로 올바르고 사회적으로 용납될 수 있을 것인가 하는 딜레마에 빠질 수도 있다.

따라서 이제 우리는 인공지능의 원칙은 그만 얘기하고 실제 적용할 기술을 통해 신뢰 문제를 해결해야 한다! 데이터와 알고리듬 등 인공지능의 신뢰성이 기술적으로도 구현돼야 한다. 해외에서는 이미 인공지능의 신뢰성과 관련해 학계, 기업, 정부 등 각 분야에서 다양한 논의가 이루어지고 있다. 그러나 국내에 인공지능 신뢰성과 관련해 다학제적이고 종합적인 논의가 제대로 이루어지지 못하고 있다. 그런 점에서 이 책은 국내 최초로 인공지능의 신뢰성에 대한 다학제적이고 기술적 구현에 관한 논의의 출발점이 될 모멘텀을 제공하고 있다.

이 책은 여러 인공지능 원칙을 ‘신뢰’라는 하나의 주제로 묶었고 다시 4개의 주제인 인공지능의 공정성, 윤리성, 투명성과 설명 가능성, 견고성과 안전성으로 나누어 심도 있게 논의한다.
총 5장으로 구성된 이 책의 1장에서는 왜 인공지능의 ‘신뢰성’이 중요한 이슈인지, 학계와 산업계가 신뢰성과 관련해서 어떤 노력을 하는지, 우리가 주목해야 할 주요 원칙과 가이드라인은 무엇인지, 주요 기업의 접근 방식과 현황은 어떤지 다루고 있다.

2장에서는 지난 몇 년 동안 사회적으로 가장 예민한 이슈가 된 ‘공정성’ 문제를 다루고 있다. 현재 기업들이 가장 민감하게 반응하는 주제로서 불공정을 완화하기 위해 개발된 다양한 도구와 기술을 소개하고 있다. 공정성은 사회 구성원이 동의하는 공통 기반이 무엇이고 어떤지 표가 기준인지에 따라 매우 다양한 결과를 보일 수 있는 주제이다.

3장에서는 인공지능의 ‘윤리성’ 문제를 다루고 있다. 이는 가장 오래된 주제이며 접근하기 쉽지 않은 문제이다. 어떤 것이 윤리적으로 올바른 판단인가를 누가 어떻게 정할 것인가와 함께 과연 인공지능이 도덕적 판단을 하는 개체가 되는 것이 맞는가를 동시에 질문해야 하기 때문이다. 윤리적인 인공지능에는 아주 다양한 차원의 이슈와 여러 연구 결과가 있다. 하지만 아직 실제로 활용할 수준은 아니다. 앞으로 우리가 무슨 연구를 더 해야 하는가를 함께 고민해보고 있다.

4장에서는 인공지능 시스템의 알고리듬과 모델의 ‘투명성’ 문제를 소개하고 있다. 여기에서의 투명성은 기업에서 주요 의사결정의 투명성이나 정부 또는 법 집행기관과의 관계에서의 투명성과는 조금 다른 개념이다. 투명성에서 가장 문제시되는 설명 가능성 기능은 우리가 인공지능을 사용하는 영역에 따라 필수적일 수도 있고 아닐 수도 있다. 하지만 많은 사람이 직접 접하는 금융, 채용, 공공서비스 영 역에서는 매우 중요한 기능이다. 따라서 이 연구는 매우 활발하게 이루어지고 있다. 앞으로 인공지능 서비스에 투명성을 포함하지 않는다면 기업이나 기관에서 서비스로 채택되기 쉽지 않을 것이다.

5장에서 다룬 ‘견고성과 안전성’은 우리가 사용하는 인공지능이 가진 취약성이다. 인공지능의 판단을 어디까지 믿을 수 있으며 사용자들의 안전과 시스템 보안을 위해 어떤 상황이 이루어지는지 소개하고 있다. 인공지능 시스템이 아주 간단한 속임수로도 잘못된 판단을 할 수 있다는 것이 알려지면서 국방과 같은 미션 크리티컬mission critical 분야에서 매우 민감한 주제가 됐다. 또한 자율주행차처럼 사람의 안전 문제가 중요한 영역에서 인공지능의 판단이 얼마나 안전한지와 이를 검증하기 위한 노력에 대해 다루고 있다.