인공지능 시스템의 FATE(공정성·책임성·투명성·윤리의식) 규제 필요성 목소리 높아
상태바
인공지능 시스템의 FATE(공정성·책임성·투명성·윤리의식) 규제 필요성 목소리 높아
  • 고현석 기자
  • 승인 2023.07.08 00:19
  • 댓글 0
이 기사를 공유합니다

[NARS 이슈와 논점]

 

사회 곳곳에서 인공지능 기술의 효용성과 영향력이 증가하는 만큼, 인공지능으로 인한 부작용과 역기능을 방지하기 위한 대응과 통제 수단 마련이 필요하다는 목소리도 높아지고 있다.

스탠포드대학교 인간중심 인공지능 연구소(HAI3))가 매년 발표하는 보고서 「AI Index 2023」에 따르면, 독립적이고 개방된 ‘인공지능, 알고리즘, 자동화 사고 및 논쟁 공공 데이터베이스(AIAAIC)’에 보고된 인공지능 사고 및 논쟁 수는 2012년 10건에서 2021년 260건으로 26배 증가했다.

증가한 사고 및 논쟁 수는 인공지능이 현실에서 널리 사용되기 시작했고, 인공지능이 윤리적으로 오·남용될 수 있다는 우려가 높아졌음을 보여준다. 이처럼 인공지능 위험에 대한 우려가 급속하게 증가함에 따라, 인공지능 윤리로 논의되던 내용이 구체적인 규제 논의로 이어지고 있다.

이에 국회입법조사처는 7월 4일(화), 「인공지능의 FATE(공정성·책임성·투명성·윤리의식)를 위한 입법 논의 동향과 시사점」을 다룬 『이슈와 논점』 보고서를 발간했다.

보고서는 주요국 및 주요 기업이 중요하게 논의하고 있는 인공지능의 공정성(Fairness), 책임성(Accountability), 투명성(Transparency), 윤리의식(Ethics)과 관련된 국내외 규제 논의 동향을 살펴보고 시사점을 도출했다.

인공지능 시스템의 FATE에 대한 규제가 어느 정도 필요하다는 점에 대해서는 사회적 합의가 도출되고 있다. 보고서에 의하면 데이터 출처 품질을 점검하고 인공지능 시스템의 기능과 보안을 평가하는 내부 거버넌스를 구축하며, 위험을 평가하여 경감 조치를 취하도록 하되, 단계적으로 통제 수단을 도입할 필요가 있다. 

또한 보고서는 규제의 실효성을 확보하기 위해서 정부의 인공지능 검증, 조사 및 집행 역량을 확보해야 한다고 제언했다.

 

◇ 보고서의 주요 내용은 다음과 같다.

■ 인공지능의 FATE

▶ 공정성(Fairness)

인공지능은 기존에 만들어진 데이터를 이용하기 때문에 인간이 지니고 있는 편향과 차별을 답습하여 불평등을 재생산할 수 있다. 이러한 편향·차별 재생산은 금융, 고용, 건강 등 주요 부분에서 특정 집단에게 기회나 자원을 불공정하게 할당하거나, 특정 집단에 대한 고정관념을 갖게 하여 사회적 약자를 계속 취약한 위치에 처하게 할 수 있다. 따라서 공정한 인공지능 개발 및 활용은 점차 중요한 요소로 여겨지고  있다.

▶ 책임성(Accountability)

인공지능을 설계·개발·배포·운용하는 자는 인공지능 시스템이 적절하게 기능하도록 설계하고, 지속적으로 관리, 감독하는 체계를 구축하여 자신의 인공지능으로 하여금 부작용이 발생하는 것을 방지하여야 한다. 관련 사업자는 데이터의 출처, 품질, 신뢰성, 대표성을 점검하고, 인공지능 시스템이 의도치 않은 위험을 유발하는지 확인하는 내부 거버넌스를 구축할 필요가 있다. 이러한 책임성은 법적 책임에 한정되는 것이 아니라 윤리적, 사회적인 책임이 포함된다.

▶ 투명성(Transparency)

인공지능 기계학습은 서로 복잡하게 연결된 계층 내 수백만 개의 변수들이 상호작용하는 구조이기 때 문에 인간이 결과가 도출된 이유를 파악하기 어려운 측면이 있다. 인공지능의 결정 과정에 대한 설명이 부족하면 그 결과와 예측을 분석할 수 없어 인공지능에 대한 신뢰성이 저하되고, 인공지능이 유발한 사고와 문제에 대한 해결 방안과 책임소재를 논하기 어렵다. 인공지능 판단이 중요한 영향을 미치는 영역에서는 인공지능이 사용된다는 사실뿐만 아니라 인공지능이 사용하는 데이터, 변수, 알고리즘 작동 방식에 대한 기본 정보가 제공될 필요가 있다. 

▶ 윤리의식(Ethics)

인공지능 기술의 파급력은 인간에게 해를 끼치는 방향으로 사용될 수 있다. 인공지능이 각종 범죄뿐만 아니라 시민 담론과 민주주의 가치를 훼손하는 데에도 사용될 수 있는 만큼, 윤리의식에 기반한 인공지능 개발 및 사용이 필요하다. 인권을 존중하고 민주적 가치를 보장하며, 인류의 공동이익을 위하는 방향으로 인공지능을 활용하여야 한다. 인공지능을 활용하는 사업자는 자신의 인공지능 시스템이 오·남용되고 사회에 악영향을 끼칠 위험성이 있다는 것을 인식하고, 지속적으로 감시하며 이를 방지하기 위해 노력해야 한다.


■ 인공지능 규제 논의 동향

주요국은 그동안 윤리적 차원에서 논의했던 FATE(공정성・책임성・투명성・윤리의식)를 일부 법제화하는 움직임을 보이고 있다. 개인정보, 온라인 플랫폼 관련 법률에서 개별적으로 그 내용을 담고, 인공지능 전반에 적용하는 규제 체계도 마련되고 있다.

▶ EU

EU는 2021년 「인공지능에 관한 통일규범(인공지능법)의 제정 및 일부 연합제정법들의 개정을 위한 법안(이하 ‘EU 인공지능법안’)」을 발의한 이후 논의를 진행했다. 2023년 6월 14일 EU 의회 본회의가 EU 인공지능법안을 가결했고, 현재 EU 의회, EU 집행위원회 및 이사회가 3자 협상을 진행 중이다.

EU 인공지능법안은 인간 중심의 접근을 위하여 ① 인간에 의한 감독, ② 기술적 견고성과 안전성, ③ 프라이버시 및 데이터 거버넌스, ④ 투명성, ⑤ 다양성·비차별성·공정성, ⑥ 사회 및 환경복지를 인공지능이 준수해야 할 일반원칙으로 제시하고 있다. 

이에 기반하여 사람의 안전, 생계, 권리에 명백한 위협으로 간주되는 인공지능 시스템은 금지하고, 고위험에 해당하는 인공지능 시스템에는 위험관리 시스템 운영, 위험과 차별 결과를 최소화하는 데이터 마련, 결과의 추적성을 보장하기 위한 자동 로그 생성, 위험에 대한 정보 제공, 기본권 영향평가 등의 의무를 부여함으로써 FATE(공정성·책임성·투명성·윤리의식)을 구체화하고 있다. 또한 생성형 인공지능에 대해서는 사람이 인공지능과 상호작용하고 있음을 알리고, 기본권, 민주주의, 안전 등에 위반되지 않는 콘텐츠를 생성할 것을 요구하고 있다.

▶ 미국

2019년에 이어 2022년에도 미국 상·하원에 각각 「알고리즘책임법안(Algorithm Accountability Act of 2021)」이 발의되었다. 상기 법안은 알고리즘을 개발, 배포하는 일정 기준 이상의 기업으로 하여금 자동화된 의사결정 시스템과 그 시스템을 중요한 의사결정에 활용하는 과정이 소비자에게 미치는 영향을 평가하도록 하여 투명성과 책임성을 부과하고 있다.

영향평가에서는 관련 이해관계자와의 협의에 대한 확인·설명, 개인정보 위험 및 개인정보 보호 강화 조치, 부정적 영향과 관련된 지속적인 훈련과 교육에 대한 지원·수행, 안전장치 필요성 및 개발가능성에 대한 평가, 사용되는 모든 데이터의 업데이트 유지·보관, 소비자의 권리 및 소비자에 대한 부정적 영향 완화 방안 등에 대한 평가가 이루어져야 한다. 기업은 영향평가 요약보고서를 작성하여 미국 연방 거래위원회(FTC)에 제출해야 하고, FTC는 영향 평가의 대상·절차·기준 등에 대한 구체적인 규정을 마련하여야 한다.

▶ 국내

과학기술정보통신부는 2020년 「인공지능 윤리 기준」, 2021년 「신뢰할 수 있는 인공지능 실현전략(안)」을 발표하고, 2023년부터 인공지능 제품·서비스별 평가체계를 마련하기 시작하는 등 관련 조치를 취하고 있다. 개인정보보호위원회, 방송통신위원회, 금융위원회는 2021년 관련 자율점검표·가이드 라인을, 국가인권위원회는 2022년 「인공지능 개발과 활용에 관한 인권 가이드라인」을 마련했다. 

국회에서는 7건의 법률안을 병합한 「인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안」이 2023년  2월 과학기술정보방송통신위원회 법안심사소위원회를 통과했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사