인공지능의 부작용, 어떻게 규제할 것인가?
상태바
인공지능의 부작용, 어떻게 규제할 것인가?
  • 고현석 기자
  • 승인 2023.06.10 14:18
  • 댓글 0
이 기사를 공유합니다

[GRI 이슈브리프]

 

챗GPT가 촉발한 초거대 AI(인공지능) 경쟁이 뜨거운 만큼, 규제가 필요하다는 목소리도 커지고 있다. 국내는 물론 세계적으로도 AI의 활용과 규제를 둘러싼 치열한 논쟁이 펼쳐지는 양상이다. 인공지능에 대한 대책 마련을 서두르는 것은 이 기술의 개발 속도가 예상보다 빨라지며, 인간의 삶에 영향을 끼치기 시작했기 때문이다. AI가 산업과 사회에 줄 영향과 파괴력이 크다면 그 부작용 또한 빠르고 깊게 미칠 것이다.

AI는 그 기술의 발전이 가져올 편리함과 이익 못지않게, 그로 인해 발생할 수 있는 위험성과 사회적인 파급효과 역시 무시할 수 없다. AI 기술의 발전이 인류를 위험에 빠트릴 수 있다면 기술 개발의 목적·한계·방법을 정하고 사전에 위험성을 검토하고, 사후에도 지속적으로 모니터링하고 관리할 수 있는 규범을 만들어야 할 것이다.

이에 경기연구원(GRI)은 AI 서비스의 공급 및 이용 과정에서 발생하는 문제점과 우리나라를 비롯해 세계 주요 국가에서 진행되고 있는 AI 규제 논의를 살펴보고 정책제언을 도출한 이슈브리프 “인공지능의 부작용, 어떻게 규제할 것인가”를 최근 발간했다.

 

■ 미국, AI 청문회 개최…유럽·중국 등, AI의 잠재적 위험성에 대응하기 위한 규제 마련 중

ㅇ 최근 미국 의회에서 처음으로 AI 청문회 개최, AI의 잠재적 위험성 지적하면서 규제 필요성 제기 

• 미국 상원 법제사법위원회 사생활·기술·법소위 AI 청문회 개최. 오픈AI 최고경영자인 샘 올트먼, 증인으로 참석해 정부 차원 규제와 국제 표준 마련 필요하다고 언급. 

• 청문회에서 의원들은 AI의 잠재적 위험에 대한 규제 필요성 강조. AI 위험성을 규제할 수 있는 별도의 규제 기구 설립 방향 논의.

• 현재 미국 연방 차원의 AI 규제법은 없는 상황. 바이든 행정부에서 만든 AI 권리장전(AI Bill of Rights)이 있으나 법적 구속력이 없는 지침 불과.

ㅇ 유럽연합, AI 규제 법안 초안 마련하고 최근 기업과 함께 자발적인 AI 협정 만들기에 합의; 중국은 기업이 생성형 AI가 만드는 컨텐츠에 책임을 지게 하는 규제안 발표

• 유럽연합(EU), 2021년 EU 전역에 적용될 AI 규제 법안(EU AI Act) 초안 마련. 

• 5월 24일 EU는 구글 및 AI 관계자들과 함께 자발적으로 AI 협정 만들기에 합의. 

• 중국은 지난 2월 챗GPT의 중국 내 서비스 전면 금지. 4월 11일에는 기업들이 생성형 AI가 만들어내는 컨텐츠에 책임을 지게 하는 내용을 골자로 하는 규제안 발표.


■ 한국, ‘인공지능 산업 육성 및 신뢰 기반 조성 등에 관한 법률안’ 국회 본회의 심의 예정

ㅇ 인공지능산업의 발전과 인공지능의 안전성·신뢰성·윤리성 확보를 목적으로 하는 ‘인공지능 산업 육성 및 신뢰 기반 조성 등에 관한 법률안’ 국회 본회의 심의 의결 예정.
 
• 법안은 인공지능산업의 발전과 인공지능의 안전성·신뢰성·윤리성 확보를 목적으로 하며, 인공지능의 정의, 인공지능산업의 육성 및 지원, 인공지능의 안전성 및 신뢰성 확보, 인공지능 윤리, 인공지능의 국제협력 등 규정.

• 인공지능 산업 육성을 위해 정부는 3년마다 인공지능 기본계획 수립, 국무총리 소속 ‘인공지능위원회’ 설립 예정.

• 안면인식 기술 등 국민 안전, 건강, 기본권 보호에 중대한 영향을 줄 수 있는 고위험 영역에서의 안전성 확보 위해, 고위험 영역 AI 공급자는 제품 혹은 서비스가 고위험 영역에 속한다는 사실을 사전 고지할 의무와 함께 신뢰성 확보 조치를 취하도록 함. 

 

■ AI 서비스 공급 및 이용 과정에서 개인정보 유출, 편향성, 저작권, 표절, 딥페이크 등 많은 문제 대두

ㅇ AI 서비스 공급 문제점: 개인정보 유출, 허위정보, 성별·연령·인종에 대한 편향성, AI 작품에 대한 저작권 귀속 및 학습 데이터에 대한 저작권 침해 문제 등 생성형 AI의 서비스 공급 과정에서 여러 문제 대두.

• 개인정보 유출: 2021년 국내 AI 챗봇 ‘이루다’ 개발 기업인 스캐터랩이 사용자로부터 나이, 성별, 대화내용 수집과 이용에 관한 동의를 받지 않은 채 카카오톡 대화를 수집하는 등의 개인정보 유출.

• 데이터 환각: 환각(hallucination)은 인공지능이 마치 존재하지 않는 환각을 보는 것처럼 오염된 정보 데이터를 학습하여 틀린 정보를 맞는 정보처럼 답변하는 현상을 뜻함.

• 성별・연령・인종적 편향성: 이미지 생성 AI가 선글라스를 끼고 커피를 든 여성은 백인 여성으로, 가판대서 음식 파는 여성은 인도계 여성으로 생성하는 등 인공지능이 이미지 인식이나 생성 시 편향성을 드러내는 사례 발생.

• AI 작품의 저작권 문제: AI가 만들어낸 예술작품에 대한 저작권 귀속 및 저작권 침해 문제 대두, AI가 만든 작품에 대해 어떤 권리를 인정하고 개발자와 이용자 중 누구에게 권리를 줄 것인지에 대한 논쟁 발생.

ㅇ AI 서비스 이용 문제점: 생성형 AI를 활용한 과제 대필, 논문 표절 문제, 딥페이크 및 가짜 뉴스 생성, 탈옥, 개인정보 및 기밀 유출 문제 등 서비스 이용 과정에서 여러 문제 대두.

• 과제 대필, 논문 표절: 국내 모 국제학교에서 일부 학생들이 챗GPT를 이용한 과제 대필로 전원 0점 처리된 사건이 발생하는 등 생성형 AI를 활용한 과제 대필, 논문 표절 문제 대두.

• 딥페이크 및 가짜 뉴스: 딥페이크를 활용해 가짜 뉴스를 퍼뜨리거나, 특정 대상을 음해하는 컨텐츠를 생산하는 등의 문제로, 최근 美 펜타곤에 검은 연기가 피어오르는 가짜 사진이 유포돼 주식시장에 영향.

• 탈옥: AI 챗봇에게 특정한 방식으로 대화를 유도하면서 AI 개발사가 만들어 둔 제한을 깨는 것으로, AI에 무기 제조법, 살인 등 범죄 관련 답변을 유도하고 일부 사용자들이 탈옥 프롬프트를 공유하는 문제.

• 개인정보 및 기밀 유출: AI 질문 시 회사 기밀을 유출하면 AI가 질문 내용을 학습 데이터로 활용하게 됨. 최근 삼성전자는 챗GPT로 인한 사내 정보 유출 사고가 발생하면서 직원 대상으로 챗GPT 사용 금지 조치 내림.

 

■ 정책제언: 윤리적 활용 위한 법제도 기반 및 독립규제기관 설립

ㅇ 윤리적 활용 법제도적 기반 보완: 인공지능 서비스 공급자의 이용자 보호를 위한 기술 개발·활용 의무를 법에 명시하고 정부와 기업의 이용자에 대한 교육 프로그램 지원 의무를 제도적으로 규정할 필요가 있음.

• AI 서비스 공급자의 기술 개발 의무 규정: AI 위험성을 사전에 예방하기 위해 반사회적 컨텐츠 사전 필터링, 검색 차단, 보호변수 지정 등 기술적 보완 필요. 이를 AI 서비스 공급자의 의무로 규정할 필요.

• AI 리터러시 및 AI 활용 역량강화 교육: AI 개념·원리·활용방법 및 AI 생성물의 비판적 이해와 수용을 위한 AI 리터러시 능력 및 프롬프트 엔지니어링 교육, 정보보안 교육을 통한 AI 활용 역량강화 의무 법에 반영.

• 다만 기술적 접근을 통한 윤리적 활용을 유도하는 과정에서 산업 활성화를 저해하지 않는 범위에서의 법적・정책적 접근 필요. 기업의 신뢰성・안전성 제고 위한 기술 개발에 대해 공공 투자 확대 필요.

ㅇ 독립규제기관 설립 고려: 인공지능의 안전한 활용 위해 주무부처와 독립된 규제기관 설립 고려 필요 

• 인공지능 활용에 따르는 이용자 안전 보장하고 윤리적 활용 제고 위해 과학기술정보통신부와 독립된 별도의 규제기관 설립하여 규제·감독 기능 수행하도록 할 필요.

• 인공지능의 급속한 발전에 따라 독립규제기관이 필요하다는 의견과, 인공지능 산업의 초기 단계에서 독립규제기관을 설립하는 것은 시기상조라는 의견이 모두 있으므로 독립규제기관의 필요성에 대한 공론화가 우선되어야 함.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사