과기정통부, ‘AI 윤리 확산 위한 공개 정책세미나’ 개최
상태바
과기정통부, ‘AI 윤리 확산 위한 공개 정책세미나’ 개최
  • 이현건 기자
  • 승인 2022.11.27 17:33
  • 댓글 0
이 기사를 공유합니다

- 제1기 인공지능 윤리정책 포럼 한 해 성과 공유
- AI 윤리·신뢰성 확보 위한 사회적 논의 확산과 교육 필요성 강조

 

      24일 과기정통부 공개 정책세미나에서 ‘신뢰할 수 있는 AI 개발안내서’ 추진 현황과 초안이 공개됐다.

과학기술정보통신부(이하 ‘과기정통부’)는 정보통신정책연구원(이하 ‘KISDI’), 한국정보통신기술협회(이하 ‘TTA’)와 함께 ‘인공지능(AI) 윤리 확산을 위한 공개 정책세미나’를 서울 중구 포스트타워에서 24일 개최했다.

이번 정책세미나는 지난 1년 간 수행된 ‘제1기 AI 윤리정책 포럼’의 성과와 AI 윤리·신뢰성의 사회적 확산을 위한 주요 정책의 추진 결과를 공유하는 자리다. AI 윤리정책 포럼은 AI의 윤리적 개발과 활용을 위한 논의를 촉진하고자 올해 2월 처음 출범했으며, AI, 윤리, 교육, 법제도, 공공 등 다양한 분야의 전문가가 참여하고 있다. 

이번 세미나에서는 AI 윤리정책 포럼이 2022년 한 해 동안 개최한 전체회의와 윤리분과회의, 기술분과회의, 교육분과회의 등을 통한 산업계·시민사회·학계의 공감대 형성과 AI 윤리정책의 사회적 확산방안에 대해서 논의했다.

포럼 전체회의(2월, 6월, 8월)에서는 ‘스캐터랩’, ‘알체라’, ‘뤼튼테크놀로지스’ 등 인공지능 기업이 기울이고 있는 인공지능 윤리와 신뢰성 확보를 위한 노력을 중심으로 민간 자율의 인공지능 윤리체계 확립 방안에 대해 논의했다.

윤리분과회의(3월, 6월, 9월)에서는 인공지능 윤리에 관한 국·내외 동향, 인공지능 윤리영향평가를 비롯한 주요 정책 이슈 등을 논의하고, ‘인공지능 윤리기준 자율점검표(안)’의 기업별·분야별 구체화에 대한 의견을 수렴하며, ‘마크애니’ 등 기업의 인공지능 윤리 확보 노력을 점검했다.

기술분과회의(3월, 5월, 7월, 10월)에서는 인공지능 신뢰성 확보를 위한 정책, 인공지능 신뢰성 표준화 동향 등을 논의하고, ‘신뢰할 수 있는 인공지능 개발 안내서(안)’에 대한 의견을 수렴하며, ‘IBM’, ‘네이버’, ‘한국마이크로소프트’ 등 기업의 인공지능 신뢰성 확보 노력을 공유했다.

교육분과회의(4월, 7월, 10월)에서는 인공지능 윤리교육 현황, 인공지능 리터러시의 개념 등을 논의하고, ‘초·중·고 인공지능 윤리교육 교재’에 대한 의견을 수렴하며, ‘모두의연구소’ 등 인공지능 교육 관련 기업의 활동을 살펴보았다.

이날 공개 정책세미나에서는 AI 윤리의 현재와 미래를 점검·전망하고, 포럼의 운영 성과를 보고하며, AI 윤리·신뢰성의 사회적 확산을 위한 주요 정책의 추진 결과를 공유했다. 

 

                                 변순용 서울교육대학교 윤리교육과 교수(교육분과장)

먼저 기조강연에서는 서울교대 변순용 교육분과장이 ‘AI 윤리와 AI 윤리교육의 오늘과 내일’이라는 주제로 AI 윤리의 근거와 의미를 조망하고, AI 윤리교육의 필요성을 강조했다. 

이어서 KISDI 문광진 부연구위원은 지난 1년 동안 활동해온 AI 윤리정책 포럼과 각 전문분과위원회(윤리분과, 기술분과, 교육분과)의 세부적인 운영 성과를 보고했다.

제1세션에는 KISDI 문정욱 윤리분과장이 ‘AI 신뢰구축 및 윤리확산: 실천 수단과 정책 과제’라는 주제로 AI 윤리의 필요성 및 동향, AI 윤리기준 자율점검표 현장 적용 결과, 향후 정책 방향 등에 대해 발표했다. 

이어서 연세대 문명재 위원의 주재 아래 법무법인 세종 강신욱 위원, 동아대 김종욱 위원, 소비자시민모임 윤명 위원 등이 토론자로 참여해 AI 윤리의 사회적 확산에 대한 다양한 시각의 의견을 개진했다.

제2세션에는 TTA 차순일 기술분과장이 ‘신뢰할 수 있는 AI 개발안내서 개발 추진결과’라는 제목으로 지능형 CCTV, 의료, 자율주행 등 분야별 개발안내서(안)에 대해 발표했다. 또한 서울시립대 이재호 교수의 주재 아래 카카오엔터프라이즈의 고재희 위원, AWS Korea의 김영훈 위원, LG AI연구원 김유철 위원, 스캐터랩의 김종윤 위원, 한국전력공사의 신지강 위원, 써로 마인드의 장하영 위원, 한국마이크로소프트의 조장래 위원 등이 토론자로 참여해 AI 개발안내서의 현실 적합성을 제고하기 위한 산업계 의견을 개진했다.

제3세션에는 KISDI 이현경 부연구위원이 ‘AI 윤리교육 교재 개발: AI 윤리기준 중심으로’라는 제목으로 AI 윤리교육의 필요성, 초·중·고 AI 윤리교육 교재의 구성 방법·주요 내용, AI 윤리교육 확산방안 등에 대해 발표했다. 

이어 영남대 양천수 위원의 주재 아래 고려대 김현철 위원, 한밭대 김효은 위원, 오픈넷 손지원 위원, 한국교육개발원 이기준 위원, 한국과학창의재단 이현숙 위원, 한국소비자연맹 정지연 위원, 향산초 최상현 위원 등이 토론자로 참여해 AI 윤리교육의 방향에 대한 교육 현장 전반의 생생한 목소리를 전했다.

과기정통부 염열 AI기반정책관은 “AI 기술이 빠른 성장을 보이면서 AI이 가져올 사회적 편익에 대한 기대감과 함께 사생활 침해, 사회적 약자 차별 등의 사회적 문제에 대한 우려가 공존하고 있다. AI 산업의 지속적인 발전을 위해서는 AI 윤리와 신뢰성 확보가 반드시 선행돼야 한다”며, “자유, 인권, 연대 등 ‘뉴욕 구상’의 기조와 철학을 반영한 ‘대한민국 디지털 전략’을 토대로 신뢰할 수 있는 AI을 구현하고 세계를 선도하기 위해 적극 노력해나가겠다”고 밝혔다.

 

한편 이번 공개 정책세미나에서는 과기정통부와 TTA가 ‘AI 신뢰성 요구사항 도출 연구’를 통해 제작한 ‘신뢰할 수 있는 AI 개발안내서’가 처음으로 공개됐다. 해당 연구는 ‘사람 중심의 AI 강국’이라는 목적을 실현하기 위해 AI의 혜택은 최대화하면서 위험과 부작용은 최소화하는 방법을 찾기 위한 것으로, 이날 공개된 초안을 토대로 보완 작업을 거쳐 오는 12월 9일 최종안이 마련될 예정이다.

해당 연구용역사업을 주관한 씽크포비엘은 AI 신뢰성(Trustworthiness)을 구체화하고 검증체계를 고도화하기 위해 10개국에서 모인 석박사 인력들을 동원해 국내외 사례와 참고자료들에 대한 선행조사를 진행했다. 또한 다양한 협력업체들과 협력해 산업별 요구사항 및 AI 검증항목 고도화 작업을 수행하는 한편, AI 신뢰성 확보 컨설팅을 통한 실제 산업현장 적용도 추진했다.

씽크포비엘 박지환 대표는 “아직 전 세계적으로 참조할 만한 사례가 거의 없는 상황에서, 개발 가이드에 대한 기업의 부정적 인식과 혼선을 예방하려면 현장 중심의 실효성을 갖추는 게 무엇보다 중요했다”며, “씽크포비엘은 지난 15년간 400여 건에 이르는 현장 중심 컨설팅 경험이 있었기에 단순 이론이나 지식 중심 접근에서 벗어나 현장 정황을 고려해 수용 가능한 수준으로 조화롭게 균형을 맞출 수 있었다”고 강조했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사