[이슈] 기술 중심 인공지능(AI) 법 제도, '윤리'는 자율적 판단에 그쳐
[이슈] 기술 중심 인공지능(AI) 법 제도, '윤리'는 자율적 판단에 그쳐
  • 이윤희 기자
  • 승인 2020.12.24 14:45
  • 댓글 0
이 기사를 공유합니다

과기정통부, 인공지능 윤리기준 및 로드맵 발표
AI 기술 차별, 편향적 정보 전달 등 부작용 해결 필요
사람 중심 인공지능 구현에 초점, 자발적 준수 요청
인공지능 기술 활용이 빠르게 늘어나면서 인공지능이 낳은 윤리적 문제에 대한 법적 규제가 필요하다는 의견이 제시되고 있다.
인공지능 기술 활용이 빠르게 늘어나면서 인공지능이 낳은 윤리적 문제에 대한 법적 규제가 필요하다는 의견이 제시되고 있다.

[아웃소싱타임스 이윤희 기자] 지난 23일 한국판 인공지능(AI) 윤리기준이 마련된 데 이어 기업과 사용자 등에 책임을 실질적으로 규제할 수 있는 법과 제도 등이 정비된다. 정부는 AI 시대를 대비하기 위해 법, 제도, 규제 등을 정비한 로드맵을 제시하고 인공지능 기술 도입으로 인한 부작용을 최소화하기 위해 30가지 과제를 제시했다.

우리나라는 영국 기술 정책 연구소 옥스퍼트 인사이츠에서 국가별 AI 기술 수준을 비교 분석한 '정부 AI 준비 지수2020(Covernment AI Readiness Index)'에서 7위에 오르며 AI 기술 선진국으로 도약 중이다.

하지만 기술 발전 속도에 비해 윤리와 도덕적 제약이냐 사회적 약속은 미비하다는 우려도 공존해왔다. 인공지능 기술 도입시 윤리적 문제에 대한 기준점을 세우고 책임 소재를 가릴 수 있는 가이드라인이 제시되어야 한다는 의견은 항상 뜨거운 화두였다.

인공지능 기술이 객관적이고 논리적일 것이란 기대와 달리 역설적이게도 인공지능 기술이 편향적이고 차별적일 수 있다는 문제의식이 꾸준히 제기된 까닭이다. 이러한 논란은 인공지능이 결국 개발자나 기업이 제시한 데이터를 기본으로 객관적인 결과를 도출한데서 비롯된다.

지난 8월 영국에서는 코로나19로 대학 입학에 필수적인 A레벨 시험 진행이 불가능해지면서 인공지능을 이용해 학생들에게 학점을 부여하기로 결정했다. 그러나 과거 교사들의 흑인·아시아인에 대한 '차별'도 인공지능의 백데이터가 되면서 인공지능이 도출한 결과에도 차별이 그대로 반영되는 문제를 낳았다.

글로벌 기업 아마존에서 지난 2018년 진행했던 인공지능 채용 과정에서도 과거 여성들을 차별했던 데이터가 누적 반영되며, 채용 과정에서 남성을 위주로 가점을 부여하기도 했다.

이처럼 실제로 발생된 사례들은 인공지능 기술 뒤 차별성, 편향적 정보, 불투명성 등에 대한 우려를 낳고있다. 과기정통부가 전일 발표한 인공지능 윤리기준과 금일 확정된 로드맵은 이러한 분위기가 배경이 된 것으로 보인다.

이번 윤리기준과 로드맵에 대해 인공지능 산업계는 "당연히 필요한 내용이었다"고 반색한다. 그러나 일각에서는 로드맵에 담긴 윤리 분야의 내용과 윤리기준 등이 민간 자율에만 의지하고 있다고 지적한다.

■로드맵, 윤리기준 통해 '사람 중심' 인공지능 구현에 박차
앞서 지난 23일 발표된 한국판 '인공지능(AI) 윤리기준'에는 사람 중심 인공지능 구현을 목표로 인간성을 최고 가치로 둔 3대 기본 원칙과 10대 핵심 요건이 담겼다.

먼저 인간성(Humanity) 구현을 위한 인공지능의 개발 및 활용과정에서 지켜야할 3대 기본 원칙은 ▲인간의 존엄성 원칙 ▲사회의 공공성 원칙 ▲기술의 합목적성 원칙 등을 삼았다.

이어  3대 기본 원칙 실천을 위한 10대 핵심 요건은 ▲인권보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성 등이다. 지난달 말 공개한 초안에서 변동이 없었다.

하지만 윤리기준은 어디까지나 자율 규범과 준수사항 권고에 그치고 있어 실질적인 공공성 및 책임성 확립으로 이어지긴 어렵다는 의견이 불거졌다. 최소한의 법적 제도가 마련되어야 한다는 것.

이에 화답하듯 24일 과학기술정보통신부와 국무조정실은 국무총리 주재 국정 현안점검 조정회의에서 '인공지능 법·제도·규제 정비 로드맵'을 확정·발표했다.

이번 로드맵에는 인공지능 산업 진흥 및 활용 기반을 강화하고 부작용을 방지할 수 있도록 4가지 기본 추진 방향을 설정했다. ▲글로벌 논의를 고려한 선제적 정비 ▲인공지능의 특성에 따른 종합적 정비 ▲민간의 자율성을 존중하는 시장 친화적 정비 ▲사회적 합의에 기초한 상생, 포용 기반 정비 등이 바로 그것이다.

과기정통부가 발표한 인공지능 시대를 준비하는 법·제도·규제 정비 로드맵의 주요 내용(자료제공=과기정통부)
과기정통부가 발표한 인공지능 시대를 준비하는 법·제도·규제 정비 로드맵의 주요 내용(자료제공=과기정통부)

이를 위해 내년 상반기 중에는 인공지능의 기반이 되는 데이터에 대한 개념과 참여 주체를 명확히하는 '데이터 기본법'을 제정하고, 개별 산업별 데이터 활용을 위한 입법도 추진한다.

2023년부터는 인공지능이 발생시킨 손해배상·범죄에 대해 권리 구제가 가능하도록 민법 개정·행정처분 신설 여부에 대한 검토도 이뤄질 예정이다.

한편 로드맵은 금융, 의료, 포용, 노동, 행정, 교통 분야 등에서 총 30개의 과제를 도출했다. 최초로 도입되는 인공지능 의료기기에 대한 국제 기준을 마련하고, 전자서명 평가 인정제도 운영과 금융 관련 안정성 강화 등 각 분야별로 필요한 내용등이 담겼다.

정부는 사회적 합의에 기초한 민간 자율을 우선하는 형태로 인공지능 분야 이정표를 제시할 예정이다. 로드맵에서 언급된 분야의 법 정비는 분야별로 빠르면 이듬해부터 본격적인 논의를 거칠 계획이다.

■인공지능 윤리 문제, 자유로운 이정표에 더한 법 제도가 필요
인공지능 시대를 준비하기 위해 윤리기준 강화에 시대에 맞는 법, 제도, 규제 정비가 필요하다는 사실은 끈임없이 이어져온 요구다.

특히 코로나19 이후로 1년 사이 인공지능에 대한 수요가 급증하면서 기술 도입은 홍수처럼 몰려오는데 비해 이에 따른 윤리 문제에 대한 의식은 타 선진국에 비해 미흡하다는 것이 전문가들의 의견이었다.

하지만 일부에서는 이번에 발표된 인공지능 윤리 기준이 민간의 책임 권고에만 그치고 있어 손질이 필요하다는 지적이 나온다.

앞서 23일 발표된 윤리기준은 준수사항으로 지키지 않는다 하더라도 법적 책임이 따르지 않는다. 법과 제도 등을 정비한 로드맵도 윤리 부분에 대한 내용은 민간의 자율적 책임을 요구하는데 그친다.

기술, 저작권과 관련한 제도는 정비된 데 비해 윤리적인 문제는 아직도 자발적 참여와 준수에만 의존해야하는 상황이다. 때문에 윤리 문제에 대해서도 준나 권고를 넘어 법적인 제도가 완비되어야 한다는 의견이 불거지고 있다.

이러한 분위기 속에서 지난 15일 더불어민주당 이병훈 의원은 인공지능의 안전한 사용을 위한 '과학기술기본법 일부개정법률안'을 발의했다.

자율주행, 드론, 로봇 등 다양한 분야에서 활용되는 인공지능이 삶의 편리성을 향상할 수 있지만 동시에 편향성, 불투명성, 책임소재의 불분명 등으로 인한 문제가 야기될 수 있는 만큼 법 제도의 정비가 필요하다는 것.

이 의원은 “현행 법률은 인공지능 개발과 진흥에 중점을 두고 있고, 인공지능의 안전한 사용에 관한 조치는 미흡한 측면이 있다”며 “인공지능의 사용이 확대되면서 이에 비례해 그 위험도 증가할 수 있다”고 지적한 바 있다.

해당 법안이 심의·의결되면 인공지능 개발시 윤리적으로 지켜지지 못한 부분은 기업과 개발자 등에 책임 소재를 따질 수 있게 되며 공공성도 보다 확보할 수 있을 것으로 보인다.

우리나라는 인공지능 강국으로 도약하는 것을 목표로 국가 전략을 수립한 이후 국민 체감도가 높은 공공서비스를 위주로 인공지능 기술을 적극 도입하고 있다.

공공서비스는 정부가 국민에게 제공하는 서비스다. 공적 분야에 인공지능 도입이 활발해진다면 응당 정부도 인공지능 기술의 윤리적 문제와 공공성 문제에 책임을 져야 함이 맞다.  윤리적인 문제를 민간의 자율적 선택으로만 맡겨선 안되는 까닭이다.

인공지능 법제도 정비 로드맵 인포그래픽(사진제공=과학기술정보통신부)
인공지능 법제도 정비 로드맵 인포그래픽(사진제공=과학기술정보통신부)

 

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.


관련기사