• Tidak ada hasil yang ditemukan

인공지능 시대의 법적 쟁점에 관한 연구 - 한국법제연구원

N/A
N/A
Protected

Academic year: 2024

Membagikan "인공지능 시대의 법적 쟁점에 관한 연구 - 한국법제연구원"

Copied!
2
0
0

Teks penuh

(1)

RESEARCH REPORT

인공지능 시대의

법적 쟁점에 관한 연구

인공지능을 활용한 제4차 산업혁명의 도래에 대비하여 기술의 발전에 부합하는

법적 규제를 마련하는 것 외에도 인공지능의 확산이 가져올 수 있는 기본권 침해, 법적 책임의 귀속, 알고리즘 규제 필요성 등 다양한 법적 쟁점에 대한 국내외의 논의를 심층적으로 검토함으로써 우리 법제의 변화의 방향을 가늠해보고, 구체적이고 실효성 있는 대응 방안을 마련할 필요가 있다.

장민선(한국법제연구원 행정법제연구실 연구위원) 2018 기본연구계획

인공지능(AI) 기술이 상용화됨에 따라 우리 삶에 미치는 영향이 적지 않을 것으로 예측되고 있다. 자율주행자동차, 드론, 수술용 로봇, 전투용 로봇, 알파고에 이르기까지 인공지능 기술은 다양한 형태로 발현되고 있으며, 인간의 삶을 편리하게 하는 도구로서의 기능 외에 인간의 설 자리를 빼앗을 것이라는 두려움도 야기하고 있다. 인공지능에 대해 인간의 일자리를 빼앗을 것이라는 우려, 인공지능 서비스 소외계층의 발생으로 양극화가 발생될 것이라는 점, 인공지능에 대한 자율성 부여시 법적, 윤리적 판단의 문제 등이 논의되고 있다.

최근 우리 사회의 화두가 되고 있는 제4차 산업혁명도 ‘인공지능’을 핵심 성장동력으로 보고 있으며, 이를 통해 산업구조의 패러다임이 변화할 것이란 예측 하에 세계 각국은 인공지능 기술경쟁력을 확보하고 시장을 선점하려는 노력을 경주하고 있다. 이를 위해 불필요한 규제를 완화함으로써 신산업 성장에 저해가 될 요소를 발굴해내는데 주력하고 있으나, 아직 현행 법제는 인공지능 기술의 상용화라는 변화에 적절히 대응하지 못하고 있는 것으로 볼 수 있다.

현재, 우리나라에서도 「지능형 로봇 개발 및 보급 촉진법」이 제정되어 있으나 주로 지능형 로봇 기술의 개발 및 산업 촉진에 초점이 맞추어져 있고, 최근 로봇기본법안이 발의되기는 했으나 아직 로봇에게 전자적 인격을 부여한다는 것에 대한 사회적 합의가 이루어지지 못한 상태라고 할 수 있다. 즉, 인공지능 시대를 맞이하여 우리의 법제는 관련 기술의 발전 및 보급에 치중해 있고, 지능정보기술 활용의 보편화로 인해 발생할 수 있는 사회경제적 영향에 대해서는 아직 구체적인 대응책에 대해 본격적인 논의도 시작하지 못한 단계라고 할 수 있다.

반면에, 선진국들은 인공지능 시대가 도래할 것을 대비하여 산업계, 학계 또는 정부를 중심으로 인공지능의 사회적, 경제적, 법적 쟁점에 대해 연구와 논의를 진행하고 있다. 미국은 최근 백악관을 중심으로 인공지능에 대응하는 연구보고서 3종1 을 발간하였고, 구글 등 IT 기업들은 별도로 연구팀(예컨대, Deepmind Ethics & Society research unit 등)을 만들어

58

58

(2)

AI와 윤리, 법적 쟁점을 연구하고 있다. 일본은 2017년 총무성 주도로 ‘AI 네트워크 사회 추진회의’를 열고 국제적 논의를 위한 AI 개발 가이드라인을 확정하고, 로봇의 안전성, 보안성 등을 평가하는 ‘공적인증제도(公的認證制度)’의 운영계획을 발표한 바 있다. 인공지능의 법적 쟁점에 대해서 가장 빠른 속도로 대응하고 있는 것은 유럽연합이라고 할 수 있다. 유럽연합 의회는 2017년 AI 로봇에게 ‘전자인간(electronic personhood)’이라는 법적 지위를 부여할 수 있다는 결의안을 채택하고, 최초로 AI 로봇 개발 및 활용에 대한 가이드라인을 제시하였다.

이것은 AI 로봇에게 시민권을 부여할 수 있는 근거를 마련한 것처럼 이해되고 있으나, 사실 로봇이 야기할 수 있는 피해의 배상, 의사결정 등을 가능하게 하려면 전자 인격과 같은 특정한 법적 지위를 창설할 필요가 있다는 의미이다.

인공지능 기술의 발전에 관하여 지금까지 논의되어 온 규범적 이슈는 인공지능의 자율성과 인간의 통제권을 어떻게 조화시킬 것인가이다. 예컨대, 인공지능에 ‘자율성’을 부여할 경우 법적 책임을 어떻게 인정할 것인지, 책임을 인정하기 위해서는 인격을 부여해야 할 것인지, 알고리즘에 대한 신뢰성을 어느 정도 인정할 것인지, 알고리즘의 중립성을 확보하는 문제가 논의된다. 인간의 통제권에 관해서는 인공지능으로 인한 인간의 존엄성이나 인권 가치의 혼란, 사생활이나 개인정보의 침해 가능성, 갈등 조정의 거버넌스, 정보격차 발생으로 인한 불평등 등의 문제가 제기될 수 있다.

구체적으로는 인공지능 의사의 의료과실 사고나 자율주행 자동차의 충돌사고 등에서 법적 책임이 어디에 있는지 가늠할 수 있는 법체계가 필요하다고 할 것이다. 또한, 기존의 AI가 내린 최종결과를 어떻게 도출하게 되었는지 사람이 이해할 수 있도록 설명할 수 있는 AI(Explainable AI)의 개발이 진행 중인데, 이것은 인공지능에 의한 개인정보의 수집, 처리 과정에서 정보 주체의 권리와 연관될 수 있다.

이와 같이 인공지능을 활용한 제4차 산업혁명의 도래에 대비하여 기술의 발전에 부합하는 법적 규제를 마련하는 것 외에도 인공지능의 확산이 가져올 수 있는 기본권 침해, 법적 책임의 귀속, 알고리즘 규제 필요성 등 다양한 법적 쟁점에 대한 국내외의 논의를 심층적으로 검토함으로써 우리 법제의 변화의 방향을 가늠해보고, 구체적이고 실효성 있는 대응 방안을 마련할 필요가 있다. 본 연구는 이러한 인식 하에 관련 법적 쟁점들을 분야별로 나누어 살펴봄으로써 급속도로 발전하고 있는 인공지능 기술에 부합하면서도 다양한 상황에 대응할 수 있는 법제를 마련하는데 이론적 기반을 제공하는 것을 목적으로 한다.

1.

Preparing for the Future of Artificial Intelligence(Executive Office of the President, October 2016), The National Artificial Intelligence Research and Development Strategic Plan(National Science and Technology Council, October 2016), Artificial Intelligence, Automation, and the Economy(Executive Office of the President, December 2016).

59

Vol. 59 - Summer 2018

Referensi

Dokumen terkait