• Tidak ada hasil yang ditemukan

데이터 분석을 통한 인공지능(AI)윤리 이슈분석 및 정책적 시사점

N/A
N/A
Protected

Academic year: 2023

Membagikan "데이터 분석을 통한 인공지능(AI)윤리 이슈분석 및 정책적 시사점"

Copied!
25
0
0

Teks penuh

(1)

KISTI

mirian.kisti.re.kr 소대섭·박진서·이재성

데이터 분석을 통한 인공지능(AI)윤리

이슈분석 및 정책적 시사점

(2)

CHAPTER 01 연구의 목적

• 배경

• 필요성

• 연구의 목적

CHAPTER 02 개념 및 정의

• 인공지능의 정의

• 인공지능의 발전

• 인공지능 윤리원칙의 필요성 대두

CHAPTER 03 인공지능 윤리 정책 현황

• 국내외 주요 인공지능 윤리원칙 동향

• 인공지능 윤리 원칙 및 정책 현황

CHAPTER 04 데이터 분석

• 데이터 수집

• 데이터 분석 결과

CHAPTER 05 KISTI Data Insight

CONTENTS

2022. 12. 30.

mirian.kisti.re.kr

데이터 분석을 통한 인공지능(AI)윤리 이슈분석 및 정책적 시사점

소대섭·박진서·이재성

(3)

데이터 분석을 통한 인공지능(AI) 윤리 이슈분석 및 정책적 시사점

2022. 12. 30.

27

Highlights

- 연구분야별 윤리주제를 살펴본 결과, 사회과학과 공학 분야에서 중점적으로 다루는 주제가 각기 다른 것으로 나타남.

- 국가별로 AI 세부기술에 대해 윤리주제를 살펴본 결과, 대부분의 국가에서 AI, machine learning, deep learning를 주로 다 루는 반면, 한국은 Reinforcement learning와 convolutional neural network 등 보다 다양한 AI 기술분야를 다루고 있음.

• 세계는 지금 4차 산업혁명의 거대한 문명사적 변화에 직면하고 있으며, 그 중심에 인공지능(AI)기술이 자리잡고 있음.

- AI는 단순히 기계와 육체노동을 대체하는 수준을 넘어 인간 고유의 지적 기능을 수행하는 수준까지 발전하고, 미래에는 인간 의 능력을 넘어서는 전혀 새로운 기술의 출현을 예고하고 있음.

- AI 기술의 급속한 발전과 파급력의 증가와 활용·확산이 급증하면서 기술의 오남용·알고리즘에 의한 차별·프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두

- 이에 따라 기술적·사회적 패러다임의 변화에 대응하는 국가·사회 전반의 준비가 필요

- 국제기구 및 주요 선진국들을 중심으로 인공지능 개발 원칙과 윤리 준칙에 관한 가이드라인과 정책 및 법·제도가 만들어지고 있으며, 관련 연구도 크게 증가하고 있음.

- 우리나라도 정부와 공공기관을 중심으로 관련 정책과 지침이 만들어지고 있으며, 나아가 네이버와 카카오 등 대표적인 AI활 용 기업들도 자체적인 윤리지침을 제정하여 실천을 선언하고 있는 상황임.

• AI 윤리에 관한 연구와 정책 동향을 분석하기 위해, ‘Web of Science DB’를 바탕으로 데이터를 추출하였고, 이를 국가별, 주제분야별, 기술키워드별, 윤리키워드별로 분석을 수행하였음.

- 2017년 121건에 불과한 AI윤리 관련 연구 건수가 2021년에는 1,040건으로 크게 증가하였음.

- 국가별로 보면 미국이 1,357건으로 AI 윤리 연구를 주도하고 있으며, 영국, 중국, 독일, 캐나다, 호주, 네덜란드, 이탈리아, 스페인 등 중국을 제외하고 유럽이 이 분야 연구를 주도하고 있음.

- 윤리주제에 따른 윤리키워드로 살펴본 결과 국가별로 독특한 특징을 나타내고 있음. 국가별 연구논문에서 윤리키워드 비중 을 살펴본 결과, 10% 이상 차지하는 윤리키워드에 대해 대부분의 국가가 ethics에 집중하는 반면 한국과 싱가폴은 fairness 에 집중하는 경향을 모이고 있으며, 벨기에, 스위스, 스웨덴은 다양한 윤리 주제들 다루고 있음.

1200 1000 800 600 400 200

0 2017 2018 2019 2020 2021 2022

(4)

연구의 목적

지금 세계는 4차 산업혁명의 거대한 문명사적 변화에 직면

- 과거 산업화 과정에서 기계가 인간의 육체노동을 대체했다면, 이제는 인공지능(AI, Artificial Intelligence)이 인간의 지적 기능도 수행하는 수준까지 발전

- 그 결과, AI는 단순한 기술적 차원을 넘어 인문사회 등 모든 영역에 걸친 패러다임의 변화를 초래하므 로 국가·사회 전반의 준비가 필요

AI 기술의 활용과 AI 기반의 제품‧서비스 확산에 따라, 보안 위협의 증가뿐만 아니라 딥페이크와 같은 새로운 형태의 역기능도 출현

이에 따라 세계 각국은 안전성, 법적 책임, 인간 고유성 담보 등 AI 윤리 문제에 대응하 기 위한 규범 마련을 본격화

본 연구에서는 글로벌 이슈로 부각되고 있는 AI윤리에 대한 기술적 및 정책적 연구 현 황에 대해 데이터베이스 기반으로 동향을 분석하고 시사점을 도출하고자 함.

0 2

CHAPTER

0 1

CHAPTER

배 경 인공지능의 정의

인공지능의 발전 필요성

연구의 목적

개념 및 정의

인공지능(AI)은 인간의 지적 능력을 기계로 구현하는 과학기술로서, ‘인간의 학습능력 과 추론능력, 지각능력, 자연언어의 이해능력 등 인간의 지적 능력을 컴퓨터 프로그램 으로 구현하는 과학기술’로 정의할 수 있음.2)

- 존 매카시(John McCarthy)는 1956년 다트머스회의(Dartmouth Conference)에서 ‘인공지능’이라 는 말을 처음 사용

→ 인공지능을 ‘지능적인 기계를 만드는 과학 및 공학(The science and engineering of making intelligent machines)’로 정의

→ 인공지능의 궁극적인 목표 : 사람과 유사한 혹은 사람 수준의 기계장치를 개발하는 것 ※ 실제로는 인공지능(Artificial Intelligence)이라는 용어는 다트머스회의 개최를 위해 1955년

8월 31일 작성된 제안서(A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence)에 최초로 등장

앨런 튜링(Alan M. Turing)이 1950년 튜링테스트를 통해 ‘지능을 가지는 기계’에 대 한 개념을 제시한 이후, 최근에는 GPT-3(Generative Pre-trained Transformer 3) 와 초인공지능 등 인간을 넘어서는 차세대 AI로 발전하고 있음

<그림 1-1>

AI 윤리 규범 및 가이드라인 마련 현황1)

1) 인공지능 국가전략, 관계부처합동, (2019.12) 2) 위키백과, 나무위키 등을 참고하여 정의함.

(출처) 인공지능 국가전략, 관계부처합동, (2019.12)

인공지능(AI: Artificial Intelligence)이란?

인간의 지적능력을 컴퓨터로 구현하는 과학기술로서, ①상황을 인지하고, ②이성적·논리적 으로 판단·행동하며, ③감성적·창의적인 기능을 수행하는 능력까지 포함

산업화 AI화

(5)

AI기술의 급속한 발전으로 제조·의료·교통·환경·교육 등 산업 전분야에 인공지능이 활 용·확산되면서, 기술의 오남용·알고리즘에 의한 차별·프라이버시 침해 등 인공지능 윤 리 이슈가 새롭게 대두

인공지능 윤리에 관한 논란들이 다수 발생하고 있으며, 이를 기술오남용, 데이터 편향 성, 알고리즘 차별, 프라이버시 침해 분야로 나누어 사례를 <표 2-2>에 정리함.

OECD, EU 등 세계 각국과 주요 국제기구 등은 인공지능 윤리의 중요성을 인식하고 윤리적인 인공지능 실현을 위한 원칙들을 발표 중

우리나라에서도 2018년 4월 「지능정보사회윤리가이드라인(정보문화포럼)」, 2019년 11월 「이용자중심의 지능정보사회를 위한 원칙(방통위)」 등이 발표되면서 본격적으로 논의되기 시작

1960년대

인간의 기본적인 추론 방식을 흉내낼 수 있도록 컴퓨터를 훈련 - 대부분의 AI 문제는 현실적으로 구현이 불가능하다는 인식이 확산됨 - 신경망 증명의 한계로 인해 신경망 관련 연구의 급격한 쇠퇴 1970년대 관련 학회가 설립되고, ‘전문가 시스템(experts system)’으로 한계 돌파 1980년대 인공신경망(Neural Network) 연구 확산. 생활에 도움되는 AI연구

1990년대

기계학습(Machine Learning) 기술 발전 - 데이터, 인터넷, 검색 엔진 등

- 인공지능 시스템 자신 스스로 학습하는 형태로 진화

2000년대 인터넷의 폭발적인 확산, 대량의 데이터 생산 - 기계학습을 통한 기술 개발이 가속화

2010~현재 스마트폰 등 디지털기기의 증가. 데이터가 기하급수적으로 증가 - 딥러닝, 모든 분야에서 활용 영역을 확대

인공지능 윤리원칙의 필요성 대두

<표 2-1>

AI의 역사

<그림 2-1>

AI의 발전도3)

3) I-Korea 4.0 실현을 위한 인공지능(AI) R&D 전략, 과학기술정보통신부, (2018.5)

<표 2-2>

윤리적 논란 사례 구 분 시 점 내 용

기술 오남용 2019년 9월 (보이스 피싱) 유럽 한 에너지기업의 CEO는 영국 범죄자들이 AI를 활용해 정교하게 만든 모회사 CEO의 가짜 음성에 속아 22만 유로를 송금하는 피해

데이터 편향성 2018년 10월 (여성 차별) 아마존의 인공지능 기반 채용시스템이 개발자, 기술 직군 대부분에 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동 시스템 사용 폐기

알고리즘 차별 2018년 1월 (인종 차별) 인공지능 기반 범죄 예측 프로그램인 ‘COMPAS’의 재범률 예측에서 흑인 범죄자의 재범가능성을 백인보다 2배 이상 높게 예측하는 편향 발견

프라이버시 침해 2019년 9월 (정보 유출) 아마존 ‘알렉사’, 구글 ‘구글 어시스턴트’, 애플 ‘시리’ 등이 인공지능 스피커로 수집된 음성 정보를 제3의 외부업체가 청취하는 것으로 밝혀져 논란

※ 사람이 중심이 되는 인공지능 윤리기준(2020.12.23) 참고하여 재작성

(6)

인공지능 윤리 정책 현황

OECD : OECD ‘디지털경제정책위원회’ 주관하에 신뢰가능한 AI를 위한 5개 원칙 및 5개 제언을 담은 「Recommendation of the Council on AI」 발표(‘19.5)

- 주요 원칙 : 포용적 성장, 지속가능한 발전, 인간중심 가치, 공정성, 투명성, 설명가능성, 견고성, 보안 및 안전, 책무성

EU : EU 산하 AI고위전문가 그룹 주도로 관련 주체들에게 필요한 7개 윤리 원칙과 각 원칙별 평가리스트를 담은 「Ethics Guideline for Trustworthy AI」 발표(’18.12) - 주요 원칙 : 인간행위자와 감독, 기술적 견실성(Technical robustness), 안전, 사생활, 데이터 관

리, 투명성, 다양성, 차별금지, 정당성, 사회환경적 복지, 책무성 등

일본 : 일본의 AI 연구개발 목표 및 산업화 로드맵에 따라 25명의 산학연 전문가로 구 성된 ‘인간 중심의 AI 사회 원칙 위원회’를 통해 「인간 중심의 AI 원칙」발표(‘19.3) - 주요 원칙 : 인간 중심 AI, 교육 평등 제공, 개인정보 보호, 보안 확보, 공정 경쟁, 공정·책임·투명

성, 혁신

2018년 6월 ①「지능정보사회 윤리 가이드라인(정보문화포럼, 한국정보화진흥원)」, 2019년 11월 ②「이용자중심의 지능정보사회를 위한 원칙(방통위)」등이 마련된 바 있 으나, 범국가 인공지능 윤리원칙이라고 보기는 힘듬

두 원칙 모두 AI 특화가 아닌 지능정보기술 전반(클라우드, 빅데이터, IoT, 블록체인 등)을 대상으로 하며, ①은 정부가 아닌 민간 발표, ②는 이용자 보호 관점을 강조

인공지능 윤리에 관한 최초의 원칙은 1942년 미국의 SF작가 아이작 아시모프(Isaac Asimov, Isaak Yudovich Ozimov)가 로봇에 관한 단편 소설 ‘Runaround’에서 처음 언급 ▶ 로봇공학 3원칙(아시모프)

- 제1원칙 : 로봇은 인간에게 해를 끼쳐서는 안되며 위험에 처한 인간을 방관해서도 안 된다.

- 제2원칙 : 로봇은 인간에 의해 주어진 명령에 반드시 복종해야 한다. 다만, 원칙 1을 위배하는 경우는 예외이다.

- 제3원칙 : 로봇은 자기 자신을 보호해야 한다. 그러나 앞서 언급한 1원칙과 2원칙을 위배하는 경우는 예외이다.

주요국의 실행적인 원칙

- 주요국 정부기관, 국제기구, 기업 등은 AI에 대한 윤리적 권고사항과 개인정보 보호 지침을 발표 하며 활발하게 논의 중이며, 이를 정리하면 <표 3-3>과 같음.

한국

0 3

CHAPTER

국외

국내외 주요 인공지능 윤리원칙 동향

4)

인공지능 윤리 원칙 및 정책 현황

4) 사람이 중심이 되는 인공지능(AI) 윤리기준, 4차산업혁명위원회, (2020.12.23.) 참고

5) EDPS : The European Data Protection Supervisor, 유럽데이터보호감독관

6) CNIL : Commission Nationale de l'Informatique et des Libertés, 프랑스 국가정보처리자유위원회 7) GPDP : Garante per la protezione dei dati personali, 이탈리아 개인정보 감독기구

<표 3-1>

해외 윤리규범 동향 구 분 윤리 규범

OECD 인공지능 권고안('19.5, 이사회), 동 권고안의 G20 정상선언문 반영(‘19.6) EU 신뢰할 수 있는 인공지능 윤리 가이드라인(’18.12, 인공지능 고위전문가그룹) UNESCO 인공지능 윤리에 대한 권고사항 초안('19.5, 특별전문가그룹)

일본 인간 중심의 인공지능사회 원칙(‘19.3, 통합혁신전략추진회의) 미국 AI 활용에 대한 구글 원칙(’18.6, 구글)

<표 2-2>

윤리적 논란 사례 구분 시 점 제목(발간연도)

국외

국제기구 OECD, G20 인공지능 원칙(2019)

싱가포르

개인정보보호위원회 인공지능 거버넌스 프레임워크 모델(2020) 개인정보보호위원회 인공지능과 개인정보에 대한 의견서(2018)

미국

연방거래위원회 인공지능과 알고리즘에 대한 지침(2020) 국가표준기술연구원 설명 가능한 인공지능 4원칙(2020)

EU

유럽집행위원회

신뢰할만한 인공지능 가이드라인(2019) 인공지능 시스템 규제안(2021)

EDPS5), CNIL6), Garante7) 인공지능 윤리 및 데이터 보호에 대한 선언문(2018)

캐나다 개인정보보호위원회

자동화된 의사결정에 대한 지침(2020) 인공지능의 적절한 규제를 위한 제안사항(2019) 독일 정보보호감독청 인공지능 7개조 원칙(2019)

프랑스

개인정보보호위원회 개인정보 보호를 위한 챗봇 가이드라인(2021) 개인정보보호위원회 알고리즘 및 인공지능 윤리 문제의 권고사항(2018)

(7)

아실로마 인공지능 원칙 (2017.01)

- 2017년 1월, 캘리포니아 아실로마AI컨퍼런스에서 발표된 인공지능 개발 원칙(23개 준칙으로 구성됨)

- AI 연구를 지원하는 비영리단체 퓨처오브라이프가 주관

- 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이 상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한 다는 원칙

- 스티븐 호킹, 일론 머스크, 데미스 하사비스 등 총 2,000명의 과학계, 기술계 인사 지지 서명

▶ 연구 이슈(Research Issues) 5가지

▶ 윤리 및 가치(Ethics and Values) 13가지

구분 시 점 제목(발간연도)

국외 영국

개인정보보호위원회 인공지능 및 개인정보 보호에 대한 지침(2020) 앨런튜링연구소 인공지능 윤리와 안전의 이해 지침서(2019) 호주 연방과학산업연구원 인공지능 8대 윤리 원칙(2019)

중국

국가정보보안표준화기술위 인공지능 윤리적 보안 위험 방지에 대한 사이버보안 실행 가이드 (2021)

차세대인공지능관리특별위 차세대 인공지능 관리 원칙(2019)

일본 내각관방 인간 중심의 인공지능 사회 구현을 위한 원칙(2019) 홍콩 개인정보보호위원회 데이터 처리에 대한 윤리적 책임성 프레임워크(2018)

국내 한국

과학기술정보통신부 사람이 중심이 되는 AI 윤리기준(2020) 방송통신위원회 이용자 중심의 지능정보사회를 위한 원칙(2019)

네이버 네이버 AI 윤리 준칙(2021)

카카오 알고리즘 윤리헌장(2018 제정, 2019·2020 개정)

※ https://repository.sapi.co.kr <서울대 인공지능정책 이니셔티브 AI 윤리원칙 인덱스>, https://kaiea.org/research <한국인공지능윤리협회 연구자료실> 등의 정보 참고

※ EU집행위원회는 ‘AI에 대한 조화로운 규칙 수립 규정’(AI 법)을 제안(’21.4)하는 등 해외 주요국은 AI 관련 법률 제정에 대 한 논의·연구를 진행 중

국외

원 칙 설 명

연구 목표 (Research Goal)

인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다.

연구비 지원 (Research Funding)

인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.

과학 정책 연계

(Science-Policy Link) 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.

연구 문화

(Research Culture) 인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.

경쟁 지양 (Race Avoidance)

인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다.

원 칙 설 명

안전 (Safety)

인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용가능하고 실현 가능할 경우 검증할 수 있어야 한다.

장애 투명성

(Failure Transparency) 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.

사법적 투명성 (Judicial Transparency)

사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다.

책임성 (Responsibility)

고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다.

가치관 정렬 (Value Alignment)

고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.

인간적 가치 (Human Values)

인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계, 운용되어야 한다.

개인정보 보호 (Personal Privacy)

인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용 되어야 한다.

자유와 개인정보 (Liberty and Privacy)

인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다.

공동 이익

(Shared Benefit) 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다.

공동 번영 (Shared Prosperity)

인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다.

(8)

▶ 장기적 이슈(Longer-term Issues) 5가지

일본 총무성, AI 연구개발 가이드라인 (2017.04) - 3개의 기준으로 분류된 9개의 AI 연구개발 원칙으로 구성

로마교황청, 인공지능 윤리를 위한 로마 선언 (2020.02.28) - 로마 교황청, AI 이용에 관한 윤리지침 발표

- 로마 교황청 소속 라이프 아카데미(Rome Call for AI Ethics) 가 인공지능(AI) 기술이 급속도로 발전함에 따른 인간다움과 도덕관, 윤리의 상실을 막기 위해 AI 활용 시 지켜야 할 가이 드라인(Rome Call for AI Ethics)을 발표

- 마이크로소프트, IBM 등 주용 기업들이 문서에 서명하고 동참 - 6가지 관점에서 AI 기술의 윤리적인 개발과 이용을 권장 ① 투명성(Transparency) : AI 기술은 기본적으로 설명이 가

능할 것.

② 포함성(Inclusion) : AI 기술의 발전이 전 인류 한 사람 한 사람에게 혜택을 줄 것.

③ 책임성(Responsibility) : AI 개발 및 활용에 대해서 책임지고 수행할 것.

④ 공평성(Impartiality) : 편견이나 차별에 근거해 AI 기술을 개발하거나 이용하지 말 것.

⑤ 신뢰성(Reliability) : AI 기술이나 서비스는 신뢰성을 갖출 것.

⑥ 보안 및 개인정보(Security and Privacy) : AI 기술은 보안을 지키고, 사용자의 프라이버시를 배려할 것.

원 칙 설 명

인간 통제 (Human Control)

인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.

비파괴 (Non-subversion)

고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다.

무기 경쟁

(AI Arms Race) 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.

원 칙 설 명

능력 주의

(Capability Caution) 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 한다.

중요성 (Importance)

고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.

위험 (Risks)

인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다.

재귀적 자기 개선 (Recursive Self-Improvement)

인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.

공동의 선 (Common Good)

초지능은 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.

분 류 원 칙 설 명

이익 증진 및 올바른 개발

협력성 (collaboration)

• AI 시스템 간의 상호 연결성(inter-connectivity) 및 운용성(inter- operability)에 관한 원칙

위험 완화

투명성 (transparency)

• AI 시스템 산출물의 검증(verifiability) 및 산출 근거의 설명 가능성에 관한 원칙

통제가능성

(controllability) • 사용자의 AI 시스템 통제 가능성에 관한 원칙

안전성

(safety) • 사용자의 생명, 신체, 자산 등에 미치는 영향에 관한 원칙

보안성 (security)

• AI 시스템이 갖춰야할 신뢰성, 기밀성, 무결성 등의 보안 요소에 관한 원칙

프라이버시

(privacy) • 사용자의 사생활, 개인 정보 등을 침해하지 않음에 관한 원칙

윤리 (ethics)

• AI 시스템 연구개발에서 인간의 존엄성과 자주성 등이 고려되어야 함에 관한 원칙

사용자의 수용성 (acceptance) 향상

사용자 지원성 (user assistance)

• AI 시스템이 사용자에게 적절한 지원 방법을 제공해야 함에 관한 원칙

책임성

(accountability) • AI 시스템 연구·개발자의 책임에 관한 원칙

<자료> 일본 총무성, AI 연구개발 가이드라인(draft) 주요 내용 (금융보안원, 2018.02.07)

연구 이슈 윤리와 가치 장기적 이슈

• 연구 목표

• 연구비 지원

• 과학정책 연계

• 연구 문화

• 경쟁 회피

• 안전

• 실패의 투명성

• 사법적 투명성

• 책임성

• 가치 일치

• 인간의 가치

• 개인정보 보호

• 자유와 프라이버시

• 이익의 공유

• 번영의 공유

• 인간통제

• 사회 전복 방지

• 인공지능 무기 경쟁

• 역량 경고

• 중요성

• 위험성

• 자기 개선 순환

• 공동의 선

(9)

美 백악관, AI 권리장전 (2022.10.11)

- 미국 백악관, AI 시대 시민의 권리를 보호하기 위해 ‘AI 권리장전(AI Bill of Rights)’을 발표 (2022.10.04)

- AI 시대에 미국인들의 권리를 보호하기 위한 다섯 가지 방안의 개요가 포함 - 주요 내용 :

① 미국인은 안전하지 않거나 비효율적인 시스템으로부터 보호받아야 한다.

② 알고리즘은 차별적이지 않아야 하고 시스템은 형평의 원칙을 바탕으로 한 설계대로 사용되 어야 한다.

③ 시민들은 자신의 데이터에 대한 권리가 있어야 하고 내장된 안전장치를 통해 데이터 악용 으로부터 보호받아야 한다.

④ 시민들은 또한 자신들에게 자동화 시스템이 사용될 때마다 상황을 알아야 하고 자동화 시 스템 사용이 결과에 미치는 영향을 이해해야 한다.

⑤ 사람들은 항상 AI 시스템 대신에 사람을 대안으로 선택할 수 있어야 하며 문제가 있을 때 해결 방안에 접근할 수 있어야 한다.

- 특징 : 법적 구속력이 없고 미국 정부의 공식적 정책은 아님

정보화진흥원, 지능정보사회 윤리 가이드라인 (2018.09.17) - 4개의 공통원칙을 포함

① 공공성(Publicness)

② 책무성(Accountability)

③ 통제성(Controllability)

④ 투명성(Transparency)

한국인공지능윤리협회, 인공지능 윤리 헌장 (2019.10.23)

- 한국인공지능윤리협회는 2019년 10월에 인공지능 윤리헌장(The AI Ethics Charter)을 제정하 여 발표

- 서문과 5장 37조로 구성되어 있으며, 인공지능의 막대한 파급효과에 대한 역작용, 위험성에 대 한 대응방안과 윤리에 대한 공통기준을 제시

- 기관, 단체 및 개인에게 사용을 허용하였으며, 지속적인 보완 추진 UNESCO, ‘AI 윤리’ 국제 표준 지침 (2021.11.23)8)

- 유네스코(UNESCO)는 2021년 11월 23일, 프랑스 파리 유네스코 본부에서 열린 제41차 유네 스코총회에서 193개 회원국의 만장일치로 '유네스코 인공지능(AI) 윤리 권고'를 채택

- AI의 건전한 발전을 보장하는 법적 인프라 구축을 안내할 공통 가치와 원칙을 정의 - ‘권고’는 국제법인 ‘협약’보다 약하지만 ‘선언’보다 구속력이 있는 지침임.

- 주요 내용은 다음과 같음.

• 데이터 보호 : 개인 데이터에 관한 투명성, 대리인, 통제를 보장함으로써 개인데이터 보호를 위해 기술 기업 및 정부가 수행하는 것 이상의 조치를 통하여 데이터를 보호한다. 권고는 개 인 모두 자신의 개인 데이터 기록에 접근하거나 심지어 삭제할 수 있어야 한다고 명시하고 있다. 여기에는 데이터 보호와 개인 데이터에 관한 지식 및 제어 권한을 개선하기 위한 조치 도 포함된다.

• 사회적 신용 점수제 및 대중 감시 금지 : 권고는 사회적 신용 점수제(social scoring) 및 대중 감시(mass surveillance)를 목적으로 한 AI 시스템 사용을 명시적으로 금지한다. 유네스코 는 이러한 종류의 기술이 인권과 기본적인 자유를 침해하며, 널리 사용되고 있다고 지적했 다. 권고에 따르면 규제 프레임워크 개발 시 궁극적인 책임 및 의무는 항상 인간에게 있으며, AI 기술에 법적 인격을 부여해서는 안 된다는 점을 고려해야 한다.

• 모니터링 및 평가 지원 : 윤리적 영향 평가 는 AI 시스템을 개발 및 배포하는 국가와 기 업이 개인, 사회, 환경에 미치는 영향을 평 가하는 데 도움을 주기 위한 것이다. 준비 성 평가 방법론은 회원국이 법률 및 기술 인 프라 측면에서 얼마나 준비됐는지 평가하는 데 도움을 준다. 이 도구는 국가의 제도적 역량 강화를 지원하며, 윤리가 실제로 구현 되도록 하기 위해 취해야 할 적절한 조치를 권장한다. 또한, 감사와 지속적인 모니터링 을 감독하기 위한 독립적인 AI 윤리기관 또 는 기타 메커니즘을 도입해야 한다.

• 환경 보호 : 권고는 정부가 AI 시스템 수명 주기 전반에 걸쳐 직·간접적인 환경영향을 평가할 것을 권장한다. 여기에는 탄소 발자

국, 에너지 소비, AI 개발 지원 과정에서 원료 추출에 따른 환경적 영향이 포함된다. AI 시스 템 및 데이터 인프라의 환경 영향을 줄이는 것도 목표로 한다.

8) CIO Korea, https://www.ciokorea.com/news/216589). (2021.11.30)

국내 공공부문

(10)

관계부처합동/4차산업혁명위원회, 사람이 중심이 되는 「인공지능 윤리 기준」

(2020.12.23)

- 3대 기본원칙, 10대 핵심요건으로 구성됨.

▶ 3대 기본원칙 : 인공지능 개발 및 활용 과정에서 고려될 원칙

- ‘인간성을 위한 인공지능(AI for Humanity)’을 위해 인공지능 개발에서 활용에 이르는 전 과정 에서 고려해야 할 3대 기본원칙을 제시

① 인간 존엄성 원칙

- 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과 는 교환 불가능한 가치가 있다.

- 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.

- 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.

② 사회의 공공선 원칙

- 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.

- 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하 도록 개발 및 활용되어야 한다.

- 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.

▶ 원 칙

제 1장 인간과 인공지능의 관계

제1조. 인공지능은 인간을 편리하고 행복하게 하기 위한 도구이다.

제2조. 인공지능은 인간의 존엄성과 인류 보편의 가치를 존중해야 한다.

제3조. 인공지능은 인간에게 절대 해를 끼쳐서는 안 된다.

제4조. 인공지능은 인간의 통제 하에 만들어지고 사용되어야 한다.

제5조. 인공지능은 인간의 선한 본성을 추구해야 한다.

제6조. 인공지능은 인간과 동등한 수준의 의사결정 권한, 특히 옳고 그름 판단권한을 가질 수 없다.

제7조. 인공지능의 어떤 의사결정도 인간에 의해 수정되거나 취소될 수 있다 제 2장 선하고 안전한 인공지능

제8조. 전쟁과 인명 살상 목적의 인공지능은 절대 만들어서는 안 된다.

제9조. 인공지능 기술과 알고리즘은 인류 보편의 가치에 반할 수 없다.

제10조. 인공지능 기술과 알고리즘에 불안전한 요소가 발견 시 즉각 수정되어야 한다.

제11조. 인공지능 기술과 알고리즘은 기록과 문서화에 의해 투명하게 관리되어야 한다.

제12조. 인공지능 기술, 알고리즘, 데이터들은 외부 공격에 방어할 수 있는 강력한 보안체계를 유지해야 한다.

제13조. 인공지능에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다.

제14조. 빅데이터 수집 시 합법적인 절차에 따라야 하며 개인의 프라이버시를 침해하지 않아야 한다.

제15조. 인공지능 사용 환경에 노출 시 자율적 선택권이 보장되어야 하며 종속되거나 강제되지 않아야 한다.

제16조. 인공지능 제품과 서비스에는 비상용 킬스위치를 반드시 내장해야 한다.

제17조. 인공지능 제품과 서비스는 출시 전 충분히 반복된 품질검사를 거쳐야 한다.

제18조. 인공지능 제품과 서비스는 출시 전 중립적인 인공지능윤리위원회의 검수 및 검증을 거쳐야 한다.

제19조. 인공지능 제품과 서비스는 사후 모니터링 시스템에 의해 철저히 관리되어야 한다.

제20조. 인공지능이 고장나거나 장애를 일으킬 경우 그 원인을 파악할 수 있어야 한다.

제 3장 인공지능 개발자의 윤리

제21조. 인공지능 개발자는 강화된 윤리적 책임의식을 가져야 한다.

제22조. 인공지능 개발자는 인간에게 해를 끼치는 인공지능을 만들어서는 안 된다.

제23조. 인공지능 개발자는 합의된 안전 개발 지침에 의거하여 인공지능 제품과 서비스를 만들어야 한다.

제24조. 개발자는 인공지능에 자체적인 의사결정 능력 부여시 고도의 주의를 기울여야 한다.

제25조. 개발자는 머신러닝 알고리즘을 적용할 경우, 제13조에 의한 빅데이터를 선별하기 위해 노력해야 한다.

제26조. 개발자는 머신러닝 알고리즘을 적용할 경우, 출시 전 충분한 시뮬레이션을 통해 결과값에 대한 오류를 최소화하고, 결과값에 대한 충분한 예측 정보를 확보해야 한다.

제27조. 개발자 또는 개발회사는 소비자에게 인공지능 제품과 서비스에 대한 충분한 정보제공 및 주의사항을 고지할 의무가 있다.

제28조. 개발자 또는 개발회사는 인공지능 제품과 서비스에 본래 목적 외의 기술이나 기능이 내장되는 경우 이를 소비자에게 고지할 의무가 있다.

제29조. 개발자 또는 개발회사는 소비자에게 제품과 서비스에 인공지능 기술이 적용되어 있음을 표지나 문서, 음성 등으로 사전에 고지해야 한다.

제30조. 개발자 또는 개발회사는 소비자로부터 데이터를 수집 받을 경우 사전에 동의를 구하거나 해당 내용을 고지해야 한다.

제31조. 인공지능 개발자는 인공지능의 안전과 윤리에 관해 다양한 관계자들과 협력하고 지속적인 교육을 받아야 한다.

제32조. 인공지능 개발회사는 소속 개발자들이 안전하고 윤리적인 인공지능을 만들 수 있도록 관련 환경을 조성해주고 적극 지원해 주어야 한다.

제38조. 인공지능 개발자는 인공지능을 이용한 신기술을 개발할 경우, 순기능뿐만 아니라 사회에 미칠 부작용을 고려해야 하며 역기능이 우려될 경우 개발에 보다 신중해야한다.

제 4장 인공지능 소비자의 윤리

제33조. 소비자는 인공지능 제품과 서비스를 타인을 해치거나 범죄의 목적으로 사용해서는 안 된다.

제34조. 소비자는 인공지능 제품과 서비스를 올바른 방법으로 사용해야 한다.

제39조. 인공지능 사용자와 소비자는 인공지능을 이용하여 영상, 이미지, 음성 등을 조작한 콘텐츠를 생성 및 배포할 경우, 해당 콘텐츠가 인공지능을 이용하여 제작한 콘텐츠임을 표지나 문서, 음성 등으로 사전에 밝혀야 한다.

제 5장 공동의 책임과 이익의 공유

제35조. 인류는 공동의 책임과 의무로 인공지능의 위험성을 감시하고 기 발생한 해악을 제거해야 한다.

제36조. 인공지능의 편익과 혜택은 온 인류가 공평하게 누리고 향유할 수 있어야 한다.

제37조. 인공지능 기술 수혜의 취약 국가와 취약 계층을 위해 인류 공동의 지원과 교육이 이루어져야 한다.

(11)

- 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관 리해야 한다.

⑧ 책임성

- 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하 도록 노력해야 한다.

- 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.

⑨ 안전성

- 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노 력해야 한다.

- 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.

⑩ 투명성

- 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수 준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.

- 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야 한다.

국토교통부, 자율주행자동차 윤리가이드라인 (2020.12)

- 윤리 가이드라인은 자율주행차가 인명 보호를 최우선하도록 설계·제작되어야 한다는 원칙을 중 심으로 한다.

- 자율주행차는 ▶ 재산보다 인간 생명을 최우선해 보호할 것, ▶ 사고 회피가 불가능할 경우 인명 피해를 최소화할 것 등을 제시

- 자율주행차의 이용자는 ▶ 자율차 운행이 타인의 자유와 권리를 침해하지 않도록 할 것, ▶ 올바 른 운행을 위해 안전교육을 받을 것 등을 제시

개인정보보호위원회, 인공지능(AI) 개인정보보호 자율점검표 (2021.05.31)

- AI 기술·서비스가 지속적으로 발전·변화하고 있는 점을 고려, 개인정보보호에 관한 의무준수뿐 만 아니라, 자사 기술·서비스 환경에 적합한 자율적인 개인정보보호 이행·점검에 필요한 사항을 안내할 목적으로 마련

- AI 관련 개인정보보호 6대 원칙

① 적법성 : 개인정보의 수집·이용·제공 등 처리의 근거는 적법·명확해야 한다.

② 안전성 : 개인정보를 안전하게 처리하고 관리한다.

③ 투명성 : 개인정보 처리 내역을 정보주체가 알기 쉽게 공개한다.

④ 참여성 : 개인정보 처리에 대한 소통체계를 갖추고 정보주체의 권리를 보장한다.

⑤ 책임성 : 개인정보 처리에 대한 관리 책임을 명확히 한다.

⑥ 공정성 : 개인정보를 수집 목적에 맞게 처리하여 사회적 차별·편향 등 발생을 최소화한다.

③ 기술의 합목적성 원칙

- 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용되어야 하며 그 과정도 윤리적이어야 한다.

- 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.

▶ 10대 핵심요건 : 기본원칙을 실현할 수 있는 세부 요건

- 3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시

① 인권보장

- 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.

- 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.

② 프라이버시 보호

- 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다.

- 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다.

③ 다양성 존중

- 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·

장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공 지능은 모든 사람에게 공정하게 적용되어야 한다.

- 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능 이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다.

④ 침해금지

- 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다.

- 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.

⑤ 공공성

- 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.

- 인공지능은 긍정적 사회변화를 이끄는 방향으로 활용되어야 한다.

- 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.

⑥ 연대성

- 다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해 야 한다.

- 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.

- 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.

⑦ 데이터 관리

- 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않 아야 한다.

(12)

한국지능정보사회진흥원, NIA 국가 인공지능 사업추진 윤리원칙 (2021.09.06)

- 국내 공공기관 최초로 국가의 인공지능 사업을 추진하는 과정에서 지켜야 할 최소한의 규범을 담은 AI 사업추진 윤리원칙 제정

국가인권위원회, 인공지능 개발과 활용에 관한 인권 가이드라인 (2022.05.11) - 인공지능 개발·활용 시 인간의 존엄성과 기본권 보장을 위한 기준 제시

- 주요 내용 : △인간의 존엄성 및 개인의 자율성과 다양성 보장, △투명성과 설명 의무, △자기 결정권의 보장, △차별금지, △인공지능 인권영향평가 시행, △위험도 등급 및 관련 법·제도 마련 등

방송통신위원회, 인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙 (2021.06.30) - 3대 핵심 원칙 : 투명성, 공정성, 책무성

- 5대 실행 원칙 : 이용자를 위한 정보 공개, 이용자의 선택권 보장, 자율검증 실행, 불만 처리 및 분쟁 해결, 내부 규칙 제정

금융위원회, 금융분야 AI 가이드라인 (2021.07.08)

- 금융권 인공지능(AI) 활용을 활성화하고 인공지능(AI) 기반 금융서비스에 대한 신뢰를 제고하기 위한 모범규준 마련

- 주요 내용 :

• AI윤리원칙-AI전담조직-위험관리정책 수립의 3重 내부통제장치 마련

• AI학습 데이터에 대한 조사·검증 강화, 개인신용정보 오·남용 방지

• 불합리한 소비자 차별 등이 없도록 시스템 위험관리 및 공정성 제고

• 소비자에 AI서비스에 대한 충분한 설명 및 권리행사를 보장 사회를 위한 보건의료 분야 인공지능 활용 가이드 (2021.08.12) - 한국, 싱가포르, 영국 소재 3개 기관의 협력으로 개발

- 한국 4차산업혁명정책센터(Korea Policy Center for the Fourth Industrial Revolution) : 포용 적 혁신을 위한 4차 산업혁명 기술 모니터링 및 관련 정책과 거버넌스 연구를 수행하는 KAIST 연구소

- 리스크공공이해연구소(Lloyd’s Register Foundation Institute for the Public Understanding of Risk) : 아시아 및 전세계의 리스크에 관한 소통 및 리스크에 관한 공공의 이해를 증진하여 삶 의 질을 제고하기 위해 설립된 싱가포르국립대 연구소

- 센스어바웃사이언스(Sense about Science) : 과학기술을 올바르게 활용하여 공공의 이익을 추 구하는 영국의 비영리 기관

핵심 원칙

투명성 공정성 책무성

이용자를 위한

정보 공개 이용자의

선택권 보장 자율검증 실행 불만 처리 및

분쟁 해결 내부 규칙 제정

실행 원칙

(13)

네이버, AI 윤리 준칙 (2021.02.17)

- 네이버는 첨단의 AI 기술을 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠습니다.

사용자에게 새로운 연결의 경험을 선보이는 도전을 멈추지 않음으로써 다양한 기회와 가능성을 열어 나가겠습니다.

- 이를 위해 네이버의 모든 구성원은 AI 개발과 이용에 있어 아래와 같은 윤리 원칙을 준수하겠습 니다.

① 사람을 위한 AI 개발

네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구입니다. 네이버는 AI의 개발과 이 용에 있어 인간 중심의 가치를 최우선으로 삼겠습니다.

네이버는 사용자의 일상에 편리함을 더하기 위해 기술을 개발해왔고, AI 역시 일상의 도구 로 활용될 수 있도록 발전시켜 나가고 있습니다. 네이버는 AI가 우리의 삶을 편리하게 만들 어줄 수 있는 기술이지만, 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고 있습니 다. 네이버는 AI가 사람을 위한 일상의 도구가 될 수 있도록, 지속적으로 살펴보며 개선해 나가겠습니다.

② 다양성의 존중

네이버는 다양성의 가치를 고려하여 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하 지 않도록 개발하고 이용하겠습니다.

네이버는 다양성을 통해 연결이 더 큰 의미를 가질 수 있도록 기술과 서비스를 구현해 왔습니 다. 그 과정에서 사용자에게 다채로운 기회와 가능성을 열어왔고, 합리적 기준 없는 부당한 차별이 발생하지 않도록 노력해 왔습니다. 네이버는 AI 서비스에서도 부당한 차별을 방지하 고 다양한 가치가 공존하는 경험과 기회를 제공해 나가겠습니다.

③ 합리적인 설명과 편리성의 조화

네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용 자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다하겠습니다. 네이버는 AI에 관한 합리 적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하 여 노력하겠습니다.

네이버의 AI는 기술을 위한 기술이 아니며, 기술적 지식이 없이도 누구나 손쉽게 활용할 수 있는 도구가 될 것입니다. 네이버는 서비스의 편리함을 추구하면서, 사용자의 요구가 있거나 필요한 경우에는 AI 서비스에 대해 쉽게 이해할 수 있도록 사용자의 눈높이에 맞춰 설명하겠습니다.

④ 안전을 고려한 서비스 설계

네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서 비스를 설계하겠습니다.

사람을 위한 일상의 도구인 AI가 사람의 생명과 신체를 위협하는 상황이 발생하지 않도록, 네 이버는 전 과정에서 안전을 고려해 서비스를 설계하고, 테스트를 거치며, 배포 이후에도 안 전성에 대해 지속적으로 살펴보겠습니다.

⑤ 프라이버시 보호와 정보 보안

네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력하겠습니다. 또한 개발 단계를 포함해 AI 서비 스의 전 과정에서 정보 보안을 고려한 설계를 적용하겠습니다.

▶ 인공지능 개발과 활용 인권 가이드라인

(1) 첫째, (인간의 존엄성 및 개인의 자율성과 다양성 보장) 인공지능은 인간으로서의 존엄과 가 치 및 행복을 추구할 권리에 부합하는 방향으로 개발·활용되어야 하며, 개인의 선택과 판단 및 결정을 강요하거나 자율성을 침해하여서는 안 된다.

(2) 둘째, (투명성과 설명 의무) 인공지능 기술을 활용한 판단 과정과 그 결과에 대하여 적절하고 합리적인 설명이 보장되어야 한다. 특히 인공지능이 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미치는 경우에는 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명할 수 있어야 한다.

(3) 셋째, (자기결정권의 보장) 인공지능의 개발·활용 시 개인정보는 목적달성에 필요한 최소한 의 범위 내에서 처리하여야 하며, 그에 필요한 최소한의 기간 동안만 보관하여야 한다. 또한 이러한 개인정보 처리 방침은 정보 주체가 확인할 수 있도록 공개하여야 한다.

(4) 넷째, (차별금지) 인공지능의 결정이 특정 집단이나 일부 계층에 차별적이거나 부당한 영향 을 초래하지 않고 개인의 안전이나 권리에 차별적 영향을 미치지 않도록 필요한 조치를 하여 야 한다.

(5) 다섯째, (인공지능 인권영향평가 시행) 국가는 인공지능 개발 및 활용과 관련하여 인권침해 나 차별이 발생할 가능성을 고려한 인권영향 평가제도를 마련하고, 평가 결과 부정적 영향 이나 위험성이 드러난 경우 이를 방지할 수 있는 조치사항을 적용하며 그 내용을 공개하여 야 한다.

(6) 여섯째, (위험도 등급 및 관련 법·제도 마련 등) 인공지능이 개인의 인권과 안전에 미치는 위 험성을 단계별로 구분하고, 그에 걸맞은 수준의 규제와 인적 개입이 이루어지도록 법과 제도 를 마련하여야 한다.

(7) 또한, 국가는 인공지능을 독립적이고 효과적으로 감독할 수 있는 체계를 수립하여 개인의 인 권과 안전을 보장하고, 인공지능 때문에 피해를 입은 사람이 진정을 제기하는 등의 방법으로 권리구제를 받을 수 있는 기회를 제공하여야 한다.

카카오, 알고리즘 윤리 헌장 (2018.01.31) - 국내 기업 최초 인공지능 관련 규범 - 인류 행복 추구·차별 경계 등 5원칙 담아 - 기본 원칙 :

① 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.

② 차별에 대한 경계: 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다

③ 학습 데이터 운영: 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집·분석·활 용한다.

④ 알고리즘의 독립성: 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.

⑤ 알고리즘에 대한 설명: 이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에 서 알고리즘에 대해 성실하게 설명한다.

국내 민간부문

(14)

CJ올리브네트웍스, AI윤리 원칙 (2021.09.01) - 주요 구성 내용은 다음과 같음

① 건강, 즐거움, 편리를 위한 AI

② 다양성이 존재하며 차별과 편향이 없는 AI

③ 설명 가능한 AI

④ 개인의 재산과 권리를 침해하지 않는 AI

⑤ AI 산업 발전을 위한 지식 공유

스캐터랩(SCATTER LAB), AI 윤리 준칙 (2022.03.14) - 주요 구성 내용은 다음과 같음

① 사람을 위한 AI 개발 : 스캐터랩은 AI를 통해 누구나 소중한 관계를 갖는 세상을 꿈꿉니다.

② 다양한 삶의 가치 존중 : 스캐터랩은 AI 기술 및 서비스 개발 시 부당하거나 의도적인 차별 을 경계하며 다양성을 존중합니다.

③ 함께 실현해가는 AI 기술의 구현 : 스캐터랩은 사용자와 함께 AI 챗봇윤리를 실현해 나갑니다.

④ 합리적 설명을 통한 신뢰 관계 유지 : 스캐터랩은 AI 챗봇서비스를 안심하고 이용할 수 있 도록 기술과 서비스

⑤ 프라이버시 보호와 정보 보안 발전에 기여 : 스캐터랩은 언어 AI 기술에서의 프라이버시 보 호 및 정보 보안 발전에 적극적으로 기여합니다.

- 스캐터랩 AI 챗봇 윤리 점검표

LG, 신뢰할 수 있는 AI 개발을 위한 ‘AI 윤리 원칙’ (2022.08.23) 네이버는 개인정보 활용에 있어 법적 책임과 의무를 다하는 것을 넘어 개인의 프라이버시도

적극적으로 보호하고 있습니다. 또한, 사용자가 서비스를 활용하면서 정보보안을 우려하게 되는 상황을 원천적으로 차단할 수 있도록, 서비스 전 과정에서 정보 보안을 고려한 설계를 적용하고 있습니다. AI 서비스에 있어서도 마찬가지로, 사용자가 프라이버시와 정보 보안을 걱정하지 않고 AI 서비스를 자유롭게 활용해 삶에 편리함을 더할 수 있도록 노력하겠습니다.

SKT, 사람 중심의 AI 추구 가치 정립 (2021.05.13)

- 사회적 가치, 무해성, 기술 안정성, 공정성, 투명성, 사생활 보호, 지속혁신 등 7대 추구 가치로 구성

슬로건 사람 중심의 AI

함께 공존하며, 더 높은 곳을 향합니다.

사람을 향합니다. 시간이 흐르고 사회가 바뀌어도 SK텔레콤 기술의 근간은 사람입니다. 사람과 AI가 공존하는 행복한 세상을 만드는 것은 SK텔레콤의 목표입니다. 이를 위해 SK텔레콤은 일곱 개의 AI 추구 가치를 선포합니다.

7대 추구 가치

사회적 가치

사회적 가치를 지향합니다

AI는 인간의 지능을 효율적으로 대체하며 빠르게 발전하고 있습니다. AI 기술은 경제적 이익만을 위해 활용되어서는 안됩니다. SK텔레콤은 사회가 직면한 문제를 해결할 수 있는 도구로서 AI의 잠재적 유용성을 믿습니다. SK텔레콤은 AI를 활용하여 공공을 위한 사회적 가치를 창출하도록 노력하겠습니다.

#사회적가치 #socialvalue #responsibility

무해성 사람의 안전과 생명을 중시합니다

SK텔레콤은 AI가 갖고 있는 잠재적 능력을 기대하지만, 극복하지 못한 한계도 있음을 잘 인식하고 있습니다. 인간을 널리 이롭게 할 AI가 되기 위해서는 이 한계를 극복해야 합니다. SK텔레콤은 안전한 AI가 될 수 있도록 설계에서 배포에 이르기까지 예상할 수 있는 위험을 점검하고 대처하겠습니다.

#무해성 #nonmaleficence #safety

기술 안정성

신뢰할 수 있고 안정적인 기술을

개발합니다

SK텔레콤은 통신 서비스의 안정성이 얼마나 중요한지 알고 있으며 이를 위해 최선의 노력을 기울여왔습니다. AI는 SK텔레콤이 지향하는 Hyper Connectivity를 통해 일상 생활에 빠른 속도로 스며들 것입니다. SK텔레콤은 AI 서비스도 사용자가 언제 어디서든 믿고 사용할 수 있도록 책임감을 갖고 만들겠습니다.

#기술안정성 #robustness #accountability #stability

공정성

사회적 차별에 반대하고 다양한 의견을 포용합니다

AI가 차별을 야기하고 다양성의 가치를 훼손하는 문제를 발생시켜서는 안됩니다.

이러한 문제를 막기 위해서는 데이터 수집, 모델 개발, 고객서비스 단계까지 세심한 주의가 필요합니다. SK텔레콤은 AI가 성별, 종교, 국적, 인종 등으로 부당하게 차별하거나 특정한 가치에 치우치지 않도록 세심하게 관리하겠습니다.

#공정성 #fairness #impartiality

투명성

사용자의 이해를 돕기 위해 노력하겠습니다.

우리의 삶 가운데 AI는 점점 깊숙이 파고들어서 민감한 정보와 막대한 데이터를 다루며 중요한 결정에 관여하고 있습니다. 인간은 블랙박스와 같이 내부의 동작을 알기 어려운 특성을 갖는 AI 기술을 이해하기 어렵고, 이로 인해 AI 자체에 거부감을 가지거나 그 결정을 수용하지 못할 수 있습니다. SK텔레콤은 AI에 대한 사용자의 이해와 포용을 도울 수 있는 기술 개발에 꾸준히 노력하겠습니다.

#투명성 #transparency #openness #explainableAI

사생활 보호

개인정보와 사용자의 사생활을

보호합니다

AI는 우리의 생활 속에서 데이터를 학습하고 진화합니다. 또한, Hyper Connectivity 시대에는 정보 보안의 중요성이 더 커질 것으로 예상됩니다. SK텔레콤은 AI를 위한 데이터의 수집과 처리과정에서 사용자의 개인정보나 프라이버시 보호 관련 법률을 엄격히 준수하고, 안전한 데이터 관리 환경 구축을 위한 기술적/관리적 보호조치를 충실히 수행하겠습니다.

#사생활보호 #privacy #dataprotection

지속혁신

현재에 만족하지 않고 끊임없이

혁신합니다

AI는 빠르게 발전하고 있으며, 우리를 둘러싼 사회 환경도 끊임없이 변하고 있습니다.

SK텔레콤은 이러한 변화에 대응하기 위해 열린 자세로 이해관계자들과 적극적으로 협력하여 AI 기술을 선도할 수 있는 환경을 조성하겠습니다. 앞으로도 새로운 기술을 활발하게 도입하고 사용자의 피드백을 적극적으로 수용하여, AI 기술과 서비스 혁신을 위해 끊임없이 노력하겠습니다.

#지속혁신 #sustainability # innovation

핵심요건 인권

보장 프라이버시 보호 다양성

존중 침해

금지 공공성 연대성 데이터

관리 책임성 안정성 투명성

문항 수 2 2 4 2 2 1 2 2 2 2

(15)

추출된 분석용 서지 데이터는 총 4,199건임. 추출 데이터에 대해 추가적인 저자키워드 정제를 수행

- 정제 전 저자키워드는 10,104개로 전체 논문의 82%에 저자키워드가 포함

- 정제 후 저자키워드는 9,445개로 나타났으며, 9,445개 키워드 중에서 AI 윤리 핵심 키워드 42개11)와 관련된 단어는 그룹핑12)을 하였음.

- 42개의 AI 윤리 핵심 키워드가 포함된 논문은 전체 4,199건 중 58%를 차지하는 것으로 나타 났음.

국가별 AI 윤리 키워드

주요 국가의 AI 윤리 연구동향을 파악하기 위해 논문 수 기준 상위 20개 국가별로 42 개 AI 윤리 핵심키워드 점유율을 분석하였음.

- 논문 수 기준 상위 20개 국가는 미국(1,357건), 영국(598건), 중국(562건), 독일(314건), 캐나 다(282건), 호주(252건), 네덜란드(223건), 이탈리아(203건), 스페인(182건), 프랑스(167건), 인도(167건), 스위스(120건), 한국(116건), 스웨덴(89건), 일본(78건), 싱가포르(75건), 사우디 아라비아(69건), 벨기에(66건), 파키스탄(61건), 핀란드(57건) 임.

데이터 분석

글로벌 AI 윤리 연구와 정책 동향을 분석하기 위해 본 연구에서는 Web of Science 데 이터베이스를 활용하였음.

- Web of Science 색인 중에서 SCI-EXPANDE, SSCI, A&HCI를 대상으로 논문 유형은 연구동 향 분석을 위해 2000년 이후 Article과 Review Article만 고려하였음.

- 2022년 10월 18일 Web of Science 웹인터페이스 검색을 수행하였으며, 학술논문 데이터베 이스의 커버리지가 다르기 때문에 해석에 유의해야 할 필요가 있음.9)

Web of Science DB로부터 AI 윤리의 연구동향을 파악하는데 필요한 데이터를 추출 하기 위해 Liu et al.(2021)과 Zhang et al.(2021)의 검색식을 참고하였음.10)

- Liu et al.(2021)는 AI 분야의 연구 발전 궤적을 추적하기 위해서 Web of Science에서 아래

<표 4-1>의 첫 번째와 같은 검색식을 활용하였음.

- Zhang et al.(2021)은 서지분석을 바탕으로 AI 분야의 윤리 연구 동향에 대한 분석을 수행하 기 위해서 마찬가지로 Web of Science에서 아래 <표 4-1>의 두 번째와 같은 검색식을 사용 하였음.

최근 AI 윤리 연구가 computer science 분야만 아니라, social science 분야에서도 중요하게 다뤄지고 있기 때문에 이를 함께 고려하고 기존 연구의 검색식을 활용하여 아래 <표 4-1>의 세 번째와 같은 검색식을 생성

- 일부 검색어가 검색식을 구성하고 있는 다른 키워드에서 충분히 다뤄질 수 있고 관련 없는 논 문의 제거를 위해, computer science 분야의 관점에서 작성된 검색식에서 ‘big data’를 제 외하였으며, social science 분야의 관점으로부터 작성된 검색식에서는 ‘addiction’과 ‘data control’을 제외하였음.

이상의 검색식을 활용하여 Web of Science에서 과학기술 서지 정보를 수집했으며, 최종적으로 AI 윤리와 관련된 연구동향을 분석하였음.

0 4

CHAPTER

검색식 데이터

데이터 수집

AI 윤리 키워드 분석 결과

데이터 분석 결과

9) 다양한 학술논문 데이터베이스의 커버리지와 장단점에 대해서는 Banshal et al.(2022), Guerrero-Bote et al.(2021), Martin-Martin et al.(2021), Singh et al.(2021), Thelwall(2018), Visser et al.(2021)의 논의를 참조

10) Liu et al.(2021)의 경우는 computer science 분야의 관점에서, Zhang et al.(2021)의 경우는 social science 분야의 관점에서 접근하 고 있음.

11) AI 윤리 핵심키워드는 Jobin et al.(2019), Siau & Wang(2020), Ryan & Stahl(2021)을 참조하여 42개 키워드를 선정하였음.

12) 예컨대 Trust, Moral responsibility 등은 trustworthy, well-being, welfare, lifelog 등은 wellbeing, surveillance systems, surveillance capitalism 등은 surveillance로 재그룹핑을 하였음.

<표 4-1>

검색식 특 징 검색식 설 명

Computer Science 관점

TS = (“Artificial Intelligen*” or “Neural Net*” or “Machine* Learning” or

“Expert System$” or “Natural Language Processing” or “Deep Learning”

or “Reinforcement Learning” or “Learning Algorithm$” or “*supervised Learning” or “Intelligent Agent*”)

Liu et al., (2021)에서 인용

Social Science 관점

TS = ((“artificial intelligence” OR “big data”) AND (“disinform*” OR “ethic*” OR

“crimin*” OR “moneti*” OR “data control*” OR “implicit trust*” OR “addiction*”

OR “contestab*” OR “moral*” OR “digit* transparen*” OR “algorithm*

transparen*” OR “accountabilit*” OR “liabilit*” OR “fairness*”))

Zhang et al., (2021)에서 인용

종합적 접근

TS = (“Artificial Intelligen*” OR “Machine* Learning” OR “Expert System*”

OR “Natural Language Processing” OR “Deep Learning” OR “Reinforcement Learning” OR “Learning Algorithm*” OR “*Supervised Learning” OR

“Intelligent Agent*”) AND

TS = (“disinform*” OR “ethic*” OR “crimin*” OR “moneti*” OR “implicit trust*”

OR “contestab*” OR “moral*” OR “digit* transparen*” OR “algorithm*

transparen*” OR “accountabilit*” OR “liabilit*” OR “fairness*”))

인용한 두 개의 논문에서 사용한 검색식을 바탕으로 본 연구에서 새롭게 작성함.

Referensi

Dokumen terkait

Based on the UN Charter, it is hoped that South Korea and North Korea can resolve the West Sea dispute by peaceful means, and in accordance with the principles of

نآ تارذ ﻮﻧﺎـﻧ زا تﺎﻘﻴﻘﺤﺗ رد ﺎﻫ 36 و 47 يﺮﺘﻣﻮﻧﺎــﻧ ﺪــﻧدﻮﺑ هدﺮــﻛ هدﺎﻔﺘــﺳا و رد ﻪــﻛ ﺪــﻧداد نﺎــﺸﻧ ﺖﻈﻠﻏ ﺘﻜﭼﻮـﻛ تارذ ﻮﻧﺎﻧ زا هدﺎﻔﺘﺳا نﺎﺴﻜﻳ ﻲﻤﺠﺣ يﺎﻫ ﺚـﻋﺎﺑ ﺮ لﺎــﻘﺘﻧا ﺐﻳﺮــﺿ