적대 공격(adversarial attack)을 방어하기 위한 깊은 신경망의 강건성 향상 기술 [3016]
유망기술
구분 적대적 공격을 방어하는 인공지능 보안기술 평균
출판 연도 2018.8
개요/정의
○ 인공 신경망은 많은 데이터를 바탕으로 학습되기 때문에 높은 일반화 성능을 가지고 있다고 생각하기 쉽지만, 많은 경 우 입력값에 간단한 변화를 주는 것만으로 예측 결과를 교란시킬 수 있는 것이 확인되었음.
○ 이러한 형태의 신경망 공격 방식을 적대 공격(adversarial attack)이라고 부르며, 모델의 성능을 떨어트리고 모델의 일 반화 성능을 떨어트릴 수 있는 요소들을 해결하기 위해, 신경망의 강건성을 향상시킬 수 있는 방안으로 적대적 사례 (adversarial examples)를 만들고, 이를 학습과정에 반영하는 방법들이 연구되고 있음.
○ 적대적 공격으로부터 모델을 방어하는 방법은 (1) 딥러닝 모델을 공격하기 위한 적대적 사례를 생성하는 방법과 (2) 적 대적 사례로부터 딥러닝 모델을 방법에 대한 연구로 나눠질 수 있음.
주요 키워드 adversarial example, attack, adversarial robustness, defense, evasion attack
부상성
○ 인공지능 제품/서비스의 보급으로 인해 신경망 모델이 더 많은 분야에서 활용될 것으로 예상되며, 특정 분야에서는 해 킹 등의 악의적 목적을 가지고 기능을 무력화시키려는 시도들이 늘어날 것으로 예상됨.
- 영국의 보안 업체 Darktrace는 적대적 공격을 활용한 실시간 보안 솔루션을 제공하고 있으며, 스페인과 인도에서도 적대적 공격을 모방해 시스템의 취약점을 파악하는 보안 솔루션을 개발하여 활용하고 있음.31)
- 또한, 적대적 공격을 역으로 활용하면 인공지능이 사람을 자동으로 인식하는 것을 방지하여 사생활 보호의 목적으로 도 활용할 수 있음.32)
○ 방어적 목적 외에도 적대적 사례를 통한 학습은 모델의 강건성을 상승시킬 수 있는 효과적인 방법 중 하나로, 딥러닝 모델의 성능을 높이기 위한 방법으로 활용될 가능성이 높음.
논문 수 추세 (글로벌/한국) 최근 3년간 저자 키워드 분포
국가별 연구 수준 비교
번호 국가명 논문 수
(06-20년)
10%
논문 수 (06-20년)
10% 논문 비율(%) (06-20년)
논문 수 (18-20년)
10%
논문 수 (18-20년)
10% 논문 비율(%) (18-20년)
1 Peoples R China 247 9 3.6 241 10 4.1
2 USA 159 18 11.3 129 26 20.2
3 South Korea 50 0 0.0 49 0 0.0
4 Italy 35 11 31.4 25 6 24.0
5 England 29 9 31.0 26 7 26.9
6 Australia 25 4 16.0 21 4 19.0
7 Japan 24 2 8.3 23 2 8.7
8 Canada 18 6 33.3 14 5 35.7
9 Germany 15 3 20.0 6 0 0.0
10 Pakistan 12 0 0.0 11 1 9.1
최근 고피인용 논문 (10건)
연도 피인용 수 저널명 논문 제목
2020 100 ENGINEERING Adversarial Attacks and Defenses in Deep Learning
2020 66
ACM TRANSACTIONS ON INTELLIGENT SYSTEMS AND TECHNOLOGY
Adversarial Attacks on Deep-learning Models in Natural Language Processing: A Survey
2020 45 COMPUTER SCIENCE REVIEW
A survey of safety and trustworthiness of deep neural networks: Verification, testing, adversarial attack and defence, and interpretability?
2020 44 PROCEEDINGS OF THE IEEE
Adversarial Learning Targeting Deep Neural Network Classification: A Comprehensive Review of Defenses Against Attacks
2020 41 IEEE COMMUNICATIONS SURVEYS AND TUTORIALS
Securing Connected & Autonomous Vehicles: Challenges Posed by Adversarial Machine Learning and the Way Forward
2019 483 IEEE TRANSACTIONS ON
EVOLUTIONARY COMPUTATION One Pixel Attack for Fooling Deep Neural Networks 2019 415
IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS
Adversarial Examples: Attacks and Defenses for Deep Learning
2019 234 PSYCHOLOGY HEALTH & MEDICINE Caregiver burden and family functioning in different neurological diseases
2019 115 PROCEEDINGS OF THE COMBUSTION INSTITUTE
The sensitizing effects of NO2 and NO on methane low temperature oxidation in a jet stirred reactor
2019 101 IEEE ACCESS BadNets: Evaluating Backdooring Attacks on Deep Neural Networks
주요 글로벌 기관 주요 한국 기관
번호 기관명 논문 수
1 Korea Adv Inst Sci & Technol 11
2 Guangzhou Univ 9
3 Chinese Acad Sci 9
4 Wuhan Univ 8
5 Beijing Inst Technol 8
번호 기관명 논문 수
1 Korea Adv Inst Sci & Technol 11
2 Korea Mil Acad 8
3 Sejong Univ 7
4 Kongju Natl Univ 7
5 Hanyang Univ 1