Pruning Deep Neural Networks Neurons for Improved Robustness against Adversarial Examples

Gyumin Lim, Gihyuk Ko,Suyoung Lee,Sooel Son

정보과학회논문지(2023)

引用 0|浏览0
暂无评分
摘要
심층신경망은 적대적 예시의 보안 취약점이 존재하며, 이는 심층신경망의 잘못된 분류 결과를 도출한다. 본 논문에서는 정상 데이터와 적대적 예시에서의 심층신경망 뉴런 활성화 패턴이 서로 다를 것이라는 가정을 세운다. 정상 데이터에서는 심층신경망 뉴런이 활성화되지 않고, 적대적 예시에서만 활성화되는 심층신경망 뉴런을 찾아 이를 가지치기하는 보정 기법을 제안한다. 다양한 적대적 예시 생성 기법을 통해 적대적 보정을 진행하였으며, MNIST와 CIFAR-10 데이터셋을 사용하였다. MNIST 데이터셋으로 가지치기 된 심층신경망은 정상 데이터의 분류 정확도를 99% 이상으로 유지하면서, 가지치기 방식(레이블별, 모든 레이블 가지치기)에 따라 최대 100%, 70.20% 증가한 적대적 보정 성능을 확인하였다. 반면 CIFAR-10 데이터셋은 정상 데이터셋에 대하여 분류 정확도 하락을 보이지만, 가지치기 방식에 따라 최대 99.37%, 47.61% 적대적 보정 성능이 향상되었다. 이외에도 적대적 학습 기법과의 비교 분석을 통해 제안한 가지치기 적대적 보정 성능의 효율성을 확인하였다.
更多
查看译文
关键词
improved robustness,neural networks
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要