Skip to content
This repository has been archived by the owner on Oct 19, 2023. It is now read-only.

Latest commit

 

History

History

08-딥러닝을_해킹하는_적대적_공격

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 

딥러닝을 해킹하는 적대적 공격

딥러닝 모델을 의도적으로 헷갈리게 하는 적대적 예제에 대해 알아보고 적대적 예제를 생성하는 방법인 적대적 공격(adversarial attack)을 알아봅니다.

  • 적대적 공격 이란
  • 적대적 공격의 종류
  • FGSM 공격
    • 학습된 모델 불러오기
    • 공격할 미이지 불러오기
    • 공격 전 성능 확인하기
    • FGSM 공격 함수 정의
    • 적대적 예제 생성
    • 적대적 예제 성능 확인