เมื่อ machine learning เข้ามามีบทบาทในชีวิตจริงเป็นอย่างมากจนกระทั่งความผิดพลาดจากแบบจำลองอาจนำไปสู่ความเสียหายอย่างใหญ่หลวงหรือกระทั่งนำไปสู่การเสียชีวิต การสร้างแบบจำลองทาง machine learning จะคำนึงถึงแต่ความแม่นยำในการตัดสินใจไม่ได้อีกแล้ว เราจำเป็นต้องสนใจ ความทนทาน (robustness) ของแบบจำลองด้วย ซึ่งหมายถึงความสามารถในการตัดสินใจที่มั่นคงเมื่อข้อมูลที่รับเข้ามามีการปนเปื้อนด้วย noise ที่เกิดจากสภาพแวดล้อมหรือแม้กระทั่ง noise ที่เกิดจาก การก่อกวน (perturbation) จากผู้ประสงค์ร้าย
บทความชุดนี้บันทึกความรู้พื้นฐานทางทฤษฎีที่เกี่ยวข้องกับการก่อกวนบนแบบจำลองทาง machine learning ที่ได้รับความนิยมในปัจจุบันเช่น deep learning, การเพิ่มความทนทานให้กับแบบจำลองเพื่อป้องกันการถูกก่อกวน รวมถึงความรู้ทางทฤษฎีในมุมต่าง ๆ ที่เกี่ยวข้องกับความทนทานของแบบจำลองเหล่านี้ โดยเนื้อหาในช่วงแรกอ้างอิงจาก Adversarial Robustness - Theory and Practice ของ Zico Kolter และ Aleksander Madry
- แบบจำลอง deep learning พอสังเขป
- การสร้าง adversarial example
- การโจมตีแบบกำหนดเป้าหมาย
- Adversarial robustness
- การสร้าง robust classifier
- แบบจำลอง Linear binary classification
- Adversarial linear binary classification
- Fast Gradient Sign Method
- Projected Gradient Descent
- Adversarial training