對抗機器學習:機器學習系統中的攻擊和防禦

對抗機器學習:機器學習系統中的攻擊和防禦
定價:414
NT $ 299
 

內容簡介

《對抗機器學習:機器學習系統中的攻擊和防禦》討論機器學習中的安全性問題,即討論各種千擾機器學習系統輸出正確結果的攻擊方法以及對應的防禦方法。書中首先回顧機器學習的概念和方法,提出對機器學習攻擊的總體分類。然後討論兩種主要類型的攻擊和相關防禦:決策時攻擊和投毒攻擊。之後,討論針對深度學習的攻擊的新技術,以及提高深度神經網路魯棒性的方法。最後,討論對抗學習領域的幾個重要問題。
  
《對抗機器學習:機器學習系統中的攻擊和防禦》旨在為讀者提供在對抗環境下成功從事機器學習研究和實踐所必需的工具,適合對對抗機器學習領域感興趣的讀者閱讀。
 

作者介紹

葉夫根尼·沃羅貝基克(Yevgeniy Vorobeychik)2008年在密歇根大學獲得電腦科學與工程博士學位,目前是美國范德堡大學的電腦科學、電腦工程和生物醫學資訊學助理教授。他曾是桑迪亞國家實驗室的首席研究員。他於2017年獲得NSF CAREER獎。他的研究領域包括安全和隱私的博弈論建模、對抗機器學習、演算法與行為博弈論和激勵設計、優化、基於代理的建模、複雜系統、網路科學和流行病控制。  
  
穆拉特·坎塔爾喬格盧(Murat Kantarcioglu)在普渡大學獲得電腦科學博士學位,目前是美國德克薩斯大學達拉斯分校的電腦科學教授和UTD資料安全與隱私實驗室主任。他已經發表了超過1 75篇同行評審論文,還獲得了各種獎項,包括NSF CAREER獎、普渡CERIAS鑽石學術獎、AMIA(美國醫學資訊學會)201 4年Homer R. Warner獎和IEEE ISI(情報與安全資訊學)2017年技術成就獎。他是ACM的傑出科學家。
 
王坤峰  
王坤峰是北京化工大學資訊科學與技術學院教授。他於 2003年7月獲得北京航空航太大學材料科學與工程專業學士學位,于2008年7月獲得中國科學院研究生院控制理論與控制工程專業博士學位。2008年7月至2019年7月,他在中國科學院自動化研究所工作,歷任助理研究員、副研究員,其中2015年12月至2017年1月,在美國佐治亞理工學院做訪問學者。2019年8月,他調入北京化工大學,任教授。
  
他的研究方向包括電腦視覺、機器學習、智慧交通和自動駕駛。他主持和參加了國家自然科學基金、國家重點研發計畫、863、973、中科院院地合作項目、國家電網公司科技項目等科研項目20多項,在國內外期刊和會議上發表學術論文70多篇,其中SCI論文20多篇。他獲授權國家發明專利17項,獲得2011年中國自動化學會技術發明一等獎、2018年中國自動化學會科學技術進步特等獎。現為 IEEE Senior Mem-ber、中國自動化學會高級會員、中國自動化學會平行智慧專委會副主任、模式識別與機器智慧專委會委員、混合智慧專委會委員、中國電腦學會計算機視覺專委會委員、中國圖像圖形學學會機器視覺專委會委員、視覺大資料專委會委員。他目前擔任國際期刊《IEEE Transactions on Intelligent Transportation Systems》編委,曾經擔任《Neu-rocomputing》專刊和《自動化學報》專刊客座編委。
  
王雨桐,王雨桐是中國科 學院大學人工智慧學院和中國科學院自動化研究所直博研究生。她於2016年獲得哈爾濱工程大學自動化專業學士學位。她的研究方向是對抗深度學習、深度學習 的安全性與可解釋性,尤其專注於圖像分類和目標檢測任務中的對抗攻擊和防禦。她已經在《IEEE Transactions on Vehicular Technology》《 Neurocomputing》《IEEE Intelligent Vehicles Symposium》《模式識別與人工智慧》以及中國自動化大會等國內外期刊和會議上發表了多篇論文。
 

目錄

譯者序
前言
致謝
作者簡介
譯者簡介

第1章 引言1

第2章 機器學習預備知識5
2.1 監督學習5
2.1.1 回歸學習6
2.1.2 分類學習7
2.1.3 PAC可學習性9
2.1.4 對抗環境下的監督學習9
2.2 無監督學習10
2.2.1 聚類11
2.2.2 主成分分析11
2.2.3 矩陣填充12
2.2.4 對抗環境下的無監督學習13
2.3 強化學習15
2.3.1 對抗環境下的強化學習17
2.4 參考文獻注釋17

第3章 對機器學習的攻擊類型19
3.1 攻擊時機20
3.2 攻擊者可以利用的資訊22
3.3 攻擊目標23
3.4 參考文獻注釋24

第4章 決策時攻擊26
4.1 對機器學習模型的規避攻擊示例26
4.1.1 對異常檢測的攻擊:多態混合27
4.1.2 對PDF惡意軟體分類器的攻擊28
4.2 決策時攻擊的建模30
4.3 白盒決策時攻擊31
4.3.1 對二元分類器的攻擊:對抗性分類器規避31
4.3.2 對多類分類器的決策時攻擊38
4.3.3 對異常檢測器的決策時攻擊40
4.3.4 對聚類模型的決策時攻擊40
4.3.5 對回歸模型的決策時攻擊41
4.3.6 對強化學習的決策時攻擊44
4.4 黑盒決策時攻擊45
4.4.1 對黑盒攻擊的分類法46
4.4.2 建模攻擊者資訊獲取48
4.4.3 使用近似模型的攻擊50
4.5 參考文獻注釋51

第5章 決策時攻擊的防禦53
5.1 使監督學習對決策時攻擊更堅固53
5.2 最優規避魯棒性分類56
5.2.1 最優規避魯棒的稀疏SVM56
5.2.2 應對自由範圍攻擊的規避魯棒SVM60
5.2.3 應對受限攻擊的規避魯棒SVM62
5.2.4 無限制特徵空間上的規避魯棒分類63
5.2.5 對抗缺失特徵的魯棒性64
5.3 使分類器對決策時攻擊近似堅固66
5.3.1 鬆弛方法66
5.3.2 通用防禦:反覆運算再訓練68
5.4 通過特徵級保護的規避魯棒性69
5.5 決策隨機化70
5.5.1 模型70
5.5.2 最優隨機化的分類操作72
5.6 規避魯棒的回歸74
5.7 參考文獻注釋75

第6章 資料投毒攻擊77
6.1 建模投毒攻擊78
6.2 對二元分類的投毒攻擊79
6.2.1 標籤翻轉攻擊79
6.2.2 對核SVM的中毒資料插入攻擊81
6.3 對無監督學習的投毒攻擊84
6.3.1 對聚類的投毒攻擊84
6.3.2 對異常檢測的投毒攻擊86
6.4 對矩陣填充的投毒攻擊87
6.4.1 攻擊模型87
6.4.2 交替最小化的攻擊89
6.4.3 核範數最小化的攻擊91
6.4.4 模仿普通用戶行為92
6.5 投毒攻擊的通用框架94
6.6 黑盒投毒攻擊96
6.7 參考文獻注釋98

第7章 數據投毒的防禦100
7.1 通過資料二次採樣的魯棒學習100
7.2 通過離群點去除的魯棒學習101
7.3 通過修剪優化的魯棒學習104
7.4 魯棒的矩陣分解107
7.4.1 無噪子空間恢復107
7.4.2 處理雜訊108
7.4.3 高效的魯棒子空間恢復109
7.5 修剪優化問題的高效演算法110
7.6 參考文獻注釋111

第8章 深度學習的攻擊和防禦113
8.1 神經網路模型114
8.2 對深度神經網路的攻擊:對抗樣本115
8.2.1 l2範數攻擊116
8.2.2 l∞範數攻擊119
8.2.3 l0範數攻擊121
8.2.4 物理世界中的攻擊122
8.2.5 黑盒攻擊123
8.3 使深度學習對對抗樣本魯棒123
8.3.1 魯棒優化124
8.3.2 再訓練127
8.3.3 蒸餾127
8.4 參考文獻注釋128

第9章 未來之路131
9.1 超出魯棒優化的範圍131
9.2 不完全資訊132
9.3 預測的置信度133
9.4 隨機化133
9.5 多個學習器134
9.6 模型和驗證134

參考文獻136
索引146
網路書店 類別 折扣 價格
  1. 新書
    72
    $299