746
技術社區[雲棲]
未來的超級智能網絡攻擊需要AI競技俱樂部來拯救
數據科學競賽平台Kaggle將舉辦一場為期五個月的AI競賽,這場競賽將模擬未來的網絡安全和網絡戰爭,戰爭的攻守雙方都是AI算法,它們將互相迷惑互相欺騙,以研究如何加強機器學習係統來抵禦未來可能出現的攻擊。
專門研究機器學習局限性的懷俄明大學助理教授Jeff Clune說:“研究如何欺騙深度神經網絡和設計不可欺騙的深度神經網絡是一個不錯的想法。”
這場競賽將由三部分組成。第一個挑戰是讓機器學習係統混亂,使其無法正常工作。第二個是強製讓係統產生分類錯誤。第三個涉及到開發一個堅固的防禦係統。詳細信息將在今年晚些時候一個重要的AI大會上公布。
機器學習,特別是深度學習,正在迅速成為許多行業不可或缺的工具。這項技術是將數據提供給一種特殊的計算機程序,並指定特定的結果,以使計算機能開發出自己的算法來實現這個結果。深度學習就是通過不斷調整一個龐大而又相互連接的數學模擬神經元的參數來實現這個的。
眾所周知,機器學習係統可以被欺騙的。例如,垃圾郵件發送者可以通過找出郵件過濾器算法的訓練模式來避開現代垃圾郵件過濾器。
然而,近年來,研究人員表明,即使是最聰明的算法有時也會以不可思議的方式被誤導。例如,具有近乎人類技能的深度學習算法在識別圖像對象的時候,可能會被看似抽象或隨機的圖像所欺騙。
穀歌大腦的研究人員Ian Goodfellow表示:“對抗性機器學習比傳統的機器學習更難研究,很難判斷出攻擊是否強悍,或者防禦是否薄弱。” 穀歌大腦是一個專門研究和應用機器學習的部門,這次競賽就是他們組織的。
隨著機器學習的普及,人們擔心這種攻擊會被用於營利或純粹的惡作劇。例如,黑客可能會避開安全措施來安裝惡意軟件。
Goodfellow表示:“計算機安全正向著機器學習的方向發展。犯罪分子將使用機器學習進行自動化攻擊,而我們將使用機器學習來防禦”。
從理論上來說,犯罪分子可以讓聲音和麵部識別係統癱瘓,甚至會侵入交通信號係統以欺騙自動駕駛汽車的視覺係統,導致係統崩潰。
Kaggle已經成為算法開發的寶地,也是優秀數據科學家的搖籃。該公司於3月份被Google收購,現在已成為Google Cloud平台的一部分。Goodfellow和另一位穀歌大腦的研究人員Alexey Kurakin在收購之前就提出了有關本次競賽的想法。
Kaggle的聯合創始人兼首席技術官Benjamin Hamner表示,他希望競賽能引起人們的關注。他說:“隨著機器學習的使用越來越廣泛,從對抗學習中理解問題和風險變得越來越重要。”
舉辦公開競賽的好處超過了宣傳新型攻擊相關的任何風險,他補充說道:“我們應該公開分享這項研究的成果,而不是閉門造車。”
同時,Clune表示,他希望這次競賽能夠找到抵禦攻擊的算法。
文章原標題《AI Fight Club Could Help Save Us from a Future of Super-Smart Cyberattacks》,作者:Will Knight,譯者:夏天,審校:主題曲。
文章為簡譯,更為詳細的內容,請查看原文
最後更新:2017-07-24 09:32:49