大規模網絡攻擊曾倒逼殺毒軟件的誕生,人工智能時代針對算法漏洞這一“新型病毒”,又該如何“殺毒”?記者9日從RealAI(瑞萊智慧)獲悉,他們推出針對算法模型本身安全的檢測平臺,相當于人工智能時代的“殺毒軟件”。
RealAI是一個孵化自清華大學人工智能研究院的創新團隊,相關研究成果已被FoolBox等開源軟件收錄為標準。RealAI還與清華方面組成戰隊,在人工智能領域多項國際大賽中斬獲冠軍。
RealAI的首席執行官田天介紹,團隊最新推出的RealSafe人工智能安全平臺可以提供從測評到防御完整的解決方案,快速緩解對抗樣本攻擊威脅。
由于人工智能或可實現對人腦的替代,因此,在每一輪人工智能發展浪潮中,人們都非常關注其安全問題和倫理影響。業內專家認為,當前針對“人工智能安全”的定義主要來源于“賦能安全應用”和“防范技術風險”兩個層面。
其中,后者是對現階段由于人工智能技術不成熟以及惡意應用所導致的安全風險,包括模型缺陷、算法不可解釋性、數據強依賴性等,本質上由人工智能“技術短板”所致,是限制人工智能發展最明顯的“軟肋”。而在中國信息通信研究院2018年編制的《人工智能安全白皮書》中,“算法安全”是人工智能六大安全風險之一。白皮書還指出“對抗樣本攻擊誘使算法識別出現誤判漏判”這一算法模型缺陷為算法安全的重要風險項。
田天解釋,對抗樣本原本是機器學習模型的一個有趣現象,通過在源數據上增加人類難以通過感官辨識到的細微改變,讓機器學習模型接受并做出錯誤的分類決定。但是經過不斷升級演化,對抗樣本攻擊已不僅停留在數字世界。
“在路面上粘貼對抗樣本貼紙模仿合并條帶誤導自動駕駛汽車拐進逆行車道、佩戴對抗樣本生成的眼鏡輕易破解手機面部解鎖、胸前張貼對抗樣本貼紙即可實現隱身……”他舉例說,對抗樣本會導致人工智能系統被攻擊和惡意侵擾,成為威脅到人工智能系統的“人工智能病毒”,在人臉識別、自動駕駛等領域或將造成難以挽回的損失。
然而,業界對于如何評價算法模型的安全性并沒有清楚的定義,對抗樣本等算法漏洞檢測存在較高的技術壁壘,目前市面上缺乏自動化檢測評估工具。
田天表示,相較于目前常見的開源工具需要自行部署、編寫代碼,RealSafe平臺支持零編碼在線測評,用戶只需提供相應的數據即可在線完成評估。為幫助用戶提高對模型安全性的概念,該平臺根據模型在對抗樣本攻擊下的表現進行評分,還提供模型安全性升級服務,支持五種去除對抗噪聲的通用防御方法。部分第三方的人臉比對API通過使用RealSafe平臺的防御方案加固后,安全性可提高40%以上。
“推出安全檢測平臺是規避風險的一條路徑,未來還需要聯合各界力量共同推動人工智能安全相關的國家標準、行業標準、聯盟標準的制定,為人工智能產品安全評估評測的統一參考。”他說。(完)
關鍵詞: