近期,《咬文嚼字》雜志發布了2024年度十大流行語,“智能向善”位列其中,過去一年時間里,深度偽造、AI詐騙等話題屢次登上熱搜,AI技術“野蠻生長”引發公眾擔憂。今年9月,全國網絡安全標準化技術委員會發布了《人工智能安全治理框架》,指出人工智能既面臨自身技術缺陷、不足帶來的內生風險,也面臨不當使用、濫用甚至惡意利用帶來的外部風險。
為探尋AI安全治理道路,近期,由中國計算機學會計算機視覺專委會主辦,合合信息承辦,中國運籌學會數學與智能分會協辦的《打造大模型時代的可信AI》論壇(簡稱“論壇”)順利舉行。論壇特邀來自上海交通大學、電子技術標準化研究院、中國科學技術大學、中科院、合合信息等機構與企業的專家們,從立法、監管、前沿研究、技術實踐等多個維度分享AI安全領域的最新進展,助力AI向善發展。
圖說:《打造大模型時代的可信AI》分享嘉賓合影
圖說:中國計算機學會計算機視覺專委會副秘書長潘金山博士致辭
AI安全治理框架:技術手段與規范管理并行
隨著以 ChatGPT 為代表的AI大語言模型技術飛速發展,關于數據安全、知識產權、算法偏見和有害內容生成等大語言模型的內容安全問題引發了社會關注。“安全是個抽象概念,安全對齊的過程是一個從抽象到具體的模擬過程。”論壇上,上海交通大學人工智能研究院教授、總工程師金耀輝圍繞大模型訓練過程,提出了“訓練對齊、提示引導和文本過濾”三大安全保障手段,助力抽象的安全概念落實到具體的技術研發流程中。
圖說:上海交通大學人工智能研究院教授、總工程師金耀輝進行《智能共生時代:平衡生成式AI的創新與風險》主題分享
規范標準是AI健康生長的外部力量。中國電子標準院網安中心測評實驗室副主任、CCIA數安委常務副主任何延哲認為,人工智能安全檢測目前還主要停留在內容安全層面,檢測方法比較單一。他將人工智能安全檢測評估劃分為算力網絡安全、數據安全、個人信息保護、算法模型安全、網絡信息安全、科技倫理安全六方面,形成綜合評估框架,為標準引領技術發展方向提供可行性參考。
圖說:電子標準院網安中心測評實驗室副主任、CCIA數安委常務副主任何延哲進行《人工智能安全檢測評估的邏輯和要點》主題分享
技術實踐:“看不見”的AI讓偽造痕跡被看見
12月10日,Open AI正式向用戶開放AI視頻生成模型Sora。以Sora為代表的AI工具在給圖像視頻行業帶來革新的同時,也引發了合成圖像偽造風險。中國科學技術大學教授、國家杰青謝洪濤以特定人物深度偽造視頻為研究對象,從主動防御和被動檢測兩個視角分享了具體治理方案。
謝洪濤提到,主動防御用于在視頻生成或傳播過程中加入前置保護措施,例如采用雙重水印技術,給人臉圖像加上“看不見”的魯棒性水印與半脆弱性水印,方便后續取證;被動檢測包括圖像級不一致性和時空身份不一致性檢測技術,用于在視頻傳播或使用后評估其真實性。
除了視頻外,圖像作為常見的數字內容資料形式,更容易被不法分子進行局部或全域生成式篡改。合合信息圖像算法研發總監郭豐俊表示,合合信息技術團隊基于數據驅動的神經網絡模型,推出了行業領先水平的圖像篡改檢測方案,可提取篡改留下的細微痕跡,檢測出多種篡改形式,在近年的2次國際性技術競賽中獲得冠軍。當前文檔類圖像篡改檢測仍然面臨諸多挑戰,如跨域泛化檢測性能低下,純色背景篡改檢測準確率較低,壓縮、傳輸等動作導致圖像質量退化,致使檢測性能下降等系列問題。大模型技術的出現為AI視覺安全的發展創造了新的可能,也為應對檢測泛化能力和抗攻擊能力的挑戰提供了契機。
圖說:合合信息圖像算法研發總監郭豐俊進行《視覺內容安全技術的前沿進展與應用》主題分享
人工智能鑒別與合成技術相互博弈,密不可分。中國科學院自動化研究所研究員、IEEE/IAPR Fellow赫然博士從深度合成技術出發,詳細分析了虛擬身份、身份重演和人臉驅動三種合成技術類型。他表示,深度合成技術的深入研究為鑒別提供了線索,例如模型指紋線索、圖像拼接線索和時序閃爍線索等,形成多模態多線索的鑒偽方法,并有針對性地提出了圖像鑒別方案,包括基于空頻域信息和提示學習結合的偽造鑒別方法、基于transformer的視頻鑒別方法等。
圖說:中國科學院自動化研究所研究員、IEEE/IAPR Fellow赫然進行《生成式人工智能安全與治理》主題分享
生成式人工智能發展日新月異,技術革新與安全治理缺一不可,面對AI的潛在風險,加強行業內部自律,從源頭做好安全措施是守護AI健康成長的第一道防線。本次活動是產學研聯合探索AI安全治理的一次有效嘗試。未來,合合信息會持續深耕AI視覺安全領域,積極推動行業合作與交流。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。
關鍵詞: