自2021年以來,微軟的 AI 安全團隊對100多種生成式 AI 產品進行了測試,以尋找薄弱環(huán)節(jié)和道德問題。他們的發(fā)現(xiàn)挑戰(zhàn)了一些關于 AI 安全的常見假設,并強調了人類專業(yè)知識的持續(xù)重要性。
事實證明,最有效的攻擊并不總是最復雜的攻擊。微軟報告中引用的一項研究指出:“真正的黑客不會計算梯度,而是使用快速工程。”該研究將人工智能安全研究與現(xiàn)實世界的實踐進行了比較。在一次測試中,該團隊僅通過將有害指令隱藏在圖像文本中就成功繞過了圖像生成器的安全功能——無需復雜的數學運算。
人情味依然重要
雖然微軟已經開發(fā)了 PyRIT,一種可以自動進行安全測試的開源工具,但該團隊強調,人類的判斷力是無法被取代的。當他們測試聊天機器人如何處理敏感情況(例如與情緒困擾的人交談)時,這一點變得尤為明顯。評估這些場景既需要心理學專業(yè)知識,也需要對潛在心理健康影響的深刻理解。
在調查人工智能偏見時,該團隊還依賴人類的洞察力。在一個例子中,他們通過創(chuàng)建不同職業(yè)的圖片(不指定性別)來檢查圖像生成器中的性別偏見。
新的安全挑戰(zhàn)出現(xiàn)
人工智能與日常應用的融合帶來了新的漏洞。在一次測試中,該團隊成功操縱語言模型,創(chuàng)造出令人信服的欺詐場景。當與文本轉語音技術相結合時,這就創(chuàng)建了一個可以以危險的逼真方式與人互動的系統(tǒng)。
風險并不局限于人工智能特有的問題。該團隊在一款人工智能視頻處理工具中發(fā)現(xiàn)了一個傳統(tǒng)的安全漏洞(SSRF),表明這些系統(tǒng)面臨著新舊安全挑戰(zhàn)。
持續(xù)的安全需求
這項研究特別關注“負責任的人工智能”風險,即人工智能系統(tǒng)可能生成有害或有道德問題的內容的情況。這些問題特別難以解決,因為它們通常嚴重依賴于背景和個人解讀。
微軟團隊發(fā)現(xiàn),普通用戶無意接觸有問題的內容比故意攻擊更令人擔憂,因為這表明安全措施在正常使用過程中沒有按預期發(fā)揮作用。
研究結果清楚地表明,人工智能安全并非一次性解決。微軟建議持續(xù)尋找和修復漏洞,然后進行更多測試。他們建議,這需要有法規(guī)和財務激勵措施的支持,使成功的攻擊更加昂貴。
研究團隊表示,仍有幾個關鍵問題需要解決:我們如何識別和控制具有潛在危險的人工智能能力,如說服和欺騙?我們如何根據不同的語言和文化調整安全測試?公司如何以標準化的方式分享他們的方法和結果?
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(AVC)推總數據顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。