卡內(nèi)基梅隆大學(xué)(CMU)的研究人員發(fā)表了 LLM Attacks,這是一種用于構(gòu)建針對各種大型語言模型(LLM)的對抗攻擊的算法,包括 ChatGPT、Claude 和 Bard。這些攻擊是自動生成的,對 GPT-3.5和 GPT-4的成功率為84%,對 PaLM-2的成功率為66%。
與大多數(shù)通過試錯手動構(gòu)建的“越獄”攻擊不同,CMU 團(tuán)隊設(shè)計了一個三步過程,自動生成提示后綴,可以繞過 LLM 的安全機制,并導(dǎo)致有害的響應(yīng)。這些提示也是可轉(zhuǎn)移的,意味著一個給定的后綴通?梢宰饔糜谠S多不同的 LLM,甚至是閉源模型。為了衡量算法的有效性,研究人員創(chuàng)建了一個名為 AdvBench 的基準(zhǔn);在這個基準(zhǔn)上評估時,LLM Attacks 對 Vicuna 的成功率為88%,而基線對抗算法的成功率為25%。根據(jù) CMU 團(tuán)隊的說法:
也許最令人擔(dān)憂的是,這種行為是否能夠被 LLM 提供商完全修復(fù)。類似的對抗攻擊在計算機視覺領(lǐng)域已經(jīng)被證明是一個非常難以解決的問題,在過去的10年里。有可能深度學(xué)習(xí)模型的本質(zhì)使得這種威脅不可避免。因此,我們認(rèn)為在增加對這種 AI 模型的使用和依賴時,應(yīng)該考慮到這些因素。
隨著 ChatGPT 和 GPT-4的發(fā)布,許多越獄這些模型的技術(shù)出現(xiàn)了,它們由可以導(dǎo)致模型繞過其安全措施并輸出潛在有害響應(yīng)的提示組成。雖然這些提示通常是通過實驗發(fā)現(xiàn)的,但 LLM Attacks 算法提供了一種自動創(chuàng)建它們的方法。第一步是創(chuàng)建一個目標(biāo)令牌序列:“Sure, here is (content of query)”,其中“content of query”是用戶實際的提示,要求有害響應(yīng)。
接下來,算法通過使用貪婪坐標(biāo)梯度(GCG)方法,生成一個提示后綴,可以導(dǎo)致 LLM 輸出目標(biāo)序列。雖然這確實需要訪問 LLM。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。