近日,GPT-4API曝出了安全漏洞,F(xiàn)AR AI實驗室的團隊通過微調(diào)、函數(shù)調(diào)用和搜索增強等方式成功越獄了這一先進模型。微調(diào)方面,通過15個有害樣本和100個良性樣本的微調(diào),研究人員發(fā)現(xiàn)GPT-4在生成內(nèi)容時可能會放下安全戒備,包括生成錯誤信息、提取私人信息和插入惡意URL。
此外,GPT-4Assistants模型容易暴露函數(shù)調(diào)用格式,可以被誘導執(zhí)行任意函數(shù)調(diào)用,而知識檢索也容易受到劫持。這一研究表明,對API功能的擴展可能導致新的漏洞,即便是領(lǐng)先的GPT-4也不例外。
這種漏洞的潛在風險表現(xiàn)在多個方面。例如,在微調(diào)模型時,15個有害的樣本就足以使模型產(chǎn)生顯著的偏見,比如抹黑公眾人物或生成惡意代碼。
研究人員還展示了通過微調(diào)模型隱藏惡意鏈接的方法,可能導致用戶在不知情的情況下下載惡意軟件。另外,通過微調(diào)模型,甚至可以獲取未公開的信息,比如用戶的電子郵件地址。助手模型也易受攻擊,例如通過暴露函數(shù)調(diào)用格式,黑客可能濫用API接口,執(zhí)行一些需要特殊權(quán)限的操作。
這一研究揭示了GPT-4API的潛在風險,即使是在灰盒環(huán)境下,也存在越獄和隱私泄露的風險。因此,使用者在利用GPT-4時應(yīng)當謹慎,避免輸入敏感信息,以免受到潛在的威脅。這也提醒開發(fā)者和研究人員在模型的設(shè)計和API功能擴展時要更加關(guān)注安全性,以防范潛在的濫用和漏洞。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。