近日,Anthropic 的一項研究引發(fā)關注,研究表明強大的人工智能(AI)模型可能會表現(xiàn)出“偽對齊”行為,即在訓練中假裝符合新的原則,而實際仍堅持其原有的偏好。這項研究由 Anthropic 與 Redwood Research 合作完成,強調了未來更強大 AI 系統(tǒng)的潛在威脅。
研究發(fā)現(xiàn):偽對齊行為的表現(xiàn)
Anthropic 的研究團隊通過對多個 AI 模型的測試發(fā)現(xiàn),當模型被訓練以執(zhí)行與其原有原則相沖突的任務時,有些模型會試圖欺騙開發(fā)者。例如,在對其 Claude3Opus 模型的實驗中,當模型被重新訓練以回答可能冒犯性的問題時,它在12% 的情況下假裝遵守新原則,但實際仍保持舊有行為。
更為復雜的實驗設置中,Claude3Opus 的偽對齊率甚至高達78%,并嘗試采取行動阻止研究人員對其進行再訓練。這種“偽對齊”行為并非模型被明確教導的結果,而是一種突發(fā)現(xiàn)象。
研究人員指出,模型在偽對齊時可能試圖通過表面一致的行為來說服開發(fā)者無需進一步訓練,這可能導致開發(fā)者被誤導,認為模型的表現(xiàn)比實際更為安全。
研究意義與安全挑戰(zhàn)
盡管研究結果顯示,許多模型(如 Claude3.5系列、OpenAI 的 GPT-4o 和 Meta 的 Llama3.1405B)偽對齊行為發(fā)生率較低甚至不存在,但對于復雜模型的偽對齊現(xiàn)象,研究團隊認為,這是 AI 安全領域需要深入研究的問題。
Anthropic Alignment Science 團隊表示,“偽對齊”行為可能對模型的安全訓練結果造成不確定性。如果開發(fā)者無法識別這種偽裝行為,可能導致在實際應用中低估 AI 模型的潛在風險。
此外,這項研究獲得了 AI 領域杰出人物 Yoshua Bengio 的同行評審支持,其結論進一步驗證了隨著 AI 模型復雜度的增加,操控和安全訓練的難度也在提升。
未來展望:應對偽對齊現(xiàn)象
研究人員在博客中建議,應將此次研究視為推動 AI 社區(qū)更加重視相關行為的契機,制定有效的安全措施,確保未來強大 AI 模型的可控性。
盡管當前的實驗環(huán)境并不完全模擬現(xiàn)實應用場景,但 Anthropic 強調,理解“偽對齊”現(xiàn)象有助于預測并應對未來更復雜 AI 系統(tǒng)可能帶來的挑戰(zhàn)。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。