站長之家(ChinaZ.com)2月28日 消息:斯坦福大學的研究人員最近發(fā)布了一種名為C3PO的新方法,旨在解決語言模型定制化面臨的挑戰(zhàn)。
在人工智能領域不斷發(fā)展的今天,語言模型的定制化對于確保用戶滿意度至關重要。然而,傳統(tǒng)方法往往需要辨別反饋的適用性,導致模型在意料之外的情境中延伸規(guī)則。這一問題凸顯了需要先進方法來確保語言模型可以精確地適應用戶偏好,而不影響其在各種應用中的實用性。
過去的研究已經(jīng)探索了通過各種類型的反饋(包括學習或啟發(fā)式獎勵、偏好或排名以及自然語言反饋)來改進語言或對話系統(tǒng)。自然語言反饋在代碼生成、對話和總結任務中提高了性能。一些研究側重于利用自然語言反饋來優(yōu)化通用模型行為,而不是改善單個模型輸出。相關研究領域包括憲法人工智能、上下文蒸餾、模型編輯和去偏見大型語言模型。
研究人員引入了一種新穎的方法,即帶有約束偏好優(yōu)化的情境化批評(C3PO),以細化模型的響應行為。C3PO 方法戰(zhàn)略性地微調(diào)語言模型,以在相關的地方應用反饋,同時小心地避免過度概括。它通過對范圍內(nèi)的數(shù)據(jù)利用直接偏好優(yōu)化 (DPO) 以及對范圍外和近范圍數(shù)據(jù)的監(jiān)督微調(diào) (SFT) 損失來實現(xiàn)這一目標,確保模型的性能在各種環(huán)境下保持穩(wěn)健。
數(shù)據(jù)集 Dnear-scope 和 Dout-of-scope 的生成充滿了初始模型的提示和完成,保持了與反饋無關的輸入的模型完整性。該方法結合了復雜的組合損失函數(shù) LC3PO,不僅包含相關提示的反饋,而且還積極防止模型的性能因不相關的提示而惡化。C3PO 創(chuàng)建綜合兩種政策偏好數(shù)據(jù)進一步增強了這一點,從而能夠在 Bradley-Terry 偏好模型框架下學習最優(yōu)政策。這種最優(yōu)策略巧妙地平衡了模型的原始能力與新的反饋,懲罰偏離輸入的響應,從而精確地改進模型的響應,并與反饋保持一致。
這些實驗嚴格評估了 C3PO 在不過度概括的情況下納入口頭反饋的能力,將其與傳統(tǒng)方法進行比較,并探索其吸收多種反饋的能力。利用包含100個條目的反饋數(shù)據(jù)集(包括編寫的和 GPT-4生成的),C3PO 通過有效遵循范圍內(nèi)提示同時最大限度地減少過度概括,展示了卓越的性能,這比修改后的 In-Context 和 SCD 方法有顯著改進。混合學習低階調(diào)整 (LoRA) 參數(shù)強調(diào)了 C3PO 的高效反饋集成,并由優(yōu)于全面知識蒸餾的戰(zhàn)略約束公式支持。
C3PO 的發(fā)展標志著朝著更具適應性和以用戶為中心的語言模型邁出了一大步。通過解決過度泛化的挑戰(zhàn),這種方法為更加個性化和高效的人工智能工具鋪平了道路,這些工具可以在不犧牲更廣泛適用性的情況下滿足用戶的多樣化需求。這項研究的意義超出了技術成就的范疇,預示著人工智能可以無縫適應個人偏好、增強其實用性和可訪問性的未來。
文章內(nèi)容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。