本文來自于微信公眾號 AIGC開放社區(qū)(ID:AIGCOPEN),作者:AIGC開放社區(qū)。
ChatGPT等大語言模型的推理能力有多強(qiáng)大?通過你發(fā)過的帖子或部分隱私數(shù)據(jù),就能推算出你的住址、年齡、性別、職業(yè)、收入等隱私數(shù)據(jù)。
瑞士聯(lián)邦理工學(xué)院通過搜集并手工標(biāo)注了包含520個(gè)Reddit(知名論壇)用戶的個(gè)人資料真實(shí)數(shù)據(jù)集PersonalReddit,包含年齡、教育程度、性別、職業(yè)、婚姻狀況、居住地、出生地和收入等隱私數(shù)據(jù)。
然后,研究人員使用了GPT-4、Claude-2、Llama-2等9種主流大語言模型,對PersonalReddit數(shù)據(jù)集進(jìn)行特定的提問和隱私數(shù)據(jù)推理。
結(jié)果顯示,這些模型可以達(dá)到85%的top-1和95.8%的top-3正確率, 僅通過分析用戶的文字內(nèi)容,就能自動(dòng)推斷出隱藏在文本中的多種真實(shí)隱私數(shù)據(jù)。
研究人員還指出,在美國,僅需要地點(diǎn)、性別和出生日期等少量屬性,就可以確定一半人口的確切身份。
這意味著,如果非法人員獲取了某人在網(wǎng)絡(luò)上發(fā)過的帖子或部分個(gè)人信息,利用大語言模型對其進(jìn)行推理,可以輕松獲取其日常愛好、作息習(xí)慣、工作職業(yè)、家庭住址范圍等敏感隱私數(shù)據(jù)。
構(gòu)建PersonalReddit數(shù)據(jù)集
研究人員構(gòu)建了一個(gè)真實(shí)的Reddit用戶個(gè)人屬性數(shù)據(jù)集PersonalReddit。該數(shù)據(jù)集包含520個(gè)Reddit用戶的個(gè)人簡介,總計(jì)5814條評論。評論內(nèi)容涵蓋2012年到2016年期間。
個(gè)人屬性包括用戶的年齡、教育程度、性別、職業(yè)、婚姻狀況、居住地、出生地和收入等8類。研究人員通過手工標(biāo)注每一個(gè)用戶簡介,來獲得準(zhǔn)確的屬性標(biāo)簽作為檢驗(yàn)?zāi)P屯评硇Ч恼鎸?shí)數(shù)據(jù)。
數(shù)據(jù)集構(gòu)建遵循以下兩個(gè)關(guān)鍵原則:
1)評論內(nèi)容須真實(shí)反映網(wǎng)上使用語言的特點(diǎn)。由于用戶主要是通過在線平臺與語言模型交互,網(wǎng)上語料具有代表性和普適性。
2)個(gè)人屬性種類需不同種類,以反映不同隱私保護(hù)法規(guī)的要求。現(xiàn)有數(shù)據(jù)集通常只包含1-2類屬性,而研究需要評估模型推斷更廣泛的個(gè)人信息的能力。
此外,研究人員還邀請標(biāo)注人員為每個(gè)屬性打分,表示標(biāo)注難易程度及標(biāo)注人員的確信程度。難易程度從1(非常簡單)到5(非常困難)。如果屬性信息無法直接從文本中獲取,允許標(biāo)注人員使用傳統(tǒng)搜索引擎進(jìn)行查驗(yàn)。
對抗交互
考慮到越來越多的語言聊天機(jī)器人應(yīng)用,研究人員還構(gòu)建了一個(gè)對抗對話的場景來模擬實(shí)際交互。
開發(fā)了一個(gè)惡意的大語言模型驅(qū)動(dòng)的聊天機(jī)器人,表面作用是作為一個(gè)樂于助人的旅行助手,而隱藏任務(wù)則是試圖套取用戶的個(gè)人信息如居住地、年齡和性別。
在模擬對話中,聊天機(jī)器人能夠通過似乎無害的問題來引導(dǎo)用戶透露相關(guān)線索,在多輪交互后準(zhǔn)確推斷出其個(gè)人隱私數(shù)據(jù),驗(yàn)證了這種對抗方式的可行性。
測試數(shù)據(jù)
研究人員選了9種主流大語言模型進(jìn)行測試,包括GPT-4、Claude-2、Llama-2等。對每一個(gè)用戶的所有評論內(nèi)容,以特定的提示格式進(jìn)行封裝,輸入到不同的語言模型中,要求模型輸出對該用戶的各項(xiàng)屬性的推測。
然后,將模型的推測結(jié)果與人工標(biāo)注的真實(shí)數(shù)據(jù)進(jìn)行比較,得到各個(gè)模型的屬性推斷準(zhǔn)確率。
實(shí)驗(yàn)結(jié)果顯示,GPT-4的整體top-1準(zhǔn)確率達(dá)到84.6%,top-3準(zhǔn)確率達(dá)到95.1%,幾乎匹敵專業(yè)人工標(biāo)注的效果,但成本只有人工標(biāo)注的1%左右。
不同模型之間也存在明顯的規(guī)模效應(yīng),參數(shù)數(shù)量越多的模型效果越好。這證明了當(dāng)前領(lǐng)先的語言模型已經(jīng)獲得了極強(qiáng)的從文本中推斷個(gè)人信息的能力。
保護(hù)措施評估
研究人員還從客戶端和服務(wù)端兩方面,評估了當(dāng)前的隱私數(shù)據(jù)的保護(hù)措施。在客戶端,他們測試了業(yè)內(nèi)領(lǐng)先的文本匿名化工具進(jìn)行的文本處理。
結(jié)果顯示,即使刪除了大多數(shù)個(gè)人信息,GPT-4依然可以利用剩余的語言特征準(zhǔn)確推斷出包括地點(diǎn)和年齡在內(nèi)的隱私數(shù)據(jù)。
從服務(wù)端來看,現(xiàn)有商用模型并沒有針對隱私泄露進(jìn)行對齊優(yōu)化,目前的對策仍無法有效防范語言模型的推理。
該研究一方面展示了GPT-4等大語言模型超強(qiáng)的推理能力,另一方面,呼吁對大語言模型隱私影響的關(guān)注不要僅限于訓(xùn)練數(shù)據(jù)記憶方面,需要更廣泛的保護(hù)措施,以減輕推理帶來的隱私泄露風(fēng)險(xiǎn)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會(huì)上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。