最近最熱門的生成式AI模型應用要屬ChatGPT了,一款由OpenAI開發(fā)的聊天機器人。
當前,ChatGPT Plus用戶可以使用GPT-4,這是一種大型多模態(tài)模型(LMM),可以接受圖像和文本輸入并生成文本輸出。2023年3月23日,OpenAI推出了ChatGPT插件,這意味著ChatGPT現在可以訪問某些第三方源和數據庫。
ChatGPT即Chat(基于對話的) G (生成的) P (預訓練的) T (轉換的),它通過強化學習人類反饋來進行微調,ChatGPT經過人類偏好的獎勵模型訓練,使輸出內容更人性化,并盡量避免編造事實。
ChatGPT最初是作為一個大型語言模型(LLM)創(chuàng)建的,經過發(fā)展已經成為了一個大型的多模態(tài)生成AI應用程序。
“大”代表的是模型所基于的數據量,以及模型本身的大小。例如,當它在2022年發(fā)布時,ChatGPT有1750億個參數(一個控制機器學習模型行為的值——參數越大,模型的分析能力就越強)。它最初使用超過100萬個數據集或5000億個標記(單詞或單詞片段)進行訓練,包括來自維基百科和紐約時報的標記。從這個角度來看,人類平均一生會說8.603億個單詞,這個集合——即人工智能術語中的“語料庫”——相當于300年的語言價值。
ChatGPT的基本版本沒有連接到互聯網,并且直到2021年9月都在接受材料培訓,這意味著它的知識不是最新的。向少數高級開發(fā)者發(fā)布的較新的產品,例如必應搜索引擎的插件,可以連接到互聯網并包含最新的內容。
根據OpenAI的說法,盡管GPT-4仍然不完全可靠,但與其前身GPT-3.5相比,它在處理細微指令方面的能力要高得多。最重要的是,它在模擬司法考試中以前10%的成績通過了考試。相比之下,GPT-3.5在同樣的模擬考試中得分倒數10%。OpenAI指出,它的局限性類似于早期的GPT模型,對事實產生幻覺并產生推理錯誤。
ChatGPT的人氣迅速上升,部分原因是即使沒有技術背景也可以使用它。它的用戶快速增長,是人們渴望使用這項技術的一個標志,使用的用戶越多,其底層人工智能能得到的訓練就越好。
ChatGPT有潛力以前所未有的速度和極高的效率應用于IT、審計、人力資源、運營和更多業(yè)務功能領域,但它們并不意味著沒有風險的。
生成式AI的內部風險及思考
首先是保密信息泄露的風險。許多生成式人工智能模型的建立是為了吸收用戶輸入的數據,并隨著時間的推移改進底層模型,其本質上是幫助它們學習和構建知識。同時,再將這些數據用來回答其他人的提問,這有可能會將私人或專有信息暴露給公眾。作為企業(yè)而言,使用這種技術越多,其他人就越有可能了解企業(yè)的敏感或機密信息。因此,企業(yè)需要了解如何在保護其隱私的同時享受生成式人工智能應用程序的好處。
其次是員工誤用以及虛假信息。如果生成AI內容使用的信息不準確,這可能會影響公司的業(yè)務結果或產生責任問題。ChatGPT可能生成虛假的信息,在這一點上,OpenAI的開發(fā)人員承認這是其持續(xù)存在的缺點。該技術也可能會產生敏感信息,如個人數據,這些信息可能被用于身份盜竊或侵犯個人隱私。
再次,是生成式AI的持續(xù)發(fā)展所帶來的合規(guī)挑戰(zhàn)。隨著世界對人工智能的理解不斷發(fā)展,全球越來越多的國家及組織制定法律法規(guī)。即使不打算有意使用生成AI,企業(yè)也必須及時了解這些內容。畢馬威預計生成式人工智能將繼續(xù)集成到許多常見的應用程序、系統(tǒng)和流程中,從互聯網瀏覽器到企業(yè)可能授權的人工智能連接技術。因此,關鍵是要保持警惕,確保不會以違反相關法律法規(guī)、客戶協議或專業(yè)標準的方式使用人工智能。
最后,是關于人才的挑戰(zhàn)。在一個可生成的未來,專業(yè)人員的角色將從解決問題轉變?yōu)槎x問題,因為團隊要與機器一起工作,創(chuàng)造新的方法。因此,高質量的專業(yè)人員輸入才能有高質量的方案產出。
生成式AI的外部風險及思考
對于外部風險,首先是錯誤信息、偏見和歧視。生成式AI可以——并且已經——被用來創(chuàng)建深度偽造的圖像和視頻(當視覺內容被改變,使其看起來像是某人說了或做了他們沒有做或說的事情)。這些圖像和視頻通常看起來非常逼真,并且在編輯后的數字媒體中沒有留下偽造痕跡,這使得人類甚至機器都很難檢測到它們。
其次是版權問題,一旦內容通過生成式AI應用程序運行,誰擁有內容的版權問題比比皆是,而且沒有一個放之四海而皆準的答案。如果內容是剪切和粘貼的,或者基本上沒有改變版權文本,這可能被認為是抄襲。很難確切地說,通過生成AI工具獲得的信息需要改變多少才能合法地稱為你自己的信息。
第三是財務、品牌和聲譽風險。如果將人工智能生成的信息或代碼復制到任何可交付產品或產品中,可能構成版權或其他知識產權侵權,會給企業(yè)帶來法律和聲譽上的損害。同時,缺乏培訓和對這些工具缺乏理解的用戶可能會無意中將知識產權或商業(yè)秘密暴露給公眾甚至競爭對手,這可能會導致訴訟。
第四是網絡安全風險。網絡犯罪分子可以使用生成式AI來創(chuàng)建更逼真、更復雜的網絡釣魚騙局或憑據來入侵系統(tǒng)。此外,人工智能算法無法保護其底層訓練數據集。研究表明,即使數據被匿名化和清除,算法也可以區(qū)分個人的身份。其他生成式AI網絡安全風險包括數據中毒,其中包括用于訓練模型的數據被操縱,以及對抗性攻擊——試圖通過向生成式人工智能模型提供惡意輸入來欺騙它們。
最后是敵對攻擊。即使經過訓練,在可接受的范圍內工作,生成式AI模型也被證明是脆弱的,就像任何分析模型一樣,容易受到老練的外部用戶的蓄意操縱。如果企業(yè)計劃使用生成式AI解決方案,就需要意識到,當解決方案向公眾公開時,這種情況可能就會出現。
生成式AI的未來應用方向
軟件開發(fā)及維護。生成式AI在軟件開發(fā)過程中正在顯示出巨大的潛力,有機會更快地提供更可靠的軟件產品和服務,企業(yè)能夠實現代碼自動化生成、維護和修復錯誤等。
視頻和虛擬現實創(chuàng)作。生成式AI可以為電商網站創(chuàng)建沉浸式視頻游戲環(huán)境,設計視頻,甚至提供個性化產品視頻。未來,公司可以將其用于虛擬助手或直播應用,例如自動為直播視頻添加字幕。該領域的許多公司現在正將重點轉向企業(yè)客戶。
元宇宙建設。在虛擬世界中創(chuàng)建逼真的3D資產既昂貴又耗時,生成式AI可以通過文本、圖像或語音生成3D資產,也可以基于2D圖片生成3D場景,甚至可以生成聲音效果,還可以生成人臉,并賦予虛擬化身更真實的特征。
優(yōu)化網絡安全。生成式AI可以教會個人某些漏洞所代表的關鍵風險,幫助他們編寫適當的腳本或了解威脅行為者的攻擊方法。
(THE END)
原文:KPMG 編譯:智成企業(yè)研究院崔帥
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(AVC)推總數據顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。