5月6日,OpenAI首席執(zhí)行官Sam Altman在社交平臺分享了一條推文“我是一個優(yōu)秀的GPT-2聊天機器人”。
而在4月30日,Altman就提起過該模型非常喜歡GPT-2。按道理說一個只有15億參數(shù)在2019年發(fā)布的開源模型,被反復(fù)提及兩次就很不尋常。
更意外的是GPT-2曾短暫上榜LMSYS的聊天機器人競技場性能媲美GPT-4、Claude Opus等模型。
很多人猜測,難道這是OpenAI即將發(fā)布的GPT-4.5、GPT-5?但在5月2日的一場公開演講中,Altman否認(rèn)了這個說法。
從GPT-2展示出的性能來看有一點是可以肯定的,OpenAI掌握了一種新的訓(xùn)練、微調(diào)模型方法,可將小參數(shù)模型的性能訓(xùn)練的和大參數(shù)模型一樣優(yōu)秀,就像微軟剛發(fā)布的Phi-3系列模型。
所以,這可能是一款針對手機、平板等移動設(shè)備的高性能、低消耗模型。因為,微軟、谷歌、Meta等科技巨頭都發(fā)布了針對移動端的大模型,唯獨OpenAI遲遲沒有發(fā)布。
加上蘋果正在與OpenAI、谷歌洽談希望在iOS18中使用GPT系列模型來增強用戶體驗和產(chǎn)品性能。非常善于營銷的Altman用這種“新鍋抄舊菜”的方法進行病毒式宣傳來贏得蘋果的信任。
一方面,可以極大展示自己模型的性能與技術(shù)實力;另一方面給谷歌造成壓力,雖然其Gemini系列是針對移動端的,但在市場應(yīng)用方面并沒有太多的反響。
開發(fā)移動端的大模型都有一個非常相似的技術(shù)特點,就是參數(shù)都非常小。例如,微軟剛發(fā)布的Phi-3系列模型,最小的只有13億參數(shù);谷歌的Gemini系列模型最小的只有18億。
這是因為,參數(shù)越大模型的神經(jīng)元就越多對硬件的要求也就越高。如果想部署在移動端的大模型需要考慮電池、存儲空間、算力、延遲、推理效率等因素,才能在有限的硬件空間內(nèi)發(fā)揮出最大的性能。例如,直接使用一個1000億參數(shù)的模型,可能還沒問幾下電池先耗盡了。
此外,在移動設(shè)備對推理的效率要求也很高。目前手機端的延遲大概是web、PC端的數(shù)倍,如果想更好地使用語音助手、實時翻譯、文本問答這些功能,也是使用小參數(shù)模型的主要原因之一。
所以,OpenAI使用在2019年開源的15億參數(shù)GPT-2模型來實驗最合適不過了,并且架構(gòu)也是基于Transformer,基本上是GPT-3、GPT-4的先輩模型。
當(dāng)然,如果未來OpenAI真的發(fā)布面向移動端的小參數(shù)模型,名字肯定不會再叫GPT-2,大概會起GPT-4mini/little一類的吧。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。