OpenAI業(yè)績超預(yù)期增長,預(yù)測2024年收入將增長131.25%,但研發(fā)新技術(shù)帶來成本飆升的巨大挑戰(zhàn);面向多模態(tài)、深度推理等前沿方向推出GPT-4o系列、o1系列等新模型;持續(xù)創(chuàng)新ChatGPT等產(chǎn)品功能,提升用戶交互體驗,并逐步探索新營收模式,在全球多地組建本地化團隊就近提供服務(wù);受高層離職及企業(yè)轉(zhuǎn)型影響,解散并新建部分團隊;新模型發(fā)布帶動用戶生態(tài)持續(xù)繁榮,通過廣泛外部合作持續(xù)夯實高質(zhì)量數(shù)據(jù)基礎(chǔ)、提升技術(shù)應(yīng)用創(chuàng)新。
表1 Meta近半年最新進展的主要指標表
注:1)財務(wù)數(shù)據(jù)方面,“當前進展”列為2024年整體預(yù)測數(shù)據(jù),“變化幅度”列基于2023年相應(yīng)數(shù)據(jù)進行計算,全部數(shù)據(jù)源于OpenAI官網(wǎng)、負責人對外發(fā)言、公開資料;2)除特別注釋外,“變化幅度”列中定量變化指環(huán)比,定性變化指公司近半年進展對比上一階段(截止到天翼智庫團隊所做第一輪企業(yè)對標)的顯著變化;3)紅色向上箭頭表示增加;4)年度經(jīng)常性收入指一年內(nèi)從訂閱客戶處獲得的可預(yù)測收入。
財務(wù)近況:公司創(chuàng)收潛力大,研發(fā)新技術(shù)帶來成本飆升挑戰(zhàn)
2024年收入快速增長,且未來潛力巨大。財務(wù)文件顯示,2024年8月,OpenAI的月收入已達3億美元,自2023年初以來增長1700%;但毛利率僅41%,遠低于行業(yè)云軟件初創(chuàng)公司的65%平均水平,OpenAI計劃在2028年前將毛利率提升到67%。2024年10月,OpenAI首席財務(wù)官Sarah Friar接受外媒專訪期間預(yù)測OpenAI的2024年收入將達到37億美元,與2023年的16億美元相比增長131.25%,預(yù)計其收入明年將飆升至116億美元。隨著增長加速,OpenAI估值水漲船高,在今年10月的一輪融資后估值已達1570億美元,大約是年初估值的兩倍。
開發(fā)和運營更先進的AI系統(tǒng)為其帶來巨大開支。OpenAI聯(lián)合創(chuàng)始人Altman曾指出,隨著公司開發(fā)更復(fù)雜的模型,預(yù)計支出將繼續(xù)超過收入增長,可能還需要籌集數(shù)百億美元才能滿足成本。預(yù)估數(shù)據(jù)顯示,OpenAI今年運營總成本或?qū)⑦_85億美元,主要由模型推理、訓練、人力成本構(gòu)成,分別為40億、30億、15億美元。推理成本方面,截至今年3月,OpenAI已花費近40億美元租用微軟的服務(wù)器集群來支持ChatGPT及其底層大模型的運轉(zhuǎn),該集群相當于35萬個英偉達A100芯片,其中約29萬個芯片為ChatGPT提供支持。訓練成本(包括支付數(shù)據(jù)的費用)方面,截至第一季度,用于OpenAI模型訓練的服務(wù)器集群已包括12萬個英偉達A100,隨著OpenAI加快訓練最新旗艦?zāi)P,訓練成本可能將在今年翻一番?strong>人力成本方面,截至目前OpenAI雇用大約1700名員工,隨著該公司與谷歌等科技巨頭爭奪技術(shù)人才,最終人力成本在今年可能將高達約15億美元。
大模型技術(shù):面向多模態(tài)、深度推理等前沿方向推出新模型
1.新發(fā)布GPT-4o系列模型,提供多模態(tài)處理、低時延交互能力
GPT-4o為端到端多模態(tài)模型,可實現(xiàn)毫秒級先進視覺音頻理解。2024年5月,OpenAI發(fā)布新的“全能模型”(omni model)GPT-4o,能提供與GPT-4同等程度的模型能力,推理速度更快,還能提供同時理解文本、圖像、音頻等內(nèi)容的多模態(tài)能力,具有如下亮點:(1)GPT-4o為端到端多模態(tài)模型,模型所有輸入和輸出都由同一神經(jīng)網(wǎng)絡(luò)處理,在文本、推理和編碼智能方面基準測試實現(xiàn)GPT-4 Turbo級別性能,同時在多語言、音頻和視覺功能上達到新的高水位線;(2)毫秒級響應(yīng),GPT-4o對音頻輸入的響應(yīng)時間最短為232毫秒,平均為320毫秒,與人類在對話中的響應(yīng)時間相似;(3)更先進的視覺與音頻理解能力、智能感知語氣與語態(tài),GPT-4o支持在對話中隨時打斷,可根據(jù)場景生成多種語調(diào),同時支持視頻對話;(4)API性價比顯著提升,與GPT-4 Turbo相比速度提升2倍、成本降低50%,速率限制提升5倍。
GPT-4o mini模型推進實現(xiàn)更具成本效益的人工智能。2024年7月,OpenAI發(fā)布GPT-4o mini,作為GPT-4o系列最具成本效益的型號,該模型具備以下特點:(1)多模態(tài)推理能力,具備文本、圖像、音頻、視頻的多模態(tài)推理能力,已在API中支持文本和視覺輸入,未來計劃擴展視頻和音頻的輸入、輸出;(2)性能表現(xiàn)優(yōu)異,在多個全球權(quán)威基準測試中成績超越GPT-3.5 Turbo等模型,如在MMLU文本智能與推理基準測試及Human Eval編碼性能測試中分別以82.0%和87.2%的得分領(lǐng)先,在MGSM數(shù)學推理測試及多模態(tài)推理領(lǐng)域的MMMU評估中分別獲得87.0%和59.4%的高分;(3)成本大幅降低,相比原版GPT-4o模型便宜96%-97%。(4)處理能力較強,擁有128k tokens的上下文處理能力,支持16k輸出tokens;(5)安全策略創(chuàng)新,是首個使用全新安全策略“指令層次結(jié)構(gòu)”的AI模型,能優(yōu)先考慮特定指令,使惡意用戶更難讓模型執(zhí)行不當操作,有效抵御越獄攻擊、即時注入及系統(tǒng)即時提取等風險。
2.基于GPT-4訓練CriticGPT模型以評估高級AI系統(tǒng)內(nèi)容輸出
2024年6月,OpenAI發(fā)布基于GPT-4的模型CriticGPT,旨在找出ChatGPT代碼輸出錯誤、輔助改進,并更好地幫助工程師評估ChatGPT響應(yīng)質(zhì)量和準確性。CriticGPT的發(fā)布標志著RLHF(基于人類反饋的強化學習)領(lǐng)域取得重大進步,解決人類評估者在評估日益復(fù)雜的AI模型時面臨的核心挑戰(zhàn)。該模型具備如下特點:(1)可進行智能錯誤捕獲,能深入分析ChatGPT代碼輸出并指出其中錯誤,檢測LLM(大型語言模型)錯誤的準確率達63%;(2)可提高評估效率,使用CriticGPT輔助的人類評估者檢查ChatGPT代碼輸出,效率比不使用時高出60%;(3)自然語言反饋,能通過自然語言反饋指出代碼問題,還能幫助訓練師撰寫更全面的批評,減少虛構(gòu)問題。
3.新發(fā)布o1系列推理模型,復(fù)雜推理能力大幅提升
OpenAI o1系列推動AI向更深層次的智能推理與問題解決能力發(fā)展。2024年9月,OpenAI推出o1系列模型,包括o1、o1-preview和o1-mini三款。該系列模型通過模仿人類的推理過程,能夠在回答前進行更深入思考,從而處理更復(fù)雜任務(wù),主要特點如下:(1)采用全新推理范式,o1-preview運用思維鏈(CoT,Chain of Thought)+自我對弈強化學習的推理范式,可將復(fù)雜步驟拆解為更簡單部分,并在當前方法無效時嘗試不同方式,代表著Scaling up從預(yù)訓練擴展至后訓練階段;(2)領(lǐng)先的深度推理能力,如o1-preview在物理、化學和生物學等復(fù)雜任務(wù)的基準測試中表現(xiàn)可與博士生媲美,在國際數(shù)學奧林匹克競賽的資格考試中正確率達83%,GPT-4o僅為13%;(3)安全性提升,在一項最難的越獄測試中,o1-preview得分84(滿分100),遠高于GPT-4o的22分,證明o1-preview在安全規(guī)則的執(zhí)行和應(yīng)對違規(guī)嘗試時表現(xiàn)更可靠。
輕量化版本OpenAI o1-mini更好滿足開發(fā)者對高效解決方案的需求。這款經(jīng)過優(yōu)化的推理模型運行速度快、使用成本低,非常適合處理編程相關(guān)任務(wù),主要特點如下:(1)性能優(yōu)化,作為o1系列的輕量版本,o1-mini在保持高質(zhì)量輸出的同時大大提高響應(yīng)速度,如單詞推理問題上,o1-mini比GPT-4o快3-5倍;(2)成本效益高,相比o1-preview,o1-mini使用成本降低80%;(3)編程專長,o1-mini在編碼任務(wù)上表現(xiàn)突出,可為開發(fā)者提供高效代碼生成和調(diào)試支持,在Codeforces編碼競賽中,o1-mini獲得1650 Elo的評分,與o1的1673 Elo相當,高于o1-preview的1258 Elo。
4.推出連續(xù)時間一致性模型促進生成式人工智能發(fā)展
2024年10月,OpenAI推出新型連續(xù)時間一致性模型sCM,將開啟視頻、圖像、三維模型、音頻等實時、高質(zhì)量、跨領(lǐng)域的生成式人工智能新階段。模型主要特點如下:(1)創(chuàng)新提出TrigFlow統(tǒng)一框架,簡化理論公式,整合多個復(fù)雜過程,并讓訓練過程更穩(wěn)定,為后續(xù)模型改進提供堅實基礎(chǔ);(2)生成速度顯著提升,僅需兩步采樣即可生成高質(zhì)量樣本,生成速度提升50倍,如15億參數(shù)模型在單個A100 GPU上生成一張圖片只需0.11秒;(3)保持高質(zhì)量輸出效果,采樣步驟答復(fù)減少但生成樣本質(zhì)量與頂尖擴散模型相當;(4)具有跨領(lǐng)域生成能力,不僅適用于圖像生成,還可用于視頻、三維模型和音頻的實時生成,為多領(lǐng)域應(yīng)用提供發(fā)展廣闊前景。
市場發(fā)展:持續(xù)創(chuàng)新產(chǎn)品功能,逐步探索新商業(yè)模式
1.產(chǎn)品與服務(wù):不斷完善ChatGPT功能,提升用戶交互體驗
逐步開放“高級語音模式”(Advanced Voice Mode),提升人機交互體驗。2024年7月,OpenAI面向小部分ChatGPT Plus用戶推出ChatGPT高級語音模式的Alpha版本進行測試;9月正式向ChatGPT Plus和Team用戶推出高級語音模式,支持超過50種語言;10月用戶可直接在Windows電腦或Mac客戶端使用高級語音模式。高級語音模式的推出是AI對話技術(shù)的重要革新,使用戶能直接通過語音與ChatGPT進行對話,允許隨時打斷和調(diào)整,甚至能創(chuàng)建和回顧記憶,訪問以往交互信息和自定義指令,以提供更加精準和個性化的反饋,極大提升用戶交互體驗。
引入結(jié)構(gòu)化輸出功能(Structured Outputs),顯著提升API可靠性和應(yīng)用精確度。2024年8月,OpenAI在API中引入結(jié)構(gòu)化輸出功能,允許API返回JSON或XML等更易于處理的數(shù)據(jù)格式,以確保模型生成的輸出能完全符合開發(fā)人員提供的JSON架構(gòu),顯著提升API的可靠性。同時,OpenAI更新Python和Node SDK,使開發(fā)者能像使用Pydantic或是Zod對象一樣,簡單提供工具的結(jié)構(gòu)或回應(yīng)格式,SDK便自動處理數(shù)據(jù)類型轉(zhuǎn)換,將開發(fā)者的數(shù)據(jù)類型轉(zhuǎn)換為支持的JSON結(jié)構(gòu)。
發(fā)布GPT-4o with Canvas功能,提高寫作和編程的協(xié)作體驗。2024年10月,OpenAI發(fā)布新的交互方式Canvas,允許用戶在一個單獨窗口中與ChatGPT進行深度合作,進行詳細的內(nèi)嵌反饋、針對性的編輯以及內(nèi)容重寫。在編程方面,Canvas包括調(diào)試、代碼審查、添加注釋和在多種語言之間轉(zhuǎn)換代碼等功能;在寫作方面,Canvas提供文本潤色、可讀性調(diào)整、語法和清晰度建議等功能。Canvas功能特別適合需要廣泛編輯和修訂的任務(wù),提升寫作和編程的效率和協(xié)作體驗。
發(fā)布ChatGPT Search,正式進軍AI搜索領(lǐng)域。2024年10月,OpenAI正式上線搜索功能ChatGPT Search,能使用網(wǎng)絡(luò)最新信息來回答問題,并提供相關(guān)來源的鏈接。ChatGPT Search覆蓋ChatGPT的網(wǎng)頁版、手機和桌面應(yīng)用,可為用戶提供經(jīng)過AI整合后的直接答案,使信息檢索更加高效、準確。未來,廣告可能會成為OpenAI下一步在搜索領(lǐng)域盈利的選擇。
2.商業(yè)模式:圍繞ChatGPT業(yè)務(wù)等主業(yè),逐步探索新營收模式
以消費者訂閱的ChatGPT業(yè)務(wù)為核心,通過吸引企業(yè)用戶增加收入。2024年10月,OpenAI首席財務(wù)官Sarah Friar表示,目前OpenAI大約75%的業(yè)務(wù)來自消費者訂閱,企業(yè)版ChatGPT雖剛起步,但已經(jīng)實現(xiàn)可觀的年化收入,潛力巨大。企業(yè)版ChatGPT付費用戶在2024年9月已突破100萬,較2023年末的15萬增長566.67%。消費者用戶方面,ChatGPT付費用戶計劃的起價為每月20美元,周活躍用戶達2.5億,消費者用戶付費轉(zhuǎn)化率達5%-6%。2024年7月ChatGPT Plus付費用戶數(shù)已突破770萬,較去年同期增長285%,9月o1系列模型發(fā)布引發(fā)新一輪付費用戶增長,消費者付費用戶已突破1000萬。
API直接收入貢獻較弱且已在逐步收縮,未來或轉(zhuǎn)向與Azure深度合作的收入分成模式。調(diào)研機構(gòu)Future Search曾在2024年7月對OpenAI的收入構(gòu)成進行拆解,結(jié)果顯示,為開發(fā)者和企業(yè)提供直接訪問其AI模型的API接口服務(wù)僅為OpenAI貢獻15%的收入,OpenAI也從7月9日起停止來自非支持國家和地區(qū)的API流量以進行相應(yīng)業(yè)務(wù)縮減。此外,通過2023年初與微軟Azure合作提供旗下AI模型訪問權(quán)限,OpenAI有望獲得2億美元的年度分成。
3.市場拓展策略:保持技術(shù)領(lǐng)先優(yōu)勢,組建本地團隊拓展國際業(yè)務(wù)
堅持開發(fā)最前沿的人工智能模型,將技術(shù)創(chuàng)新視為核心驅(qū)動力。OpenAI始終不斷投入資源進行GPT系列模型研發(fā)與升級,Sarah Friar曾在2024年7月對外強調(diào),“對我們來說,最重要的是保持前沿,即建立前沿模型,確保我們最終將通用人工智能(AGI)造福于人類”。11月,OpenAI首席執(zhí)行官Altman指出,OpenAI當前重點將聚焦開發(fā)專注于推理和難題解決的模型,以應(yīng)對更復(fù)雜的計算需求與市場挑戰(zhàn)。
通過在全球各地設(shè)立辦事處以更好地服務(wù)全球客戶,并獲得更多與當?shù)卣、企業(yè)和合作伙伴進行交流和合作的機會。2024年4月,OpenAI宣布在日本東京設(shè)立該公司在亞洲的首個辦事處。10月,OpenAI宣布計劃在紐約、西雅圖、巴黎、布魯塞爾和新加坡開設(shè)5個新的辦事處,同時不斷擴大舊金山、倫敦、都柏林和東京辦事處,以增強全球影響力。OpenAI曾表示,新加坡是全球人均使用ChatGPT比例最高的地區(qū)之一,強調(diào)該地區(qū)對AI應(yīng)用的準備程度。新加坡辦事處還將與政府主導的支持該地區(qū)AI發(fā)展的AI Singapore合作,OpenAI將向其投資多達100萬美元,以使自身的AI模型更適用于當?shù)卣Z言和文化。
組織及運營:向營利性企業(yè)轉(zhuǎn)型,新建團隊應(yīng)對安全及算力需要
多名高層離職,公司向營利性企業(yè)轉(zhuǎn)型,部分團隊解散。2024年9月底,OpenAI首席技術(shù)官Mira Murati、首席研究官Bob McGrew和研究副總裁Barret Zoph先后宣布離職。此后,Mark Chen被任命為研究高級副總裁,OpenAI的研究工作將由他與首席科學家Jakub Pachocki共同領(lǐng)導,而原11位創(chuàng)始團隊成員僅剩Sam Altman和Wojciech Zaremba兩位仍在留任。同期,多家媒體報道OpenAI正計劃重組核心業(yè)務(wù),轉(zhuǎn)變?yōu)闋I利性公益企業(yè),不再由非營利性董事會控制。10月23日,OpenAI專注于通用人工智能開發(fā)的“AGI Readiness”團隊負責人Miles Brundage宣布離職,計劃在OpenAI之外繼續(xù)從事該領(lǐng)域研究工作,而“AGI Readiness”團隊也即將解散。
重點布局AI安全及芯片領(lǐng)域,成立新團隊謀求技術(shù)自研。2024年5月,OpenAI宣布董事會成立安全與安保委員會,除OpenAI時任高層外,還聘請并咨詢了其他安全、安保和技術(shù)專家來支持這項工作,包括前網(wǎng)絡(luò)安全官員、為OpenAI提供安全建議的Rob Joyce和John Carlin。該委員會負責就OpenAI項目和運營的關(guān)鍵安全與保障決策提出建議。據(jù)路透社10月報道,OpenAI將進行硬件戰(zhàn)略調(diào)整,組建由約20名工程師組成的芯片開發(fā)團隊,與博通和臺積電聯(lián)手打造首款自研芯片,旨在支持其AI系統(tǒng)、優(yōu)化計算資源和降低成本。
行業(yè)影響力:新模型持續(xù)帶動生態(tài)繁榮,外部合作反哺技術(shù)創(chuàng)新
模型性能迭代帶動ChatGPT用戶生態(tài)持續(xù)擴大。統(tǒng)計網(wǎng)站tooltester 顯示,2023年5月至2024年4月的一年間,ChatGPT每月訪問量都在16億到18億之間浮動,2024年9月o1系列新模型的發(fā)布帶動用戶生態(tài)快速增長,使ChatGPT躍升為全球訪問量第十一的網(wǎng)站。根據(jù)Similarweb的最新數(shù)據(jù),ChatGPT在2024年10月的月訪問量已突破31億次,相較去年同期同比增長112%,相比同年8月增長18.7%。
通過加強與媒體及科研院所合作,持續(xù)夯實高質(zhì)量訓練數(shù)據(jù)基礎(chǔ)、提升模型技術(shù)應(yīng)用能力。2024年5月至10月,OpenAI先后與《大西洋月刊》、Vox Media、TIME、康泰納仕、赫斯特等美國媒體以及意大利媒體集團GEDI簽訂內(nèi)容協(xié)議,將多家媒體內(nèi)容整合至其AI產(chǎn)品中,包括文章、視頻、音頻等多種形式內(nèi)容,將為OpenAI的AI模型提供更為廣泛和多元的數(shù)據(jù)支持,進一步提升其技術(shù)水平和應(yīng)用范圍。截至目前,OpenAI已與沃頓商學院、洛斯阿拉莫斯國家實驗室、美國商務(wù)部國家標準與技術(shù)研究院旗下的美國人工智能安全研究所、博通和臺積電等芯片企業(yè)達成戰(zhàn)略合作,合作涉及AI教學投資、生物科學研究、AI安全研究及測試評估、自研AI芯片生產(chǎn)等。
本文作者
江嘉琳
戰(zhàn)略發(fā)展研究所
二級分析師
暨南大學區(qū)域經(jīng)濟學碩士,在區(qū)域市場分析、區(qū)域政策研究、用戶研究、產(chǎn)品體驗領(lǐng)域有豐富積累,聚焦視聯(lián)網(wǎng)、數(shù)字生活等領(lǐng)域研究工作。
張媛玥
戰(zhàn)略發(fā)展研究所
一級分析師
就職于中國電信研究院,長期從事人工智能、工業(yè)互聯(lián)網(wǎng)等領(lǐng)域的技術(shù)及產(chǎn)業(yè)研究。
王曉娣
戰(zhàn)略發(fā)展研究所
助理分析師
大連理工大學碩士,就職于中國電信研究院,專注于人工智能、工業(yè)互聯(lián)網(wǎng)等領(lǐng)域技術(shù)及產(chǎn)業(yè)研究工作。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。