蘋果公司的人工智能研究人員表示,在將大型語言模型(LLMs)部署到 iPhone 和其他內存有限的蘋果設備上取得了關鍵性突破。他們發(fā)明了一種創(chuàng)新的閃存利用技術,可有效應對內存限制問題。
LLMs 與內存限制
像 ChatGPT 和 Claude 這樣基于 LLM 的聊天機器人,通常需要大量的數(shù)據(jù)和內存才能運行。對于內存容量有限的設備如 iPhone,這是一個挑戰(zhàn)。蘋果研究人員開發(fā)了一種新技術,利用閃存(即存儲您的應用和照片的內存)來存儲 AI 模型的數(shù)據(jù)。
閃存中的 AI
在名為「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」的新研究論文中,作者指出移動設備中的閃存比傳統(tǒng)用于運行 LLMs 的 RAM 更為豐富。他們的方法巧妙地繞過了這一限制,使用了兩種關鍵技術來最小化數(shù)據(jù)傳輸并最大化閃存吞吐量:
- 窗口化技術: 這可以看作是一種回收方法。AI 模型不是每次都加載新數(shù)據(jù),而是重用它已經處理的一些數(shù)據(jù)。這減少了對持續(xù)內存提取的需求,使過程更快更順暢。
- 行列捆綁技術: 這種技術類似于一次閱讀更大的數(shù)據(jù)塊,而不是一次一個單詞。通過更高效地分組數(shù)據(jù),可以更快地從閃存中讀取數(shù)據(jù),加快 AI 理解和生成語言的能力。
這些方法的結合使 AI 模型能夠運行的規(guī)模達到 iPhone 可用內存的兩倍。據(jù)論文稱,這將使標準處理器(CPU)上的速度提高 4-5 倍,圖形處理器(GPU)上的速度提高令人印象深刻的 20-25 倍。作者寫道:「這一突破對于在資源有限的環(huán)境中部署先進的 LLMs 至關重要,從而擴大了它們的應用范圍和可及性!
iPhone 上的更快 AI
這一 AI 效率的突破為未來的 iPhone 開啟了新的可能性,如更先進的 Siri 功能、實時語言翻譯和在攝影和增強現(xiàn)實中的復雜 AI 驅動功能。此技術還為 iPhone 上運行復雜的 AI 助手和聊天機器人鋪平了道路,據(jù)悉蘋果公司已在研究這方面的應用。
蘋果公司正在開發(fā)自己的生成式 AI 模型「Ajax」,據(jù)稱在設計上能與 OpenAI 的 GPT-3 和 GPT-4 相媲美。Ajax 運行在 2000 億參數(shù)上,表明其在語言理解和生成方面的高度復雜性和能力。內部稱為「Apple GPT」的 Ajax 旨在統(tǒng)一蘋果公司的機器學習開發(fā),表明了將 AI 更深入地整合到蘋果生態(tài)系統(tǒng)中的更廣泛戰(zhàn)略。
據(jù)最新報道,Ajax 被認為比早期的 ChatGPT 3.5 更有能力。然而,也有人認為,截至 2023 年 9 月,OpenAI 的新模型可能已超越了 Ajax 的能力。
根據(jù)《The Information》和分析師 Jeff Pu 的說法,蘋果預計將在 2024 年晚些時候在 iPhone 和 iPad 上推出某種生成式 AI 功能,屆時將發(fā)布 iOS 18。據(jù)稱,蘋果計劃提供云端 AI 和設備上 AI 處理的結合。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。