這家由前谷歌AI 研究員 Andy Konwinski、Aravind Srinivas、Denis Yarats 和 Johnny Ho 創(chuàng)立的初創(chuàng)公司,通過結合網(wǎng)絡索引和最新信息與會話式 AI 聊天機器人界面,有望顛覆其前東家谷歌在網(wǎng)絡搜索領域的領先地位。其聊天機器人 Perplexity Copilot,直到最近一直使用 OpenAI 的 GPT-4 和 Anthropic 的 Claude 2 作為后臺「智能」,付費用戶可以在這兩者之間切換。
如今,首選搜索引擎目的地邁出了又一步,發(fā)布了自己的大型語言模型(LLMs)——pplx-7b-online 和 pplx-70b-online">Perplexity 公司向成為首選搜索引擎目的地邁出了又一步,發(fā)布了自己的大型語言模型(LLMs)——pplx-7b-online 和 pplx-70b-online,分別以它們的參數(shù)大小 7 億和 70 億命名。這些模型是基于 Mistral 和 Meta 的開源 mistral-7b 和 llama2-70b 模型進行微調和增強的版本。
AI 中的參數(shù)指的是每個模型的人工神經(jīng)元之間的連接數(shù),通常表明模型的強大和「智能」程度,參數(shù)越高通常意味著模型更加知識淵博、智能和高效。
為什么 Perplexity 的新在線 LLMs 很重要,它們與 ChatGPT 和其他 LLMs 有何不同?
Perplexity 的新在線 LLMs 之所以重要,以及它們與 ChatGPT 等的區(qū)別,在于它們不僅可供其他組織通過 Perplexity 的 API(應用程序編程接口)使用和構建自己的應用程序,而且還旨在提供「有用的、事實和最新的信息」——這是大多數(shù)其他領先 LLMs,包括 OpenAI 的 GPT-3.5 和 GPT-4(為 ChatGPT 提供動力)難以做到的。
Perplexity 首席執(zhí)行官 Aravind Srinivas 在 X 上發(fā)布消息稱,新的 PPX LLMs 是「首個實時 LLM API,它們基于網(wǎng)絡搜索數(shù)據(jù),沒有知識截止日期!」
GPT-3.5 和 4 的存儲知識截止日期直到最近一直限于 2021 年 9 月,直到今年早些時候才有所提升。盡管如此,這與內置了當前事件和最新消息的知識相比還有很大差距,盡管通過 OpenAI 合作伙伴微軟必應搜索恢復 ChatGPT 的 Web 瀏覽功能在一定程度上緩解了這一點,該功能于 2023 年 9 月底恢復。
通過 LLM 聊天機器人提供最新知識的競賽也在升溫。埃隆·馬斯克(Elon Musk)夸口他的公司 xAI 的新聊天機器人 Grok 將具備這一能力,這要歸功于它與姐妹公司 X(前推特)的直接整合,以及該平臺用戶發(fā)布的所有實時信息。Grok 已經(jīng)向選定用戶提供了有限的測試版,并將在本周推出供任何人使用,前提是用戶支付 X Premium 訂閱。
其他 LLM 提供商,如加拿大多倫多的企業(yè)級 Cohere,旨在通過結合 Web 瀏覽功能和檢索增強生成(RAG),將更多最新知識納入其 LLMs,這使模型能夠借助管理員提供的外部信息來源,如公司文件。
在新的 PPLX 在線 LLMs 的情況下,Perplexity 開發(fā)了自己的方法來獲取最新信息。正如公司在其博客文章中所寫:「我們的內部搜索、索引和爬蟲基礎設施使我們能夠用最相關、最新和最有價值的信息來增強 LLMs。我們的搜索索引龐大,定期更新,并使用復雜的排名算法來確保優(yōu)先考慮高質量、非 SEO 化的網(wǎng)站。我們向 pplx 在線模型提供的網(wǎng)站摘錄,我們稱之為『片段』,使其能夠用最新的信息做出回應!
在提供最新信息方面,Perplexity 是否優(yōu)于 OpenAI 和 Meta?
為了證明其新 LLMs 的有效性,Perplexity 聘請了一些人力承包商根據(jù)三個標準評估問題的回答:有用性、事實性(Perplexity 也稱之為準確性)和新鮮度(后者指信息的最新程度)。
承包商被要求比較兩個模型的回應,其中一些是 Perplexity 的新 PPLX 在線 LLMs,另一些則是 Meta 的 Llama 2 或 OpenAI 的 GPT-3.5 Turbo,選擇他們更喜歡的兩者之間的回應。
然后,Perplexity 利用稱為 Elo 評分的方法從人力承包商的回應中推斷出,其模型在「新鮮度」和「事實性」方面的表現(xiàn)優(yōu)于 OpenAI 和 Meta 的原始模型。在「有用性」方面,即咨詢顧問認為 LLM 回應的實用性,GPT-3.5 仍然優(yōu)于 PPLX 和原始的 Llama 2 模型。
「總的來說,評估結果表明,我們的 PPLX 模型可以與 gpt-3.5 和 llama2-70b 匹敵,甚至在提供準確和最新回應的 Perplexity 相關用例上表現(xiàn)更好,」公司在描述新模型的博客文章中寫道。
如何使用和影響
新的 PPLX 在線 LLMs 現(xiàn)在可供個人和組織通過 Perplexity 的 API 網(wǎng)站使用,并按照那里發(fā)布的文檔操作。此外,Perplexity 在其博客文章中指出,API 正從測試版可用性轉向公眾普遍可用性。
然而,這是有成本的:盡管是基于免費的開源模型進行培訓的,Perplexity 還是在這些模型中加入了其搜索和 Web 索引技術并收費。Perplexity 為其專業(yè)訂閱級別收取 20 美元/月或 200 美元/年的費用,現(xiàn)在將為用戶提供 5 美元/月的信用額度,他們可以將其用于 Perplexity API 以獲取 PPLX 模型的訪問權限。
除此之外,用戶還需要為額外的 API 調用(使用查詢或提示訪問模型)付費。Perplexity 尚未提供公開的定價信息,而是指示有興趣的各方直接通過電子郵件與其聯(lián)系。
雖然個人和企業(yè)對新模型的接受程度,無論是直接使用還是在新應用程序中使用,尚待觀察,但 Perplexity 已經(jīng)贏得了一些熱心粉絲的支持,他們認為這是搜索的未來,包括風投資本家 Jeremiah Owyang of Blitzscaling Ventures,他表示自己與該公司「沒有財務聯(lián)系」。
隨著谷歌的 Bard 因一些爭議和差評而陷入困境,以及谷歌的后續(xù) GPT 殺手Gemini據(jù)說被推遲,現(xiàn)在是 Perplexity 確立自己作為搜索未來另一種愿景的大好時機——在這種愿景中,AI 助手與您對話并從網(wǎng)絡中提取答案,而不是用戶自己對搜索結果進行排序以找到最佳結果。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。