還能再漲23%!AI寵兒NVIDIA成大摩明年首選AMD FSR 4.0將與RX 9070 XT顯卡同步登場羅永浩細紅線最新進展,暫別AR,迎來AI Jarvis構(gòu)建堅實數(shù)據(jù)地基,南京打造可信數(shù)據(jù)空間引領(lǐng)數(shù)字城市建設(shè)下單前先比價不花冤枉錢 同款圖書京東價低于抖音6折日媒感慨中國電動汽車/智駕遙遙領(lǐng)先:本田、日產(chǎn)、三菱合并也沒戲消委會吹風機品質(zhì)檢測結(jié)果揭曉 徠芬獨占鰲頭 共話新質(zhì)營銷力,2024梅花數(shù)據(jù)峰會圓滿落幕索尼影像專業(yè)服務(wù) PRO Support 升級,成為會員至少需注冊 2 臺 α 全畫幅相機、3 支 G 大師鏡頭消息稱vivo加碼電池軍備競賽:6500mAh 旗艦機+7500mAh中端機寶馬M8雙門轎跑車明年年初將停產(chǎn),后續(xù)無2026款車型比亞迪:2025 款漢家族車型城市領(lǐng)航智駕功能開啟內(nèi)測雷神預(yù)告2025年首次出席CES 將發(fā)布三款不同技術(shù)原理智能眼鏡realme真我全球首發(fā)聯(lián)發(fā)科天璣 8400 耐玩戰(zhàn)神共創(chuàng)計劃iQOO Z9 Turbo長續(xù)航版手機被曝電池加大到6400mAh,搭驍龍 8s Gen 3處理器普及放緩 銷量大跌:曝保時捷將重新評估電動汽車計劃來京東參與榮耀Magic7 RSR 保時捷設(shè)計預(yù)售 享365天只換不修國補期間電視迎來換機潮,最暢銷MiniLED品牌花落誰家?美團旗下微信社群團購業(yè)務(wù)“團買買”宣布年底停運消息稱微軟正與第三方廠商洽談,試圖合作推出Xbox游戲掌機設(shè)備
  • 首頁 > 云計算頻道 > 大模型

    秒懂生成式AI—大語言模型是如何生成內(nèi)容的?

    2023年09月21日 12:08:51   來源:微信公眾號AIGC開放社區(qū)

      本文來自于微信公眾號 AIGC開放社區(qū)(ID:AIGCOPEN),作者:AIGC開放社區(qū)。

      備受關(guān)注的大語言模型,核心是自然語言的理解與文本內(nèi)容的生成,對于此,你是否好奇過它們究竟是如何理解自然語言并生成內(nèi)容的,其工作原理又是什么呢?

      要想了解這個,我們就不得不先跳出大語言模型的領(lǐng)域,來到機器翻譯這里。傳統(tǒng)的機器翻譯方式,還是采用RNN 循環(huán)神經(jīng)網(wǎng)絡(luò)。

      循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一種遞歸神經(jīng)網(wǎng)絡(luò),以序列數(shù)據(jù)為輸入,在序列的演進方向進行遞歸且所有節(jié)點(循環(huán)單元)按鏈式連接。

      釋義來源:文心一言

      就“我畫一幅畫”這句話而言,它會先將其拆分為“我”、“畫”、“一幅”、“畫”四個詞,然后遞進式一個詞一個詞對這句話進行理解翻譯,像是:

    圖片

      然后輸出:I have drawn a picture.

      這種方式簡單直接,但因為 RNN 自身的線性結(jié)構(gòu)導(dǎo)致其無法對海量文本進行并行處理,運行緩慢,另外還會有“讀到后面忘了前面”,使 RNN 在處理長序列時會出現(xiàn)梯度消失或爆炸的狀況。

      直到2017年,Google Brain 和 Groogle Research 合作發(fā)布了一篇名為《Attention Is All You Need》的論文,該論文為機器翻譯處理提供了一個嶄新的方式,同時起了一個與《變形金剛》相同的名字——Transformer。

      Transformer 是一種神經(jīng)網(wǎng)絡(luò),它通過跟蹤序列數(shù)據(jù)中的關(guān)系來學習上下文并因此學習含義。該模型在2017年由 Google 提出,是迄今為止發(fā)明的最新和最強大的模型類別之一。

      釋義來源:文心一言

      Transformer 能對海量文本進行并行處理,因為它使用的是一種特殊的機制,稱為自注意力(self-attention)機制。就像我們在進行長閱讀時,大腦會依靠注意力選擇重點詞進行關(guān)聯(lián),從而“略讀”后對文章更好的理解,該機制的作用就是賦予AI這項能力。

      self-attention 是一種注意力機制,它通過對輸入序列進行線性變換,得到一個注意力權(quán)重分布,然后根據(jù)這個分布加權(quán)輸入序列中的每個元素,得到最終的輸出。

      釋義來源:文心一言

      同樣還是“請注意垃圾分類”這句話,同樣是被分成“我”、“畫”、“一幅”、“畫”四個詞,在 Transformer 中它們會經(jīng)歷輸入、編碼器(encoder)、解碼器(decoder)、輸出四個階段。

    圖片

      具體來看,當句子拆解后輸入到編碼器(encoder)中,編碼器會先對每個詞的生成一個初始表征,可簡單理解為對每個詞的初始判斷,比如“畫”是名詞,也可以是動詞。

      然后,利用自注意力(self-attention)機制計算詞與詞之間的關(guān)聯(lián)程度,可以理解為進行打分,比方第一個“畫”與“我”的關(guān)聯(lián)程度高就給打6分,第二個“畫”與“一幅”的關(guān)聯(lián)也高打8分,“我”與“一幅”沒什么關(guān)聯(lián)就打-2分。

    圖片

      接著,根據(jù)打分對先前生成的初始表征進行加工,第一個“畫”與“我”的關(guān)聯(lián)程度高,那就可以降低表征中對名詞詞性的判斷,提升動詞詞性的判斷;第二個“畫”與“一幅”的關(guān)聯(lián)程度高,那就可以降低表征中對動詞詞性的判斷,提升名詞詞性的判斷。

      最后,將加工過的表征輸入到解碼器(decoder),解碼器(decoder)再根據(jù)對每個詞的了解結(jié)合上下文,再輸出翻譯。在這期間,每個詞與詞之間都可以同時進行,大大提高了處理速率。

      可這樣的 Transformer 和大語言模型有什么關(guān)系呢?

      大語言模型本就是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學習模型,而 Transformer 正好能為大量文本數(shù)據(jù)訓(xùn)練提供足夠的動力。另外,在加工過的表征輸入到解碼器(decoder)后,能依靠這些表征推斷下一個詞出現(xiàn)的概率,然后從左到右逐字生成內(nèi)容,在這個過程中還會不斷結(jié)合先前已生成的這個詞共同推斷。

    圖片

      比如根據(jù)“一幅”、“畫”這兩個詞推斷出下一個詞是“風格”的概率最大,再兼顧“一幅”、“畫”與“風格”推斷下下個詞是“水墨”,以此類推再下下下個詞,下下下下個詞,這才有了我們看到的大語言模型的內(nèi)容生成。

      這也是為什么大家普遍認為,大語言模型的誕生起點,就是 Transformer。

      那么,Transformer 中最關(guān)鍵的自注意力(self-attention)機制是如何知道“打多少分”的呢?

      這是一套比較復(fù)雜的計算公式:

    圖片

      作簡單理解的話,可以想想數(shù)學課本上關(guān)于向量的知識,當兩個向量 a 和 b 同向,a.b=lallb|;當 a 和 b 垂直,a.b=0;當 a 和 b 反向,a.b=-lallbl。

      如果把這里的 a、b 兩個向量,看作是“我”、“畫”、“一幅”、“畫”四個詞當中的兩個在空間中的投射,那 a 乘 b 的數(shù)值就是打分。

      這個數(shù)值越大,兩個向量的方向越趨于一致,就代表著兩個詞的關(guān)聯(lián)程度大;

      數(shù)值是0,那就是兩個向量垂直,同理詞之間就沒有關(guān)聯(lián);

      數(shù)值是負數(shù),那兩個向量就是相反,兩個詞不但沒關(guān)聯(lián),還差距過大。

      只是這是簡單理解,在現(xiàn)實中還需要一套紛繁復(fù)雜的計算過程,并且還需要多次的重復(fù),才能獲取到更加準確的信息,確定每個詞符合上下文語境的含義。

      以上就是大語言模型的工作原理了,強大 Transformer 的實用性還不止于在自然語言處理領(lǐng)域,包括圖像分類、物體檢測和語音識別等計算機視覺和語音處理任務(wù)也都有它的身影,可以說 Transformer 就是是今年大模型井噴式爆發(fā)的關(guān)鍵。

      當然,Transformer 再強也只是對輸入的處理過程,要想生成式 AI 生成的內(nèi)容更符合我們的需求,一個好的輸入是重要前提,所以下一期我們就來聊聊什么是好的輸入,Prompt 又是什么?

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。

    即時

    新聞

    明火炊具市場:三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。

    3C消費

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。

    研究

    中國信通院羅松:深度解讀《工業(yè)互聯(lián)網(wǎng)標識解析體系

    9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。