每個人想要的大模型,是真·智能的那種......
這不,谷歌團隊就做出來了一個強大的「讀屏」AI。
研究人員將其稱為ScreenAI,是一種理解用戶界面和信息圖表的全新視覺語言模型。
論文地址:https://arxiv.org/pdf/2402.04615.pdf
ScreenAI的核心是一種新的屏幕截圖文本表示方法,可以識別UI元素的類型和位置。
值得一提的是,研究人員使用谷歌語言模型PaLM 2-S生成了合成訓練數(shù)據(jù),以訓練模型回答關屏幕信息、屏幕導航和屏幕內(nèi)容摘要的問題。
舉個栗子,比如打開一音樂APP頁面,可以詢問「有幾首歌時長少于30秒」?
ScreenAI便給出了簡單的答案:1。
再比如命令ScreenAI打開菜單,就可以選中。
架構靈感來源——PaLI
圖1中展示了ScreenAI模型架構。研究人員受到了PaLI系列模型架構(由一個多模態(tài)編碼器塊組成)的啟發(fā)。
該編碼器塊包含一個類似ViT的視覺編碼器和一個消費圖像(consuming image)和文本輸入的mT5語言編碼器,后接一個自回歸解碼器。
輸入圖像通過視覺編碼器轉(zhuǎn)化為一系列嵌入,這些嵌入與輸入文本嵌入結(jié)合,一起輸入mT5語言編碼器。
編碼器的輸出傳遞給解碼器,生成文本輸出。
這種泛化公式能夠使用相同的模型架構,解決各種視覺和多模態(tài)任務。這些任務可以重新表述為文本+圖像(輸入)到文本(輸出)的問題。
與文本輸入相比,圖像嵌入構成了多模態(tài)編碼器輸入長度的重要部分。
簡而言之,該模型采用圖像編碼器和語言編碼器提取圖像與文本特征,將二者融合后輸入解碼器生成文本。
這種構建方式可以廣泛適用于圖像理解等多模態(tài)任務。
另外,研究人員還進一步擴展了PaLI的編碼器-解碼器架構,以接受各種圖像分塊模式。
原始的PaLI架構只接受固定網(wǎng)格模式的圖像塊來處理輸入圖像。然而,研究人員在屏幕相關領域遇到的數(shù)據(jù),跨越了各種各樣的分辨率和寬高比。
為了使單個模型能夠適應所有屏幕形狀,有必要使用一種適用于各種形狀圖像的分塊策略。
為此,谷歌團隊借鑒了Pix2Struct中引入的一種技術,允許根據(jù)輸入圖像形狀和預定義的最大塊數(shù),生成任意網(wǎng)格形狀的圖像塊,如圖1所示。
這樣能夠適應各種格式和寬高比的輸入圖像,而無需對圖像進行填充或拉伸以固定其形狀,從而使模型更通用,能夠同時處理移動設備(即縱向)和臺式機(即橫向)的圖像格式。
模型配置
研究人員訓練了3種不同大小的模型,包含670M、2B和5B參數(shù)。
對于670M和2B參數(shù)模型,研究人員從視覺編碼器和編碼器-解碼器語言模型的預訓練單峰檢查點開始。
對于5B參數(shù)模型,從 PaLI-3的多模態(tài)預訓練檢查點開始,其中ViT與基于UL2的編碼器-解碼器語言模型一起訓練。
表1中可以看到視覺和語言模型之間的參數(shù)分布情況。
自動數(shù)據(jù)生成
研究人員稱,模型開發(fā)的預訓練階段很大程度上,取決于對龐大且多樣化的數(shù)據(jù)集的訪問。
然而手動標注廣泛的數(shù)據(jù)集是不切實際的,因此谷歌團隊的策略是——自動數(shù)據(jù)生成。
這種方法利用專門的小模型,每個模型都擅長高效且高精度地生成和標記數(shù)據(jù)。
與手動標注相比,這種自動化方法不僅高效且可擴展,而且還確保了一定程度的數(shù)據(jù)多樣性和復雜性。
第一步是讓模型全面了解文本元素、各種屏幕組件及其整體結(jié)構和層次結(jié)構。這種基礎理解對于模型準確解釋各種用戶界面并與之交互的能力至關重要。
這里,研究人員通過爬蟲應用程序和網(wǎng)頁,從各種設備(包括臺式機、移動設備和平板電腦)收集了大量屏幕截圖。
然后,這些屏幕截圖會使用詳細的標簽進行標注,這些標簽描述了UI 元素、它們的空間關系以及其他描述性信息。
此外,為了給預訓練數(shù)據(jù)注入更大的多樣性,研究人員還利用語言模型的能力,特別是PaLM 2-S分兩個階段生成QA對。
首先生成之前描述的屏幕模式。隨后,作者設計一個包含屏幕模式的提示,指導語言模型生成合成數(shù)據(jù)。
經(jīng)過幾次迭代后,可以確定一個有效生成所需任務的提示,如附錄C所示。
為了評估這些生成響應的質(zhì)量,研究人員對數(shù)據(jù)的一個子集進行了人工驗證,以確保達到預定的質(zhì)量要求。
該方法在圖2中進行了描述,大大提升預訓練數(shù)據(jù)集的深度與廣度。
通過利用這些模型的自然語言處理能力,結(jié)合結(jié)構化的屏幕模式,便可以模擬各種用戶交互和情景。
兩組不同任務
接下來,研究人員為模型定義了兩組不同的任務:一組初始的預訓練任務和一組后續(xù)的微調(diào)任務。
這兩組的區(qū)別主要在于兩個方面:
- 真實數(shù)據(jù)的來源:對于微調(diào)任務,標記由人類評估者提供或驗證。對于預訓練任務,標記是使用自監(jiān)督學習方法推斷的或使用其他模型生成的。
- 數(shù)據(jù)集的大小:通常預訓練任務包含大量的樣本,因此,這些任務用于通過更擴展的一系列步驟來訓練模型。
表2顯示所有預訓練任務的摘要。
在混合數(shù)據(jù)中,數(shù)據(jù)集按其大小按比例加權,每個任務允許的最大權重。
將多模態(tài)源納入多任務訓練中,從語言處理到視覺理解和網(wǎng)頁內(nèi)容分析,使模型能夠有效處理不同的場景,并增強其整體多功能性和性能。
研究人員在微調(diào)期間使用各種任務和基準來估計模型的質(zhì)量。表3總結(jié)了這些基準,包括現(xiàn)有的主要屏幕、信息圖表和文檔理解基準。
實驗結(jié)果
圖4顯示了ScreenAI模型的性能,并將其與各種與屏幕和信息圖形相關的任務上的最新SOT結(jié)果進行了比較。
可以看到,ScreenAI在不同任務上取得的領先性能。
在表4中,研究人員呈現(xiàn)了使用OCR數(shù)據(jù)的單任務微調(diào)結(jié)果。
對于QA任務,添加OCR可以提高性能(例如Complex ScreenQA、MPDocVQA和InfoVQA上高達4.5%)。
然而,使用OCR會稍微增加輸入長度,從而導致整體訓練速度更慢。它還需要在推理時獲取OCR結(jié)果。
另外,研究人員使用以下模型規(guī)模進行了單任務實驗:6.7億參數(shù)、20億參數(shù)和50億參數(shù)。
在圖4中可以觀察到,對于所有任務,增加模型規(guī)模都可以改進性能,在最大規(guī)模下的改進還沒有飽和。
對于需要更復雜的視覺文本和算術推理的任務(例如InfoVQA、ChartQA和Complex ScreenQA),20億參數(shù)模型和50億參數(shù)模型之間的改進明顯大于6.7億參數(shù)模型和20億參數(shù)模型。
最后,圖5顯示了,對于長寬比>1.0的圖像(橫向模式圖像),pix2struct分割策略明顯優(yōu)于固定網(wǎng)格分割。
對于縱向模式圖像,趨勢相反,但固定網(wǎng)格分割僅稍微好一些。
鑒于研究人員希望ScreenAI模型能夠在不同長寬比的圖像上使用,因此選擇使用pix2struct分割策略。
谷歌研究人員表示,ScreenAI模型還需要在一些任務上進行更多研究,以縮小與GPT-4和Gemini等更大模型的差距。
文章內(nèi)容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術、產(chǎn)品設計及應用方面的創(chuàng)新變革,全球領先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術和新品亮相,以敢為精神勇闖技術無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。