日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢(xún)客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

興坤 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號(hào) QbitAI

谷歌新推出了弱監(jiān)督看圖說(shuō)話模型SimVLM,能夠輕松實(shí)現(xiàn)零樣本學(xué)習(xí)(zero-shot)任務(wù)遷移。

從文字描述圖像到回答圖片相關(guān)問(wèn)題,模型無(wú)需微調(diào)也能樣樣精通。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

對(duì)于一般的視覺(jué)語(yǔ)言預(yù)訓(xùn)練(VLP)模型,訓(xùn)練數(shù)據(jù)集中要求包含大量精準(zhǔn)標(biāo)簽。而模型的任務(wù)遷移,則需要針對(duì)特定任務(wù)重新進(jìn)行數(shù)據(jù)集的標(biāo)簽標(biāo)注。

總結(jié)下來(lái),就是標(biāo)注數(shù)據(jù)集不僅耗時(shí)耗力,還不能多任務(wù)通用。

能不能開(kāi)發(fā)出一種又簡(jiǎn)單又萬(wàn)能的VLP模型呢?

谷歌新開(kāi)發(fā)的這款模型使用了弱監(jiān)督學(xué)習(xí)進(jìn)行模型訓(xùn)練,通過(guò)利用大量的弱對(duì)齊圖像-文本對(duì)進(jìn)行建模,簡(jiǎn)化了VLP的訓(xùn)練流程,大大降低了訓(xùn)練的復(fù)雜性。

SimVLM使用前綴語(yǔ)言建模的單一目標(biāo)進(jìn)行端到端訓(xùn)練,并直接將原始圖像作為輸入。這些設(shè)置允許模型對(duì)大規(guī)模的弱標(biāo)記數(shù)據(jù)集進(jìn)行利用,從而能夠更好地實(shí)現(xiàn)零樣本學(xué)習(xí)泛化效果。

SimVLM模型是如何實(shí)現(xiàn)的?

SimVLM模型的預(yù)訓(xùn)練過(guò)程采用了前綴語(yǔ)言建模(PrefixLM)的單一目標(biāo),接受序列的前綴作為輸入,通過(guò)模型解碼器來(lái)預(yù)測(cè)其延續(xù)的內(nèi)容。

對(duì)于數(shù)據(jù)集中的圖像-文本對(duì),圖像序列可視作其文本描述的前綴。

這種方法可以簡(jiǎn)化訓(xùn)練過(guò)程,最大限度地提高模型在適應(yīng)不同任務(wù)設(shè)置方面的靈活性和通用性。

模型的主干網(wǎng)絡(luò),則使用了在語(yǔ)言和視覺(jué)任務(wù)上均表現(xiàn)突出的Transformer架構(gòu)。

對(duì)輸入的原始圖像數(shù)據(jù)提取上下文patch,這里采用了ResNet卷積網(wǎng)絡(luò)。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

如上圖所示:視覺(jué)模態(tài)中,圖片被分割成多個(gè)patch,然后壓縮為一維序列。文本模態(tài)語(yǔ)句則被映射到了一個(gè)表征向量中。

本模型使用了包含大約1.8B噪聲的圖像-文本對(duì)ALIGN訓(xùn)練集進(jìn)行預(yù)訓(xùn)練,以此來(lái)實(shí)現(xiàn)更好的零樣本學(xué)習(xí)泛化能力。

為了補(bǔ)償訓(xùn)練集中的噪聲影響,訓(xùn)練模型另外還使用了共800G的Colossal Clean Crawled Corpus (C4)數(shù)據(jù)集。

SimVLM模型基礎(chǔ)性能如何?

模型的預(yù)訓(xùn)練完成后,需要在多模式任務(wù)中對(duì)模型進(jìn)行微調(diào),以測(cè)試性能。

這里用到的多模式任務(wù)有:VQA、NLVR2、SNLI-VE、COCO Caption、NoCaps和Multi30K En-De。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

將SimVLM模型與現(xiàn)有的功能完善的模型進(jìn)行比較,測(cè)試結(jié)果如上表所示,參與評(píng)估的SimVLM模型還包括了三種不同規(guī)模:8600萬(wàn)參數(shù)、3.07億參數(shù)和6.32億參數(shù)。

跨模式任務(wù)的測(cè)試結(jié)果中,SimVLM模型的性能表現(xiàn)最好(數(shù)據(jù)越大越好),除了CoCo Caption的B@4指標(biāo),在其他任務(wù)上都取得了新的SOTA結(jié)果,充分證明了該模型的先進(jìn)性。

SimVLM模型零樣本泛化

SimVLM模型在跨模式任務(wù)測(cè)試中可以取得不錯(cuò)的性能表現(xiàn),那么它能否順利執(zhí)行零樣本跨模態(tài)轉(zhuǎn)移呢?

預(yù)訓(xùn)練的SimVLM模型僅對(duì)文本數(shù)據(jù)進(jìn)行微調(diào)或完全不進(jìn)行微調(diào),通過(guò)圖像字幕、多語(yǔ)言字幕、開(kāi)放式VQA和視覺(jué)文本生成等任務(wù),對(duì)模型進(jìn)行測(cè)試。

測(cè)試結(jié)果如下圖所示:

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

給定圖像和文本提示,預(yù)訓(xùn)練模型無(wú)需微調(diào)即可預(yù)測(cè)圖像的內(nèi)容。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

除此之外,未進(jìn)行過(guò)微調(diào)的模型在德語(yǔ)字幕生成、數(shù)據(jù)集外的答案生成、基于圖像內(nèi)容的文字描述、開(kāi)放式視覺(jué)問(wèn)題回答等應(yīng)用上均有不錯(cuò)的表現(xiàn)。

為了量化SimVLM的零樣本學(xué)習(xí)性能,這里采用了預(yù)訓(xùn)練的固化模型在COCO Caption和NoCaps上進(jìn)行解碼,然后與監(jiān)督標(biāo)準(zhǔn)基線(Sup.)進(jìn)行比較。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

從結(jié)果對(duì)比上來(lái)看,即使沒(méi)有監(jiān)督微調(diào),SimVLM也可以達(dá)到有監(jiān)督的訓(xùn)練質(zhì)量水平。

作者介紹

本研究的第一作者是谷歌學(xué)生研究員王子瑞,現(xiàn)就讀于卡內(nèi)基梅隆大學(xué),曾以第一作者身份在ICLR、EMNLP、CVPR等頂會(huì)上發(fā)表了多篇論文。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

截止到2020年12月20日,他在SuperGLUE數(shù)據(jù)集上獲得了第一個(gè)超過(guò)人類(lèi)得分的SOTA性能(分?jǐn)?shù)超過(guò)90),目前則被百度團(tuán)隊(duì)趕超,位居第二。

谷歌發(fā)布最新零樣本學(xué)習(xí)看圖說(shuō)話模型,多類(lèi)型任務(wù)直接上手

 

這一次開(kāi)發(fā)的SimVLM也在6個(gè)視覺(jué)語(yǔ)言基準(zhǔn)測(cè)試中達(dá)到了單模型SOTA性能,并實(shí)現(xiàn)了基于文本引導(dǎo)的零樣本學(xué)習(xí)泛化能力。

參考鏈接:
https://arxiv.org/abs/2108.10904
https://ai.googleblog.com/2021/10/simvlm-simple-visual-language-model-pre.html
http://www.cs.cmu.edu/~ziruiw/

 

— 完 —

量子位 QbitAI · 頭條號(hào)簽約

關(guān)注我們,第一時(shí)間獲知前沿科技動(dòng)態(tài)

分享到:
標(biāo)簽:谷歌
用戶(hù)無(wú)頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過(guò)答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫(kù),初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定