版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
|CVPR(ConferenceonComputerVisionandPatternRecognition)是計(jì)算機(jī)視覺領(lǐng)域的頂日在美國猶他州鹽湖城舉辦。本屆大會(huì)有超過3300篇的大會(huì)論文投稿,錄取979篇(接受率約為29%),其中包括70篇Oral論文和224篇Spotlight論文,參會(huì)人數(shù)達(dá)到GUAlipres,Laada等電商appKUCVPR18者晚宴、展臺(tái)技術(shù)TalkFashionAI、鹿班CV7SpotlghtGrundTruhSpotlght()Pacalontex,SN-RBD和COOStuffSotlghtof-the-artocaizedGANodecollaseGANLalac-BetraicalizdGN(GAN)GAN的moecllaseCNNSISR)算法不能擴(kuò)SISR(即模糊核和噪聲水平)作為網(wǎng)絡(luò)輸入來解決SISR大多數(shù)現(xiàn)有的零樣本學(xué)習(xí)(Zero-ShotLearning,ZSL)方法都存在強(qiáng)偏問題。在論文《基于ZSLAI阿里巴巴Spotlight論文:基于時(shí)間尺度選擇的在線行為預(yù) 實(shí) 摘 引 方 實(shí) 總 阿里巴巴Poster論文:整體還是局部?應(yīng)用LocalizedGAN進(jìn)行圖像內(nèi)容編輯、半監(jiān)督訓(xùn)練和解決modecollapse問 摘 GAN和基于圖模型的半監(jiān)督機(jī)器學(xué)習(xí)的關(guān) 從幾何角度研究Modecollapse問 阿里巴巴Poster論文:處理多種退化類型的卷積超分辨 阿里巴巴Poster論文:基于尺度空間變換的本征圖像分 摘 引 實(shí) 結(jié) 阿里巴巴Poster論文:基于直推式無偏嵌入的零樣本學(xué) 摘 引 QFSL模 實(shí) 討 結(jié) 0在這篇論文中,作者提出了一個(gè)“尺度選擇網(wǎng)”(scaleselectionnetwork)來在不同時(shí)刻diledcovoltio)erachia1,第243中,來估計(jì)當(dāng)前動(dòng)作的當(dāng)前幀到該動(dòng)作起始幀之間的距離(s)s((c3,133skpcnneionSSNetSSNet-GTGroundTruthFS-Net(S)則表示在所有時(shí)間點(diǎn)均采用同一個(gè)固定的尺度用于行為預(yù)測。ST-LSTMT-PAMISkeleton-BasedActionRecognitionUsingSpatio-TemporalLSTMNetworkwithTrustGates”。AttentionNetCVPR17“GlobalContext-AwareAttentionLSTMNetworksfor3DActionRecognition”。JCR-RNNMSRAPKUECCV16OnlineHumanActionDetectionusingJointClassification-RegressionRecurrentNeuralNetworks”??梢钥吹?,本文提出SSNetGroundTruthCVPR-18Spotlight論文:基于語境對比特征和門控多尺度融合并且使得像素Askip(如圖三所CVPR-18Spotlight論文:\h所見所想所找-基于生成模型的跨模\hMSCOCOFlickr30Kstate-of-the-artankngloss型的跨模態(tài)特征學(xué)習(xí)框架(generativecross-modalfeaturelearningframework,GXN),下LookMatchLook,ImagineMatch,也稱為”所看所想所找”。LookImagine看”去“腦補(bǔ)”預(yù)期的匹配結(jié)果,也就是從得到的局部特征去生成目標(biāo)模態(tài)的數(shù)據(jù);MatchGXN(上部區(qū)域);圖像-文本生成特征學(xué)習(xí)(藍(lán)色路徑)和射到共同空間。這里包括一個(gè)圖像編碼器CNNEnc和兩個(gè)句子編碼器RNN?和RNN?? 2(??????)是高層語義特征而(????????)作為局部層次的特征。這里的局部層次特征是通過生成模型學(xué)習(xí)得到的。第三部分(綠色路徑)cGAN????中生成一幅圖像,包括一個(gè)只需要計(jì)算{???,???}和{????,????}之間的相似度來進(jìn)行跨模態(tài)檢索。本文提出的方法在MSCOCOstate-of-the-不僅能學(xué)習(xí)到多模態(tài)數(shù)據(jù)的高層的抽象表示,還能學(xué)習(xí)到底層的表示。顯著超越state-of-the-artPosterLocalizedGAN進(jìn)modecollapse問題GAN局部的AN整體方法Lalac-Betrairap時(shí)我們還展示了如果用calizdGN(GANGAN的odeollapeUCFUCFMAPLE實(shí)驗(yàn)室(MAchinePerceptionandLEarning)和阿CVPR2018Guo-JunQi,LihengZhang,HaoHu,MarziehEdraki,JingdongWangandXian-ShengHua.GlobalversusLocalizedGenerativeAdversarialNets,inCVPR2018.GANanioldGap)Grph它輸出z,我們就可以在高維空間中劃出一個(gè)流型結(jié)構(gòu)。G,我們可以在數(shù)據(jù)流型上研究各種幾何結(jié)構(gòu)。比如切向量空LaplacianLaplace-Beltrami法在一些數(shù)據(jù)集上得到的結(jié)果。更多的結(jié)果可以參考我們的論文“GlobalversusLocalizedGenerativeAdversarialNetworks“。同時(shí),使用局部坐標(biāo)系的另一個(gè)更加實(shí)際的好處是,我們給定一個(gè)目標(biāo)數(shù)據(jù)點(diǎn)xG(zzxzGANmodecollapseGAN,modecollapseGAN的modecollapsezz,GNmecolapsdmenondeicint。constraintCelebAGAN這個(gè)思GANGAN數(shù)據(jù)樣本或者一個(gè)batchGAN論文原文地址\h展。然而現(xiàn)有基于CNNSISR(LR)圖像由高分辨率(HR)圖像經(jīng)過雙三SISR(即模糊核和噪聲水SISR其中表示HR清晰圖像??與模糊核??之間的卷積,表示系數(shù)為??的降采樣算子,??表示標(biāo)準(zhǔn)差(噪聲水平)為的加性高斯白噪聲(AWGN)。SISR的方法尤其是基于CNNSISRCNNSIRSRNN在EC(14)VSR在PSRESPN和FSRNNGANicuic)SISRISRNNn-bndSI本文首先分析了在最大后驗(yàn)(MAP)SISRCNNSISRLR??對應(yīng)HR??可以通過求解下述問題近似,其中為似然(也即數(shù)據(jù)保真)項(xiàng),為先驗(yàn)(也即正則)項(xiàng),為似然項(xiàng)和先驗(yàn)項(xiàng)之間的權(quán)衡參數(shù)。簡單來說,上述公式包含兩點(diǎn):1)HRSISR2)對于非盲超分辨率問題,??的求LR??、模糊核??、噪聲水平以及權(quán)衡參數(shù)SISRMAPCNNCNNSISR水平CNNMAPCNNSISRLRCNNLRW×HPCA噪聲水平并在一起得到一個(gè)t+1維的向量??,接著將??拉伸為W×H×(t+1)維的張量,我們將此張量稱之為退化圖(DegradationMaps),其中第??個(gè)W×H圖的所有元素均為????。LRCNN選取了快速有效的ESPCNLRBatchNormalization在訓(xùn)練階段,SRMD075]之間的高斯在測試階段,SRMDbicubicPSNR和SSIM(如表1)。可以看出雖然SRMDbicubicSRMDTitanXpGPU512×512LR0.084VDSR2PSNRSSIMSRMD4SRMDLR5SRMDHR4SRMD(a)噪聲水平以及模糊核寬度的空間分布;(b)LR(最近鄰插值放大);(c)HR(放大兩倍)。通過實(shí)驗(yàn)展示了用合成圖像訓(xùn)練得到的超分辨網(wǎng)絡(luò)模型可以有效地處理真實(shí)圖像復(fù)現(xiàn)出優(yōu)異的性能。我們在兩個(gè)基準(zhǔn)數(shù)據(jù)集上評估了網(wǎng)絡(luò):MPI-SintelMITIntrinsicImagesetinx-rMPI-SintelMIT相關(guān)工作(略I轉(zhuǎn)換為輸出圖像A非局部映射函數(shù)If()L(3)中,我們將描述從ResNet我們將圖像I[I0,I1,...,IK]I0=I,KLk(I)=Iku(k1ku拉普拉斯金字塔展開為I=[L0(I),L1(I),...,Lk?1(I),IKL0(IIK首先,讓我們使用兩個(gè)塊(LH)的簡化網(wǎng)絡(luò)來為低頻帶的映射建模映射I→f(I):L,并HL省略。通過將LH連接和求和,該網(wǎng)絡(luò)是ResNet一個(gè)關(guān)鍵的過渡是從(b)到(c)LHH(c)等價(jià)于(b)-它們表示拉普拉斯分解方程的兩種等價(jià)形式,即通過將剩余分量從左手邊移到右手邊并改變符號(hào)。(c)Ld,為此類似于拉普拉斯金字塔分解結(jié)構(gòu),我們?yōu)楦哳l帶引入多個(gè)子網(wǎng)絡(luò)塊H0,H1,......HK-1LK:網(wǎng)絡(luò)輸入塊級聯(lián)下采樣,并且網(wǎng)絡(luò)塊的輸出被上采樣并從左到右聚合以形成目標(biāo)輸出。在網(wǎng)絡(luò)中學(xué)習(xí)下采樣和上采樣算子的所有參數(shù)(2形)3.26Conv(3x3)-ELU-Conv(3x3)-ELUHuangDenseNet中,最后一個(gè)ConvELU3231x1Conv我們使用指數(shù)線性單位(ELU)ReLUx<0ELUBNELU換,ELU2?=?????????????+?????????????????+數(shù)據(jù)損失數(shù)據(jù)損失定義了預(yù)測圖像與真實(shí)之間的像素級相似性。我們采用下面的聯(lián)合雙邊 =
??∑||?????????||2+||??????
??????=
??????=
CNN們利用標(biāo)準(zhǔn)的VGG-19[44]網(wǎng)絡(luò)從神經(jīng)激活中提取語義信息。我們的感知損失定義如下: =
??????||Φ??(??)?
????變分損失 ?????=
|????+??,???????,??|+|????,??+1?Boostrap證明是相當(dāng)有效的。例如,LiAA和S為了在增強(qiáng)數(shù)據(jù)集中引入進(jìn)一步的擾動(dòng),我們另外應(yīng)用自適應(yīng)流形濾波器到AS,并使用過濾結(jié)果合成新數(shù)據(jù)。AMFASMP-Sntl187500ResynhSitelAS=I()MTIntrnsc011ConstantShadingConstantAlbedo,一些傳統(tǒng)方法以及最新的最新的基于神經(jīng)網(wǎng)絡(luò)si-MSE25%,在DSSIM43%,這表明我們網(wǎng)絡(luò)結(jié)構(gòu)在更具有挑戰(zhàn)性的數(shù)據(jù)集上依然表現(xiàn)良好。3.1題,傳播。該行(OursSequential)2(a)顯示了結(jié)果。它顯示該架構(gòu)產(chǎn)DSSIM1-210%-15%的改進(jìn)。我們也有一套關(guān)于其他因素的控制自我比較,包括金字塔結(jié)構(gòu),損失實(shí)驗(yàn)(OurswoPyramid)使用單通道網(wǎng)絡(luò)顯示結(jié)果,即,我們使用單個(gè)殘差1230%以上。請注意,隨著金字塔層數(shù)的增加,網(wǎng)絡(luò)復(fù)雜損失函數(shù)實(shí)驗(yàn)(Oursw/MSEloss)MSE事實(shí)證明,MSEMSEMSE(DSSIM)MSE們的損失之間也顯示出更清晰的邊際(10.238.86)。CNN我們進(jìn)一步研究在這個(gè)任務(wù)中高斯金字塔圖像分量作為我們網(wǎng)絡(luò)輸入的影CNN(Oursw/'FPN'input)CNNFPNCNNITntrnsicImagsOurs+A和Ours+DAOus+DAOus+DAMPISintelMIT大多數(shù)現(xiàn)有的零樣本學(xué)習(xí)(Zero-ShotLearning,ZSL)方法都存在強(qiáng)偏問題:訓(xùn)練階段看不見(目標(biāo))類的實(shí)例在測試時(shí)往往被歸類為所看到的(源)ZSLAwA2,CUBSUNZSL9.3%至24.5ZSL0.216.2%的提升。2ZSL2ZSL(inductiveZSLZSL(transductiveZSLZSL,訓(xùn)練階段只能獲取得到ZSL,訓(xùn)練階段可以獲取到有標(biāo)注的源類數(shù)據(jù)和未標(biāo)注的目標(biāo)類數(shù)據(jù)。直推ZSLZSLZSLZSL(conventionalsettings)。然而,在一個(gè)更加實(shí)際的應(yīng)用場景中,測試圖像不僅來源于目標(biāo)叫作廣義設(shè)定(generalizedsettings)。ZSLZSLZSL強(qiáng)偏(stongbia(1:在ZSLZSL(Quasi-FullySupervisedLearning,QFSL)2AlxNe、GgleNt();()相關(guān)工作(略假設(shè)存在一個(gè)源數(shù)據(jù)集????={(????????)}????,每張圖片????與相應(yīng)的標(biāo)簽????對應(yīng),其中????∈????=
{(??)}??,S表示源類中類的個(gè)數(shù)。目標(biāo)數(shù)據(jù)集????={(????????)}????,每張圖片????與相應(yīng)的標(biāo)簽??????
應(yīng),其中????∈????={(????)}??,T表示目標(biāo)類中類的個(gè)數(shù)。ZSL
??(??;??)=argmax??∈????(??,??;??(??,??;??)=? ∑???(????,??(????;??))+??本文假設(shè)給定標(biāo)注源數(shù)據(jù)集????,無標(biāo)注目標(biāo)數(shù)據(jù)集????={(????)}????和語義嵌入??ZSL ??4eLUsftmxCNN??CNNCNN模型??ZSLCNN??(??,??;??)=??(??(??;????);入:???(??)=??(??)。[???(??1)???(??2)???(????+??)]來初始化。和視覺嵌入子網(wǎng)絡(luò)和視覺-語義銜接子網(wǎng)絡(luò)不同的是,得與視覺嵌入???(????)此,在訓(xùn)練階段,我們的模型對于一張給定的圖像,產(chǎn)生了??+??個(gè)得分。經(jīng)過得分函數(shù)后,我們
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 中煤湖北地質(zhì)局集團(tuán)有限公司2026年度應(yīng)屆高校畢業(yè)生招聘19人備考題庫及參考答案詳解
- 班長下臺(tái)課件
- 店長崗位面試技巧分享
- 企業(yè)投資部面試技巧
- 12月消防安全主題活動(dòng)
- 可口可樂面試成功技巧
- 兩角和與差的正弦正切課件-高一下學(xué)期數(shù)學(xué)人教B版
- 代數(shù)式(第二課時(shí))課件-冀教版數(shù)學(xué)七年級上冊
- 雕塑藝術(shù)品銷售話術(shù)
- 出入院護(hù)理團(tuán)隊(duì)協(xié)作
- 中考勵(lì)志講座課件
- 2026年北京第一次普通高中學(xué)業(yè)水平合格性考試化學(xué)仿真模擬卷01(考試版及全解全析)
- 各部門環(huán)境因素識(shí)別評價(jià)表-塑膠公司
- 律所解除聘用協(xié)議書
- 2025年綜合辦公室年終工作總結(jié)(5篇)
- 海爾集團(tuán)預(yù)算管理實(shí)踐分析
- 永輝超市存貨管理
- 10kV環(huán)網(wǎng)柜(箱)標(biāo)準(zhǔn)化設(shè)計(jì)方案(2023版)
- 余熱發(fā)電崗前培訓(xùn)
- 變壓器性能測試的實(shí)施方案
- 科技研發(fā)項(xiàng)目管理辦法
評論
0/150
提交評論