《深度學(xué)習(xí)項目案例開發(fā)》課件 7.2 使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片-生成對抗神經(jīng)網(wǎng)絡(luò)-判別器_第1頁
《深度學(xué)習(xí)項目案例開發(fā)》課件 7.2 使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片-生成對抗神經(jīng)網(wǎng)絡(luò)-判別器_第2頁
《深度學(xué)習(xí)項目案例開發(fā)》課件 7.2 使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片-生成對抗神經(jīng)網(wǎng)絡(luò)-判別器_第3頁
《深度學(xué)習(xí)項目案例開發(fā)》課件 7.2 使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片-生成對抗神經(jīng)網(wǎng)絡(luò)-判別器_第4頁
《深度學(xué)習(xí)項目案例開發(fā)》課件 7.2 使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片-生成對抗神經(jīng)網(wǎng)絡(luò)-判別器_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

成都職業(yè)技術(shù)學(xué)院軟件分院-張明任務(wù)七使用使用對抗神經(jīng)網(wǎng)絡(luò)生成圖片7.2DGGAN判別器DGGAN判別器DGGAN損失DGGAN優(yōu)化器DGGAN訓(xùn)練4.任務(wù)知識判別器作用判別器(Discriminator)的作用至關(guān)重要。其主要功能是區(qū)分真實數(shù)據(jù)和生成數(shù)據(jù),從而指導(dǎo)生成器(Generator)生成更加逼真的數(shù)據(jù)。判別器的主要任務(wù)是接收輸入數(shù)據(jù),并判斷該數(shù)據(jù)是來自真實的訓(xùn)練數(shù)據(jù)集還是生成器生成的偽造數(shù)據(jù),其輸出通常是一個概率值,表示輸入數(shù)據(jù)是真實數(shù)據(jù)的概率。4.任務(wù)知識判別器作用通過對生成器生成的數(shù)據(jù)進行判別,判別器為生成器提供反饋信號,生成器根據(jù)這些反饋不斷調(diào)整自身參數(shù),優(yōu)化生成數(shù)據(jù),使其更接近真實數(shù)據(jù)分布。在訓(xùn)練過程中,生成器和判別器進行“對抗”訓(xùn)練,生成器試圖生成逼真的數(shù)據(jù)以欺騙判別器,而判別器則盡力提高判別準(zhǔn)確率,這種對抗機制推動生成器生成更逼真的數(shù)據(jù),提升GAN的整體表現(xiàn)。4.任務(wù)知識DGGAN判別器結(jié)構(gòu)DGGAN的判別器通常包括一系列卷積層、批歸一化層、激活函數(shù)(通常是LeakyReLU)以及全連接層,最終輸出一個用于判別輸入圖像是輸入?yún)?shù),如下圖所示。4.任務(wù)知識DGGAN判別器輸入判別器從訓(xùn)練集或者生成器中獲取輸入的數(shù)據(jù),例如在生成手寫字體識別圖片時,輸入的是一張手寫字體的圖片,大小為(28,28,1)輸入層通常使用reshape函數(shù)將輸入圖像重新形狀變換,例如reshape(x,[-1,28,28,1])。4.任務(wù)知識DGGAN判別器-全連接層和批歸一化層在判別器中通常使用判別器塊來逐步減少圖像的尺寸并增加通道數(shù),從而提取特征。每個判別器塊包括一個卷積層、一個批歸一化層和一個LeakyReLU激活函數(shù),可以包含多個塊。4.任務(wù)知識DGGAN判別器輸出判別器模型通過卷積層提取圖像特征,批歸一化層提高訓(xùn)練穩(wěn)定性,全連接層進行分類,最終輸出2個神經(jīng)元的結(jié)果,用于二分類任務(wù),激活函數(shù)使用LeakyReLU。4.任務(wù)知識DGGAN損失-生成器損失生成器的目標(biāo)是生成足夠真實的照片,以欺騙判別器,使其認為這些生成的圖像是真實的。生成器希望最大化判別器對生成圖像的分類為真實圖像的概率,也就是生成器表現(xiàn)良好,判別器會把生成的圖片判別為真實的圖片(或者1)。4.任務(wù)知識DGGAN損失-生成器損失計算方法這里使用sparse_softmax_cross_entropy_with_logits(logits,labels)函數(shù)計算損失,它需要傳入兩個參數(shù):logits,形狀為[batch_size,num_classes]的浮點型張量,表示模型的未歸一化預(yù)測值(即邏輯回歸的輸入值)。Labels,形狀為[batch_size]的整數(shù)型張量,表示每個樣本的真實標(biāo)簽。標(biāo)簽值范圍為[0,num_classes)。它返回一個形狀為[batch_size]的張量,表示每個樣本的交叉熵損失。4.任務(wù)知識DGGAN損失-生成器損失計算方法對于生成器,要求Labels的值為1,所以這里使用labels=tf.ones([batch_size],dtype=32)生成標(biāo)簽,logits的值是經(jīng)過生成輸出的值reconstructed_image。得到的形狀為[batch_size]的張量,返回一個包含每個樣本損失的張量。最后使用tf.reduce_mean對所有樣本的損失求平均,得到最終的平均損失值。sparse_softmax_cross_entropy_with_logits函數(shù)廣泛用于多分類任務(wù)中的模型訓(xùn)練,如圖像分類、文本分類等。當(dāng)類別標(biāo)簽是稀疏的整數(shù)編碼時(而不是one-hot編碼),使用該函數(shù)可以方便地計算損失。DGGAN的判4.任務(wù)知識DGGAN判別器損失判別器(Discriminator)在生成對抗網(wǎng)絡(luò)(GAN)中的作用是對輸入的數(shù)據(jù)進行分類,判斷其是來自真實數(shù)據(jù)分布還是生成器生成的假數(shù)據(jù)。判別器的損失函數(shù)設(shè)計是為了使其能夠有效地區(qū)分真實數(shù)據(jù)和生成數(shù)據(jù),從而指導(dǎo)生成器的訓(xùn)練過程。判別器接收輸入數(shù)據(jù),可以是真實數(shù)據(jù)(從訓(xùn)練集中來)或者生成器生成的數(shù)據(jù)(通過生成器產(chǎn)生的假數(shù)據(jù))。輸出是一個單值(或概率),表示判別器認為輸入數(shù)據(jù)是真實數(shù)據(jù)的可能性。4.任務(wù)知識DGGAN判別器損失對于真實數(shù)據(jù),判別器應(yīng)該輸出一個接近于1的值,表示它將真實數(shù)據(jù)判別為真實的概率。對于生成數(shù)據(jù),判別器應(yīng)該輸出一個接近于0的值,表示它將生成的假數(shù)據(jù)判別為假的概率。判別器的總體損失是真實數(shù)據(jù)損失和生成數(shù)據(jù)損失的加和,反映了判別器在區(qū)分真實數(shù)據(jù)和生成數(shù)據(jù)方面的性能。4.任務(wù)知識DGGAN判別器損失計算方法計算判別器損失需要兩個值disc_fake表示判別器對生成數(shù)據(jù)的輸出和。disc_real表示判別器對真實數(shù)據(jù)的輸出。先計算判別器對真實數(shù)據(jù)的損失,logits=disc_real是判別器對真實數(shù)據(jù)的輸出,labels=tf.ones([batch_size],dtype=32)是全為1的標(biāo)簽,表示這些數(shù)據(jù)是真實的。計算判別器對生成數(shù)據(jù)的損失,logits=disc_fake是判別器對生成數(shù)據(jù)的輸出,labels=tf.zeros([batch_size],dtype=32)是全為0的標(biāo)簽,表示這些數(shù)據(jù)是生成的。最后返回真實數(shù)據(jù)損失與生成數(shù)據(jù)損失之和,作為判別器的總損失。4.任務(wù)知識DGGAN優(yōu)化器首先使用真實數(shù)據(jù)和生成器生成假數(shù)據(jù)來計算判別器的損失,然后優(yōu)化判別器的參數(shù);接著再次生成假數(shù)據(jù)并計算生成器的損失,最后優(yōu)化生成器的參數(shù)。通過這種交替的方式,生成器和判別器能夠互相競爭和提升,最終達到生成更逼真數(shù)據(jù)的目標(biāo)。首先使用使用Adam優(yōu)化器(學(xué)習(xí)率由lr_generator控制),生成一個優(yōu)化器。然后將真實圖像數(shù)據(jù)處理到[-1,1]范圍內(nèi),同時生成noise,用于生成假圖像的噪音數(shù)據(jù),通過正態(tài)分布生成,形狀為[batch_size,noise_dim]。4.任務(wù)知識DGGAN優(yōu)化器使用通過梯度帶(GradientTape)來實現(xiàn)自動求導(dǎo),使用tf.GradientTape()創(chuàng)建一個新的梯度帶對象g,通過調(diào)用g.gradient(target,sources)方法,計算目標(biāo)函數(shù)target對源張量sources的梯度。將計算得到的梯度應(yīng)用于優(yōu)化器(如Adam、SGD等),通過優(yōu)化器更新模型參數(shù)。優(yōu)化器中判別器訓(xùn)練過程如下,創(chuàng)建一個梯度帶,用于記錄操作以便后向傳播計算梯度。使用生成器生成假圖像(fake_images),判別器對生成的假圖像的輸出和真實圖像的輸出。調(diào)用discriminator_loss函數(shù)計算判別器的總體損失。使用梯度帶計算判別器的梯度。應(yīng)用判別器優(yōu)化器的梯度來更新判別器的可訓(xùn)練變量。生成器的訓(xùn)練過程和判別器類似。4.任務(wù)知識DGGAN訓(xùn)練它首先對生成器和判別器進行初始化,計算初始的損失值。然后,在每個訓(xùn)練步驟中,通過run_optimization函數(shù)優(yōu)化生成器和判別器,打印并定期保存模型權(quán)重。最后,在訓(xùn)練結(jié)束時保存最終模型,并返回訓(xùn)練后的生成器和判別器模型。通常使用enumerate遍歷訓(xùn)練數(shù)據(jù)集train_data,每次取出一個批次數(shù)據(jù)batch_x。調(diào)用優(yōu)化器函數(shù),對生成器和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論