版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
項目3深度學習應(yīng)用了解感知機的工作原理01理解激活函數(shù)的作用02了解神經(jīng)網(wǎng)絡(luò)的定義和基本組成03知識目標熟悉神經(jīng)網(wǎng)絡(luò)的相關(guān)術(shù)語04了解隨機梯度下降算法05理解權(quán)重更新過程06了解卷積神經(jīng)網(wǎng)絡(luò)在圖像中的應(yīng)用以及結(jié)構(gòu)07熟悉降低過擬合的方法08能力目標能夠使用多層感知機實現(xiàn)普通數(shù)字數(shù)據(jù)集的分類回歸問題01能夠人工計算簡單神經(jīng)網(wǎng)絡(luò)權(quán)重更新過程02能夠手動提取圖像特征03能夠使用人工智能平臺搭建全連接神經(jīng)網(wǎng)絡(luò)識別圖像04能夠完成語音文件的識別05能夠分析模型的性能瓶頸,并提出優(yōu)化建議01夠嘗試新的想法和方法,推動模型的創(chuàng)新02能夠在模型開發(fā)中考慮隱私保護和數(shù)據(jù)安全03素質(zhì)目標任務(wù)提出01任務(wù)分析02知識準備03任務(wù)1實現(xiàn)異或電路任務(wù)實現(xiàn)04任務(wù)總結(jié)05任務(wù)1打印樹形圖案任務(wù)提出Part.01深度學習不僅能夠模擬人類的感知能力,還能在一定程度上模擬人類的思維過程,解決許多傳統(tǒng)方法難以攻克的難題。異或(XOR)電路是數(shù)字邏輯電路中的一個經(jīng)典難題,傳統(tǒng)方法通過復(fù)雜的邏輯門組合實現(xiàn)其功能。然而,在深度學習的世界里,也可以使用簡單的感知機實現(xiàn)異或電路。提出任務(wù)任務(wù)分析Part.021.使用單層感知機實現(xiàn)與門;2.使用單層感知機實現(xiàn)與非門;3.使用單層感知機實現(xiàn)或門;4.基于與門、與非門、或門實現(xiàn)異或門。本任務(wù)主要是想實現(xiàn)異或電路,數(shù)據(jù)較簡單可以考慮使用感知機實現(xiàn)。實現(xiàn)具體步驟如下:任務(wù)分析知識準備Part.03感知機概述01知識準備感知機的工作原理01與門02與非門033.1感知機概述或門04感知機工作原理人工智能(AI)機器學習(ML)深度學習(DL)人工智能(ArtificialIntelligence,AI)、機器學習(MachineLearning,ML)和深度學習(DeepLearning,DL)是三個相互關(guān)聯(lián)的概念,它們代表了計算機科學中不同的技術(shù)和領(lǐng)域。深度學習機器學習人工智能感知機工作原理感知機起源深度學習?重要思想感知機工作原理
y
y=0
1
接收多個輸入信號,輸出一個信號與門與門y=0
1
與非門與非門那么與非門的參數(shù)又可以是什么樣的組合呢?與非門與非門
只要把實現(xiàn)與門的參數(shù)值的符號取反,就可以實現(xiàn)與非門。或門或門那么我們來思考一下,應(yīng)該為這個或門設(shè)定什么樣的參數(shù)呢?或門或門相同構(gòu)造的感知機,只需通過適當?shù)卣{(diào)整參數(shù)的值,就可以像“變色龍演員”表演不同的角色一樣,變身為與門、與非門、或門。任務(wù)實現(xiàn)Part.04感知機的局限性02任務(wù)實現(xiàn)異或門01感知機實現(xiàn)異或門03異或門異或門那么我們來思考一下,應(yīng)該為這個或門設(shè)定什么樣的參數(shù)呢?異或門異或門y=0
1
y=0
1
為什么用感知機可以實現(xiàn)與門、或門,卻無法實現(xiàn)異或門呢?權(quán)重參數(shù)(b,w1,w2)=(?0.5,1.0,1.0)感知機的局限性110
y=0
1
感知機的可視化:灰色區(qū)域是感知機輸出0的區(qū)域,這個區(qū)域與或門的性質(zhì)一致
000、011、101、111感知機實現(xiàn)異或門與門、與非門、或門的符號將與門、與非門、或門代入到“?”中,就可以實現(xiàn)異或門!感知機的局限性異或門的真值表異或門的圖任務(wù)總結(jié)Part.05從上面完成過程可以知道,感知機作為一個基礎(chǔ)的線性分類器,可以解決線性問題,但是對于XOR這樣的非線性問題就無能為力了。解決的方法是只要在單層感知機的基礎(chǔ)上加一個中間層就可以完成異或門。如果想通過感知機完成其他任務(wù),可以基于單層感知機,不斷疊加就可以完成任務(wù)。任務(wù)提出01任務(wù)分析02知識準備03任務(wù)2學生心理健康分析任務(wù)實現(xiàn)04任務(wù)總結(jié)05任務(wù)提出Part.01大學生的心理健康問題是當今社會關(guān)注的焦點之一。隨著社會的快速發(fā)展和競爭的日益激烈,大學生面臨著前所未有的壓力和挑戰(zhàn),這些壓力和挑戰(zhàn)對他們的心理健康產(chǎn)生了深遠的影響。為了更有效地識別同學們可能存在的心理健康問題,運用深度學習技術(shù)進行分析。通過這一科學手段,及時發(fā)現(xiàn)需要幫助的同學,并據(jù)此提供針對性的關(guān)懷與支持,確保每位同學都能在大學期間健康快樂地成長。提出任務(wù)屬性名稱屬性說明Timestamp時間戳Chooseyourgender選擇您的性別Age年齡Whatisyourcourse?您的課程是什么?YourcurrentyearofStudy您當前的學習年份WhatisyourCGPA?您的CGPA是多少?Maritalstatus婚姻狀況DoyouhaveDepression?您有抑郁癥嗎?DoyouhaveAnxiety?您有焦慮癥嗎?DoyouhavePanicattack?您有驚恐發(fā)作嗎?Didyouseekanyspecialistforatreatment?您是否尋求過任何專家進行治療?任務(wù)分析Part.02清洗和整理收集到的數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。從數(shù)據(jù)中提取與心理健康相關(guān)的特征,如情緒狀態(tài)、社交行為等。利用深度學習技術(shù),訓練一個能夠識別學生心理健康狀況的模型。通過模型分析,識別出可能存在心理健康問題的學生。本任務(wù)主要是通過深度學習技術(shù),對班級學生的心理健康狀況進行分析。具體的任務(wù)實施分析如下。任務(wù)分析知識準備Part.03神經(jīng)網(wǎng)絡(luò)01搭建神經(jīng)網(wǎng)絡(luò)02知識準備訓練神經(jīng)網(wǎng)絡(luò)03生物神經(jīng)網(wǎng)絡(luò)01人工神經(jīng)網(wǎng)絡(luò)023.2神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)03生物神經(jīng)網(wǎng)絡(luò)是自然界中最復(fù)雜的系統(tǒng)之一,它構(gòu)成了人類和其他生物智能的基礎(chǔ)。人類大腦中約有860億個神經(jīng)元,這些神經(jīng)元相互通信,形成了一個高效的信息處理網(wǎng)絡(luò)。正是這種復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),使得生物體能夠感知環(huán)境、學習知識、做出決策并適應(yīng)變化。神經(jīng)元是生物神經(jīng)網(wǎng)絡(luò)的基本單元,如圖所示,它由三個主要部分組成:細胞體(Soma):負責處理輸入信號并生成輸出信號。樹突(Dendrites):接收來自其他神經(jīng)元的輸入信號。軸突(Axon):將輸出信號傳遞給其他神經(jīng)元。生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,ANN)是受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而設(shè)計的一種計算模型,旨在模擬生物神經(jīng)元的信息處理機制。它通過模擬神經(jīng)元之間的連接和信號傳遞,實現(xiàn)了對復(fù)雜數(shù)據(jù)的處理和學習能力。自20世紀40年代提出以來,人工神經(jīng)網(wǎng)絡(luò)經(jīng)歷了多次發(fā)展浪潮,逐漸成為現(xiàn)代人工智能和機器學習的核心技術(shù)之一。人工神經(jīng)網(wǎng)絡(luò)由多層神經(jīng)元組成,通常包括輸入層、隱藏層和輸出層。人工神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)(DeepNeuralNetwork,DNN)是人工神經(jīng)網(wǎng)絡(luò)的一種擴展形式,其核心特點在于引入了多層隱藏層,從而能夠?qū)W習數(shù)據(jù)中更加復(fù)雜和抽象的特征。深度神經(jīng)網(wǎng)絡(luò)的興起標志著人工智能領(lǐng)域的一次重大突破,尤其是在計算機視覺、自然語言處理和語音識別等領(lǐng)域取得了革命性進展。
深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與傳統(tǒng)的淺層神經(jīng)網(wǎng)絡(luò)類似,但隱藏層的數(shù)量顯著增加。通常,深度神經(jīng)網(wǎng)絡(luò)包含三層或更多隱藏層,每一層由大量神經(jīng)元組成。這種多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠逐層提取數(shù)據(jù)的特征。以下是一些典型的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)。卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)Transformer:基于自注意力機制(Self-Attention)的架構(gòu)人工神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)01激活函數(shù)023.3搭建神經(jīng)網(wǎng)絡(luò)在設(shè)計神經(jīng)網(wǎng)絡(luò)架構(gòu)時,輸入層和輸出層的節(jié)點數(shù)目通常是預(yù)設(shè)且固定的,而位于它們之間的中間層(或稱為隱藏層)的節(jié)點數(shù)目則可以靈活設(shè)定,根據(jù)數(shù)據(jù)的復(fù)雜度設(shè)置隱藏層和隱藏層神經(jīng)元的個數(shù)。神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)現(xiàn)在將感知機的式子改寫成更加簡潔的形式。為了簡化感知機的式子,用一個函數(shù)來表示這種分情況的動作(超過0則輸出1,否則輸出0)。引入新函數(shù)激活函數(shù)
激活函數(shù)首先,第一個式子計算加權(quán)輸入信號和偏置的總和,記為a。然后,第二個式子,用h()函數(shù)將a轉(zhuǎn)換為輸出值。激活函數(shù)表示神經(jīng)元的○中明確顯示了激活函數(shù)的計算過程,即信號的加權(quán)總和為節(jié)點a,然后節(jié)點a被激活函數(shù)h()轉(zhuǎn)換成輸出節(jié)點。激活函數(shù)常用的激活函數(shù)(1)sigmoid函數(shù)它將一個實數(shù)值壓縮到0至1的范圍內(nèi)。當最終目標是預(yù)測概率時,它可以被應(yīng)用到輸出層。它使很大的負數(shù)向0轉(zhuǎn)變,很大的正數(shù)向1轉(zhuǎn)變。容易出現(xiàn)梯度消失的問題,輸出不以0為中心,降低了權(quán)重更新的效率,而且計算速度比較慢。式子中的exp(?x)表示e?x的意思,sigmoid函數(shù)一般只用于二分類的輸出層。激活函數(shù)常用的激活函數(shù)(2)
relu函數(shù)是目前較為流行的激活函數(shù)之一,其圖像為一條斜率為1的直線和x軸的組合。relu函數(shù)具有計算速度快的優(yōu)點。函數(shù)當輸入z<0時,輸出為0。當輸入z>0時,輸出就是輸入z的值。這個激活函數(shù)能夠使網(wǎng)絡(luò)更快地收斂。激活函數(shù)常用的激活函數(shù)(3)tanh函數(shù)也是一個S形曲線,與sigmoid函數(shù)相似,但它的輸出范圍是[-1,1],且整個函數(shù)以0為中心。相比于sigmoid函數(shù),tanh函數(shù)的優(yōu)點在于它的輸出間隔為1,更有利于權(quán)重的更新。應(yīng)用場景:在一般的二元分類問題中,通常將tanh函數(shù)用于隱藏層。激活函數(shù)常用的激活函數(shù)
應(yīng)用場景:通常用于神經(jīng)網(wǎng)絡(luò)的輸出層,將輸出層的值通過激活函數(shù)映射到0-1區(qū)間,從而構(gòu)造概率分布。準備數(shù)據(jù)01正向反向傳播023.4訓練神經(jīng)網(wǎng)絡(luò)梯度下降03學習速率04權(quán)重更新05預(yù)測新數(shù)據(jù)06訓練神經(jīng)網(wǎng)絡(luò)模型首先需要準備數(shù)據(jù),數(shù)據(jù)必須是數(shù)值型的。如果數(shù)據(jù)中存在類別數(shù)據(jù),例如男性和女性的性別屬性,可以將其轉(zhuǎn)換為one-hot編碼的數(shù)值來表示分類。例如,將男性設(shè)置為1,女性設(shè)置為0。準備數(shù)據(jù)正向反向傳播
前向傳播:就是從輸入,不斷計算每一層的Z和A(Z是x和w、b線性運算的結(jié)果,Z=wx+b;A是Z的激活值),最后得到輸出y^的過程,計算出了y^(loss),如圖3.19所示。
反向傳播:就可以根據(jù)它和真實值y的差別來計算損失,根據(jù)損失函數(shù)L(y^,y)來反方向地計算每一層的Z、A、w、b的偏導數(shù)(梯度),從而更新參數(shù)。
每經(jīng)過一次前向傳播和反向傳播之后,參數(shù)就更新一次,然后用新的參數(shù)再次循環(huán)上面的過程。這就是神經(jīng)網(wǎng)絡(luò)訓練的整個過程。梯度下降梯度下降法在機器學習中常常用來優(yōu)化損失函數(shù),是一個非常重要的工具。梯度下降法的作用就是尋找一個
「極小值點」
(從而讓函數(shù)的值盡可能地?。?。一元二次函數(shù)天生地就只有一個極小值點,方便用來說明問題。函數(shù)的表達式是
??(??)=(???1)2+1,通過表達式可以知道它的最小值點的坐標是
(1,1)。梯度下降函數(shù)
??(??)
的梯度就是它的導數(shù)??(??)′=2???2-6-402-264801020304050-6-402-264801020304050梯度下降-6-402-264801020304050-6-402-264801020304050學習速率「梯度下降法」
的目標是搜索出來一個能夠讓函數(shù)的值盡可能小的位置,所以應(yīng)該讓
??
朝著黑色箭頭的方向走,那么怎么完成這個操作呢?接下來的過程我使用偽代碼來表示。在代碼中有一個
et??
變量,它的專業(yè)名詞叫
「學習率」。使用數(shù)學表達式來表示更新
??
的過程那就是:??←???et???????(??)????「初始化:」#變量x表示當前所在的位置#就隨機初始在6這個位置好了x=6eta=0.05#因為x的位置發(fā)生了變化#要重新計算當前位置的導數(shù)df=2*x-2x=x-eta*df#更新后x由5.5變成#5.5-0.05*9=5.05#變量df存儲當前位置的導數(shù)值df=2*x-2x=x-eta*df#更新后x由6變成#6-0.05*10=5.5權(quán)重更新i110.1w10.20w2i2o12真實值:15首次預(yù)測值:0.5反向傳播求導預(yù)測新數(shù)據(jù)當神經(jīng)網(wǎng)絡(luò)完成訓練后,即可用于實際預(yù)測任務(wù)。通常使用測試集數(shù)據(jù)對模型進行預(yù)測評估,以衡量其泛化能力(即對未知數(shù)據(jù)的處理性能)。訓練完成的模型可部署至生產(chǎn)環(huán)境,通過以下流程對新數(shù)據(jù)進行預(yù)測:模型持久化:保存網(wǎng)絡(luò)拓撲結(jié)構(gòu)(如層配置、激活函數(shù))和最終權(quán)重參數(shù),這是模型復(fù)用的必要條件。前向傳播計算:將輸入數(shù)據(jù)送入網(wǎng)絡(luò),按層執(zhí)行加權(quán)求和與非線性變換(即前向傳播),最終輸出預(yù)測結(jié)果。任務(wù)實現(xiàn)Part.04導入數(shù)據(jù)02任務(wù)實現(xiàn)查看數(shù)據(jù)03設(shè)置模型和參數(shù)04評估模型05優(yōu)化模型06模型預(yù)測07保存模型08新建工作流程01打開橙現(xiàn)智能軟件,單擊“文件”菜單中的“另存為”選項,將工作流命名為“學生心理健康模型預(yù)測開發(fā).ows”。新建工作流程在“數(shù)據(jù)”選項中,找到“文件”組件并單擊,或者在工作流空白位置單擊右鍵,輸入“file”找到“文件”組件并單擊;雙擊“文件”組件,在文件夾位置找到“StudentMentalhealth.csv”數(shù)據(jù)集導入;在“列”位置,將“guess”列的角色設(shè)置為“目標”,其余列不變,。導入數(shù)據(jù)在“數(shù)據(jù)”選項中,找到“數(shù)據(jù)表”并單擊,將“文件”組件與“數(shù)據(jù)表”組件連線,如圖3.23所示;查看數(shù)據(jù)集的特征值、目標值和數(shù)據(jù)集的分布情況,如圖所示。由于數(shù)據(jù)集的目標值有2種類型,明確任務(wù)的類型為“分類”任務(wù)。查看數(shù)據(jù)在“模型”選項中,找到“神經(jīng)網(wǎng)絡(luò)”組件并單擊,將“文件”組件與神經(jīng)網(wǎng)絡(luò)模型組件連線,設(shè)置神經(jīng)網(wǎng)絡(luò)的參數(shù)(先按照默認參數(shù)設(shè)置)。設(shè)置模型和參數(shù)在“評估”選項中,找到“測試和評分”組件并單擊,將神經(jīng)網(wǎng)絡(luò)組件連線“測試和評分”,將“文件”組件連線“測試和評分”,通過“測試和評分”組件查看評估指標和模型比較。評估模型通過調(diào)整“神經(jīng)網(wǎng)絡(luò)”的中間層層數(shù)和每層的神經(jīng)元個數(shù)以及激活函數(shù),對比每次調(diào)整完的“測試和評分”組件模型評估指標的變化,找到最優(yōu)的模型參數(shù),這是一個重復(fù)操作的過程,直到符合模型評估指標的要求。優(yōu)化模型在“數(shù)據(jù)”選項中,找到“文件”組件,在“評估”選項中,找到“預(yù)測”組件并單擊,在本文件中選取測試數(shù)據(jù)集“StudentMentalhealthtest.csv”,將文件和預(yù)測組間連接,對數(shù)據(jù)集中的數(shù)據(jù)進行預(yù)測。模型預(yù)測預(yù)測數(shù)據(jù)集中有5條數(shù)據(jù),在圖右中,第一列“NeuralNetwork”代表5條數(shù)據(jù)通過模型預(yù)測得到的結(jié)果,第二列“guess”代表數(shù)據(jù)集中實際的輸出值,對比兩列的數(shù)據(jù),可以看出預(yù)測完全正確。模型預(yù)測在“模型”選項中,找到“保存模型”組件并單擊,將“神經(jīng)網(wǎng)絡(luò)”模型連線“保存模型”,雙擊“保存模型”點擊保存,如圖所示。保存模型任務(wù)總結(jié)Part.05通過本任務(wù)的學習,了解了感知機的工作原理以及感知機的局限性、激活函數(shù)的作用、神經(jīng)網(wǎng)絡(luò)的定義、神經(jīng)網(wǎng)絡(luò)的相關(guān)術(shù)語;掌握了神經(jīng)網(wǎng)絡(luò)的訓練過程。在學習時還應(yīng)注意以下幾點:1.引入非線性因素,使得神經(jīng)網(wǎng)絡(luò)能夠解決非線性問題。常用的激活函數(shù)包括ReLU、Sigmoid、tanh等。使用激活函數(shù)時,中間層建議使用relu,LeakyReLU等函數(shù);二分類問題的輸出層建議使用sigmoid,多分類問題的輸出層建議使用softmax。2.搭建神經(jīng)網(wǎng)絡(luò)時,并不是層數(shù)越多,每層的神經(jīng)元個數(shù)越多越好,要根據(jù)數(shù)據(jù)集選擇模型的層數(shù)和每層中神經(jīng)元的個數(shù)。合理設(shè)置隱藏層的數(shù)量和每層神經(jīng)元的數(shù)量,避免過擬合或欠擬合。4.根據(jù)問題的類型(如分類、回歸等)和數(shù)據(jù)集的特點(如樣本量、特征數(shù)量等)選擇合適的模型。5.訓練集、驗證集與測試集:合理劃分訓練集、驗證集和測試集,用于模型的訓練、調(diào)參和性能評估。任務(wù)提出01任務(wù)分析02知識準備03任務(wù)3黑白圖像識別任務(wù)實現(xiàn)04任務(wù)總結(jié)05任務(wù)提出Part.01通過構(gòu)建一個多層全連接神經(jīng)網(wǎng)絡(luò),可以實現(xiàn)黑白圖像的識別,本任務(wù)要求對手寫數(shù)字集進行訓練并實現(xiàn)手寫數(shù)字的分類。手寫數(shù)字集MNIST是一個包含了成千上萬手寫數(shù)字的大型數(shù)據(jù)庫,它由60,000張訓練圖像和10,000張測試圖像組成,每張圖像是28×28像素的灰度圖像,用來代表數(shù)字0~9。數(shù)據(jù)集mnist_train.csv文件,里面包括784個特征,每一個特征代表一個像素點的值,輸出為0~9中的任意一個數(shù),故為10分類問題。提出任務(wù)任務(wù)分析Part.02清洗和整理收集到的數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。從數(shù)據(jù)中提取與心理健康相關(guān)的特征,如情緒狀態(tài)、社交行為等。利用深度學習技術(shù),訓練一個能夠識別學生心理健康狀況的模型。通過模型分析,識別出可能存在心理健康問題的學生。本任務(wù)主要是通過深度學習技術(shù),對班級學生的心理健康狀況進行分析。具體的任務(wù)實施分析如下。任務(wù)分析知識準備Part.03計算機視覺01圖像概述02知識準備圖像的基本處理技術(shù)03計算機視覺的核心任務(wù)02計算機視覺的關(guān)鍵技術(shù)033.5計算機視覺計算機視覺概述01計算機視覺概念計算機視覺是人工智能領(lǐng)域的一個重要分支,旨在通過算法和技術(shù)使計算機能夠“看懂”圖像或視頻中的內(nèi)容,并從中提取有用的信息。計算機視覺的目標是模擬人類視覺系統(tǒng)的功能,使機器能夠感知、理解和分析視覺數(shù)據(jù),從而完成各種任務(wù),如圖像分類、目標檢測、人臉識別等。計算機視覺涵蓋了許多具體的任務(wù),以下是其中一些核心任務(wù)。1.圖像分類圖像分類是計算機視覺中最基礎(chǔ)的任務(wù)之一,其目標是將輸入的圖像分配到一個預(yù)定義的類別中。2.目標檢測目標檢測不僅需要識別圖像中的物體類別,還需要確定物體的位置(通常用邊界框表示)。3.圖像分割圖像分割是將圖像劃分為多個區(qū)域或?qū)ο蟮倪^程。它分為兩種類型:語義分割:為每個像素分配一個類別標簽,但不區(qū)分同一類別的不同實例。實例分割:不僅為每個像素分配類別標簽,還區(qū)分同一類別的不同實例。4.人臉識別人臉識別是計算機視覺的一個重要應(yīng)用,旨在識別或驗證圖像或視頻中的人臉。5.姿態(tài)估計姿態(tài)估計是檢測圖像或視頻中人體關(guān)鍵點(如關(guān)節(jié))的位置,并推斷人體的姿態(tài)。6.圖像生成圖像生成是指通過算法生成新的圖像。生成對抗網(wǎng)絡(luò)(GAN)是這一領(lǐng)域的代表性技術(shù),能夠生成逼真的圖像、視頻甚至藝術(shù)作品。計算機視覺的核心任務(wù)1.卷積神經(jīng)網(wǎng)絡(luò)(CNN)CNN是計算機視覺的核心技術(shù)之一,它通過卷積層提取圖像的局部特征,并通過池化層降低數(shù)據(jù)維度。CNN的層次結(jié)構(gòu)使其能夠自動學習圖像的低級特征(如邊緣)和高級特征(如形狀和物體)。2.遷移學習遷移學習是利用預(yù)訓練模型(如在ImageNet上訓練的模型)來解決新任務(wù)的技術(shù)。通過微調(diào)預(yù)訓練模型,可以在小數(shù)據(jù)集上實現(xiàn)高性能,大大減少了訓練時間和計算資源。3.數(shù)據(jù)增強數(shù)據(jù)增強是通過對原始圖像進行變換(如旋轉(zhuǎn)、縮放、翻轉(zhuǎn))來生成更多訓練數(shù)據(jù)的技術(shù)。它能夠提高模型的泛化能力,防止過擬合。4.目標檢測與分割框架現(xiàn)代計算機視覺任務(wù)通常依賴于高效的框架,如YOLO實時目標檢測算法,速度快且精度高;MaskR-CNN結(jié)合目標檢測和實例分割的框架。OpenCV開源的計算機視覺庫,提供了豐富的圖像處理工具。計算機視覺的關(guān)鍵技術(shù)RGB顏色模型01HSV顏色模型023.6圖像概述灰度顏色模型03二值顏色模型04圖片噪聲05圖像色彩模型圖像作為視覺信息傳遞的核心媒介,根據(jù)其存儲和呈現(xiàn)的技術(shù)形態(tài)差異,可分為傳統(tǒng)模擬圖像與現(xiàn)代數(shù)字圖像兩大體系。在計算機視覺研究領(lǐng)域,數(shù)字圖像是首要研究對象,這類圖像由密集排列的像素矩陣構(gòu)成。RGB顏色模型RGB色彩體系,即紅綠藍三基色光學合成模型,其本質(zhì)是通過數(shù)學化調(diào)配三種基色的光強組合來再現(xiàn)自然界的豐富色相。該模型基于人眼視錐細胞對這三種波長光線的感知特性,通過精密調(diào)節(jié)各通道的強度參數(shù),可在三維色彩空間內(nèi)實現(xiàn)全色譜覆蓋。HSV顏色模型HSV即使用色相(Hue)、飽和度(Saturation)、亮度(Value)來表示色彩的一種方式,是一種在人們生活中常用的顏色系統(tǒng),以下是對數(shù)字圖像處理中HSV的詳細介紹。色相(H):色相是決定顏色類型的屬性,如紅色或藍色。飽和度(S):飽和度描述了顏色的強度或純度,也可以理解為色彩的深淺度。高飽和度的顏色看起來更“純”,低飽和度的則顯得更“灰”。在HSV模型中,飽和度的取值范圍是0到1。亮度(V):明度代表顏色的明暗程度。在HSV模型中,明度的取值范圍也是0到1。色調(diào)度顏色0紅色60黃色120綠色180青色240藍色300品紅色灰度顏色模型?灰度圖是一種僅包含黑白兩色及其中間過渡色的圖像模式,其像素值通過不同飽和度的黑色(即灰階)表示,通常分為256個等級(0代表純黑,255代表純白)。?二值顏色模型二值圖像:是指將圖像上的每一個像素只有兩種可能的取值或灰度等級狀態(tài),人們經(jīng)常用黑白、B&W、單色圖像表示二值圖像。圖片噪聲在計算機視覺領(lǐng)域,圖像被視作包含有效信號與干擾噪聲的復(fù)合數(shù)據(jù)載體。其中信號承載著目標特征等關(guān)鍵信息,而噪聲則作為無效干擾成分存在,如圖3.39所示。噪聲污染會導致圖像質(zhì)量退化,具體表現(xiàn)為:椒鹽噪聲:以離散脈沖形式隨機分布在圖像矩陣中,表現(xiàn)為黑白像素點的突變,其中黑噪點被稱為“椒”,白噪點被稱為“鹽”。高斯噪聲:作為連續(xù)型隨機噪聲,其值服從正態(tài)分布規(guī)律,通過引入顏色值的微觀抖動,造成圖像整體色調(diào)的偏移效應(yīng)?;叶绒D(zhuǎn)換01圖像濾波023.7圖像的基本處理技術(shù)圖像變換03灰度轉(zhuǎn)換灰度轉(zhuǎn)換是數(shù)字圖像處理中的一個基本步驟,它將彩色圖像轉(zhuǎn)換為灰度圖像?;叶葓D像只包含亮度信息,不包含顏色信息,因此每個像素點只需要一個灰度值來表示,通常這個值在0到255之間(對于8位灰度圖像),其中0表示黑色,255表示白色,中間的值表示不同程度的灰色。三通道彩色圖像由紅、綠、藍三個獨立的顏色分量疊加構(gòu)成。灰度化處理的核心目標,在于通過特定的算法將這三個色彩分量的信息融合,最終生成僅包含亮度信息的單通道圖像。除了加權(quán)平均法,還有其他一些灰度轉(zhuǎn)換方法,包括:最大值法:取R、G、B三個通道中的最大值作為灰度值。最小值法:取R、G、B三個通道中的最小值作為灰度值。平均值法:簡單地將R、G、B三個通道的值相加,然后除以3得到灰度值。亮度法:使用亮度公式(如YUV色彩空間中的Y分量)來計算灰度值。圖像濾波圖像濾波就是給照片“洗臉”的過程,目的是把照片上的斑點、模糊這些“臟東西”擦掉,同時盡量保留照片原本的細節(jié)鄰域均值濾波:對目標像素及其鄰域進行灰度值求和,取算術(shù)平均作為新像素值。中值濾波實現(xiàn)方式:對鄰域像素進行灰度值排序,取中值替代原像素值。高斯濾波實現(xiàn)方式:基于高斯分布函數(shù)構(gòu)建空間權(quán)重模板,實施卷積運算。雙邊濾波實現(xiàn)方式:同時考慮幾何鄰近性和灰度相似性,構(gòu)建雙重權(quán)重體系。圖像變換圖像變換是通過數(shù)學運算改變圖像表達形式的技術(shù)體系,涵蓋幾何變換和頻域變換兩大類別。圖像幾何變換類型平移:將圖像在水平或垂直方向上移動一定的距離。旋轉(zhuǎn):將圖像繞某一點旋轉(zhuǎn)一定的角度。縮放:改變圖像的尺寸,可以是放大或縮小。翻轉(zhuǎn):將圖像沿水平或垂直方向翻轉(zhuǎn)。剪切(Shear):使圖像在水平或垂直方向上產(chǎn)生傾斜變形。頻域變換傅里葉變換、沃爾什-阿達瑪變換等。任務(wù)實現(xiàn)Part.04導入數(shù)據(jù)02任務(wù)實現(xiàn)查看數(shù)據(jù)03設(shè)置模型和參數(shù)04評估模型05優(yōu)化模型06模型預(yù)測07保存模型08新建工作流程01打開橙現(xiàn)智能軟件,單擊“文件”菜單中的“另存為”選項,將工作流命名為“手寫數(shù)字數(shù)據(jù)集的模型預(yù)測開發(fā).ows”。新建工作流程在“數(shù)據(jù)”選項中,找到“文件”組件并單擊,或者在工作流空白位置單擊右鍵,輸入“file”找到“文件”組件,并單擊;雙擊“文件”組件,在文件夾位置找到mnist_train.csv數(shù)據(jù)集導入;在“列”位置,將“Feature1”列的角色設(shè)置為“目標”,其余列不變,如圖所示。導入數(shù)據(jù)在“數(shù)據(jù)”選項中,找到“數(shù)據(jù)表”并單擊將“文件”組件與“數(shù)據(jù)表”組件連線;查看數(shù)據(jù)集的特征值、目標值和數(shù)據(jù)集的分布情況,如圖所示。由于數(shù)據(jù)集的目標值有10種類型,明確任務(wù)的類型為“分類”任務(wù)。查看數(shù)據(jù)在“模型”選項中,找到“神經(jīng)網(wǎng)絡(luò)”組件并單擊,將“文件”組件與神經(jīng)網(wǎng)絡(luò)模型組件連線,設(shè)置神經(jīng)網(wǎng)絡(luò)的參數(shù)(先按照默認參數(shù)設(shè)置)。設(shè)置模型和參數(shù)在“評估”選項中,找到“測試和評分”組件并單擊,將神經(jīng)網(wǎng)絡(luò)組件連線“測試和評分”,將“文件”組件連線“測試和評分”,通過“測試和評分”組件查看評估指標和模型比較。評估模型通過調(diào)整“神經(jīng)網(wǎng)絡(luò)”的中間層層數(shù)和每層的神經(jīng)元個數(shù)以及激活函數(shù),對比每次調(diào)整完的“測試和評分”組件模型評估指標的變化,找到最優(yōu)的模型參數(shù),這是一個重復(fù)操作的過程,直到符合模型評估指標的要求。優(yōu)化模型在“數(shù)據(jù)”選項中,找到“文件”組件,在“評估”選項中,找到“預(yù)測”組件并單擊,在本“mnist_test.csv”,將文件和預(yù)測組間連接,對數(shù)據(jù)集中的數(shù)據(jù)進行預(yù)測。模型預(yù)測第一列NeuralNetwork代表10條數(shù)據(jù)通過模型預(yù)測得到的結(jié)果,第二列Feature1代表數(shù)據(jù)集中實際的輸出值,對比兩列的數(shù)據(jù),可以看出預(yù)測完全正確。這里需要注意一下,并不是所有的預(yù)測數(shù)據(jù)集都是百分比正確。模型預(yù)測在“模型”選項中,找到“保存模型”組件并單擊,將“神經(jīng)網(wǎng)絡(luò)”模型連線“保存模型”,雙擊“保存模型”點擊保存,如圖所示。保存模型任務(wù)總結(jié)Part.05在本次手寫數(shù)字識別的項目中,綜合學習了多種圖像處理技術(shù)和顏色模型,成功地實現(xiàn)了從圖像預(yù)處理到數(shù)字識別的全過程。在實際應(yīng)用中,使用這些知識時需要注意以下細節(jié):在學習時還應(yīng)注意以下幾點:RGB模型是最常用的顏色表示方式,適用于大多數(shù)圖像處理任務(wù),但其對光照變化敏感。HSV模型將顏色信息分離為色調(diào)(H)、飽和度(S)和明度(V),更適合顏色分割和光照不變性任務(wù)。灰度模型通過將彩色圖像轉(zhuǎn)換為單通道灰度圖像,簡化了計算復(fù)雜度,適用于紋理分析和邊緣檢測。二值模型將圖像簡化為黑白兩種顏色,常用于目標檢測和圖像分割。圖像噪聲會嚴重影響后續(xù)處理的效果,常見的噪聲類型包括高斯噪聲、椒鹽噪聲等。在去噪時,需要根據(jù)噪聲類型選擇合適的濾波方法。例如,高斯濾波適用于平滑高斯噪聲,而中值濾波對椒鹽噪聲有較好的去除效果?;叶绒D(zhuǎn)換是許多計算機視覺任務(wù)的前置步驟,但轉(zhuǎn)換時需注意保留圖像的關(guān)鍵信息。不同的灰度轉(zhuǎn)換方法(如加權(quán)平均法、最大值法等)可能對后續(xù)任務(wù)產(chǎn)生不同影響,需根據(jù)具體需求選擇。濾波是圖像預(yù)處理的重要步驟,能夠平滑圖像或增強特征。低通濾波用于去噪和平滑,而高通濾波用于邊緣檢測和細節(jié)增強。濾波核的大小和形狀會直接影響濾波效果,需根據(jù)圖像分辨率和任務(wù)需求進行調(diào)整。圖像變換(如縮放、旋轉(zhuǎn)、平移)是數(shù)據(jù)增強和幾何校正的重要手段。變換時需注意插值方法的選擇(如最近鄰插值、雙線性插值等),以避免圖像失真。任務(wù)提出01任務(wù)分析02知識準備03任務(wù)4工業(yè)零件劃痕自動識別任務(wù)實現(xiàn)04任務(wù)總結(jié)05任務(wù)提出Part.01某工廠主要從事各類工業(yè)零件(工件)的生產(chǎn)加工,由于工廠生產(chǎn)環(huán)境復(fù)雜,工件生產(chǎn)過程中存在發(fā)生剮蹭、磕碰、制作疏漏的可能性,存在瑕疵的商品需按照殘次品處理,不可進入市場銷售。瑕疵質(zhì)檢精細度要求較高,缺陷通常比較細微難以發(fā)現(xiàn),傳統(tǒng)的人工質(zhì)檢方式效率低,長時間作業(yè)容易出現(xiàn)視覺疲勞發(fā)生錯檢、漏檢的現(xiàn)象,影響工廠產(chǎn)能及交付效率。為提高產(chǎn)能及質(zhì)檢精確率,該工廠決定對質(zhì)檢產(chǎn)線進行智能化賦能,通過AI實現(xiàn)工件缺陷的自動化識別,提高出廠質(zhì)檢效率。提出任務(wù)任務(wù)分析Part.02本任務(wù)需要利用百度AI開發(fā)平臺—EasyDL提供的AI開發(fā)功能訓練模型。具體的任務(wù)實施分析如下。1.選擇訓練模型的類型為物體檢測;在物體檢測中選擇場景范例—工業(yè)零件劃痕自動識別;下載數(shù)據(jù)集進行標注;開始訓練模型;發(fā)布測試。
任務(wù)分析知識準備Part.03搭建卷積神經(jīng)網(wǎng)絡(luò)01訓練卷積神經(jīng)網(wǎng)絡(luò)02知識準備卷積神經(jīng)網(wǎng)絡(luò)在圖像中的應(yīng)用03經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)04卷積核02池化層033.8搭建卷積神經(jīng)網(wǎng)絡(luò)卷積運算01全連接層04卷積運算如何實現(xiàn)圖像識別?目標檢測人臉識別防疫機器人果蔬健康監(jiān)控卷積運算特征人如何識別圖像?道法自然—老子卷積運算?計算機如何識別圖像?0+1+1+1+10000+1000+1000+1000+10007怎么提取特征卷積運算一維卷積運算卷積運算二維卷積運算卷積核0+1+1+1+10000+1000+1000+1000+10007的特征是什么?+1+1+1-1-1-1-1-1-1-1-1+1-1+1-1+1-1-1和以下卷積核進行運算得到什么?卷積核-1-1+1-1+1-1+1-1-10-2-3-1-23-230+1+1+1-1-1-1-1-1-1221-1-2-1-2-102210000000000030302210030300+1+1+1+10000+1000+1000+1000+1000**池化層
池化層在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中扮演著至關(guān)重要的角色,它作為一種有效的操作手段,旨在縮減特征圖的空間維度(具體指高度與寬度)。這一縮減不僅顯著降低了模型的計算負擔和參數(shù)總量,而且巧妙地保留了圖像中的關(guān)鍵特征信息最大池化平均池化全連接層卷積神經(jīng)網(wǎng)絡(luò)的終極任務(wù),通常是做圖像分類。而分類就少不了全連接層的參與。因此,在卷積神經(jīng)網(wǎng)絡(luò)的最后,還有一個或多個至關(guān)重要的全連接層?!叭B接”意味著,前一層網(wǎng)絡(luò)中的所有神經(jīng)元都與下一層的所有神經(jīng)元相連接。過擬合和欠擬合01防止過擬合的Dropout023.9訓練卷積神經(jīng)網(wǎng)絡(luò)過擬合欠擬合欠擬合只學習部分特征過擬合欠擬合有鋸齒
能識別無鋸齒
不識別有方框
能識別無方框
不識別有鋸齒
能識別無鋸齒
不識別過度擬合鋸齒特征過度擬合方框特征過擬合現(xiàn)象防止過擬合Dropout無鋸齒
不識別解決過擬合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)神經(jīng)元
DropOut臨時丟棄某些神經(jīng)元信息員技術(shù)員項目經(jīng)理第1組第2組第3組防止學習的過擬合,增加適應(yīng)性圖像分類01目標檢測023.10卷積神經(jīng)網(wǎng)絡(luò)在圖像中的應(yīng)用圖像生成03物體識別04圖像處理05語音識別06自然語言處理07超分辨率08風格遷移09圖像分類卷積神經(jīng)網(wǎng)絡(luò)在圖像分類領(lǐng)域有著廣泛的應(yīng)用,其可以通過提取圖像中的局部特征,實現(xiàn)對圖像的有效分類。例如:人體動作識別、虛擬現(xiàn)實等。目標檢測目標檢測是計算機視覺中的一個重要任務(wù),旨在識別圖像或視頻中的目標物體,并確定其位置和大小。卷積神經(jīng)網(wǎng)絡(luò)通過卷積層提取特征,再通過后續(xù)的網(wǎng)絡(luò)層實現(xiàn)對目標物體的檢測和定位,如圖所示。圖像生成卷積神經(jīng)網(wǎng)絡(luò)在圖像生成領(lǐng)域也取得了一定的成果,如通過生成對抗網(wǎng)絡(luò)(GAN)等技術(shù),可以生成逼真的圖像,如圖所示。物體識別卷積神經(jīng)網(wǎng)絡(luò)可以通過滑動窗口、選擇性搜索和YOLO等方法進行物體識別,實現(xiàn)對圖像中物體的準確識別和定位,如圖所示。圖像處理卷積神經(jīng)網(wǎng)絡(luò)在圖像處理領(lǐng)域有著廣泛的應(yīng)用,如圖像去噪(圖左)、圖像增強、圖像修復(fù)(圖右)等。其可以通過學習圖像中的特征,實現(xiàn)對圖像的有效處理和改進。語音識別卷積神經(jīng)網(wǎng)絡(luò)在語音識別領(lǐng)域也取得了顯著的成果。通過提取音頻信號的時頻特征,CNN可以有效地識別語音中的單詞和短語。自然語言處理雖然卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理領(lǐng)域的應(yīng)用不如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和Transformer廣泛,但在某些任務(wù)(如文本分類、句子相似度計算等)上也表現(xiàn)出了良好的性能。超分辨率超分辨率是指將低分辨率圖像放大到高分辨率圖像,同時保持圖像質(zhì)量。卷積神經(jīng)網(wǎng)絡(luò)在超分辨率領(lǐng)域有著廣泛的應(yīng)用,如SRCNN、ESPCN等是典型的超分辨率算法。風格遷移風格遷移是指將一種圖像的風格應(yīng)用到另一種圖像上,生成具有新風格的圖像。卷積神經(jīng)網(wǎng)絡(luò)在風格遷移領(lǐng)域也取得了一定的成果,如NeuralStyleTransfer、CycleGAN等是常用的風格遷移算法。LeNet01VGG023.11經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)ResNet(殘差網(wǎng)絡(luò))03LeNetLeNet是由YannLeCun等人于1998年提出的一種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)架構(gòu),最初用于手寫數(shù)字識別任務(wù)。它是深度學習領(lǐng)域中最早的卷積神經(jīng)網(wǎng)絡(luò)之一,為現(xiàn)代計算機視覺的發(fā)展奠定了基礎(chǔ)。LeNet的成功證明了卷積神經(jīng)網(wǎng)絡(luò)在圖像分類任務(wù)中的有效性,并啟發(fā)了后續(xù)許多重要的神經(jīng)網(wǎng)絡(luò)架構(gòu)(如AlexNet、VGG和ResNet)。VGGVGG是一個經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,由牛津大學的VisualGeometryGroup提出,因此得名VGG。它在2014年的ImageNet圖像分類競賽中取得了優(yōu)異的成績,成為深度學習領(lǐng)域的里程碑之一。(1)VGG結(jié)構(gòu)VGG的網(wǎng)絡(luò)結(jié)構(gòu)非常規(guī)整,主要由卷積層和全連接層組成。卷積層的濾波器(kernel)大小固定為3×3,步幅(stride)為1,填充(padding)為1。池化層使用2×2的最大池化,步幅為2。VGG通過堆疊多個小卷積層(3×3)來替代大卷積層(如5×5或7×7),從而增加網(wǎng)絡(luò)的深度。例如,兩個3×3卷積層的感受野(receptivefield)相當于一個5×5卷積層,但參數(shù)量更少,且引入了更多的非線性激活函數(shù)(ReLU),增強了模型的表達能力。(2)VGG版本VGG有多個版本,常用的有VGG16和VGG19,數(shù)字表示網(wǎng)絡(luò)的層數(shù)(包括卷積層和全連接層)。VGG1
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 幼兒園有趣的沙漏教案
- 小學語文二年級坐井觀天三教案
- 財務(wù)會計教例固定資產(chǎn)案例教案
- 高考英語一詞多義熟詞僻義教案資料
- 中國雄安集團有限公司2026校園招聘備考筆試試題及答案解析
- 2025江西南昌市環(huán)境工程評估中心勞務(wù)派遣招聘1人參考考試題庫及答案解析
- 跨部門協(xié)作溝通技巧實戰(zhàn)培訓
- 2025年職業(yè)健康衛(wèi)生知識培訓考試試題及答案
- 合同管理工作心得體會范文
- 中考英語真題及詳細講解
- 附表:醫(yī)療美容主診醫(yī)師申請表
- 跌落式熔斷器熔絲故障原因分析
- 2023年全市中職學校學生職業(yè)技能大賽
- 畢節(jié)市織金縣化起鎮(zhèn)污水處理工程環(huán)評報告
- 河流動力學-同濟大學中國大學mooc課后章節(jié)答案期末考試題庫2023年
- 倉庫安全管理檢查表
- 嶺南版美術(shù)科五年級上冊期末素質(zhì)檢測試題附答案
- 以執(zhí)業(yè)醫(yī)師考試為導向的兒科學臨床實習教學改革
- 一年級上冊美術(shù)測試題
- 人口結(jié)構(gòu)演變對人身保險需求的影響分析
- 質(zhì)量檢測見證取樣送檢監(jiān)理實施細則
評論
0/150
提交評論