版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
摘要人臉表情是人類在沒有語言交流時(shí)的一種表達(dá)感情的方式,而且是最常見與最容易表達(dá)的,對(duì)于計(jì)算機(jī)來說,所謂的人臉表情識(shí)別就是輸入一張圖片給計(jì)算機(jī),計(jì)算機(jī)通過一些特征提取,數(shù)值計(jì)算,最后得出表情的類別,面部表情識(shí)別是基于人工智能的人機(jī)交互技術(shù)的重要組成部分。表情識(shí)別在現(xiàn)實(shí)中應(yīng)用的場(chǎng)景甚多,例如零售業(yè)中通過識(shí)別顧客的表情,獲取他對(duì)商品的喜好,或者在游戲中,可以識(shí)別用戶的表情,進(jìn)行人機(jī)交互體驗(yàn)等等。本文將會(huì)利用目標(biāo)檢測(cè)算法YOLOV3和圖像識(shí)別算法VGGNET對(duì)圖片中的人進(jìn)行一個(gè)表情識(shí)別。關(guān)鍵詞:深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)特征提取表情識(shí)別目標(biāo)檢測(cè)目標(biāo)識(shí)別卷積神經(jīng)網(wǎng)絡(luò)AbstractTherecognitionoffacialexpressionsisthatartificialintelligenceisanimportantpartofhuman-computerinteractiontechnology.Facialexpressionsareoneoftherichestresourcesinourdailynon-verbalcommunicationandtheeasiestway.Expressionsareexpressedinacertainway.Foracomputer,facialexpressionrecognitionisanimageinputbyacomputer.Thecomputerhassomefeatureextraction,numericalcalculation,andcategoryanalysisexpressions.Therearemanyscenariosinwhichfacialexpressionrecognitionisappliedinreality.Forexample,intheretailindustry,customers'facialexpressionscanberecognizedtoobtaintheirpreferencesforgoods,orinthegame,users'facialexpressionscanberecognizedtoconductman-machineinteractionexperience.Inthispaper,targetdetectionalgorithmYOLOV3andimagerecognitionalgorithmVGGNETwillbeusedtocarryoutanexpressionrecognitionofpeopleinthepicture.Keywords:DeeplearningNeuralNetworksFeatureextractionExpressionrecognitionTargetDetectionTargetRecognitionConvolutionalNeuralNetwork目錄TOC\o"1-2"\h\u一、緒論 緒論1.1研究背景與意義深度學(xué)習(xí)自2012年以來越來越火爆,人類逐漸將深度學(xué)習(xí)應(yīng)用到各個(gè)領(lǐng)域,因?yàn)橹灰凶銐蚝玫馁Y料,計(jì)算機(jī)就有可能發(fā)揮出比人還要好的效果,本次我們將研究一下基于深度學(xué)習(xí)的人臉表情分析。人臉識(shí)別會(huì)涉及到一個(gè)很廣的領(lǐng)域,是一個(gè)交叉的學(xué)科,它的領(lǐng)域非常廣泛其能工作的領(lǐng)域也很廣,例如在國(guó)家安全、軍事安全、公安、司法、金融、海關(guān)、等等。那么人臉表情能具體任用到哪里呢?例如,對(duì)于多通道的人機(jī)交互界面來說,可以把跟蹤得到的人臉表情用來作為一種人際交互的手段。人臉識(shí)別主要作用是:實(shí)現(xiàn)自動(dòng)實(shí)時(shí)識(shí)別人臉表情通過人機(jī)接口。實(shí)現(xiàn)人臉表情實(shí)時(shí)識(shí)別和實(shí)時(shí)的追蹤。實(shí)現(xiàn)(人體、自然)語言的融合。人臉情感識(shí)別是從面部表情中檢測(cè)人類情感的過程。人腦可以自動(dòng)識(shí)別情緒,現(xiàn)在已經(jīng)開發(fā)了可以識(shí)別情緒的軟件。這項(xiàng)技術(shù)一直在變得越來越精確,最終將能夠像我們的大腦一樣讀取情緒。人工智能可以通過學(xué)習(xí)每個(gè)面部表情的含義并將該知識(shí)應(yīng)用于呈現(xiàn)給它的新信息來檢測(cè)情緒。情感人工智能或情感AI是一種能夠讀取,模仿,解釋和響應(yīng)人類面部表情和情感的技術(shù)。表1-1面部表情的含義表情額頭、眉毛眼睛臉的下半部驚奇1、眉毛抬起、變高變彎1、眼睛睜大,上眼皮抬高,下眼皮下落下顎下落,嘴張開,唇和牙齒分開,但嘴部不緊張,也不拉伸2、眉毛下的皮膚被拉伸2、眼白可能在瞳孔的上邊和/或下邊露出來3、皺紋可能橫跨額頭恐懼1、眉毛抬起并皺在一起上眼瞼抬起,下眼皮拉緊嘴張,嘴唇或輕微緊張,向后拉或者拉長(zhǎng),同時(shí)向后拉2、額頭的皺紋只在集中在中間中部,而不是橫跨整個(gè)額頭厭惡眉毛壓低,并壓低上眼瞼在下眼皮下部出現(xiàn)橫紋,臉頰推動(dòng)其向上,當(dāng)然并不緊張1、上唇抬起2、下唇與上唇緊閉,推動(dòng)上唇向上,嘴角下拉,唇輕微凸起3、鼻子皺起4、臉頰抬起憤怒1、眉毛皺在一起,壓低1、下眼皮垃緊,抬起或不抬起1、唇有兩種基本的狀態(tài):緊閉、唇角垃直或向下,張開,仿佛要喊2、在眉宇之間出現(xiàn)豎直皺紋2、上眼皮垃緊2、鼻孔可能張大高興眉毛參考:稍微下彎1、下眼瞼下邊可能有皺紋,可能鼓起但是并不緊張1、唇角向后拉并抬高2、魚尾紋從外眼角向外擴(kuò)張2、嘴可能被張大,牙齒可能露出3、一道皺紋從鼻子一直延伸到嘴角外部4、臉頰被抬起悲傷眉毛內(nèi)角皺在一起,抬高,帶動(dòng)眉毛下的皮膚眼內(nèi)角的上眼皮抬高1、嘴角下拉2、嘴角可能顫抖圖1-1.傳統(tǒng)人臉表情識(shí)別了解情境情感對(duì)社會(huì)和商業(yè)都有廣泛的影響。在公共領(lǐng)域,政府組織可以充分利用檢測(cè)罪惡感,恐懼和不確定性等情緒的能力。不難想象,TSA會(huì)自動(dòng)掃描航空公司乘客的恐怖主義跡象,并在此過程中使世界變得更加安全。很多公司一直在利用情感識(shí)別來推動(dòng)業(yè)務(wù)成果。對(duì)于《玩具總動(dòng)員5》,迪士尼計(jì)劃使用面部識(shí)別來判斷觀眾的情緒反應(yīng)。蘋果甚至在iPhoneX上發(fā)布了一項(xiàng)名為Animoji的新功能,您可以在其中獲得計(jì)算機(jī)模擬的表情符號(hào)來模仿您的面部表情。假設(shè)他們很快將在其他應(yīng)用程序中使用這些功能并不是什么遙不可及的事情。這是組織和企業(yè)可以用來了解其客戶并創(chuàng)建人們喜歡的產(chǎn)品的所有可行信息。但是,在實(shí)踐中獲得像這樣的產(chǎn)品并不是一件容易的事。有兩個(gè)主要問題阻礙了情感計(jì)算的有意義的進(jìn)展:訓(xùn)練/標(biāo)簽問題和要素工程問題。出于多種原因,情感識(shí)別在社會(huì)中得到了應(yīng)用。
從麻省理工學(xué)院分離出來的Affectiva提供人工智能該軟件可提高人們手動(dòng)完成以前完成的任務(wù)的效率,主要用于收集與觀看者同意共享此信息的特定上下文有關(guān)的面部表情和聲音信息。例如,您不必同意冗長(zhǎng)地調(diào)查觀看教育視頻或廣告的每個(gè)點(diǎn)的感覺,而可以同意讓相機(jī)注視您的臉部并聆聽您的講話,并注意在體驗(yàn)的哪些部分顯示諸如無聊,興趣,困惑或微笑的表情。(請(qǐng)注意,這并不意味著它正在閱讀您的內(nèi)心世界,它只是在閱讀您向外表達(dá)的內(nèi)容。)Affectiva的其他用途包括幫助自閉癥兒童,幫助盲人閱讀面部表情,幫助機(jī)器人與人進(jìn)行更智能的互動(dòng)以及在開車時(shí)監(jiān)控注意力跡象,以提高駕駛員的安全性。對(duì)于本文的人臉表情識(shí)別是基于深度學(xué)習(xí),大概流程可以表示為,輸入人臉圖像之后,第一判斷圖像中有沒有人臉,假如存在的話呢,下一步就要所有人的臉的位置在哪里,然后再把這些人臉?biāo)瓦M(jìn)分類器進(jìn)行表情分類。1.2本文主要工作首先當(dāng)然是數(shù)據(jù)集的選擇,用于目標(biāo)檢測(cè)的數(shù)據(jù)集,我選擇了FDDB:FaceDetectionDataSetandBenchmark這樣的一個(gè)數(shù)據(jù)集,用于表情識(shí)別的數(shù)據(jù)集,我選擇了在kaggle上的ChallengesinRepresentationLearning:FacialExpressionRecognitionChallenge數(shù)據(jù)集。首先FER2013數(shù)據(jù)集,既是用于表情識(shí)別的數(shù)據(jù)集是存在一些問題,嘗試使用百度api進(jìn)行重新標(biāo)注,但是由于重新標(biāo)注后合格的圖片太少了,于是沒有進(jìn)行這一步操作,對(duì)于模型的話,選擇了VGG16Net,訓(xùn)練的時(shí)候采用數(shù)據(jù)增強(qiáng)的方式進(jìn)行訓(xùn)練。對(duì)于FDDB數(shù)據(jù)集,需要通過標(biāo)注工具自行標(biāo)注人臉,模型采用比較流行的yolov3模型。通過訓(xùn)練圖像識(shí)別模型和目標(biāo)檢測(cè)模型之后,需要組合兩個(gè)模型,就是先得出圖像中人的位置,再通過裁剪人的位置輸入到圖像識(shí)別模型進(jìn)行一個(gè)分類操作。深度學(xué)習(xí)介紹2.1深度學(xué)習(xí)簡(jiǎn)介神經(jīng)網(wǎng)絡(luò)是一種機(jī)器學(xué)習(xí),可以根據(jù)人腦對(duì)自身進(jìn)行建模,從而創(chuàng)建一個(gè)人工神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)可以通過算法允許計(jì)算機(jī)通過合并新數(shù)據(jù)進(jìn)行學(xué)習(xí)。盡管如今有大量的人工智能算法,但神經(jīng)網(wǎng)絡(luò)能夠執(zhí)行所謂的深度學(xué)習(xí)。大腦的基本單位是神經(jīng)元,而人工神經(jīng)網(wǎng)絡(luò)的基本組成部分是感知器,可以完成簡(jiǎn)單的信號(hào)處理,然后將這些感知器連接到大型網(wǎng)狀網(wǎng)絡(luò)中。帶有神經(jīng)網(wǎng)絡(luò)的計(jì)算機(jī)被教導(dǎo)通過分析訓(xùn)練示例來完成任務(wù),這些訓(xùn)練示例先前已預(yù)先標(biāo)記,學(xué)習(xí)對(duì)新圖像進(jìn)行分類。Hubel和Wiesel還提出了這兩種類型的單元的級(jí)聯(lián)模型,以用于模式識(shí)別任務(wù)。CNN架構(gòu)的起源是福島邦彥(KunihikoFukushima)在1980年提出的。它的靈感來自于Hubel和Wiesel的上述工作。新認(rèn)知加速器在CNN中引入了兩種基本類型的層:卷積層和下采樣層。卷積層包含其接收?qǐng)龈采w前一層補(bǔ)丁的單元。這種單位的權(quán)重向量(自適應(yīng)參數(shù)集)通常稱為過濾器。單位可以共享過濾器。下采樣層包含其接收?qǐng)龈采w先前卷積層補(bǔ)丁的單元。這樣的單元通常計(jì)算其補(bǔ)丁中這些單元的激活平均值。這種下采樣有助于在視覺場(chǎng)景中正確地對(duì)對(duì)象進(jìn)行分類,即使對(duì)象已移動(dòng)也是如此。J.Weng等人在新認(rèn)知電子的一個(gè)變體中稱為cresceptron,而不是使用福島的空間平均。引入了一種稱為最大池化的方法,其中降采樣單元計(jì)算其補(bǔ)丁中各單元的激活次數(shù)最大值。在現(xiàn)代CNN中經(jīng)常使用最大池化。在過去的幾十年中,已經(jīng)提出了幾種有監(jiān)督和無監(jiān)督的學(xué)習(xí)算法來訓(xùn)練新認(rèn)知加速器的權(quán)重。[6]但是,今天,CNN架構(gòu)通常通過反向傳播進(jìn)行訓(xùn)練。新認(rèn)知機(jī)是第一個(gè)CNN,它要求位于多個(gè)網(wǎng)絡(luò)位置的設(shè)備具有相同的權(quán)重。1988年,將新認(rèn)知加速器用于分析時(shí)變信號(hào)。雖然CNN提出時(shí)間比較早,但是在很長(zhǎng)的一段時(shí)間里面沒有取得重大的突破,不需要人工提取特征。在2012年之后每年的計(jì)算機(jī)視覺大賽,都會(huì)有更好的模型推出,隨著GPU計(jì)算能力加強(qiáng),卷積神經(jīng)網(wǎng)絡(luò)也慢慢火了起來,到現(xiàn)在,其應(yīng)用到生活各處,未來估計(jì)能替代傳統(tǒng)的圖像識(shí)別技術(shù)。2.2神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介我們談?wù)勆窠?jīng)網(wǎng)絡(luò)的基本模型。神經(jīng)網(wǎng)絡(luò)的基本模型可以分為四種類型。第一個(gè)是直接神經(jīng)網(wǎng)絡(luò),第二個(gè)是反饋神經(jīng)網(wǎng)絡(luò),第三個(gè)是隨機(jī)神經(jīng)網(wǎng)絡(luò)。四是自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)。首先,輸入前饋神經(jīng)網(wǎng)絡(luò)。先進(jìn)的神經(jīng)網(wǎng)絡(luò)是一個(gè)人工神經(jīng)網(wǎng)絡(luò),其中節(jié)點(diǎn)之間的連接不會(huì)循環(huán)。因此,它與它的后代不同:循環(huán)神經(jīng)網(wǎng)絡(luò)。高級(jí)神經(jīng)網(wǎng)絡(luò)是設(shè)計(jì)的第一個(gè)也是最簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)。在此網(wǎng)絡(luò)中,信息僅沿一個(gè)方向移動(dòng),即從輸入節(jié)點(diǎn)移動(dòng)到隱藏節(jié)點(diǎn)(如果有)再到輸出節(jié)點(diǎn)。網(wǎng)絡(luò)上沒有周期。前饋神經(jīng)網(wǎng)絡(luò)模型如下:圖2-1.前向神經(jīng)網(wǎng)絡(luò)然后下面介紹反饋型神經(jīng)網(wǎng)絡(luò),它的節(jié)點(diǎn)全部是計(jì)算單元,如下圖所示,可以向外面輸出,也會(huì)接受輸入。圖2-2.反饋神經(jīng)網(wǎng)絡(luò)Hopfield網(wǎng)絡(luò)是典型代表在反饋型網(wǎng)絡(luò)中。它由一個(gè)包含一個(gè)或多個(gè)完全連接的循環(huán)神經(jīng)元的單層組成。Hopfield網(wǎng)絡(luò)通常用于自動(dòng)關(guān)聯(lián)和優(yōu)化任務(wù)。前向型和反饋型的神經(jīng)網(wǎng)絡(luò)都是確定性的結(jié)構(gòu),換句話說,只要給定神經(jīng)元的輸入,這個(gè)輸出是確定的。圖2-3.隨機(jī)型神經(jīng)網(wǎng)絡(luò)然后就是隨機(jī)型神經(jīng)網(wǎng)絡(luò),其是由ErolGelenbe發(fā)明的,并與排隊(duì)網(wǎng)絡(luò)的G網(wǎng)絡(luò)模型以及基因調(diào)控網(wǎng)絡(luò)模型相關(guān)聯(lián)。每個(gè)細(xì)胞狀態(tài)用一個(gè)整數(shù)表示,當(dāng)細(xì)胞收到興奮性尖峰時(shí)其值會(huì)增加,而當(dāng)收到抑制性尖峰時(shí)其值會(huì)下降。峰值可能源自網(wǎng)絡(luò)外部本身,也可以來自網(wǎng)絡(luò)中的其他小區(qū)。內(nèi)部興奮狀態(tài)為正值的單元格可以根據(jù)特定的依賴單元格的頻率向網(wǎng)絡(luò)中的其他單元格發(fā)送任何一種尖峰信號(hào)。該模型在穩(wěn)態(tài)下具有數(shù)學(xué)解決方案,該數(shù)學(xué)解決方案根據(jù)每個(gè)單元被激發(fā)并能夠發(fā)出峰值的個(gè)體概率來提供網(wǎng)絡(luò)的聯(lián)合概率分布。RNN是遞歸模型,即允許具有復(fù)雜反饋回路的神經(jīng)網(wǎng)絡(luò)。計(jì)算此解決方案的基礎(chǔ)是求解一組非線性代數(shù)方程,其參數(shù)與單個(gè)小區(qū)的峰值速率及其與其他小區(qū)的連接性以及網(wǎng)絡(luò)外部尖峰的到達(dá)速率有關(guān)。如下圖所示,玻爾茲曼機(jī)是一個(gè)典型的隨機(jī)神經(jīng)網(wǎng)絡(luò),其具有隨機(jī)輸出值單元的隨機(jī)神經(jīng)網(wǎng)絡(luò),它按照概率曲線的能量分布進(jìn)行狀態(tài)的轉(zhuǎn)移。圖2-4.玻爾茲曼機(jī)神經(jīng)網(wǎng)絡(luò)的最后一種類型是自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)。在人腦中,刺激信號(hào)的某些方面對(duì)不同細(xì)胞的敏感性必須不同。自組織神經(jīng)網(wǎng)絡(luò)會(huì)自動(dòng)查找樣本中的內(nèi)在規(guī)律和基本屬性,如下圖所示,這一種網(wǎng)絡(luò)可以識(shí)別環(huán)境的特征,并且會(huì)自動(dòng)聚類。成功應(yīng)用到特征抽取和大規(guī)模數(shù)據(jù)處理當(dāng)中。圖2-5.自組織競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)2.3卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介卷積神經(jīng)網(wǎng)絡(luò)主要有一下概念:局部感受野,共享權(quán)重,池化層。對(duì)于局部感受野,假設(shè)輸入的是28*28的像素值:圖2-6.局部感受野對(duì)于第一個(gè)隱含層,每一個(gè)隱含層神經(jīng)元與輸入層中5*5的神經(jīng)元連接:圖2-7.感受視野這個(gè)5*5的區(qū)域就叫做感受視野,表示一個(gè)隱含層神經(jīng)元在輸入層的感受區(qū)域。這5*5=25個(gè)所連接對(duì)應(yīng)著25個(gè)權(quán)重參數(shù),還有一個(gè)全局的bias。當(dāng)感受野沿著整個(gè)輸入圖片向右(向下)滑動(dòng)的時(shí)候,每一個(gè)感受野在第一個(gè)隱含層都對(duì)應(yīng)著一個(gè)隱藏神經(jīng)元。圖2-8.第一個(gè)感受野圖2-9.第二個(gè)感受野卷積層第二個(gè)概念就是共享權(quán)重,上面提到,每一個(gè)隱含層神經(jīng)元所對(duì)應(yīng)的5*5=25個(gè)權(quán)重參數(shù)w和一個(gè)bias,實(shí)際上我們規(guī)定,每一個(gè)隱含層神經(jīng)元的25個(gè)權(quán)值w和b都共享,也就是說隱藏層神經(jīng)元共享權(quán)值。共享權(quán)重有什么好處呢,參數(shù)個(gè)數(shù)的大大減少和平移的不變性都是得益于共享權(quán)重。卷積層的最后一個(gè)層就是池化層,池化層一般都是接在卷積層后面,其作用是用于是一個(gè)下采樣,例如,下圖就是使用max-pooling把四個(gè)神經(jīng)元壓縮為一個(gè)神經(jīng)元:取其最大的像素值,其它丟棄。(當(dāng)然也有其它的pooling例如
L2pooling是把2x2的區(qū)域值平方,求和,開根號(hào))。上圖24x24的特征圖經(jīng)過2x2的max-pooling之后變成了12x12的特征圖。圖2-10.池化層2.4目標(biāo)檢測(cè)簡(jiǎn)介目標(biāo)檢測(cè)和跟蹤是從復(fù)雜的背景中檢測(cè)目標(biāo)并進(jìn)行跟蹤預(yù)測(cè)等,以提供信息以進(jìn)行進(jìn)一步的分析和處理。所以目標(biāo)檢測(cè)與跟蹤技術(shù)是單攝像機(jī)多目標(biāo)跟蹤技術(shù)的基礎(chǔ)。該模塊的性能將對(duì)單攝像機(jī)多目標(biāo)跟蹤系統(tǒng)的性能產(chǎn)生重大影響。目標(biāo)檢測(cè)是指從復(fù)雜的圖像(視頻)背景中定位出目標(biāo),并分離背景,對(duì)目標(biāo)進(jìn)行分類,找到感興趣的目標(biāo),從而更好地完成后續(xù)的跟蹤、信息處理與響應(yīng)等任務(wù)。目標(biāo)檢測(cè)在很多領(lǐng)域都有應(yīng)用,比如對(duì)于臉部、行車、路人等物體的檢測(cè),以及一些交叉領(lǐng)域的應(yīng)用,比如自動(dòng)駕駛領(lǐng)域交通標(biāo)志的識(shí)別、工程領(lǐng)域里材質(zhì)表面的缺陷檢測(cè),農(nóng)作物病害檢測(cè)和醫(yī)學(xué)圖像檢測(cè)等等,所以對(duì)目標(biāo)檢測(cè)的研究很有實(shí)際價(jià)值。圖2-11.單目標(biāo)檢測(cè)與多目標(biāo)檢測(cè)除了圖像分類,目標(biāo)檢測(cè)要解決的核心問題如下。首先,目標(biāo)可以出現(xiàn)在圖像中的任何位置。其次,鏡頭有各種尺寸。第三,目標(biāo)可以采取多種形式。如果使用矩形定義物鏡,則矩陣具有不同的縱橫比。由于鏡頭的縱橫比不同,因此使用經(jīng)典的滑動(dòng)窗口和圖像縮放方案來解決一般鏡頭檢測(cè)問題的成本可能會(huì)相對(duì)較高。目前來說,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要分為以下兩類。第一類叫做TwoStage目標(biāo)檢測(cè)算法,這一類算法一般都是先進(jìn)行區(qū)域生成(regionpropsal)(一個(gè)有可能包含待檢測(cè)物體的預(yù)選框),通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本分類,常見的TwoStage目標(biāo)檢測(cè)算法有:R-CNN、SPP-Net、FastR-CNN、FasterR-CNN和R-FCN等。第二類是OneStage目標(biāo)檢測(cè)算法,這一種算法是可以直接在網(wǎng)絡(luò)中提取特征來預(yù)測(cè)物體分類的位置,常見的OneStage目標(biāo)檢測(cè)算法有:OverFeat、YOLO、SSD、RetinaNet等等。2.5圖像分類簡(jiǎn)介對(duì)于人類來說,圖像分來的問題一眼就能看出了,不過對(duì)于計(jì)算機(jī)而言,她很難分析圖像的內(nèi)容,因?yàn)橛?jì)算機(jī)看到的圖像是一個(gè)很好的數(shù)字矩陣,并且對(duì)圖像的思想,含義和知識(shí)一無所知。圖像分類任務(wù)是給出圖像并正確給出圖像所屬的類別。對(duì)于超強(qiáng)大的人類視覺系統(tǒng),很容易識(shí)別圖像的類型,但是對(duì)于計(jì)算機(jī),則不可能獲得像人眼一樣的圖像的語義信息。為了讓計(jì)算機(jī)能夠理解圖像的內(nèi)容,我們必須應(yīng)用圖像分類,這是使用計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)算法從圖像中抽取意義的任務(wù),這一個(gè)操作可以理解為一張圖像分配一個(gè)標(biāo)簽,比如貓、狗還是大象,或者也可以高級(jí)到解析圖像的內(nèi)容并且返回一個(gè)人類可讀的句子。三、實(shí)驗(yàn)環(huán)境搭建3.1Keras框架簡(jiǎn)介Keras是基于Theano的一個(gè)深度學(xué)習(xí)框架,它的設(shè)計(jì)參考了Torch,Keras使用Python語言編寫,是一個(gè)高度模塊化的神經(jīng)網(wǎng)絡(luò)庫,它還可以支持CPU和GPU。Keras是一個(gè)高層神經(jīng)網(wǎng)絡(luò)API為什么使用keras框架呢,因?yàn)閗eras高度封裝了Tensorflow,深度學(xué)習(xí)初學(xué)者使用tensorflow會(huì)出現(xiàn)各種各樣的問題,所以從keras入手是一個(gè)非常不錯(cuò)的選擇。3.2搭建Keras框架3.2.1系統(tǒng)環(huán)境本文所在的環(huán)境是Windows10系統(tǒng),python3.6版本,python的安裝我推薦是Anaconda,它是一個(gè)適用于科學(xué)計(jì)算的版本,集成了很多需要用到的庫,編譯環(huán)境的話我推薦是Pycharm,Pycharm的社區(qū)版就已經(jīng)可以滿足需求。3.2.2CUDA和CUDNNCudaToolkit是一個(gè)基礎(chǔ)的工具包,是由NVIDIA公司面向GPU編程提供的,如果使用的是CPU加速的話,就不需要安裝CUDA和CUDNN,如果使用的是GPU的話,就需要用到CUDA和CUDNN了,而且你的顯卡還要是NVIDIA,根據(jù)你的顯卡驅(qū)動(dòng)來選擇CUDA的版本,在下載之后,按照步驟安裝,環(huán)境不需要配置,安裝程序會(huì)自動(dòng)配置好。接下來的是CUDNN,CUDNN的話需要根據(jù)CUDA的版本一一對(duì)應(yīng),cudnn下載的是一個(gè)壓縮包,下載解壓出來是名為cuda的文件夾,里面有bin、include、lib,將三個(gè)文件夾復(fù)制到安裝CUDA的地方覆蓋對(duì)應(yīng)文件夾。3.2.3Keras框架搭建在CMD命令行或者Powershell中輸入:#GPU版本pipinstalltensorflow-gpu#CPU版本pipinstalltensorflowGPU和CPU版本任選其一。#Keraspipinstallkeras上述步驟完成后,在自己的編譯器里面執(zhí)行以下代碼importkeras,如果沒有報(bào)錯(cuò)的話就說明安裝成功。3.3基于Keras的開源YOLOV3框架Yolov3是一種目標(biāo)檢測(cè)算法,本文的人臉目標(biāo)檢測(cè)使用的是yolov3的算法,接下來介紹一下主要使用的py文件。圖3-1.YOLOV3框架font文件夾對(duì)應(yīng)著是字體的格式,model_data文件夾對(duì)應(yīng)著的是classes和anchors的相關(guān)文件,yolo3文件夾里面包含的是一些yolov3的結(jié)構(gòu)源代碼,之后我會(huì)介紹一些主要用到的python文件,convert.py是用來轉(zhuǎn)化在yolo官網(wǎng)上下載的權(quán)重,我猜想是轉(zhuǎn)換成這個(gè)keras框架可用的權(quán)重,kmeans.py文件是一個(gè)kmeans聚類算法的文件,用來得出你需要訓(xùn)練的數(shù)據(jù)集的anchors,train.py文件無疑是訓(xùn)練的python代碼,yolo.py里面是一些構(gòu)建yolov3的代碼,yolo_video.py里面是用來使用yolov3去相關(guān)實(shí)踐,yolov3.cfg是yolov3框架的配置文件。3.4基于keras的VGG16模型VGG16這個(gè)框架相信大家都比較熟,VGG16的結(jié)構(gòu)非常簡(jiǎn)單首先VGG模型根據(jù)卷積核的大小和卷積層數(shù)目的不同,可以分為A,A-LRN,B,C,D,E六個(gè)配置,其中D和E的配置比較常用,被稱為VGG16和VGG19,下圖給出VGG的六種配置圖:圖3-2.VGGNet結(jié)構(gòu)圖由于本文使用的是VGG16模型,所以對(duì)VGG16模型進(jìn)行討論。觀看上圖的配置圖可以發(fā)現(xiàn),VGG16包含了13個(gè)卷積層,3個(gè)全連接層,5個(gè)池化層,因?yàn)槌鼗瘜硬淮嬖趨?shù),所以只有卷積層和全連接層存在參數(shù),13+3=16,因此給稱之為VGG16模型,VGG16模型特點(diǎn)是簡(jiǎn)單,因?yàn)橹挥衅胀ǖ木矸e層,全連接層,池化層所構(gòu)成的網(wǎng)絡(luò),只是層數(shù)相對(duì)有點(diǎn)多而已,當(dāng)然,對(duì)于現(xiàn)在的網(wǎng)絡(luò)來說16層是非常淺的網(wǎng)絡(luò)了,但是在2014年的時(shí)候,16層的網(wǎng)絡(luò)已經(jīng)算是非常深了。圖中的block稱為結(jié)構(gòu)塊,可以看到block1和block2的結(jié)構(gòu)是差不多的,兩層卷積層加一個(gè)最大池化層,只是卷積層的filters個(gè)數(shù)不一樣,block3,block4,block5就是三個(gè)卷積層和一個(gè)最大池化層,也只是卷積層的filters參數(shù)不一樣,VGG16還有一個(gè)特點(diǎn)就是參數(shù)量比較大,VGG16具有如此之大的參數(shù)數(shù)量,也可以預(yù)測(cè)得出它的擬合能力,但缺點(diǎn)也是非常明顯的,也就是訓(xùn)練時(shí)間過長(zhǎng),調(diào)參難度比較大,接下來給出keras里面的VGG16模型的相關(guān)參數(shù),然后VGG16的介紹就到此為止了。四、詳細(xì)實(shí)現(xiàn)4.1數(shù)據(jù)集介紹本文選取的數(shù)據(jù)集是fer2013表情識(shí)別數(shù)據(jù)集和FDDB人臉目標(biāo)檢測(cè)數(shù)據(jù)集,fer2013數(shù)據(jù)集非常簡(jiǎn)單,就是一個(gè)包含7種表情的數(shù)據(jù)集,有生氣、厭惡、恐懼、開心、傷心、驚訝、中性,該數(shù)據(jù)集是一個(gè)csv文件,里面有圖片圖像的像素和對(duì)應(yīng)的標(biāo)簽,每張圖片的尺寸是48*48,對(duì)應(yīng)的是灰度圖片。FDDB數(shù)據(jù)集一共包含2845張圖片,其中包含彩色圖片和灰度的圖片,其中人臉的總數(shù)達(dá)到5500個(gè)以上,而且這些人臉的圖片所呈現(xiàn)的狀態(tài)多樣,包含遮擋、罕見姿勢(shì)、低分辨率的情況,由于該數(shù)據(jù)集采用的是橢圓標(biāo)記法:圖4-1.橢圓標(biāo)注因此需要轉(zhuǎn)換成矩形標(biāo)記法的格式,轉(zhuǎn)換也是比較簡(jiǎn)單的,只需要寫一個(gè)普通的python腳本既可以轉(zhuǎn)換,首先橢圓標(biāo)記法給出的是橢圓的中心點(diǎn)坐標(biāo)和橢圓的長(zhǎng)軸半徑和短軸半徑,因此很容易轉(zhuǎn)換成矩形標(biāo)記法,F(xiàn)DDB數(shù)據(jù)集中還給出了一個(gè)偏移角度,經(jīng)過觀察,偏移角度一般都很小,所以就直接忽略這個(gè)參數(shù)。4.2數(shù)據(jù)的預(yù)處理對(duì)于fer2013的數(shù)據(jù)集而言,我們需要對(duì)其進(jìn)行像素轉(zhuǎn)換成圖片的操作,并且按標(biāo)簽的索引值放進(jìn)每一個(gè)文件夾中,具體代碼如下:defcsv_to_jpg():train=pd.read_csv('train.csv')os.chdir('F://DataSet/expression/img')foriinrange(len(train)):data=train.loc[i]img=np.array(data['pixels'].split()).astype(np.uint8).reshape((48,48,1))cv2.imwrite('{}.jpg'.format(i+1),img)圖4-2.csv轉(zhuǎn)jpg代碼執(zhí)行完之后去到對(duì)應(yīng)目錄就可以看到以下:因?yàn)楹竺嫖覀兪鞘褂胟eras的ImageDataGenerator的圖片生成器,所以需要?jiǎng)澐钟?xùn)練集和驗(yàn)證集defsplit_train_to_valid():os.chdir('F:\Py_Code\Expression\\train')foriinrange(10):base_path=os.path.join(os.getcwd(),str(i))end_path=base_path.replace('train','test')len_arr=os.listdir(base_path)need_copy=np.random.choice(np.arange(len(len_arr)),int(len(len_arr)*0.2),replace=False)forjinneed_copy:a=os.path.join(base_path,len_arr[j])b=os.path.join(end_path,len_arr[j])shutil.copy(a,b)forjinneed_copy:os.remove(os.path.join(base_path,len_arr[j]))每一個(gè)種類的表情劃分0.8的訓(xùn)練集0.2的測(cè)試集,所以需要用一個(gè)random來進(jìn)行隨機(jī)選取每一類的百分之20的圖片,然后利用shutil的庫來進(jìn)行對(duì)應(yīng)的圖片復(fù)制到vaild文件夾,然后再將train復(fù)制到valid的圖片刪除,完成了劃分訓(xùn)練集和測(cè)試集,弄成這個(gè)模式是因?yàn)镮mageDataGenerator里面有一個(gè)非常好的功能是flow_from_directory,可以不需要將圖片全部讀進(jìn)去內(nèi)存,非常的好用,弄成這個(gè)格式就是方便使用這個(gè)函數(shù)。對(duì)于FDDB的數(shù)據(jù)集,只需要把橢圓標(biāo)注轉(zhuǎn)換成矩形標(biāo)注就可以了。4.3目標(biāo)檢測(cè)yolov3yolov3發(fā)現(xiàn)需要5樣?xùn)|西即可進(jìn)行訓(xùn)練,第一個(gè)是訓(xùn)練的數(shù)據(jù)路徑和坐標(biāo)框,寫在一個(gè)txt文件里面,第二個(gè)是對(duì)yolov3.cfg配置文件進(jìn)行修改,第三個(gè)是classes.txt文件,里面是你這個(gè)訓(xùn)練集的標(biāo)簽,第四個(gè)是anchors.txt文件,里面是你這個(gè)數(shù)據(jù)集通過kmeans聚類得出的9個(gè)anchors框,最后一個(gè)是需要在yolo官網(wǎng)上下載yolov3的預(yù)訓(xùn)練權(quán)重,之后用里面一個(gè)convert.py文件進(jìn)行轉(zhuǎn)換成這個(gè)框架可以用的權(quán)重。完成這5個(gè)東西之后就可以進(jìn)行訓(xùn)練yolov3了。通過訓(xùn)練網(wǎng)絡(luò),效果非常不錯(cuò)。下面給出一些模型效果圖和訓(xùn)練的loss和val_loss變化圖。圖4-5.yolov3檢測(cè)效果圖4-6.yolov3訓(xùn)練loss變化4.4圖像分類VGG16對(duì)于VGG16的訓(xùn)練是比較簡(jiǎn)單的,下面貼出訓(xùn)練代碼:inputs=Input(shape=(224,224,3))vggnet16=vgg16.VGG16(input_tensor=inputs,classes=7,include_top=False,weights='vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5')net=GlobalAveragePooling2D()(vggnet16.layers[-1].output)net=Dense(7,activation='softmax')(net)model=Model(inputs,net)pile(optimizer=SGD(),loss=categorical_crossentropy,metrics=['accuracy'])model.summary()train_generator,valid_generator=get_data_generate()model.fit_generator(train_generator,steps_per_epoch=1000,verbose=2,epochs=50,validation_data=valid_generator,validation_steps=100,callbacks=[ModelCheckpoint('model/VGG16_{epoch:03d}_{val_loss:.4f}.h5',monitor='val_loss',verbose=1,mode='auto',save_best_only=True),ReduceLROnPlateau(factor=0.8,patience=3,verbose=1,mode='auto',monitor='val_loss'),CSVLogger('model/train.log')])第一行的Input是一個(gè)輸入層,結(jié)合Model類使用,第二行是定義VGG16模型,類別是有7類,所以classes參數(shù)設(shè)定為7,因?yàn)槲臋n上寫明,如果classes不為1000的話,include_top這個(gè)參數(shù)必定要設(shè)置為False,否則會(huì)報(bào)錯(cuò),然后添加一個(gè)GlobalAveragePooling2D層,這個(gè)是一個(gè)全局平均池化層,可以用于卷積層和全連接層的連接處,因?yàn)橐话愕木矸e層輸出是多維的,這個(gè)全局平均池化層可先將每一張?zhí)卣鲌D的全局平均值求出來,然后再連接起來,最后變成一個(gè)一維向量,第四行代碼是一個(gè)全連接層的操作,激活函數(shù)是softmax,因?yàn)槭嵌喾诸?,然后下一行是利用一個(gè)Model類把input和output結(jié)合起來,變成一個(gè)model,下一行是定義模型的損失函數(shù),損失函數(shù)使用交叉熵,優(yōu)化器經(jīng)過測(cè)試,使用SGD效果是最好的,再把metrics定義好,添加精度的計(jì)算(accuracy),這里采用的是利用keras的ImageDataGenerator,train_datagen
=
ImageDataGenerator(
rotation_range=30,
#
旋轉(zhuǎn)角度
width_shift_range=0.1,
#
寬度的偏移
height_shift_range=0.1,
#
高度的偏移
rescale=1
/
255.0,
#
歸一化
horizontal_flip=True,
#
水平翻轉(zhuǎn)
)
train_generator
=
train_datagen.flow_from_directory(
'F://DataSet/expression/train',
target_size=(224,
224),
#
圖像大小
batch_size=32,
#
batch大小
class_mode='categorical',
#
多分類模式
shuffle=True,
#
打亂數(shù)據(jù)
)
valid_datagen
=
ImageDataGenerator(
rescale=1
/
255.0,
)
valid_generator
=
valid_datagen.flow_from_directory(
'F://DataSet/expression/valid',
target_size=(224,
224),
batch_size=32,
class_mode='categorical',
#
color_mode='grayscale',
shuffle=True,
)訓(xùn)練50次,添加了3個(gè)callbacks函數(shù),一個(gè)是ModelCheckPoint,這個(gè)是用來根據(jù)val_loss保存最好的模型,ReduceLROnPlateau是用來如果val_loss多少個(gè)patience次沒減少,就把學(xué)習(xí)率*factor,意思就是當(dāng)多少次val_loss還沒有下降,就把模型的學(xué)習(xí)率乘以factor參數(shù),CSVLOGGER是用來記錄訓(xùn)練過程中的loss和acc變化。因?yàn)閂GG16模型訓(xùn)練時(shí)間非常長(zhǎng),所以我只訓(xùn)練了20次,下面貼出一些結(jié)果:圖4-9.VGGNet訓(xùn)練模型是存在過擬合的,不過對(duì)于這個(gè)數(shù)據(jù)集,kaggle上的第一也只是0.71,所以我這個(gè)val_acc能達(dá)到0.66我覺得也不錯(cuò)了,因?yàn)閿?shù)據(jù)集中有些很亂的圖片,估計(jì)是數(shù)據(jù)集的問題,但是實(shí)際效果也還行:圖4-10.測(cè)試VGG模型用圖對(duì)于這張圖片的輸出是happiness。4.5結(jié)合模型yolov3和vgg16訓(xùn)練完成后,最后只需要把兩個(gè)代碼結(jié)合起來。yolov3=YOLO()vgg16=load_model('model/VGG16.h5')since=time.time()PIL_img=Image.open(img_path)cv2_img=cv2.imread(img_path)face_rectangle,_img,font=yolov3.detect_image(PIL_img.copy())draw=ImageDraw.Draw(PIL_img)forfaceinface_rectangle:top,left,bottom,right=face[:4]face_img=cv2_img[top:bottom,left:right]face_img=cv2.resize(face_img,(224,224))face_img=np.array(face_img).reshape((-1,224,224,3))/255.0face_img_label=fer2013[np.argmax(vgg16.predict(face_img)[0],axis=0)]print(face_img_label)draw.rectangle([left,top,right,bottom])draw.text(face[4],face_img_label,fill=(0,0,0),font=font)print(time.time()-since)PIL_img.show()首先需要把yolo模塊導(dǎo)入進(jìn)來,然后再加載vgg16模型,具體做法是把yolo預(yù)測(cè)出來的人臉框從圖片中截取出來,然后進(jìn)行一些操作再給vgg16模型,vgg16用來預(yù)測(cè)表情,yolov3負(fù)責(zé)尋找人臉,最后再通過一些ImageDraw在圖片上添加標(biāo)注,下面給出效果圖:圖4-12.組合模型效果圖上面三張圖分別是開心,傷心,驚訝,效果還是可以的。五、總結(jié)5.1工作總結(jié)本文的主要工作有以下內(nèi)容:對(duì)于圖像分類來說,數(shù)據(jù)集fer2013是一個(gè)csv文件,所以第一步需要將它轉(zhuǎn)為圖片文件,并且按標(biāo)簽分好類,之后需要?jiǎng)澐钟?xùn)練集和驗(yàn)證集,訓(xùn)練模型的話,其實(shí)我也訓(xùn)練過VGG16,VGG19還有自己搭建的模型,最后采納了VGG16,其實(shí)VGG16和VGG19模型效果差不多,但是VGG16模型會(huì)比VGG19模型小一點(diǎn),所以最后采納了VGG16的模型,訓(xùn)練的時(shí)候利用了ImageDataGenerator來增強(qiáng)數(shù)據(jù),使模型更具魯棒性。對(duì)于目標(biāo)檢測(cè)的話,數(shù)據(jù)集FDDB使用的是橢圓標(biāo)注,所以第一步需要將橢圓標(biāo)注轉(zhuǎn)換成矩形標(biāo)注,然后就把yolov3需要的東西都弄好,例如anchors.txt,classes.txt,train.txt,修改yolov3.cfg文件等等。然后就開始進(jìn)行訓(xùn)練。訓(xùn)練的時(shí)候一般是先采用fine-tune操作,就是只訓(xùn)練最后的輸出層,如果能得到一個(gè)較好的結(jié)果的話,就不用訓(xùn)練整個(gè)網(wǎng)絡(luò),但是發(fā)現(xiàn)如果只訓(xùn)練最后的輸出層效果非常差,之后我就訓(xùn)練了整個(gè)網(wǎng)絡(luò),訓(xùn)練整個(gè)網(wǎng)絡(luò)的效果就比較不錯(cuò)。最后的話模型結(jié)合,這個(gè)的話相對(duì)比較簡(jiǎn)單,就是把yolov3預(yù)測(cè)出來的坐標(biāo)框從圖像中截取出來,然后放進(jìn)去VGG16里面進(jìn)行預(yù)測(cè)表情結(jié)果。5.2不足其實(shí)本次實(shí)驗(yàn)的不足還是有挺多的,對(duì)于圖像分類的話,由于表情識(shí)別的數(shù)據(jù)集實(shí)在是很難找,這個(gè)fer2013的數(shù)據(jù)集估計(jì)是噪音很多,因此驗(yàn)證集的精度一直提不上去,我認(rèn)真看了下數(shù)據(jù)集,發(fā)現(xiàn)很多圖片都是很奇怪,有些表情我都分別不出他是屬于那種表情,不過出來的效果還算可以,只不過需要表情做得比較夸張才可以識(shí)別出來,而且數(shù)據(jù)集的分布也是不太好,有些表情有幾千張圖片,有些表情只有一千張圖片,這會(huì)導(dǎo)致訓(xùn)練的時(shí)候出現(xiàn)問題。再來就是硬件的問題,由于硬件不夠好,所以訓(xùn)練的時(shí)候非常難受,訓(xùn)練的時(shí)間非常長(zhǎng),如果硬件好一點(diǎn)的話,可以訓(xùn)練更長(zhǎng)的時(shí)間來獲得更好的效果,也可以有更多的時(shí)間去嘗試其他模型,來綜合對(duì)比。參考文獻(xiàn)[1]陳凌宇.基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉特征點(diǎn)檢測(cè)的研究[J].中國(guó)優(yōu)秀碩士學(xué)位論文全文數(shù)據(jù)庫,2017(10):80-80.
[2]劉鈺鵬.深度學(xué)習(xí)研究概述[J].信息與電腦,2016(3):2-2.
[3]陳軻.基于人工智能算法的圖像識(shí)別與生成[J].電腦知識(shí)與技術(shù):學(xué)術(shù)交流,2018(5):3-3.
[4]楊夢(mèng)卓郭夢(mèng)潔方亮.基于keras的卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法研究[J].科技風(fēng),2019(23):123-124.
[5]加日拉·買買提熱衣木常富蓉劉晨要秀宏.主流深度學(xué)習(xí)框架對(duì)比[J].電子技術(shù)與軟件工程,2018(7):1-1.
[6]蔣燕.基于間歇控制策略的時(shí)滯神經(jīng)網(wǎng)絡(luò)的鎮(zhèn)定與同步研究[J].中國(guó)優(yōu)秀碩士學(xué)位論文全文數(shù)據(jù)庫,2016(02):78-78.
[7]劉艷鵬朱立新周永章.卷積神經(jīng)網(wǎng)絡(luò)及其在礦床找礦預(yù)測(cè)中的應(yīng)用——以安徽省兆吉口鉛鋅礦床為例[J].巖石學(xué)報(bào),2018(11):53-60.
[8]胡雄沈永明.在線式設(shè)備振動(dòng)狀態(tài)自動(dòng)識(shí)別系統(tǒng)的研究[J].振動(dòng)與沖擊,1997(4):6-6.
[9]鄒永祥吳建平曾定平.多道X熒光儀在地化測(cè)井巖性識(shí)別中的應(yīng)用研究[J].石油天然氣學(xué)報(bào),2008(05):13-13.
[10]崔瑩瑩舒清態(tài).人工神經(jīng)網(wǎng)絡(luò)在林業(yè)中的應(yīng)用現(xiàn)狀與趨勢(shì)[J].西南林業(yè)大學(xué)學(xué)報(bào),2013(05):102-107.
[11]韋妍.人臉表情識(shí)別概述[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2011(08):79-81.
[12]李策陳海霞漢語左勝甲趙立剛.深度學(xué)習(xí)算法中卷積神經(jīng)網(wǎng)絡(luò)的概念綜述[J].電子測(cè)試,2018(23):63-64.
[13]劉飛帆李媛夏飛周靜.一種基于DBN-SVDD的APT攻擊檢測(cè)方法[J].計(jì)算機(jī)科學(xué)與應(yīng)用,2017(11):10-10.
[14]白東明.分布式光纖傳感安防系統(tǒng)的信號(hào)識(shí)別方法研究[J].化工管理,2015(17):128-130.
[15]程培洲謝亮亮.基于人臉識(shí)別的警務(wù)安全應(yīng)用淺析[J].信息周刊,2018(5):1-1.
[16]李鵬松劉欣李俊達(dá).基于免疫遺傳算法的自組織映射網(wǎng)絡(luò)應(yīng)用研究[J].東北電力大學(xué)學(xué)報(bào),2018(06):86-89.
[17]吳榮春.軍事信息系統(tǒng)中信息融合關(guān)鍵技術(shù)研究[J].中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫,2016(02):125-125.
[18]薛艷杰鄧燕妮.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究[J].科技風(fēng),2019(11):112-112.
[19]方彥.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別研究[J].現(xiàn)代信息科技,2019(14):89-91.[20]人臉表情識(shí)別綜述[J].楊曉龍,閆河,張楊.
數(shù)字技術(shù)與應(yīng)用.
2018(02)[21]面向人臉表情識(shí)別的遷移卷積神經(jīng)網(wǎng)絡(luò)研究[J].翟懿奎,劉健.
信號(hào)處理.
2018(06)[22]面向人工智能的人臉表情識(shí)別系統(tǒng)研究[J].金燦.
電子技術(shù)與軟件工程.
2016(14)[23]基于多特征融合的人臉表情識(shí)別[J].朱婭妮,杜加友.
杭州電子科技大學(xué)學(xué)報(bào).
2009(05)[24]基于多特征融合密集殘差CNN的人臉表情識(shí)別[J].馬中啟,朱好生,楊海仕,王琪,胡燕海.
計(jì)算機(jī)應(yīng)用與軟件.
2019(07)[25]基于深度學(xué)習(xí)的人臉表情識(shí)別方法研究[J].原淵.
電腦迷.
2018(04)致謝歲月不居,時(shí)節(jié)如流,大學(xué)四年的時(shí)間一眨眼就過去了,此刻,我的內(nèi)心是喜悅與不舍,喜悅的是在東軟學(xué)院的四年時(shí)光里,學(xué)習(xí)到許多寶貴的知識(shí),在校青志隊(duì)與校園實(shí)踐里學(xué)會(huì)了做人做事的道理,很好地培養(yǎng)了我的綜合實(shí)力,認(rèn)識(shí)了一群志同道合又可愛的朋友和同學(xué),還有一群敬業(yè)又有趣的老師,收獲了自己的成長(zhǎng),明確了人生的目標(biāo)和方向,舍不得的是即將要離開這美麗的東軟校園,即將離開長(zhǎng)達(dá)16年的學(xué)生生涯,即將走到社會(huì)上。舍不得我的同學(xué)和老師們,盡管以后可以聚會(huì),但是校園的時(shí)光一去不復(fù)返,舍不得學(xué)校美麗的星光大道~在即將畢業(yè)之際,我要感謝我的家人,我的老師,我的朋友同學(xué)同事們!首先,我要感謝陳桂蓉老師,作為我本次畢業(yè)設(shè)計(jì)與論文的指導(dǎo)老師,本次畢設(shè)一波三折,經(jīng)歷過換題目,開題報(bào)告等等,陳老師都很耐心的指導(dǎo)我怎么去更換等等。感謝她在我論文寫作與修改的環(huán)節(jié)的悉心教導(dǎo)和幫助,感謝老師讓我自己選擇想要做的項(xiàng)目。衷心祝福老師幸福、健康!其次我要感謝我的家人,受這次新冠肺炎的影響,無法返校寫論文,因此前半段都是在家里去完成的,感謝我的家人無微不至的照顧和支持,為我營(yíng)造良好的創(chuàng)作氛圍,讓我可以全身心得投入這次的畢設(shè)當(dāng)中。還有一部份的畢設(shè)是在實(shí)習(xí)期間的下班時(shí)間完成的,在這個(gè)過程中是比較艱辛的,感謝朋友與同事同學(xué)的鼓勵(lì)與幫助。再見了我的大學(xué),我的老師,我的同學(xué)。青春正好,不負(fù)昭陽,我將一路上伴隨著夢(mèng)想,在建設(shè)祖國(guó)信息系統(tǒng)這條道路上增添自己的一份力量。
PowerPoint課件制作實(shí)用技巧PowerPoint是微軟公司生產(chǎn)的制作幻燈片和簡(jiǎn)報(bào)的軟件(以下簡(jiǎn)稱PPT)。在我們?cè)S多人看來,它只不過是一個(gè)簡(jiǎn)單地對(duì)文字、圖形、圖片進(jìn)行演示的軟件,教學(xué)中的課件制作軟件當(dāng)屬Authorware、Flash。Authorware和Flash制作的動(dòng)畫效果的確很好,而且它們的功能也很強(qiáng)大。不過這些軟件在制作課件的過程中往往非常耗時(shí),用這些專業(yè)軟件來制作課件用于平時(shí)的教學(xué)往往效率很低。PPT就是一個(gè)非常簡(jiǎn)單、實(shí)用的制作課件的軟件,只要你用好它,同樣能做非常棒的課件來。一、掌握基本,知道“插入”。(一)知道從“插入”菜單進(jìn)入,會(huì)給PPT課件添加文字、圖片、影片和聲音等,也就會(huì)做一般的課件了。(二)圖片插入與處理1.插入圖片具體方法:a)插入剪貼畫或文件中的圖片;b)添加圖片做背景;c)給自選圖形做填充。2.處理圖片具體方法:我們用PPT制作課件時(shí),經(jīng)常從網(wǎng)上下載圖片來用,而網(wǎng)絡(luò)中的圖片往往含有超鏈接和網(wǎng)站名稱痕跡,我們需要?jiǎng)h除其中超鏈接,并對(duì)圖片進(jìn)行裁剪處理。在Powerpoint中,我們一般可以利用“圖片”工具欄上的“裁剪”工具進(jìn)行裁剪處理,但是,這里的工具只能對(duì)圖片進(jìn)行矩形裁剪,若想裁剪成圓形、多邊形等其他形狀,通常方法就無能為力了。其實(shí)這個(gè)問題在PPT中是可以解決的。我們用給自選圖形做填充圖片的方法就可以實(shí)現(xiàn)我們需要的效果。具體步驟:a)首先利用“繪圖”工具欄畫一個(gè)想要裁剪的圖形,如橢圓。b)選中橢圓后單擊“繪圖”工具欄上“填充顏色”按鈕右側(cè)黑三角,從列表菜單中單擊“填充效果”命令。c)打開選擇“圖片”選項(xiàng)卡,單擊〔選擇圖片〕按鈕,從“選擇圖片”對(duì)話框中找到合適的圖片,單擊〔插入〕按鈕后返回到“填充效果”對(duì)話框最后單擊〔確定〕按鈕后退出。此圖片當(dāng)作橢圓圖形的背景出現(xiàn),改變了原來的矩形形狀,獲得了滿意的裁剪圖片效果。圖片在插入PPT之前,我們可以用ACDSEE軟件進(jìn)行加工,如改變大小,裁剪等操作。二、學(xué)會(huì)下載,查找方法。在制作課件過程中,我們時(shí)常需要從網(wǎng)絡(luò)上下載各種資源用以豐富課件內(nèi)容,提升課堂效果。但有許多網(wǎng)站的flash動(dòng)畫都不提供下載;還有網(wǎng)站為我們提供了許多視頻素材,這些視頻素材都是FLV流媒體格式。FLV流媒體格式是一種新的視頻格式,全稱為FlashVideo。由于它形成的文件極小、加載速度極快,使得網(wǎng)絡(luò)觀看視頻文件成為可能,它的出現(xiàn)也有效地解決了視頻文件導(dǎo)入Flash后,使導(dǎo)出的SWF文件體積龐大,不能在網(wǎng)絡(luò)上很好的使用等缺點(diǎn)。目前各在線視頻網(wǎng)站均采用此視頻格式。如新浪播客、56、優(yōu)酷、土豆、酷6等,無一例外。FLV已經(jīng)成為當(dāng)前視頻文件的主流格式。這些網(wǎng)站一般都不提供下載。我們想要這些素材,怎樣辦?1.尋找下載方法:a)在百度網(wǎng)站搜索欄中輸入下載的內(nèi)容,搜索下載方法。b)弄清格式,再搜索方法。2.具體方法推薦①flasah動(dòng)畫的下載方法一:IE緩存中尋找在網(wǎng)上看過一個(gè)flash后,一般情況下都會(huì)保存在IE緩存里。右擊桌面上的IE圖標(biāo),選“屬性”命令,單擊中間的“設(shè)置”按鈕,彈出“Internet臨時(shí)文件和歷史記錄設(shè)置”面板,單擊“查看文件”,可以打開臨時(shí)文件夾,按時(shí)間排序,找到剛才打開的flash動(dòng)畫文件。優(yōu)點(diǎn):不需要安裝其它軟件。缺點(diǎn):操作相對(duì)煩瑣。方法二:借助Flashsaver等軟件下載,這些軟件都可以快速、方便的下載你所需要的flash文件。優(yōu)點(diǎn):簡(jiǎn)單、方便、快速。缺點(diǎn):需要安裝使用。②FLV視頻的獲取方法一:IE緩存中尋找,方法同flasah。方法二:flv視頻解析下載/三、學(xué)用控件,轉(zhuǎn)化應(yīng)用1.flash動(dòng)畫的插入方法一:安裝flash插件,再插入flash。步驟:a)安裝“ppt插flash軟件”插件;b)單擊“插入”→“flashmovie”→打開要播放的flash文件→確定。方法二:利用控件插入flash動(dòng)畫。步驟:a)插入“ShockwaveFlashObject”控件對(duì)象:右擊“工具欄”→選“控件工具箱”(或點(diǎn)“視圖→工具欄→控件工具箱”);點(diǎn)“其他控件”(控件工具箱中最后一個(gè)形似錘子斧頭的按鈕),拖動(dòng)滾動(dòng)條或在英文輸入法狀態(tài)下按鍵盤上“s”鍵,快速定位到以s開頭的控件,選擇“ShockwaveFlashObject”控件。將鼠標(biāo)移到幻燈片工作區(qū),鼠標(biāo)指針變成“十”字型,拖動(dòng)鼠標(biāo)繪制出一個(gè)形似信封的矩形。b)打開控件對(duì)象“屬性”對(duì)話框:右擊矩形控件對(duì)象,在彈出的快捷菜單中選“屬性”命令。c)正確設(shè)置控件對(duì)象屬性:主要是在“Movie”空白文本域中正確輸入演示文稿要播放的.swf動(dòng)畫的完整名稱。d)將控件對(duì)象適當(dāng)縮放:為了獲得比較好的播放效果,拖動(dòng)控件對(duì)象的縮放點(diǎn)使它幾乎覆蓋整個(gè)幻燈片工作區(qū),但要在幻燈片工作區(qū)底部保留少許空白區(qū)域。這樣既可以享受.swf動(dòng)畫大屏幕播放的好處,又能夠保證幻燈片能夠順利地切換。e)一般情況下,幻燈片應(yīng)顯示出動(dòng)畫的第一幀圖形。如果控件對(duì)象仍是空白的,可保存演示文稿,關(guān)閉后再打開它,按F5放映幻燈片,應(yīng)該能夠正確播放動(dòng)畫。2.FLV視頻的插入FLV視頻與FLASH不一樣的。全稱是flashvideo,所用的播放器也不一樣。①利用控件插入PPT的方法也是有區(qū)別的。不同點(diǎn):先要下載pptflv.swf文件,此文件是類似于網(wǎng)頁中FLV視頻播放器的一個(gè)Flash文件(可用百度搜索下載下來后記著要改文件名,保留擴(kuò)展名);例如改成:pptflv1.swf“Movie”參數(shù)值填入方法不一樣,參數(shù)值示例:pptflv.swf?file=視頻.FLV“pptflv.swf”即為步驟一下載下來的Flash文件的完整文件,“視頻.FLV”即為需要播放的FLV視頻的文件名,大家只要將pptflv.swf換成自己下載后起的文件名,將“視頻.FLV”換成自己的FLV視頻文件名,則此FLV文件就可以在PowerPoint中播放了。如播放2.flv視頻參數(shù)填法:示例:pptflv1.swf?file=2.FLV②方法二:將flv轉(zhuǎn)換成swf再插入轉(zhuǎn)換軟件:UltraFlashVideoFLVConverter3.2.0軟件說明:該軟件又叫全格式FLV轉(zhuǎn)換器,支持將幾乎所有主流視頻格式轉(zhuǎn)換為FLV或者SWF且對(duì)用戶較為關(guān)心的RealMedia(RM/RMVB...)和QuickTime(MOV/QT...)支持良好。三大特色功能:既可輸出FLV格式,也可輸出SWF格式,甚至同時(shí)輸出FLV+SWF格式。此軟件也支持創(chuàng)建調(diào)用播放的網(wǎng)頁支持導(dǎo)入所有的主流字幕格式。srt,*.sub,*.idx,*.ssa,*.ass,*.psb,*.smi)有字幕合成功能,你現(xiàn)在無需再使用那些繁瑣的專業(yè)軟件來合成字幕到視頻中去,字幕合成與格式轉(zhuǎn)換一氣呵成!支持視頻分割,右鍵點(diǎn)擊列表中的源文件,選擇[編輯視頻],自己設(shè)置下起點(diǎn)終點(diǎn)即可對(duì)視頻進(jìn)行去粗取精處理?、鄯椒ㄈ簩lv轉(zhuǎn)換成其他格式視頻文件再插入工具:FLV轉(zhuǎn)AVI(FreeFLVtoAVIConverter1.5)作用:一個(gè)免費(fèi)的將FLV轉(zhuǎn)換成AVI的軟件,簡(jiǎn)單好用,自帶解碼器。四、學(xué)做交互,理解運(yùn)用。1.利用母版進(jìn)行交互母版≠模版母版和模版可以使課件統(tǒng)一整體風(fēng)格,展現(xiàn)自己的個(gè)性和特點(diǎn);模版是對(duì)同一類課件所做的整體風(fēng)格統(tǒng)一設(shè)置,母版則是對(duì)某一部課件內(nèi)部所做的個(gè)性化統(tǒng)一設(shè)置。母版設(shè)置得好,就可以存為模版,供別人在制作同類題材時(shí)使用。修改幻燈片母板的方法和技巧。如果我們希望為每一張幻燈片添加上一項(xiàng)固定的內(nèi)容,并做超鏈接,可以通過修改“母板”來實(shí)現(xiàn)。a)執(zhí)行“視圖→母板→幻燈片母板”命令,進(jìn)入“幻燈片母板”編輯狀態(tài)。b)插入固定內(nèi)容。例如:將圖片插入到幻燈片中,調(diào)整好大小、定位到合適的位置上。c)給這張圖片插入超鏈接,就可以進(jìn)行交互了。d)單擊“關(guān)閉母板視圖”按鈕退出“幻燈片母板”編輯狀態(tài)。以后添加幻燈片時(shí),該幻燈片上自動(dòng)添加上該圖片。如果說一個(gè)PPT有它的靈魂的話,那就是PPT的母板,它的作用猶如摩天大廈的根基一般。2.在PPT演示文稿中插入PowerPoint演示文稿對(duì)象實(shí)現(xiàn)交互具體效果:①導(dǎo)航目錄內(nèi)容展示效果②單擊小圖片就可看到該圖片的放大圖自動(dòng)縮效果《畫家鄉(xiāng)》一課五個(gè)畫面交互的具體操作方法:a)單擊“插入→對(duì)象”,在出現(xiàn)的選擇頁中選擇“MicrosoftPowerPoint演示文稿”,單擊確定。此時(shí)就會(huì)在當(dāng)前幻燈片中插入一個(gè)“PowerPoint演示文稿”的編輯區(qū)域。b)在此編輯區(qū)域中我們就可以對(duì)插入的演示文稿對(duì)象進(jìn)行編輯了,編輯方法與PowerPoint演示文稿的編輯方法一樣。c)在插入的演示文稿對(duì)象中創(chuàng)建所需的幻燈片??蓪D片設(shè)置為幻燈片相同大小,退出編輯后,就可發(fā)現(xiàn)圖片以縮小方式顯示了(其實(shí)是整個(gè)插入的演示文稿對(duì)象被縮小顯示了)。d)最后,我們只需對(duì)剩余的圖片進(jìn)行插入。為了提高效率,可將這個(gè)插入的演示文稿對(duì)象進(jìn)行復(fù)制,并按照上面的方法對(duì)圖片進(jìn)行替換即可。e)完畢后,單擊“觀看放映”命令進(jìn)行演示,單擊小圖片馬上會(huì)放大,再單擊放大的圖片馬上又返回到了瀏覽小圖片的幻燈片中了。原理:這里的小圖片實(shí)際上是插入的演示文稿對(duì)象,它們的“動(dòng)作設(shè)置”屬性中的“單擊鼠標(biāo)”中的“對(duì)象動(dòng)作”被設(shè)為了“演示”(這是默認(rèn)值)。因此我們?cè)谘菔緯r(shí),單擊小圖片,就是等于對(duì)插入的演示文稿對(duì)象進(jìn)行“演示觀看”。而演示文稿對(duì)象在播放時(shí)就會(huì)自動(dòng)全屏幕顯示。所以我們看到的圖片就好像被放大了一樣,而我們單擊放大圖片時(shí),插入的演示文稿對(duì)象實(shí)際上已被播放完了(因?yàn)橹挥幸粡垼?,它就?huì)自動(dòng)退出,所以就回到了主幻燈片中了。3.用觸發(fā)器控制自定義動(dòng)畫進(jìn)行交互以前我們?cè)谑褂肞owerPoint制作課件時(shí),常常發(fā)現(xiàn)制作人機(jī)交互性的課件非常麻煩。其實(shí)在PowerPoint2003里,用觸發(fā)器控制自定義動(dòng)畫可以輕松地制作出交互性很強(qiáng)的課件。觸發(fā)器功能可以將畫面中的任一對(duì)象設(shè)置為觸發(fā)器,單擊它,該觸發(fā)器下的所有對(duì)象就能根據(jù)預(yù)先設(shè)定的動(dòng)畫效果開始運(yùn)動(dòng),并且設(shè)定好的觸發(fā)器可以多次重復(fù)使用。類似于Authorware、Flash等軟件中的熱對(duì)象、按鈕、熱文字等,單擊后會(huì)引發(fā)一個(gè)或者的一系列動(dòng)作。例1:?jiǎn)螕簟袄馀_(tái)”后,“小球”開始按一定路徑運(yùn)動(dòng)。例2:分別單擊“變色一”和“變色二”,讓“笑臉”顏色。例3:?jiǎn)螕粝旅嬉欢卧挼年P(guān)鍵詞,讓詞語變紅色讀下面一段話,說說從哪些詞語中可以看出侵略者采用了各種野蠻手段掠奪、毀滅圓明園的?他們把園內(nèi)凡是能拿走的東西,統(tǒng)統(tǒng)掠走,拿不動(dòng)的,就用大車或牲口搬運(yùn)。實(shí)在運(yùn)不走的,就任意破壞、毀掉。步驟:a)將原來段落中的重點(diǎn)詞消去;(將詞語顏色變成和背景色一樣)b)將重點(diǎn)詞作為單獨(dú)文本覆蓋到原來位置;c)設(shè)置重點(diǎn)詞自定義動(dòng)畫為“添加效果→強(qiáng)調(diào)→更改字體顏色→紅色”d)右擊重點(diǎn)詞自定義動(dòng)畫,選擇“效果選項(xiàng)”,選擇“計(jì)時(shí)”,選擇“觸發(fā)器”,選“單擊下列對(duì)象時(shí)啟動(dòng)效果”,再選重點(diǎn)詞,按確定。五、學(xué)會(huì)截取,合理選用。(一)視頻的截取加工1.工具:萬能轉(zhuǎn)換器(英文名TotalVideoConverter)作用:可以幫助你快速的分割,修整大的AVI、MPEG、ASF或者WMV文件為一個(gè)個(gè)小的視頻文件,內(nèi)置視頻播放器,你可以很方便的按照所選擇的播放時(shí)間進(jìn)行切割操作,不需要另外具備高深的技術(shù)知識(shí),簡(jiǎn)單容易使用!2.繪聲繪影會(huì)聲會(huì)影是一套操作最簡(jiǎn)單,功能最強(qiáng)悍的DV、HDV影片剪輯軟件。不僅完全符合家庭或個(gè)人所需的影片剪輯功能,甚至可以挑戰(zhàn)專業(yè)級(jí)的影片剪輯軟件。(二)flash的片段截取有時(shí)候,在網(wǎng)絡(luò)上下載了一個(gè)課件,對(duì)自己的課堂教學(xué)有幫助,但是又不想全部應(yīng)用這個(gè)課件,只想取出其中一部分,應(yīng)該則么辦呢?先用碩思閃客精靈將.swf文件和.exe文件轉(zhuǎn)換成fla文件,再用flash8打開進(jìn)行編輯,截取自己所需的片段,然后插入到ppt里面為我所用。1.碩思閃客精靈:它是一款用于瀏覽和解析Flash動(dòng)畫(.swf文件和.exe文件)的工具。最新版本有著強(qiáng)大的功能,可以將swf文件導(dǎo)出成FLA文件。它還能夠?qū)lash動(dòng)畫中的圖片、矢量圖、聲音、視頻(*.flv)、文字、按鈕、影片片段、幀等基本元素完全分解,最重要的是可以對(duì)動(dòng)作的腳本(Actionscript)進(jìn)行解析,清楚的顯示其動(dòng)作的代碼,讓對(duì)Flash動(dòng)畫的構(gòu)造一目了然。支持將SWF文件導(dǎo)出成FLA文件,幫助丟失FLA文件的影片作者重新獲得FLA文件,從而可以再編輯。完全兼容Flash8文件和動(dòng)作腳本(ActionScript)2.0。碩思閃客精靈支持將包含組件的SWF文件轉(zhuǎn)換成FLA格式,用戶可以在Flash中編輯這些組件。支持解析Flash影片中的視屏(video)文件,并將Flash影片中的視頻文件導(dǎo)出為*.flv格式。2.碩思閃客精靈具體使用方法:①解析Flash課件,提取課件素材在Flash課件作品中有大量的圖片、聲音和視頻等資源。由于制作者擁有的資源不同,在制作課件時(shí),很難及時(shí)、方便地尋找到適合的素材。如果可以從同類作品中將所需要的資源提取出來為己所用的話,不僅大大節(jié)約了搜集素材資源的時(shí)間,而且會(huì)極大地提高課件利用率。但是,F(xiàn)lash課件發(fā)布時(shí)一般都進(jìn)行加密處理,使教師無法用普通的方式導(dǎo)入到Flash中進(jìn)行編輯。而碩思閃客精靈可以解析出Flash作品中的元件及腳本,并且可以保存成swf格式,這樣在創(chuàng)作時(shí)就可以直接導(dǎo)入Flash中使用。啟動(dòng)閃客精靈,單擊工具上的“快速打開”按鈕打開一個(gè)Flash動(dòng)畫(可以是swf格式或exe格式),閃客精靈會(huì)自動(dòng)分解當(dāng)前動(dòng)畫(圖2),包括用到的腳本語言(Actions語句),并在資源欄中分類羅列著動(dòng)畫中的各種元件(圖片、按鈕、影片和聲音等);單擊某個(gè)元件,可以在中間的窗口中預(yù)覽;勾選需要的元件,然后單擊“導(dǎo)出”按鈕,就可以把選中的元件分類保存到原文件所在的文件夾中。②反編譯Flash課件,獲取課件源代碼碩思閃客精靈的最大亮點(diǎn)就是能夠?qū)lash動(dòng)畫(swf格式)還原成其源文件(Fla格式),相信這個(gè)功能是很多朋友期待已久的。還原的方法十分的簡(jiǎn)單,只需要打開Flash動(dòng)畫,再單擊工具欄上的“導(dǎo)出Fla”按鈕,選擇保存位置,稍等后就完成了還原工作,此時(shí)還會(huì)提示“是否愿意用Flash打開它”,單擊“Yes”即可啟動(dòng)系統(tǒng)中安裝的Flash打開還原后的源文件,此時(shí)你就可以隨心所欲地對(duì)它進(jìn)行修改啦。3.用flash8進(jìn)行編輯基本方法:選取需要幀,復(fù)制,粘貼到新的flash中,調(diào)試修改。上面介紹了關(guān)于破解Flash課件的一些方法和手段,有一個(gè)特定的使用范圍,即為了課堂教學(xué)服務(wù),只有資源共享才能提高教學(xué)效率,促進(jìn)教學(xué)效果的提高。不能做為商業(yè)目的,也不能將別人的課件的署名修改一下,便成為自己的作品,用于參加比賽,這是不道德的行為。在PPT演示中禁用右鍵快捷菜單和滑鼠滾動(dòng)一大群與會(huì)人員正襟危坐,你豪情滿懷地進(jìn)行著某個(gè)新產(chǎn)品的演示或介紹,卻不小心由于鼠標(biāo)左鍵的誤操作導(dǎo)致幻燈片跳到了本不應(yīng)該出現(xiàn)的位置,或者本應(yīng)按下鼠標(biāo)左鍵切換到下一張,卻由于按下了右鍵而出現(xiàn)一個(gè)快捷菜單。不用擔(dān)心,只要進(jìn)行小小的設(shè)置,就可以將這些煩人的問題統(tǒng)統(tǒng)搞定。從任務(wù)窗格中打開“幻燈片切換”,將換片方式小節(jié)中的“單擊鼠標(biāo)時(shí)”和“每隔”兩個(gè)復(fù)選項(xiàng)全部去除,然后將這個(gè)設(shè)置應(yīng)用于所有幻燈片,以后切換到下一張或上一張,只有通過鍵盤上的方向鍵才能進(jìn)行操作。至于另外一個(gè)問題,解決的辦法也很簡(jiǎn)單,從“工具”菜單下打開“選項(xiàng)→視圖”窗口,取消“幻燈片放映”小節(jié)上的“右鍵單擊快捷菜單”復(fù)選框即可?!鲈赑PT演示文稿內(nèi)復(fù)制幻燈片要復(fù)制演示文稿中的幻燈片,請(qǐng)先在普通視圖的“大綱”或“幻燈片”選項(xiàng)中,選擇要復(fù)制的幻燈片。如果希望按順序選取多張幻燈片,請(qǐng)?jiān)趩螕魰r(shí)按Shift鍵;若不按順序選取幻燈片,請(qǐng)?jiān)趩螕魰r(shí)按Ctrl鍵。然后在“插入”菜單上,單擊“幻燈片副本”,或者直接按下“Ctrl+shift+D”組合鍵,則選中的幻燈片將直接以插入方式復(fù)制到選定的幻燈片之后。■Powerpoint自動(dòng)黑屏在用Powerpoint展示課件的時(shí)候,有時(shí)需要學(xué)生自己看書討論,這時(shí)為了避免屏幕上的圖片影響學(xué)生的學(xué)習(xí)注意力可以按一下“B”鍵,此時(shí)屏幕黑屏。學(xué)生自學(xué)完成后再接一下“B”鍵即可恢復(fù)正常。按“W”鍵也會(huì)產(chǎn)生類似的效果?!鰧⒒脽羝l(fā)送到word文檔1、在Powerpoint中打開演示文稿,然后在“文件”菜單上,指向“發(fā)送”,再單擊“MicrosoftWord”。2、在“將幻燈片添加到Microsoftword文檔”之下,如果要將幻燈片嵌入word文檔,請(qǐng)單擊“粘貼”;如果要將幻燈片鏈接到word文檔,請(qǐng)單擊“粘貼鏈接”。如果鏈接文件,那么在Powerpoint中編輯這些文件時(shí),它們也會(huì)在word文檔中更新。3、單擊“確定”按鈕。此時(shí),系統(tǒng)將新建一個(gè)word文檔,并將演示文稿復(fù)制到該文檔中。如果word未啟動(dòng),則系統(tǒng)會(huì)自動(dòng)啟動(dòng)word。■讓幻燈片自動(dòng)播放要讓powerpoint的幻燈片自動(dòng)播放,只需要在播放時(shí)右鍵點(diǎn)擊這個(gè)文稿,然后在彈出的菜單中執(zhí)行“顯示”命令即可,或者在打開文稿前將該文件的擴(kuò)展名從PPT改為PPS后再雙擊它即可。這樣一來就避免了每次都要先打開這個(gè)文件才能進(jìn)行播放所帶來的不便和繁瑣。■增加PPT的“后悔藥”在使用powerpoint編輯演示文稿時(shí),如果操作錯(cuò)誤,那么只要單擊工具欄中的“撤消”按鈕,即可恢復(fù)到操作前的狀態(tài)。然而,默認(rèn)情況下Powerpoint最多只能夠恢復(fù)最近的20次操作。其實(shí),powerpoint允許用戶最多可以“反悔”150次,但需要用戶事先進(jìn)行如下設(shè)置:在“工具-選項(xiàng)”,擊“編輯”選項(xiàng)卡,將“最多可取消操作數(shù)”改為“150”,確定?!鯬PT中的自動(dòng)縮略圖效果你相信用一張幻燈片就可以實(shí)現(xiàn)多張圖片的演示嗎?而且單擊后能實(shí)現(xiàn)自動(dòng)放大的效果,再次單擊后還原。其方法是:新建一個(gè)演示文稿,單擊“插入”菜單中的“對(duì)象”命令,選擇“Microsoftpowerpoint演示文稿”,在插入的演示文稿對(duì)象中插入一幅圖片,將圖片的大小改為演示文稿的大小,退出該對(duì)象的編輯狀態(tài),將它縮小到合適的大小,按F5鍵演示一下看看,是不是符合您的要求了?接下來,只須復(fù)制這個(gè)插入的演示文稿對(duì)象,更改其中的圖片,并排列它們之間的位置就可以了?!隹焖凫`活改變圖片顏色利用powerpoint制作演示文稿課件,插入漂亮的剪貼畫會(huì)為課件增色不少??刹⒉皇撬械募糍N畫都符合我們的要求,剪貼畫的顏色搭配時(shí)常不合理。這時(shí)我們右鍵點(diǎn)擊該剪貼畫選擇“顯示‘圖片’工具欄”選項(xiàng)(如果圖片工具欄已經(jīng)自動(dòng)顯示出來則無需此操作),然后點(diǎn)擊“圖片”工具欄上的“圖片重新著色”按鈕,在隨后出現(xiàn)的對(duì)話框中便可任意改變圖片中的顏色?!鰹镻PT添加公司LOGO用powerpoint為公司做演示文稿時(shí),最好第一頁都加上公司的Logo,這樣可以間接地為公司做免費(fèi)廣告。執(zhí)行“視圖-母版-幻燈片母版”命令,在“幻燈片母版視圖”中,將Logo放在合適的位置上,關(guān)閉母版視圖返回到普通視圖后,就可以看到在每一頁加上了Logo,而且在普通視圖上也無法改動(dòng)它了?!觥氨4妗碧厥庾煮w為了獲得好的效果,人們通常會(huì)在幻燈片中使用一些非常漂亮的字體,可是將幻燈片拷貝到演示現(xiàn)場(chǎng)進(jìn)行播放時(shí),這些字體變成了普通字體,甚至還因字體而導(dǎo)致格式變得不整齊,嚴(yán)重影響演示效果。在powerpoint中,執(zhí)行“文件-另存為”,在對(duì)話框中點(diǎn)擊“工具”按鈕,在下拉菜單中選擇“保存選項(xiàng)”,在彈出其對(duì)話框中選中“嵌入TrueType字體”項(xiàng),然后根據(jù)需要選擇“只嵌入所用字符”或“嵌入所有字符”項(xiàng),最后點(diǎn)擊“確定”按鈕保存該文件即可?!隼媒M合鍵生成內(nèi)容簡(jiǎn)介我們?cè)谟胮owerpoint2003制作演示文稿時(shí),通常都會(huì)將后面幾個(gè)幻燈片的標(biāo)題集合起來,把它們作為內(nèi)容簡(jiǎn)介列在首張或第二張幻燈片中,讓文稿看起來更加直觀。如果是用復(fù)制粘貼來完成這一操作,實(shí)在有點(diǎn)麻煩,其實(shí)最快速的方法就是先選擇多張幻燈片,接著按下alt+shift+s即可?!鲅菔疚母逯械膱D片隨時(shí)更新在制作演示文稿中,如果想要在其中插入圖片,執(zhí)行“插入-圖片-來自文件”,然后打開“插入圖片”窗口插入相應(yīng)圖片。其實(shí)當(dāng)我們選擇好想要插入的圖片后,可以點(diǎn)擊窗口右側(cè)的“插入”按鈕,在出現(xiàn)的下拉列表中選“鏈接文件”項(xiàng),點(diǎn)擊確定。這樣一來,往后只要在系統(tǒng)中對(duì)插入圖片進(jìn)行了修改,那么在演示文稿中的圖片也會(huì)自動(dòng)更新,免除了重復(fù)修改的麻煩?!隹焖僬{(diào)用其他PPT在進(jìn)行演示文檔的制作時(shí),需要用到以前制作的文檔中的幻燈片或要調(diào)用其他可以利用的幻燈片,如果能夠快速?gòu)?fù)制到當(dāng)前的幻燈片中,將會(huì)給工作帶來極大的便利。在幻燈片選項(xiàng)卡時(shí),使光標(biāo)置于需要復(fù)制幻燈片的位置,選擇“菜單”中的“幻燈片(從文件)”命令,在打開的“幻燈片搜索器”對(duì)話框中進(jìn)行設(shè)置。通過“瀏覽”選擇需要復(fù)制的幻燈片文件,使它出現(xiàn)在“選定幻燈片”列表框中。選中需要插入的幻燈片,單擊“插入”,如果需要插入列表中所有的幻燈片,直接點(diǎn)擊“全部插入”即可。這樣,其他文檔中的幻燈片就為我們所用了。■快速定位幻燈片在播放powerpoint演示文稿時(shí),如果要快進(jìn)到或退回到第5張幻燈片,可以這樣實(shí)現(xiàn):按下數(shù)字5鍵,再按下回車鍵。若要從任意位置返回到第1張幻燈片,還有另外一個(gè)方法:同時(shí)按下鼠標(biāo)左右鍵并停留2秒鐘以上。■利用剪貼畫尋找免費(fèi)圖片當(dāng)我們利用powerpoint2003制作演示文稿時(shí),經(jīng)常需要尋找圖片來作為鋪助素材,其實(shí)這個(gè)時(shí)候用不著登錄網(wǎng)站去搜索,直接在“剪貼畫”中就能搞定。方法如下:插入-圖片-剪貼畫,找到“搜索文字”一欄并鍵入所尋找圖片的關(guān)鍵詞,然后在“搜索范圍”下拉列表中選擇“Web收藏集”,單擊“搜索”即可。這樣一來,所搜到的都是微軟提供的免費(fèi)圖片,不涉及任何版權(quán)事宜,大家可以放心使用。■制作滾動(dòng)文本在powerp
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 年出欄商品肉豬10000頭環(huán)評(píng)報(bào)告
- 衛(wèi)生與消毒管理制度
- 衛(wèi)生院消毒滅菌管理制度
- 沒嚴(yán)格衛(wèi)生管理制度
- 水廠衛(wèi)生清掃制度
- 燒臘間衛(wèi)生管理制度
- 衛(wèi)生協(xié)管第一責(zé)任人制度
- 煤礦澡堂衛(wèi)生制度
- 口腔手衛(wèi)生管理制度
- 銅陵市衛(wèi)生管理制度
- 四川省瀘州市2025-2026學(xué)年高一上學(xué)期期末質(zhì)量監(jiān)測(cè)數(shù)學(xué)試題(含答案)
- 合伙公司退股協(xié)議書
- Ozon培訓(xùn)課件教學(xué)課件
- 2025年民航概論試題及答案判斷
- 2023-2025年浙江中考數(shù)學(xué)試題分類匯編:概率與統(tǒng)計(jì)(解析版)
- 倒掛井鋼筋施工技術(shù)交底
- 工程款尾款自愿放棄說明模板
- 固定晾衣桿安裝施工方案
- 特長(zhǎng)生合同(標(biāo)準(zhǔn)版)
- 國(guó)家民用航空安全保衛(wèi)質(zhì)量控制方案
- 妊娠合并乙肝的課件
評(píng)論
0/150
提交評(píng)論