第三章腦電信號(hào)的情緒分類(lèi)算法_第1頁(yè)
第三章腦電信號(hào)的情緒分類(lèi)算法_第2頁(yè)
第三章腦電信號(hào)的情緒分類(lèi)算法_第3頁(yè)
第三章腦電信號(hào)的情緒分類(lèi)算法_第4頁(yè)
第三章腦電信號(hào)的情緒分類(lèi)算法_第5頁(yè)
已閱讀5頁(yè),還剩42頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

[35]。在選定數(shù)據(jù)集后,首先是根據(jù)DEAP的SAM數(shù)據(jù)確定標(biāo)簽,期間也嘗試過(guò)以喚起(arousal)和文獻(xiàn)中提到的scal值作為標(biāo)簽劃分,但效果不夠理想,因此最終以效價(jià)(valence)作二分類(lèi)劃定標(biāo)簽。在數(shù)據(jù)特征處理階段,經(jīng)過(guò)查閱資料后使用FFT變換,求取頻段上的功率作為特征輸入。在數(shù)據(jù)分類(lèi)階段,分類(lèi)器選擇了傳統(tǒng)機(jī)器學(xué)習(xí)方法的支持向量機(jī)和隨機(jī)森林算法,以及目前在計(jì)算機(jī)圖像中表現(xiàn)優(yōu)異的卷積神經(jīng)網(wǎng)絡(luò),由于處理之后的腦電信號(hào)與計(jì)算機(jī)圖像的數(shù)據(jù)尺寸不一致,因此重新設(shè)計(jì)了網(wǎng)絡(luò),將卷積核改為長(zhǎng)方形,以適應(yīng)處理之后的腦電信號(hào)尺寸。最終支持向量機(jī),隨機(jī)森林,卷積神經(jīng)網(wǎng)絡(luò)在測(cè)試集分別達(dá)到70.07%,82.65%,73.78%的準(zhǔn)確率達(dá)到最初設(shè)定的要求在之后也通過(guò)偽標(biāo)簽技術(shù)實(shí)現(xiàn)了半監(jiān)督學(xué)習(xí),將卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率小幅度提升到74.33%。6.2基于腦電信號(hào)的情緒分析研究展望對(duì)于此次基于腦電信號(hào)的情緒分析的研究,結(jié)合了腦電研究領(lǐng)域與計(jì)算機(jī)前沿技術(shù)對(duì)情緒的分類(lèi)。在此次跨學(xué)科領(lǐng)域的研究,對(duì)后續(xù)的學(xué)習(xí)奠定基礎(chǔ)。目前情緒的腦電識(shí)別仍然是一個(gè)未成熟的技術(shù),有許多具有挑戰(zhàn)的問(wèn)題,因此本文對(duì)該領(lǐng)域的發(fā)展,提出以下幾點(diǎn)個(gè)人展望:設(shè)計(jì)更好的深度學(xué)習(xí)網(wǎng)絡(luò)。本文的卷積神經(jīng)網(wǎng)絡(luò)是根據(jù)作為輸入的腦電信號(hào)的特性設(shè)計(jì)的,雖然達(dá)到了預(yù)期效果,但大量相關(guān)研究可以將準(zhǔn)確率提升到80%以上。因此,如果能設(shè)計(jì)出更好的神經(jīng)網(wǎng)絡(luò)或許能得到更好的網(wǎng)絡(luò)性能。不同的情緒特征研究。本文的特征提取還較為粗糙單調(diào),大多數(shù)研究均綜合多種特征進(jìn)行分類(lèi),因此下一步提取更多的腦電信號(hào)特征進(jìn)行研究。在線分析。本文所使用的實(shí)驗(yàn)均為腦電數(shù)據(jù)的離線分析,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)龐大的計(jì)算量導(dǎo)致計(jì)算時(shí)間過(guò)長(zhǎng),很難應(yīng)用于在線分析。因此在下一步研究將情緒識(shí)別技術(shù)上升到在線分析,以實(shí)現(xiàn)可以實(shí)際應(yīng)用的功能。這次的畢業(yè)設(shè)計(jì)是生物技術(shù)和計(jì)算機(jī)科學(xué)的學(xué)科交叉研究,學(xué)科交叉是學(xué)術(shù)思想的交匯與碰撞,實(shí)質(zhì)上,是交叉思維方式的綜合、系統(tǒng)辯證思維的體現(xiàn)。自然界有各種各樣的現(xiàn)象,它們復(fù)雜且多樣,如果我們僅僅從一種視角來(lái)研究事物即單一的學(xué)科思維,一定具有很大的局限性,因?yàn)槲覀冎豢吹搅怂谝环N學(xué)科的一個(gè)方面,不可能揭示其本質(zhì),更不可能深刻地意識(shí)其全部規(guī)律。因此,惟有從多個(gè)視角,采取跨學(xué)科思維的方式,進(jìn)行交叉學(xué)科的研究,才可能形成完整體系的科學(xué)認(rèn)識(shí)。在跨學(xué)科的綜合研究中,其他相關(guān)科研領(lǐng)域的方法論,可能會(huì)給本身原有的學(xué)科帶來(lái)難以想象的發(fā)展機(jī)會(huì),甚至打開(kāi)全新的研究方向??鐚W(xué)科交叉研究是取得重大科學(xué)發(fā)現(xiàn)和產(chǎn)生引領(lǐng)性原創(chuàng)成果重大突破的重要方式,有很多有價(jià)值的研究主題都落在傳統(tǒng)的學(xué)科分類(lèi)之間??鐚W(xué)科的知識(shí)和研究也讓我們想起了知識(shí)的統(tǒng)一,和最終我們所追求的真理。在獲得跨學(xué)科思維之后,這些跨學(xué)科的研究者比單一學(xué)科的研究者會(huì)以一種更新奇的觀點(diǎn)來(lái)對(duì)待自己的知識(shí),如同在新大陸上遨游。本次的畢業(yè)設(shè)計(jì)中,所使用腦電信號(hào)屬于生物技術(shù)范疇,最初用于醫(yī)學(xué)領(lǐng)域,所使用的分類(lèi)技術(shù)為卷積神經(jīng)網(wǎng)絡(luò),而神經(jīng)網(wǎng)絡(luò)的構(gòu)建靈感有來(lái)自于生物的腦細(xì)胞,這一交叉領(lǐng)域的研究,不僅是我了解到腦電信號(hào)領(lǐng)域的研究現(xiàn)狀,同時(shí)也鞏固了我的計(jì)算機(jī)知識(shí)。

參考文獻(xiàn)PicardRW,VyzasE,HealeyJ.Towardmachineemotionalintelligence:Analysisofaffectivephysiologicalstate[J].IEEEtransactionsonpatternanalysisandmachineintelligence,2001,23(10):1175-1191.GunesH,SchullerB,PanticM,etal.Emotionrepresentation,analysisandsynthesisincontinuousspace:Asurvey[C]//FaceandGesture2011.IEEE,2011:827-834.NiemicC.Studiesofemotion:Atheoreticalandempiricalreviewofpsychophysiologicalstudiesofemotion.[J].2004.沈敏.腦-機(jī)接口技術(shù)綜述[D].2007:147-150.KumarN,KhaundK,HazarikaSM.Bispectralanalysisofeegforemotionrecognition[J].ProcediaComputerScience,2016,84:31-35.SamaraA,MenezesMLR,GalwayL.Featureextractionforemotionrecognitionandmodellingusingneurophysiologicaldata[C]//201615thInternationalConferenceonUbiquitousComputingandCommunicationsand2016InternationalSymposiumonCyberspaceandSecurity(IUCC-CSS).2016.LiuJ,MengH,NandiA,etal.Emotiondetectionfromeegrecordings[C]//201612thInternationalConferenceonNaturalComputation,FuzzySystemsandKnowledgeDiscovery(ICNC-FSKD).IEEE,2016:1722-1727.TripathiS,AcharyaS,SharmaRD,etal.Usingdeepandconvolutionalneuralnetworksforaccurateemotionclassificationondeapdataset.[C]//Twenty-NinthIAAIConfer-ence.2017.LiX,SongD,ZhangP,etal.Emotionrecognitionfrommulti-channeleegdatathroughconvolutionalrecurrentneuralnetwork[C]//2016IEEEInternationalConferenceonBioinformaticsandBiomedicine(BIBM).IEEE,2016:352-359.XuT,ZhouY,HouZ,etal.Decodebrainsystem:Adynamicadaptiveconvolutionalquorumvotingapproachforvariable-lengtheegdata[J].Complexity,2020,2020.LongJ,ShelhamerE,DarrellT.Fullyconvolutionalnetworksforsemanticsegmenta-tion[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecogni-tion.2015:3431-3440.WilliamJ.Ii.—whatisanemotion?[J].Mind,1884(34):34.Walter,B.,Cannon.Thejames-langetheoryofemotions:Acriticalexaminationandanalternativetheory[J].AmericanJournalofPsychology,1987.EkmanP,LevensonRW,FriesenWV.Autonomicnervoussystemactivitydistin-guishesamongemotions[J].science,1983,221(4616):1208-1210.RussellJA.Acircumplexmodelofaffect.[J].Journalofpersonalityandsocialpsy-chology,1980,39(6):1161.RussellJA,MehrabianA.Evidenceforathree-factortheoryofemotions[J].JournalofresearchinPersonality,1977,11(3):273-294.ZhengWL,LuBL.Investigatingcriticalfrequencybandsandchannelsforeeg-basedemotionrecognitionwithdeepneuralnetworks[J].IEEETransactionsonAutonomousMentalDevelopment,2015,7(3):162-175.ChanelG,KierkelsJJ,SoleymaniM,etal.Short-termemotionassessmentinarecallparadigm[J].InternationalJournalofHuman-ComputerStudies,2009,67(8):607-627LiM,LuBL.Emotionclassificationbasedongamma-bandeeg[C]//2009AnnualInternationalConferenceoftheIEEEEngineeringinmedicineandbiologysociety.IEEE,2009:1223-1226.SchmidtLA,TrainorLJ.Frontalbrainelectricalactivity(eeg)distinguishesvalenceandintensityofmusicalemotions[J].Cognition&Emotion,2001,15(4):487-500.黃檸檬.基于EEG的情緒識(shí)別[D].華南理工大學(xué),2016.TowleVL,Bola?osJ,SuarezD,etal.Thespatiallocationofeegelectrodes:locatingthebest-fittingsphererelativetocorticalanatomy[J].Electroencephalographyandclinicalneurophysiology,1993,86(1):1-6.周志華.機(jī)器學(xué)習(xí)[M].清華大學(xué)出版社,2016.LeCunY,BengioY,HintonG.Deeplearning[J].nature,2015,521(7553):436-444.BengioY,CourvilleA,VincentP.Representationlearning:Areviewandnewper-spectives[J].IEEEtransactionsonpatternanalysisandmachineintelligence,2013,35(8):1798-1828.RiesenhuberM,PoggioT.Hierarchicalmodelsofobjectrecognitionincortex[J].Natureneuroscience,1999,2(11):1019-1025.LeCunY,BottouL,BengioY,etal.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.KrizhevskyA,SutskeverI,HintonGE.Imagenetclassificationwithdeepconvolutionalneuralnetworks[C]//Advancesinneuralinformationprocessingsystems.2012:1097-1105.SimonyanK,ZissermanA.Verydeepconvolutionalnetworksforlarge-scaleimagerecognition[J].arXivpreprintarXiv:1409.1556,2014.LeCunY,JackelL,BottouL,etal.Comparisonoflearningalgorithmsforhandwrittendigitrecognition[C]//Internationalconferenceonartificialneuralnetworks:volume60.Perth,Australia,1995:53-60.SzegedyC,VanhouckeV,IoffeS,etal.Rethinkingtheinceptionarchitectureforcom-putervision[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:2818-2826.LeeDH.Pseudo-label:Thesimpleandefficientsemi-supervisedlearningmethodfordeepneuralnetworks[C]//Workshoponchallengesinrepresentationlearning,ICML:volume3.2013:2.GrandvaletY,BengioY.Semi-supervisedlearningbyentropyminimization[C]//Advancesinneuralinformationprocessingsystems.2005:529-536.SoleymaniM.Amultimodaldatabaseforaffectrecognitionandimplicittagging[J].IEEETransactionsonAffectiveComputing,2012,3(1):p.42t-55.KoelstraS.Deap:adatabaseforemotionanalysisusingphysiologicalsignals[J].IEEETransactionsonAffectiveComputing,2011,3(1):18-31.IoffeS,SzegedyC.Batchnormalization:Acceleratingdeepnetworktrainingbyreduc-inginternalcovariateshift[J].arXivpreprintarXiv:1502.03167,2015.E.D.übeyli,Statisticsoverfeatures:EEGsignalsanalysis,ComputersinBiologyandMedicine,vol.39,no.8,pp.733–741,2009.M.R.N.Kousarrizi,A.A.Ghanbari,M.Teshnehlab,etal,FeatureextractionandclassificationofEEGsignalsusingwavelettransform,SVMandartificialneuralnetworksforbraincomputerinterfaces,inProceedingsoftheInternationalJointConferenceonBioinformatics,SystemsBiologyandIntelligentComputing(IJCBS'09),pp.352–355,2009.D.Cvetkovic,E.D.übeyli,andI.Cosic,WavelettransformfeatureextractionfromhumanPPG,ECG,andEEGsignalresponsestoELFPEMFexposures:apilotstudy,DigitalSignalProcessing,vol.18,no.5,pp.861–874,2008.M.UnserandA.Aldroubi,Areviewofwaveletsinbiomedicalapplications,

ProceedingsoftheIEEE,vol.84,no.4,pp.626–638,1996.A.Subasi,M.K.Kiymik,A.Alkan,andE.Koklukaya,NeuralnetworkclassificationofEEGsignalsbyusingARwithMLEpreprocessingforepilepticseizuredetection,MathematicalandComputationalApplications,vol.10,no.1,pp.57–70,2005.AliM,MosaAH,MachotFA,etal.EEG-basedemotionrecognitionapproachfore-healthcareapplications[C]//EighthIEEEInternationalConferenceonUbiquitous&FutureNetworks.IEEE,2016.

致謝天下無(wú)不散之筵席,雖然因?yàn)橐咔樵?,大四的時(shí)間很多都囿于家鄉(xiāng),但是時(shí)間仍然悄悄地流逝著,大學(xué)四年的學(xué)習(xí)生活也慢慢步入尾聲,回憶過(guò)去幾年,不僅讓我學(xué)到了可以終身受益的知識(shí),更讓我結(jié)識(shí)了諸多良師益友,我的心里充滿了留戀和感謝。借此時(shí)此刻感恩我們?cè)?jīng)度過(guò)的歲月,感謝曾經(jīng)幫助過(guò)我們的人。這篇畢業(yè)論文得以順利完成,需要感謝的人實(shí)在是太多了,首先特別感謝的是老師,作為我的畢業(yè)指導(dǎo)老師,徐老師以嚴(yán)謹(jǐn)?shù)闹螌W(xué)態(tài)度、開(kāi)闊的思維以及循循善誘的指導(dǎo)不斷地指引著我的方向,讓我在大四這樣一個(gè)人生分岔口有了自己的方向。徐老師總是在我們的學(xué)習(xí)研究過(guò)程中為我們理清思路,給我們指引方向。在論文不斷完善的過(guò)程中,徐老師也時(shí)不時(shí)的為我們進(jìn)行提點(diǎn),幫我們規(guī)避了不少的“低級(jí)”錯(cuò)誤。論文從開(kāi)題到最終的結(jié)題,每一步都得益于徐老師的批評(píng)和建議。徐老師嚴(yán)謹(jǐn)?shù)闹螌W(xué)態(tài)度也是我日后學(xué)習(xí)的榜樣。再次對(duì)您表示感謝,師恩偉大,無(wú)以回報(bào),在研究生階段,我也會(huì)繼續(xù)砥礪前行,在科研的道路上繼續(xù)前進(jìn)。衷心感謝全院的老師在這四年來(lái)對(duì)我的教導(dǎo)。盡管他們研究?jī)?nèi)容不盡相同,教授不同的課程,但他們都在各自擅長(zhǎng)的領(lǐng)域?yàn)槲覀兲峁┝瞬簧賹氋F的建議和指導(dǎo),每一位老師的悉心教導(dǎo)都是我完成這篇論文的基礎(chǔ)。同時(shí)老師們?cè)诟鱾€(gè)其他領(lǐng)域的見(jiàn)解與知識(shí)也讓我有更全局的視野和想法,能不局限在一個(gè)領(lǐng)域,而縱觀全局的變化。感謝畢設(shè)小組的各位同學(xué),每個(gè)人都用極大的熱情幫助了我,緊張卻輕松的學(xué)習(xí)環(huán)境中,我們都在共同進(jìn)步。特別是同學(xué),經(jīng)常與他們交流和討論。不僅在學(xué)業(yè)上互相學(xué)習(xí),更是能成為生活上的良師益友。雖然我們的實(shí)驗(yàn)內(nèi)容并不完全相同,但是你們也是在盡力的幫我解惑,再次表示感謝。同時(shí)也要感謝大學(xué)期間的輔導(dǎo)員老師和老師以及我們的班主任老師,在我們大學(xué)期間不斷地為我們解決生活上學(xué)習(xí)上的難題;同時(shí)還應(yīng)該感謝我的學(xué)院——軟件學(xué)院,給了我更多的選擇方向,也給了我們更多的可能;感謝我的班級(jí),我的舍友,我的好朋友,團(tuán)結(jié)友愛(ài)的集體總是能讓人產(chǎn)生家的感覺(jué),那將是我大學(xué)生活中的一面堅(jiān)強(qiáng)的后盾,祝愿大家都能在研究生生活和工作崗位上繼續(xù)成長(zhǎng)。最后還應(yīng)該感謝一下我的父母、家人,我永遠(yuǎn)都不會(huì)忘記你們的良苦用心和一如既往的支持與鼓勵(lì)。他們每次深夜的問(wèn)候讓我備受感動(dòng),也是他們?cè)谖覒猩⒒蚺橙醯臅r(shí)候?qū)⑽医行选=?jīng)過(guò)四年的磨礪,我更明白了作為當(dāng)代的大學(xué)生肩上所背負(fù)的責(zé)任與義務(wù),未

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論