聚類(lèi)算法簡(jiǎn)介_(kāi)第1頁(yè)
聚類(lèi)算法簡(jiǎn)介_(kāi)第2頁(yè)
聚類(lèi)算法簡(jiǎn)介_(kāi)第3頁(yè)
聚類(lèi)算法簡(jiǎn)介_(kāi)第4頁(yè)
聚類(lèi)算法簡(jiǎn)介_(kāi)第5頁(yè)
已閱讀5頁(yè),還剩68頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

聚類(lèi)算法簡(jiǎn)介

報(bào)告人:劉銘

mliu@

什么是聚類(lèi)?

聚類(lèi)就是對(duì)大量未知標(biāo)注的數(shù)據(jù)集,按

數(shù)據(jù)的內(nèi)在相似性將數(shù)據(jù)集劃分為多個(gè)

類(lèi)別,使類(lèi)別內(nèi)的數(shù)據(jù)相似度較大而類(lèi)

別間的數(shù)據(jù)相似度較?。?/p>

為什么需要聚類(lèi)?

網(wǎng)頁(yè)密訊音樂(lè)圖片博客人物更多▼

中國(guó)11虎知識(shí)國(guó)g搜索吃二

對(duì)相似的liSI網(wǎng)頁(yè)結(jié)果

文檔或超相關(guān)搜索:知識(shí)-維基百科

奧運(yùn)知識(shí)知識(shí)是對(duì)某個(gè)主題確信的認(rèn)識(shí),并且這些認(rèn)識(shí)擁有潛在的能力為特定目的而使用。認(rèn)知

事物的能力是哲學(xué)中克莉爭(zhēng)議的中心議題之一,并且擁有它自己的分支一知識(shí)論。從更

鏈接進(jìn)行汽車(chē)知識(shí)

加實(shí)用的層次來(lái)看,知識(shí)通常被某些人的群體所共享,在這種情況下,知識(shí)可以通過(guò)不

聚類(lèi),由股票知出同的方式…序多信息

奧運(yùn)會(huì)知正

于類(lèi)別數(shù)電腦知識(shí)雅虎知識(shí)堂

雅虎知識(shí)堂,提供互動(dòng)問(wèn)答信息月艮務(wù)平臺(tái),包含我要提問(wèn)、我要回答、我要投票'知識(shí)專(zhuān)

美容知識(shí)

遠(yuǎn)小于文題、知識(shí)推薦、知識(shí)專(zhuān)家、知識(shí)分類(lèi)、幫助中心等內(nèi)容。

檔數(shù),能期貨知識(shí)yahoocom2天前快照

百科知識(shí)

設(shè)為首頁(yè)網(wǎng)站地圖收藏學(xué)知識(shí)

夠加快用國(guó)家知識(shí)產(chǎn)權(quán)局

首頁(yè)軟件教室設(shè)計(jì)教室網(wǎng)絡(luò)教室英語(yǔ)教室開(kāi)發(fā)救室考試教室范文教室管理救

戶(hù)尋找相法律知識(shí)室營(yíng)消教室視頻教室社區(qū)…新生報(bào)名規(guī)則新生必看!《學(xué)知以互動(dòng)社區(qū)管理婉則》

您是通過(guò)什么渠道知道學(xué)知識(shí)?招聘版主管理?xiàng)l例…

關(guān)信息的2008-03-25快瞪

速度;愛(ài)問(wèn)知識(shí)人

新浪愛(ài)問(wèn)知識(shí)人網(wǎng)站,開(kāi)設(shè)推薦問(wèn)題、最新問(wèn)題、新手問(wèn)題、問(wèn)題分類(lèi)、精彩回答等版

塊。

taskcn2天前快啰

汽車(chē)知識(shí)之底盤(pán)頻道-搜狐汽車(chē)

底盤(pán)知以傳動(dòng)系統(tǒng)行駛系統(tǒng)轉(zhuǎn)向系統(tǒng)制動(dòng)系統(tǒng)看點(diǎn)欄目全時(shí)四輪驅(qū)動(dòng)差速?zèng)Q

空氣懸掛主動(dòng)轉(zhuǎn)向系統(tǒng)ABSSAB.汽車(chē)底盤(pán)相關(guān)知識(shí)>>更多舒適寧隱新境界消

費(fèi)者贊凱越底盤(pán)新升級(jí)(09/131458)..

ajtosohucom/s2006/zhistTi-dpan2008-03-26快呼

電腦知識(shí)網(wǎng)-電腦知識(shí)的集中營(yíng).互聯(lián)網(wǎng)人的繹站

電腦知識(shí)教程CopyrightAllRightsReserved..互聯(lián)網(wǎng)如有侵犯

您的權(quán)益,清通知本站,本站將及時(shí)處理.coolnie#163.com國(guó)ICP備07017146號(hào)電腦知

識(shí)網(wǎng)…

4天前快照

聚類(lèi)圖示

聚類(lèi)中沒(méi)有任何指導(dǎo)信息,完全按照數(shù)據(jù)的分布進(jìn)行類(lèi)別劃分

什么是分類(lèi)?

■數(shù)據(jù)集合。,類(lèi)別標(biāo)記集合。

VxeData,CIass(x)GC

?數(shù)據(jù)集合:訓(xùn)練數(shù)據(jù)TrainData

待分類(lèi)數(shù)據(jù)ClassData

?已知VxeTrainData;konwCIass(x)&&Class(x)

*|可是貝:VZeClassData',Class(t)?

?方法:根據(jù)訓(xùn)練數(shù)據(jù)獲得類(lèi)別劃分標(biāo)準(zhǔn)

V/eClassData;Class(t)=f(t)

分類(lèi)圖示

:?訓(xùn)練數(shù)據(jù)???

?????

?待分類(lèi)數(shù)據(jù)?2

1?■

??■*

?-???

?

??

??

?■

?3?4?.

??????

??

??■?

聚類(lèi)與分類(lèi)的區(qū)別

?有類(lèi)別標(biāo)記和無(wú)類(lèi)別標(biāo)記;

?有監(jiān)督與無(wú)監(jiān)督;

(有訓(xùn)練語(yǔ)料與無(wú)訓(xùn)練語(yǔ)料)

?TrainAndClassification(分類(lèi));

?NoTrain(聚類(lèi));

聚類(lèi)的基本要素'

?定義數(shù)據(jù)之間的相似度;

?聚類(lèi)有效性函數(shù)(停止判別條件);

1.在聚類(lèi)算法的不同階段會(huì)得到不同的類(lèi)別劃分結(jié)果,可以通過(guò)聚類(lèi)有效性函數(shù)

來(lái)判斷多個(gè)劃分結(jié)果中哪個(gè)是有效的;

2.使用有效性函數(shù)作為算法停止的判別條件,當(dāng)類(lèi)別劃分結(jié)果達(dá)到聚類(lèi)有效性函

數(shù)時(shí)即可停止算法運(yùn)行;

?類(lèi)別劃分策略(算法);

通過(guò)何種類(lèi)別劃分方式使類(lèi)別劃分結(jié)果達(dá)到有效性函數(shù);

相似度分類(lèi)(一)

?Euclideandistance

Euclidean(Ai,Aj)=

?交叉嫡e

〃(/而+4川)1「〃”

H(Ai,Aj)=-工--------------log2(y4/m+Ajm)4-—Z(力〃”*log24w)+Z(彳川*l°g?4注)

22..;=i

?Cosine

Cos(Ai9Aj)=

數(shù)據(jù)表示為向量,向量中某一維對(duì)應(yīng)數(shù)據(jù)某一特征或?qū)傩?/p>

僅計(jì)算了數(shù)據(jù)向量中屬于同一維度特征的權(quán)值差距;

相似度分類(lèi)(二)

?BasedonSemantic

2

Semantic(Ai,Aj)=EESemantic{Aim,Ajn)(Aim-Ajn)

in=1n=1

Sem

屬于不同維度的特征的關(guān)系以antic{Aim,Ajn)表不

?UnbalanceSimilarity

r

2

Unbalance(Ai,Aj)=”(力而-4/m)

不同特征在數(shù)據(jù)相似度計(jì)算中的作用不同

聚類(lèi)有效性函數(shù)(一)

?最小誤差(人):

c個(gè)類(lèi)別,待聚類(lèi)數(shù)據(jù)x,mi為類(lèi)別C,的中心,

Zxc

m,=三一Je=£EIIx-mII2人越小聚類(lèi)結(jié)果越好

ICiII=iXGCi

人衡量屬于不同類(lèi)別的數(shù)據(jù)與類(lèi)別中心的的誤差和;

?最小方差:

一1-2

s'=丁zZu%-%II

xeCixeCi

S,衡量同一類(lèi)別內(nèi)數(shù)據(jù)的平均誤差和;

聚類(lèi)的有效性函數(shù)(二)

聚類(lèi)嫡(CE):

k

Ep:

j=i

9

nj

En

=(ZEe(p:,p:))+£e(p:,C°)

J=\/=1j=1

第一部分衡量算法的類(lèi)內(nèi)相似度,類(lèi)內(nèi)相似度越大越好;

En

第二部分衡量算法的類(lèi)間相似度,類(lèi)間相似度越小越好;

聚類(lèi)評(píng)價(jià)

?PrecisionandRecall

?Purity

?RandValue

?Intra-clustersimilarity

Inter-clustersimilarity

Purity

測(cè)試數(shù)據(jù)首先被人工標(biāo)注為不同的類(lèi)別;

測(cè)試數(shù)據(jù)在聚類(lèi)結(jié)果中又被重新劃分為多個(gè)類(lèi)別:

g測(cè)試語(yǔ)料中被標(biāo)記為第n在聚類(lèi)結(jié)果中被劃分到

〃夕個(gè)類(lèi)別的數(shù)據(jù)數(shù);,第『個(gè)類(lèi)別的數(shù)據(jù)數(shù);

(/(/聚類(lèi)結(jié)果的第「?jìng)€(gè)類(lèi)別中,被標(biāo)記為第夕個(gè)

c七類(lèi)別的數(shù)據(jù)數(shù);

尋找具有最大數(shù)據(jù)數(shù)的<作為類(lèi)別的代表;

1c

類(lèi)別C,的P“。:P(C,.)=—max(〃;)

ng=i

r

聚類(lèi)算法的,nrq

Purity=Z~~max(n)

Rand'

?Setanytwodataintestingcorpusasapair-point;

?Iftestingcorpushasndata,thereisn1)/2pair-points

?a)Onepair-pointisinsameclusterintestingcorpus,andin

clusteringresultsitisinsamecluster;

?b)Onepair-pointisinsameclusterintestingcorpus,andin

clusteringresultsitisn'tindifferentcluster;

?c)Onepair-pointisindifferentclusterintestingcorpus,

andinclusteringresultsitisindifferentcluster;

?d)Onepair-pointisindifferentclusterintestingandin

clusteringresultsitisinsamecluster;

a+c

Rand-----------------------

Intraclustersimilarity

Interclustersimilarity

£Cos(di,dj)

dteC,djwC

類(lèi)別c,類(lèi)內(nèi)相似度Sima(Ci)=

|C/|

ZSim(C,)

i=]

算法的類(lèi)內(nèi)相似度A1gorithm-Sima=---------------------

ICI

ZCos(di,dj)

d/€Ci,djeCj

類(lèi)別類(lèi)間相似度Simc(Ci,Cj)=---------------------------------

Cl*Cl

算法的類(lèi)間相似度Sime(Ci,Cj)

A1gorithm-Simc=Z-------------

』,=i&&fI*IC,I

聚類(lèi)結(jié)果:類(lèi)內(nèi)相似度越大越好,類(lèi)間相似度越小越好;

數(shù)據(jù)集

?UCI

beyond100datasets;

eachcaseineachdatasetisrepresentsbysome

attributes;

?attribute:

continuous,numerical,Boolean,missingattribute,

?oftenuse:

iris,zoo,glass,wine;

numericalcontinuousBooleanFeaturecase

Datasetclassnumber

featurefeaturefeaturenumbernumber

Glass-9-92147

Zo°1-15161017

Wine-13-131783

'Iris

4--41504

聚類(lèi)算法的簡(jiǎn)單分類(lèi)

?基于戈U分:K-means,K-medoids

?基于層次:HFC

?基于密度:DBSCAN

?基于網(wǎng)格:CL工QUE,STING

K-means

?初始參數(shù)-類(lèi)別數(shù)&初始類(lèi)別中心;

?聚類(lèi)有效性函數(shù)-最小誤差;

?優(yōu)點(diǎn):

聚類(lèi)時(shí)間快;

?缺點(diǎn):

對(duì)初始參數(shù)敏感;

容易陷入局部最優(yōu);

VORONI圖、

K-mans每一種劃對(duì)應(yīng)一個(gè)VORONI圖;VORON工圖中將數(shù)據(jù)看作空間中

的點(diǎn);

?Data7x*Dafa,m一個(gè)戈“分Classi9xeClassi

VpwClassi9\/tGDataDistance(p.x)<Distance(pyt)

K-means步驟

?1設(shè)置初始類(lèi)別中心和類(lèi)別數(shù);

?2根據(jù)類(lèi)別中心對(duì)數(shù)據(jù)進(jìn)行類(lèi)別劃分;

?3重新計(jì)算當(dāng)前類(lèi)別劃分下每類(lèi)的中心;

?4在得到類(lèi)別中心下繼續(xù)進(jìn)行類(lèi)別劃分;

?5如果連續(xù)兩次的類(lèi)別劃分結(jié)果不變則停止算法;否則

循環(huán)2?5;

Update

the

cluster

means

▼reassign

Update

the

cluster

means

初始值敏感

初始化4個(gè)類(lèi)別中心;

左側(cè)的全體數(shù)據(jù)僅與第一個(gè)類(lèi)別中心相似;

K-mcans公式

?目標(biāo):最小化」—2

,e=ZZIIX-"人||

i=1xeCi

?固定類(lèi)別劃分情況下求人最小值

?偏導(dǎo)數(shù)為0時(shí),Je達(dá)到最小值8Je

=0I=1...C

dmi

?人達(dá)到最小值時(shí),類(lèi)別中心為類(lèi)別內(nèi)的數(shù)據(jù)質(zhì)心

E%

Zi-x)=0nmi='(-

Cl

局部極小值

?5、

K-means每一次類(lèi)別劃分均選擇人解空間的局部極小值;

層次聚類(lèi)

?分裂或凝聚

犀家的

(ANGNES>

(DIANA>

算法運(yùn)行到某一階段,類(lèi)別劃分結(jié)果達(dá)到聚類(lèi)標(biāo)準(zhǔn)時(shí)

即可停止分裂或凝聚;

密度聚類(lèi)(一)

?將數(shù)據(jù)看作空間中的點(diǎn),將數(shù)據(jù)間的相似度

看作數(shù)據(jù)間的距離;

?按密度對(duì)數(shù)據(jù)進(jìn)行類(lèi)別劃分,將類(lèi)別看作是

被低密度區(qū)域分割的高密度區(qū)域;

?任意形狀的類(lèi)別分布;

?速度快,對(duì)噪聲不敏感;

?初始參數(shù):

鄰域半徑-8;

亂vn£鄰域內(nèi)最小對(duì)象數(shù);

密度聚類(lèi)(二)

★★

★★

密度聚類(lèi)(三)

pts

ptsG(p)

圓心以£為半徑的圓為P的鄰域-乃6(,);density(p)=

"Mp)

Minpts

nsity{p}>--------------,piscore;3o,oiscore&&oG\p,oG密度相連.

兀<P)

密度聚類(lèi)即通過(guò)尋找一系列密度相連的核心對(duì)象進(jìn)行類(lèi)別;

相對(duì)密度(一)

問(wèn)題:

高密度區(qū)

域與低密度,1

區(qū)域是相對(duì)

的;?2二

?*3**

相對(duì)密度(二)

?改變對(duì)固定OWS的依賴(lài)

?P的近鄰密度:「£-P,。)1

?0G*-rfrstanre(p)

〃〃d-(p)(P)=1/|-----------------------|

?p的相對(duì)密度:['J

「〃〃d,…z(p)/nndL,,、(。)]

Zk-distance(p)vr'k-aistunce(o)vzJ

°-distance(p)

(P)=------------------------------------------------------------------------------------------------------------------------------------------------

k-disiance(p)vr/

k

?……(Pi說(shuō)明「與其周?chē)鷶?shù)據(jù)的密度相差不多,。

一能與周?chē)鷶?shù)據(jù)很好的融合在一起,夕大致位于類(lèi)別中

基于密度的網(wǎng)格聚類(lèi)(一)

?1將數(shù)據(jù)空間劃分為有限個(gè)網(wǎng)格單元;

?2計(jì)算每個(gè)網(wǎng)格單元的密度;

?3如果網(wǎng)格單元的密度大于一定閾值則此網(wǎng)

格單元為密集網(wǎng)格;

-4將臨近的密集網(wǎng)格單元合并為一個(gè)類(lèi)別;

基于密度的網(wǎng)格聚類(lèi)(二)

A

B

U

2025303540455055606570

SOM

?SOM(自組織映射)的由來(lái):

1991,Kohoncn提出,模擬人腦中的神經(jīng)元層;,

?人腦中不同的神經(jīng)元區(qū)域負(fù)責(zé)不同的功能;1

?一旦有外部刺激,與刺激相關(guān)的神經(jīng)元會(huì)被激

勵(lì),并且其附近神經(jīng)元也會(huì)受到激勵(lì);

SOM兩層結(jié)構(gòu)圖

X1

SOM聚類(lèi)步驟論

?1確定神經(jīng)元分布結(jié)構(gòu)及神經(jīng)元數(shù),每個(gè)神經(jīng)元代表

一個(gè)類(lèi)別;J

-2隨機(jī)初始化神經(jīng)元向量;/

?3隨機(jī)選擇輸入數(shù)據(jù);\

?4計(jì)算輸入數(shù)據(jù)與每個(gè)神經(jīng)元的相似度;)

?5選擇具有最大相似度的神經(jīng)元為獲勝神經(jīng)元;\

-6調(diào)整獲勝神經(jīng)元向量,及位于獲勝神經(jīng)元鄰域范圍

內(nèi)的神經(jīng)元向量;/J

-7判斷是否滿(mǎn)足收斂條件,如不滿(mǎn)足,反復(fù)運(yùn)行3?7;\

SOM聚類(lèi)(一)

SOM聚類(lèi)(二)

調(diào)整鄰近神經(jīng)元作用

側(cè)的

類(lèi)

會(huì)

側(cè)

數(shù)

據(jù)

動(dòng)

;

;

初始值敏感

m

K中-

ns的

ea側(cè)

據(jù)

數(shù)

對(duì)

側(cè)

類(lèi)

沒(méi)

調(diào)

神經(jīng)元激勵(lì)關(guān)系

側(cè)向距離

臨近神獲勝神臨近神

經(jīng)元經(jīng)元經(jīng)元

激勵(lì)成“墨西哥帽”形狀分布;

獲勝神經(jīng)元受到的激勵(lì)作用最大;

離獲勝神經(jīng)元距離越遠(yuǎn)的神經(jīng)元其受到的激勵(lì)作用越小;

神經(jīng)元結(jié)構(gòu)的作用

1通過(guò)對(duì)相鄰神經(jīng)元進(jìn)行調(diào)整使相鄰的神經(jīng)

元反映相似的信息;

2使神經(jīng)元分布密度與數(shù)據(jù)的分布密度具有

一定的對(duì)應(yīng)關(guān)系;

神經(jīng)元結(jié)構(gòu)

?一維層次

layer0

CXXXDlayer1

layer2

layer3

SOM步驟分析(一)

C

-聚類(lèi)有效性函數(shù)(最小誤差)入=zz

?SOM同樣也是在尋找使人最小的類(lèi)別劃分

?人的梯度方向代表人的最陡下降方向

?人偏導(dǎo)數(shù)代表人的梯度方向

dJe

VJe=------=Z(〃?/(,)-x)

梯度下降

mi(t+1)=mi(t)+〃(/)>(mt(t)—x)

?隨機(jī)梯度下降近似模擬梯度下降

i(t+1)=m((/)+hi(t)—x)

人⑺代表梯度下降的步長(zhǎng);

隨機(jī)梯度下降通過(guò)單一數(shù)據(jù)調(diào)整梯度下降的方向不容易陷入局部最優(yōu);

SOM步驟分析(二)

〃⑺代表梯度下降的步長(zhǎng);

。⑺學(xué)習(xí)數(shù)率,主要控制梯度下降的步長(zhǎng);

,⑺臨域函數(shù),反映了神經(jīng)元調(diào)整的范圍;

0(/)3⑷均隨時(shí)間增加單調(diào)遞減;

…第,?個(gè)神經(jīng)元的位置;

。⑺獲勝神經(jīng)元的序號(hào);_

c(x)=argmin{||x-mi\\}

2

||r,-rc(x)||

h(t)=Ac(x),/(/)=a(/)exp(----------------)

2b2⑺

梯度下降

ns

s-

aj。

S

CD

QJ」

6

(

D

JC

神經(jīng)元分布密度(一)

?輸入數(shù)據(jù)的分布密度為P(x)

?調(diào)整獲勝神經(jīng)元臨近的N個(gè)神經(jīng)元

?N=0,不調(diào)整臨近神經(jīng)元

2/3

神經(jīng)元分布密度:尸)

?調(diào)節(jié)臨近的N個(gè)神經(jīng)元

神經(jīng)元分布密度:22

C/2/3-1/(372+3(〃+1))、

尸(X)

神經(jīng)元分布密度與數(shù)據(jù)分布密度不成正比,某些數(shù)據(jù)分布密度較

高的區(qū)域神經(jīng)元分布密度較稀疏,某些數(shù)據(jù)分布密度較稀疏的區(qū)

域神經(jīng)元分布密度較高

神經(jīng)元分布密度(二)'

?輸入數(shù)據(jù)分布密度q(x)

?神經(jīng)元分布密度

■神經(jīng)元競(jìng)爭(zhēng)獲勝的概率:

輸入數(shù)據(jù)中與W相似的數(shù)據(jù)的比例

*推論:

1p")q(X。

,VW/,Wj/(W/)=/(vt?7)=>--------------=Xi=Wz;Xj=Wj

夕(嗎)q

/0,)<7(X()

2VWi,WJ=Xi=Wi-.XJ=Wj==>/2(W/)=p(W/)

/(w./)夕(打)

SOM密度分布(三)

夕(w,)qg)

VWI,Wjf(W/)=------------=Xi=W/;Xj=w

1.數(shù)據(jù)分布比:

3:2:1;

2.初始化6個(gè)神經(jīng)

元模擬數(shù)據(jù)分布;

3.每個(gè)矩形內(nèi)神經(jīng)

元獲勝的比率:

1:1:1;

4.神經(jīng)元分布比:

3二:1;

123

SOM密度分布(四)

/(w/)q(xi)

Vw<?,wj---------------=--------------Xi=W<;Xy=Wj=/?(W/)夕O./)

/(Wy)q(Xj)

1.數(shù)據(jù)分布比:

3:2:1;

2.初始化6個(gè)神經(jīng)

元模擬數(shù)據(jù)分布;

3.每個(gè)矩形內(nèi)神經(jīng)

元的獲勝比率:

3:2:1;

4.神經(jīng)元分布比:

1:1:1;

123

SOM優(yōu)點(diǎn)

?對(duì)初始值不敏感;

?不容易陷入局部最優(yōu);

?神經(jīng)元分布能夠近似模擬數(shù)據(jù)分布;

SOM不足

?算法迭代時(shí)間較長(zhǎng);

?初始參數(shù)(類(lèi)別數(shù))在實(shí)際應(yīng)用中不容

易獲得;

SOM算法的改進(jìn)(一)

?GSOM

?VSOM

GSOM

?計(jì)算每個(gè)神經(jīng)元的

AQE(mj)=2\\x-mj\\

Xjj

?選擇具有最大的,QE的神經(jīng)元,將此神經(jīng)元記

為e,如果e的4QE超過(guò)一定閾值則在e和e最不

相似的鄰居d間插入新的神經(jīng)元;

SOM算法的改進(jìn)(二)

?PSOM

?DASH

PSOM(-)

i初始兩個(gè)神經(jīng)元;

2隨機(jī)選擇輸入數(shù)據(jù);

3計(jì)算數(shù)據(jù)與每個(gè)神經(jīng)元相似度;

4如最大相似度小于閾值,初始化新的神經(jīng)元;否則更改

最相似神經(jīng)元向量的權(quán)值及鄰域內(nèi)神經(jīng)元向量的權(quán)值;

5尋找及S5A健立〃成,記錄〃成的建立時(shí)間Zge=0;

6其它〃成,Age=Age+1;

7某Jink的Zge大于一定值刪除此〃〃匕

8檢查神經(jīng)元集合,某神經(jīng)元無(wú)〃成相連,去掉此神經(jīng)元;

翊壞2?8至類(lèi)別劃分結(jié)果滿(mǎn)足收斂條件;

PSOM

1次迭代1500次迭代

DASH

?DASH

?引入誤差4。萬(wàn)

?IfAQE>Threshold

插入新的神經(jīng)元或分層

?生長(zhǎng)系數(shù)B:

控制是否在同一層內(nèi)插

入新的神經(jīng)元

?分層系數(shù)0:

?控制是

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論