一種基于BP 神經網絡的離散化方法_第1頁
一種基于BP 神經網絡的離散化方法_第2頁
一種基于BP 神經網絡的離散化方法_第3頁
一種基于BP 神經網絡的離散化方法_第4頁
一種基于BP 神經網絡的離散化方法_第5頁
免費預覽已結束,剩余1頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、一種基于BP 神經網絡的離散化方法摘要:隨著人工智能和數(shù)據(jù)挖掘技術的深化開展,大數(shù)據(jù)逐步進入人們的視野,在大數(shù)據(jù)的處理過程中,離散化處理是一個必不可少的環(huán)節(jié)。本文通過在BP神經網絡的學習過程中引入動量學習法,進一步完善了BP神經網絡在學習方面的局限性,降低了BP神經網絡的訓練誤差,在此根底上提出了一種基于BP神經網絡的離散化方法,實現(xiàn)了對連續(xù)屬性的離散化處理。算法分析和實驗證明,本算法是實在可行的。關鍵詞:離散化;BP神經網絡;連續(xù)屬性;動量學習法Abstract: With the further development of artificial intelligence and data

2、 mining technology, big data gradually into view, in the process large data, discrete processing is an essential link . In this paper, in the learning process by introducing the momentum BP neural network learning method to improve the stability and accuracy of BP neural network , reducing the learn

3、ing error BP neural network , and on this basis, proposes a BP neural network discretization method to achieve a discrete handling of continuous attributes . Algorithm analysis and experiments show that the algorithm is feasible.Key words: Discrete; BP neural network; continuous attributes; Momentum

4、 Learning在當今大數(shù)據(jù)時代,我們會面臨著各種各樣的數(shù)據(jù),包括離散化的數(shù)據(jù)和連續(xù)性的數(shù)據(jù),在眾多的算法中,有許多關于數(shù)據(jù)離散化的例子1-4,在這些現(xiàn)有的方法中,各有千秋,有的處理連續(xù)性數(shù)據(jù)效果不好,有些算法即使能處理連續(xù)型數(shù)據(jù),但挖掘和學習的效果沒有處理離散型數(shù)據(jù)有用和有效。對我們日常生活和應用中的實際例子分析發(fā)現(xiàn),對我們有用的數(shù)據(jù)除了連續(xù)性的,更多存在的是連續(xù)型屬性的數(shù)據(jù)。這樣的話,對數(shù)據(jù)進展離散化處理顯得異常重要,離散化處理的效果好壞,效率上下,直接關系到數(shù)據(jù)處理和分析的最終結果5-6。1 離散化問題的描繪離散化就是采取各種方法將連續(xù)的區(qū)間劃分為小的區(qū)間,并將這連續(xù)的小區(qū)間與離散的值

5、關聯(lián)起來。離散化的問題本質是:決定選擇多少個分割點和確定分割點位置。連續(xù)屬性離散化的方法有大概有以下幾種:1無監(jiān)視和有監(jiān)視。在離散化過程中使用類信息的方法是有監(jiān)視的,而不使用類信息的方法。2全局和局部。全局離散化指使用整個樣本空間進展離散化,而局部離散化指在樣本空間的一個區(qū)域內進展離散化。3動態(tài)離散化和靜態(tài)離散化。動態(tài)的離散化方法就是在建立分類模型的同時對連續(xù)屬性進展離散化,而靜態(tài)離散化方法就是在進展分類之前完成離散化處理。2 BP神經網絡BP神經網絡是一種多層前向型神經網絡,其神經元的傳遞是S型函數(shù),輸出緊為0-1.的連續(xù)量,它可以實現(xiàn)從輸入到輸出的任意非線性映射。由于權位的調整采用反向傳播

6、學習算法,因此,人們就就將此算法稱為向后傳播算法,簡稱BP算法。日前,在神經網絡的已有的應用理論中,BP神經網絡的應用占了絕對優(yōu)勢,也說明了BP神經網絡的應用廣泛性和優(yōu)勢,以及有不可限量的應用前景和開展空間。BP神經網絡模型是一個三層網絡,它的拓撲構造可被劃分為:輸入層、輸出層,隱含層。其中,輸入層與輸出層具有更重要的意義,因此有些文獻和算法中把BP神經網絡看成有輸入層和輸出層組成的兩層網絡構造。3 基于BP神經網絡的離散化方法1對BP神經網絡的參數(shù)進展初始化。首先創(chuàng)立網絡構造,并根據(jù)實際情況確定BP神經網絡中的輸入層,隱含層和輸出層的節(jié)點數(shù)、連接權值和訓練誤差值等初值,最后給定學習速率和神經

7、元鼓勵函數(shù)。2隱含層輸出計算。3輸出層輸出計算。4計算訓練誤差?jl=dqj-xljfslj,輸出層?jl=fsljk=1nl+1?l+1wl+1kj,隱含層和輸入層5修正權值和閾值wl+1jik+1=wljik+?jlxl-1i+wljik-wljik-1 l+1jk+1=ljk+?jl+ljk-ljk-16判斷是否到達訓練誤差要求,假設到達要求,就進展下一步,假設達不到要求否那么,轉到第2步,重新對BP網絡進展訓練和學習。7利用附加動量法規(guī)那么對BP神經網絡進展訓練,為了抑制BP神經網絡的缺點,在BP算法中參加動量項不僅可以微調權值的修正量,也可以有效的減少BP神經網絡在訓練和學習過程中的

8、缺陷。另外在修改訓練參數(shù)和連接權值的同時,還可以使用順序方式訓練網絡。順序方式訓練網絡要比批處理方式更快,特別是在訓練樣本集很大,而且具有重復樣本時,順序方式的這一優(yōu)點更為突出。8利用訓練后的BP神經網絡進展離散化處理利用BP神經網絡的分類功能,對訓練樣本數(shù)據(jù)進展處理,根據(jù)處理結果對連續(xù)數(shù)據(jù)進展離散化處理,綜合整理后就得到了離散化后的屬性表。利用BP神經網絡的新建一個網絡,經過訓練之后為了測試一下我們提出的算法的效果,我們可以對此算法進展一次實驗,我們利用仿真函數(shù)sim可以看到的聚類結果是:Yc =6544465 3這樣我們就得到了離散化后的屬性表。連續(xù)屬性離散化之后我們需要驗證一下離散化的結

9、果是否對屬性表的一致性產生了影響,所以我們再次利用LVQ神經網絡來檢驗,如今訓練樣本為P=34 2 2 2 43 2;34 2 3 2 2 43經過訓練得到的聚類結果是:Yc =55 1 5 1 1 55我們發(fā)現(xiàn)得到的結果和實際情況相符合。4 小結對于連續(xù)屬性離散化問題,我們在BP神經網絡的學習過程中,對網絡的訓練做了一些改進,引入了動量學習法,改善了BP神經網絡的性能,最后通過Mantis仿真實驗證明了該算法對于處理離散化問題的有效性。參考文獻:4 謝振華,商琳,李寧,等.粗糙集在神經網絡中應用技術的研究J.計算機應用研究, 2022, 219:71- 74.6 劉業(yè)政,焦寧.連續(xù)特征離散化算法比較研究J.計算機應用研究,2022,249.8 HUAN LIU, RARHAD HUSSAIN, CHEW LIM TAN, MANORANJAN DASH, 2002. Discretization: An Enabling Technique. Data Mining and Knowledge Discovery,6,393-423,2002. 2

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論