1樓:孤單南北半球
traingdx 有動量和自適應lr的梯度下降法
trainlm levenberg - marquardt方法
traind 梯度下降法
bp神經網路的幾個簡單問題
2樓:
1.一般你可以自己嘗試下,我最近也在嘗試,隱層用tansig是比較理想的,輸出層要自專
己嘗試的,如屬用purlin是輸出任意值,logsig很多書也是推崇的,將輸出值限定在【0,1】中,我一般都用tansig.
2.trainlm是一種訓練方法,使用的話收斂很快很快,相比的話traingd收斂很慢很慢。優勢traingd要訓練1000epochs,而trainlm只要訓練5epochs就夠了
matlab神經網路工具箱中訓練函式和自適應學習函式區別? 80
3樓:shine戚七七
訓練函式抄
和自適應學習函式區別:
從範圍襲上:
訓練函式包含學習函式,學習函式是屬於訓練函式的一部分;
從誤差上:
訓練函式對整體來說誤差是最小,學習函式對於單個神經元來說誤差是最小;
從服裝整體上:
訓練函式是全域性調整權值和閾值,學習函式是區域性調整權值和閾值。
1. 學習函式
learnp 感知器學習函式
learnpn 標準感知器學習函式
learnwh widrow_hoff學習規則learngd bp學習規則
learngdm 帶動量項的bp學習規則
learnk kohonen權學習函式
learncon conscience閾值學習函式learnsom 自組織對映權學習函式
2. 訓練函式
trainwb 網路權與閾值的訓練函式
traingd 梯度下降的bp演算法訓練函式traingdm 梯度下降w/動量的bp演算法訓練函式traingda 梯度下降w/自適應lr的bp演算法訓練函式traingdx 梯度下降w/動量和自適應lr的bp演算法訓練函式trainlm levenberg_marquardt的bp演算法訓練函式
trainwbl 每個訓練週期用一個權值向量或偏差向量的訓練函式
4樓:匿名使用者
訓練bai函式是全域性調整權值du和閾值,考慮zhi的是整體誤dao差的最小。
學習函式是版區域性調整權值和閾值權,考慮的是單個神經元誤差的最小。
所以兩者不衝突,可以一樣也可以不同,就像你繞著樓跑步時,地球也在繞著太陽跑,是區域性與整體的區別,既有聯絡又有區別,辯證統一。
5樓:匿名使用者
訓練函式和學習函式是兩個不同的函式 ,網路設定中兩個都有。
簡單的說,訓練函式確定調整的大演算法,學習函式決定調整量怎麼確定
bp神經網路收斂問題,BP神經網路的幾個簡單問題
當然是越慢。因為bai已經接近最低du點,訓練也進入誤 zhi差曲面的平dao坦區,每次搜內索的誤差下降速度是容減慢的。這一點可以在bp神經網路的誤差調整公式上看出。事實上收斂速度逐漸減慢,這是正常的,如果一定要避免這種情況,可以自適應改變學習率。由於傳統bp演算法的學習速率是固定的,因此網路的收斂...
自己用matlab實現的BP神經網路演算法,無法得到預期的效果,主要是誤差太大
lr 0.05 lr為學習速率 baierr goal 0.1 err goal為期du望誤差最小值 max epoch 15000 max epoch為訓練的最大次數 a 0.9 a為慣性系數oi 0 ok 0 置隱zhi含層和輸出層各神dao經元輸出初值為回0 這些初始答引數是誰提供給你?調整一...
BP神經網路中隱藏層節點個數怎麼確定最佳
1 神經網路演算法隱含層的選取 1.1 構造法 首先運用三種確定隱含層層數的方法得版到三個隱含層層數,找到最小權值和最大值,然後從最小值開始逐個驗證模型 誤差,直到達到最大值。最後選取模型誤差最小的那個隱含層層數。該方法適用於雙隱含層網路。1.2 刪除法 單隱含層網路非線性對映能力較弱,相同問題,為...