sklearn之神經網路
作者:由 迭代 發表于 舞蹈時間:2020-05-16
我是誰?正電拍拍
基本原理
基本的神經網路架構
在網路中,每一個節點中的計算如下,其中啟用函式此處是sign,但一般選用relu比較多,輸出層會使用sigmoid或softmax進行分類。
因為是全連線神經網路,所以會有很多個引數,引數右上角是下一層對應的網路層數(在吳恩達系列視屏中輸入層不作為一層,所以右上角是從1開始的,此處是從2開始的),右下角第一個數是下一層神經元的位置,第二個數是前一層神經元的位置。
所以,神經網路其實是一個函式的巢狀過程,每一層的計算都需要前一層的計算結果。
sklearn中神經網路應用
sklearn。neural_network。MLPClassifier,但一般如果用到神經網路都會使用tensorflow或pytorch
(1)hidden_layer_sizes
資料引入
單隱層層神經元和決策樹結果比較
增加隱藏層節點數量,結果似乎變好
單隱層找到最好的節點數,節點越多,效果似乎越好
控制隱藏層節點,增加隱藏層,層數越多效果似乎越好
同時增加層數與節點,也是模型越複雜,結果越好
其餘還有啟用函式的選擇,梯度下降的選擇,反向傳播的選擇,損失函式的選擇等等。