偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

機器學習之神經(jīng)網(wǎng)絡及Python實現(xiàn)

開發(fā) 前端 機器學習
神經(jīng)網(wǎng)絡在機器學習中有很大的應用,甚至涉及到方方面面。本文主要是簡單介紹一下神經(jīng)網(wǎng)絡的基本理論概念和推算。同時也會介紹一下神經(jīng)網(wǎng)絡在數(shù)據(jù)分類方面的應用。

神經(jīng)網(wǎng)絡在機器學習中有很大的應用,甚至涉及到方方面面。本文主要是簡單介紹一下神經(jīng)網(wǎng)絡的基本理論概念和推算。同時也會介紹一下神經(jīng)網(wǎng)絡在數(shù)據(jù)分類方面的應用。

[[246577]]

首先,當我們建立一個回歸和分類模型的時候,無論是用最小二乘法(OLS)還是***似然值(MLE)都用來使得殘差達到最小。因此我們在建立模型的時候,都會有一個loss function。

而在神經(jīng)網(wǎng)絡里也不例外,也有個類似的loss function。

對回歸而言:

對分類而言:

然后同樣方法,對于W開始求導,求導為零就可以求出極值來。

關(guān)于式子中的W。我們在這里以三層的神經(jīng)網(wǎng)絡為例。先介紹一下神經(jīng)網(wǎng)絡的相關(guān)參數(shù)。

神經(jīng)網(wǎng)絡的相關(guān)參數(shù)

***層是輸入層,第二層是隱藏層,第三層是輸出層。

在X1,X2經(jīng)過W1的加權(quán)后,達到隱藏層,然后經(jīng)過W2的加權(quán),到達輸出層

其中,

我們有:

至此,我們建立了一個初級的三層神經(jīng)網(wǎng)絡。

當我們要求其的loss function最小時,我們需要逆向來求,也就是所謂的backpropagation。

我們要分別對W1和W2進行求導,然后求出其極值。

從右手邊開始逆推,首先對W2進行求導。

代入損失函數(shù)公式:

然后,我們進行化簡:

化簡到這里,我們同理再對W1進行求導。

我們可以發(fā)現(xiàn)當我們在做bp網(wǎng)絡時候,有一個逆推回去的誤差項,其決定了loss function 的最終大小。

在實際的運算當中,我們會用到梯度求解,來求出極值點。

總結(jié)一下來說,我們使用向前推進來理順神經(jīng)網(wǎng)絡做到回歸分類等模型。而向后推進來計算他的損失函數(shù),使得參數(shù)W有一個***解。

當然,和線性回歸等模型相類似的是,我們也可以加上正則化的項來對W參數(shù)進行約束,以免使得模型的偏差太小,而導致在測試集的表現(xiàn)不佳。

Python 的實現(xiàn):

使用了KERAS的庫

解決線性回歸:

  1. model.add(Dense(1, input_dim=n_featuresactivation='linear'use_bias=True)) 
  2. # Use mean squared error for the loss metric and use the ADAM backprop algorithm 
  3. model.compile(loss='mean_squared_error'optimizer='adam'
  4. # Train the network (learn the weights) 
  5. # We need to convert from DataFrame to NumpyArray 
  6. history = model.fit(X_train.values, y_train.values, epochs=100,  
  7.  batch_size=1verbose=2validation_split=0

解決多重分類問題:

  1. # create model 
  2. model = Sequential() 
  3. model.add(Dense(64, activation='relu'input_dim=n_features)) 
  4. model.add(Dropout(0.5)) 
  5. model.add(Dense(64, activation='relu')) 
  6. model.add(Dropout(0.5)) 
  7. # Softmax output layer 
  8. model.add(Dense(7, activation='softmax')) 
  9. model.compile(loss='categorical_crossentropy'optimizer='adam'metrics=['accuracy']) 
  10. model.fit(X_train.values, y_train.values, epochs=20batch_size=16
  11. y_pred = model.predict(X_test.values) 
  12. y_te = np.argmax(y_test.values, axis = 1
  13. y_pr = np.argmax(y_pred, axis = 1
  14. print(np.unique(y_pr)) 
  15. print(classification_report(y_te, y_pr)) 
  16. print(confusion_matrix(y_te, y_pr)) 

當我們選取***參數(shù)時候,有很多種解決的途徑。這里就介紹一種是gridsearchcv的方法,這是一種暴力檢索的方法,遍歷所有的設定參數(shù)來求得***參數(shù)。

  1. from sklearn.model_selection import GridSearchCV 
  2. def create_model(optimizer='rmsprop'): 
  3.  model = Sequential() 
  4.  model.add(Dense(64, activation='relu'input_dim=n_features)) 
  5.  model.add(Dropout(0.5)) 
  6.  model.add(Dense(64, activation='relu')) 
  7.  model.add(Dropout(0.5)) 
  8.  model.add(Dense(7, activation='softmax')) 
  9.  model.compile(loss='categorical_crossentropy'optimizeroptimizer=optimizer, metrics=['accuracy']) 
  10.   
  11.  return model 
  12. model = KerasClassifier(build_fn=create_modelverbose=0
  13. optimizers = ['rmsprop'] 
  14. epochs = [5, 10, 15] 
  15. batches = [128] 
  16. param_grid = dict(optimizer=optimizersepochsepochs=epochs, batch_size=batchesverbose=['2']) 
  17. grid = GridSearchCV(estimator=modelparam_gridparam_grid=param_grid) 
  18. grid.fit(X_train.values, y_train.values) 
責任編輯:趙寧寧 來源: 今日頭條
相關(guān)推薦

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡

2022-02-15 23:38:22

Python機器學習算法

2020-12-25 10:08:53

Python機器學習神經(jīng)網(wǎng)絡算法

2023-04-19 10:17:35

機器學習深度學習

2017-07-27 10:46:44

神經(jīng)網(wǎng)絡機器學習強化學習

2017-07-18 10:20:30

Python神經(jīng)網(wǎng)絡

2017-03-13 14:45:51

Python神經(jīng)網(wǎng)絡基礎(chǔ)

2025-02-24 08:00:00

機器學習ML架構(gòu)

2017-03-10 12:16:46

機器學習

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡機器學習算法

2024-04-30 14:54:10

2017-07-06 17:03:45

BP算法Python神經(jīng)網(wǎng)絡

2017-08-04 14:23:04

機器學習神經(jīng)網(wǎng)絡TensorFlow

2023-11-15 16:12:41

人工智能機器學習深度學習

2025-02-25 14:13:31

2017-03-07 13:55:30

自動駕駛神經(jīng)網(wǎng)絡深度學習

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡生物神經(jīng)網(wǎng)絡人工神經(jīng)網(wǎng)絡

2020-06-23 11:49:08

神經(jīng)網(wǎng)絡數(shù)據(jù)圖形

2020-05-06 10:29:45

機器學習神經(jīng)網(wǎng)絡TensorFlow

2019-05-07 19:12:28

機器學習神經(jīng)網(wǎng)絡Python
點贊
收藏

51CTO技術(shù)棧公眾號