圳南提示您:看後求收藏(第241章 ai,網際網路2010,圳南,630看書),接著再看更方便。
請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。
路舟停了下來,思考片刻又接著說了下去。
“而在訓練這個網路之前,我們可以用均方誤差來定義loss值,確定訓練之後的預測結果是否達到要求。均方誤差我就不多講了,應該都懂吧。”
“......”
路舟抬眼看了三人一眼,“那麼接下來訓練的最佳化就集中在了將loss值減小。具體來說就是對上述得到的loss值函式形式進行鏈式求導......”
甄臻忽然就是舉手,“師兄,能不能演算一遍。”
路舟笑了笑,“哪專業的,數學沒學好吧。”
廖文秀,“也不是呢師兄,主要是研究生沒選的人工智慧方向,思路還沒開啟。”
路舟聽了也不多說,他也只得拿了筆在一張白紙上給三人演示。
“事實上loss會包含我剛提到的權重w和偏置引數。所以我們在調整w時,loss到底是增大還是減小?這就需要我們求一個LW的偏導數。
這裡我們直接鏈式求導,然後根據loss的定義去求出第一個偏導數,再根據神經元定義的h值再次求導,再配合啟用函式sigmoid最後得到總的求導公式......”
甄臻,“......”
路舟,“ok,這方法一般被叫做反向傳播。經過這個計算後,我們是可以得出對w變化時,loss函式最終的變化曲線。對於這接下來的問題,我們則可以再用一個隨機梯度下降SGD的最佳化演算法來進行最佳化。”
廖文秀,“......”
路舟,“SGD主要的作用在於權重和偏置值的調整。首先我們定義一個學習率的常數,它將決定整個神經網路的訓練速度。這樣,我們再逐步調整權重和偏置的過程中,loss也能夠不斷降低。
最後loss達到了要求,整個流程也就走完了,模型也就出來了。”
曹文聰,“......”
路舟見三人表情有些懵逼,感覺是有些尷尬,“額......”
他抹了一把臉,直接喚醒了一旁的電腦,“好吧,這麼說有點虛,我直接給你們寫個程式碼樣例。我就直接用python來示範吧,用numpy的模組。大概呢還是按照我們剛剛的理論基礎,先定義幾個需要用的函式......”
五分鐘後。
“好了。大概就是這樣。”
三人,“......”
這也忒快了點。
甄臻有些膽小地又舉了手,“師兄。博士和研究生差距有這麼大嘛?我怎麼一點聽不進去......”
路舟聽了就樂了,“別。我就一本科生。陸師兄面前我可不敢造次。”
三人,“?!”
本章未完,點選下一頁繼續閱讀。