圳南提示您:看後求收藏(第241章 ai,網際網路2010,圳南,630看書),接著再看更方便。

請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。

路舟停了下來,思考片刻又接著說了下去。

“而在訓練這個網路之前,我們可以用均方誤差來定義loss值,確定訓練之後的預測結果是否達到要求。均方誤差我就不多講了,應該都懂吧。”

“......”

路舟抬眼看了三人一眼,“那麼接下來訓練的最佳化就集中在了將loss值減小。具體來說就是對上述得到的loss值函式形式進行鏈式求導......”

甄臻忽然就是舉手,“師兄,能不能演算一遍。”

路舟笑了笑,“哪專業的,數學沒學好吧。”

廖文秀,“也不是呢師兄,主要是研究生沒選的人工智慧方向,思路還沒開啟。”

路舟聽了也不多說,他也只得拿了筆在一張白紙上給三人演示。

“事實上loss會包含我剛提到的權重w和偏置引數。所以我們在調整w時,loss到底是增大還是減小?這就需要我們求一個LW的偏導數。

這裡我們直接鏈式求導,然後根據loss的定義去求出第一個偏導數,再根據神經元定義的h值再次求導,再配合啟用函式sigmoid最後得到總的求導公式......”

甄臻,“......”

路舟,“ok,這方法一般被叫做反向傳播。經過這個計算後,我們是可以得出對w變化時,loss函式最終的變化曲線。對於這接下來的問題,我們則可以再用一個隨機梯度下降SGD的最佳化演算法來進行最佳化。”

廖文秀,“......”

路舟,“SGD主要的作用在於權重和偏置值的調整。首先我們定義一個學習率的常數,它將決定整個神經網路的訓練速度。這樣,我們再逐步調整權重和偏置的過程中,loss也能夠不斷降低。

最後loss達到了要求,整個流程也就走完了,模型也就出來了。”

曹文聰,“......”

路舟見三人表情有些懵逼,感覺是有些尷尬,“額......”

他抹了一把臉,直接喚醒了一旁的電腦,“好吧,這麼說有點虛,我直接給你們寫個程式碼樣例。我就直接用python來示範吧,用numpy的模組。大概呢還是按照我們剛剛的理論基礎,先定義幾個需要用的函式......”

五分鐘後。

“好了。大概就是這樣。”

三人,“......”

這也忒快了點。

甄臻有些膽小地又舉了手,“師兄。博士和研究生差距有這麼大嘛?我怎麼一點聽不進去......”

路舟聽了就樂了,“別。我就一本科生。陸師兄面前我可不敢造次。”

三人,“?!”

本章未完,點選下一頁繼續閱讀。

遊戲小說相關閱讀More+

光輝之誰與爭鋒

美麗心點

幽藍之尾[人外]

魔鬼椒

棄妻難再逑

葦葉

時傾

木慕618