神經網絡教程:初學者分步指南
已發表: 2019-11-20在機器學習領域,有很多有趣的概念。 在這裡,在這個神經網絡教程中,我們將討論神經網絡的基本概念之一。 本文將通過解釋這些網絡背後的理論來幫助您理解這些網絡的工作原理。
完成本人工神經網絡教程後,您會發現:
- 什麼是神經網絡?
- 神經網絡是如何工作的?
- 神經網絡有哪些類型?
目錄
什麼是神經網絡?
神經網絡是一種旨在像人腦一樣工作的系統。 這很簡單,但在我們的日常生活中很普遍。
一個複雜的定義是神經網絡是一個具有網絡架構的計算模型。 這種架構由人工神經元組成。 該結構具有特定參數,可以通過這些參數對其進行修改以執行某些任務。
它們具有廣泛的近似特性。 這意味著他們可以將函數逼近到任何精度級別,而不管其維度如何。 神經網絡在傳統計算機表現不佳的領域有廣泛的應用。 從 Siri 到谷歌地圖,神經網絡出現在每個使用人工智能的地方。
它們是人工智能操作的重要組成部分。 神經網絡從人腦中汲取靈感,因此它們的結構也與之相似。

神經網絡如何工作?
神經網絡有很多層。 每一層都執行特定的功能,網絡越複雜,層數就越多。 這就是為什麼神經網絡也被稱為多層感知器的原因。
最純粹的神經網絡形式具有三層:
- 輸入層
- 隱藏層
- 輸出層
顧名思義,這些層中的每一層都有特定的用途。 這些層由節點組成。 根據需要,一個神經網絡可以有多個隱藏層。 輸入層拾取輸入信號並將它們傳輸到下一層。 它從外部世界收集數據。
隱藏層執行計算的所有後端任務。 一個網絡甚至可以有零個隱藏層。 然而,神經網絡至少有一個隱藏層。 輸出層傳輸隱藏層計算的最終結果。
與其他機器學習應用程序一樣,您也必須使用一些訓練數據來訓練神經網絡,然後才能為其提供特定問題。 但在我們更深入地了解神經網絡如何解決問題之前,您應該首先了解感知器層的工作原理:
感知器層如何工作?
神經網絡由許多感知器層組成; 這就是為什麼它有“多層感知器”這個名字。 這些層也稱為密集層的隱藏層。 它們由許多感知器中子組成。 它們是共同工作以形成感知器層的主要單元。 這些神經元接收輸入集中的信息。 您將這些數字輸入與一個偏差和一組權重結合起來,然後產生一個輸出。
對於計算,每個神經元都考慮權重和偏差。 然後,組合函數使用權重和偏差給出輸出(修改後的輸入)。 它通過以下等式起作用:
組合 = 偏差 +權重 * 輸入
在此之後,激活函數產生具有以下等式的輸出:
輸出 = 激活(組合)
這個函數決定了神經網絡扮演什麼樣的角色。 它們構成了網絡的各個層。 以下是流行的激活函數:
線性函數
在這個函數中,輸出只是神經元的組合:
激活=組合
雙曲正切函數
它是神經網絡中最流行的激活函數。 它是一個 sigmoid 函數,位於 -1 和 +1 之間:
激活 = tanh(組合)
邏輯函數
邏輯函數與雙曲正切函數非常相似,因為它也是一種 sigmoid 函數。 但是,它是不同的,因為它位於 0 和 1 之間:
激活 = 1 1 + e -組合
整流線性單位函數
就像雙曲正切函數一樣,修正後的線性單位函數也很普遍。 整流線性單元函數的另一個名稱是 ReLU。 ReLU 等於或大於零時等於組合,如果組合小於(負)零則為負。
那麼,神經網絡究竟是如何工作的呢?
既然您知道神經網絡背後是什麼以及它是如何工作的,我們就可以專注於神經網絡的工作。
以下是它的工作原理:

- 信息被輸入輸入層,輸入層將其傳輸到隱藏層
- 兩層之間的互連為每個輸入隨機分配權重
- 在權重與它們單獨相乘後添加到每個輸入的偏差
- 加權和被轉移到激活函數
- 激活函數確定應該觸發哪些節點進行特徵提取
- 該模型將應用程序功能應用於輸出層以傳遞輸出
- 調整權重,並反向傳播輸出以最小化錯誤
該模型使用成本函數來降低錯誤率。 您將不得不使用不同的訓練模型更改權重。
- 模型將輸出與原始結果進行比較
- 它重複該過程以提高準確性
該模型在每次迭代中調整權重以提高輸出的準確性。
加入來自世界頂級大學的在線人工智能課程——碩士、高管研究生課程和 ML 和 AI 高級證書課程,以加快您的職業生涯。
神經網絡的類型
1)循環神經網絡(RNN)
在這個網絡中,層的輸出被保存並傳輸回輸入。 這樣,特定層的節點會記住有關過去步驟的一些信息。 輸入層的組合是權重和特徵之和的乘積。 循環神經網絡過程從隱藏層開始。
在這裡,每個節點都記住了它的前一步的一些信息。 該模型保留了每次迭代的一些信息,以後可以使用這些信息。 當結果錯誤時,系統會自我學習。 然後,它使用該信息來提高其在反向傳播中的預測準確性。 RNN 最流行的應用是文本轉語音技術。
2)卷積神經網絡(CNN)
該網絡由一個或多個卷積層組成。 該網絡中存在的捲積層在將輸入傳輸到下一層之前對輸入應用卷積函數。 由於這個原因,網絡的參數更少,但它變得更加深刻。 CNN 廣泛用於自然語言處理和圖像識別。
3)徑向基函數神經網絡(RBFNN)
該神經網絡使用徑向基函數。 該函數考慮點到中心的距離。 這些網絡由兩層組成。 隱藏層將特徵與徑向基函數結合起來,並將輸出傳遞到下一層。
下一層在使用上一層的輸出時執行相同的操作。 徑向基函數神經網絡用於電力系統。

4)前饋神經網絡(FNN)
這是最純粹的人工神經網絡形式。 在這個網絡中,數據沿一個方向移動,即從輸入層到輸出層。 在這個網絡中,輸出層接收輸入乘積及其權重的總和。 這個神經網絡沒有反向傳播。 這些網絡可能有很多或零個隱藏層。 這些更容易維護和在人臉識別中找到應用。
5)模塊化神經網絡
該網絡擁有多個獨立運行的網絡。 它們都執行特定的任務,但在計算過程中它們不相互交互。
這樣,模塊化神經網絡可以以更高的效率執行高度複雜的任務。 與更簡單的網絡(例如 FNN)相比,這些網絡的維護難度更大,但它們也為複雜的任務提供了更快的結果。
了解有關神經網絡的更多信息
這就是我們的神經網絡教程中的內容。 您一定已經看到這些網絡可以執行的各種任務。 它們幾乎用於我們日常使用的所有技術中。 如果您想了解有關神經網絡的更多信息,可以查看我們的人工智能和機器學習課程目錄。
您可以查看我們的機器學習和 AI 執行 PG 計劃,該計劃提供實用的實踐研討會、一對一的行業導師、12 個案例研究和作業、IIIT-B 校友身份等。
神經網絡是如何工作的?
輸入層接收數據並將其傳遞給隱藏層。 權重通過兩層之間的鏈接隨機分配給每個輸入。 在權重與它們單獨相乘後,對每個輸入應用一個偏差。 將加權總數傳遞給激活函數。 對於特徵提取,激活函數決定應該觸發哪些節點。 為了傳遞輸出,模型在輸出層使用了一個應用函數。 為了減少錯誤,修改權重並反向傳播輸出。
什麼是遞歸神經網絡?
存儲層的輸出並將其發送回該網絡中的輸入。 結果,特定層的節點保留了有關先前操作的一些信息。 權重和特徵的總和決定了輸入層的組合。 隱藏層是基於 rnn 的過程開始的地方。 這裡的每個節點都會記住前一階段的部分信息。 該模型會保存每次迭代的一些數據,以便以後使用。 當系統的結果不正確時,它會自學。 然後,它使用該知識來優化其反向傳播預測的準確性。 文本轉語音技術是 RNN 最常見的應用。
多層感知器如何工作?
“多層感知器”這個名字來源於一個神經網絡由多個感知器層組成的事實。 這些層也稱為具有隱藏層的密集層。 它們由大量的感知器中子組成。 它們是構成感知器層的基本構建塊。 輸入集合中的信息到達這些神經元。 這些數字輸入與偏差以及一組權重相結合以產生單個輸出。