您應該了解的 10 大深度學習技術

已發表: 2020-05-29

目錄

介紹

在過去的幾年裡,機器學習和人工智能以其突破性的創新改變了我們周圍的世界。 此外,正是各種深度學習技術將機器學習提升到了一個全新的水平,在人腦神經網絡的啟發下,機器可以學習識別任務。 這就是我們在智能手機和電視遙控器上進行語音控制的原因。

有不同類型的深度學習模型既準確又有效地解決了對人腦來說過於復雜的問題。 這是如何做:

十大深度學習技術

1. 經典神經網絡

也稱為全連接神經網絡,它通常由其多層感知器識別,其中神經元連接到連續層。 它由美國心理學家 Fran Rosenblatt 於1958 年設計。它涉及將模型改編為基本的二進制數據輸入。 該模型包含三個功能:它們是:

  • 線性函數:準確地說,它代表一條線,將其輸入乘以一個常數乘數。
  • 非線性函數:進一步分為三個子集:
  1. Sigmoid 曲線:它是一個被解釋為 S 形曲線的函數,其範圍從 0 到 1。
  2. 雙曲正切 (tanh)是指範圍為 -1 到 1 的 S 形曲線。
  3. 整流線性單元(ReLU):它是一個單點函數,當輸入值小於設定值時產生 0,如果給定輸入值高於設定值則產生線性倍數。

最適用於:

  1. 任何具有 CSV 格式的行和列的表數據集
  2. 輸入真實值的分類和回歸問題
  3. 任何具有最高靈活性的模型,例如 ANNS

2. 卷積神經網絡

CNN是經典人工神經網絡模型的高級和高潛力類型。 它是為處理更高的複雜性、預處理和數據編譯而構建的。 它參考了動物大腦視覺皮層中神經元的排列順序。

CNN 可以被認為是專門研究圖像和非圖像數據的最有效靈活的模型之一。 它們有四個不同的組織:

  • 它由單個輸入層組成,通常是用於分析原始圖像數據的神經元的二維排列,類似於照片像素。
  • 一些 CNN 還包含一個單維神經元輸出層,通過分散的連接卷積層處理其輸入上的圖像。
  • CNN 還存在稱為採樣層的第三層,以限制相應網絡層中涉及的神經元數量。
  • 總體而言,CNN 具有將採樣連接到輸出層的單個或多個連接層。

該網絡模型可以幫助以較小的單元或塊的形式獲取相關圖像數據。 卷積層中存在的神經元負責前一層中的神經元簇。

將輸入數據導入卷積模型後,構建 CNN 涉及四個階段:

  • 卷積:該過程從輸入數據中導出特徵圖,然後將函數應用於這些圖。
  • Max-Pooling:它幫助 CNN 根據給定的修改來檢測圖像。
  • 展平:在這個階段,生成的數據會被展平以供 CNN 分析。
  • 全連接:通常被描述為為模型編譯損失函數的隱藏層。

CNN 足以完成包括圖像識別、圖像分析、圖像分割、視頻分析和自然語言處理在內的任務。 然而,在其他場景中,CNN 網絡可能被證明是有用的,例如:

  • 包含 OCR 文檔分析的圖像數據集
  • 任何二維輸入數據,可以進一步轉換為一維以進行更快的分析
  • 該模型需要參與其架構以產生輸出。

閱讀更多:卷積神經網絡

3. 遞歸神經網絡 (RNN)

RNN 最初旨在幫助預測序列,例如,長短期記憶 (LSTM)算法以其多種功能而聞名。 這樣的網絡完全在可變輸入長度的數據序列上工作。

RNN 將從其先前狀態獲得的知識作為當前預測的輸入值。 因此,它可以幫助實現網絡中的短期記憶,從而有效管理股票價格變化或其他基於時間的數據系統。

如前所述,有兩種類型的 RNN 設計有助於分析問題。 他們是:

  • LSTM:在使用內存預測時間序列中的數據時很有用。 它具有三個門:輸入、輸出和忘記。
  • 門控 RNN:也可用於通過內存對時間序列進行數據預測。 它有兩個門——更新和重置。

最適用於:

  • 一對一:連接到單個輸出的單個輸入,例如圖像分類。
  • 一對多:鏈接到輸出序列的單個輸入,例如包含來自單個圖像的多個單詞的圖像字幕。
  • 多對一:一系列輸入產生單一輸出,如情緒分析。
  • 多對多:一系列輸入產生一系列輸出,如視頻分類。

它還廣泛用於語言翻譯、對話建模等。

從世界頂級大學在線獲取最佳機器學習課程獲得碩士、Executive PGP 或高級證書課程以加快您的職業生涯。

4. 生成對抗網絡

它結合了神經網絡的兩種深度學習技術——生成器和鑑別器。 雖然生成器網絡產生人工數據,但鑑別器有助於辨別真實數據和虛假數據。

這兩個網絡都具有競爭力,因為生成器不斷產生與真實數據相同的人工數據——鑑別器不斷檢測真實和非真實數據。 在需要創建圖像庫的場景中,生成器網絡將為真實圖像生成模擬數據。 然後它將生成一個反捲積神經網絡。

然後將跟隨一個圖像檢測器網絡來區分真假圖像。 50% 的準確率開始,檢測器需要提高其分類質量,因為生成器在其人工圖像生成中會變得更好。 這種競爭將總體上提高網絡的有效性和速度。

最適用於:

  • 圖像和文本生成
  • 圖像增強
  • 新藥發現流程

5. 自組織地圖

SOM 或自組織圖在減少模型中隨機變量數量的無監督數據的幫助下運行。 在這種類型的深度學習技術中,輸出維度固定為二維模型,因為每個突觸都連接到其輸入和輸出節點。

當每個數據點競爭其模型表示時,SOM 會更新最近節點或最佳匹配單元 (BMU)的權重。 基於 BMU 的接近程度,權重的值會發生變化。 由於權重本身被視為節點特徵,因此該值表示節點在網絡中的位置。

最適用於:

  • 當數據集沒有 Y 軸值時
  • 分析數據集框架的項目探索
  • 借助 AI 進行音樂、視頻和文本方面的創意項目

6. 玻爾茲曼機

該網絡模型沒有任何預定義的方向,因此其節點以圓形排列連接。 由於這種獨特性,這種深度學習技術被用於生成模型參數。

與之前所有的確定性網絡模型不同,玻爾茲曼機模型被稱為隨機模型。

最適用於:

  • 系統監控
  • 搭建二元推薦平台
  • 分析特定數據集

閱讀:當今構建自己的人工智能係統的分步方法

7. 深度強化學習

在理解深度強化學習技術之前,強化學習是指代理與環境交互以修改其狀態的過程。 代理可以觀察並採取相應的行動,代理通過與情況交互來幫助網絡達到其目標。

在這裡,在這個網絡模型中,有一個輸入層、輸出層和幾個隱藏的多層——其中環境的狀態是輸入層本身。 該模型致力於不斷嘗試預測在給定情況下採取的每項行動的未來回報。

最適用於:

  • 棋盤遊戲,如國際象棋、撲克
  • 自駕車
  • 機器人技術
  • 庫存管理
  • 資產定價等財務任務

8. 自動編碼器

作為最常用的深度學習技術類型之一,該模型根據其輸入自動運行,然後採用激活函數和最終輸出解碼。 這種瓶頸形成導致產生較少類別的數據並利用大多數固有數據結構。

自動編碼器的類型是:

  • 稀疏- 隱藏層的數量超過輸入層,以進行泛化方法以減少過度擬合。 它限制了損失函數並防止自動編碼器過度使用其所有節點。
  • 去噪——在這裡,輸入的修改版本被隨機轉換為 0。
  • 收縮——在損失函數中添加懲罰因子以限製過度擬合和數據複製,以防隱藏層數量超過輸入層。
  • Stacked – 對於自動編碼器,一旦添加了另一個隱藏層,它就會導致兩個編碼階段到一個解碼階段。

最適用於:

  • 特徵檢測
  • 建立一個引人注目的推薦模型
  • 向大型數據集添加特徵

閱讀:深度學習中的正則化

9. 反向傳播

深度學習中,反向傳播或反向傳播技術被稱為神經網絡學習數據預測中任何錯誤的中心機制。 另一方面,傳播是指通過專用信道在給定方向上傳輸數據。 整個系統可以在決策時刻根據信號正向傳播工作,並反向發回有關網絡缺陷的任何數據。

  • 首先,網絡分析參數並決定數據
  • 其次,它是用損失函數加權的
  • 第三,識別的錯誤被反向傳播以自我調整任何不正確的參數

最適用於:

  • 數據調試

10. 梯度下降

在數學上下文中,梯度是指具有可測量角度並且可以表示為變量之間關係的斜率。 在這種深度學習技術中,神經網絡中產生的誤差與數據參數的誤差之間的關係可以表示為“x”和“y”。 由於變量在神經網絡中是動態的,因此可以通過微小的變化來增加或減少誤差。

許多專業人士將這項技術想像成一條從山坡上流下的河道。 這種方法的目標是——找到最優解。 由於神經網絡中存在多個局部最小解決方案,其中數據可能會被困並導致更慢、不正確的編譯 - 有一些方法可以避免此類事件。

作為山區的地形,神經網絡中有一個特殊的函數,稱為凸函數,它使數據以預期的速率流動並達到其最小值。 由於函數初始值的變化,數據進入最終目的地所採用的方法可能會有所不同。

最適用於:

  • 更新給定模型中的參數

另請閱讀:初學者的 15 個有趣的機器學習項目創意

包起來

有多種深度學習技術附帶其功能和實用方法。 一旦確定了這些模型並將其置於正確的場景中,就可以基於開發人員使用的框架實現高端解決方案。 祝你好運!

查看 IIT Madras 的機器學習和雲高級認證計劃,這是該國最好的工程學校,創建一個計劃,不僅可以教您機器學習,還可以使用雲基礎設施進行有效部署。 我們通過該計劃的目標是打開該國最具選擇性的學院的大門,並讓學習者獲得驚人的師資和資源,以掌握高增長的技能

什麼是一般對抗網絡?

它是兩種深度學習神經網絡技術的混合體:生成器和判別器。 當生成器網絡生成虛構數據時,鑑別器有助於區分真實數據和虛構數據。 因為生成器繼續產生與真實數據相同的虛假數據——鑑別器繼續識別真實和不真實的數據——這兩個網絡都具有競爭力。 在需要圖像庫的情況下,生成器網絡將生成真實照片的模擬結果。 之後,它將創建一個反捲積神經網絡。

自組織地圖有什麼用?

SOM 或自組織圖通過使用無監督數據減少模型中隨機變量的數量來工作。 當每個神經元連接到其入口和出口節點時,在這種深度學習技術中,結果維度被設置為二維模型。 SOM 調整最近節點或最佳匹配單元的值,因為每個數據點都為其模型表示 (BMU) 出價。 權重的值取決於 BMU 的接近程度。 因為權重本身被認為是節點特徵,所以該值表示節點在網絡中的位置。

什麼是反向傳播?

反向傳播算法或反向傳播方法是神經網絡了解深度學習中數據預測中的任何失敗的重要要求。 另一方面,傳播是指通過定義的通道在特定方向上傳輸數據。 在選擇的那一刻,整個系統可以根據信號正向傳播工作,並在反向發送任何有關網絡缺陷的數據。