知っておくべきディープラーニングテクニックトップ10

公開: 2020-05-29

目次

序章

機械学習とAIは、その画期的なイノベーションにより、過去数年間、私たちの周りの世界を変えてきました。 さらに、機械学習をまったく新しいレベルに引き上げるのは、人間の脳の神経ネットワークに触発されたタスクの識別を機械が学習できるさまざまな深層学習手法です。 これが、スマートフォンやテレビのリモコンで音声制御を使用できる理由です。

人間の脳にとって複雑すぎる問題に正確かつ効果的に取り組むさまざまなタイプの深層学習モデルがあります。 方法は次のとおりです。

ディープラーニングテクニックトップ10

1.クラシックニューラルネットワーク

完全接続ニューラルネットワークとも呼ばれ、ニューロンが連続層に接続されている多層パーセプトロンによって識別されることがよくあります。 これは、 1958年アメリカの心理学者であるFran Rosenblattによって設計されました。これには、基本的なバイナリデータ入力へのモデルの適応が含まれます。 このモデルには3つの機能が含まれています。それらは次のとおりです。

  • 次関数:正しく呼ばれると、入力を一定の乗数で乗算する単一の線を表します。
  • 非線形関数:さらに3つのサブセットに分けられます。
  1. シグモイド曲線: 0から1の範囲のS字型曲線として解釈される関数です。
  2. 双曲線正接(tanh)は、-1から1の範囲を持つS字型の曲線を指します。
  3. 正規化線形単位(ReLU):入力値が設定値よりも小さい場合は0を生成し、入力が設定値よりも大きい場合は線形倍数を生成する単一点関数です。

最適な動作:

  1. CSVでフォーマットされた行と列を持つすべてのテーブルデータセット
  2. 実際の値の入力に関する分類と回帰の問題
  3. ANNSのモデルのように、柔軟性が最も高いモデル

2.畳み込みニューラルネットワーク

CNNは、古典的な人工ニューラルネットワークモデルの高度でポテンシャルの高いタイプです。 これは、より複雑な処理、前処理、およびデータコンパイルに取り組むために構築されています。 それは、動物の脳の視覚野に存在するニューロンの配置の順序から参照します。

CNNは、画像および非画像データに特化するための最も効率的に柔軟なモデルの1つと見なすことができます。 これらには4つの異なる組織があります。

  • これは、単一の入力層で構成されています。これは、通常、写真ピクセルの場合と同様に、一次画像データを分析するためのニューロンの2次元配置です。
  • 一部のCNNは、散乱接続された畳み込み層を介して、入力で画像を処理するニューロンの1次元出力層で構成されています。
  • CNNには、対応するネットワーク層に関与するニューロンの数を制限するためのサンプリング層と呼ばれる第3層もあります。
  • 全体として、CNNには、サンプリングを出力層に接続する単一または複数の接続された層があります。

このネットワークモデルは、関連する画像データを小さな単位またはチャンクの形式で導出するのに役立ちます。 畳み込み層に存在するニューロンは、前の層のニューロンのクラスターに責任があります。

入力データが畳み込みモデルにインポートされると、CNNの構築には次の4つの段階が含まれます。

  • 畳み込み:プロセスは、入力データから特徴マップを導き出し、その後にこれらのマップに適用される関数が続きます。
  • Max-Pooling: CNNが特定の変更に基づいて画像を検出するのに役立ちます。
  • フラット化:この段階では、生成されたデータは、CNNが分析できるようにフラット化されます。
  • 完全接続:モデルの損失関数をコンパイルする隠れ層として説明されることがよくあります。

CNNは、画像認識、画像分析、画像セグメンテーション、ビデオ分析、自然言語処理などのタスクに適しています。 ただし、CNNネットワークが有用であることが証明できるシナリオは他にもあります。

  • OCRドキュメント分析を含む画像データセット
  • より迅速な分析のためにさらに1次元に変換できる任意の2次元入力データ
  • モデルは、出力を生成するためにそのアーキテクチャに関与する必要があります。

続きを読む:畳み込みニューラルネットワーク

3.リカレントニューラルネットワーク(RNN)

RNNは、シーケンスの予測を支援するために最初に設計されました。たとえば、長短期記憶(LSTM)アルゴリズムは、その複数の機能で知られています。 このようなネットワークは、可変入力長のデータシーケンスで完全に機能します。

RNNは、以前の状態から得られた知識を現在の予測の入力値として配置します。 したがって、ネットワークで短期記憶を実現するのに役立ち、株価の変化やその他の時間ベースのデータシステムを効果的に管理できます。

前述のように、問題の分析に役立つRNN設計には2つの全体的なタイプがあります。 彼らです:

  • LSTM:メモリを使用した時系列のデータの予測に役立ちます。 入力、出力、および忘れの3つのゲートがあります。
  • ゲート付きRNN:メモリを介した時系列のデータ予測にも役立ちます。 更新とリセットの2つのゲートがあります。

最適な動作:

  • 1対1:画像分類のように、単一の出力に接続された単一の入力。
  • 1対多:単一の画像からの複数の単語を含む画像のキャプションなど、出力シーケンスにリンクされた単一の入力。
  • 多対1:感情分析のように、単一の出力を生成する一連の入力。
  • 多対多:ビデオ分類のように、一連の出力を生成する一連の入力。

また、言語翻訳、会話モデリングなどでも広く使用されています。

世界のトップ大学からオンラインで最高の機械学習コースを受講してくださいマスター、エグゼクティブPGP、または高度な証明書プログラムを取得して、キャリアを迅速に追跡します。

4.生成的敵対的ネットワーク

これは、ニューラルネットワークの2つの深層学習手法(ジェネレーターとディスクリミネーター)の組み合わせです。 ジェネレータネットワークは人工的なデータを生成しますが、ディスクリミネータは実際のデータと偽のデータを区別するのに役立ちます。

ジェネレーターは実際のデータと同一の人工データを生成し続け、ディスクリミネーターは実際のデータと非現実のデータを継続的に検出するため、両方のネットワークは競争力があります。 画像ライブラリを作成する必要があるシナリオでは、ジェネレータネットワークは本物の画像にシミュレートされたデータを生成します。 次に、デコンボリューションニューラルネットワークを生成します。

その後、画像検出器ネットワークが続き、実際の画像と偽の画像を区別します。 50%の精度の可能性から始めて、ジェネレータは人工画像の生成でより良く成長するため、検出器は分類の品質を向上させる必要があります。 このような競争は、ネットワーク全体の有効性と速度に貢献します。

最適な動作:

  • 画像とテキストの生成
  • 画像エンハンスメント
  • 新薬発見プロセス

5.自己組織化マップ

SOMまたは自己組織化マップは、モデル内の確率変数の数を減らす教師なしデータの助けを借りて動作します。 このタイプの深層学習手法では、各シナプスが入力ノードと出力ノードに接続するため、出力次元は2次元モデルとして固定されます。

各データポイントがそのモデル表現をめぐって競合すると、SOMは最も近いノードまたはベストマッチングユニット(BMU)の重みを更新します。 BMUの近接度に基づいて、重みの値が変化します。 重みはそれ自体がノードの特性と見なされるため、値はネットワーク内のノードの位置を表します。

最適な機能:

  • データセットにY軸の値が含まれていない場合
  • データセットフレームワークを分析するためのプロジェクト調査
  • AIを活用した音楽、ビデオ、テキストのクリエイティブプロジェクト

6.ボルツマンマシン

このネットワークモデルには事前定義された方向がないため、ノードは円形に接続されています。 このような独自性のため、この深層学習手法を使用してモデルパラメーターを生成します。

以前のすべての決定論的ネットワークモデルとは異なり、ボルツマンマシンモデルは確率論的と呼ばれます。

最適な動作:

  • システム監視
  • バイナリ推奨プラットフォームのセットアップ
  • 特定のデータセットの分析

読む:今日、独自のAIシステムを構築するためのステップバイステップの方法

7.深層強化学習

深層強化学習手法を理解する前に、強化学習とは、エージェントが環境と対話してその状態を変更するプロセスを指します。 エージェントは監視し、それに応じてアクションを実行できます。エージェントは、状況と対話することにより、ネットワークが目的を達成するのを支援します。

ここで、このネットワークモデルには、入力レイヤー、出力レイヤー、およびいくつかの非表示の複数のレイヤーがあります。ここで、環境の状態は入力レイヤー自体です。 モデルは、状況の特定の状態で実行された各アクションの将来の報酬を予測するための継続的な試みに取り組んでいます。

最適な動作:

  • チェス、ポーカーなどのボードゲーム
  • 自動運転車
  • ロボット工学
  • 在庫管理
  • 資産価格設定などの財務タスク

8.オートエンコーダ

最も一般的に使用されるタイプの深層学習手法の1つであるこのモデルは、アクティブ化関数と最終出力のデコードを行う前に、入力に基づいて自動的に動作します。 このようなボトルネックの形成は、より少ないカテゴリのデータを生成し、固有のデータ構造のほとんどを活用することにつながります。

オートエンコーダの種類は次のとおりです。

  • スパース–過剰適合を減らすために行われる一般化アプローチでは、隠れ層が入力層よりも多い場合。 損失関数を制限し、オートエンコーダがすべてのノードを使いすぎるのを防ぎます。
  • ノイズ除去–ここでは、入力の変更バージョンがランダムに0に変換されます。
  • 収縮性–損失関数にペナルティ係数を追加して、入力層よりも隠れ層の数が多い場合に、過剰適合とデータコピーを制限します。
  • スタック–オートエンコーダーでは、別の隠れ層が追加されると、2段階のエンコードから1段階のデコードになります。

最適な動作:

  • 特徴の検出
  • 説得力のある推奨モデルの設定
  • 大規模なデータセットに機能を追加する

読む:ディープラーニングの正則化

9.バックプロパゲーション

深層学習、バックプロパゲーションまたはバックプロパゲーション手法は、ニューラルネットワークがデータ予測のエラーについて学習するための中心的なメカニズムと呼ばれます。 一方、伝搬とは、専用チャネルを介して特定の方向にデータを送信することを指します。 システム全体は、決定の瞬間に順方向の信号伝搬に従って動作し、ネットワークの欠点に関するデータを逆に送り返します。

  • まず、ネットワークがパラメータを分析し、データを決定します
  • 第二に、それは損失関数で重み付けされます
  • 第三に、識別されたエラーは逆伝播され、誤ったパラメータを自己調整します

最適な動作:

  • データのデバッグ

10.最急降下法

数学的な文脈では、勾配とは、測定可能な角度を持ち、変数間の関係で表すことができる傾斜を指します。 この深層学習手法では、ニューラルネットワークで生成されたエラーとデータパラメータのエラーとの関係を「x」および「y」で表すことができます。 変数はニューラルネットワークで動的であるため、小さな変更でエラーを増減できます。

多くの専門家は、この技術を山の斜面を下る川の小道の技術として視覚化しています。 このような方法の目的は、最適なソリューションを見つけることです。 ニューラルネットワークにはいくつかの極小解が存在するため、データがトラップされ、コンパイルが遅くなり、正しくない可能性があります。このようなイベントを控える方法があります。

山の地形として、凸関数と呼ばれるニューラルネットワークには特定の機能があります。これは、データを期待される速度に流し続け、最小値に到達させます。 関数の初期値が異なるため、最終的な宛先に入るデータによって取得される方法に違いが生じる可能性があります。

最適な動作:

  • 特定のモデルのパラメーターを更新する

また読む:初心者のための15の興味深い機械学習プロジェクトのアイデア

まとめ

機能性と実践的なアプローチを備えた複数の深層学習手法があります。 これらのモデルが特定され、適切なシナリオに組み込まれると、開発者が使用するフレームワークに基づいたハイエンドソリューションの実現につながる可能性があります。 幸運を!

機械学習とクラウドの高度な認定プログラムをチェックしてください。IITマドラスは、機械学習だけでなく、クラウドインフラストラクチャを使用した機械学習の効果的な展開を教えるプログラムを作成するための国内最高のエンジニアリングスクールです。 このプログラムの目的は、国内で最も厳選された機関の扉を開き、学習者が高度で成長しているスキルを習得するために素晴らしい能力とリソースにアクセスできるようにすることです。

一般的な敵対的ネットワークとは何ですか?

これは、ジェネレーターとディスクリミネーターという2つの深層学習ニューラルネットワーク手法のハイブリッドです。 Generator Networkは架空のデータを生成しますが、Discriminatorは実際のデータと架空のデータを区別するのに役立ちます。 ジェネレーターは本物のデータと同一の偽のデータを生成し続け、ディスクリミネーターは実数と非実数のデータを認識し続けるため、両方のネットワークは競争力があります。 ジェネレータネットワークは、画像ライブラリが必要な場合に、本物の写真のシミュレーション結果を生成します。 その後、デコンボリューションニューラルネットワークを作成します。

自己組織化マップの使用は何ですか?

SOM、つまり自己組織化マップは、教師なしデータを使用してモデル内の確率変数の数を減らすことで機能します。 各ニューロンがその入口ノードと出口ノードに接続すると、結果の次元は、この種の深層学習手法の2次元モデルとして設定されます。 SOMは、各データポイントがそのモデル表現(BMU)に入札するため、最も近いノードまたは最適一致ユニットの値を調整します。 重みの値は、BMUがどれだけ近いかによって異なります。 重みはそれ自体がノードの特性と見なされるため、値はネットワーク内のノードの位置を示します。

バックプロパゲーションとは何ですか?

バックプロパゲーションアルゴリズムまたはバックプロパゲーションアプローチは、ニューラルネットが深層学習でのデータ予測の失敗について学習するための重要な要件です。 一方、伝播とは、定義されたチャネルを介して特定の方向にデータを転送することを指します。 選択した時点で、システム全体が順方向の信号伝搬に従って動作し、ネットワークの欠陥に関するデータを逆方向に送り返します。