MLエンジニアが知っておくべき7種類の人工ニューラルネットワーク
公開: 2019-12-17ニューラルネットワークは、機械学習で使用されるネットワークであり、人間の神経系と同様に機能します。 多くのものがさまざまな方法で接続されている人間の脳のように機能するように設計されています。 人工ニューラルネットワークは、従来のコンピューターがうまく機能しない分野で広範なアプリケーションを見つけます。 計算モデルに使用される人工ニューラルネットワークには多くの種類があります。
数学のパラメータと操作のセットは、結果を得るために使用されるニューラルネットワークのタイプを決定します。 ここでは、機械学習における重要なニューラルネットワークの種類のいくつかについて説明します。
目次
機械学習におけるトップ7の人工ニューラルネットワーク
1.モジュラーニューラルネットワーク
このタイプのニューラルネットワークでは、多くの独立したネットワークが集合的に結果に貢献します。 これらのニューラルネットワークのそれぞれによって実行および構築される多くのサブタスクがあります。 これにより、他のニューラルネットワークと比較した場合に一意の一連の入力が提供されます。 これらのニューラルネットワーク間では、タスクを実行するための信号交換や相互作用はありません。
これらのモジュラーネットワークは、かなりの計算プロセスを小さなコンポーネントに完全に分解するため、問題の複雑さを簡単に軽減できます。 接続数が減ると計算速度も向上し、ニューラルネットワーク同士の相互作用の必要性が減ります。
処理の合計時間は、結果の計算におけるニューロンの関与と、プロセスに関与するニューロンの数にも依存します。 モジュラーニューラルネットワーク(MNN)は、人工知能の中で最も急速に成長している分野の1つです。
2.フィードフォワードニューラルネットワーク–人工ニューロン
ニューラルネットワーク内の情報は一方向に移動し、人工ニューラルネットワークの最も純粋な形式です。 この種のニューラルネットワークは、隠れ層を持ち、データは入力ノードから入り、出力ノードから出ることができます。 このニューラルネットワークでは、分類活性化関数が使用されます。 バックプロパゲーションはなく、フロントプロパゲーション波のみが許可されます。

音声認識やコンピュータビジョンなど、フィードフォワードニューラルネットワークには多くのアプリケーションがあります。 これらのタイプのニューラルネットワークの保守は簡単であり、ノイズの多いデータに対する優れた応答性も備えています。
世界のトップ大学から人工知能コースをオンラインで取得します。 マスター、エグゼクティブPGP、または高度な証明書プログラムを取得して、キャリアを迅速に追跡します。
3.動径基底関数ニューラルネットワーク
RBFの機能には2つの層があります。 これらは、ポイントに対する中心の距離を考慮するために使用されます。 最初のレイヤーでは、内側のレイヤーのフィーチャが放射基底関数と統合されます。 次のステップでは、このレイヤーからの出力が、次の反復で同じ出力を計算するために考慮されます。 放射基底関数のアプリケーションの1つは、電力回復システムで見ることができます。 停電後、可能な限り確実かつ迅速に電力を回復する必要があります。
4.Kohonen自己組織化ニューラルネットワーク
このニューラルネットワークでは、ベクトルは任意の次元から離散マップに入力されます。 組織のトレーニングデータは、マップをトレーニングすることによって作成されます。 マップ上に1つまたは2つの次元がある場合があります。 ニューロンの重みは、値に応じて変化する可能性があります。
マップのトレーニング中にニューロンの位置は変化せず、一定に保たれます。 入力ベクトルと小さな重みは、自己組織化プロセスの最初のフェーズですべてのニューロン値に与えられます。 勝つニューロンは、ポイントに最も近いニューロンです。 他のニューロンも、第2フェーズで勝ったニューロンとともにポイントに向かって移動し始めます。

勝ったニューロンの距離は最小になり、ユークリッド距離を使用してニューロンと点の間の距離が計算されます。 各ニューロンは各種類のクラスターを表し、すべてのポイントのクラスター化は反復を通じて行われます。
Kohonenニューラルネットワークの主なアプリケーションの1つは、データパターンを認識することです。 また、病気をより正確に分類するための医療分析にも使用されます。 データの傾向を分析した後、データはさまざまなカテゴリにクラスター化されます。
5.リカレントニューラルネットワーク(RNN)
リカレントニューラルネットワークの原理は、レイヤーの出力を再び入力にフィードバックすることです。 この原則は、レイヤーの結果を予測するのに役立ちます。 計算プロセスでは、各ニューロンがメモリセルとして機能します。 ニューロンは、次のタイムステップに進むときに、いくつかの情報を保持します。
これは、リカレントニューラルネットワークプロセスと呼ばれます。 後で使用するデータは記憶され、次のステップの作業がプロセスで続行されます。 エラー訂正により、予測が改善されます。 エラー訂正では、正しい予測出力を作成するためにいくつかの変更が行われます。 学習率は、ネットワークが間違った予測から正しい予測を行うことができる速度です。
リカレントニューラルネットワークには多くの用途があり、そのうちの1つはテキストを音声に変換するモデルです。 リカレントニューラルネットワークは、教育信号を必要とせずに教師あり学習用に設計されました。
6.畳み込みニューラルネットワーク
このタイプのニューラルネットワークでは、学習可能なバイアスと重みが最初にニューロンに与えられます。 画像処理と信号処理は、コンピュータビジョン分野でのアプリケーションの一部です。 OpenCVを引き継ぎました。
画像は、ネットワークのコンピューティング操作を支援するために部分的に記憶されます。 写真は、入力フィーチャをバッチ単位で取得することによって認識されます。 計算プロセスでは、画像はHSIまたはRGBスケールからグレースケールに変換されます。 画像の分類は、画像が変換された後、さまざまなカテゴリに分類されます。 エッジは、ピクセル値の変化を見つけることによって検出されます。

画像分類と信号処理の手法は、ConvNetで使用されます。 画像分類の場合、畳み込みニューラルネットワークは非常に高いレベルの精度を備えています。 これは、畳み込みニューラルネットワークがコンピュータービジョン技術を支配している理由でもあります。 陸域の将来の収量と成長の予測は、気象と農業の特徴における畳み込みニューラルネットワークの他のアプリケーションです。
7.長期/短期記憶
SchmidhuberとHochreiterは、1997年に、長短期記憶ネットワーク(LSTM)と呼ばれるニューラルネットワークを構築しました。 その主な目標は、明示的に定義されたメモリセルで物事を長期間記憶することです。 「ゲートを忘れる」ことによって値を忘れるように指示されない限り、以前の値はメモリセルに保存されます。
新しいものは「入力ゲート」を介してメモリセルに追加され、「出力ゲート」によって決定されるベクトルに沿ってセルから次の非表示状態に渡されます。 原始音楽の作曲、シェイクスピアのような作曲、または複雑なシーケンスの学習は、LSTMのアプリケーションの一部です。
結論
これらは、人工知能と機械学習を強化するために使用されるさまざまなタイプのニューラルネットワークです。 この記事がニューラルネットワークとMLに使用されているタイプに光を当てることを願っています。
情熱があり、人工知能についてもっと知りたい場合は、機械学習とディープラーニングでIIIT-BとupGradのPGディプロマを受講できます。これは、400時間以上の学習、実践的なセッション、仕事の支援などを提供します。
LSTMニューラルネットワークとは何ですか?
その主な目的は、明示的に指定されたメモリセルに情報を長期間保持することです。 'forget gate'がメモリセルに前の値を忘れるように指示しない限り、前の値はメモリセルに保持されます。 「入力ゲート」は、メモリセルに新しい情報を追加します。この情報は、「出力ゲート」によって決定されたベクトルに沿って、セルから次の非表示ユニットに向けて送信されます。 LSTMの用途には、初歩的な作曲、シェイクスピアの詩、難しいシーケンスの学習などがあります。
動径基底関数ニューラルネットワークはどのように機能しますか?
RBF関数は2つの層に分かれています。 これらは、ポイントとその中心の間の距離を計算するために使用されます。 放射基底関数は、最初の層の内層の特徴を接続するために使用されます。 このレイヤーからの出力は、次の反復で同じ結果を計算するために次のフェーズで使用されます。 電力回復システムは、放射基底関数の用途の1つです。 停電後は、可能な限り確実かつ迅速に電力を復旧する必要があります。
自己組織化ニューラルネットワークとは何ですか?
任意の次元からのベクトルは、このニューラルネットワークの個別のマップに供給されます。 マップは、組織のトレーニングデータを作成するために使用されます。 マップは1つまたは2つの次元を持つことができます。 値によっては、ニューロンの重みが変動する場合があります。 ニューロンの位置は、マップのトレーニング中に変化せず、一定のままになります。 自己組織化プロセスの初期段階では、各ニューロン値に入力ベクトルとわずかな重みが与えられます。 ポイントに最も近いニューロンが勝者です。 2番目のフェーズでは、他のニューロンが勝者のニューロンに加わり、ターゲットに向かって移動します。