知っておくべき人工知能アルゴリズムの種類[完全ガイド]
公開: 2019-11-13人工知能は、世界に大きな影響を与えるように成長しました。 さまざまなアプリケーションやソースによって大量のデータが生成されるため、機械学習システムはテストデータから学習し、インテリジェントなタスクを実行できます。
人工知能は、決定的な能力を与え、機械に能力を考えることを扱うコンピュータサイエンスの分野です。 したがって、人工知能は、コンピューターサイエンス、データ分析、純粋数学を組み合わせたものです。
機械学習は人工知能の不可欠な部分になり、入力データから学習するプロセスである最初の部分のみを扱います。 人工知能とその利点は、私たちを驚かせることをやめませんでした。
世界のトップ大学(修士、エグゼクティブ大学院プログラム、ML&AIの高度な証明書プログラム)からオンラインでAIコースに参加して、キャリアを早急に進めましょう。
目次
人工知能アルゴリズムの種類
人工知能アルゴリズムは、大きく次のように分類できます。
1.分類アルゴリズム
分類アルゴリズムは、教師あり学習の一部です。 これらのアルゴリズムは、対象の変数を異なるクラスに分割し、特定の入力のクラスを予測するために使用されます。 たとえば、分類アルゴリズムを使用して、電子メールをスパムかどうかに分類できます。 一般的に使用される分類アルゴリズムのいくつかについて説明しましょう。

a)ナイーブベイズ
ナイーブベイズアルゴリズムはベイズの定理に基づいて機能し、他の分類アルゴリズムとは異なり、確率論的アプローチを採用しています。 アルゴリズムには、クラスごとに事前確率のセットがあります。 データが供給されると、アルゴリズムはこれらの確率を更新して、事後確率と呼ばれるものを形成します。 これは、入力が特定のクラスのリストに属しているかどうかを予測する必要がある場合に役立ちます。
b)ディシジョンツリー
デシジョンツリーアルゴリズムは、ノードが入力属性のテストを表し、ブランチがテストの結果を表すアルゴリズムのようなフローチャートです。
c)ランダムフォレスト
ランダムフォレストは、木のグループのように機能します。 入力データセットは細分化され、さまざまな決定木に送られます。 すべての決定木の出力の平均が考慮されます。 ランダムフォレストは、決定木アルゴリズムと比較して、より正確な分類子を提供します。
d)サポートベクターマシン
SVMは、超平面を使用してデータを分類するアルゴリズムであり、超平面とサポートベクター間の距離が最大になるようにします。
e)K最近傍法
KNNアルゴリズムは、クラスに分離された一連のデータポイントを使用して、新しいサンプルデータポイントのクラスを予測します。 他のアルゴリズムに比べて比較的短いため、「レイジー学習アルゴリズム」と呼ばれます。
2.回帰アルゴリズム
回帰アルゴリズムは、教師あり機械学習アルゴリズムの下で人気のあるアルゴリズムです。 回帰アルゴリズムは、学習システムに入力された入力データポイントに基づいて出力値を予測できます。 回帰アルゴリズムの主な用途には、株式市場価格の予測、天気の予測などがあります。このセクションで最も一般的なアルゴリズムは次のとおりです。
a)線形回帰
これは、一貫した変数を考慮して本物の品質を測定するために使用されます。 これはすべての回帰アルゴリズムの中で最も単純ですが、線形関係または線形分離可能問題の場合にのみ実装できます。 このアルゴリズムは、最適線または回帰直線と呼ばれるデータポイント間に直線を描画し、新しい値を予測するために使用されます。
読む:線形回帰–MLインタビューの質問と回答
b)ラッソ回帰
ラッソ回帰アルゴリズムは、応答変数の予測誤差を最小化する予測子のサブセットを取得することによって機能します。 これは、データポイントに制約を課し、それらの一部をゼロ値に縮小できるようにすることで実現されます。
c)ロジスティック回帰
ロジスティック回帰は、主に二項分類に使用されます。 この方法では、一連の変数を分析し、カテゴリの結果を予測できます。 その主な用途には、顧客生涯価値、住宅価値などの予測が含まれます

d)多変量回帰
このアルゴリズムは、複数の予測変数がある場合に使用する必要があります。 このアルゴリズムは、小売部門の製品推奨エンジンで広く使用されており、顧客が好む製品は、ブランド、品質、価格、レビューなどの複数の要因に依存します。
e)重回帰アルゴリズム
重回帰アルゴリズムは、複数の説明変数を入力として使用する線形回帰アルゴリズムと非線形回帰アルゴリズムの組み合わせを使用します。 主な用途には、社会科学研究、保険金請求の真正性、行動分析などがあります。
3.クラスタリングアルゴリズム
クラスタリングは、グループのメンバー内の類似性に基づいてデータポイントをグループに分離および編成するプロセスです。 これは教師なし学習の一部です。 主な目的は、類似したアイテムをグループ化することです。 たとえば、トランザクション内のいくつかのプロパティに基づいて、不正な性質のすべてのトランザクションをまとめて配置できます。 以下は、最も一般的なクラスタリングアルゴリズムです。
a)K-Meansクラスタリング
これは、最も単純な教師なし学習アルゴリズムです。 アルゴリズムは、類似したデータポイントをまとめて収集し、それらを1つのクラスターにバインドします。 クラスタリングは、データポイントのグループの重心を計算し、クラスターの重心からの各データポイントの距離を評価することによって行われます。 次に、距離に基づいて、分析されたデータポイントが最も近いクラスターに割り当てられます。 K-meansの「K」は、データポイントがグループ化されているクラスターの数を表します。

b)ファジーC-meansアルゴリズム
FCMアルゴリズムは確率で機能します。 各データポイントは、別のクラスターに属する確率があると見なされます。 データポイントには特定のクラスターに対する絶対的なメンバーシップがないため、アルゴリズムはファジーと呼ばれます。
c)期待値最大化(EM)アルゴリズム
これは、統計で学習したガウス分布に基づいています。 問題を解決するために、データはガウス分布モデルに描かれます。 確率を割り当てた後、期待値と最大化の方程式に基づいてポイントサンプルが計算されます。
d)階層的クラスタリングアルゴリズム
これらのアルゴリズムは、データポイントを学習し、類似性を観察した後、クラスターを階層順に並べ替えます。 2種類あります
- トップダウンアプローチのための分割クラスタリング
- ボトムアップアプローチのための凝集的クラスタリング
まとめて結論を出しましょう
AIは世界を何度も驚かせ、複雑な問題を解決するために現実の世界に多くのアプリケーションを持っています。 この記事が、さまざまな人工知能アルゴリズムとその幅広い分類に光を当てることを願っています。 アルゴリズムは、私たちが持っているデータポイントの必要性と性質に基づいて選択されます。
アルゴリズムには、精度、パフォーマンス、および処理時間の点で長所と短所があります。 これらはほんの数アルゴリズムです。 詳細を知りたい場合は、upGrad&IIIT-Bの機械学習とAIのエグゼクティブPGプログラムをご覧ください。
単純ベイズとは何ですか?
ベイズの定理は、このリストの他のアルゴリズムとは異なり、確率論的アプローチを採用するナイーブベイズアルゴリズムで使用されます。 これは単に、データに直接飛び込むのではなく、ターゲットの分類ごとに事前確率のセットがメソッドに確立されていることを意味します。 アルゴリズムは、これらの事前確率を変更して、データを入力するときに事後確率を生成します。 結果として、これは、入力がn個のクラスの1つに対応するか、どれにも対応しないかを予測する必要がある状況で非常に有益です。 これは、n個のクラスすべてに投げられる確率が非常に低くなるため、確率的手法を使用して実行できます。
デシジョンツリーとは何ですか?
デシジョンツリーは、フローチャートのようなツリー構造であり、各外部ノードは属性の試行を表し、各ブランチはテストの結果を示します。 期待されるラベルはリーフノードに保存されます。 ツリーのルートから始めて、属性値を比較することにより、リーフノードに進みます。 高次元のデータを処理し、データの準備にほとんど時間をかけない場合は、この分類器を使用します。 ただし、注意が必要です。これらは過剰適合する傾向があり、トレーニングデータをほとんど変更しなくても劇的に変化する可能性があります。
サポートベクターマシンとは何ですか?
2つのクラス間のマージンを可能な限り広くしてデータポイントをソートしようとする限り、SVMは一意です。 これは、最大マージン分離と呼ばれます。 覚えておくべきもう1つのポイントは、線形回帰とは異なり、SVMはサポートベクターのみを使用して超平面をプロットするのに対し、線形回帰は完全なデータセットを使用することです。 SVMは、データに多くのディメンションがある状況で特に役立ちます。 したがって、ランダムな超平面を生成することから始め、次にそれと各クラスからの最も近いデータ値との間の距離を測定します。 サポートベクターは、超平面に最も近いデータポイントです。