您應該知道的人工智能算法類型 [完整指南]

已發表: 2019-11-13

人工智能已經發展到對世界產生重大影響。 隨著不同應用程序和來源生成大量數據,機器學習系統可以從測試數據中學習並執行智能任務。

人工智能是計算機科學領域,涉及賦予機器決策能力和思考能力。 因此,人工智能是計算機科學、數據分析和純數學的混合體。

機器學習成為人工智能不可或缺的一部分,它只處理第一部分,即從輸入數據中學習的過程。 人工智能及其好處從未停止讓我們驚嘆。

加入來自世界頂級大學的在線AI 課程——碩士、高級管理人員研究生課程和 ML 和 AI 高級證書課程,以加快您的職業生涯。

目錄

人工智能算法的類型

人工智能算法大致可以分為:

1.分類算法

分類算法是監督學習的一部分。 這些算法用於將對像變量劃分為不同的類,然後預測給定輸入的類。 例如,分類算法可用於將電子郵件分類為垃圾郵件。 讓我們討論一些常用的分類算法。

a) 樸素貝葉斯

與其他分類算法不同,樸素貝葉斯算法基於貝葉斯定理並採用概率方法。 該算法對每個類都有一組先驗概率。 一旦輸入數據,算法就會更新這些概率以形成稱為後驗概率的東西。 當您需要預測輸入是否屬於給定的類列表時,這很有用。

b) 決策樹

決策樹算法更像是一個流程圖,類似於一種算法,其中節點表示對輸入屬性的測試,分支表示測試的結果。

c) 隨機森林

隨機森林就像一組樹。 輸入數據集被細分並饋送到不同的決策樹中。 考慮所有決策樹的輸出平均值。 與決策樹算法相比,隨機森林提供了更準確的分類器。

d) 支持向量機

SVM 是一種使用超平面對數據進行分類的算法,確保超平面和支持向量之間的距離最大。

e) K 最近鄰

KNN算法使用一堆分類的數據點來預測新樣本數據點的類別。 它被稱為“惰性學習算法”,因為它與其他算法相比相對較短。

2.回歸算法

回歸算法是監督機器學習算法下的一種流行算法。 回歸算法可以根據輸入到學習系統中的輸入數據點來預測輸出值。 回歸算法的主要應用包括預測股市價格、預測天氣等。本節下最常見的算法有

a) 線性回歸

它用於通過考慮一致變量來衡量真正的品質。 它是所有回歸算法中最簡單的,但只能在線性關係或線性可分問題的情況下實現。 該算法在數據點之間繪製一條直線,稱為最佳擬合線或回歸線,用於預測新值。

閱讀:線性回歸——機器學習面試問題和答案

b) 套索回歸

Lasso 回歸算法通過獲取最小化響應變量的預測誤差的預測變量子集來工作。 這是通過對數據點施加約束並允許其中一些縮小到零值來實現的。

c) 邏輯回歸

邏輯回歸主要用於二元分類。 此方法允許您分析一組變量並預測分類結果。 其主要應用包括預測客戶終身價值、房屋價值等

d) 多元回歸

當有多個預測變量時,必須使用此算法。 該算法廣泛用於零售行業的產品推薦引擎,客戶偏好的產品將取決於品牌、質量、價格、評論等多種因素。

e) 多重回歸算法

多元回歸算法使用線性回歸和非線性回歸算法的組合,將多個解釋變量作為輸入。 主要應用包括社會科學研究、保險理賠真實性、行為分析等。

3. 聚類算法

聚類是根據組成員內的相似性將數據點劃分和組織成組的過程。 這是無監督學習的一部分。 主要目的是對相似的項目進行分組。 例如,它可以根據交易中的某些屬性將所有具有欺詐性質的交易安排在一起。 以下是最常見的聚類算法。

a) K-Means 聚類

它是最簡單的無監督學習算法。 該算法將相似的數據點收集在一起,然後將它們綁定到一個集群中。 聚類是通過計算一組數據點的質心,然後評估每個數據點與聚類質心的距離來完成的。 然後根據距離,將分析的數據點分配給最近的集群。 K-means 中的“K”代表數據點被分組到的簇的數量。

b) 模糊 C 均值算法

FCM算法適用於概率。 每個數據點被認為具有屬於另一個集群的概率。 數據點在特定集群上沒有絕對的成員資格,這就是該算法被稱為模糊的原因。

c) 期望最大化(EM)算法

它基於我們在統計學中學到的高斯分佈。 數據被描繪成一個高斯分佈模型來解決這個問題。 分配概率後,根據期望和最大化方程計算點樣本。

d) 層次聚類算法

這些算法在學習數據點並進行相似性觀察後對集群進行層次排序。 它可以有兩種類型

  • 分裂聚類,用於自上而下的方法
  • 凝聚聚類,用於自下而上的方法

讓我們結束並總結

人工智能曾多次震驚世界,並在現實世界中有大量應用來解決其複雜的問題。 我們希望這篇文章對各種人工智能算法及其廣泛的分類有所了解。 算法是根據需要和我們擁有的數據點的性質來選擇的。

算法在準確性、性能和處理時間方面各有優缺點。 這些只是一些算法。 如果您想了解更多信息,請查看 upGrad 和 IIIT-B 的機器學習和 AI 執行 PG 計劃

什麼是樸素貝葉斯?

貝葉斯定理用於樸素貝葉斯算法,與此列表中的其他算法不同,該算法採用概率方法。 這僅僅意味著該方法為您的目標的每個分類建立了一組先驗概率,而不是直接跳入數據。 當您輸入數據時,該算法會更改這些先驗概率以生成後驗概率。 因此,當您需要預測您的輸入是否對應於 n 個類中的一個或它們都不對應時,這將非常有用。 這使用概率技術是可行的,因為所有 n 個類別的概率都非常低。

什麼是決策樹?

決策樹只是一個類似流程圖的樹結構,其中每個外部節點代表一個屬性的試驗,每個分支表示測試的結果。 預期的標籤存儲在葉節點中。 我們從樹的根開始,通過比較屬性值來找到葉子節點。 當處理高維數據並且花費很少的時間準備數據時,我們使用了這個分類器。 然而,請注意:它們容易過度擬合,即使訓練數據的變化很小,也可能會發生巨大變化。

什麼是支持向量機?

在嘗試對數據點進行排序時,盡可能寬的兩個類之間的邊距,SVM 是獨一無二的。 這稱為最大邊距間隔。 要記住的另一點是,與線性回歸不同,SVM 僅使用支持向量繪製超平面,而線性回歸使用完整數據集。 SVM 在數據具有很多維度的情況下特別有用。 因此,您首先生成一個隨機超平面,然後測量它與每個類中最近的數據值之間的距離。 支持向量是離超平面最近的數據點。