당신이 알아야 할 인공 지능 알고리즘의 유형 [완벽한 안내서]

게시 됨: 2019-11-13

인공 지능 은 세계에 중요한 영향을 미치도록 성장했습니다. 다양한 애플리케이션과 소스에서 생성되는 많은 양의 데이터와 함께 머신 러닝 시스템은 테스트 데이터에서 학습하고 지능적인 작업을 수행할 수 있습니다.

인공 지능은 기계에 결단력과 사고력을 부여하는 컴퓨터 과학의 한 분야입니다. 따라서 인공 지능은 컴퓨터 과학, 데이터 분석 및 순수 수학이 혼합된 것입니다.

기계 학습은 인공 지능의 필수적인 부분이 되었으며 첫 번째 부분인 입력 데이터에서 학습하는 프로세스만 다룹니다. 인공 지능과 그 이점은 우리를 놀라게 한 적이 없습니다.

세계 최고의 대학에서 온라인으로 AI 과정 에 참여하십시오. 석사, 대학원 대학원 과정, ML 및 AI 고급 인증 프로그램을 통해 경력을 빠르게 추적할 수 있습니다.

목차

인공 지능 알고리즘의 유형

인공 지능 알고리즘은 크게 다음과 같이 분류할 수 있습니다.

1. 분류 알고리즘

분류 알고리즘은 지도 학습의 일부입니다. 이러한 알고리즘은 대상 변수를 다른 클래스로 나눈 다음 주어진 입력에 대한 클래스를 예측하는 데 사용됩니다. 예를 들어 분류 알고리즘을 사용하여 이메일을 스팸으로 분류할 수 있습니다. 일반적으로 사용되는 분류 알고리즘 중 일부에 대해 논의해 보겠습니다.

a) 나이브 베이즈

Naive Bayes 알고리즘은 Bayes 정리에 따라 작동하며 다른 분류 알고리즘과 달리 확률적 접근 방식을 취합니다. 알고리즘에는 각 클래스에 대한 사전 확률 집합이 있습니다. 데이터가 제공되면 알고리즘은 이러한 확률을 업데이트하여 사후 확률로 알려진 것을 형성합니다. 이는 입력이 주어진 클래스 목록에 속하는지 여부를 예측해야 할 때 유용합니다.

b) 의사결정 트리

의사 결정 트리 알고리즘은 노드가 입력 속성에 대한 테스트를 나타내고 분기가 테스트 결과를 나타내는 알고리즘과 같은 순서도에 가깝습니다.

c) 랜덤 포레스트

랜덤 포레스트는 트리 그룹처럼 작동합니다. 입력 데이터 세트는 세분화되어 다른 의사 결정 트리에 제공됩니다. 모든 의사 결정 트리의 출력 평균이 고려됩니다. 랜덤 포레스트는 의사 결정 트리 알고리즘에 비해 더 정확한 분류기를 제공합니다.

d) 서포트 벡터 머신

SVM은 초평면을 사용하여 데이터를 분류하는 알고리즘으로 초평면과 지지 벡터 사이의 거리가 최대가 되도록 합니다.

e) K 최근접 이웃

KNN 알고리즘은 클래스로 분리된 많은 데이터 포인트를 사용하여 새로운 샘플 데이터 포인트의 클래스를 예측합니다. 다른 알고리즘에 비해 상대적으로 짧은 시간에 "지연 학습 알고리즘"이라고 합니다.

2. 회귀 알고리즘

회귀 알고리즘은 지도 머신 러닝 알고리즘에서 널리 사용되는 알고리즘입니다. 회귀 알고리즘은 학습 시스템에 제공된 입력 데이터 포인트를 기반으로 출력 값을 예측할 수 있습니다. 회귀 알고리즘의 주요 응용 프로그램에는 주식 시장 가격 예측, 날씨 예측 등이 ​​포함됩니다. 이 섹션에서 가장 일반적인 알고리즘은 다음과 같습니다.

a) 선형 회귀

일관된 변수를 고려하여 진정한 품질을 측정하는 데 사용됩니다. 모든 회귀 알고리즘 중 가장 간단하지만 선형 관계 또는 선형 분리 가능한 문제의 경우에만 구현할 수 있습니다. 알고리즘은 최적선 또는 회귀선이라고 하는 데이터 점 사이에 직선을 그리고 새 값을 예측하는 데 사용됩니다.

읽기: 선형 회귀 – ML 인터뷰 질문 및 답변

b) 올가미 회귀

올가미 회귀 알고리즘은 응답 변수에 대한 예측 오류를 최소화하는 예측 변수의 하위 집합을 얻는 방식으로 작동합니다. 이는 데이터 포인트에 제약 조건을 부과하고 일부가 0 값으로 축소되도록 함으로써 달성됩니다.

c) 로지스틱 회귀

로지스틱 회귀는 주로 이진 분류에 사용됩니다. 이 방법을 사용하면 변수 집합을 분석하고 범주형 결과를 예측할 수 있습니다. 주요 응용 프로그램에는 고객 평생 가치, 주택 가치 등의 예측이 포함됩니다.

d) 다변수 회귀

이 알고리즘은 예측 변수가 두 개 이상인 경우에 사용해야 합니다. 이 알고리즘은 고객이 선호하는 제품이 브랜드, 품질, 가격, 리뷰 등과 같은 여러 요소에 따라 달라지는 소매 부문 제품 추천 엔진에서 광범위하게 사용됩니다.

e) 다중 회귀 알고리즘

다중 회귀 알고리즘은 여러 설명 변수를 입력으로 사용하는 선형 회귀 및 비선형 회귀 알고리즘의 조합을 사용합니다. 주요 응용 프로그램에는 사회 과학 연구, 보험 청구 진실성, 행동 분석 등이 포함됩니다.

3. 클러스터링 알고리즘

클러스터링은 그룹 구성원 내의 유사성을 기반으로 데이터 포인트를 그룹으로 분리하고 구성하는 프로세스입니다. 이것은 비지도 학습의 일부입니다. 주요 목표는 유사한 항목을 그룹화하는 것입니다. 예를 들어, 거래의 일부 속성을 기반으로 사기성 성격의 모든 거래를 함께 정렬할 수 있습니다. 다음은 가장 일반적인 클러스터링 알고리즘입니다.

a) K-평균 클러스터링

가장 간단한 비지도 학습 알고리즘입니다. 알고리즘은 유사한 데이터 포인트를 함께 수집한 다음 클러스터로 함께 묶습니다. 클러스터링은 데이터 포인트 그룹의 중심을 계산한 다음 클러스터의 중심에서 각 데이터 포인트의 거리를 평가하여 수행됩니다. 거리를 기반으로 분석된 데이터 포인트는 가장 가까운 클러스터에 할당됩니다. K-means의 'K'는 데이터 포인트가 그룹화되는 클러스터의 수를 나타냅니다.

b) 퍼지 C-평균 알고리즘

FCM 알고리즘은 확률에 대해 작동합니다. 각 데이터 포인트는 다른 클러스터에 속할 확률이 있는 것으로 간주됩니다. 데이터 포인트에는 특정 클러스터에 대한 절대적인 구성원이 없으며 이것이 알고리즘을 퍼지라고 부르는 이유입니다.

c) EM(Expectation-Maximization) 알고리즘

통계에서 배운 가우스 분포를 기반으로 합니다. 데이터는 문제를 해결하기 위해 가우스 분포 모델로 그려집니다. 확률을 할당한 후 기대 및 최대화 방정식을 기반으로 포인트 샘플을 계산합니다.

d) 계층적 클러스터링 알고리즘

이러한 알고리즘은 데이터 포인트를 학습하고 유사성 관찰을 수행한 후 클러스터를 계층적 순서로 정렬합니다. 그것은 두 가지 유형이 될 수 있습니다

  • 하향식 접근을 위한 분할 클러스터링
  • 상향식 접근을 위한 응집 클러스터링

정리하고 끝내자

AI는 세계를 여러 번 놀라게 했으며 실제 세계에서 복잡한 문제를 해결하기 위한 많은 응용 프로그램을 가지고 있습니다. 이 기사가 다양한 인공 지능 알고리즘과 해당 알고리즘의 광범위한 분류에 대해 약간의 설명을 해주기를 바랍니다. 알고리즘은 우리가 가지고 있는 데이터 포인트의 필요성과 특성에 따라 선택됩니다.

알고리즘은 정확도, 성능 및 처리 시간 측면에서 장단점이 있습니다. 이것은 몇 가지 알고리즘에 불과합니다. 더 배우고 싶다면 upGrad & IIIT-B의 기계 학습 및 AI PG 프로그램을 확인하십시오.

나이브 베이즈란?

Bayes 정리는 이 목록의 다른 알고리즘과 달리 확률적 접근 방식을 취하는 Naive Bayes 알고리즘에 사용됩니다. 이것은 단순히 방법이 데이터로 바로 뛰어드는 것이 아니라 대상에 대한 각 분류에 대해 설정된 사전 확률 집합을 가지고 있음을 의미합니다. 알고리즘은 이러한 사전 확률을 변경하여 데이터를 공급할 때 사후 확률을 생성합니다. 결과적으로 이것은 입력이 n개의 클래스 중 하나에 해당하는지 아니면 어느 클래스에도 해당하지 않는지 예상해야 하는 상황에서 매우 유용할 수 있습니다. 이것은 모든 n개의 클래스에 대해 던져진 확률이 매우 낮기 때문에 확률적 기술을 사용하여 수행할 수 있습니다.

의사결정나무란?

의사 결정 트리는 각 외부 노드가 속성에 대한 시도를 나타내고 각 분기가 테스트 결과를 나타내는 순서도와 같은 트리 구조입니다. 예상 레이블은 리프 노드에 저장됩니다. 트리의 루트에서 시작하여 속성 값을 비교하여 리프 노드로 이동합니다. 고차원 데이터를 처리하고 데이터 준비에 거의 시간을 할애하지 않을 때 이 분류기를 사용합니다. 그러나 주의할 점은 과적합되기 쉽고 훈련 데이터가 거의 변경되지 않아도 크게 달라질 수 있다는 것입니다.

서포트 벡터 머신이란?

가능한 한 넓은 두 클래스 사이의 여백을 사용하여 데이터 포인트를 정렬하려는 범위에서 SVM은 고유합니다. 이것을 최대 마진 분리라고 합니다. 명심해야 할 또 다른 점은 선형 회귀와 달리 SVM은 지원 벡터만 사용하여 초평면을 그리는 반면 선형 회귀는 전체 데이터 세트를 사용한다는 것입니다. SVM은 데이터의 차원이 많은 상황에서 특히 유용합니다. 따라서 무작위 초평면을 생성한 다음 각 클래스에서 가장 가까운 데이터 값과 초평면 사이의 거리를 측정하는 것으로 시작합니다. 지지 벡터는 초평면에 가장 가까운 데이터 점입니다.