Типы алгоритмов искусственного интеллекта, которые вы должны знать [Полное руководство]
Опубликовано: 2019-11-13Искусственный интеллект вырос, чтобы оказать значительное влияние на мир. При больших объемах данных, генерируемых различными приложениями и источниками, системы машинного обучения могут учиться на тестовых данных и выполнять интеллектуальные задачи.
Искусственный интеллект — это область компьютерных наук, которая занимается приданием машинам решающих способностей и мыслительных способностей. Таким образом, искусственный интеллект представляет собой смесь информатики, анализа данных и чистой математики.
Машинное обучение становится неотъемлемой частью искусственного интеллекта, и оно имеет дело только с первой частью, процессом обучения на входных данных. Искусственный интеллект и его преимущества никогда не переставали нас удивлять.
Присоединяйтесь к онлайн- курсам по искусственному интеллекту в ведущих университетах мира — магистерским программам, программам последипломного образования для руководителей и программам повышения квалификации в области машинного обучения и искусственного интеллекта, чтобы ускорить свою карьеру.
Оглавление
Типы алгоритмов искусственного интеллекта
Алгоритмы искусственного интеллекта можно разделить на:
1. Алгоритмы классификации
Алгоритмы классификации являются частью контролируемого обучения. Эти алгоритмы используются для разделения зависимой переменной на разные классы, а затем для прогнозирования класса для заданных входных данных. Например, алгоритмы классификации могут использоваться для классификации электронных писем как спама или нет. Давайте обсудим некоторые из часто используемых алгоритмов классификации.

а) Наивный Байес
Алгоритм наивного Байеса работает на основе теоремы Байеса и использует вероятностный подход, в отличие от других алгоритмов классификации. Алгоритм имеет набор априорных вероятностей для каждого класса. Как только данные передаются, алгоритм обновляет эти вероятности, чтобы сформировать нечто, известное как апостериорная вероятность. Это полезно, когда вам нужно предсказать, принадлежит ли ввод к заданному списку классов или нет.
б) Дерево решений
Алгоритм дерева решений больше похож на блок-схему, похожую на алгоритм, в котором узлы представляют проверку входного атрибута, а ветви представляют результат проверки.
в) Случайный лес
Случайный лес работает как группа деревьев. Набор входных данных подразделяется и подается в разные деревья решений. Учитывается среднее значение результатов всех деревьев решений. Случайные леса предлагают более точный классификатор по сравнению с алгоритмом дерева решений.
г) Машины опорных векторов
SVM — это алгоритм, который классифицирует данные с использованием гиперплоскости, следя за тем, чтобы расстояние между гиперплоскостью и опорными векторами было максимальным.
e) K ближайших соседей
Алгоритм KNN использует набор точек данных, разделенных на классы, чтобы предсказать класс новой точки выборки данных. Он называется «алгоритмом ленивого обучения», так как он относительно короткий по сравнению с другими алгоритмами.
2. Алгоритмы регрессии
Алгоритмы регрессии являются популярным алгоритмом среди алгоритмов машинного обучения с учителем. Алгоритмы регрессии могут прогнозировать выходные значения на основе точек входных данных, переданных в обучающую систему. Основное применение алгоритмов регрессии включает прогнозирование цен на фондовом рынке, прогнозирование погоды и т. Д. Наиболее распространенными алгоритмами в этом разделе являются
а) Линейная регрессия
Он используется для измерения подлинных качеств путем рассмотрения непротиворечивых переменных. Это самый простой из всех алгоритмов регрессии, но его можно реализовать только в случаях линейной зависимости или линейно разделимой задачи. Алгоритм рисует прямую линию между точками данных, называемую линией наилучшего соответствия или линией регрессии, и используется для прогнозирования новых значений.
Читайте: Линейная регрессия — вопросы и ответы на собеседовании по машинному обучению
б) Регрессия Лассо
Алгоритм регрессии Лассо работает, получая подмножество предикторов, которое минимизирует ошибку предсказания для переменной ответа. Это достигается путем наложения ограничения на точки данных и разрешения некоторым из них сжиматься до нулевого значения.
в) Логистическая регрессия
Логистическая регрессия в основном используется для бинарной классификации. Этот метод позволяет анализировать набор переменных и прогнозировать категориальный результат. Его основные приложения включают прогнозирование пожизненной ценности клиента, стоимости дома и т. Д.

г) Многомерная регрессия
Этот алгоритм необходимо использовать, когда имеется более одной переменной-предиктора. Этот алгоритм широко используется в механизмах рекомендаций по продуктам в секторе розничной торговли, где предпочтительные продукты клиентов будут зависеть от множества факторов, таких как бренд, качество, цена, отзывы и т. д.
e) Алгоритм множественной регрессии
Алгоритм множественной регрессии использует комбинацию алгоритмов линейной регрессии и нелинейной регрессии, используя в качестве входных данных несколько независимых переменных. Основные приложения включают исследования в области социальных наук, проверку подлинности страховых требований, поведенческий анализ и т. д.
3. Алгоритмы кластеризации
Кластеризация — это процесс разделения и организации точек данных в группы на основе сходства членов группы. Это часть неконтролируемого обучения. Основная цель состоит в том, чтобы сгруппировать похожие элементы. Например, он может объединить все транзакции мошеннического характера на основе некоторых свойств транзакции. Ниже приведены наиболее распространенные алгоритмы кластеризации.
а) Кластеризация K-средних
Это простейший алгоритм обучения без учителя. Алгоритм собирает похожие точки данных вместе, а затем объединяет их в кластер. Кластеризация выполняется путем вычисления центроида группы точек данных и последующей оценки расстояния каждой точки данных от центроида кластера. В зависимости от расстояния анализируемая точка данных затем назначается ближайшему кластеру. «K» в K-средних означает количество кластеров, в которые группируются точки данных.

б) Нечеткий алгоритм C-средних
Алгоритм FCM работает с вероятностью. Считается, что каждая точка данных имеет вероятность принадлежности к другому кластеру. Точки данных не имеют абсолютной принадлежности к определенному кластеру, поэтому алгоритм называется нечетким.
c) Алгоритм максимизации ожидания (EM)
Он основан на распределении Гаусса, которое мы изучили в статистике. Данные отображаются в модели распределения Гаусса для решения проблемы. После назначения вероятности рассчитывается точечная выборка на основе уравнений ожидания и максимизации.
г) Алгоритм иерархической кластеризации
Эти алгоритмы сортируют кластеры в иерархическом порядке после изучения точек данных и наблюдения за сходством. Может быть двух видов
- Разделительная кластеризация для нисходящего подхода
- Агломеративная кластеризация для восходящего подхода
Давайте закончим и закончим
ИИ неоднократно поражал мир, и в реальном мире у него есть множество приложений для решения его сложных проблем. Мы надеемся, что эта статья пролила свет на различные алгоритмы искусственного интеллекта и их широкие классификации. Алгоритмы выбираются в зависимости от необходимости и характера имеющихся у нас точек данных.
Алгоритмы имеют свои преимущества и недостатки с точки зрения точности, производительности и времени обработки. Это всего лишь несколько алгоритмов. Если вы хотите узнать больше, ознакомьтесь с программой Executive PG upGrad и IIIT-B по машинному обучению и искусственному интеллекту .
Что такое наивный байес?
Теорема Байеса используется в алгоритме наивного Байеса, который, в отличие от других алгоритмов в этом списке, использует вероятностный подход. Это просто означает, что метод имеет набор априорных вероятностей, установленных для каждой из классификаций вашей цели, а не сразу переходит к данным. Алгоритм изменяет эти априорные вероятности, чтобы сгенерировать апостериорную вероятность, когда вы вводите данные. В результате это может быть невероятно полезным в ситуациях, когда вам нужно предвидеть, соответствует ли ваш ввод одному из n классов или ни одному из них. Это выполнимо с использованием вероятностного метода, потому что вероятности выпадения для всех n классов будут довольно низкими.
Что такое дерево решений?
Дерево решений — это просто древовидная структура, похожая на блок-схему, в которой каждый внешний узел представляет испытание атрибута, а каждая ветвь указывает результат теста. Ожидаемые метки хранятся в листовых узлах. Мы начинаем с корня дерева и продвигаемся к конечному узлу, сравнивая значения атрибутов. При работе с многомерными данными и с небольшим временем, затрачиваемым на подготовку данных, мы используем этот классификатор. Однако предостережение: они склонны к переоснащению и могут сильно различаться даже при небольших изменениях данных обучения.
Что такое машина опорных векторов?
В той мере, в какой он пытается сортировать точки данных с максимально возможными отступами между двумя классами, SVM уникален. Это называется максимальным разделением полей. Еще один момент, о котором следует помнить, заключается в том, что, в отличие от линейной регрессии, SVM строит гиперплоскость, используя только опорные векторы, тогда как линейная регрессия использует полный набор данных. SVM особенно полезны в обстоятельствах, когда данные имеют много измерений. Итак, вы начинаете с создания случайной гиперплоскости, а затем измеряете расстояние между ней и ближайшими значениями данных из каждого класса. Опорные векторы — это точки данных, ближайшие к гиперплоскости.