Индекс Джини для деревьев решений: механизм, совершенное и несовершенное разделение с примерами
Опубликовано: 2020-10-28Оглавление
Введение
Дерево решений — один из наиболее часто используемых практических подходов к обучению с учителем. Его можно использовать для решения как задач регрессии, так и задач классификации, причем последняя более применима на практике. В этих деревьях метки классов представлены листьями, а ветви обозначают соединения признаков, ведущие к этим меткам классов. Он широко используется в алгоритмах машинного обучения. Как правило, подход машинного обучения включает в себя управление многими гиперпараметрами и оптимизацию.
Дерево регрессии используется, когда прогнозируемый результат является действительным числом, а дерево классификации используется для прогнозирования класса, к которому принадлежат данные. Эти два термина вместе называются деревьями классификации и регрессии (CART).
Это непараметрические методы обучения дерева решений, которые обеспечивают деревья регрессии или классификации в зависимости от того, является ли зависимая переменная категориальной или числовой соответственно. Этот алгоритм использует метод индекса Джини для создания двоичных разделений. Индекс Джини и примесь Джини взаимозаменяемы.
Деревья решений повлияли на модели регрессии в машинном обучении. При проектировании дерева разработчики задают функции узлов и возможные атрибуты этой функции с ребрами.
Расчет
Индекс Джини или примесь Джини рассчитывается путем вычитания суммы квадратов вероятностей каждого класса из единицы. Он предпочитает в основном большие разделы и очень прост в реализации. Проще говоря, он вычисляет вероятность того, что определенная случайно выбранная функция будет неправильно классифицирована.
Индекс Джини варьируется от 0 до 1, где 0 представляет чистоту классификации, а 1 обозначает случайное распределение элементов между различными классами. Индекс Джини, равный 0,5, указывает на равное распределение элементов по некоторым классам.

Математически индекс Джини представлен
Индекс Джини работает с категориальными переменными и дает результаты в терминах «успех» или «неудача» и, следовательно, выполняет только бинарное разделение. Он не требует больших вычислительных ресурсов, как его аналог — получение информации. Из индекса Джини рассчитывается значение другого параметра, называемого Прирост Джини, значение которого максимизируется с каждой итерацией с помощью Дерева решений, чтобы получить идеальную КОРЗИНУ.
Давайте разберемся с расчетом индекса Джини на простом примере. Здесь у нас есть в общей сложности 10 точек данных с двумя переменными, красными и синими. Оси X и Y пронумерованы с пробелами 100 между каждым термином. Из данного примера мы рассчитаем индекс Джини и прирост Джини.
Для дерева решений нам нужно разделить набор данных на две ветви. Рассмотрим следующие точки данных с 5 красными и 5 синими точками, отмеченными на плоскости XY. Предположим, мы делаем бинарное разделение по X = 200, тогда у нас будет идеальное разделение, как показано ниже.
Видно, что разделение выполнено правильно и у нас осталось две ветви по 5 красных (левая ветвь) и 5 синих (правая ветвь).
Но каков будет результат, если мы произведем расщепление по X=250?
У нас осталось две ветви, левая ветвь состоит из 5 красных и 1 синей, а правая ветвь состоит из 4 синих. Следующее называется несовершенным разделением. При обучении модели дерева решений для количественной оценки степени несовершенства разделения мы можем использовать индекс Джини.
Оформить заказ: типы бинарного дерева
Основной механизм
Чтобы рассчитать примесь Джини , давайте сначала разберемся с ее основным механизмом.
- Во-первых, мы будем случайным образом выбирать любую точку данных из набора данных.
- Затем мы случайным образом классифицируем его в соответствии с распределением классов в данном наборе данных. В нашем наборе данных мы дадим точку данных, выбранную с вероятностью 5/10 для красного и 5/10 для синего, поскольку существует пять точек данных каждого цвета и, следовательно, вероятность.
Теперь, чтобы рассчитать индекс Джини, формула дается
Где C — общее количество классов, а p( i ) — вероятность выбора точки данных с классом i.
В приведенном выше примере мы имеем C = 2 и p (1) = p (2) = 0,5. Следовательно, индекс Джини можно рассчитать как:
G =p(1) ∗ (1−p(1)) + p(2) ∗ (1−p(2))
=0,5 ∗ (1−0,5) + 0,5 ∗ (1−0,5)
=0,5
Где 0,5 — это общая вероятность несовершенной классификации точки данных и, следовательно, ровно 50%.
Теперь давайте рассчитаем примесь Джини как для идеального, так и для несовершенного разделения, которое мы выполнили ранее,
Идеальный сплит

Левая ветвь имеет только красные цвета, и, следовательно, ее примесь Джини:
G (слева) = 1 ∗ (1−1) + 0 ∗ (1−0) = 0
Правая ветвь также имеет только блюз, и, следовательно, ее примесь Джини также определяется как:
G (справа) = 1 ∗ (1−1) + 0 ∗ (1−0) = 0
Из быстрого вычисления мы видим, что как левая, так и правая ветви нашего идеального расщепления имеют вероятность 0 и, следовательно, действительно идеальны. Примесь Джини, равная 0, является самой низкой и наилучшей возможной примесью для любого набора данных.
Несовершенный раскол
В этом случае на левой ветке 5 красных и 1 синяя. Его примесь Джини может быть задана,
G (слева) = 1/6 * (1−1/6) + 5/6 * (1−5/6) = 0,278
Правая ветвь содержит все синие цвета, и, следовательно, как было рассчитано выше, ее примесь Джини определяется выражением
G (справа) = 1 ∗ (1−1) + 0 ∗ (1−0) = 0
Теперь, когда у нас есть примеси Джини несовершенного расщепления, чтобы оценить качество или степень расщепления, мы придадим определенный вес примеси каждой ветви с количеством элементов, которые она имеет.
(0,6 ∗ 0,278) + (0,4 ∗ 0) = 0,167
Теперь, когда мы рассчитали индекс Джини, мы вычислим значение другого параметра, усиления Джини, и проанализируем его применение в деревьях решений. Количество примесей, удаленных с помощью этого разделения, рассчитывается путем вычитания приведенного выше значения с индексом Джини для всего набора данных (0,5).
0,5 – 0,167 = 0,333
Это вычисленное значение называется « Gini Gain ». Проще говоря, более высокий коэффициент Джини = лучший сплит .
Следовательно, в алгоритме дерева решений наилучшее разделение получается путем максимизации коэффициента Джини, который рассчитывается вышеуказанным образом на каждой итерации.
После вычисления коэффициента Джини для каждого атрибута в наборе данных класс sklearn.tree.DecisionTreeClassifier выберет наибольший коэффициент Джини в качестве корневого узла. Когда встречается ветвь с Gini, равным 0, она становится конечным узлом, а другие ветви с Gini больше 0 нуждаются в дальнейшем разбиении. Эти узлы растут рекурсивно, пока все они не будут классифицированы.
Использование в машинном обучении
В мире машинного обучения существуют различные алгоритмы, предназначенные для разных целей. Проблема заключается в определении того, какой алгоритм лучше всего подходит для данного набора данных. Алгоритм дерева решений, похоже, тоже показывает убедительные результаты. Чтобы признать это, нужно думать, что деревья решений в чем-то имитируют человеческую субъективную силу.

Таким образом, проблема с более человеческим когнитивным опросом, вероятно, больше подходит для деревьев решений. Лежащая в основе концепция деревьев решений может быть легко понята благодаря их древовидной структуре.
Читайте также: Дерево решений в ИИ: введение, типы и создание
Заключение
Альтернативой индексу Джини является информационная энтропия, которая используется для определения того, какой атрибут дает нам максимальную информацию о классе. Он основан на понятии энтропии, которая представляет собой степень примеси или неопределенности. Он направлен на снижение уровня энтропии от корневых узлов к листовым узлам дерева решений.
Таким образом, индекс Джини используется алгоритмами CART для оптимизации деревьев решений и создания точек принятия решений для деревьев классификации.
Если вам интересно узнать больше о машинном обучении, ознакомьтесь с дипломом PG IIIT-B и upGrad в области машинного обучения и искусственного интеллекта, который предназначен для работающих профессионалов и предлагает более 450 часов тщательного обучения, более 30 тематических исследований и заданий, IIIT- Статус B Alumni, более 5 практических практических проектов и помощь в трудоустройстве в ведущих фирмах.
Что такое деревья решений?
Деревья решений — это способ диаграммы шагов, необходимых для решения проблемы или принятия решения. Они помогают нам смотреть на решения с разных точек зрения, чтобы мы могли найти наиболее эффективную. Диаграмма может начинаться с представления о конце или о текущей ситуации, но она приводит к какому-то конечному результату или заключению — ожидаемому результату. Результатом часто является цель или проблема, которую необходимо решить.
Почему индекс Джини используется в дереве решений?
Индекс Джини используется для обозначения неравенства нации. Чем больше значение индекса, тем выше будет неравенство. Индекс используется для определения различий во владении людей. Коэффициент Джини является мерой неравенства. В совершенно равноправном обществе коэффициент Джини равен 0,0. В то время как в обществе, где есть только один человек, и у него есть все богатства, это будет 1,0. В обществе, где богатство распределено равномерно, коэффициент Джини равен 0,50. Значение коэффициента Джини используется в деревьях решений для разделения населения на две равные половины. Значение коэффициента Джини, при котором население точно делится, всегда больше или равно 0,50.
Как работает примесь Джини в деревьях решений?
В деревьях решений примесь Джини используется для разделения данных на разные ветви. Деревья решений используются для классификации и регрессии. В деревьях решений примесь используется для выбора наилучшего атрибута на каждом шаге. Примесь атрибута – это размер разницы между количеством баллов, которое имеет атрибут, и количеством баллов, которых атрибут не имеет. Если количество баллов, которое имеет атрибут, равно количеству баллов, которых у него нет, то примесь атрибута равна нулю.