В статистике, Наивный байесовский классификатор представляют собой семейство простых «вероятностные классификаторы ", основанные на применении теоремы Байеса с сильными (наивными) независимыми предположениями между признаками. Это одни из самых простых моделей байесовской сети. Но их можно сочетать с оценкой плотности ядра и обеспечивать более высокий уровень точности.
Наивные байесовские классификаторы обладают высокой масштабируемостью, требуя ряда параметров, линейных по количеству переменных (функций / предикторов) в проблеме обучения. Обучение с максимальным правдоподобием может быть выполнено путем вычисления выражения в закрытой форме, которое занимает линейное время, а не с помощью дорогостоящего итеративного приближения как используется для многих других типов классификаторов.
В литературе по статистике и информатике наивные байесовские модели известны под разными именами, включая простые байесовские и Независимость Байеса . Все эти названия ссылаются на использование теоремы Байеса в решающем правиле классификатора, но наивный байесовский метод не является (обязательно) байесовским методом.
Наивный байесовский метод построения классификаторов: модели, которые присваивают метки классов экземплярам проблемы, представленные как векторы имеют значения, где метки классов взяты из некоторого конечного набора. Для обучения таких классификаторов не существует единого алгоритма , а существует семейство алгоритмов, основанных на общем принципе: все наивные байесовские классификаторы предполагают, что значение конкретной характеристики не зависит от значение любой другой функции, учитывая переменную класса. Например, фрукт может считаться яблоком, если он красный, круглый и имеет диаметр около 10 см. Наивный байесовский классификатор считает, что каждая из этих характеристик независимо влияет на вероятность того, что этот фрукт является яблоком, независимо от любых возможных корреляций между характеристиками цвета, округлости и диаметра.
Для некоторых типов вероятностных моделей наивные байесовские классификаторы можно очень эффективно обучать в настройке контролируемого обучения. Во многих практических приложениях для оценки параметров наивных байесовских моделей используется метод максимального правдоподобия ; другими словами, можно работать с наивной байесовской моделью, не принимая байесовскую вероятность или используя какие-либо байесовские методы.
Несмотря на их наивный дизайн и явно упрощенные предположения, наивные байесовские классификаторы довольно хорошо работали во многих сложных ситуациях реального мира. В 2004 году анализ проблемы байесовской классификации показал, что существуют веские теоретические причины кажущейся неправдоподобной эффективности наивных байесовских классификаторов. Тем не менее, всестороннее сравнение с другими алгоритмами классификации в 2006 году показало, что байесовская классификация превосходит другие подходы, такие как усиленные деревья или случайные леса.
. Преимущество наивного байесовского метода состоит в том, что он требует только небольшое количество обучающих данных для оценки параметров, необходимых для классификации.
В целом, наивная байесовская модель - это модель условной вероятности : данный экземпляр проблемы должен быть классифицированный, представленный вектором представляющим некоторые n функций (независимые переменные), этому экземпляру присваиваются вероятности
для каждого из K возможных результатов или классов .
Проблема с приведенной выше формулировкой состоит в том, что если количество функций n велико или если функция может принимать большое количество значений, то основывать такую модель на таблицах вероятностей невозможно. Поэтому мы переформулируем модель, чтобы сделать ее более управляемой. Используя теорему Байеса, условную вероятность можно разложить как
На простом английском языке, используя терминологию байесовской вероятности, приведенное выше уравнение можно записать как
На практике интересен только числитель этой дроби, потому что знаменатель не зависит от и значений признаков даны, так что знаменатель фактически постоянен. Числитель эквивалентен модели совместной вероятности
, который можно переписать следующим образом, используя цепное правило для повторных применений определения условной вероятности :
Теперь в игру вступают «наивные» условные предположения независимости : предположим, что все функции в взаимно независимы, при условии категории . При этом предположении
Таким образом, совместная модель может быть выражена как
где обозначает пропорциональность.
Это означает, что в соответствии с вышеуказанными предположениями о независимости условное распределение по переменной класса составляет:
где доказательства - коэффициент масштабирования, зависящий только от , то есть константа, если известны значения переменных функции.
В ходе обсуждения до сих пор была выведена модель независимых признаков, то есть наивная байесовская вероятностная модель. Наивный байесовский классификатор сочетает эту модель с правилом принятия решений. Одно из общих правил - выбирать наиболее вероятную гипотезу; это известно как максимальное апостериорное или правило принятия решения MAP. Соответствующий классификатор, байесовский классификатор, представляет собой функцию, которая назначает метку класса для некоторого k следующим образом:
Априор класса может быть вычислен путем предположения равновероятных классов (т. е., ), или путем вычисления оценки вероятности класса из обучающего набора ( т.е.
Предположения о распределении признаков называются "моделью событий". "наивного байесовского классификатора. Для дискретных функций, подобных тем, которые встречаются при классификации документов (включая фильтрацию спама), популярны полиномиальные и распределения Бернулли. Эти предположения приводят к двум различным моделям, которые часто путают.
При работе с непрерывными данными типичное допущение состоит в том, что непрерывные значения, связанные с каждым классом, распределяются в соответствии с нормальным (или гауссовым) распределением. Например, предположим, что обучающие данные содержат непрерывный атрибут, . Сначала мы сегментируем данные по классу, а затем вычисляем среднее значение и дисперсию для в каждом классе. Пусть будет средним из значений в , связанных с классом C k, и пусть будет скорректированной по Бесселю дисперсией значений в , связанный с классом C k. Предположим, мы собрали какое-то значение наблюдения . Затем распределение вероятностей для данного класса , , можно вычислить, подставив в уравнение для нормальное распределение параметризовано и . То есть
Другой распространенный метод обработки непрерывных значений - использование биннинга для дискретизации значений признаков, чтобы получить новый набор Особенности, распределенные по Бернулли; в некоторой литературе на самом деле предполагается, что это необходимо для применения наивного Байеса, но это не так, и дискретизация может отбросить дискриминационную информацию.
Иногда распределение условно-классовых предельных плотностей далеко от нормального. В этих случаях оценка плотности ядра может использоваться для более реалистичной оценки предельных плотностей каждого класса. Этот метод, предложенный Джоном и Лэнгли, может значительно повысить точность классификатора.
В модели полиномиальных событий выборки (векторы признаков) представляют частоты, с которыми определенные события были сгенерированы мультиномом где - вероятность того, что событие i произойдет (или K таких многочленов в случае мультикласса). Вектор признаков тогда гистограмма, где подсчитывает, сколько раз событие i наблюдалось в конкретном случае. Это модель событий, обычно используемая для классификации документов, с событиями, представляющими появление слова в отдельном документе (см. Предположение мешок слов ). Вероятность наблюдения гистограммы x определяется как
Полиномиальный наивный байесовский классификатор становится линейным классификатором, когда выражается в пространстве журнала:
где и .
Если данный класс и значение признака никогда не встречаются вместе в обучающих данных, тогда оценка вероятности на основе частоты будет равна нулю, потому что оценка вероятности прямо пропорциональна количеству вхождений значения признака уэ. Это проблематично, потому что это уничтожит всю информацию о других вероятностях при их умножении. Следовательно, часто желательно включать поправку для малой выборки, называемую псевдосчетом, во все оценки вероятности, чтобы никакая вероятность никогда не устанавливалась равной точно нулю. Этот способ регуляризации наивного Байеса называется сглаживанием Лапласа, когда псевдосчет равен единице, и сглаживанием Лидстоуна в общем случае.
Ренни и др. обсудить проблемы с мультиномиальным допущением в контексте классификации документов и возможные способы решения этих проблем, включая использование весов tf – idf вместо необработанных частот терминов и нормализации длины документа для создания наивного байесовского классификатора которая конкурирует с опорными векторными машинами.
В многомерной модели событий Бернулли функции независимы Булевы (двоичные переменные), описывающие входы. Как и полиномиальная модель, эта модель популярна для задач классификации документов, где используются признаки появления двоичных терминов, а не частота терминов. Если является логическим значением, выражающим появление или отсутствие i-го термина из словаря, то вероятность документа с учетом класса определяется выражением
где - вероятность класса создание термина . Эта модель событий особенно популярна для классификации коротких текстов. Его преимущество заключается в явном моделировании отсутствия терминов. Обратите внимание, что наивный байесовский классификатор с моделью событий Бернулли - это не то же самое, что полиномиальный классификатор NB с усеченными до единицы значениями частоты.
Имея способ обучить наивный байесовский классификатор на основе помеченных данных, можно построить полу-контролируемый алгоритм обучения, который может учиться на комбинация помеченных и немаркированных данных путем выполнения алгоритма контролируемого обучения в цикле:
Сходимость определяется на основе улучшения вероятности модели , где обозначает параметры наивной байесовской модели.
Этот обучающий алгоритм является примером более общего алгоритма максимизации ожидания (EM): шаг прогнозирования внутри цикла - E-шаг EM, а повторное обучение наивный Байес - это M-шаг. Формально алгоритм обоснован предположением, что данные генерируются с помощью модели смеси, а компоненты этой модели смеси являются в точности классами задачи классификации.
Несмотря на то, что далеко идущие предположения о независимости часто бывают неточными, наивный байесовский классификатор имеет несколько свойств, которые делают его удивительно полезным на практике. В частности, разделение условных распределений признаков классов означает, что каждое распределение может быть независимо оценено как одномерное распределение. Это помогает облегчить проблемы, возникающие из-за проклятия размерности, например, необходимость в наборах данных, которые экспоненциально масштабируются с количеством функций. Хотя наивный метод Байеса часто не может дать хорошую оценку вероятностей правильного класса, это может не быть требованием для многих приложений. Например, наивный байесовский классификатор сделает правильную классификацию правил принятия решений MAP, если правильный класс более вероятен, чем любой другой класс. Это верно независимо от того, является ли оценка вероятности незначительной или даже очень неточной. Таким образом, общий классификатор может быть достаточно устойчивым, чтобы игнорировать серьезные недостатки лежащей в его основе наивной вероятностной модели. Другие причины наблюдаемого успеха наивного байесовского классификатора обсуждаются в цитируемой ниже литературе.
В случае дискретных входных данных (индикатор или частотные характеристики для дискретных событий) наивные байесовские классификаторы образуют генеративно-дискриминативную пару с (мультиномиальным ) логистическая регрессия классификаторы: каждый наивный байесовский классификатор можно рассматривать как способ подбора вероятностной модели, которая оптимизирует совместное правдоподобие , тогда как логистическая регрессия соответствует той же вероятностной модели для оптимизации условного .
связь между ними можно увидеть, заметив, что функция принятия решения для наивного Байеса (в двоичном случае) может быть переписана как «класс прогнозирования , если шансы из превышают коэффициенты ". Выражение этого в лог-пространстве дает:
Левая часть этого уравнения - это логарифм-шансы, или logit, количество, предсказанное линейной моделью, лежащей в основе логистической регрессии. Поскольку наивный байесовский метод также является линейной моделью для двух «дискретных» моделей событий, ее можно перепараметризовать как линейную функцию . Тогда для получения вероятностей нужно применить логистическую функцию к , или в случае мультиклассов функция softmax.
Дискриминантные классификаторы имеют более низкую асимптотическую ошибку, чем генеративные; однако исследование Нг и Джордан показало, что в некоторых практических случаях наивный байесовский метод может превзойти логистическую регрессию, поскольку она быстрее достигает своей асимптотической ошибки.
Задача: определить, является ли данный человек мужчиной или женщиной, на основе измеренных характеристик. Характеристики включают рост, вес и размер стопы.
Пример обучающего набора ниже.
Человек | рост (футы) | вес (фунты) | размер стопы (дюймы) |
---|---|---|---|
мужчина | 6 | 180 | 12 |
мужчина | 5,92 (5'11 ") | 190 | 11 |
мужчина | 5,58 (5'7 дюймов) | 170 | 12 |
мужчина | 5,92 (5'11 ") | 165 | 10 |
женский | 5 | 100 | 6 |
розетка | 5,5 (5 футов 6 дюймов) | 150 | 8 |
розетка | 5,42 (5 футов 5 дюймов) | 130 | 7 |
женский | 5,75 (5'9 ") | 150 | 9 |
Классификатор, созданный из обучающей выборки с использованием предположения о распределении по Гауссу, будет (заданные дисперсии являются несмещенными выборочными дисперсиями ):
Человек | среднее значение (рост) | отклонение (рост) | среднее значение (вес) | отклонение (вес) | среднее (размер стопы) | отклонение (размер стопы) |
---|---|---|---|---|---|---|
мужчина | 5,855 | 3,5033 × 10 | 176,25 | 1,2292 × 10 | 11,25 | 9,1667 × 10 |
женский | 5,4175 | 9,7225 × 10 | 132,5 | 5,5833 × 10 | 7,5 | 1,6667 |
Допустим, у нас есть эквипроба Таким образом, P (мужской) = P (женский) = 0,5. Это априорное распределение вероятностей может быть основано на наших знаниях о частотах в большей популяции или на частоте в обучающей выборке.
Ниже приводится образец, который можно разделить на мужчин и женщин.
Человек | рост (футы) | вес (фунты) | размер стопы (дюймы) |
---|---|---|---|
образец | 6 | 130 | 8 |
Мы хотим определить какая задняя часть больше, мужская или женская. Для классификации как мужчины задняя часть дается как
Для классификации женского пола дается как
Свидетельство (также называемое нормализующей константой) может быть вычислено:
Однако, учитывая образец, свидетельство является константой и, таким образом, одинаково масштабируется на обоих задних направлениях. Таким образом, это не влияет на классификацию и может быть проигнорировано. Теперь определим распределение вероятностей для пола выборки.
где и - параметры нормального распределения, предварительно определенные из обучающей выборки. Обратите внимание, что значение больше 1 здесь в порядке - это плотность вероятности, а не вероятность, потому что высота является непрерывной переменной.
Поскольку апостериорный числитель больше в случае женщин, мы прогнозируем, что выборка будет женской.
Вот рабочий пример наивной байесовской классификации для проблемы классификации документов. Рассмотрим проблему классификации документов по их содержимому, например, на спам и не-спам электронные письма. Представьте, что документы взяты из нескольких классов документов, которые можно смоделировать как наборы слов, где (независимая) вероятность того, что i-е слово данного документа встречается в документе из класса C, может быть записана как
(Для этой обработки мы еще больше упрощаем ситуацию, предполагая, что слова распределены в документе случайным образом, то есть слова не зависит от длины документа, положения в документе по отношению к другим словам или другого контекста документа.)
Тогда вероятность того, что данный документ D содержит все слова для класса C:
Вопрос, на который мы хотим ответить: «какова вероятность того, что данный документ D принадлежит данному классу C?» Другими словами, то, что ?
Теперь по определению
и
Теорема Байеса превращает их в формулировку вероятности в терминах правдоподобия.
Предположим на данный момент, что существует только два взаимоисключающих класса, S и ¬S (например, спам, а не спам), так что каждый элемент (электронная почта) находится либо в одном, либо в другом;
и
Используя байесовский результат выше, мы можем написать:
Деление одного на другое дает:
Что может быть преобразовано как:
Таким образом, отношение вероятностей p (S | D) / p (¬S | D) может быть выражено через ряд отношений правдоподобия. Фактическая вероятность p (S | D) может быть легко вычислена из log (p (S | D) / p (¬S | D)) на основании наблюдения, что p (S | D) + p (¬S | D) = 1.
Взяв логарифм всех этих соотношений, получим:
(Этот метод «логарифмических отношений правдоподобия » является распространенным методом в статистике. В случае двух взаимоисключающих альтернатив (таких как этот пример) преобразование логарифмического правдоподобия отношение к вероятности принимает форму сигмовидной кривой : подробности см. в logit.)
Наконец, документ можно классифицировать следующим образом. Это спам, если ( т.е. ), иначе это не спам.