Термин в теории вероятностей
Независимость - фундаментальное понятие в теории вероятностей, как в статистика и теория случайных процессов.
Два события являются независимыми, статистически независимыми или стохастически независимый, если наличие одного не влияет на вероятность появления другого (эквивалентно, не влияет на шансы ). Точно так же две случайные величины независимы, если реализация одной не влияет на распределение вероятностей другой.
При работе с коллекциями из более чем двух событий необходимо различать слабое и сильное понятие независимости. События называются попарно независимыми, если любые два события в коллекции независимы друг от друга, при этом говорится, что события взаимно независимы (или вместе независимы ) интуитивно означает, что каждое событие не зависит от любой комбинации других событий в коллекции. Аналогичное понятие существует для наборов случайных величин.
Название «взаимная независимость» (то же самое, что «коллективная независимость») кажется результатом педагогического выбора, просто чтобы отличить более сильное понятие от «попарной независимости», которое является более слабым понятием. В современной литературе по теории вероятностей, статистике и случайным процессам более сильное понятие называется просто независимость без модификатора. Он сильнее, поскольку независимость подразумевает попарную независимость, но не наоборот.
Содержание
- 1 Определение
- 1.1 Для событий
- 1.1.1 Два события
- 1.1.2 Вероятность журнала и информационное содержание
- 1.1.3 Шансы
- 1.1.4 Более двух события
- 1.2 Для вещественных случайных величин
- 1.2.1 Две случайные величины
- 1.2.2 Более двух случайных величин
- 1.3 Для вещественных случайных векторов
- 1.4 Для случайных процессов
- 1.4.1 Для одного случайного процесса
- 1.4.2 Для двух случайных процессов
- 1.5 Независимые σ-алгебры
- 2 Свойства
- 2.1 Самостоятельность
- 2.2 Ожидание и ковариация
- 2.3 Характеристическая функция
- 3 Примеры
- 3.1 Игра в кости
- 3.2 Вытягивание карт
- 3.3 Попарная и взаимная независимость
- 3.4 Взаимная независимость
- 4 Условная независимость
- 4.1 Для событий
- 4.2 Для случайных величин
- 5 См. Также
- 6 Ссылки
- 7 Внешние ссылки
Определение
Для событий
Два события
Два события и независимы (часто пишется как или ) тогда и только тогда, когда их совместная вероятность равна произведению их вероятностей:
| | (Eq.1) |
Почему это определяет независимость, становится ясно, если переписать с помощью условные вероятности :
- .
и аналогично
- .
Таким образом, появление не влияет на вероятность , наоборот. Хотя производные выражения могут показаться более интуитивными, они не являются предпочтительным определением, поскольку условные вероятности могут быть неопределенными, если или равны 0. Кроме того, из предпочтительного определения симметрии ясно, что когда не зависит от , также не зависит от .
логарифмической вероятности и информационное содержание
Заявленное в терминах логарифмической вероятности, два события являются независимыми тогда и только тогда, когда логарифмическая вероятность совместного события является суммой логарифмической вероятности отдельных событий:
В теории информации отрицательная логарифмическая вероятность интерпретируется как информационное содержание, и таким образом, два события независимы тогда и только тогда, когда информационное содержание объединенного события равно сумме информационного содержания отдельных событий:
Подробнее см. Информационное содержание § Аддитивность независимых событий.
Коэффициенты
Выраженные в терминах коэффициентов, два события независимы тогда и только тогда, когда отношение шансов из и равно единице (1). Аналогично вероятности это эквивалентно тому, что условные шансы равны безусловным:
или к вероятности одного события, учитывая, что другое событие такое же в качестве шансов события, если другое событие не произойдет:
отношение шансов можно определить как
или симметрично для шансов при , и, таким образом, равен 1 тогда и только тогда, когда события независимы.
Более двух событий
Конечный набор событий является попарно независимым, если каждая пара событий независима, то есть тогда и только тогда, когда для всех различных пар индексов ,
| | (Eq.2) |
Конечный набор событий взаимно независимый, если каждое событие не зависит от любое пересечение других событий, то есть, если и только если для каждого и для каждого -элементное подмножество событий из ,
| | (Ур. 3) |
Это называется правилом умножения для независимых событий. Обратите внимание, что это не одно условие, включающее только произведение всех вероятностей всех отдельных событий (контрпример см. В ниже); это должно выполняться для всех подмножеств событий.
Для более чем двух событий взаимно независимый набор событий является (по определению) попарно независимым; но обратное не обязательно верно (контрпример см. ниже).
Для случайных величин с действительным знаком
Две случайные величины
Две случайные величины и являются независимымитогда и только тогда, когда ( если и е) порожденные ими элементы π-системы независимы; то есть для каждого и , события и являются независимыми событиями (как определено выше в Eq.1). То есть и с кумулятивными функциями распределения и , независимы если и только если комбинированная случайная величина имеет совместную кумулятивную функцию распределения
| | (Eq.4) |
или эквивалентно, если плотности вероятности и и совместная плотность вероятности существование,
- .
Подробнее чем две случайные величины
Конечное множество случайные величины является попарно независимым тогда и только тогда, когда каждая пара случайных величин независима. Даже если набор случайных величин попарно независим, он не обязательно является взаимно независимым, как определено ниже.
Конечный набор случайных величин является взаимно независимым тогда и только тогда, когда для любой последовательности чисел , события являются взаимно независимыми событиями (как определено выше в Eq.3 ). Это эквивалентно следующему условию для совместной кумулятивной функции распределения . Конечный набор случайных величин является взаимно независимым тогда и только тогда, когда
| | (Eq.5) |
Обратите внимание, что здесь нет необходимости требовать, чтобы распределение вероятностей факторизовалось для всех возможных подмножеств элементов, как в случай для событий . Это не требуется, потому что, например, подразумевает .
Теоретически склонный к измерениям может предпочесть замену событий для событий в приведенном выше определении, где - любой набор Бореля. Это определение в точности эквивалентно приведенному выше, когда значения случайных величин являются действительными числами. Его преимущество заключается в том, что он работает также для комплексных случайных величин или для случайных величин, принимающих значения в любом измеримом пространстве (которое включает в себя топологические пространства, снабженные соответствующими σ-алгебрами).
Для случайных векторов с действительными значениями
Два случайных вектора и называются независимыми if
| | (Eq.6) |
где и обозначают совокупные функции распределения и и обозначает их соединение кумулятивная функция распределения. Независимость и часто обозначается . Написанные покомпонентно, и называются независимыми, если
- .
Для стохастических процессов
Для одного случайного процесса
Определение независимости может быть расширено от случайных векторов до случайного процесса. Таким образом, для независимого случайного процесса требуется, чтобы случайные величины, полученные путем выборки процесса в любое раз - независимые случайные величины для любых .
Формально, случайный процесс называется независимым, если и только если для всех и для всех
| | (уравнение 7) |
где . Независимость случайного процесса - это свойство внутри стохастического процесса, а не между двумя случайными процессами.
Для двух случайных процессов
Независимость двух случайных процессов - это свойство двух случайных процессов и , которые определены в одном вероятностном пространстве . Формально, два случайных процесса и называются независимым, если для всех и для всех , случайные векторы и независимы, т.е. если
| | (Ур.8) |
Независимые σ-алгебры
Определения, приведенные выше (Ур.1 и Ур. 2 ) оба обобщаются следующим определением независимости для σ-алгебр. Пусть будет вероятностным пространством и пусть и - две под-σ-алгебры . и считаются независимый если всякий раз, когда и ,
Аналогично, конечное семейство σ-алгебр , где - индексное множество, называется независимым тогда и только тогда, когда
и бесконечное семейство σ-алгебр называется независимым, если все его конечные подсемейства независимы.
Новое определение напрямую связано с предыдущими:
- Два события независимы (в старом смысле) тогда и только тогда, когда генерируемые ими σ-алгебры независимы ( в новом смысле). Σ-алгебра, порожденная событием , по определению
- Две случайные величины и , определенные в , являются независимыми (в старом смысле) тогда и только тогда, когда Порождаемые ими σ-алгебры независимы (в новом смысле). Σ-алгебра, генерируемая случайной величиной , принимающей значения в некотором измеримом пространстве состоит по определению из всех подмножеств в форме , где - любое измеримое подмножество .
Используя это определение, легко показать что если и являются случайными величинами и является константой, тогда и независимы, поскольку σ-алгебра генерируется константой случайным образом переменная - это тривиальная σ-алгебра . События с нулевой вероятностью не могут повлиять на независимость, поэтому независимость также сохраняется, если является только Pr- почти наверняка константой.
Свойства
Самостоятельность
Обратите внимание, что событие не зависит от самого себя тогда и только тогда, когда
- .
Таким образом, событие не зависит от самого себя тогда и только тогда, когда оно почти наверняка встречается или его дополнение почти наверняка встречается; этот факт полезен при доказательстве законов нуля – единицы.
Ожидание и ковариация
Если и - независимые случайные величины, тогда оператор ожидания имеет свойство
и ковариация равна нулю, как следует из
- .
Обратное неверно: если ковариация двух случайных величин равна 0, они все равно могут быть независимыми. См. некоррелированный.
Аналогично для двух случайных процессов и : если они независимы, то они некоррелированы.
Характеристическая функция
Две случайные величины и независимы тогда и только тогда, когда характеристическая функция случайного вектора удовлетворяет
- .
В частности, характеристическая функция их суммы является произведением их предельных характеристических функций:
, хотя обратное утверждение неверно. Случайные переменные, удовлетворяющие последнему условию, называются субнезависимыми.
Примеры
Бросание кубиков
Событие получения 6 при первом броске кубика и событие получения 6 второй раз независимы. Напротив, событие получения 6 при первом броске кубика и событие, когда сумма чисел, полученных при первом и втором испытании, равна 8, не являются независимыми.
Вытягивание карт
Если две карты вытянуты с заменой из колоды карт, событие вытягивания красной карты в первом испытании и вытягивания красной карты во втором испытании считается независимый. Напротив, если две карты вытягиваются без замены из колоды карт, событие вытягивания красной карты в первом испытании и вытягивания красной карты во втором испытании не является независимым, потому что колода, в которой была красная карта удаленная карта имеет пропорционально меньше красных карточек.
Парная и взаимная независимость
Попарно независимые, но не взаимно независимые события.
Взаимно независимые события.
Рассмотрим два показанных пространства вероятностей. В обоих случаях и . Случайные величины в первом пространстве попарно независимы, потому что , и ; но три случайные величины не являются взаимно независимыми. Случайные величины во втором пространстве являются как попарно независимыми, так и взаимно независимыми. Чтобы проиллюстрировать разницу, рассмотрите возможность использования двух событий. В попарно независимом случае, хотя любое одно событие не зависит от каждого из двух других по отдельности, оно не является независимым от пересечения двух других:
Однако во взаимно независимом случае
Взаимная независимость
Можно создать пример из трех событий, в котором
и все же никакие два из трех событий не являются попарно независимыми (и, следовательно, множество событий не являются взаимно независимыми). Этот пример показывает, что взаимная независимость включает требования к продуктам вероятностей всех комбинаций событий, а не только отдельных событий, как в этом примере.
Условная независимость
Для событий
События и условно независимы при событии , когда
.
для случайного переменные
Интуитивно две случайные величины и условно независимы при заданном , если когда-то известен , значение не добавляет никакой дополнительной информации о . Например, два измерения и одной и той же базовой величины не являются независимыми, но они условно независимы с учетом (если ошибки в двух измерениях не связаны каким-либо образом).
Формальное определение условной независимости основано на идее условных распределений. Если , и являются дискретными случайными величинами, затем мы определяем и как условно независимые с учетом если
для всех , и такой, что . С другой стороны, если случайные переменные непрерывный и имеют совместную функцию плотности вероятности , затем и являются условно независимыми заданными , если
для всех действительных чисел , и таких, что .
Если дискретный и условно независимы при заданном , тогда
для любого , и с . То есть, условное распределение для с учетом и то же самое, что и заданный только . Аналогичное уравнение справедливо для условных функций плотности вероятности в непрерывном случае.
Независимость можно рассматривать как особый вид условной независимости, поскольку вероятность можно рассматривать как своего рода условную вероятность при отсутствии событий.
См. Также
Ссылки
Внешние ссылки
- СМИ, относящиеся к Статистической зависимости на Wikimedia Commons