В статистика, phi-коэффициент (или среднеквадратичный коэффициент сопряженности и обозначается φ или rφ) является мерой ассоциации для двух бинарные переменные. Введенный Карлом Пирсоном, этот показатель аналогичен коэффициенту корреляции Пирсона в своей интерпретации. Фактически, коэффициент корреляции Пирсона, оцененный для двух двоичных переменных, вернет коэффициент phi. Коэффициент фи связан со статистикой хи-квадрат для таблицы непредвиденных обстоятельств 2 × 2 (см. критерий хи-квадрат Пирсона )
где n - общее количество наблюдений. Две двоичные переменные считаются положительно связанными, если большая часть данных не соответствует диагональные ячейки. Напротив, две двоичные переменные считаются отрицательно связанными, если большая часть данных падает с диагонали. Если у нас есть таблица 2 × 2 для двух случайных величин x и y
y = 1 | y = 0 | всего | |
x = 1 | |||
x = 0 | |||
итого |
, где n 11, n 10, n 01, n 00, неотрицательные числа f количество наблюдений, сумма которых равна n, общее количество наблюдений. Коэффициент phi, описывающий связь x и y, равен
Phi связана с коэффициентом точечной бисериальной корреляции и d Коэна и оценивает степень взаимосвязи между двумя переменными (2 × 2).
Коэффициент phi также можно выразить с помощью только , , и , как
Хотя в расчетах коэффициент корреляции Пирсона уменьшается до коэффициента phi в случае 2 × 2, они равны не в общем то же самое. Коэффициент корреляции Пирсона находится в диапазоне от -1 до +1, где ± 1 указывает на полное согласие или несогласие, а 0 указывает на отсутствие связи. Коэффициент phi имеет максимальное значение, которое определяется распределением двух переменных, если одна или обе переменные могут принимать более двух значений. См. Подробное обсуждение в Давенпорте и Эль-Санхури (1991).