Критерій узгодженості Пірсона — один з найвідоміших критеріїв χ 2 {\displaystyle \chi ^{2}} , тому його часто і називають просто «критерій хі-квадрат». Використовується для перевірки гіпотези про закон розподілу.
Ґрунтується на групованих даних. Область значень передбачуваного розподілу ϝ 1 {\displaystyle \digamma _{1}} ділять на деяке число інтервалів. Після чого будують функцію відхилення ρ по різницях теоретичних імовірностей потрапляння в інтервали групування й емпіричних частот.
Нехай X=(X1,…, Xn) — вибірка з розподілу ϝ {\displaystyle \digamma } . Перевіряється проста гіпотеза H 1 = ϝ = ϝ 1 {\displaystyle H_{1}={\digamma =\digamma _{1}}} проти складної альтернативи H 2 = ϝ ≠ ϝ 1 {\displaystyle H_{2}={\digamma \neq \digamma _{1}}} . Нехай A1,…, Ak — інтервали групування в області значень випадкової величини з розподілом ϝ 1 {\displaystyle \digamma _{1}} . Позначимо для j=1,…,k через ν j {\displaystyle \nu _{j}} число елементів вибірки, що потрапили в інтервал A j {\displaystyle A_{j}} : ν j = ( X i ∈ A j ) = ∑ i = 1 n I ( X i ∈ A j ) {\displaystyle \nu _{j}=(X_{i}\in A_{j})=\sum _{i=1}^{n}I(X_{i}\in A_{j})} ,
і через p j > 0 {\displaystyle p_{j}>0} — теоретичну ймовірність P H 1 ( X 1 ∈ A j ) {\displaystyle P_{H1}(X_{1}\in A_{j})} попадання в інтервал A j {\displaystyle A_{j}} випадкової величини з розподілом ϝ 1 {\displaystyle \digamma _{1}} . З необхідністю, p 1 + . . . + p k = 1 {\displaystyle p_{1}+...+p_{k}=1} . Як правило, довжини інтервалів вибирають так, щоб p 1 = . . . = p k = 1 k {\displaystyle p_{1}=...=p_{k}={\frac {1}{k}}} . Нехай ρ ( X ) = ∑ j = 1 k ( ν j − n p j ) 2 n p j {\displaystyle \rho (X)=\sum _{j=1}^{k}{\frac {(\nu _{j}-np_{j})^{2}}{np_{j}}}} (1).
Якщо розподіл вибірки ϝ 2 ≠ ϝ 1 {\displaystyle \digamma _{2}\neq \digamma _{1}} має такі ж, як в ϝ 1 {\displaystyle \digamma _{1}} , імовірності p j {\displaystyle p_{j}} попадання в кожний з інтервалів A l {\displaystyle A_{l}} , то по даній функції ρ {\displaystyle \rho } ці розподіли розрізнити неможливо. Тому насправді критерій, який ми побудуємо по функції ρ {\displaystyle \rho } з (1), вирішує зовсім інше завдання. А саме, нехай заданий набір імовірностей p 1 , . . . , p k {\displaystyle p_{1},...,p_{k}} такий, що p 1 + . . . + p k = 1 {\displaystyle p_{1}+...+p_{k}=1} . Критерій χ 2 {\displaystyle \chi ^{2}} призначений для перевірки складної гіпотези H2'={розподіл Х1 має властивість: Р(Х1 ∈ Аj)=pj для всіх j=1,…,k} проти складної альтернативи H2'={H1' невірна}, тобто H2'={хоча б для одного з інтервалів ймовірність P(X1 ∈ Аj) відізняється від pj}
Перед тим, як сформулювати правило прийняття або відкидання гіпотези необхідно врахувати, що критерій Пірсона має правобічну критичну область.
Якщо вірна гіпотеза H1', то при фіксованому k й при n → ∞ {\displaystyle n\to \infty } : ρ ( X ) = ∑ j = 1 k ( ν j − n p j ) 2 n p j ⇒ H k − 1 , {\displaystyle \rho (X)=\sum _{j=1}^{k}{\frac {(\nu _{j}-np_{j})^{2}}{np_{j}}}\Rightarrow H_{k-1},}
де, нагадаємо, H k − 1 , {\displaystyle H_{k-1},} є χ 2 {\displaystyle \chi ^{2}} -розподіл зі k − 1 {\displaystyle k-1} ступенем вільності.
Насправді критерій χ 2 {\displaystyle \chi ^{2}} застосовують і для розв'язку первісного завдання про перевірку гіпотези H 1 = ϝ = ϝ 1 {\displaystyle H_{1}={\digamma =\digamma _{1}}} . Необхідно тільки пам'ятати, що цей критерій недостатній для альтернатив з тими ж імовірностями попадання в інтервали розбиття, що й в ϝ 1 {\displaystyle \digamma _{1}} . Тому беруть велику кількість інтервалів розбиття — чим більше, тим краще, щоб «зменшити» число альтернатив, нерозрізнених з передбачуваним розподілом.
Критерій χ 2 {\displaystyle \chi ^{2}} часто застосовують для перевірки гіпотези про вид розподілу, тобто про приналежність розподілу вибірки деякому параметричному сімейству. Є вибірка X = ( X 1 , . . . , X n ) {\displaystyle X=(X_{1},...,X_{n})} з невідомого розподілу ϝ {\displaystyle \digamma } . Перевіряється складна гіпотеза: H 1 = ϝ ∈ ϝ θ {\displaystyle H_{1}={\digamma \in {\digamma _{\theta }}}} ,
де θ ϵ Θ ⊆ R l {\displaystyle \theta \epsilon \Theta \subseteq \mathbb {R} ^{l}} — невідомий параметр (скалярний або векторний), l- його розмірність. Нехай R {\displaystyle \mathbb {R} } розбите на k>lінтервалів A 1 ∪ . . . ∪ A k {\displaystyle A_{1}\cup ...\cup A_{k}} , і ν j {\displaystyle \nu _{j}} — число елементів вибірки, що потрапили в A j {\displaystyle A_{j}} . Але ймовірність p j = P H 1 ( X 1 ∈ A j ) = p j ( θ ) {\displaystyle p_{j}=P_{H1}(X_{1}\in A_{j})=p_{j}(\theta )} тепер залежить від невідомого параметра . Функція відхилення (1) також залежить від невідомого параметра, і використовувати її в критерії Пірсона не можна — ми не можемо обчислити її значення: ρ ( X , θ ) = ∑ j = 1 k ( ν j − n p j ( θ ) ) 2 n p j ( θ ) {\displaystyle \rho (X,\theta )=\sum _{j=1}^{k}{\frac {(\nu _{j}-np_{j}(\theta ))^{2}}{np_{j}(\theta )}}} (2.) Нехай θ ^ = θ ^ ( X ) {\displaystyle {\hat {\theta }}={\hat {\theta }}(X)} - значення параметра θ {\displaystyle \theta } , що доставляє мінімум функції ρ ( X , θ ) {\displaystyle \rho (X,\theta )} при даній вибірці X . Підставивши замість дійсних імовірностей pjїх оцінки p j ( θ ^ ) {\displaystyle p_{j}({\hat {\theta }})} , одержимо функцію відхилення: ρ ( X , θ ^ ) = ∑ j = 1 k ( ν j − n p j ( θ ^ ) ) 2 n p j ( θ ^ ) {\displaystyle \rho (X,{\hat {\theta }})=\sum _{j=1}{k}{\frac {(\nu _{j}-np_{j}({\hat {\theta }}))^{2}}{np_{j}({\hat {\theta }})}}} .