У статистиці, ба́єсів інформаці́йний крите́рій (БІК, англ.bayesian information criterion, BIC), або крите́рій Шва́рца (англ.Schwarz criterion, також англ.SBC, SBIC) — статистичний критерій для обирання моделі серед скінченної множини моделей; найприйнятнішою є модель із найнижчим БІК. Він ґрунтується, зокрема, на функції правдоподібності, і тісно пов'язаний з інформаційним критерієм Акаіке (ІКА).
При допасовуванні моделей можливо підвищувати правдоподібність шляхом додавання параметрів, але це може призводити до перенавчання. Як БІК, так і ІКА намагаються розв'язувати цю проблему введенням члена штрафу для числа параметрів у моделі; член штрафу в БІК є більшим, ніж в ІКА.
БІК було розроблено Ґідеоном Шварцем, і опубліковано в праці 1978 року,[1] в якій він навів баєсове обґрунтування його застосування.
Для великих це може бути наближено наведеною вище формулою. БІК використовують в задачах обирання моделі, що в них додавання сталої до БІК не змінює результату.
наведене вище наближення чинне лише для розміру вибірки , який є набагато більшим за число параметрів моделі .
БІК не може обробляти складні зібрання моделей, як у задачі обирання змінних (або обирання ознак) за високої розмірності.[3]
Гаусів особливий випадок
За припущення, що похибки або збурення моделі є незалежними та однаково розподіленими згідно нормального розподілу, і граничної умови, що похідна логарифмічної правдоподібності щодо істинної дисперсії є нульовою, це перетворюється (з точністю до адитивної сталої, яка залежить від n, але не від моделі) на[4]
де є дисперсією похибки. Дисперсію похибки в цьому випадку визначають як
При перевірці декількох лінійних моделей відносно насиченої моделі БІК може бути переписано в термінах девіантності[en] як[5]
де є числом параметрів моделі в перевірці.
При обиранні з декількох моделей найприйнятнішою є модель із найнижчим БІК. БІК є висхідною функцією дисперсії похибки , і висхідною функцією k. Тобто, незрозуміла дисперсія в залежній змінній та число описових змінних збільшують значення БІК. Отже, нижчий БІК означає або меншу кількість описових змінних, або кращу допасованість, або обидві. Силу свідчення проти моделі з вищим БІК може бути узагальнено наступним чином:[5]
ΔБІК
Свідчення проти вищого БІК
0 to 2
Не варте більше ніж просто згадування
2 to 6
Позитивне
6 to 10
Сильне
>10
Дуже сильне
БІК зазвичай штрафує вільні параметри сильніше за Інформаційний критерій Акаіке, хоча це залежить від розміру n і відносної величини n і k.
Важливо мати на увазі, що БІК можна застосовувати для порівняння оцінюваних моделей лише якщо числові значення залежної змінної є однаковими для всіх порівнюваних оцінок. Порівнюваним моделям не потрібно бути вкладеними, на відміну від випадку, коли моделі порівнюють із застосуванням критерію Фішера або перевірки відношенням правдоподібностей.
↑Wit, Ernst; Edwin van den Heuvel; Jan-Willem Romeyn (2012). ‘All models are wrong...’: an introduction to model uncertainty. Statistica Neerlandica. 66 (3): 217—236. doi:10.1111/j.1467-9574.2012.00530.x. (англ.)
↑ абGiraud, C. (2015). Introduction to high-dimensional statistics. Chapman & Hall/CRC. ISBN9781482237948. (англ.)