́Інформаційний критерій Акаіке (ІКА, англ.Akaike information criterion, AIC) — це оцінювач похибки позавибіркового передбачування, і відтак відносної якості статистичних моделей, для заданого набору даних.[1][2] Маючи сукупність моделей для цих даних, ІКА оцінює якість кожної з моделей відносно кожної з інших моделей. Таким чином, ІКА пропонує засоби для обирання моделі.
ІКА ґрунтується на теорії інформації. Коли статистичну модель використовують для представлення процесу, що породив дані, це представлення майже ніколи не буде точним, тож деяка інформація при застосуванні цієї моделі для представлення цього процесу втрачатиметься. ІКА оцінює відносну кількість інформації, що втрачає задана модель: що менше інформації втрачає модель, то вищою є її якість.
В оцінюванні кількості інформації, що втрачає модель, ІКА має справу з компромісом між допасованістю моделі та її простотою. Іншими словами, ІКА працює як із ризиком перенавчання, так і з ризиком недонавчання.
Припустімо, що ми маємо статистичну модель якихось даних. Нехай k буде числом оцінюваних параметрів у цій моделі. Нехай буде максимальним значенням функції правдоподібності для цієї моделі. Тоді значенням ІКА цієї моделі є наступне.[3][4]
Для заданого набору моделей-кандидатів даних найкращою моделлю є та, що має мінімальне значення ІКА. Таким чином, ІКА винагороджує допасованість (за оцінкою функції правдоподібності), але також включає штраф, що є висхідною функцією числа оцінюваних параметрів. Цей штраф перешкоджає перенавчанню, оскільки збільшення числа параметрів у моделі майже завжди покращує її допасованість.
ІКА засновано на теорії інформації. Припустімо, що дані породжуються якимось невідомим процесом f. Ми розглядаємо дві моделі-кандидати для представлення f: g1 та g2. Якби ми знали f, то могли би знайти втрату інформації від застосування g1 для представлення f шляхом обчислення розходження Кульбака — Лейблера, DKL(f ‖ g1); аналогічно, втрату інформації від застосування g2 для представлення f може бути знайдено обчисленням DKL(f ‖ g2). Тоді би ми, загалом, обрали модель-кандидата, що мінімізує втрату інформації.
Ми не можемо обирати з упевненістю, оскільки не знаємо f. Проте Акаіке, 1974 показав, що за допомогою ІКА ми можемо оцінити, наскільки більше (або менше) інформації втрачається моделлю g1, аніж моделлю g2. Ця оцінка, проте, є вірною лише асимптотично[en]: якщо кількість точок даних є малою, то часто є необхідним додаткове коригування (див. § ІКАк нижче).
Зауважте, що ІКА не каже нічого про абсолютну якість моделі, лише про якість відносно інших моделей. Таким чином, якщо всі моделі-кандидати допасовуються погано, ІКА не видасть жодного попередження про це. Отже, після обрання моделі за допомогою ІКА, зазвичай доброю практикою є підтвердити абсолютну якість моделі. Таке підтвердження зазвичай включає перевірку залишків моделі (щоби визначити, чи виглядають залишки випадковими), та перевірки передбачень моделі. Докладніше з цієї теми див. затверджування статистичної моделі.
Як використовувати ІКА на практиці
Для застосування ІКА на практиці ми починаємо з набору моделей-кандидатів, а потім знаходимо відповідні значення ІКА цих моделей. Через застосування моделі-кандидата для представлення «справжньої моделі», тобто процесу, що породив дані, втрата інформації буде майже завжди. Серед моделей-кандидатів ми хочемо обрати таку, що мінімізує цю втрату інформації. Ми не можемо обирати з упевненістю, але ми можемо мінімізувати оцінювану втрату інформації.
Припустімо, що є R моделей-кандидатів. Позначмо значення ІКА (англ.AIC) для цих моделей через AIC1, AIC2, AIC3, …, AICR. Нехай AICmin буде мінімальним із цих значень. Тоді величину exp((AICmin − AICi)/2) можливо інтерпретувати як пропорційну до ймовірності того, що i-та модель мінімізує (оцінювану) втрату інформації.[5]
Як приклад, припустімо, що є три моделі-кандидати, значеннями ІКА яких є 100, 102 та 110. Тоді друга модель є в exp((100 − 102)/2) = 0.368 разів імовірнішою за першу модель для мінімізації втрати інформації. Аналогічно, третя модель є в exp((100 − 110)/2) = 0.007 разів імовірнішою за першу для мінімізації втрати інформації.
В цьому прикладі ми опустимо третю модель із подальшого розгляду. Тоді ми матимемо три варіанти: (1) зібрати більше даних у надії, що це дозволить здійснити чітке розрізнення між першими двома моделями; (2) просто зробити висновок, що дані є недостатніми для підтримки обрання моделі з-поміж цих двох; (3) взяти зважене середнє перших двох моделей з ваговими коефіцієнтами, пропорційними 1 та 0.368 відповідно, і потім здійснювати статистичне висновування на основі зваженої мультимоделі.[6]
Величина exp((AICmin − AICi)/2) є відомою як відносна правдоподібність моделі i. Вона є тісно пов'язаною з відношенням правдоподібностей, що використовують у перевірці відношенням правдоподібностей. Дійсно, якщо всі моделі в наборі кандидатів мають однакове число параметрів, то застосування ІКА може спершу здаватися дуже схожим на застосування перевірки відношенням правдоподібностей. Проте є істотні відмінності. Зокрема, перевірка відношенням правдоподібностей є чинною лише для вкладених моделей, тоді як ІКА (та ІКАк) не мають такого обмеження.[7][8]
Перевірка гіпотез
Кожну перевірку статистичних гіпотез може бути сформульовано як порівняння статистичних моделей. Отже, кожну перевірку статистичних гіпотез може бути відтворено через ІКА. У підрозділах нижче коротко описано два приклади. Деталі для цих прикладів, та набагато більше прикладів, наведено в Сакамото та ін., 1986, Частина II та Конісі та Кітаґава, 2008, гл. 4.
Відтворення t-критерію Стьюдента
Як приклад перевірки гіпотез, розгляньмо t-критерій для порівнювання середніх значень двох нормально розподіленихсукупностей. Вхід до t-критерію складається з випадкової вибірки з кожної з цих двох сукупностей.
Щоби сформулювати цей критерій як порівняння моделей, ми будуємо дві різні моделі. Перша модель моделює ці дві сукупності як такі, що мають потенційно різні середні значення та стандартні відхилення. Функція правдоподібності для першої моделі відтак є добутком правдоподібностей для двох різних нормальних розподілів, тож вона має чотири параметри: μ1, σ1, μ2, σ2. Щоби бути точними, ця функція правдоподібності є наступною (із позначенням розмірів вибірок через n1 and n2).
Друга модель моделює ці дві сукупності як такі, що мають однакові середні, але потенційно різні стандартні відхилення. Функція правдоподібності для другої моделі відтак встановлює в наведеному вище рівнянні μ1 = μ2, тож вона має три параметри.
Потім ми максимізуємо ці функції правдоподібності для цих двох моделей (на практиці ми максимізуємо функції логарифмічної правдоподібності), після чого стає просто обчислити значення ІКА цих моделей. Далі ми обчислюємо відносну правдоподібність. Наприклад, якщо друга модель виявиться лише в 0.01 разів правдоподібнішою за першу, то ми виключимо другу модель із подальшого розгляду: тож ми зробимо висновок, що ті дві сукупності мають різні середні.
t-критерій виходить із того, що дві сукупності мають ідентичні стандартні відхилення. Цей критерій схильний бути ненадійним, якщо це припущення є хибним, а також якщо розміри двох вибірок є дуже різними (t-критерій Велша[en] був би кращим). Порівнювання середніх значень через ІКА, як у прикладі вище, має перевагу, бо не спирається на це припущення.
Порівнювання наборів категорійних даних
Як інший приклад перевірки гіпотез, припустімо, що ми маємо дві сукупності, й кожен із членів кожної сукупності перебуває в одній з двох категоій: категорії № 1, або категорії № 2. Кожна з сукупностей є розподіленою біноміально. Ми хочемо знати, чи є розподіли цих двох сукупностей однаковими. Нам дали випадкову вибірку з кожної з двох сукупностей.
Нехай m буде розміром вибірки з першої сукупності. Нехай m1 буде числом спостережень (у цій вибірці) в категорії № 1, тож числом спостережень у категорії № 2 буде m − m1. Аналогічно, нехай n буде розміром вибірки з другої сукупності. Нехай n1 буде числом спостережень (у цій вибірці) в категорії № 1.
Нехай p буде ймовірністю того, що випадково обраний член першої сукупності перебуває в категорії № 1. Отже, ймовірністю того, що випадково обраний член першої сукупності перебуває в категорії № 2, буде 1 − p. Зауважте, що розподіл першої сукупності має один параметр. Нехай q буде ймовірністю того, що випадково обраний член другої сукупності перебуває в категорії № 1. Зауважте, що розподіл другої сукупності також має один параметр.
Щоби порівняти розподіли цих двох сукупностей, ми будуємо дві різні моделі. Перша модель моделює, що ці дві сукупності мають потенційно різні біноміальні розподіли. Функцією правдоподібності для першої моделі відтак є добуток правдоподібностей для двох відмінних біноміальних розподілів, тож вона має два параметри: p, q. Щоби бути точними, ця функція правдоподібності є наступною:
Друга модель моделює, що ці дві сукупності мають один і той же розподіл. Функція правдоподібності для другої моделі відтак встановлює в наведеному вище рівнянні p = q, тож ця друга модель має один параметр.
Потім ми максимізуємо ці функції правдоподібності для цих двох моделей (на практиці ми максимізуємо функції логарифмічної правдоподібності), після чого стає просто обчислити значення ІКА цих моделей. Далі ми обчислюємо відносну правдоподібність. Наприклад, якщо друга модель виявилася лише в 0.01 разів правдоподібнішою за першу, то ми виключимо другу модель з подальшого розгляду: тож ми можемо зробити висновок, що ці дві сукупності мають різні розподіли.
Засади статистики
Статистичне висновування розглядають як таке, що складається з перевіряння та оцінювання гіпотез. Перевіряння гіпотез можливо здійснювати за допомогою ІКА, як обговорено вище. Стосовно оцінювання, існує два типи: точкове оцінювання та проміжкове оцінювання[en]. Точкове оцінювання можливо здійснювати в межах парадигми ІКА: його забезпечує оцінка максимальної правдоподібності. Проміжкове оцінювання також можливо здійснювати в межах парадигми ІКА: його забезпечують проміжки правдоподібності. Отже, статистичне висновування загалом можливо здійснювати в межах парадигми ІКА.
Найширше вживаними парадигмами статистичного висновування є частотницьке висновування та баєсове висновування. Проте ІКА можливо використовувати для статистичного висновування без покладання як на частотницьку парадигму, так і на баєсову, оскільки ІКА можливо інтерпретувати без допомоги рівнів значущості та баєсових апріорних.[9] Іншими словами, ІКА може бути використано для формування засад статистики[en], відмінних як від частотництва, так і від баєсівства.[10][11]
Видозміна для маленького розміру вибірки
Коли розмір вибірки є маленьким, існує реальна ймовірність того, що ІКА обиратиме моделі, які мають забагато параметрів, тобто, що ІКА перенавчатиметься.[12][13][14] Для подолання такого потенційного перенавчання було розроблено ІКАк: це ІКА з коригуванням для маленьких розмірів вибірок.
Формула ІКАк залежить від статистичної моделі. Якщо виходити з того, що модель є одновимірною[en], лінійною відносно своїх параметрів, та має нормально розподілені залишки (обумовлені регресорами), то формула ІКАк є такою:[15][16]
де n позначає розмір вибірки, а k позначає кількість параметрів. Таким чином, ІКАк по суті є ІКА з додатковим членом штрафу на число параметрів. Зауважте, що коли n → ∞, цей додатковий член штрафу збігається до 0, і відтак ІКАк збігається до ІКА.[17]
Якщо припущення про те, що модель є одновимірною та лінійною з нормальними залишками, не виконується, то формула ІКАк в загальному випадку відрізнятиметься від наведеної вище. Для деяких моделей визначити цю формулу може бути складно. Втім, для кожної моделі, для якої існує ІКАк, формула ІКАк задається як ІКА плюс член, який включає як k, так і k2. Для порівняння, формула ІКА включає k, але не k2. Іншими словами, ІКА є оцінкою першого порядку[en] (втрат інформації), в той час як ІКАк є оцінкою другого порядку[en].[18]
Щоби підсумувати, ІКАк має перевагу в схильності бути точнішим за ІКА (особливо для малих вибірок), але ІКАк також має недолік іноді бути набагато складнішим для обчислення, ніж ІКА. Зауважте, що якщо всі моделі-кандидати мають однакову k та однакові формули ІКАк, то ІКАк та ІКА даватимуть ідентичні (відносно) оцінки. Отже, не буде недоліку в застосуванні ІКА замість ІКАк. Крім того, якщо n у багато разів більше за k2, то додатковий член штрафу буде незначним, а отже, незначними будуть і недоліки застосування ІКА замість ІКАк.
Історія
Інформаційний критерій Акаіке було сформульовано статистиком Хіроцуґу Акаіке[en]. Первинно його було названо «інформаційним критерієм».[19] Англійською про нього було вперше заявлено Акаіке на симпозіумі 1971 року, протокол якого було опубліковано 1973 року.[19][20] Публікація 1973 року, однак, була лише неформальним представленням цих понять.[21] Першою формальною публікацією була праця Акаіке 1974 року.[4] Станом на жовтень 2014 року праця 1974 року отримала понад 14 000 цитувань в Web of Science, ставши 73-тьою найцитованішою працею за всі часи.[22]
На сьогодні ІКА став настільки поширеним, що його часто використовують без цитування праці Акаіке 1974 року. Дійсно, існує понад 150 000 наукових статей/книг, що використовують ІКА (за оцінкою Google Scholar).[23]
Початкове виведення ІКА покладалося на деякі сильні припущення. Такеуті, 1976 показав, що ці припущення може бути зроблено значно слабшими. Але праця Такеуті була японською, і не була широко відомою за межами Японії протягом багатьох років.
ІКАк початково запропонував для лінійної регресії (лише) Суґіура, 1978. Це спровокувало працю Гурвич та Цай, 1989 та кілька подальших праць цих же авторів, що розширили ситуації, в яких можливо застосовувати ІКАк.
Першим загальним викладом підходу теорії інформації була книга Бернем та Андерсон, 2002. Вона включає англомовне представлення праці Такеуті. Ця книга призвела до поширення застосування ІКА, і наразі вона має понад 48 000 цитувань на Google Scholar.
Статистична модель мусить допасовуватися до всіх точок даних. Таким чином, пряма лінія сама по собі не є моделлю даних, якщо не всі точки даних лежать точно на цій лінії. Проте ми можемо обрати модель, яка є «прямою лінією плюс шум»; таку модель може бути формально описано таким чином: yi = b0 + b1xi + εi. Тут εi є залишками від допасовування прямої лінії. Якщо εi вважаються гаусовимиНОР (з нульовим середнім значенням), то модель має три параметри: b0, b1 та дисперсію цих гаусових розподілів. Отже, при обчисленні ІКА цієї моделі ми повинні використовувати k=3. Загальніше, для будь-якої моделі найменших квадратів з гаусовими НОР залишками дисперсія розподілів залишків повинна рахуватися як один з параметрів.[24]
Як інший приклад розгляньмо авторегресійну модель першого порядку, визначену як xi = c + φxi−1 + εi, де εi є гаусовими НОР (з нульовим середнім значенням). У випадку цієї моделі існує три параметри: c, φ та дисперсія εi. Загальніше, авторегресійна модель p-того порядку має p + 2 параметри. (Проте, якщо c не оцінюється з даних, а є натомість заданим заздалегідь, тоді параметрів є лише p + 1.)
Перетворювання даних
Значення ІКА для всіх моделей-кандидатів мусить бути обчислювано на одному й тому ж наборі даних. Проте іноді нам може захотітися порівняти модель змінної відгуку, y, із моделлю логарифма змінної відгуку, log(y). Загальніше, нам може захотітися порівняти модель даних із моделлю перетворених даних. Далі наведено ілюстрацію того, як давати раду перетворенням даних (пристосовано з Бернем та Андерсон, 2002, §2.11.3: «Дослідники повинні бути впевнені, що моделюють всі гіпотези, застосовуючи одну й ту ж змінну відгуку»).
Припустімо, що ми хочемо порівнювати дві моделі: одну з нормальним розподіломy, та одну з нормальним розподілом log(y). Ми не повинні порівнювати значення ІКА двох моделей напряму. Натомість ми повинні перетворити нормальну кумулятивну функцію розподілу, щоби спочатку взяти логарифм y. Для здійснення цього нам потрібно виконати відповідне інтегрування підставлянням[en]: таким чином, нам потрібно помножити на похідну функції (натурального) логарифма, що є 1/y. Отже, перетворений розподіл має наступну функцію густини ймовірності:
що є функцією густини ймовірності логнормального розподілу. Тепер ми можемо порівнювати значення ІКА нормальної моделі зі значенням ІКА логнормальної моделі.
Ненадійність програмного забезпечення
Деяке статистичне програмне забезпечення повідомлятиме значення ІКА або максимальне значення функції логарифмічної правдоподібності, але ці значення не завжди є правильними. Як правило, неправильність спричинюється нехтуванням сталою в логарифмічній функції правдоподібності. Наприклад, функцією логарифмічної правдоподібності для nнезалежних ідентичних нормальних розподілів є
Це є функцією, що максимізують при отримуванні значення ІКА. Проте деяке програмне забезпечення нехтує сталим членом (n/2) ln(2π), і таким чином повідомляє помилкові значення максимумів логарифмічних правдоподібностей, і, відтак, ІКА. Такі помилки не мають значення для порівнянь на основі ІКА, якщо всі моделі мають нормально розподілені залишки, оскільки тоді помилки взаємно компенсуються. Проте в загальному випадку сталий член потребує включення до функції логарифмічної правдоподібності.[25] Отже, перш ніж застосовувати програмне забезпечення для обчислення ІКА, в загальному випадку є гарною звичкою виконати якісь прості перевірки на цьому програмному забезпеченні, щоби переконатися, що значення цієї функції є правильними.
Порівняння з іншими методами обирання моделі
Порівняння з БІК
Формула баєсова інформаційного критерію (БІК) є подібною до формули ІКА, але має відмінний штраф на число параметрів. В ІКА цим штрафом є 2k, тоді як в БІК штрафом є ln(n) k.
Порівняння ІКА/ІКАк та БІК наведено в Бернем та Андерсон, 2002, §6.3-6.4, з подальшими зауваженнями в Бернем та Андерсон, 2004. Автори показують, що ІКА/ІКАк може бути виведено в такій самій баєсовій системі, що й БІК, просто застосованням інших апріорних імовірностей. Проте, в баєсовім виведенні БІК кожна модель-кандидат має апріорну ймовірність 1/R (де R є числом моделей-кандидатів). Таке виведення є «не чутливим» (англ.not sensible), оскільки апріорне повинне бути спадною функцією від k. Крім того, ці автори представляють кілька імітаційних досліджень, які наводять на думку, що ІКА має схильність мати практичні/продуктивні переваги над БІК.
Деякі дослідники підкреслили, що ІКА та БІК підходять для різних задач. Зокрема, вважають, що БІК підходить для обирання «істинної моделі» (тобто, процесу, що породив дані) з набору моделей кандидатів, тоді як ІКА для цього не підходить. Конкретніше, якщо «істинна модель» є присутньою в наборі моделей-кандидатів, то БІК обере цю «істинну модель» з імовірністю 1, за n → ∞. На противагу цьому, при здійсненні обирання за допомогою ІКА, ця ймовірність може бути меншою за 1.[26][27][28] Прибічники ІКА стверджують, що ця проблема є незначною, оскільки «істинна модель» практично ніколи не буває присутньою в наборі кандидатів. Дійсно, у статистиці є поширеним афоризм, що «всі моделі є неправильними»[en], тож «істинна модель» (тобто, реальність) не може бути в наборі кандидатів.
Ще одне порівняння ІКА та БІК наведено у Врізе, 2012. Врізе представляє імітаційне дослідження, яке дозволяє «істинній моделі» бути в наборі кандидатів (на відміну від практично всіх реальних даних). Це імітаційне дослідження показує, зокрема, що ІКА іноді обирає набагато кращу модель, ніж БІК, навіть коли «істинна модель» перебуває в наборі кандидатів. Причина цього полягає в тім, що для скінченних n БІК може мати істотний ризик обрання з набору кандидатів дуже поганої моделі. Ця причина може проявлятися навіть коли n є набагато більшим за k2. З ІКА ризик обрання дуже поганої моделі є мінімальним.
Якщо «істинної моделі» в наборі кандидатів немає, то найбільше, що ми можемо сподіватися зробити, це обрати модель, яка найкраще наближує «істинну». ІКА підходить для пошуку найкращої наближувальної моделі, за деяких припущень.[26][27][28] (Ці припущення включають, зокрема, те, що наближування здійснюють по відношенню до втрати інформації.)
Порівняння ІКА та БІК у контексті регресії наведено в Янг, 2005. В регресії ІКА є асимптотично оптимальним для обирання моделі з найменшою середньоквадратичною похибкою, за припущення, що «істинна модель» не перебуває в наборі кандидатів. БІК не є асимптотично оптимальним за цього припущення. Янг додатково показує, що темп, з яким ІКА збігається до оптимуму, в певному сенсі є найкращим з можливих.
Іноді кожна з моделей-кандидатів передбачає, що залишки розподілено відповідно до незалежних ідентичних нормальних розподілів (з нульовим середнім). Це дає привід для допасовування моделей найменшими квадратами.
де C є сталою, що не залежить від моделі, а залежить лише від конкретних точок даних, тобто, вона не змінюється, якщо не змінюються дані.
Це дає AIC = 2k + n ln(RSS/n) − 2C = 2k + n ln(RSS) − (n ln(n) + 2C).[24] Оскільки в ІКА мають значення лише різниці, сталою (n ln(n) + 2C) можливо нехтувати, що дозволяє нам зручно брати для порівнювання моделей AIC = 2k + n ln(RSS). Зауважте, що якщо всі ці моделі мають однакове k, то обирання моделі з мінімальним ІКА є рівнозначним обиранню моделі з мінімальною RSS, що є звичайною метою обирання моделі на основі найменших квадратів.
Aho, K.; Derryberry, D.; Peterson, T. (2014), Model selection for ecologists: the worldviews of AIC and BIC, Ecology, 95 (3): 631—636, doi:10.1890/13-1452.1(англ.)
Akaike, H. (1973), Information theory and an extension of the maximum likelihood principle, у Petrov, B. N.; Csáki, F. (ред.), 2nd International Symposium on Information Theory, Tsahkadsor, Armenia, USSR, September 2-8, 1971, Budapest: Akadémiai Kiadó, с. 267—281 Переопубліковано в Kotz, S.; Johnson, N. L., ред. (1992), Breakthroughs in Statistics, т. I, Springer-Verlag, с. 610—624 (англ.)
Akaike, H. (1985), Prediction and entropy, у Atkinson, A. C.; Fienberg, S. E. (ред.), A Celebration of Statistics, Springer, с. 1—24 (англ.)
Bandyopadhyay, P. S.; Forster, M. R., ред. (2011), Philosophy of Statistics, North-Holland Publishing(англ.)
Boisbunon, A.; Canu, S.; Fourdrinier, D.; Strawderman, W.; Wells, M. T. (2014), Akaike's Information Criterion, Cp and estimators of loss for elliptically symmetric distributions, International Statistical Review, 82: 422—439, doi:10.1111/insr.12052(англ.)
Claeskens, G.; Hjort, N. L. (2008), Model Selection and Model Averaging, Cambridge University Press(англ.) [Зауваження: Визначення ІКА Клаескенс та Йорта має протилежний знак до стандартного визначення, первинно даного Акаіке, та дотримуваного іншими авторами.]
Giraud, C. (2015), Introduction to High-Dimensional Statistics, CRC Press(англ.)
Hurvich, C. M.; Tsai, C.-L. (1989), Regression and time series model selection in small samples, Biometrika[en], 76 (2): 297—307, doi:10.1093/biomet/76.2.297(англ.)
Konishi, S.; Kitagawa, G. (2008), Information Criteria and Statistical Modeling, Springer (англ.)
McQuarrie, A. D. R.; Tsai, C.-L. (1998), Regression and Time Series Model Selection, World Scientific(англ.)
Takeuchi, K. (1976), [Distribution of informational statistics and a criterion of model fitting], Suri Kagaku [Mathematical Sciences] (Japanese) , 153: 12—18, ISSN0386-2240(яп.)
Vrieze, S. I. (2012), Model selection and psychological theory: a discussion of the differences between the Akaike Information Criterion (AIC) and the Bayesian Information Criterion (BIC), Psychological Methods[en], 17 (2): 228—243, doi:10.1037/a0027127, PMC3366160, PMID22309957(англ.)
Ko, V.; Hjort, N. L. (2019), Copula information crite rion for model selection with two-stage maximum likelihood estimation, Econometrics and Statistics, 12: 167–180, doi:10.1016/j.ecosta.2019.01.001(англ.)
Saefken, B.; Kneib, T.; van Waveren, C.-S.; Greven, S. (2014), A unifying approach to the estimation of the conditional Akaike information in generalized linear mixed models, Electronic Journal of Statistics[en], 8: 201—225, doi:10.1214/14-EJS881(англ.)
Engineer, colonel in the United States Army, and astronaut Tim KopraOfficial portrait, 2008Born (1963-04-09) April 9, 1963 (age 60)Austin, Texas, U.S.StatusRetiredNationalityAmericanOther namesTimothy Lennart KopraOccupationArmy aviatorSpace careerNASA astronautRank Colonel, U.S. ArmyTime in space244 days, 1 hour, 1 minuteSelection2000 NASA Group 18Total EVAs3Total EVA time13 hours, 31 minutesMissionsSTS-127/128 (Expedition 20), Soyuz TMA-19M (Expedition 46/47)Mission insignia Timot...
2014 Speedway Grand Prix of Great Britain2014 FIM MITAS British SGPInformationDate12 July 2014City CardiffEvent7 of 12 (175)Referee Krister GardellStadium detailsStadiumMillennium StadiumCapacity62,500Length277 m (303 yd)Tracktemporary (rugby, football/soccer)SGP ResultsBest Time Winner Greg Hancock Runner-up Tai Woffinden 3rd place Tai Woffinden The 2014 Speedway Grand Prix of Great Britain, also known as the 2014 FIM MITAS British Speedway Grand Prix for sponsorship reasons, was t...
Pemilihan umum Bupati Nunukan 2015201020209 Desember 2015Kehadiran pemilih63,68%Kandidat Calon Asmin Laura Hafid Basri Partai Hanura Demokrat Pendamping Paridil Yefta Berto Suara rakyat 33.055 19.774 Persentase 41,69% 24,94% Bupati Nunukan petahanaBasri Bupati Nunukan terpilih Asmin Laura Hafid Hanura Sunting kotak info • L • BBantuan penggunaan templat ini Pemilihan umum Bupati Nunukan 2015 merupakan bagian dari pemilihan kepala daerah serentak yang diselenggarakan ...
نخر الحليمات الكلوية مقطع أمامي من الكليةمقطع أمامي من الكلية معلومات عامة الاختصاص طب الجهاز البولي، وطب الكلى من أنواع اعتلال الكلية، ومرض الموقع التشريحي حليمة كلوية تعديل مصدري - تعديل نخر الحليمات الكلوية[1] أو التنخر الحليمي الكلوي (بالإنجلي...
Pour les articles homonymes, voir Église Notre-Dame. Cet article est une ébauche concernant une église ou une cathédrale, le Calvados et les monuments historiques français. Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants. Église Notre-Dame d'ÉvrecyVue du sud-ouest.PrésentationType ÉgliseFondation XIIIe siècle-XVIe siècleReligion CatholicismePatrimonialité Inscrit MH (1927)LocalisationLocalisation ...
Intermediate appellate court of Connecticut Part of a series on theLaw of Connecticut Sources of law Constitution of Connecticut Connecticut General Statutes Legal history Alexander v. Yale American Electric Power Co. v. Connecticut Atlantic States Marine Fisheries Commission Blue Laws (Connecticut) Boddie v. Connecticut Cantwell v. Connecticut Connecticut Indian Land Claims Settlement Connecticut v. Doehr Geer v. Connecticut Griswold v. Connecticut History of the Connecticut Constitution Fun...
Overview of and topical guide to chess Starting position of a game of chess The following outline is provided as an overview of and topical guide to chess: Chess is a two-player board game played on a chessboard (a square-checkered board with 64 squares arranged in an eight-by-eight grid). In a chess game, each player begins with sixteen pieces: one king, one queen, two rooks, two knights, two bishops, and eight pawns. The object of the game is to checkmate the opponent's king, whereby the ki...
President of India from 1987 to 1992 R. Venkataraman redirects here. For the Indian cricketer, see R. Venkataraman (Indian cricketer). In this Indian name, the name Ramaswamy is a patronymic, and the person should be referred to by the given name, Venkataraman. Ramaswamy VenkataramanVenkataraman on a 2012 stamp8th President of IndiaIn office25 July 1987 – 25 July 1992Prime MinisterRajiv GandhiV. P. SinghChandra ShekharP. V. Narasimha RaoVice PresidentShankar Dayal SharmaPreceded by...
American politician (born 1955) Ted YohoOfficial portrait, 2012Member of the U.S. House of Representativesfrom Florida's 3rd districtIn officeJanuary 3, 2013 – January 3, 2021Preceded byCliff StearnsSucceeded byKat Cammack Personal detailsBornTheodore Scott Yoho (1955-04-13) April 13, 1955 (age 68)Minneapolis, Minnesota, U.S.Political partyRepublicanSpouseCarolyn YohoChildren3EducationBroward College (AA)University of Florida (BS, DVM) Ted Yoho's voice Ted Yoho spe...
4th-century bishop of Cagliari, Sardinia SaintLuciferBishop of CagliariBornEarly 4th centuryDied20 May 370Feast20 May Lucifer of Cagliari (Latin: Lucifer Calaritanus, Italian: Lucifero da Cagliari; died 20 May 370 or 371) was a bishop of Cagliari in Sardinia known for his passionate opposition to Arianism. He is venerated as a Saint in Sardinia, though his status remains controversial. Life Lucifer first appears in history as an envoy from Pope Liberius to the Emperor Constantius II, requesti...
American baseball player and analyst (born 1945) For the American basketball player, see Jim Palmer (basketball). Not to be confused with Jim Parmer. Baseball player Jim PalmerPalmer with the Baltimore Orioles in 1972PitcherBorn: (1945-10-15) October 15, 1945 (age 78)New York City, New York, U.S.Batted: RightThrew: RightMLB debutApril 17, 1965, for the Baltimore OriolesLast MLB appearanceMay 12, 1984, for the Baltimore OriolesMLB statisticsWin–loss record2...
Historic house in Illinois, United States United States historic placeRobinson-Stewart HouseU.S. National Register of Historic Places Show map of IllinoisShow map of the United StatesLocation110 S. Main Cross St., Carmi, IllinoisCoordinates38°5′25″N 88°9′31″W / 38.09028°N 88.15861°W / 38.09028; -88.15861Area0.4 acres (0.16 ha)Built1814 (1814)Built byCraw, JohnNRHP reference No.73000720[1]Added to NRHPAugust 17, 1973 The Robinson-...
2000 video game This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Power Stone 2 – news · newspapers · books · scholar · JSTOR (January 2009) (Learn how and when to remove this template message) 2000 video gamePower Stone 2Japanese Dreamcast cover artDeveloper(s)CapcomKlein Computer Entertainment (PSP)Publisher...
Historic district in Tennessee, United States United States historic placeRogersville Historic DistrictU.S. National Register of Historic PlacesU.S. Historic district Looking east on Main StreetShow map of TennesseeShow map of the United StatesLocationBounded by N. Boyd, Kyle, Clinch, and N. Bend Sts., McKinney Ave., and S. Rogen Rd., Rogersville, TennesseeCoordinates36°24′26″N 83°0′19″W / 36.40722°N 83.00528°W / 36.40722; -83.00528Built1786Architectural...
Isolated road located in Stevens Point, Wisconsin Boy Scout LaneBoyscout LaneLength2,500 ft (760 m)LocationStevens Point, Wisconsin, United StatesCoordinates44°28′06″N 89°36′31″W / 44.468260°N 89.608578°W / 44.468260; -89.608578 Boy Scout Lane is an isolated road located in Stevens Point, Wisconsin. A number of ghost stories and urban legends have become associated with the road, including the fictional deaths of a troop of Boy Scouts. The area ha...
Athletics at the1998 Commonwealth GamesTrack events100 mmenwomen200 mmenwomen400 mmenwomen800 mmenwomen1500 mmenwomen5000 mmenwomen10,000 mmenwomen100 m hurdleswomen110 m hurdlesmen400 m hurdlesmenwomen3000 msteeplechasemen4×100 m relaymenwomen4×400 m relaymenwomenRoad eventsMarathonmenwomen10 km walkwomen20 km walkmen50 km walkmenField eventsHigh jumpmenwomenPole vaultmenwomenLong jumpmenwomenTriple jumpmenwomenShot putmenwomenDiscus throwmenwomenHammer throwmenwomenJavelin throwmenwomenCo...