Разница между AIC и BIC (с таблицей)

Оглавление:

Anonim

При решении тематического исследования исследователь сталкивается с множеством предикторов, возможностей и взаимодействий. Это усложняет выбор модели. С помощью различных критериев выбора модели они могут решить эти проблемы и оценить точность.

AIC и BIC - это два таких критериальных процесса для оценки модели. Они состоят из выборочных детерминант для агрегирования рассматриваемых переменных. В 2002 году Бернхэм и Андерсон провели исследование по обоим критериям.

AIC против BIC

Разница между AIC и BIC заключается в выборе модели. Они указаны для конкретных целей и могут дать отличные результаты. AIC имеет бесконечные и относительно большие размеры.

AIC приводит к сложным характеристикам, тогда как BIC имеет более конечные размеры и согласованные атрибуты. Первый лучше подходит для отрицательных результатов, а второй - для положительных.

Таблица сравнения между AIC и BIC

Параметры сравнения

AIC

BIC

Полные формы

Полная форма AIC - это информационные критерии Акаике. Полная форма BIC - это байесовские информационные критерии.
Определение

Оценка постоянного и соответствующего интервала между неопределенными, точными и обоснованными вероятностями фактов называется критериями информации Акаике или AIC. В рамках конкретной байесовской структуры точная оценка цели возможности следования модели называется байесовскими информационными критериями или BIC.
Формула

Для расчета информационного критерия Акаике используется формула: AIC = 2k - 2ln (L ^) Для расчета байесовского информационного критерия формула: BIC = k ln (n) - 2ln (L ^)
Выбор модели

Для ложноотрицательных результатов в модели выбирается AIC. Для ложноположительных результатов в модели выбирается BIC.
Измерение

Размер AIC бесконечен и относительно высок. Размерность BIC конечна и ниже, чем у AIC.
Срок штрафа

Штрафные сроки здесь меньше. Сроки штрафов здесь больше.
Вероятность

Чтобы выбрать истинную модель в AIC, вероятность должна быть меньше 1. Чтобы выбрать истинную модель в BIC, вероятность должна быть равна 1.
Результаты

Здесь результаты непредсказуемы и сложнее, чем BIC. Здесь результаты стабильны и проще, чем у AIC.
Предположения

С помощью предположений AIC может рассчитать наиболее оптимальное покрытие. С помощью предположений BIC может рассчитать менее оптимальное покрытие, чем AIC.
Риски

Риск минимизируется с помощью AIC, так как n намного больше, чем k2. Риск максимизируется с помощью BIC, поскольку n конечно.

Что такое АПК?

Модель была впервые анонсирована статистиком Хиротугу Акаике в 1971 году. А первая официальная статья была опубликована Акаике в 1974 году и получила более 14 000 цитирований.

Информационные критерии Акаике (AIC) - это оценка континуума в дополнение к соответствующему интервалу среди неопределенной, точной и обоснованной вероятности фактов. Это интегральная вероятность цели модели. Таким образом, более низкий AIC означает, что модель оценивается как более похожая по точности. Для ложноотрицательных выводов пригодится.

Для достижения истинной модели требуется вероятность меньше 1. Размерность AIC бесконечна и относительно высока. Из-за чего он дает непредсказуемые и сложные результаты. Он служит наиболее оптимальному охвату предположений. Его штрафные сроки меньше. Многие исследователи полагают, что это приносит пользу с минимальными рисками, при этом предполагая. Поскольку здесь n больше, чем k2.

Расчет AIC выполняется по следующей формуле:

Что такое BIC?

Байесовские информационные критерии (BIC) - это оценка цели возможности, если модель является точной, при определенной байесовской структуре. Таким образом, более низкий BIC означает, что в дальнейшем предполагается, что модель является точной.

Теория была разработана и опубликована Гидеоном Э. Шварцем в 1978 году. Кроме того, она известна как информационный критерий Шварца, сокращенно SIC, SBIC или SBC. Чтобы достичь истинной модели, требуется вероятность ровно 1. Для ложноположительных результатов это полезно.

Сроки штрафа существенны. Его размерность конечна, что дает последовательные и простые результаты. Ученые говорят, что его оптимальный охват меньше, чем AIC для предположений. Это даже приводит к максимальному риску. Потому что здесь n определимо.

Расчет BIC выполняется по следующей формуле:

«Критерий моста» или BC был разработан Цзе Дингом, Вахидом Тарохом и Юхонг Янгом. Публикация критерия состоялась 20 июня 2017 года в IEEE Transactions on Information Theory. Его мотивом было преодоление фундаментального разрыва между модулями AIC и BIC.

Основные различия между AIC и BIC

Вывод

И AIC, и BIC почти точны в зависимости от их различных целей и особого набора асимптотических предположений. Обе группы презумпций были отклонены как неосуществимые. Динамизм для каждой распределенной альфы возрастает в «n». Следовательно, модель AIC обычно имеет перспективу предпочтения такой же высокой модели, несмотря на n. BIC имеет слишком ограниченную неопределенность сбора сверх значительной модели, если n является адекватным. Хотя, у него есть большая возможность, чем у AIC, для всех представленных n, отдать предпочтение помимо короткой модели.

Распознавание вариаций в их оперативной реализации является наиболее распространенным, если признается умеренный факт анализа двух коррелированных моделей. Самый надежный способ их одновременного применения - в модельном ряду. Для ложноотрицательных вердиктов AIC более выгоден. И наоборот, BIC лучше подходит для ложноположительных результатов. В последнее время был сформирован «критерий моста», чтобы преодолеть значительный барьер между модулями AIC и BIC. Предыдущее используется для отрицательных решений, а следующее - для положительных.

использованная литература

Автор этой статьи: Суприя Кандекар

Разница между AIC и BIC (с таблицей)