В нашем случае стандартное отклонение зависимой переменной вычисляется достаточно легко:
5. Важными параметрами уравнения регрессии являются два информационных критерия — AKAIKE INFO CRITERION (ИНФОРМАЦИОННЫЙ КРИТЕРИЙ АКАИКА) и SCHWARZ CRITERION (КРИТЕРИЙ ШВАРЦА). Оба этих информационных критерия можно использовать в качестве критериев для определения в уравнении регрессии оптимальной длины лага. При этом они основаны на принципе снижения остаточной суммы квадратов при добавлении значимого фактора. Так, информационный критерий Акаика находится по следующей формуле:
AIC = -2LL: T + 2k: T, (3/20)
где LL — логарифм максимального правдоподобия;
T — количество наблюдений;
k — общее количество лагов в уравнении авторегрессии.
В нашем случае информационный критерий Акаика равен
AIC = -2?256,1815: 213 ? 2 ? 3: 213 =2,4336.
В свою очередь информационный критерий Шварца рассчитывается по формуле
SC = -2LL: T + (klnT):T. (3.21)
Относительно нашего уравнения регрессии информационный критерий Шварца имеет следующее значение:
SC = -2 ? 256,1815: 213 + (3ln213):213 =2,4809.
Обычно оцениваемая статистическая модель лучше соответствует фактическим данным при более высоком порядке р и q в модели ARMA(/? q). Платой за это кажущееся повышение точности является вполне очевидная потеря в простоте статистической модели и в экономии включенных в него параметров, поэтому для достижения компромисса между точностью уравнения регрессии и экономией его параметров пользуются информационными критериями Акаика и Шварца.
При выборе из двух уравнений регрессии обычно предпочтение отдается той статистической модели, у которой меньше значения этих информационных критериев. Следует также заметить, что информационный критерий Шварца по сравнению с критерием Акаика позволяет отбирать уравнения регрессии с более экономичными параметрами.
Как мы уже говорили, в уравнениях авторегрессии при тестировании остатков на наличие автокорреляции критерий Дарбина — Уотсона теряет свою мощность, и в этих случаях приходится пользоваться иными критериями. Например, тем, кто работает в Excel, с этой целью проще воспользоваться критерием h Дарбина, или, как его еще называют, h- статистикой Дарбина. Его расчет выполняется по следующей формуле:
где D — критерий Дарбина — Уотсона;
п — количество наблюдений;
V — квадрат стандартной ошибки при лаговой факторной переменной Yt_1.
Например, в нашем случае критерий h Дарбина имеет следующую величину:
При увеличении объема выборки распределение h-статистики стремится к нормальному с нулевым математическим ожиданием и дисперсией, равной 1. Поэтому гипотеза об отсутствии автокорреляции в остатках отвергается, если фактическое значение h- статистики оказывается больше, чем критическое значение нормального распределения. Для проверки по критерию h Дарбина гипотезы о наличии автокорреляции в остатках проще воспользоваться следующим правилом.
1. Если h > 1,96, то нулевая гипотеза об отсутствии положительной автокорреляции в остатках отклоняется.
2. Если h < -1,96, то нулевая гипотеза об отсутствии отрицательной автокорреляции в остатках отклоняется.
3. Если -1,96 < h < 1,96, то нет основания отклонять нулевую гипотезу об отсутствии автокорреляции в остатках.
Поскольку критерий h Дарбина получился равным-1,00368, то у нас нет основания отклонять нулевую гипотезу об отсутствии автокорреляции в остатках.
Следует иметь в виду, что в использовании критерия h Дарбина есть определенная специфика. Во-первых, этот критерий нельзя применять, если произведение nV ? 1. Во-вторых, h-статистику Дарбина можно использовать лишь для больших выборок (п ? 30 наблюдений). В-третьих, критерий h Дарбина зависит только от V (квадрата стандартной ошибки) при лаговой факторной переменной Yt_1 и не зависит от числа лагов, используемых в уравнении авторегрессии.
В EViews для проверки статистических моделей на наличие автоко-релляции в остатках целесообразно использовать LM-тест Бройша — Годфри (Breusch — Godfrey Serial Correlation LM Test), который в отличие от h-статистики Дарбина может быть применим не только для авторегрессии 1-го порядка, но и для авторегрессии более высоких порядков.
Суть этого теста заключается в построении уравнения регрессии остатков с заранее заданной величиной лага, решение которого позволяет сделать вывод о наличии или отсутствии автокорреляции в остатках:
где е — остатки;
т — заданная величина лага;
u — некоррелируемые остатки, т. е. «белый шум».
При этом выдвигается нулевая гипотеза, что ?1 = ?2 = ?m = 0, т. е. автокорреляция в остатках с различным лагом отсутствует. Вполне естественно, что альтернативной гипотезой в этом случае является гипотеза ?1 ? m?2 ? m?m ? 0. По итогам решения уравнения регрессии 3.23 нулевая гипотеза либо принимается, либо отклоняется.
Поскольку LM-тест Бройша — Годфри проверяет остатки на автокорреляцию, то мы его проводим уже после того, как решили основное уравнение авторегрессии, а следовательно, нашли остатки, полученные на основе этой статистической модели.
Алгоритм действий № 7 Как выполняется LM-тест Бройша — Годфри в EViews Шаг 1. Практическая реализация LM-теста Бройша — Годфри В EViews реализация LM-теста Бройша — Годфри довольно проста. С этой целью необходимо в командной строке (1 Command) или в строке уравнение (3 EQUATION) выбрать следующие опции: View/ Residual Tests/Serial Correlation LM Test… После чего появляется миниокно LAG SPECIFICATION, в котором можно задать интересующую нас величину лага (рис. 3.5). В этом случае мы задаем величину лага, равную 2, что обусловлено структурой лаговых переменных, включенных в уравнение авторегрессии (см. формулу (3.14)). В общем виде величина задаваемого лага для модели ARMA (р, q) = maх(р, q), которая в нашем случае приобретает вид: ARMA (2, 0) = max(2, 0) = 2.
Шаг 2. Интерпретация результатов тестирования В результате мы получаем следующие данные по результатам проведения LM-теста Бройша — Годфри, которые заносим в табл. 3.4. EViews сообщает две тестовые статистики (см. две верхние строки в табл. 3.4, выделенные жирным шрифтом). При этом для оценки результатов тестирования в качестве