АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Ошибки измерения факторов

Читайте также:
  1. A) Количественный прирост используемых факторов производства.
  2. B – технологические ошибки.
  3. I.Ошибки в согласовании
  4. II. Другие ошибки товарища Ярошенко
  5. II. Ошибки в управлении
  6. III. Ошибки в построении простого предложения
  7. IV. Найдите предложения, в которых нет грамматической ошибки. Исправьте ошибки в остальных предложениях.
  8. IV. Ошибки в построении сложного предложения
  9. Анализ внешних факторов: привлекательность среды
  10. Анализ доходов предприятия и факторов, обуславливающих их формирование.
  11. Анализ опасных и вредных производственных факторов при работе с ПК
  12. АНАЛИЗ ФАКТОРОВ ВНЕШНЕЙ И ВНУТРЕННЕЙ СРЕД, ОКАЗЫВАЮЩИХ ВЛИЯНИЕ НА ДОСТИЖЕНИЕ ЦЕЛИ (4-Й ЭТАП)

 

Пусть теперь нарушается гипотеза g2, и независимые факторы наблюдаются с ошибками. Предполагается, что изучаемая переменная зависит от истинных зна-

чений факторов (далее в этом пункте используется сокращенная форма уравнения регрессии), z ˆ0, а именно:

 

x ˆ = z ˆ0α + ε,

но истинные значения неизвестны, а вместо этого имеются наблюдения над неко- торыми связанными с z ˆ0 переменными z ˆ:

z ˆ = z ˆ0 + ε z,

где ε z — вектор-строка длиной n ошибок наблюдений.

В разрезе наблюдений:


 

где


X ˆ = Z ˆ0α + ε, Z ˆ = Z ˆ0 + ε z,

Z ˆ0 и ε z — соответствующие N × n -матрицы значений этих величин по на-


блюдениям (т.е., в зависимости от контекста, ε z обозначает вектор или матрицу

ошибок).

Предполагается, что ошибки факторов по математическому ожиданию равны нулю, истинные значения регрессоров и ошибки независимы друг от друга (по край- ней мере не коррелированы друг с другом) и известны матрицы ковариации:

 


Ez) = 0, E (z ˆ0t, ε) = 0, E (z ˆ0t, ε z) = 0,

E (z ˆ0t, z ˆ0) = M 0, E (εt, ε z) = Ω, E (εt, ε) = ω.


 

(8.5)


z z

 

Важно отметить, что эти матрицы и вектора ковариации одинаковы во всех наблюдениях, а ошибки в разных наблюдениях не зависят друг от друга, т.е. речь, фактически, идет о «матричной» гомоскедастичности и отсутствии автокорреляции ошибок.


Через наблюдаемые переменные x ˆ в следующей форме:


и z ˆ


уравнение регрессии записывается


 

x ˆ = z ˆα + ε − ε z α. (8.6)

В такой записи видно, что «новые» остатки не могут быть независимыми от факто- ров-регрессоров z ˆ, т.е. гипотезы основной модели регрессии нарушены. В рамках


 

 

8.4. Ошибки измерения факторов  
сделанных предположений можно доказать, что приближенно E(a) ≈ (M 0 + Ω)−1(M 0α + ω) = α + (M 0 + Ω)−1(ω − Ωα),   (8.7)

т.е. МНК-оценки теряют в такой ситуации свойства состоятельности и несмещен- ности3, если ω ƒ= Ωα (в частности, когда ошибки регрессии и ошибки факторов не коррелированны, т.е. когда ω = 0, а Ω и α отличны от нуля).

 

Для обоснования (8. 7) перейдем к теоретическому аналогу системы нормальных уравнений, для чего обе части соотношения (8. 6) умножаются на транспонирован- ную матрицу факторов:

E (z ˆr x ˆ) = E (z ˆr z ˆ) α + E (z ˆrε) − E (z ˆrε z) α.

Здесь, как несложно показать, пользуясь сделанными предположениями,

E (z ˆr z ˆ) = M 0 + Ω,

E (z ˆrε) = ω,

E (z ˆrε z) = Ω,

 


Поэтому

 

или


 

 

E (z ˆr x ˆ) = E (z ˆr z ˆ) α + ω − Ωα

 

 

E (z ˆr z ˆ)−1 E (z ˆr x ˆ) = α +. M 0 + Ω.−1 (ω − Ωα).


N
Левая часть приближенно равна E (a). Действительно, a = M −1 m, где M = 1 Z ˆr Z ˆ


 

 

N
и m = 1 Z ˆr x ˆ. Выборочные ковари-


ационные матрицы M и m по закону больших чисел с ростом числа наблюдений сходятся по вероятности к своим теоретическим аналогам:

 

p p

M −→ E (z ˆr z ˆ) и m −→ E (z ˆr x ˆ).

По свойствам сходимости по вероятности предел функции равен функции от предела, если функция непрерывна. Поэтому


 

a = M −1 m


 

p

−→ E (z ˆr z ˆ)−1 E (z ˆr x ˆ) = (M 0 + Ω)−1(M 0α + ω).


 

Существуют разные подходы к оценке параметров регрессии в случае наличия ошибок измерения независимых факторов. Здесь приводятся два из них.

3 Они смещены даже асимптотически, т.е. при стремлении количества наблюдений к бесконечно- сти смещение не стремится к нулю.


 

 

272 Глава 8. Нарушение гипотез основной линейной модели

 

а) Простая регрессия. Если имеется оценка W ковариационной матрицы Ω и w — ковариационного вектора ω, то можно использовать следующий оператор оценивания:

a = (MW)−1(mw),

который обеспечивает состоятельность оценок и делает их менее смещенными.

 


Это формула следует из


 

E (z ˆr x ˆ) = E (z ˆr z ˆ) α + ω − Ωα


заменой теоретических моментов на их оценки.

 

Обычно предполагается, что W — диагональная матрица, а w = 0.

б) Ортогональная регрессия. Поскольку z теперь такие же случайные пере- менные, наблюдаемые с ошибками, как и x, имеет смысл вернуться к обозначениям 6-го раздела, где через x обозначался n -мерный вектор-строка всех переменных. Пусть ε — вектор их ошибок наблюдения, а x 0 — вектор их истинных значений, то есть

x = x 0 + ε, X = X 0+ ε.

Предположения (8.5) записываются следующим образом:

E (x ˆ0t, ε) = 0, E (x ˆ0t, x ˆ0) = M 0, E (εt, ε) = σ2Ω.

Теперь через M 0 обозначается матрица, которую в обозначениях, используемых в этом пункте выше, можно записать следующим образом:

 

 

σ2
 
x 0 m

 ,

 


 

 

а через σ2Ω матрица


m 0t M 0


 

 

σ2 ω

.
 

 

ωt Ω

 

Поскольку речь идет о линейной регрессии, предполагается, что между истин- ными значениями переменных существует линейная зависимость:

x 0α = 0.


 

 

8.5. Метод инструментальных переменных 273


Это означает, что


M 0α = 0.


что


Рассуждая так же, как при доказательстве соотношения (8.7), легко установить,

E (M) = M 0 + σ2Ω,


 

(M — фактическая матрица ковариации X) т.е.

(E (M) − σ2Ω)α = 0.

Таким образом, если считать, что Ω известна, а σ2— минимизируемый параметр (в соответствии с логикой МНК), то решение задачи

(M − σ2Ω) a = 0, σ2→ min!

даст несмещенную оценку вектора α. А это, как было показано в пункте 6.4, есть задача регрессии в метрике Ω−1 (см. (6.37)). Преобразованием в пространстве переменных она сводится к «обычной» ортогональной регрессии.

Т.е. если для устранения последствий нарушения гипотезы g4 используется преобразование в пространстве наблюдений, то при нарушении гипотезы g2 надо

«работать» с преобразованием в пространстве переменных.

Несмотря на то, что методы ортогональной регрессии и регрессии в метрике Ω−1 в наибольшей степени соответствуют реалиям экономики (ошибки есть во всех переменных, стоящих как в левой, так и в правой частях уравнения регрессии), они мало используются в прикладных исследованиях. Основная причина этого заклю- чается в том, что в большинстве случаев невозможно получить надежные оценки матрицы Ω. Кроме того, ортогональная регрессия гораздо сложнее простой с вы- числительной точки зрения, и с теоретической точки зрения она существенно менее изящна и прозрачна.

В следующем параграфе излагается еще один метод, который позволяет решить проблему ошибок в переменных (и в целом может использоваться при любых нарушениях гипотезы g2).

 

 


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.01 сек.)