Цензурированная регрессия

Перейти к навигацииПерейти к поиску

Цензурированная регрессия (англ. Censored regression) — регрессия с зависимой переменной, наблюдаемой с ограничением (цензурированием) возможных значений. При этом модель может быть цензурирована только с одной стороны (справа или слева) либо с обеих сторон. Цензурированная регрессия отличается от усеченной регрессии (англ. truncated regression) тем, что значения факторов, в отличие от зависимой переменной, наблюдаются без ограничений.

Каноническая цензурированная регрессия, цензурированная снизу нулевым значением, носит название тобит (по аналогии с пробит, логит и т. д.) в честь лауреата премии памяти Нобеля по экономике Джеймса Тобина. Собственно исследования цензурированных моделей начались в 1958 году с работы Дж. Тобина, в которой рассматривались расходы семей на автомобили. Для оценки эластичности спроса на автомобили по доходу необходимо оценить модель зависимости логарифма расходов на автомобили от логарифма доходов. Однако, как показал Тобин, такая оценка будет смещенной и несостоятельной, так как для семей с низким доходом (ниже некоторого порога) величина расходов равна нулю независимо от конкретной величины дохода и других факторов. Тобин впервые и предложил подход к оценке таких моделей, позволяющий получить состоятельные оценки параметров модели.

Математическое описание

В цензурированной модели наблюдается не сама зависимая переменная, а ее значения в пределах цензурирования. То есть предполагается, что есть латентная переменная , для которой справедлива обычная регрессионная модель , однако фактически наблюдается другая переменная, которая определяется в общем случае следующим образом:

Если , то имеем каноническую цензурированную модель (тобит):

Рассмотрим математическое ожидание наблюдаемой зависимой переменной на примере тобит-модели с нормально распределенной ошибкой:

Если — плотность, а — интегральная функция распределения случайной ошибки, то

,
.

Следовательно, окончательно имеем

.

Очевидно, что это выражение не равно , и, следовательно, построение обычной регрессии приведет к смещенным и несостоятельным оценкам.

Оценка параметров

Оценка параметров осуществляется методом максимального правдоподобия.

Логарифмическая функция правдоподобия цензурированной модели

,

где  — соответственно плотность и интегральная функция распределения случайной ошибки .

Максимизация данной функции по неизвестным параметрам позволяет найти их оценки.

Модель Хекмана

Модель Тобина имеет один недостаток. Дело в том, что значение y=0 может означать выбор «не участвовать» (в расходах на отдых, например), а значения можно интерпретировать как «интенсивность участия». В тобит-модели и выбор «участвовать — не участвовать», и «интенсивность участия» определяются одними и теми же факторами, и факторы действуют в одном направлении. Классический пример фактора и ситуации неоднозначного влияния — количество детей как фактор, влияющий на расходы семьи. Очевидно, что большое количество детей может негативно влиять на решение «отдыхать или нет» (из-за больших расходов), однако если принято такое решение, то величина расходов на отдых (интенсивность участия) прямо зависит от количества детей.

Хекман предложил разделить модель на две составляющие: модель бинарного выбора для участия и линейную модель для интенсивности участия, и факторы этих двух моделей, вообще говоря, могут быть разными. Таким образом, в модели Хекмана имеются две латентные переменные, удовлетворяющие следующим моделям:

,

.

Случайные ошибки моделей предполагаются нормально распределенными. Вторая латентная переменная определяет выбор «участвовать — не участвовать» в рамках стандартной модели бинарного выбора (например, пробит-модели). Первая модель — это модель интенсивности участия при условии выбора «участвовать». Если выбирается «не участвовать», то не наблюдается (равна нулю).

Такую модель называют тобит II (соответственно исходная тобит-модель называется тобит I), иногда по аналогии — хекит (модель Хекмана). В англоязычной литературе также встречается название sample selection model.

Рассмотрим математическое ожидание наблюдаемой зависимой переменной (при условии ):

.

Предполагается, что случайные ошибки моделей латентных переменных коррелированы и связаны соотношением

;

следовательно,

,

где  — так называемая лямбда Хекмана.

Оценка модели Хекмана производится также методом максимального правдоподобия, однако в связи с нестандартностью данной задачи часто применяют упрощенную двухшаговую процедуру оценивания, предложенную Хекманом. На первом шаге оценивается модель бинарного выбора и определяются ее параметры, на основе которых можно определить для каждого наблюдения лямбду Хекмана. На втором шаге обычным МНК оценивается регрессия:

.

Полученные оценки являются неэффективными, но вполне могут быть использованы в качестве начальных значений в методе максимального правдоподобия.

См. также

  • Усеченная регрессия

Литература

  • Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика. Начальный курс. — М.: Дело, 2007. — 504 с. — ISBN 978-5-7749-0473-0.
  • Носко В. П. Эконометрика для начинающих (Дополнительные главы). — М.: ИЭПП, 2005. — С. 379.