Модели усеченной регрессии - это класс моделей, в которых образец был усечен для определенных диапазонов зависимая переменная. Это означает, что наблюдения со значениями зависимой переменной ниже или выше определенных пороговых значений систематически исключаются из выборки. Следовательно, отсутствуют все наблюдения, так что неизвестны ни зависимая, ни независимая переменная. Это отличается от цензурированных регрессионных моделей, где только значение зависимой переменной кластеризуется по нижнему порогу, верхнему порогу или по обоим параметрам, в то время как значение для независимых переменных доступно.
Усечение выборки - распространенная проблема в количественных социальных науках при использовании данных наблюдений, и, следовательно, разработка подходящих методов оценки уже давно вызывает интерес в эконометрике и смежные дисциплины. В 1970-х годах Джеймс Хекман отметил сходство между усеченными и неслучайно выбранными выборками и разработал поправку Хекмана.
. Оценка усеченных регрессионных моделей обычно выполняется с помощью параметрического метода максимального правдоподобия. Совсем недавно в литературе были предложены различные полупараметрические и непараметрические обобщения, например, основанные на методе локальных наименьших квадратов или подходе локального максимального правдоподобия, которые являются ядерными методами.