Рассмотрите случайную величину X с плотностью, зависящей от параметра theta; обсудите, как выбрать несмещённую и эффективную оценку theta, какие критерии применимы и как влияет информация Фишера на lower bound Cramer-Rao

26 Ноя в 13:48
2 +2
0
Ответы
1
Кратко и по сути.
Что значит несмещённая и эффективная оценка
- Несмещённая: оценка θ^(X)\hat\theta(X)θ^(X) удовлетворяет Eθ[θ^]=θ\mathbb{E}_\theta[\hat\theta]=\thetaEθ [θ^]=θ для всех θ\thetaθ.
- Эффективная (в смысле Крамера–Рао): несмещённая оценка, достигающая нижнюю границу дисперсии, т.е. для неё выполнено равенство в неравенстве Крамера–Рао.
Критерии и инструменты для выбора оценки
- Прямо проверить несмещённость: вычислить Eθ[θ^]\mathbb{E}_\theta[\hat\theta]Eθ [θ^].
- Минимизация дисперсии среди несмещённых — искать MVUE (минимально дисперсионная несмещённая оценка):
- Применять теорему Райса–Блэкуэлла: если есть любая несмещённая оценка T0T_0T0 , то её улучшение через условное ожидание по достаточной статистике SSS: T^=E[T0∣S]\hat T=\mathbb{E}[T_0\mid S]T^=E[T0 S] не хуже по дисперсии.
- Если статистика SSS достаточна и полна, то T^\hat TT^ — единственный MVUE (Лемманн–Шеффе).
- Мером качества может быть также MSE; тогда допускаются смещённые оценки, и выбор делается по минимизации MSE(θ^)=Var(θ^)+(Bias(θ^))2\mathrm{MSE}(\hat\theta)=\mathrm{Var}(\hat\theta)+(\mathrm{Bias}(\hat\theta))^2MSE(θ^)=Var(θ^)+(Bias(θ^))2.
- Практически часто используют MLE: он асимптотически несмещён и асимптотически эффективен (при регулярности).
Роль информации Фишера и неравенство Крамера–Рао
- Для одной наблюдения с плотностью f(x;θ)f(x;\theta)f(x;θ) информация Фишера определена как
I(θ)=Eθ ⁣[(∂∂θlog⁡f(X;θ))2]. I(\theta)=\mathbb{E}_\theta\!\left[\left(\frac{\partial}{\partial\theta}\log f(X;\theta)\right)^2\right].
I(θ)=Eθ [(θ logf(X;θ))2].
Для iid-выборки размера nnn информация равна In(θ)=nI(θ)I_n(\theta)=n I(\theta)In (θ)=nI(θ).
- Неравенство Крамера–Рао (при регулярных условиях) для любой несмещённой оценки:
Varθ(θ^)≥1In(θ)=1nI(θ). \mathrm{Var}_\theta(\hat\theta)\ge \frac{1}{I_n(\theta)}=\frac{1}{n I(\theta)}.
Varθ (θ^)In (θ)1 =nI(θ)1 .
- Следствие: больше I(θ)I(\theta)I(θ) ⇒\Rightarrow меньшая нижняя граница дисперсии; т.е. чем «информативнее» модель о θ\thetaθ, тем точнее могут быть оценки.
Условия достижения границы и практическое значение
- Условие равенства: существует некоторая функция a(θ)a(\theta)a(θ) такая, что почти наверное
∂∂θlog⁡f(X;θ)=a(θ) (θ^(X)−θ). \frac{\partial}{\partial\theta}\log f(X;\theta)=a(\theta)\,(\hat\theta(X)-\theta).
θ logf(X;θ)=a(θ)(θ^(X)θ).
Это эквивалентно тому, что оценка пропорциональна скору (score). На практике равенство достигается в экспоненциальных семьях при правильно выбранных статистиках (напр., нормальная с известной дисперсией — выборочное среднее).
- МЛО (MLE) при регулярности обладает асимптотическим распределением
n(θ^MLE−θ)→dN ⁣(0,1I(θ)), \sqrt{n}(\hat\theta_{MLE}-\theta)\xrightarrow{d}\mathcal{N}\!\left(0,\frac{1}{I(\theta)}\right),
n (θ^MLE θ)d N(0,I(θ)1 ),
поэтому асимптотически достигает 1nI(θ)\frac{1}{n I(\theta)}nI(θ)1 и считается асимптотически эффективным.
- Если CRLB не достижим (семейство не регулярно или оценка смещённая), применяют другие границы (например, баронкина, Хашимото–Ченга и т.п.) или ищут MVUE через Rao–Blackwell + Lehmann–Scheffé.
Резюме (практические шаги)
1. Найти достаточную статистику; если она полна — искать MVUE через Lehmann–Scheffé.
2. Проверить несмещённость и вычислить дисперсию; сравнить с CRLB: Var≥1/(nI(θ))\mathrm{Var}\ge 1/(nI(\theta))Var1/(nI(θ)).
3. Если MVUE сложна, использовать MLE — он обычно асимптотически эффективен.
4. Учитывать, что большая информация Фишера уменьшает нижнюю границу дисперсии и улучшает точность оценивания.
Если нужно, могу показать пример (конкретная плотность, вычисление I(θ)I(\theta)I(θ), CRLB и поиск MVUE/MLE).
26 Ноя в 14:03
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир