Рассмотрите случайную величину X с плотностью, зависящей от параметра theta; обсудите, как выбрать несмещённую и эффективную оценку theta, какие критерии применимы и как влияет информация Фишера на lower bound Cramer-Rao
Кратко и по сути. Что значит несмещённая и эффективная оценка - Несмещённая: оценка θ^(X)\hat\theta(X)θ^(X) удовлетворяет Eθ[θ^]=θ\mathbb{E}_\theta[\hat\theta]=\thetaEθ[θ^]=θ для всех θ\thetaθ. - Эффективная (в смысле Крамера–Рао): несмещённая оценка, достигающая нижнюю границу дисперсии, т.е. для неё выполнено равенство в неравенстве Крамера–Рао. Критерии и инструменты для выбора оценки - Прямо проверить несмещённость: вычислить Eθ[θ^]\mathbb{E}_\theta[\hat\theta]Eθ[θ^]. - Минимизация дисперсии среди несмещённых — искать MVUE (минимально дисперсионная несмещённая оценка): - Применять теорему Райса–Блэкуэлла: если есть любая несмещённая оценка T0T_0T0, то её улучшение через условное ожидание по достаточной статистике SSS: T^=E[T0∣S]\hat T=\mathbb{E}[T_0\mid S]T^=E[T0∣S] не хуже по дисперсии. - Если статистика SSS достаточна и полна, то T^\hat TT^ — единственный MVUE (Лемманн–Шеффе). - Мером качества может быть также MSE; тогда допускаются смещённые оценки, и выбор делается по минимизации MSE(θ^)=Var(θ^)+(Bias(θ^))2\mathrm{MSE}(\hat\theta)=\mathrm{Var}(\hat\theta)+(\mathrm{Bias}(\hat\theta))^2MSE(θ^)=Var(θ^)+(Bias(θ^))2. - Практически часто используют MLE: он асимптотически несмещён и асимптотически эффективен (при регулярности). Роль информации Фишера и неравенство Крамера–Рао - Для одной наблюдения с плотностью f(x;θ)f(x;\theta)f(x;θ) информация Фишера определена как I(θ)=Eθ [(∂∂θlogf(X;θ))2].
I(\theta)=\mathbb{E}_\theta\!\left[\left(\frac{\partial}{\partial\theta}\log f(X;\theta)\right)^2\right]. I(θ)=Eθ[(∂θ∂logf(X;θ))2].
Для iid-выборки размера nnn информация равна In(θ)=nI(θ)I_n(\theta)=n I(\theta)In(θ)=nI(θ). - Неравенство Крамера–Рао (при регулярных условиях) для любой несмещённой оценки: Varθ(θ^)≥1In(θ)=1nI(θ).
\mathrm{Var}_\theta(\hat\theta)\ge \frac{1}{I_n(\theta)}=\frac{1}{n I(\theta)}. Varθ(θ^)≥In(θ)1=nI(θ)1.
- Следствие: больше I(θ)I(\theta)I(θ)⇒\Rightarrow⇒ меньшая нижняя граница дисперсии; т.е. чем «информативнее» модель о θ\thetaθ, тем точнее могут быть оценки. Условия достижения границы и практическое значение - Условие равенства: существует некоторая функция a(θ)a(\theta)a(θ) такая, что почти наверное ∂∂θlogf(X;θ)=a(θ) (θ^(X)−θ).
\frac{\partial}{\partial\theta}\log f(X;\theta)=a(\theta)\,(\hat\theta(X)-\theta). ∂θ∂logf(X;θ)=a(θ)(θ^(X)−θ).
Это эквивалентно тому, что оценка пропорциональна скору (score). На практике равенство достигается в экспоненциальных семьях при правильно выбранных статистиках (напр., нормальная с известной дисперсией — выборочное среднее). - МЛО (MLE) при регулярности обладает асимптотическим распределением n(θ^MLE−θ)→dN (0,1I(θ)),
\sqrt{n}(\hat\theta_{MLE}-\theta)\xrightarrow{d}\mathcal{N}\!\left(0,\frac{1}{I(\theta)}\right), n(θ^MLE−θ)dN(0,I(θ)1),
поэтому асимптотически достигает 1nI(θ)\frac{1}{n I(\theta)}nI(θ)1 и считается асимптотически эффективным. - Если CRLB не достижим (семейство не регулярно или оценка смещённая), применяют другие границы (например, баронкина, Хашимото–Ченга и т.п.) или ищут MVUE через Rao–Blackwell + Lehmann–Scheffé. Резюме (практические шаги) 1. Найти достаточную статистику; если она полна — искать MVUE через Lehmann–Scheffé. 2. Проверить несмещённость и вычислить дисперсию; сравнить с CRLB: Var≥1/(nI(θ))\mathrm{Var}\ge 1/(nI(\theta))Var≥1/(nI(θ)). 3. Если MVUE сложна, использовать MLE — он обычно асимптотически эффективен. 4. Учитывать, что большая информация Фишера уменьшает нижнюю границу дисперсии и улучшает точность оценивания. Если нужно, могу показать пример (конкретная плотность, вычисление I(θ)I(\theta)I(θ), CRLB и поиск MVUE/MLE).
Что значит несмещённая и эффективная оценка
- Несмещённая: оценка θ^(X)\hat\theta(X)θ^(X) удовлетворяет Eθ[θ^]=θ\mathbb{E}_\theta[\hat\theta]=\thetaEθ [θ^]=θ для всех θ\thetaθ.
- Эффективная (в смысле Крамера–Рао): несмещённая оценка, достигающая нижнюю границу дисперсии, т.е. для неё выполнено равенство в неравенстве Крамера–Рао.
Критерии и инструменты для выбора оценки
- Прямо проверить несмещённость: вычислить Eθ[θ^]\mathbb{E}_\theta[\hat\theta]Eθ [θ^].
- Минимизация дисперсии среди несмещённых — искать MVUE (минимально дисперсионная несмещённая оценка):
- Применять теорему Райса–Блэкуэлла: если есть любая несмещённая оценка T0T_0T0 , то её улучшение через условное ожидание по достаточной статистике SSS: T^=E[T0∣S]\hat T=\mathbb{E}[T_0\mid S]T^=E[T0 ∣S] не хуже по дисперсии.
- Если статистика SSS достаточна и полна, то T^\hat TT^ — единственный MVUE (Лемманн–Шеффе).
- Мером качества может быть также MSE; тогда допускаются смещённые оценки, и выбор делается по минимизации MSE(θ^)=Var(θ^)+(Bias(θ^))2\mathrm{MSE}(\hat\theta)=\mathrm{Var}(\hat\theta)+(\mathrm{Bias}(\hat\theta))^2MSE(θ^)=Var(θ^)+(Bias(θ^))2.
- Практически часто используют MLE: он асимптотически несмещён и асимптотически эффективен (при регулярности).
Роль информации Фишера и неравенство Крамера–Рао
- Для одной наблюдения с плотностью f(x;θ)f(x;\theta)f(x;θ) информация Фишера определена как
I(θ)=Eθ [(∂∂θlogf(X;θ))2]. I(\theta)=\mathbb{E}_\theta\!\left[\left(\frac{\partial}{\partial\theta}\log f(X;\theta)\right)^2\right].
I(θ)=Eθ [(∂θ∂ logf(X;θ))2]. Для iid-выборки размера nnn информация равна In(θ)=nI(θ)I_n(\theta)=n I(\theta)In (θ)=nI(θ).
- Неравенство Крамера–Рао (при регулярных условиях) для любой несмещённой оценки:
Varθ(θ^)≥1In(θ)=1nI(θ). \mathrm{Var}_\theta(\hat\theta)\ge \frac{1}{I_n(\theta)}=\frac{1}{n I(\theta)}.
Varθ (θ^)≥In (θ)1 =nI(θ)1 . - Следствие: больше I(θ)I(\theta)I(θ) ⇒\Rightarrow⇒ меньшая нижняя граница дисперсии; т.е. чем «информативнее» модель о θ\thetaθ, тем точнее могут быть оценки.
Условия достижения границы и практическое значение
- Условие равенства: существует некоторая функция a(θ)a(\theta)a(θ) такая, что почти наверное
∂∂θlogf(X;θ)=a(θ) (θ^(X)−θ). \frac{\partial}{\partial\theta}\log f(X;\theta)=a(\theta)\,(\hat\theta(X)-\theta).
∂θ∂ logf(X;θ)=a(θ)(θ^(X)−θ). Это эквивалентно тому, что оценка пропорциональна скору (score). На практике равенство достигается в экспоненциальных семьях при правильно выбранных статистиках (напр., нормальная с известной дисперсией — выборочное среднее).
- МЛО (MLE) при регулярности обладает асимптотическим распределением
n(θ^MLE−θ)→dN (0,1I(θ)), \sqrt{n}(\hat\theta_{MLE}-\theta)\xrightarrow{d}\mathcal{N}\!\left(0,\frac{1}{I(\theta)}\right),
n (θ^MLE −θ)d N(0,I(θ)1 ), поэтому асимптотически достигает 1nI(θ)\frac{1}{n I(\theta)}nI(θ)1 и считается асимптотически эффективным.
- Если CRLB не достижим (семейство не регулярно или оценка смещённая), применяют другие границы (например, баронкина, Хашимото–Ченга и т.п.) или ищут MVUE через Rao–Blackwell + Lehmann–Scheffé.
Резюме (практические шаги)
1. Найти достаточную статистику; если она полна — искать MVUE через Lehmann–Scheffé.
2. Проверить несмещённость и вычислить дисперсию; сравнить с CRLB: Var≥1/(nI(θ))\mathrm{Var}\ge 1/(nI(\theta))Var≥1/(nI(θ)).
3. Если MVUE сложна, использовать MLE — он обычно асимптотически эффективен.
4. Учитывать, что большая информация Фишера уменьшает нижнюю границу дисперсии и улучшает точность оценивания.
Если нужно, могу показать пример (конкретная плотность, вычисление I(θ)I(\theta)I(θ), CRLB и поиск MVUE/MLE).