В задаче теории вероятностей: монета с неизвестной вероятностью выпадения орла p подбрасывается n раз; какие непараметрические и байесовские методы оценки p вы предложите при n мал и при n велик, как различается интерпретация доверительных/достоверностных интервалов, и приведите пример, где разные подходы дают существенно разные выводы
Кратко и по делу. Рекомендации по методам - Малое nnn (малые выборки, крайние результаты важны): - Непараметрические / частотные: точный биномиальный интервал Clopper–Pearson, «mid‑p» поправка; непараметрический bootstrap (с осторожностью — при очень малых nnn bootstrap плохо аппроксимирует распределение краёв). - Байесовские: использовать сопряжённое семейство Beta. При слабой информации — Jeffreys‑приор Beta(1/2,1/2)\mathrm{Beta}(1/2,1/2)Beta(1/2,1/2) или равномерный Beta(1,1)\mathrm{Beta}(1,1)Beta(1,1); при наличии экспертных знаний — информативный Beta(a,b)\mathrm{Beta}(a,b)Beta(a,b). Постериор: Beta(a+k, b+n−k)\mathrm{Beta}(a+k,\;b+n-k)Beta(a+k,b+n−k), где kkk — число орлов. - Большое nnn (асимптотика применима): - Частотные: оценка доли p^=k/n\hat p=k/np^=k/n; интервалы по CLT (Wald) p^±zα/2p^(1−p^)/n\hat p\pm z_{\alpha/2}\sqrt{\hat p(1-\hat p)/n}p^±zα/2p^(1−p^)/n — применяйте с осторожностью; предпочтительнее интервалы Wilson или Agresti–Coull для лучшего покрытия. - Непараметрический bootstrap лучше работает при большом nnn. - Байесовские: та же Beta‑постериорa, при большом nnn постериор приближается нормальным: E[p∣данные]≈( a+k )/(a+b+n)\mathrm{E}[p\mid\text{данные}]\approx(\,a+k\,)/(a+b+n)E[p∣данные]≈(a+k)/(a+b+n), дисперсия ≈\approx≈(mean)(1−mean)/(n+… )(\text{mean})(1-\text{mean})/(n+\dots)(mean)(1−mean)/(n+…); влияние приора мало. Интерпретация интервалов - Частотный (доверительный) интервал уровня 1−α1-\alpha1−α: процедура построения даёт интервалы, которые при повторении эксперимента покрывают истинное ppp в доле 1−α1-\alpha1−α случаев. Нельзя сказать «вероятность, что ppp в данном интервале равна 1−α1-\alpha1−α» — либо интервал содержит фиксированное (но неизвестное) ppp, либо нет. - Байесовский (достоверностный, credible) интервал уровня 1−α1-\alpha1−α: по определению Pr(p∈I∣данные)=1−α\Pr(p\in I\mid\text{данные})=1-\alphaPr(p∈I∣данные)=1−α относительно постериора. Интервал даёт прямую вероятность для ppp, но она зависит от выбранного приора. Пример, где подходы дают существенно разные выводы Пусть n=1n=1n=1 и наблюдали k=0k=0k=0 орлов (один бросок — решка). Рассмотрим 95%‑интервалы. - Clopper–Pearson (двусторонний 95%): при k=0k=0k=0 нижняя граница =0=0=0, верхняя решается из (1−p)n=α(1-p)^n=\alpha(1−p)n=α, даёт pU=1−α1/n=1−0.051/1=0.95,
p_{U}=1-\alpha^{1/n}=1-0.05^{1/1}=0.95, pU=1−α1/n=1−0.051/1=0.95,
т.е. 95% CI: (0, 0.95)(0,\;0.95)(0,0.95). - Байесовский с равномерным приором Beta(1,1)\mathrm{Beta}(1,1)Beta(1,1). Постериор Beta(1,2)\mathrm{Beta}(1,2)Beta(1,2). 95% верхняя квантиль: p0.95=1−0.051/(n+1)=1−0.051/2=1−0.05≈0.7764,
p_{0.95}=1-0.05^{1/(n+1)}=1-0.05^{1/2}=1-\sqrt{0.05}\approx0.7764, p0.95=1−0.051/(n+1)=1−0.051/2=1−0.05≈0.7764,
т.е. 95% credible interval примерно (0, 0.7764)(0,\;0.7764)(0,0.7764). Разница существенна: частотный интервал допускает ppp до 0.950.950.95, байесовский (с равномерным приором) — только до ≈0.78\approx0.78≈0.78. Если бы у вас был информативный приор, верхняя граница могла бы быть ещё ниже. Для больших nnn такие различия стираются. Короткий вывод - При малых nnn используйте точные частотные методы (Clopper–Pearson, mid‑p) и/или байесовский подход с явно указанным приором (Jeffreys или экспертный). Ожидайте, что выводы (особенно границы интервалов) зависят от выбранного подхода/приора. - При больших nnn можно полагаться на асимптотические интервалы (Wilson, bootstrap) или на байесовский постериор с маловлияющим приором — интерпретации останутся разными, но численно результаты сходятся.
Рекомендации по методам
- Малое nnn (малые выборки, крайние результаты важны):
- Непараметрические / частотные: точный биномиальный интервал Clopper–Pearson, «mid‑p» поправка; непараметрический bootstrap (с осторожностью — при очень малых nnn bootstrap плохо аппроксимирует распределение краёв).
- Байесовские: использовать сопряжённое семейство Beta. При слабой информации — Jeffreys‑приор Beta(1/2,1/2)\mathrm{Beta}(1/2,1/2)Beta(1/2,1/2) или равномерный Beta(1,1)\mathrm{Beta}(1,1)Beta(1,1); при наличии экспертных знаний — информативный Beta(a,b)\mathrm{Beta}(a,b)Beta(a,b). Постериор: Beta(a+k, b+n−k)\mathrm{Beta}(a+k,\;b+n-k)Beta(a+k,b+n−k), где kkk — число орлов.
- Большое nnn (асимптотика применима):
- Частотные: оценка доли p^=k/n\hat p=k/np^ =k/n; интервалы по CLT (Wald) p^±zα/2p^(1−p^)/n\hat p\pm z_{\alpha/2}\sqrt{\hat p(1-\hat p)/n}p^ ±zα/2 p^ (1−p^ )/n — применяйте с осторожностью; предпочтительнее интервалы Wilson или Agresti–Coull для лучшего покрытия.
- Непараметрический bootstrap лучше работает при большом nnn.
- Байесовские: та же Beta‑постериорa, при большом nnn постериор приближается нормальным: E[p∣данные]≈( a+k )/(a+b+n)\mathrm{E}[p\mid\text{данные}]\approx(\,a+k\,)/(a+b+n)E[p∣данные]≈(a+k)/(a+b+n), дисперсия ≈\approx≈ (mean)(1−mean)/(n+… )(\text{mean})(1-\text{mean})/(n+\dots)(mean)(1−mean)/(n+…); влияние приора мало.
Интерпретация интервалов
- Частотный (доверительный) интервал уровня 1−α1-\alpha1−α: процедура построения даёт интервалы, которые при повторении эксперимента покрывают истинное ppp в доле 1−α1-\alpha1−α случаев. Нельзя сказать «вероятность, что ppp в данном интервале равна 1−α1-\alpha1−α» — либо интервал содержит фиксированное (но неизвестное) ppp, либо нет.
- Байесовский (достоверностный, credible) интервал уровня 1−α1-\alpha1−α: по определению Pr(p∈I∣данные)=1−α\Pr(p\in I\mid\text{данные})=1-\alphaPr(p∈I∣данные)=1−α относительно постериора. Интервал даёт прямую вероятность для ppp, но она зависит от выбранного приора.
Пример, где подходы дают существенно разные выводы
Пусть n=1n=1n=1 и наблюдали k=0k=0k=0 орлов (один бросок — решка). Рассмотрим 95%‑интервалы.
- Clopper–Pearson (двусторонний 95%): при k=0k=0k=0 нижняя граница =0=0=0, верхняя решается из (1−p)n=α(1-p)^n=\alpha(1−p)n=α, даёт
pU=1−α1/n=1−0.051/1=0.95, p_{U}=1-\alpha^{1/n}=1-0.05^{1/1}=0.95,
pU =1−α1/n=1−0.051/1=0.95, т.е. 95% CI: (0, 0.95)(0,\;0.95)(0,0.95).
- Байесовский с равномерным приором Beta(1,1)\mathrm{Beta}(1,1)Beta(1,1). Постериор Beta(1,2)\mathrm{Beta}(1,2)Beta(1,2). 95% верхняя квантиль:
p0.95=1−0.051/(n+1)=1−0.051/2=1−0.05≈0.7764, p_{0.95}=1-0.05^{1/(n+1)}=1-0.05^{1/2}=1-\sqrt{0.05}\approx0.7764,
p0.95 =1−0.051/(n+1)=1−0.051/2=1−0.05 ≈0.7764, т.е. 95% credible interval примерно (0, 0.7764)(0,\;0.7764)(0,0.7764).
Разница существенна: частотный интервал допускает ppp до 0.950.950.95, байесовский (с равномерным приором) — только до ≈0.78\approx0.78≈0.78. Если бы у вас был информативный приор, верхняя граница могла бы быть ещё ниже. Для больших nnn такие различия стираются.
Короткий вывод
- При малых nnn используйте точные частотные методы (Clopper–Pearson, mid‑p) и/или байесовский подход с явно указанным приором (Jeffreys или экспертный). Ожидайте, что выводы (особенно границы интервалов) зависят от выбранного подхода/приора.
- При больших nnn можно полагаться на асимптотические интервалы (Wilson, bootstrap) или на байесовский постериор с маловлияющим приором — интерпретации останутся разными, но численно результаты сходятся.