Разработайте учебное задание для сравнения двух подходов в статистике при обработке экспериментальных данных в физике: классического частотного и байесовского — в каких ситуациях результаты могут существенно различаться и как интерпретировать выводы

5 Дек в 11:13
12 +4
0
Ответы
1
Ниже — учебное задание (несколько упражнений) для практического сравнения частотного и байесовского подходов в обработке экспериментальных данных в физике, с указанием, где и почему результаты заметно различаются, и как их интерпретировать. Вся математика в KaTeX.
Упражнение 1 — счётчики: поиск сигнала на фоне (Poisson)
- Ситуация: наблюдали nnn событий, ожидаемый фон известен bbb. Параметр интереса — средняя сила сигнала μ≥0\mu\ge0μ0.
- Модель: вероятность P(n∣μ)=Pois(n∣μ+b)=(μ+b)ne−(μ+b)n!P(n|\mu)=\mathrm{Pois}(n|\mu+b)=\frac{(\mu+b)^n e^{-(\mu+b)}}{n!}P(nμ)=Pois(nμ+b)=n!(μ+b)ne(μ+b) .
- Задачи:
1. Для примеров (a) n=0, b=0.5; (b) n=3, b=3(a)\ n=0,\ b=0.5;\ (b)\ n=3,\ b=3(a) n=0, b=0.5; (b) n=3, b=3 постройте:
- частотный 90%-доверительный верхний предел μ90\mu_{90}μ90 (Neyman-конструкция; сравните с Feldman–Cousins);
- байесовский 90%-доверительный предел с приорами (i) плоская π(μ)∝1\pi(\mu)\propto 1π(μ)1 на μ≥0\mu\ge0μ0, (ii) Джеффриса π(μ)∝1/μ+b\pi(\mu)\propto 1/\sqrt{\mu+b}π(μ)1/μ+b .
2. Сравните численно полученные пределы и объясните отличие.
- На что смотреть: при малых счетах и ненулевом фоне байесовский верхний предел сильно зависит от приора; частотный предел обеспечивает покрытие, но может давать "неинтуитивные" результаты при n<bn<bn<b. Feldman–Cousins устраняет «flip‑flop» между двухсторонними и односторонними интервалами.
Упражнение 2 — оценка среднего с малым числом измерений (Gaussian)
- Ситуация: измеряли величину xxx NNN раз, модель xi∼N(μ,σ2)x_i\sim\mathcal{N}(\mu,\sigma^2)xi N(μ,σ2). Рассмотрите случай NNN мал (например, N=3N=3N=3), известна ли σ\sigmaσ или нет.
- Задачи:
1. Для данных с выборочным средним xˉ\bar xxˉ и выборочной дисперсией s2s^2s2 постройте:
- частотный доверительный интервал для μ\muμ (t-распределение, если σ\sigmaσ неизвестна);
- байесовский 95%-доверительный интервал с непараметрическим (неинформативным) приором π(μ)∝1\pi(\mu)\propto 1π(μ)1 и с конъьюгированным нормальным приором μ∼N(μ0,τ2)\mu\sim\mathcal{N}(\mu_0,\tau^2)μN(μ0 ,τ2).
2. Покажите изменение байесовского интервала при разных τ\tauτ (сильный/слабый приор).
- На что смотреть: при малых NNN байесовский интервал чувствителен к приору; частотный интервал основан на выборочной вариативности и обеспечивает указанное покрытие.
Упражнение 3 — биномиальная эффективность (кроме крайних случаев)
- Ситуация: наблюдали kkk успехов из NNN испытаний; параметр — вероятность успеха p∈[0,1]p\in[0,1]p[0,1].
- Модель: P(k∣p)=(Nk)pk(1−p)N−kP(k|p)=\binom{N}{k} p^k(1-p)^{N-k}P(kp)=(kN )pk(1p)Nk.
- Задачи:
1. Для N=10N=10N=10 и k=0,1,9,10k=0,1,9,10k=0,1,9,10 постройте частотные (Clopper–Pearson) и байесовские 95%-интервалы с приорами (i) плоская Beta(1,1)\mathrm{Beta}(1,1)Beta(1,1), (ii) Джеффриса Beta(1/2,1/2)\mathrm{Beta}(1/2,1/2)Beta(1/2,1/2).
2. Объясните поведение интервалов на границах 000 и 111.
- На что смотреть: Clopper–Pearson консервативен (покрытие ≥ заявленного); байесовские интервалы с разумным приором дают более «короткие» и интуитивные интервалы, особенно при крайних kkk.
Упражнение 4 — модельный выбор: сигнал vs. нет сигнала
- Ситуация: данные DDD, две модели: M0M_0M0 (только фон), M1M_1M1 (фон + сигнал с параметром μ\muμ). Фон известен.
- Задачи:
1. Частотный подход: постройте статистику λ=−2ln⁡L(M0)L(M1)\lambda=-2\ln\frac{L(M_0)}{L(M_1)}λ=2lnL(M1 )L(M0 ) , оцените p-value и сделайте вывод по порогу.
2. Байесовский подход: вычислите отношение правдоподобий (Bayes factor) B10=p(D∣M1)p(D∣M0)B_{10}=\frac{p(D|M_1)}{p(D|M_0)}B10 =p(DM0 )p(DM1 ) , где p(D∣M1)=∫L(D∣μ)π(μ) dμp(D|M_1)=\int L(D|\mu)\pi(\mu)\,d\mup(DM1 )=L(Dμ)π(μ)dμ.
3. Сравните решения для примеров с малым сигналом и/или большим числе параметров.
- На что смотреть: Bayes factor учитывает «оккамовскую» пенализацию сложных моделей через интегрирование по приору; p-value показывает несовместимость данных с M0M_0M0 при выбранной статистике, но не даёт прямой вероятности модели.
Упражнение 5 — учет систематических неопределённостей (нюансные параметры)
- Ситуация: фон bbb не точно известен, имеет измерение b0±σbb_0\pm\sigma_bb0 ±σb .
- Задачи:
1. В частотном подходе примените профилирование: постройте профилированный likelihood и найдите доверительные интервалы на μ\muμ (профильный метод; профилирование nuisance-параметра).
2. В байесовском подходе маргинализуйте по bbb: используйте априор π(b)∼N(b0,σb2)\pi(b)\sim\mathcal{N}(b_0,\sigma_b^2)π(b)N(b0 ,σb2 ) и найдите постерор p(μ∣D)=∫p(μ,b∣D) dbp(\mu|D)=\int p(\mu,b|D)\,dbp(μD)=p(μ,bD)db.
3. Сравните результаты и интерпретации.
- На что смотреть: профилирование даёт интервалы, которые можно интерпретировать частотно; маргинализация естественна в байесе и учитывает неопределённость интегрированием. При сильной систематике различия могут быть существенными.
Практические указания
- Для вычислений используйте: аналитические формулы (биномиальная, бета-постериор), численную интеграцию, MCMC (для сложных постериоров) и генерацию псевдоданных для оценки покрытия частотных интервалов.
- Проверяйте покрытие частотных интервалов численными симуляциями: для заданной истинной μ\muμ сгенерируйте много реализаций, постройте интервалы и посчитайте долю, покрывающих истинное значение.
- Сравнивайте длину интервалов, сдвиг оценок, зависимость от приора, устойчивость к систематическим отклонениям.
Краткое резюме: когда различия велики
- Малая статистика (малые nnn, редкие события): байесовские результаты чувствительны к приору; частотные интервалы могут быть консервативны или неинтуитивны.
- Параметры на границе допустимого множества (например, μ≥0\mu\ge0μ0): частотные методы требуют аккуратной конструкции (Feldman–Cousins); байесовские результаты сильно зависят от приора у границы.
- Наличие неисследованных или сложных nuisance-параметров: различие между профилированием и маргинализацией.
- Выбор моделей/сравнение моделей: Bayes factor и p-value сравнивают разные вещи; байесовский подход автоматически учитывает сложность модели через интеграл по приору.
- Информативные априоры (экспертные знания): байесовский вывод изменится, частотный — нет (размер выборки может нивелировать эффект при большого объёма данных).
Интерпретация выводов
- Частотный доверительный интервал 90%: «процедура, повторяемая многократно, в 90% случаев даст интервал, содержащий истинное значение».
- Байесовский 90%-доверительный (credible) интервал: «при данном априоре вероятность того, что параметр лежит в интервале, равна 90%».
- P-value: мера несовместимости данных с нулевой гипотезой, не даёт вероятности той гипотезы.
- Bayes factor: отношение правдоподобий моделей — прямо соотносится с поддержкой данных в пользу одной модели против другой, но зависит от выбора приоров.
Рекомендации для студентов
- Всегда указывайте использованные приоры и проверяйте чувствительность к ним.
- Делайте симуляции покрытия для частотных методов.
- Для реальных экспериментов сравнивайте оба подхода и объясняйте различия в интерпретациях и практических следствиях.
Полезные формулы (для реализации)
- Poisson likelihood: L(μ)=(μ+b)ne−(μ+b)n!\displaystyle L(\mu)=\frac{(\mu+b)^n e^{-(\mu+b)}}{n!}L(μ)=n!(μ+b)ne(μ+b) .
- Байесовский постерор: p(μ∣n)∝L(μ) π(μ)\displaystyle p(\mu|n)\propto L(\mu)\,\pi(\mu)p(μn)L(μ)π(μ).
- Binomial posterior с Beta-приором Beta(α,β)\mathrm{Beta}(\alpha,\beta)Beta(α,β): p(p∣k)∝pk+α−1(1−p)N−k+β−1\displaystyle p(p|k)\propto p^{k+\alpha-1}(1-p)^{N-k+\beta-1}p(pk)pk+α1(1p)Nk+β1.
- Bayes factor: B10=∫L(D∣θ1,M1)π(θ1∣M1) dθ1∫L(D∣θ0,M0)π(θ0∣M0) dθ0\displaystyle B_{10}=\frac{\int L(D|\theta_1,M_1)\pi(\theta_1|M_1)\,d\theta_1}{\int L(D|\theta_0,M_0)\pi(\theta_0|M_0)\,d\theta_0}B10 =L(Dθ0 ,M0 )π(θ0 M0 )dθ0 L(Dθ1 ,M1 )π(θ1 M1 )dθ1 .
- Ликелихуд-рациональная статистика: λ=−2ln⁡L(M0)L(M1)\displaystyle \lambda=-2\ln\frac{L(M_0)}{L(M_1)}λ=2lnL(M1 )L(M0 ) .
Если нужно, могу подготовить готовые скрипты (Python/NumPy/SciPy) для каждого упражнения и примеры ожидаемых численных результатов.
5 Дек в 12:23
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир