Рассмотрите вероятностную задачу: две монеты (возможно поддельные) подбрасываются по очереди; как определить, какая монета честная, если известно распределение результатов, и какие статистические тесты или оценки параметров наиболее информативны при малом числе бросков?
Задача. Пусть две монеты бросаются по очереди; для монеты iii получено nin_ini бросков и kik_iki орлов (i=1,2i=1,2i=1,2). Одна из монет честная (p=1/2p=1/2p=1/2), другая имеет неизвестную вероятность орла p≠1/2p\neq 1/2p=1/2. Нужно определить, какая честная, при малом числе бросков. Ключевые замечания и достаточная статистика - Достаточная статистика: пары счётов (k1,n1)(k_1,n_1)(k1,n1) и (k2,n2)(k_2,n_2)(k2,n2). - MLE для каждой монеты: p^i=ki/ni\hat p_i = k_i/n_ip^i=ki/ni. Методы и формулы (кратко) 1) Логарифмическое отношение правдоподобия (LRT) между двумя моделями - Модель AAA: монета 1 честная (p1=1/2p_1=1/2p1=1/2), монета 2 с неизвестным p2p_2p2. - Модель BBB: монета 2 честная (p2=1/2p_2=1/2p2=1/2), монета 1 с неизвестным p1p_1p1. - Максимальное правдоподобие при свободном параметре даёт p^i\hat p_ip^i. - Отношение правдоподобия (выбирать модель с большей правдоподобностью): Λ=L(A)L(B)=2 n2−n1 p^2 k2(1−p^2) n2−k2p^1 k1(1−p^1) n1−k1.
\Lambda=\frac{L(A)}{L(B)} =2^{\,n_2-n_1}\,\frac{\hat p_2^{\,k_2}(1-\hat p_2)^{\,n_2-k_2}}{\hat p_1^{\,k_1}(1-\hat p_1)^{\,n_1-k_1}}. Λ=L(B)L(A)=2n2−n1p^1k1(1−p^1)n1−k1p^2k2(1−p^2)n2−k2.
Если Λ>1\Lambda>1Λ>1, поддерживается "монета 1 честная"; иначе — монета 2. 2) Байесовский подход (рекомендуется при малых n) - Ввести априор для неизвестного смещения, напр. Beta(α,β)\operatorname{Beta}(\alpha,\beta)Beta(α,β) (униформная α=β=1\alpha=\beta=1α=β=1 или Джеффрея α=β=1/2\alpha=\beta=1/2α=β=1/2). - Маргинальная вероятность при модели AAA (монета1 честна): mA=(n1k1)(12)n1⋅(n2k2)B(k2+α,n2−k2+β)B(α,β).
m_A=\binom{n_1}{k_1}\Big(\tfrac12\Big)^{n_1}\cdot \frac{\binom{n_2}{k_2}B(k_2+\alpha,n_2-k_2+\beta)}{B(\alpha,\beta)}. mA=(k1n1)(21)n1⋅B(α,β)(k2n2)B(k2+α,n2−k2+β).
Аналогично для mBm_BmB. Байес-фактор BF=mA/mBBF=m_A/m_BBF=mA/mB; затем апостериорная вероятность модели: Pr(A∣данные)=mAπAmAπA+mBπB\Pr(A\mid\text{данные})=\frac{m_A\pi_A}{m_A\pi_A+m_B\pi_B}Pr(A∣данные)=mAπA+mBπBmAπA. - Преимущество: аккуратно работает при маленьких выборках, даёт вероятности и интервалы неопределённости. 3) Точные критерии и интервалы - Для каждой монеты можно выполнить точный биномиальный тест проверки H0:p=1/2H_0:p=1/2H0:p=1/2 (Clopper–Pearson интервалы для pip_ipi). Если для одной монеты 0.50.50.5 входит в доверительный интервал, а для другой — нет, это сильное свидетельство. - При небольших nnn асимптотические z‑тесты/хи‑квадрат ненадёжны; предпочтительны точные тесты (биномиальный, Fisher’s exact для сравнения долей) или Barnard's exact (чаще мощнее, но сложнее). 4) Последовательные и оптимальные критерии при малом бюджете бросков - SPRT (sequential probability ratio test) позволяет экономно накапливать доказательства и принимать решение как только отношение правдоподобий достигает порога. - Для заранее заданной минимально существенной разницы d=∣p−1/2∣d=|p-1/2|d=∣p−1/2∣ оценка требуемого числа бросков (приближенно, нормальное приближение): n≈z1−α/22⋅0.25d2
n\approx\frac{z_{1-\alpha/2}^2\cdot 0.25}{d^2} n≈d2z1−α/22⋅0.25
(здесь z1−α/2z_{1-\alpha/2}z1−α/2 — квантиль нормального распределения для уровня значимости). Практические рекомендации при малом числе бросков - Используйте счётные статистики (ki,ni)(k_i,n_i)(ki,ni) — это всё, что нужно. - Для финального решения предпочтительны (в порядке приоритета для малого nnn): 1. Байесовский анализ с невозмутимым/Джеффрея априори — даёт апостериорные вероятности моделей и интервалы. 2. Точный биномиальный тест по каждой монете и сравнение (или Fisher/Barnard при разных nin_ini). 3. LRT/отношение правдоподобий как быстрый критерий (но не интерпретировать асимптотически χ^2 при очень малых n). - Если важна экономия бросков — применяйте SPRT или последовательный байесовский выбор. Краткое решение-правило для данных (k1,n1),(k2,n2)(k_1,n_1),(k_2,n_2)(k1,n1),(k2,n2)
- Вычислить p^i=ki/ni\hat p_i=k_i/n_ip^i=ki/ni. - Вычислить LRT Λ\LambdaΛ или байес-фактор BFBFBF (формулы выше). - Выбрать модель с большей правдоподобностью / апостериорной вероятностью; при малом n дополнительно смотреть точные биномиальные p‑значения и доверительные интервалы для pip_ipi. Если нужно, могу привести пример расчёта (LRT и байес-фактор) для конкретных чисел k1,n1,k2,n2k_1,n_1,k_2,n_2k1,n1,k2,n2.
Ключевые замечания и достаточная статистика
- Достаточная статистика: пары счётов (k1,n1)(k_1,n_1)(k1 ,n1 ) и (k2,n2)(k_2,n_2)(k2 ,n2 ).
- MLE для каждой монеты: p^i=ki/ni\hat p_i = k_i/n_ip^ i =ki /ni .
Методы и формулы (кратко)
1) Логарифмическое отношение правдоподобия (LRT) между двумя моделями
- Модель AAA: монета 1 честная (p1=1/2p_1=1/2p1 =1/2), монета 2 с неизвестным p2p_2p2 .
- Модель BBB: монета 2 честная (p2=1/2p_2=1/2p2 =1/2), монета 1 с неизвестным p1p_1p1 .
- Максимальное правдоподобие при свободном параметре даёт p^i\hat p_ip^ i .
- Отношение правдоподобия (выбирать модель с большей правдоподобностью):
Λ=L(A)L(B)=2 n2−n1 p^2 k2(1−p^2) n2−k2p^1 k1(1−p^1) n1−k1. \Lambda=\frac{L(A)}{L(B)}
=2^{\,n_2-n_1}\,\frac{\hat p_2^{\,k_2}(1-\hat p_2)^{\,n_2-k_2}}{\hat p_1^{\,k_1}(1-\hat p_1)^{\,n_1-k_1}}.
Λ=L(B)L(A) =2n2 −n1 p^ 1k1 (1−p^ 1 )n1 −k1 p^ 2k2 (1−p^ 2 )n2 −k2 . Если Λ>1\Lambda>1Λ>1, поддерживается "монета 1 честная"; иначе — монета 2.
2) Байесовский подход (рекомендуется при малых n)
- Ввести априор для неизвестного смещения, напр. Beta(α,β)\operatorname{Beta}(\alpha,\beta)Beta(α,β) (униформная α=β=1\alpha=\beta=1α=β=1 или Джеффрея α=β=1/2\alpha=\beta=1/2α=β=1/2).
- Маргинальная вероятность при модели AAA (монета1 честна):
mA=(n1k1)(12)n1⋅(n2k2)B(k2+α,n2−k2+β)B(α,β). m_A=\binom{n_1}{k_1}\Big(\tfrac12\Big)^{n_1}\cdot
\frac{\binom{n_2}{k_2}B(k_2+\alpha,n_2-k_2+\beta)}{B(\alpha,\beta)}.
mA =(k1 n1 )(21 )n1 ⋅B(α,β)(k2 n2 )B(k2 +α,n2 −k2 +β) . Аналогично для mBm_BmB . Байес-фактор BF=mA/mBBF=m_A/m_BBF=mA /mB ; затем апостериорная вероятность модели: Pr(A∣данные)=mAπAmAπA+mBπB\Pr(A\mid\text{данные})=\frac{m_A\pi_A}{m_A\pi_A+m_B\pi_B}Pr(A∣данные)=mA πA +mB πB mA πA .
- Преимущество: аккуратно работает при маленьких выборках, даёт вероятности и интервалы неопределённости.
3) Точные критерии и интервалы
- Для каждой монеты можно выполнить точный биномиальный тест проверки H0:p=1/2H_0:p=1/2H0 :p=1/2 (Clopper–Pearson интервалы для pip_ipi ). Если для одной монеты 0.50.50.5 входит в доверительный интервал, а для другой — нет, это сильное свидетельство.
- При небольших nnn асимптотические z‑тесты/хи‑квадрат ненадёжны; предпочтительны точные тесты (биномиальный, Fisher’s exact для сравнения долей) или Barnard's exact (чаще мощнее, но сложнее).
4) Последовательные и оптимальные критерии при малом бюджете бросков
- SPRT (sequential probability ratio test) позволяет экономно накапливать доказательства и принимать решение как только отношение правдоподобий достигает порога.
- Для заранее заданной минимально существенной разницы d=∣p−1/2∣d=|p-1/2|d=∣p−1/2∣ оценка требуемого числа бросков (приближенно, нормальное приближение):
n≈z1−α/22⋅0.25d2 n\approx\frac{z_{1-\alpha/2}^2\cdot 0.25}{d^2}
n≈d2z1−α/22 ⋅0.25 (здесь z1−α/2z_{1-\alpha/2}z1−α/2 — квантиль нормального распределения для уровня значимости).
Практические рекомендации при малом числе бросков
- Используйте счётные статистики (ki,ni)(k_i,n_i)(ki ,ni ) — это всё, что нужно.
- Для финального решения предпочтительны (в порядке приоритета для малого nnn):
1. Байесовский анализ с невозмутимым/Джеффрея априори — даёт апостериорные вероятности моделей и интервалы.
2. Точный биномиальный тест по каждой монете и сравнение (или Fisher/Barnard при разных nin_ini ).
3. LRT/отношение правдоподобий как быстрый критерий (но не интерпретировать асимптотически χ^2 при очень малых n).
- Если важна экономия бросков — применяйте SPRT или последовательный байесовский выбор.
Краткое решение-правило для данных (k1,n1),(k2,n2)(k_1,n_1),(k_2,n_2)(k1 ,n1 ),(k2 ,n2 ) - Вычислить p^i=ki/ni\hat p_i=k_i/n_ip^ i =ki /ni .
- Вычислить LRT Λ\LambdaΛ или байес-фактор BFBFBF (формулы выше).
- Выбрать модель с большей правдоподобностью / апостериорной вероятностью; при малом n дополнительно смотреть точные биномиальные p‑значения и доверительные интервалы для pip_ipi .
Если нужно, могу привести пример расчёта (LRT и байес-фактор) для конкретных чисел k1,n1,k2,n2k_1,n_1,k_2,n_2k1 ,n1 ,k2 ,n2 .