Исследуйте правовое регулирование цифровой сферы: кейс из ЕС по применению правил об удалении контента и обязанности платформ — какие критерии соизмеримости и процедурные гарантии необходимы, чтобы защитить свободу выражения и одновременно бороться с дезинформацией и вредным контентом
Коротко — кейс и правовая логика, затем практические критерии и гарантии. Кейс (пример из ЕС) - C‑18/18 Glawischnig‑Piesczek (CJEU, 2019): суд признал допустимым судебный запрет, требующий удаления конкретных высказываний и их «идентичных» реплик в интернете, но поставил чёткие ограничения: запрет должен быть точным по содержанию и объёму, не превращаться в общую обязанность мониторинга (несовместимо с директивой об электронной коммерции), и по возможности предусматривать процессуальные гарантии. - Вспомогательные ориентиры: Scarlet/Netlog (C‑70/10 и C‑360/10) — запрет общему мониторингу; Google Spain (C‑131/12) — баланс между правом на защиту данных и свободой выражения; Delfi AS v. Estonia (ЕСПЧ, 2015) — допустимость ответственности площадки в зависимости от степени редакционного контроля и доступных средств удаления контента. Критерии соизмеримости (что требует закон/суд) 1. Законность и законная цель — мера должна опираться на правовую норму и защищать признанные интересы (публичная безопасность, защита чести/право на неприкосновенность приватной жизни, предотвращение преступлений, защита демократии). 2. Необходимость — удаление/блокировка должна быть необходимой для достижения легитимной цели; если есть менее ограничительные способы (фейк‑фактчекинг, пометки, демотивация распространения), они предпочтительнее. 3. Адекватность (пригодность) — мера реально должна снижать вред (оценка по доказательствам/оценка риска). 4. Наименее ограничительная альтернатива — выбирать меры, минимально ограничивающие свободу выражения (геоблокировка, пометки о недостоверности, снижение видимости вместо удаления). 5. Пропорциональность в узком смысле — соотношение тяжести вмешательства и степени вреда; для политической/журналистской речи порог защиты выше. 6. Конкретность и ограниченность по времени/объёму — задание конкретных URL/выражений, временные рамки, запрет на универсальные/постоянные фильтры. 7. Учет роли площадки и размера — обязательства сильнее для платформ с редакционным контролем/влиятельных VLOP, слабее для чистых канальных посредников. Процедурные гарантии (что обязаны обеспечить суды/регуляторы/платформы) 1. Прозрачное уведомление — пользователь должен получить понятное сообщение о причине удаления/блокировки, какие конкретно материалы и на каком основании. 2. Право на обжалование до и после удаления — оперативная внутренняя жалоба и независимый внешний/судебный механизм с возможностью восстановления контента. 3. Человеческая проверка существенных решений — автоматические инструменты допустимы для первичного отбора, но окончательное решение о сложных/политических материалах — человеком; для массовых автоматов — аудит ошибок и контрольные пороги ошибок. 4. Публичные объяснения и аудит — прозрачные отчёты платформы (количественные показатели, причины, алгоритмические критерии) и независимые аудиты, особенно для VLOP. 5. Узкие формулировки судебных/административных предписаний — конкретные ссылки на удаляемые материалы (URL, текст), запрет на «удалять всё похожее» без критериев, временные лимиты. 6. Презумпция защиты политической и общественно значимой речи — повышенная защита для журналистики, критики власти, научной дискуссии. 7. Процедуры экстренной реакции с последующей проверкой — возможность немедленно ограничить доступ при реальной и неминуемой опасности, но с быстрым последующим пересмотром. 8. Сохранение доказательств и журналирования — логи действий платформы, чтобы обеспечить прозрачность и право на пересмотр. 9. Соблюдение других прав (данные, запрет дискриминации) — оценки влияния на права и минимизация побочных последствий. Практическая реализация в нормативе ЕС - Digital Services Act (DSA) воспроизводит многие из этих требований: уведомления и прозрачность, внутренние жалобы, механизмы внешнего обжалования и аудит для крупнейших платформ, требование оценки системного риска дезинформации и мер по минимизации вреда, запрет общих мониторинговых обязательств без процессуальных гарантий. Вывод (суть) - Чтобы сочетать защиту свободы выражения и борьбу с дезинформацией, меры по удалению должны быть правомерны, конкретны, доказательно обоснованы, пропорциональны и временно/тематически ограничены; при этом нужны надёжные процессуальные гарантии: уведомление, человеческая экспертиза в спорных вопросах, доступ к обжалованию, прозрачность и независимый контроль. Судебная практика ЕС (Glawischnig, Scarlet, Google Spain, Delfi) и DSA задают рамки, по которым любые меры должны проходить проверку по перечисленным критериям.
Кейс (пример из ЕС)
- C‑18/18 Glawischnig‑Piesczek (CJEU, 2019): суд признал допустимым судебный запрет, требующий удаления конкретных высказываний и их «идентичных» реплик в интернете, но поставил чёткие ограничения: запрет должен быть точным по содержанию и объёму, не превращаться в общую обязанность мониторинга (несовместимо с директивой об электронной коммерции), и по возможности предусматривать процессуальные гарантии.
- Вспомогательные ориентиры: Scarlet/Netlog (C‑70/10 и C‑360/10) — запрет общему мониторингу; Google Spain (C‑131/12) — баланс между правом на защиту данных и свободой выражения; Delfi AS v. Estonia (ЕСПЧ, 2015) — допустимость ответственности площадки в зависимости от степени редакционного контроля и доступных средств удаления контента.
Критерии соизмеримости (что требует закон/суд)
1. Законность и законная цель — мера должна опираться на правовую норму и защищать признанные интересы (публичная безопасность, защита чести/право на неприкосновенность приватной жизни, предотвращение преступлений, защита демократии).
2. Необходимость — удаление/блокировка должна быть необходимой для достижения легитимной цели; если есть менее ограничительные способы (фейк‑фактчекинг, пометки, демотивация распространения), они предпочтительнее.
3. Адекватность (пригодность) — мера реально должна снижать вред (оценка по доказательствам/оценка риска).
4. Наименее ограничительная альтернатива — выбирать меры, минимально ограничивающие свободу выражения (геоблокировка, пометки о недостоверности, снижение видимости вместо удаления).
5. Пропорциональность в узком смысле — соотношение тяжести вмешательства и степени вреда; для политической/журналистской речи порог защиты выше.
6. Конкретность и ограниченность по времени/объёму — задание конкретных URL/выражений, временные рамки, запрет на универсальные/постоянные фильтры.
7. Учет роли площадки и размера — обязательства сильнее для платформ с редакционным контролем/влиятельных VLOP, слабее для чистых канальных посредников.
Процедурные гарантии (что обязаны обеспечить суды/регуляторы/платформы)
1. Прозрачное уведомление — пользователь должен получить понятное сообщение о причине удаления/блокировки, какие конкретно материалы и на каком основании.
2. Право на обжалование до и после удаления — оперативная внутренняя жалоба и независимый внешний/судебный механизм с возможностью восстановления контента.
3. Человеческая проверка существенных решений — автоматические инструменты допустимы для первичного отбора, но окончательное решение о сложных/политических материалах — человеком; для массовых автоматов — аудит ошибок и контрольные пороги ошибок.
4. Публичные объяснения и аудит — прозрачные отчёты платформы (количественные показатели, причины, алгоритмические критерии) и независимые аудиты, особенно для VLOP.
5. Узкие формулировки судебных/административных предписаний — конкретные ссылки на удаляемые материалы (URL, текст), запрет на «удалять всё похожее» без критериев, временные лимиты.
6. Презумпция защиты политической и общественно значимой речи — повышенная защита для журналистики, критики власти, научной дискуссии.
7. Процедуры экстренной реакции с последующей проверкой — возможность немедленно ограничить доступ при реальной и неминуемой опасности, но с быстрым последующим пересмотром.
8. Сохранение доказательств и журналирования — логи действий платформы, чтобы обеспечить прозрачность и право на пересмотр.
9. Соблюдение других прав (данные, запрет дискриминации) — оценки влияния на права и минимизация побочных последствий.
Практическая реализация в нормативе ЕС
- Digital Services Act (DSA) воспроизводит многие из этих требований: уведомления и прозрачность, внутренние жалобы, механизмы внешнего обжалования и аудит для крупнейших платформ, требование оценки системного риска дезинформации и мер по минимизации вреда, запрет общих мониторинговых обязательств без процессуальных гарантий.
Вывод (суть)
- Чтобы сочетать защиту свободы выражения и борьбу с дезинформацией, меры по удалению должны быть правомерны, конкретны, доказательно обоснованы, пропорциональны и временно/тематически ограничены; при этом нужны надёжные процессуальные гарантии: уведомление, человеческая экспертиза в спорных вопросах, доступ к обжалованию, прозрачность и независимый контроль. Судебная практика ЕС (Glawischnig, Scarlet, Google Spain, Delfi) и DSA задают рамки, по которым любые меры должны проходить проверку по перечисленным критериям.