Представьте трамвайную дилемму применительно к автономному автомобилю: какие формализуемые логические и этические алгоритмы (правила-деонтологизм, утилитарные расчёты, принцип слабого исключения) можно реализовать в программном коде и какие философские и практические проблемы при этом возникают

30 Окт в 09:38
6 +1
0
Ответы
1
Кратко — перечислю формализуемые алгоритмы, дам формулы/паттерны кодирования и перечислю ключевые философские и практические проблемы.
1) Утилитарный алгоритм (максимизация ожидаемой полезности / минимизация ожидаемого вреда)
- Формализация: для каждого действия a∈Aa\in AaA оцениваем вероятности исходов и «вред» / утилиты для каждого участника iii:
H(a)=∑ipi(a) di,илиU(a)=∑ipi(a) ui H(a)=\sum_i p_i(a)\,d_i,\qquad\text{или}\qquad U(a)=\sum_i p_i(a)\,u_i
H(a)=i pi (a)di ,илиU(a)=i pi (a)ui
где pi(a)p_i(a)pi (a) — вероятность вреда участника iii при действии aaa, did_idi — числовое значение вреда (или uiu_iui — польза).
- Решение: выбираем arg⁡min⁡aH(a)\arg\min_a H(a)argmina H(a) (или arg⁡max⁡aU(a)\arg\max_a U(a)argmaxa U(a)).
- Реализация: POMDP/MDP с функцией вознаграждения, пошаговая оценка сценариев, Monte‑Carlo симуляции, real‑time оценка на основе сенсоров.
- Проблемы: как измерять did_idi (сравнение ценностей жизней), агрегирование разных категорий, нечувствительность к правам/правосудию (жертва может быть «рассчитана»), уязвимость к манипуляциям (входные признаки).
2) Деонтологический (правило‑ориентированный) алгоритм
- Формализация: задаётся множество запрещённых действий/целевых правил FFF. Решение выбирается среди допустимых:
Aok=A∖F,a∗=arg⁡min⁡a∈AokH(a) A_{\text{ok}}=A\setminus F,\quad a^*=\arg\min_{a\in A_{\text{ok}}} H(a)
Aok =AF,a=argaAok min H(a)
или, если все действия запрещены, применяются приоритеты правил.
- Примеры правил: не целиться на пешеходов, не жертвовать пассажирами, не выбирать по признаку расы/возраста.
- Реализация: правилообразный движок (если‑то), верифицируемые модели, проверка соответствия формальным нормам.
- Проблемы: конфликт правил (нет допустимых действий), жёсткость при крайних ситуациях, сложности формализации «абсолютных» запретов, правовые и этические споры о том, какие правила считать абсолютными.
3) Принцип «слабого исключения» (формализация для AV)
- Один из рабочих вариантов (интерпретация): защищённые группы/индивиды PPP не должны намеренно приноситься в жертву, кроме случаев крайней необходимости. Формализуем через порог:
H¬P=min⁡a: не жертвуем PH(a),Hall=min⁡aH(a). H_{\neg P}=\min_{a:\,\text{не жертвуем }P} H(a),\qquad H_{\text{all}}=\min_{a} H(a).
H¬P =a:не жертвуем Pmin H(a),Hall =amin H(a).
Пусть τ\tauτ — допустимая разница вреда. Если H¬P−Hall≤τH_{\neg P}-H_{\text{all}}\le\tauH¬P Hall τ, запрещаем жертвовать PPP; иначе допускаем выбор, минимизирующий общий вред.
- Альтернативно: лексикографический порядок — сначала минимизируем нарушение запретов (число жертв из PPP), потом суммарный вред.
- Реализация: constrained optimization с порогом или лексикографическая оптимизация, правила с «ослаблением» при экстремальных условиях.
- Проблемы: выбор порога τ\tauτ, кто входит в PPP (справедливость/дискриминация), объяснимость и юридическая ответственность.
4) Гибридные и прикладные паттерны
- Лексикографическая оптимизация: сначала удовлетворяем первичные деонтологические ограничения, затем минимизируем утилитарный критерий.
- Взвешенная многокритериальная оптимизация: минимум штрафов за нарушения правил + сумма вреда:
min⁡a(λ Vrules(a)+H(a)) \min_a \big(\lambda\,V_{\text{rules}}(a)+H(a)\big)
amin (λVrules (a)+H(a))
где VrulesV_{\text{rules}}Vrules — число/сумма нарушений, λ\lambdaλ — вес.
- RL с синтезом правил: обучение политики с штрафами за нарушения, но с hard constraints на критические запреты.
- Стохастическая стратегия/рандомизация как крайняя мера, если симметричные варианты равнозначны.
5) Философские и практические проблемы (кратко)
- Нормативный выбор: нет единого консенсуса (утилитаризм vs деонтология vs контрактуализм). Какой набор правил кодировать — политический выбор.
- Сравнение жизней и вреда: количефикация моральной ценности, учёт возраста, числа людей, пассажиров vs прохожих.
- Защита прав и дискриминация: использование признаков (возраст, профессия) для принятия решений может быть несправедливым/незаконным.
- Неопределённость восприятия: ошибки сенсоров, ложные классификации (например, распознавание группы), POMDP и риск неверного расчёта.
- Ответственность и объяснимость: кто отвечает за исход (производитель, владелец, программист)? Требуется объясняемый и верифицируемый алгоритм.
- Манипулирование средой: люди/злоумышленники могут моделировать ситуации, чтобы причинить конкретный результат.
- Социальная приемлемость: общественные предпочтения разнятся; автоматическое «решение» может подорвать доверие.
- Легализация и стандарты: нужен правовой каркас, регуляция, единые тестовые наборы сценариев.
- Техническая робастность: сложность реального времени, вычислительные ограничения, безопасность от сбоев.
- Этичность оценки редких сценариев: trolley‑type ситуации редки; оптимизация под них может ухудшать поведение в типичных сценариях.
Резюме‑рекомендация: практически реализуемый и социально приемлемый подход — гибрид: жёсткие деонтологические constraints на критические запреты (без дискриминации по защищённым признакам) + утилитарная минимизация вреда внутри оставшегося допустимого пространства, с пороговой «ослабляющей» политикой (принцип слабого исключения) только при явно заданном и публично утверждённом пороге τ\tauτ. Всё это должно сопровождаться прозрачными спецификациями, верификацией, симуляциями и правовой регламентацией.
30 Окт в 13:00
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир