Рассмотрите практическую кейс‑ситуацию: алгоритм автономного автомобиля вынужден выбирать между риском смерти пешехода и риском смерти пассажира — какие этические теории (утилитаризм, деонтология, теория добродетелей) предлагают разные решения, как их обосновать и какие социальные и юридические последствия может иметь внедрение каждого подхода

8 Окт в 11:48
5 +2
0
Ответы
1

Классическая «троллейбусная» ситуация для автономного автомобиля AVAVAV — выбирать между смертью пешехода и смертью пассажира — хорошая иллюстрация того, как разные этические теории дают разные правила и почему выбор этики — не только философская, но и политико‑правовая задача. Ниже — кратко и по делу: как решают утилитаризм, деонтология и теория добродетелей, как это можно обосновать и какие общественные и правовые последствия влечёт каждый подход.

1) Утилитаризм максимизацияобщегоблагамаксимизация общего благамаксимизацияобщегоблага

Принцип: выбирать действие, которое минимизирует суммарный вред или максимизирует суммарное благосостояние например,минимизироватьожидаемоечислосмертейилисуммарнопотерянныхлетжизнинапример, минимизировать ожидаемое число смертей или суммарно потерянных лет жизнинапример,минимизироватьожидаемоечислосмертейилисуммарнопотерянныхлетжизни.Решение в кейсе: алгоритм жертвует тем, чей ущерб при выбранном действии в сумме меньше обычно—приноситменьшуюожидаемуюпотерюжизнейобычно — приносит меньшую ожидаемую потерю жизнейобычноприноситменьшуюожидаемуюпотерюжизней. В простом случае — если выбор между 1 пешеходом и 1 пассажиром — болезни/возраст/число людей/вероятности влияния будут учтены; если спасается больше людей ценой жизни одного — выбирают спасти больше.Обоснование: «наибольшее благо для наибольшего числа», приемлемо с точки зрения снижения общего числа жертв.Социальные последствия:
Плюсы: в долгосрочной перспективе может снижать суммарное число смертей экономияжизнейэкономия жизнейэкономияжизней, укреплять аргумент в пользу AV как безопасной технологии.Минусы: общественное негодование из‑за «калькуляции» человеческой жизни; риск дискриминации людисменьшей«ценностью»сточкизренияутилитариста—старики,инвалиды,бедные—могутчаще«терять»люди с меньшей «ценностью» с точки зрения утилитариста — старики, инвалиды, бедные — могут чаще «терять»людисменьшей«ценностью»сточкизренияутилитаристастарики,инвалиды,бедныемогутчаще«терять».Культурные различия: исследования например,«MoralMachine»например, «Moral Machine»например,«MoralMachine» показывают, что в разных странах разные представления об «оптимальном» выборе — сложность принятия единого правила.Правовые последствия:
Производители/разработчики могут быть привлечены к ответственности, если алгоритм признан разумным стандартом заботы еслиутилитарныйалгоритмофициальнорекомендован/законодательноразрешён—рискответственностиснижаетсяесли утилитарный алгоритм официально рекомендован/законодательно разрешён — риск ответственности снижаетсяеслиутилитарныйалгоритмофициальнорекомендован/законодательноразрешёнрискответственностиснижается.Если законодательство противоречит утилитарному правилу например,запретнадискриминациюнапример, запрет на дискриминациюнапример,запретнадискриминацию, возможны уголовные и гражданские претензии. Потребуются стандарты и регуляция для определения допустимой логики.

2) Деонтология правилаиобязанности,уважениеправличностиправила и обязанности, уважение прав личностиправилаиобязанности,уважениеправличности

Принцип: действия оцениваются по соблюдению моральных правил/прав человека, а не по итоговому суммарному благу. Нельзя использовать человека только как средство для достижения цели.Варианты конкретизации:
Строгий деонтолог КантКантКант: нельзя целенаправленно убить невиновного, даже если это спасёт больше людей; правило может быть «не причинять прямого вреда пассажиру ради выгоды третьих лиц».Другой вариант: соблюдение прав собственности/контракта — пассажир дал согласие на поездку в авто implicitconsentimplicit consentimplicitconsent, пешеход не дал — значит преимущество у пассажира.Решение в кейсе: алгоритм может всегда защищать пассажира или,наоборот,защищатьпешеходакакболееуязвимогоили, наоборот, защищать пешехода как более уязвимогоили,наоборот,защищатьпешеходакакболееуязвимого, но главное — следовать фиксированному правилу, не участвовать в «целенаправленных» убийствах.Обоснование: уважение к личности, запрет на превращение кого‑то в средство; ясные, предсказуемые правила.Социальные последствия:
Плюсы: воспринимается как более «этичный» в плане уважения прав, проще психологически для пользователей пассажирыбудутчувствоватьсебязащищённымипассажиры будут чувствовать себя защищённымипассажирыбудутчувствоватьсебязащищёнными.Минусы: может приводить к большим суммарным потерям еслиправилонегибкоеесли правило не гибкоееслиправилонегибкое, создаёт потенциальную несправедливость в отдельных случаях например,жертвовать10ради1запрещенонапример, жертвовать 10 ради 1 запрещенонапример,жертвовать10ради1запрещено.Политическая привлекательность: многие избиратели поддержат защиту собственных прав; но пострадавшие пешеходы/их семьи будут требовать защиты.Правовые последствия:
Чёткие правила проще имплементировать и контролировать запретнаалгоритмическое«сортирование»похарактеристикамзапрет на алгоритмическое «сортирование» по характеристикамзапретнаалгоритмическое«сортирование»похарактеристикам.Если правило защищает пассажира, производители и операторы безопаснее с точки зрения гражданской ответственности; если правило требует защиты пешехода, владельцы AV могут быть привлечены чаще.Законодатели могут прямо определить приоритеты например,запретнацеленаправленноепринесениевжертвупассажиранапример, запрет на целенаправленное принесение в жертву пассажиранапример,запретнацеленаправленноепринесениевжертвупассажира, что снимет неопределённость.

3) Теория добродетелей этикахарактераиблагоразумияэтика характера и благоразумияэтикахарактераиблагоразумия

Принцип: решения должны исходить из добродетельного характера агента проектировщика,инженера,обществапроектировщика, инженера, обществапроектировщика,инженера,общества: благоразумие, справедливость, сострадание, ответственность.Решение в кейсе: не формируется жёсткое арифметическое правило; алгоритм будет запрограммирован в духе добродетелей — стремиться минимизировать вред, проявлять уважение к уязвимым, учитывать контекст, избегать предвзятости. Большое внимание — на благоразумное проектирование предотвращениеситуацийпредотвращение ситуацийпредотвращениеситуаций, внимательность к последствиям.Обоснование: правильное поведение — то, что выражает добродетельный характер; доверие и ответственность важнее простого подсчёта.Социальные последствия:
Плюсы: может увеличить общественное доверие, если разработчики и регуляторы демонстрируют добросовестность и прозрачность; гибкость в сложных ситуациях.Минусы: неопределённость и субъективность; сложно стандартизировать и судить в суде; риск, что фирма заявляет «добродетельность», но на практике действует произвольно.Правовые последствия:
Потребует процедурных стандартов: обязательная прозрачность разработки, аудит, демонстрация добросовестности compliance‑programcompliance‑programcomplianceprogram, стандарты качества.В суде аргумент «я действовал благоразумно» может быть полезен, но недостаточен без документированных процессов и внешней проверки.

Дополнительные практические и регулятивные соображения общиедлявсехподходовобщие для всех подходовобщиедлявсехподходов

Реальная ситуация — не дилемма «всё или ничего», а модель с вероятностями и степенью риска. Алгоритм должен работать на уменьшение ожидаемого вреда в целом аневредкихкрайнихсценарияха не в редких крайних сценарияханевредкихкрайнихсценариях.Опасность «настроек морали»: позволять владельцу выбирать «режим» жалобныйпассажир‑сактивистжалобный пассажир‑сактивистжалобныйпассажирсактивист создаст рыночные внешние эффекты и несправедливость; также риски манипулирования злоумышленниксоздаётсценарийдляспасенияпассажиразлоумышленник создаёт сценарий для спасения пассажиразлоумышленниксоздаётсценарийдляспасенияпассажира.Необходимы регуляторные стандарты: минимальная прозрачность, требования не дискриминировать по полу/расе/инвалиду, требование регистрационных журналов blackboxblack boxblackbox, стандарты испытаний.Юридическая ответственность: текущие институты produkцtliability,negligence,strictliability,уголовнаяответственностьзаумышленноеубийствоprodukцt liability, negligence, strict liability, уголовная ответственность за умышленное убийствоprodukцtliability,negligence,strictliability,уголовнаяответственностьзаумышленноеубийство будут адаптироваться; законодатели могут установить «безопасные гавани» для производителей при соблюдении стандартов.Страхование и компенсация: создание фондов компенсации пострадавшим, обязательное страхование операторов AV, регулирование размеров компенсаций.Политический и культурный контекст: общественное принятие AV сильно зависит от ощущения справедливости алгоритмов. Исследования показывают, что люди предпочитают правила, которые равномерно защищают уязвимых и не позволяют «торговать» жизнью по социальному статусу.

Рекомендации по внедрению прагматическийвыводпрагматический выводпрагматическийвывод

Не полагаться на одну теорию в чистом виде. Практически целесообразна гибридная политика:
Регуляторно закрепить базовые деонтологические запреты например,запретнадискриминациюповозрасту/полу/инвалидности;запретнапредоставлениевладельцамправа«переключать»моральныережимынапример, запрет на дискриминацию по возрасту/полу/инвалидности; запрет на предоставление владельцам права «переключать» моральные режимынапример,запретнадискриминациюповозрасту/полу/инвалидности;запретнапредоставлениевладельцамправа«переключать»моральныережимы.Использовать утилитарные элементы для оптимизации безопасности в целом минимизациярискаисуммарногочислажертвминимизация риска и суммарного числа жертвминимизациярискаисуммарногочислажертв при соблюдении базовых правил.Внедрять процессные требования в духе добродетелей: прозрачность, аудит, отчётность, демонстрация добросовестности разработчиков.Установить судебно‑регуляторные механизмы: стандарты испытаний, обязанность логирования решений, механизм компенсации и страхования, чёткая ответственность производитель/операторпроизводитель/операторпроизводитель/оператор.Вовлекать общество в выбор правил демократическаялегитимациядемократическая легитимациядемократическаялегитимация, учитывать культурные различия и проводить публичные консультации.

Коротко: утилитаризм — ориентирован на суммарное снижение жертв, но рискует дискриминацией и общественным отторжением; деонтология — чёткие правила и защита прав большепредсказуемостибольше предсказуемостибольшепредсказуемости, но может быть неэффективна в массах; добродетельная перспектива — делает акцент на благоразумии и доверии, но требует прозрачных процедур и рискована в плане стандартизации. Лучший практический путь — законодательно закреплённый гибрид: базовые деонтологические защиты + утилитарные меры безопасности + процедурные требования добросовестности и прозрачности.

8 Окт в 16:07
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Гарантированные бесплатные доработки в течение 1 года
Быстрое выполнение от 2 часов
Проверка работы на плагиат
Поможем написать учебную работу
Прямой эфир