Дмитрий Горчаков. Немного атома и радио (nucl0id) wrote,
Дмитрий Горчаков. Немного атома и радио
nucl0id

Categories:

Беспилотная машина морали



Прошел тут популярный тест от MIT по решению традиционного вопроса о том, кого в случае ЧП (отказ тормозов) следует спасать беспилотному автомобилю. Я терпеть не могу подобного рода моральные дилеммы, ибо не мне решать кому ижитьа кому умирать, но тут решил поучаствовать, поскольку проект призван поспособствовать делу прогресса, а не развлекать или пощекотать нервы. В конце концов, возможно от нашего выбора когда-то будет зависеть, как будут вести себя беспилотники и как общество будет одобрять их действия.

Ссылка на тест тут - тут
Ссылка на мой результат - тут

На самом деле выбор делать было несложно (за исключением двух случаев, о которых будет сказано ниже). Я как-то уже писал, что проблема выбора спасения пассажира или пешехода надумана. Тут мне кается очевидным, что машина должна спасать пассажира, иначе, грубо говоря, нафига вообще эти авто нужны и зачем в них садиться, если ты знаешь, что в случае ЧП она может сделать выбор не в твою пользу. Полбеды если это авто не твое. Но вот покупать себе в собственность такую бомбу замедленного действия люди наверняка не захотят.

При прохождении этого теста понял, что могу сформулировать еще два принципа, наличие которых сильно отличает мой выбор от выбора большинства (видимо в большинстве своем люди считают приемлемым заложить в машину деление людей на более и менее полезных, в том числе и в принятие решения о том кому жить а кому умереть). Во-первых, принцип невмешательства. Я практически всегда выбирал вариант продолжения прямолинейного движения в случае поломки, просто потому что не считаю правильным закладывать в алгоритм машины осознанное убийство. Т.е. когда она выбирает что убить следует не тех, кто случайно оказался у нее на пути, а других, которых следует убить лишь сделав активный поворот в их сторону. Карму и судьбу никто не отменял. Поломки авто нужно исключать, чтобы они не становились причиной смертельных ДТП, но, если уж отказ случился, то кто попался под колеса, тому и не повезло.

Второй принцип, вытекающий из первого – я не делю людей на полезных и бесполезных по какому-либо признаку – полу, возрасту, профессии. Т.е. если для спасения условной беременной женщины нужно повернуть и убить двух стариков, то нет, не надо. Это и из принципа невмешательства вытекает. Но и в случае если у машины на пути оказалось несколько человек, то для их спасения не стоит поворачивать и убивать лишь. Просто потому что это будет осознанное и расчетливое убийство, пусть и в благих целях. Несмотря на это, наиболее спасаемым персонажем у меня получилась именно беременная женщина. Но это явно случайно.

При всем этом в результатах теста было показано, что я гораздо чаще остальных выбирал варианты, которые предписывают действия в рамках законов и ПДД. Ну, тут я как-то не сомневался, хоть за этим и не следил.
Было лишь два сложных случая, над которыми мне пришлось задуматься и которые не укладывались в простую логику вышеописанных принципов. Первый, когда пришлось выбрать между тремя преступниками (как машина будет их вычислять?) и тремя другими людьми (не важно какими). Пришлось согласиться, что если будут некие очевидные признаки того что человек преступник, то осознанный выбор и вмешательство можно сделать.

Второй сложный случай, когда пришлось выбирать между группой людей и группой животных. Увы, при всей моей любви к животным, я не думаю, что в алгоритмы поведения беспилотного авто на дороге стоит приравнивать жизни человека и животного. Хотя при прочих равных, животных надо спасать всеми доступными способами, если только это не угрожает жизни людей.

Tags: лытдыбр, техника, это интересно
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 4 comments