3:45 «рыцарский роман какого-нибудь Вальтера Скотта»
Аргх, нет! Вальтер Скотт — основоположник жанра исторического романа. Рыцарские романы писал Кретьен де Труа. Это разные жанры, их смешивать совсем нежелательно.
Как определить, какое из решений в неоднозначной ситуации правильное?
А причем тут ошибки к неоднозначным ситуациям? Либо ты изучаешь ситуацию достаточно, чтобы сделать её однозначной (при условии, что система способна сделать такой анализ в экстремальной ситуации в заданный промежуток времени) или ты подбрасываешь монетку.
Некоторые ситуации кажутся неоднозначными, пока они существуют в вакууме воспалённого этикой воображения и ты не начнёшь учитывать инерцию, скольжение, массу, человеческий фактор, его отсутствие и так далее.
Не правильное, а такое, за которое не осудят. То есть до выбора «сбить преступника или возможно не пустую коляску» не дойдет, т.к. включится тупое выполнение буквы закона.
Тебе нужно убедить достаточное количество людей, что оно "правильнее". А это можно сделать кучей разных способов, зависящих от обстоятельств и убеждаемых.
Решение — согласно ПДД подать звуковой сигнал и начать торможение с безопасной интенсивностью. Логи с камер и лидаров есть, законное обоснование решений есть — в чем проблема?
Если тот, кто научил машину поступать именно так, а не иначе попадёт под суд — хреново быть им*. Но производителю главное, чтобы их машины не запретили.
*Смотри про систему решений настолько продвинутую, что что сами создатели не будут понимать её до конца и статистику о том, что эта система делает меньше ошибок, чем люди.
Поэтому пока надежность автопилота не будет досаточной — его будут юридически оформлять как driving assistance, который помогает вести машину, хотя не может предвидеть всех ситуаций и поэтому водитель должен все время держать руки на руле и следить за дорогой.
И пока никого из Теслы не посадили за то что водитель заснул, а автопилот не распознал грузовик с высокой посадкой как препятствие.
Никак. Нужно пережить судебный скандал. Человеческие водители постоянно попадают в экстремальные ситуации, но машины никто не запрещает.
Зато человеческие водители регулярно попадают в суд. Потому что решение в экстремальной ситуации принимают они, а не машины.
А если принимать решение будет автомобиль, то, очевидно, ответственным за это решение будет тот, кто научил ее поступать именно так, а не иначе.
Ничего сложного: не существует ситуаций в ПДД где водитель обязан убить себя или подвергнуть свою жизнь опасности для спасения другого участника движения.
То есть если нет возможности объехать внезапного пешехода — хреново быть им. А логи автопилота надежнее свидетельства водителя покажут что объехать можно было или под грузовик, или через бетонный отбойник. Когда полноценный автопилот собъет насмерть первого пешехода — как раз судебных проблем будет меньше чем медиа-хайпа.
Никак. Нужно пережить судебный скандал. Человеческие водители постоянно попадают в экстремальные ситуации, но машины никто не запрещает. Почему? Потому, что все привыкли.
Для этого можно создать очень сложную систему алгоритмов принятия решений, настолько продвинутую, что сами создатели не будут понимать её до конца, много тестов и проверок, мнений экспертов. Но необходимости успешно пережить свой первый, второй и третий судебный скандал — это не отменяет. Потом все привыкнут.
При разработке автопилота для автомобиля «ненужные философы» не просто стали нужными — в их необходимость влепились с размаху.
Про необходимость философов в разработке начали задвигать люди, к разработке самих автопилотов имеющие отношение весьма опосредованное. Автопилот будет соблюдать закон — раз и обеспечивать сохранность пассажира — два. Иначе он будет экономически нецелесообразным, т.к. без первого его не пустят в мир, а без второго не купят.
«Конкретный коммерческий продукт» — это лишь конкретный коммерческий пример) В области разработки ИскИнов сейчас, например, начинают к той же этике обращаться.
Ну а «пару фундаментальных проблем» и в той же экономике неплохо бы решить.
Аргх, нет! Вальтер Скотт — основоположник жанра исторического романа. Рыцарские романы писал Кретьен де Труа. Это разные жанры, их смешивать совсем нежелательно.
Некоторые ситуации кажутся неоднозначными, пока они существуют в вакууме воспалённого этикой воображения и ты не начнёшь учитывать инерцию, скольжение, массу, человеческий фактор, его отсутствие и так далее.
Тебе нужно убедить достаточное количество людей, что оно "правильнее". А это можно сделать кучей разных способов, зависящих от обстоятельств и убеждаемых.
*Смотри про систему решений настолько продвинутую, что что сами создатели не будут понимать её до конца и статистику о том, что эта система делает меньше ошибок, чем люди.
И пока никого из Теслы не посадили за то что водитель заснул, а автопилот не распознал грузовик с высокой посадкой как препятствие.
А если принимать решение будет автомобиль, то, очевидно, ответственным за это решение будет тот, кто научил ее поступать именно так, а не иначе.
То есть если нет возможности объехать внезапного пешехода — хреново быть им. А логи автопилота надежнее свидетельства водителя покажут что объехать можно было или под грузовик, или через бетонный отбойник. Когда полноценный автопилот собъет насмерть первого пешехода — как раз судебных проблем будет меньше чем медиа-хайпа.
Для этого можно создать очень сложную систему алгоритмов принятия решений, настолько продвинутую, что сами создатели не будут понимать её до конца, много тестов и проверок, мнений экспертов. Но необходимости успешно пережить свой первый, второй и третий судебный скандал — это не отменяет. Потом все привыкнут.
Про необходимость философов в разработке начали задвигать люди, к разработке самих автопилотов имеющие отношение весьма опосредованное. Автопилот будет соблюдать закон — раз и обеспечивать сохранность пассажира — два. Иначе он будет экономически нецелесообразным, т.к. без первого его не пустят в мир, а без второго не купят.
Ну а «пару фундаментальных проблем» и в той же экономике неплохо бы решить.