Массачусетский технологический институт просит помощи в том, чтобы научить самоуправляемые автомобили, как поступать в сложных моральных ситуациях. С помощью базы из ответов обычных людей машины смогут лучше понимать, что делать, когда нужно выбрать из двух зол.
Для этого на специальном сайте Moral Machine всем желающим предлагают делать выбор между двумя вариантами автокатастрофы, в которую гипотетически может попасть управляемая компьютером машина.
«Чем больше автономности получает искусственный интеллект, тем чаще это будет приводить к ситуации, когда им придется делать выбор, влияющий на человеческие жизни»
, – объясняют в Массачусетском технологическом.По замыслу организаторов, сайт позволит создать базу человеческих мнений по поводу ситуаций на дороге, с которыми потенциально может столкнуться компьютер. Это поможет самоуправляемым автомобилям принимать верные решения.
Пользователям предлагают, например, решить, кого придется задавить: женщину-медика и женщину с лишним весом или мужчину-медика и мужчину с лишним весом. В другой модели выбирать нужно между отбойником и гибелью двух пассажиров, а также столкновением с пятью разными гражданами, которые переходят дорогу на красный. В списке персонажей также животные, бездомные, пенсионеры, атлеты, преступники, беременные и другие.
Кроме того, исследователи предлагают самим конструировать вероятные моральные дилеммы, чтобы расширить базу возможных вариантов событий.
Напомним, что лидером в сфере беспилотных автомобилей считается Google. Несколько десятков их машин уже наездили в тестовом режиме более миллиона километров. При этом 14 февраля 2016 года автопилот впервые оказался виновен в аварии: автомобиль Lexus RX450h столкнулся с муниципальным автобусом при попытке объехать несколько мешков с песком на проезжей части. Пострадавших не было.