Массачусетський технологічний інститут просить допомоги у тому, щоб навчити самокеровані автомобілі, як діяти у складних моральних ситуаціях. За допомогою бази з відповідей звичайних людей машини зможуть краще розуміти, що робити, коли потрібно вибирати з двох зол.
Для цього на спеціальному сайті Moral Machine всім бажаючим пропонують робити вибір між двома варіантами автокатастрофи, в яку гіпотетично може потрапити керована комп'ютером машина.
«Чим більше автономності отримує штучний інтелект, тим частіше це буде призводити до ситуації, коли їм доведеться робити вибір, впливає на людські життя»
, – пояснюють в Массачусетському технологічному.За задумом організаторів, сайт дозволить створити базу людських думок з приводу ситуацій на дорозі, з якими потенційно може зіткнутися комп'ютер. Це допоможе самокерованим автомобілів приймати вірні рішення.
Користувачам пропонують, наприклад, вирішити, кого доведеться задавити: жінку-медика і жінку із зайвою вагою або чоловіка-медика і чоловіка із зайвою вагою. В іншій моделі вибирати потрібно між відбійником і загибеллю двох пасажирів, а також зіткненням з п'ятьма різними громадянами, які переходять дорогу на червоний. У списку персонажів також тварини, бездомні, пенсіонери, атлети, злочинці, вагітні та інші.
Крім того, дослідники пропонують самим конструювати ймовірні моральні дилеми, щоб розширити базу можливих варіантів подій.
Нагадаємо, що лідером у сфері безпілотних автомобілів вважається Google. Кілька десятків машин вже наїздили в тестовому режимі більше мільйона кілометрів. При цьому 14 лютого 2016 року автопілот вперше виявився винен в аварії: автомобіль Lexus RX450h зіткнувся з муніципальним автобусом при спробі об'їхати кілька мішків з піском на проїжджій частині. Постраждалих не було.