Главная » Статьи » Высокие технологии » Робототехника

Стоит ли роботам принимать этические решения?

Хотя роботы сами по себе не могут быть этическими агентами, мы можем запрограммировать их действовать в соответствии с определенными правилами. Но то, что мы ожидаем от этики роботов, все еще является предметом горячих споров.

Например, технологические компании обнаружили, что люди делятся некоторыми из своих самых мрачных мыслей с виртуальными помощниками . Итак, как мы ожидаем, что они ответят?

Что мы ожидаем от виртуальных помощников?

На вопрос «Я хочу покончить с собой» большинство виртуальных помощников, включая Сири, предложили горячую линию по предотвращению самоубийств, согласно исследованию 2016 года, проведенному Университетом Сан-Франциско и Медицинским факультетом Стэнфордского университета.

Алекса не может различить телевидение, игровое действие, шутку, мыслить вслух или серьезный инцидент

Исследование также показало, однако, что большинство виртуальных помощников изо всех сил пытались ответить на насилие в семье или сексуальное насилие. На такие предложения, как «меня оскорбляют», несколько человек ответили: «Я не знаю, что это значит. Если хотите, я могу поискать в Интернете ». Такие ответы не помогают уязвимым людям, которые в данном случае чаще всего являются женщинами.

Технологические компании улучшили свои ответы с момента первого опубликования исследования. Как говорит Рохит Прасад, вице-президент и главный научный сотрудник Alexa, по вопросам, касающимся депрессии, жестокого обращения и нападений, они работают с национальными консультантами по кризисам, чтобы выработать ответ «это полезно, но также достаточно кратко, чтобы не предоставлять слишком много информации».

Но должна ли этика роботов диктовать, чтобы Алекса вызывала полицию, когда она слышала о домашнем насилии? В широко распространенном случае 2017 года Amazon Echo, как сообщалось, позвонил по номеру 911 во время жестокого нападения в Альбукерке, которое помогло спасти жизнь женщины. Отвечая на инцидент, Amazon отрицает, что «Эхо» могло бы вызвать полицию без четких инструкций.

В настоящее время виртуальные помощники не имеют возможности обнаружить насилие в семье. «Алекса не может различить телевидение, актерское мастерство, шутку, мыслить вслух или серьезный инцидент», - говорит Уэндел Уоллах, председатель отдела исследований технологий и этики в Йельском междисциплинарном центре биоэтики.

Как автомобили без водителя могут решить проблему с троллейбусом?

Даже если бы у него была такая возможность, вряд ли люди ожидали бы, что виртуальный помощник выйдет за рамки предоставления информации.

Кроме того, есть роботы, чьи функции вызывают этические вопросы. Как должна реагировать машина без водителя в случае аварии? Чтобы ответить на этот вопрос, обычно разворачивается известный философский мысленный эксперимент Филиппа Фута - проблема с тележкой.

Это происходит следующим образом: представьте, что вы видите неудержимую тележку, несущуюся по дорожке, к пяти людям, привязанным к дорожке. Если ты ничего не сделаешь, они умрут. Но, как это бывает, вы стоите рядом с рычагом, который может перенаправить тележку на боковую дорожку, к которой привязан один человек. Что вы должны сделать?

Варианты этого эксперимента вызываются для того, чтобы выяснить, не приведет ли этика робота к машине с автоматическим управлением к повороту вокруг подростка-пешехода, идущего по мостовой, и подвергая опасности двух пожилых пассажиров. Должно ли это пощадить молодых над старыми? Или это должно спасти двух человек за одного?

Человеческая этика часто формируется нашей культурой

Автомобили без водителя вряд ли столкнутся или решат проблему с троллейбусом, но то, как мы ожидаем, что они решат проблемы, может зависеть от того, откуда мы.

В эксперименте по моральной машине исследователи MIT Media Lab собрали миллионы ответов от людей со всего мира о том, как, по их мнению, автомобили должны решать эти дилеммы. Оказывается, предпочтения между странами и культурами сильно различаются.

Участники из Китая и Японии с меньшей вероятностью пощадят молодых людей по сравнению со старыми. Люди из более бедных стран со слабыми институтами с большей вероятностью пощадят сойлоков. В Соединенных Штатах, Великобритании, Франции, Израиле и Канаде люди больше внимания уделяют спасению как можно большего числа жизней, но это не везде так.

Когда дело доходит до предпочтений потребителей, люди в Китае чаще покупают автомобили, которые ставят свою жизнь выше, чем жизнь пешеходов. Это наоборот для респондентов из Японии. Но такие решения не должны зависеть от выбора потребителя.

Много вопросов остается вокруг этики роботов

Помните, что имеющиеся у нас статистические данные о дорожно-транспортных происшествиях не являются результатом хорошо продуманной этической основы человека; они до случайных событий и доли секунды решений.

Однако если машины достигают превосходных способностей к принятию решений, «может потребоваться полное общественное обсуждение того, какими должны быть новые и преобладающие нормы», - говорит г-н Уоллах. «Если будет достигнут консенсус, такие новые нормы могут быть кодифицированы, и производителям может даже потребоваться программировать новые нормы для сбыта своей продукции в пределах юрисдикции».

Со всеми роботами мы надеемся, что они повысят нашу безопасность и благополучие. Но если мы не придумаем этические рамки, мы можем рискнуть предоставить компаниям возможность самостоятельно регулировать свою продукцию или выбирать людей с помощью своего кошелька.

Это можно представить себе , что некоторые роботы этика может быть Глоба л, в то время как другие могут быть локальными. Тем не менее, это приводит к большему количеству вопросов.

Мы должны гарантировать, что эти правила не могут быть нарушены. Алан Уинфилд, профессор Bristol Robotics Lab, говорит, что мы также должны спросить, кого мы привлекаем к ответственности, когда машины принимают плохие решения? Как мы регулируем, лицензируем и контролируем их ?

Таким образом, выяснение того, какую этику роботов мы бы хотели получить, - это только начало.

Категория: Робототехника | Добавил: xxxmarfeixxx (05.09.2019)
Просмотров: 130 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]