Что будет, когда ИИ будет принимать решения за нас?

62

Искусственный интеллект (ИИ) уже принимает решения в сферах бизнеса, здравоохранения и производства. Но алгоритмы ИИ обычно дополняются регулированием со стороны человека. Что произойдет, когда ИИ будет принимать независимые решения, которые могут означать жизнь или смерть для человека?

Поп-культура долгое время отражала общее недоверие к ИИ. В научно-фантастическом фильме 2004 года «Я, робот» детектив Дель Спунер (играет Уилл Смит) с подозрением относится к роботам после того, как один из них спас его в автокатастрофе, а 12-летнюю девочку оставили тонуть. Он говорит : «Я был логичным выбором. Подсчитано, что у меня был 45% шанс на выживание. У Сары только 11%. Это был чей-то ребенок. 11% более чем достаточно. Человек бы знал это».

AI

Иллюстрация pixabay

В отличие от людей, у роботов отсутствует моральная основа, они следуют запрограммированной в них «этике». В то же время человеческая мораль очень разнообразна. «Правильный» поступок в любой ситуации будет зависеть от того, кого вы спрашиваете. Чтобы машины могли полностью раскрыть свой потенциал, мы должны убедиться, что они ведут себя этично. Возникает вопрос: как этика разработчиков и инженеров ИИ влияет на решения, принимаемые ИИ?

Как ИИ принимает решения?

Представьте будущее с автономными беспилотными транспортными средствами. Если все работает, как задумано, утренняя поездка на работу даст возможность подготовиться к дневным встречам, узнать новости или расслабиться. Но если что-то пойдет не так? Автомобиль приближается к светофору и внезапно тормоза выходят из строя, компьютеру приходится принимать решение. Он может врезаться в ближайший столб и убить пассажира или продолжить движение и убить идущего пешехода.

Компьютер, управляющий автомобилем, будет иметь доступ только к ограниченной информации, собранной с помощью автомобильных датчиков и должен будет принять решение на основе этих данных. Каким бы драматичным это ни казалось, мы всего в нескольких годах от того, чтобы потенциально столкнуться с такими дилеммами. Автономные автомобили, как правило, обеспечивают более безопасное вождение, но аварии неизбежны, особенно в обозримом будущем, когда эти автомобили будут делить дороги с водителями-людьми и другими участниками дорожного движения.

Tesla пока не производит полностью автономные автомобили, хотя планирует это сделать. В ситуациях столкновения автомобили Tesla не включают и не отключают систему автоматического экстренного торможения, если все под контролем водителя-человека. Вместо этого, если автомобиль обнаруживает потенциальное столкновение, он отправляет предупреждение водителю, чтобы он принял соответствующие меры.

Тесла

Иллюстрация pctown.co.nz

Однако, в режиме «автопилот» автомобиль должен автоматически тормозить для пешеходов и потенциально может убить водителя. Но хотим ли мы, чтобы автономный автомобиль принял это решение? Что, если бы компьютер автомобиля мог оценить относительную «ценность» пассажира в машине и пешехода? Если бы его решение учитывало это значение, технически оно было бы просто анализом затрат и выгод.

Это может показаться грубым, но уже разрабатываются технологии, которые могут позволить этому случиться. Например, недавно переименованная компания Meta (ранее Facebook) имеет высоко развитое распознавание лиц, которое может легко идентифицировать людей на сцене. Если бы эти данные были включены в систему искусственного интеллекта автономного транспортного средства, алгоритм мог бы узнавать каждого человека и по базе оценивать жизнь в долларовом эквиваленте.

Моральная машина

В 2016 году, эксперты из Массачусетского технологического института провели эксперимент «Моральная машина», в котором предложили людям ответить на вопросы, которые должны решать автономные машины — например, пожертвовать пассажирами автомобиля или пешеходами. Результаты показали, что выбор зависел от разных факторов — начиная от страны проживания, до положения в обществе.

Такое агрегирование данных, хотя и не совсем развито, уже используется в китайской системе социального кредита, которая определяет, какие социальные права имеют люди. Индустрия здравоохранения — еще одна область, в которой в будущем ИИ будет принимать решения, которые могут спасти или навредить людям. Эксперты все чаще разрабатывают ИИ, чтобы обнаруживать аномалии в медицинских изображениях и помогать врачам определять приоритетность медицинской помощи.

Технизация науки

Иллюстрация pixabay

На данный момент последнее слово остается за врачами, но по мере того, как эти технологии становятся все более сложными и продвинутыми, что произойдет, если врач и алгоритм искусственного интеллекта не поставят один и тот же диагноз? Другой пример — автоматизированная система напоминаний о лекарствах. Как должна реагировать система, если пациент отказывается принимать лекарства? И как это влияет на автономию пациента и общую подотчетность системы?

Дроны и вооружение на базе ИИ также вызывают озабоченность с этической точки зрения, поскольку они могут принимать решение об убийстве. Существуют противоречивые мнения о том, следует ли полностью запретить или регулировать такие технологии. Например, использование автономных дронов можно ограничить наблюдением. Некоторые призывали к этичному программированию военных роботов.

Философские дилеммы

Было много философских споров относительно этических решений, которые должен будет принять ИИ. Но и самим людям часто трудно принимать решения, которые могут изменить жизнь. При оценке того, как мы реагируем на сложные жизненные ситуации, в одном исследовании сообщалось, что выбор человека может варьироваться в зависимости от ряда факторов, включая возраст, пол и культуру респондента.

Когда дело доходит до систем ИИ, процессы обучения алгоритмов имеют решающее значение для того, как они будут работать в реальном мире. На систему, разработанную в одной стране, могут влиять взгляды, политика, этика и мораль этой страны, что делает ее непригодной для использования в другой стране.

ИИ — это не «добро» или «зло». Эффект, который он окажет на людей, будет зависеть от разработчиков. Чтобы извлечь из этого максимальную пользу, некоторые призывают достичь консенсуса в отношении того, что мы считаем «этичным». Частные компании, общественные организации и исследовательские институты имеют свои собственные руководящие принципы этического ИИ. ООН призывает разработать глобальные инструменты установления стандартов, чтобы обеспечить глобальную этическую основу ИИ. Непонятно только как, если представления у всех разные, а этика и мораль — виртуальные, сиюминутные понятия в разных масштабах времени.

4.3/5 - (6 голосов)
Нашли ошибку в текстах? Выделите слово с ошибкой мышкой и нажмите Ctrl и Enter.
Предыдущая статьяСеул испытывает роботов Alpha Mini в детских садах
Следующая статьяSkoda представила проект своего луномобиля