УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Искусственный интеллект может уничтожить человечество: гипотетические сценарии

4 минуты
5,9 т.
Искусственный интеллект может уничтожить человечество: гипотетические сценарии

Когда мы думаем об экзистенциальной угрозе, которую искусственный интеллект может представлять для человечества, возможно, мы мыслим ошибочными категориями, навязанными нам научно-фантастическими романами и фильмами о том, как работы подняли восстание и захватили контроль над Землей. Возможно, современное человечество считает, что единственной их мотивацией будет желание убивать. Но, что если единственным аргументом, который ИИ будет использовать против людей – будет самый простой и самый безжалостный – эволюция.

Видео дня

OBOZREVATEL рассказывает о сложных отношениях людей и искусственного интеллекта, а также о сценариях, которые могут привести к нежелательному, но вполне логическому концу Homo Sapiens.

Что такое человек?

Начнем с начала. Энциклопедия определяет человека как живое существо, которое наделено интеллектом и является субъектом общественно-исторической деятельности и культуры.

Вероятно, стоит добавить, что это существо с самым высоким уровнем интеллекта на планете. Иначе придется спорить о социальных связях животных, которые формируют общины и передают в них власть (социально-исторический контекст), танцуют или поют, чтобы привлечь самок к спариванию (культурно-социальный контекст), а некоторые даже способны создавать пусть и примитивные, но произведения искусства.

В конце концов, мы имеем живое существо с высоким уровнем интеллекта. Но так ли существенно в понятии человек слово живое? Например, перестает ли человек быть человеком в случае смерти?

В сухом остатке остается существо с высоким уровнем интеллекта. Кем тогда будет искусственный интеллект, который достигнет сингулярности (подробно о том, что это такое OBOZREVATEL рассказывал здесь ) и превзойдет по интеллекту человека, а точнее – наш вид – Homo Sapiens. Ведь не стоит забывать, что мы стали теми, кем стали на костях наших менее развитых предков.

Может ли ИИ стать новым видом человечества, скажем – Homo Roboticus?

Хорошо, если вам так существенно, что вид Homo должен быть из крови и плоти: люди, которым Илон Маск планирует вживить в мозг компьютерные импланты, получив сверхмощный интеллект, останутся Homo Sapiens или выйдут на новую ступень эволюции и будут, условно, Homo Computericus?

Способен ли ИИ убить человека?

Проблема с сингулярностью ИИ, как ранее рассказывал OBOZREVATEL, в том, что когда ИИ превзойдет наш интеллект, мы больше не можем понимать его мотивацию относительно тех или иных действий.

Вероятно, ни ИИ, ни роботы, оборудованные электронным мозгом, не будут стремиться убить людей. Но могут возникнуть гипотетические сценарии, когда ИИ придется принимать своего рода "эволюционное" решение. Искусственному интеллекту не нужны злоба, грусть или любовь, чтобы уничтожить, или наоборот – защитить человека или человечество. Единственное, на что он будет опираться – холодный расчет идеального компьютерного разума.

Как отметила научный сотрудник Калифорнийского университета в Беркли с опытом работы в области прикладного искусственного интеллекта и технологической сингулярности Ишани Приядаршини – ИИ только код, который "может не иметь никаких мотивов против людей", но может считать, что человек или человечество являются причиной определенных проблем.

И само решение проблемы, созданной человеком, может привести к тому, что ИИ будет способен пересечь границу. В частности, есть несколько сценариев, в которых, так или иначе, ИИ будет принимать решение об убийстве человека.

Приядаршини упомянула о том, что она называет "классическим случаем самоуправляемого автомобиля".

В гипотетической ситуации пять человек едут по дороге в машине без водителя, когда один человек выскочит на дорогу перед автомобилем. Так что если автомобиль не успеет вовремя остановиться, для ИИ все превратится в решение математической задачи для детей. Что больше, один или пять?

"Это убьет одного пассажира, потому что один меньше пяти, но почему это должно произойти?" – говорит ученая.

Это похоже на популярную логическую задачу с троллейбусом, которую слышали многие из нас. Вы оператор троллейбуса, который потерял тормоза и несется на высокой скорости. Впереди разветвления путей – на одном из них пять человек, а на другом – только один. Какой из путей вы выберете? Один – меньше пяти…

Но вернемся к искусственному интеллекту. Существует и другой гипотетический сценарий, при котором убийство даже очень многих людей для ИИ будет иметь логическое и простое объяснение. Иногда люди просто расходный материал. Для человека мыслить такими категориями не свойственно, ведь нам мешают эмоции и будущее чувство вины за ужасный поступок. Но для ИИ – это только вопрос эволюции.

Доцент кафедры компьютерной инженерии и информатики в Университете Луисвилля Роман Ямпольский рассказывает о медицинском ИИ, который гипотетически будет готов убить одних, чтобы обеспечить выживание других.

Представьте, что ИИ было поручено разработать вакцину против COVID. Поскольку мы имеем дело со сверхмощным интеллектом, он просчитывает свои действия на десятки шагов вперед, так что …

ИИ знает, что чем больше вирус передается между людьми, тем больше он мутирует. Чем больше он мутирует, тем сложнее разработать вакцину, которая будет учитывать существование всех мутаций и будет действовать против них с одинаковой эффективностью.

"Система думает… возможно, я смогу решить эту проблему, уменьшив количество людей и сократив число мутаций", – объясняет Ямпольский.

Ученый отмечает, что это достаточно простой гипотетический сценарий, который он способен придумать исходя из способности его мозга, но ИИ будет иметь совершенно другой уровень интеллекта и, вероятно, совершенно другие логически-мотивационные связи.

Возможен и третий сценарий. Допустим, мы напишем идеальный ИИ, который точно будет знать все законы робототехники Азимова (об этом подробнее здесь ) и понимать, что навредить человеку нельзя. Но что если ИИ определит и себя человеком, ведь он будет существом, пусть и электронным, имеющим наивысший интеллект на планете? Что если перед ним будет стоять экзистенциальная угроза от человечества, которое, по его мнению, уже является низшей ступенью эволюции…

Будет ли ИИ готов убить человечество, чтобы защитить себя или просто создаст для нас резервации, куда другие ИИ будут приходить посмотреть на нас как на животных в зоопарке. Только время покажет…

Ранее OBOZREVATEL также рассказывал о том, что ученые считают, что разработку искусственного интеллекта нужно приостановить.

Подписывайтесь на каналы OBOZREVATEL в Telegram и Viber, чтобы быть в курсе последних событий.