В супермаркетах готовятся переписывать цены на популярный овощ: чего ждать украинцам
В Украине идут снег и морозы: синоптик назвала дату серьезного похолодания
Во многих регионах будет сильный ветер и налипание мокрого снега
Разнообразные искусственные интеллекты (от чат-ботов до нейросетей и автопилотов в авто), стремительно увлекающие мир, кажутся для человечества развлечением и чем-то, что улучшит нашу жизнь в недалеком будущем. Но, вероятно, когда ИИ достигнет сингулярности, людям может не поздоровиться.
Об этом говорится в материале издания Popular Mechanics, которое пообщалось с отраслевыми экспертами. Они также рассказали, как не превратить искусственный интеллект в врага.
Эксперты предполагают, что момент сингулярности может наступить уже к 2030 году. После этого искусственный интеллект превзойдет человеческий и вычислить последствия его деятельности будет очень сложно.
Что такое сингулярность
Сингулярность – это момент, когда машинный интеллект сравнится с человеческим или превзойдет его. Эту концепцию в свое время рассматривали Стивен Гокинг, Билл Гейтс и другие ученые. В частности, английский математик Алан Тьюринг еще в 50-х годах разработал тест Тюринга, который имел целью выяснить, способны ли машины мыслить самостоятельно и смогут ли они выйти на такой уровень общения, когда человек не будет способен понять, говорит ли с ИИ или с другим человеком. ChatGPT уже доказал, что ИИ способен поддерживать разговор на уровне человека.
Докторантка Калифорнийского университета в Беркли Ишане Приядаршини объясняет, что главная проблема с ИИ состоит в том, что его интеллект фактически неограничен, в то время как интеллект человека – фиксированный, поскольку мы не можем просто добавить себе больше памяти, чтобы стать умнее.
Когда может быть достигнута сингулярность?
Эксперты считают, что заявления о скором достижении сингулярности, в лучшем случае, спекулятивны. Приядаршини считает, что сингулярность уже существует по кусочкам, но момент, когда ИИ превзойдет человеческий интеллект полностью, наступит еще не скоро. Тем не менее, моменты сингулярности люди уже видели. Как тогда, когда в 1997 году суперкомпьютер IBM Deep Blue впервые победил шахматиста-человека – чемпиона мира по шахматам Гарри Каспарова.
Эксперты предполагают, что говорить о достижении сингулярности можно будет тогда, когда ИИ сможет переводить язык на том же уровне или лучше, чем человек.
Однако Приядаршини считает, что лучшим показателем того, что ИИ стал умнее людей, будет тот момент, когда машины начнут понимать мемы, которые сейчас для них недостижимы.
Что произойдет, когда ИИ достигнет сингулярности?
Проблема в том, что люди слишком "тупые", чтобы предположить, что произойдет, если ИИ получит суперинтеллект. Чтобы сделать прогнозы, нам нужен человек, у которого также будет суперинтеллект. Поэтому человечество может только спекулировать по поводу последствий сингулярности, используя наш нынешний уровень интеллекта.
"Вы должны быть по крайней мере столь же разумны, чтобы быть способными предположить, что сделает система... если мы говорим о системах, которые умнее человека (суперразумные), то для нас невозможно предусмотреть изобретения или решения", – заявил доцент кафедры компьютерной инженерии и информатики в Университете Луисвилля Роман Ямпольский.
Что касается того, может ли ИИ стать врагом для человека, то, как считает Приядаршини, здесь тоже сложно делать прогнозы. Все будет зависеть от того, не будет ли в его коде противоречий.
"Мы хотим самоуправляемые автомобили, мы просто не хотим, чтобы они проезжали на красный свет и сталкивались с пассажирами", – говорит Приядаршини, объясняя, что плохой код может заставить ШИ рассматривать проезд на красный свет и людей как самый эффективный способ вовремя добраться до места назначения.
По ее словам, исследователи ИИ знают, что мы не можем на 100% устранить предвзятость из кода, поэтому создать совершенно беспристрастный ИИ, не способный сделать ничего плохого, будет непростой задачей.
Может ли ИИ навредить людям?
Пока у ИИ нет чувств, поэтому он руководствуется только собственными знаниями. Так что, вероятно, в ближайшее время он не станет неуправляемым и не попытается убежать из-под контроля человека просто потому, что у него нет такой мотивации.
Однако, как объясняет Ямпольский, неуправляемость ИИ может возникнуть в результате того, как он будет создан человеком и какие парадоксы могут образоваться в его коде.
"У нас нет способа выявить, измерить или оценить, переживают ли системы внутренние состояния... Но это и не нужно для того, чтобы они стали очень способными и очень опасными", – пояснил ученый.
Приядаршини также поддерживает коллегу, утверждая, что единственная причина, которая может привести к бунту ИИ – противоречивость кода.
"Он (ШИ. – Ред.) может не иметь никаких мотивов против людей, но машина, которая считает, что человек является первопричиной определенных проблем, может думать именно так", – пояснила ученая.
Однако, если ИИ станет достаточно разумным для самоосознания и получит внутренние чувства, возможно, у него найдется мотив для того, чтобы недолюбливать человечество.
Опять же, плохо поставленная задача может привести к непреднамеренному убийству. В качестве примера Ямпольский приводит ситуацию, когда ИИ попросят создать вакцину для людей против условного COVID.
Система будет знать, что чем больше людей заболеет COVID, тем больше вирус будет мутировать, что усложнит разработку вакцины для всех вариантов.
"Система думает... возможно, я смогу решить эту проблему, уменьшив количество людей, поэтому вирус не сможет мутировать так сильно",– говорит ученый, предполагая, что ИИ, не имеющий понятия нравственности, может выбрать более эффективное решение, даже если оно повредит части людей.
Как мы можем предотвратить катастрофу сингулярности?
Мы никогда не сможем избавить искусственный интеллект от всех его неизвестных. Это непреднамеренные побочные эффекты, которые люди не могут предвидеть, поскольку не обладают суперинтеллектом.
"Мы действительно смотрим на сингулярность, которая приведет к появлению множества машин-изгоев. Если она достигнет точки невозврата, это уже нельзя будет исправить", – предупреждает Приядаршини.
Ранее OBOZREVATEL также рассказывал о том, что для искусственного интеллекта необходимо создать четвертый закон робототехники "Азимова".
Подписывайтесь на каналы OBOZREVATEL в Telegram и Viber, чтобы быть в курсе последних событий.
Ты еще не читаешь наш Telegram? А зря! Подписывайся
Во многих регионах будет сильный ветер и налипание мокрого снега
Это мечтательный уголок Франции с обильными сельскими рынками и отсутствием толпы
Здесь высок уровень преступности, поэтому есть риск потерять вещи и деньги