УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Штучний інтелект може знищити людство: гіпотетичні сценарії

4 хвилини
5,7 т.
Штучний інтелект може знищити людство: гіпотетичні сценарії

Коли ми думаємо про екзистенційну загрозу, яку штучний інтелект може становити для людства, можливо ми мислимо помилковими категоріями, нав'язаними нам науково-фантастичними романами та фільмами про те, як роботи здійняли повстання і захопили контроль над Землею. Можливо сучасне людство вважає, що єдиною їхньою мотивацією буде бажання вбивати. Але, що коли єдиним аргументом, який використовуватиме ШІ проти людей – буде найпростіший і найбільш безжальний – еволюція.

OBOZREVATEL розповідає про складні стосунки людей та штучного інтелекту, а також про сценарії, які можуть призвести до небажаного, але цілком логічного кінця Homo Sapiens.

Що таке людина?

Почнемо з початку. Енциклопедія визначає людину, як живу істоту, що наділена інтелектом та є суб'єктом суспільно-історичної діяльності і культури.

Ймовірно, варто додати, що це істота із найвищим рівнем інтелекту на планеті. Інакше, доведеться сперечатися про соціальні зв'язки тварин, які формують общини і передають у них владу (соціально-історичний контекст), танцюють чи співають, аби заохотити самиць до спарювання (культурно-соціальний контекст), а деякі навіть здатні створювати нехай і примітивні, але витвори мистецтва. Тож врешті решт ми маємо живу істоту із найвищим рівнем інтелекту. Але чи так суттєво в понятті людина слово жива? Наприклад, чи перестає людина бути людиною в разі смерті?

У сухому залишку залишається істота із найвищим рівнем інтелекту. То ким тоді буде штучний інтелект, який досягне сингулярності (детально про те, що це таке OBOZREVATEL розповідав тут) і перевершить за інтелектом людину, а точніше – наш вид – Homo Sapiens. Адже, не варто забувати, що ми стали тими, ким стали на кістках наших менш розвинених предків.

Тож чи може ШІ стати новим видом людства, скажімо, – Homo Roboticus?

Гаразд, якщо вам так суттєво, що вид Homo має бути із крові та плоті: люди, яким Ілон Маск планує вживити в мозок комп'ютерні імпланти, отримавши надпотужний інтелект залишаться Homo Sapiens чи вийдуть на новий щабель еволюції і будуть, умовно, Homo Computericus?

Чи здатен ШІ убити людини?

Проблема із сингулярністю ШІ, як раніше розповідав OBOZREVATEL, у тому, що коли ШІ перевершить наш інтелект, ми більше не здатні будемо розуміти його мотивацію щодо тих, чи інших дій.

Ймовірно, ні ШІ, ні роботи, обладнані електронним мозком, не прагнутимуть убити людей. Але можуть виникнути гіпотетичні сценарії, коли ШІ доведеться приймати свого роду "еволюційне" рішення. Штучному інтелекту не потрібні злість, сум чи любов, аби знищити, чи навпаки – захистити людину чи людство. Єдине на що він опиратиметься – холодний розрахунок ідеального комп'ютерного розуму.

Як зазначила науковий співробітник Каліфорнійського університету в Берклі з досвідом роботи в галузі прикладного штучного інтелекту та технологічної сингулярності Ішані Пріядаршіні – ШІ лише код, який "може не мати жодних мотивів проти людей", але може вважати, що людина чи людство є першопричиною певних проблем.

І саме вирішення проблеми, створеної людиною, може призвести до того, що ШІ буде здатен перетнути межу. Зокрема, є кілька сценаріїв, в яких так чи інакше ШІ прийматиме рішення про вбивство людини.

Пріядаршіні згадала те, що вона називає "класичним випадком самокерованого автомобіля".

У гіпотетичній ситуації п'ятеро людей їдуть по дорозі в машині без водія, коли одна людина вискочить на дорогу перед автомобілем. Тож якщо автомобіль не встигне вчасно зупинитися, для ШІ усе перетвориться на вирішення математичного завдання для дітей. Що більше, один чи п'ять?

"Це вб'є одного пасажира, тому що один менше, ніж п'ять, але чому це повинно статися?" – каже науковиця.

Це дещо схоже на популярну логічну задачу із тролейбусом, яку чули багато з нас. Ви оператор тролейбуса, який втратив гальма і мчить на високій швидкості. Попереду розгалуження колій – на одній із них п'ятеро людей, а на іншій – лише одна. Яку з колій ви оберете? Один – менше п'яти …

Але повернімося до штучного інтелекту. Існує й інший гіпотетичний сценарій, за якого вбивство навіть дуже багатьох людей для ШІ матиме логічне і просте пояснення. Іноді люди просто витратний матеріал. Для людини мислити такими категоріями не властиво, адже нам заважають емоції та майбутнє почуття провини за жахливий вчинок. Але для ШІ – це лише питання еволюції.

Доцент кафедри комп'ютерної інженерії та інформатики в Університеті Луїсвілля Роман Ямпольський розповідає про медичний ШІ, який гіпотетично буде готовий убити одних, аби забезпечити виживання інших.

Уявіть собі, що ШІ було доручено розробити вакцину проти COVID. Оскільки ми маємо справу із надпотужним інтелектом, він прораховує свої дії на десятки кроків наперед, тож …

ШІ знає, що чим більше вірус передається між людьми, тим більше він мутує. А чим більше він мутує, тим складніше розробити вакцину, яка враховуватиме існування усіх мутацій і діятиме проти них з однаковою ефективністю.

"Система думає ... можливо, я зможу вирішити цю проблему, зменшивши кількість людей і скоротивши число мутацій", – пояснює Ямпольський.

Вчений зауважує, що це досить простий гіпотетичний сценарій, який він здатен придумати виходячи із здатності його мозку, але ШІ матиме абсолютно інший рівень інтелекту і, ймовірно, абсолютно інші логічно-мотиваційні зв'язки.

Можливий і третій сценарій. Припустімо, ми напишемо ідеальний ШІ, який точно знатиме усі закони робототехніки Азімова (про це детальніше тут) і розумітиме, що нашкодити людині – не можна. Але що коли ШІ визначить і себе людиною, адже він буде істотою, нехай і електронною, яка має найвищий інтелект на планеті? Що коли перед ним стоятиме екзистенційна загроза від людства, яке, на його думку, уже є нижчим щаблем еволюції …

Чи буде ШІ готовий убити людство, аби захистити себе чи просто створить для нас резервації, куди інші ШІ приходитимуть подивитися на нас, як на тварин у зоопарку. Тільки час покаже …

Раніше OBOZREVATEL також розповідав про те, що вчені вважають, що розробку штучного інтелекту потрібно призупинити.

Підписуйтесь на канали OBOZREVATEL у Telegram і Viber, щоб бути в курсі останніх подій.