Що буде, коли штучний інтелект досягне сингулярності та чи буде він здатен убити людей
Різноманітні штучні інтелекти (від чат-ботів до нейромереж і автопілотів у авто), які стрімко захоплюють світ, здаються для людства розвагою та чимось, що покращить наше життя у вже недалекому майбутньому. Але, ймовірно, коли ШІ досягне сингулярності, людям може бути непереливки.
Про це йдеться у матеріалі видання Popular Mechanics, яке поспілкувалося з галузевими експертами. Вони також розповіли, як не перетворити штучний інтелект на ворога.
Експерти припускають, що момент сингулярності, може настати вже до 2030 року. Після цього штучний інтелект перевершить людський і вирахувати наслідки його діяльності буде дуже складно.
Що таке сингулярність
Сингулярність – це момент, коли машинний інтелект зрівняється з людським або перевершить його. Цю концепцію свого часу розглядали Стівен Гокінг, Білл Гейтс та інші науковців. Зокрема, англійський математик Алан Тьюрінг ще у 50-х роках розробив тест Тюрінга, який мав на меті з'ясувати, чи здатні машини мислити самостійно і чи зможуть вони вийти на такий рівень спілкування, коли людина не здатна буде зрозуміти, чи говорить з ШІ чи з іншою людиною. ChatGPT уже довів, що ШІ здатен підтримувати розмову на рівні людини.
Докторантка Каліфорнійського університету в Берклі Ішані Пріядаршіні пояснює, що головна проблема із ШІ полягає в тому, що його інтелект фактично необмежений в той час як інтелект людини – фіксований, оскільки ми не можемо просто додати собі більше пам'яті, аби стати розумнішими.
Коли може бути досягнуто сингулярності?
Експерти вважають, що заяви про швидке досягнення сингулярності є, в кращому випадку, спекулятивними. Пріядаршіні вважає, що сингулярність вже існує по шматочках, але момент, коли ШІ перевершить людський інтелект цілковито, настане ще не скоро. Тим не менш, моменти сингулярності люди вже бачили. Як тоді, коли у 1997 році суперкомп'ютер IBM Deep Blue вперше переміг шахіста-людину – чемпіона світу з шахів Гаррі Каспарова.
Експерти припускають, що цілковито говорити про досягнення сингулярності можна буде тоді, коли ШІ зможе перекладати мову на тому ж рівні або краще, ніж людина.
Однак Пріядаршіні вважає, що найкращим показником того, що ШІ став розумнішим за людей буде той момент, коли машини почнуть розуміти меми, які зараз для них недосяжні.
Що станеться, коли ШІ досягне сингулярності?
Проблема в тому, що люди надто "тупі", аби передбачити, що відбудеться, якщо ШІ отримає суперінтелект. Аби зробити прогнози, нам потрібна людина, яка також матиме суперінтелект. Тому людство може лише спекулювати щодо наслідків сингулярності, використовуючи наш нинішній рівень інтелекту.
"Ви повинні бути принаймні настільки ж розумними, щоб бути здатними передбачити, що зробить система... якщо ми говоримо про системи, які розумніші за людину (суперрозумні), то для нас неможливо передбачити винаходи або рішення", – заявив доцент кафедри комп'ютерної інженерії та інформатики в Університеті Луїсвілля Роман Ямпольський.
Щодо того, чи може ШІ стати ворогом для людини, то, як вважає Пріядаршіні, тут теж складно робити прогнози. Усе залежатиме від того, чи не міститиме його код протиріч.
"Ми хочемо самокеровані автомобілі, ми просто не хочемо, щоб вони проїжджали на червоне світло і зіштовхувалися з пасажирами", – каже Пріядаршіні, пояснюючи, що поганий код може змусити ШІ розглядати проїзд на червоне світло і людей як найефективніший спосіб вчасно дістатися до місця призначення.
За її словами, дослідники ШІ знають, що ми не можемо на 100% усунути упередженість з коду, тому створити цілковито неупереджений ШІ, який не здатен буде зробити нічого поганого, буде непростим завданням.
Чи може ШІ нашкодити людям?
Наразі ШІ немає почуттів, тому керується лише власними знаннями. Тож, ймовірно, найближчим часом він не стане некерованим, та не спробує втекти з-під контролю людини, просто тому, що у нього немає такої мотивації.
Однак, як пояснює Ямпольський, некерованість ШІ може виникнути внаслідок того, як він буде створений людиною і які парадокси можуть утворитися у його коді.
"У нас немає способу виявити, виміряти або оцінити, чи переживають системи внутрішні стани. . . Але це і не потрібно для того, щоб вони стали дуже здібними і дуже небезпечними", – пояснив вчений.
Пріядаршіні також підтримує колегу, стверджуючи, що єдина причина, яка може призвести до бунту ШІ – це суперечливість коду.
"Він (ШІ. – Ред.) може не мати жодних мотивів проти людей, але машина, яка вважає, що людина є першопричиною певних проблем, може думати саме так", – пояснила науковиця.
Однак, якщо ШІ стане достатньо розумним для самоусвідомлення та отримає внутрішні почуття, можливо у нього знайдеться мотив для того, аби недолюблювати людство.
Знову ж таки, погано поставлена задача може призвести до ненавмисного вбивства. Як приклад, Ямпольський наводить ситуацію, коли ШІ попросять створити вакцину для людей проти умовного COVID.
Система знатиме, що чим більше людей захворіє на COVID, тим більше вірус мутуватиме, що ускладнить розробку вакцини для всіх варіантів.
"Система думає ... можливо, я зможу вирішити цю проблему, зменшивши кількість людей, тому вірус не зможе мутувати так сильно", – каже науковець, припускаючи, що ШІ, якій не має поняття моральності, може обрати більш ефективне рішення, навіть якщо воно зашкодить частині людей.
Як ми можемо запобігти катастрофі сингулярності?
Ми ніколи не зможемо позбавити штучний інтелект від усіх його невідомих. Це ненавмисні побічні ефекти, які люди не можуть передбачити, оскільки не мають суперінтелекту.
"Ми дійсно дивимося на сингулярність, яка призведе до появи безлічі машин-ізгоїв. Якщо вона досягне точки неповернення, це вже не можна буде виправити", – попереджає Пріядаршіні.
Раніше OBOZREVATEL також розповідав про те, що для штучного інтелекту необхідно створити четвертий закон робототехніки Азімова.
Підписуйтесь на канали OBOZREVATEL у Telegram і Viber, щоб бути в курсі останніх подій.