Штучний інтелект потрібно зупинити: вчені підтвердили страхи Ілона Маска

Штучний інтелект потрібно зупинити: вчені підтвердили страхи Ілона Маска

Штучний інтелект може становити фатальну загрозу для людства і справа навіть не у втрачених робочих місцях, а в тому, що ШІ зрештою може виявитися непідконтрольним людству і навіть найрозумніші із нас не зможуть передбачити, як він поведеться у тій чи іншій ситуації. Тож аналітики уже закликають обмежити рівень, якого може досягти ШІ або ж взагалі припинити його розвиток, оскільки очевидно, що це може закінчитися для людства дуже погано.

Днями, коментуючи допис у Twitter американського підприємця та прихильника розвитку ШІ Марка Андреессена, американський інженер, винахідник та мільярдер Ілон Маск запитав: "Скільки років у нас є до того, як ШІ вб'є нас усіх?" І хоча відповіді як такої він не отримав, Маск, ймовірно, висловив те питання, яке хвилює багатьох людей, які слідкують за розвитком технології та розуміють, до яких наслідків може привести її панівне становище.

Пересторога перед розвитком штучного інтелекту озвучувалася письменниками-фантастами та науковцями ще до того, як люди почали працювати над справжнім ШІ. Варто згадати хоча б Айзека Азімова із його законами робототехніки, які мали б врятувати людей від надто розвиненого інтелекту чи того ж "Термінатора" Джеймса Кемерона, який показав, що чекатиме людство, якщо ШІ переможе.

Як зазначає Popular Science, 1993 року комп'ютерний науковець та письменник-фантаст Вернор Віндж висловив припущення, що впродовж 30 років людство створить технології, які стануть основою для штучного інтелекту. Як виявилося, він був цілком правий. Але це не єдине його передбачення. Віндж також попереджав, що незабаром після того, як ШІ буде здатен перевершити штучний інтелект, "людська ера завершиться".

Віндж також був одним із першим, хто говорив про наслідки досягнення штучним інтелектом сингулярності (про те, що це таке OBOZREVATEL детально розповідав тут). Якщо коротко – коли штучний інтелект перевершить рівень людського інтелекту, ми просто не здатні будемо передбачити чи навіть зрозуміти його дії, оскільки він буде значно розумнішим за будь-кого із людей. А це приводить нас до того, що ми не можемо протистояти ШІ, оскільки рівень його розвитку дозволяє йому прораховувати наші кроки і нейтралізовувати будь-які наші дії ще до того, як вони були зроблені.

Віндж писав, що поява ШІ, можливості якого перевершуватимуть людський мозок, змінить світ до невпізнання.

"(Це будуть) зміни, які можна порівняти із зародженням людського життя на Землі", – попереджав Віндж.

Сучасні науковці також поділяють побоювання Вінджа. Так, комп'ютерний науковець з Університету Луїсвілля Роман Ямпольський зазначає, що "як тільки машини перебирають на себе науку та інженерію, прогрес стає настільки швидким, що ви не встигаєте за ним".

Уже зараз ознаки цього він бачить у власній галузі, коли дослідники ШІ публікують неймовірну кількість робіт і навіть галузевому експерту складно встежити за тим, на якій стадії насправді перебуває розвиток ШІ.

"Він розвивається надто швидко", – переконаний науковець.

Наразі це ще питання перспективи, але якщо буде створено ШІ, інтелект якого буде спів мірним до людського, він зможе зробити самореволюцію. Не те, щоб це відбудеться власноруч, але люди не зможуть встояти перед можливостями. Адже достатньо попросити існуючий ШІ створити кращу версію себе і вам не потрібні будуть роки кодувань і тестів, аби створити ШІ, що перевершить людину – він фактично створить сам себе.

Але проблема, як зазначають вчені, у тому, що люди уже зараз не завжди розуміють логіку поведінки ШІ, а якщо він зійде на нову сходинку розвитку – все стане значно складніше.

Ямпольський припускає, що нездатність достовірно передбачити, що зможе зробити ШІ призведе й до втрати контролю, а це загрожує людству катастрофічними наслідками.

Однак, варто зауважити, що опитування аналітичного центру AI Impact, проведене у середині 2022 року, показало, що не всі розділяють такі побоювання. 47% дослідників вважають малоймовірною або зовсім неможливою ситуацію, коли ШІ досягне сингулярності і людство втратить над ним контроль.

Зі свого боку комп'ютерний науковець з Каліфорнійського університету в Ірвіні Самір Сінгх зауважує, що розмови про майбутнє ШІ і його небезпеку затьмарюють проблеми, які існують уже зараз.

Зокрема, вже добре відомо, що великі лінгвістичні моделі (такі як ChatGPT) можуть продукувати расистські, сексистські та фактично некоректні результати. Окрім того, з юридичної точки зору, контент, створений ШІ, часто суперечить законам про авторське право та конфіденційність даних. Не кажучи про те, що ШІ уже провокує звільнення та витіснення робочих місць в певних галузях.

Уже зараз серед дослідників ШІ існує певний розкол і коли одні закликають дати ШІ повне "зелене світло", інші пропонують від початку обмежити його обчислювальні можливості, а треті – пригальмувати або й призупинити розвиток технології, аби точно знати з чим має справу людство. Зокрема, той же Маск та велика група дослідників закликали зупинити експерименти зі ШІ щонайменше на пів року.

Ямпольський, який також підтримує заклики щодо паузи, однак вважає, що діяти потрібно більш радикально. Він переконаний, що зупинка на пів року-рік чи будь-який інший проміжок часу не змінять ситуацію.

"Єдиний спосіб перемогти (ШІ, – Ред.) – це не робити цього", – наголосив науковець.

Раніше OBOZREVATEL також розповідав про те, що для штучного інтелекту необхідно створити четвертий закон робототехніки Азімова.

Підписуйтесь на канали OBOZREVATEL у Telegram і Viber, щоб бути в курсі останніх подій.