УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Ілон Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

2 хвилини
30,9 т.
Ілон  Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

Гендиректор SpaceX, Tesla та Twitter Ілон Маск та група спеціалістів і топменеджерів IT-галузі закликали зупинити експерименти зі штучним інтелектом. Вони бояться, що ШІ може загрожувати людству.

Відео дня

Ілон Маск та ще понад 1100 професорів, інженерів та дослідників підписали відкритого листа до ШІ-лабораторій з вимогою негайно зупинити принаймні на пів року навчання систем штучного інтелекту, більш потужних, ніж GPT-4. Лист опубліковано на сайті некомерційної організації Future of Life Institute.

Серед тих, хто підписав листа, співзасновник Apple Стів Возняк; Ендрю Янг, підприємець та кандидат на президентських виборах у США у 2020 році, Рейчел Бронсон, президент Бюлетеня вчених-атомників, який встановлює годинник Судного дня, співзасновник Pinterest Еван Шарп, співзасновник Skype Яан Таллінн та багато інших.

Підписанти вважають, що продукти зі ШІ "можуть становити серйозну загрозу суспільству та людству". Працюючи з ними слід бути дуже уважними, однак цього не відбувається.

"Системи штучного інтелекту з конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства... Як зазначено в широко схвалених Принципах ІІ Asilomar, просунутий ШІ може стати глибокою зміною в історії життя на Землі, і його слід планувати й керувати ним з відповідною ретельністю та ресурсами. На жаль, такого рівня планування та управління не існує, навіть попри те, що останніми місяцями лабораторії штучного інтелекту застрягли в неконтрольованій гонці з розробки та розгортання все більш потужних цифрових умів, які ніхто — навіть їхні творці — не може зрозуміти, прогнозувати чи надійно контролювати", – йдеться в листі.

Експерти та керівники галузі, які підписали лист, вважають, що навчання треба зупинити, доки не з'являться загальні протоколи безпеки.

На їхнє переконання, якщо творці ШІ-продуктів не зможуть влаштувати піврічну паузу самостійно, в це повинен втрутитися уряд.

При цьому дехто з тих, чиї підписи стоять під листом, заявили, що їхні імена просто використали, а насправді вони нічого не підписували.

Так, професор Нью-Йоркського Університету Ян Лекан заявив у Twitter, що не підписував жодного відкритого листа проти ШІ, хоча його підпис там стоїть. Ще більше запитань викликав той факт, що згодом цей твіт видалили.

Ілон  Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

Крім цього, з листа зникли імена Білла Гейтса та Сема Альтмена, а уважні користувачі відшукали в документі кілька фейкових імен із підписами, що викликало запитання про достовірність поданих у ньому даних.

Раніше OBOZREVATEL розповідав про те, що насправді може GPT-4, і чому його можливості вражають.

Також чат-бот GPT-4 сказав, які професії ШІ може відібрати у людей

Лише перевірена інформація нас у Telegram-каналі Obozrevatel та у Viber. Не ведіться на фейки!