"Підтримати"
Новини
Всі новини

Штучний інтелект може стати найбільшою проблемою людства

 

Людство вперше стикається із ситуацією, коли з’явилося щось, що буде набагато розумнішим за найрозумнішу людину.
Американський мільярдер Ілон Маск , який був одним з найбільших ініціаторів створення штучного інтелекту і володів акціями в OpenAI - компанії, яка розробила ChatGPT - перед тим, як продати її Microsoft у 2018 році, заявив, що штучний інтелект є найбільшою загрозою для людства.

Свою заяву він зробив на міжнародному саміті з безпеки ШІ, організованому прем'єр-міністром Великої Британії Ріші Сунаком, повідомляє Daily Star.

 Маск наголосив, що людство вперше стикається із ситуацією, коли з’явилося щось, що буде набагато розумнішим за найрозумнішу людину. 

“Ви знаєте, ми не сильніші чи швидші за інших створінь, але ми розумніші. І ось ми, вперше в історії людства, зіткнулися з чимось, що буде набагато розумнішим за нас. Тож мені незрозуміло, чи ми можемо справді контролювати щось подібне... Я вважаю, що це один із екзистенційних ризиків, з якими ми стикаємося, і він, мабуть, найактуальніший”, - цитує видання заяву мільярдера. 

Він також наголосив, що хотів би “встановити рамки” для уникнення того, щоб ШІ став “великою загрозою” для всіх.

“Коли ми матимемо структуру для розуміння цього явища, з’являться політичні пропозиції або запропоновані правила, які будуть розроблені у співпраці з компаніями ШІ. Тоді, якщо ми проведемо аналогію зі спортом, чи вірять команди в грі, що існують “правильні” правила, за якими всі повинні грати? Це те, що ми хочемо встановити, але я не знаю, які “правильні” правила”, – сказав Ілон Маск.

Нині "хрещені батьки" штучного інтелекту остерігаються, що він може вийти з-під контролю, тому пропонують покласти відповідальність за шкоду від нього на компанії-розробників.

Потужні системи штучного інтелекту загрожують соціальній стабільності, і компанії, що займаються штучним інтелектом, мають нести відповідальність за шкоду, заподіяну їхніми продуктами.

Про це попередила група старших експертів напередодні саміту з безпеки ШІ, пише The Guardian.

 Неназваний співавтор політичних пропозицій від 23 експертів сказав, що було "вкрай необачно" розробляти все потужніші системи ШІ, перш ніж зрозуміти, як зробити їх безпечними.

"Настав час серйозно підійти до передових систем штучного інтелекту. Це не іграшки. Збільшення їхніх можливостей, поки ми не зрозуміємо, як зробити їх безпечними, є абсолютно безрозсудним", – сказав Стюарт Рассел, професор інформатики Каліфорнійського університету в Берклі.

Він додав, що нині існує більше правил навколо магазинів з їжею, ніж навколо компаній штучного інтелекту. Тож у документі-пропозиції автори звернулися із закликом ухвалити низку стратегій, зокрема:

  • уряди мають виділяти одну третину своїх досліджень і розробок штучного інтелекту, а компанії – одну третину своїх науково-дослідних ресурсів на безпечне й етичне використання систем;
  • надання незалежним аудиторам доступу до лабораторій ШІ;
  • створення ліцензійної системи для створення передових моделей;
  • компанії зі штучним інтелектом повинні вжити спеціальних заходів безпеки, якщо в їхніх моделях виявлено небезпечні можливості;
  • покладання відповідальності на технологічні компанії за передбачувану та запобіжну шкоду від їхніх систем Ш

Автори попередили, що недбало розроблені системи штучного інтелекту загрожують "посилити соціальну несправедливість, підірвати наші професії, підірвати соціальну стабільність, сприяти широкомасштабній злочинній чи терористичній діяльності та послабити наше спільне розуміння реальності, яка є основою суспільства".

Вони зазначили, що поточні системи штучного інтелекту вже демонструють ознаки тривожних можливостей, які вказують шлях до появи автономних систем, що можуть планувати, переслідувати цілі та "діяти у світі". За словами експертів , модель GPT-4 AI, яка працює в інструменті ChatGPT, розробленому американською фірмою OpenAI, дозволяє проєктувати і проводити хімічні експерименти, переглядати вебсторінки та використовувати програмні інструменти, включно з іншими моделями ШІ.

У документі-пропозиціях йдеться про те, що "якщо ми створимо високорозвинений автономний ШІ, ми ризикуємо створити системи, які автономно переслідуватимуть небажані цілі, і ми не зможемо тримати їх під контролем".

Серед інших політичних рекомендацій в документі є таке:

- обов’язкове звітування про випадки, коли моделі демонструють тривожну поведінку;
- запровадження заходів для запобігання відтворенню небезпечних моделей;
- надання регуляторам повноважень призупиняти розробку моделей штучного інтелекту, які демонструють небезпечну поведінку.

Деякі експерти зі штучного інтелекту стверджують, що страхи щодо загрози існуванню людей перебільшені. Так, головний науковець зі штучного інтелекту в Meta Марка Цукерберга Янн ЛеКун переконаний, що думка, що штучний інтелект може знищити людей, є "абсурдною".

Проте автори документа про політику стверджують, що якби передові автономні системи штучного інтелекту справді з’явилися зараз, світ не знав би, як зробити їх безпечними чи провести тести на їх безпеку.

"Навіть якби ми це зробили, більшості країн бракує інституцій, щоб запобігти неправильному використанню та підтримувати безпечну практику", – додали вони.

Джерело: ТСН


Приєднуйтесь до нас у соцмережах Facebook, Telegram та Twitter.

Ctrl
Enter
Если вы заметили ошибку в тексте
Выделите её и нажмите Ctrl+Enter
Также по теме
Показати ще новини