Человечество впервые сталкивается с ситуацией, когда появилось нечто, что будет намного умнее самого умного человека.
Американский миллиардер Илон Маск, который был одним из крупнейших инициаторов создания искусственного интеллекта и владел акциями в OpenAI - компании, разработавшей ChatGPT - перед тем, как продать ее Microsoft в 2018 году, заявил, что искусственный интеллект является самой большой угрозой для человечества.
Свое заявление он сделал на международном саммите по безопасности ИИ, организованном премьер-министром Великобритании Риши Сунаком, сообщает Daily Star.
Маск подчеркнул, что человечество впервые сталкивается с ситуацией, когда появилось нечто, что будет намного умнее самого умного человека.
"Вы знаете, мы не сильнее или быстрее других созданий, но мы умнее. И вот мы, впервые в истории человечества, столкнулись с чем-то, что будет намного умнее нас. Так что мне непонятно, можем ли мы действительно контролировать нечто подобное... Я считаю, что это один из экзистенциальных рисков, с которыми мы сталкиваемся, и он, пожалуй, самый актуальный", - цитирует издание заявление миллиардера.
Он также подчеркнул, что хотел бы "установить рамки" во избежание того, чтобы ИИ стал "большой угрозой" для всех.
"Когда мы будем иметь структуру для понимания этого явления, появятся политические предложения или предложенные правила, которые будут разработаны в сотрудничестве с компаниями ИИ. Тогда, если мы проведем аналогию со спортом, верят ли команды в игре, что существуют "правильные" правила, по которым все должны играть? Это то, что мы хотим установить, но я не знаю, какие "правильные" правила", - сказал Илон Маск.
Сейчас "крестные отцы" искусственного интеллекта опасаются, что он может выйти из-под контроля, поэтому предлагают возложить ответственность за вред от него на компании-разработчики.
Мощные системы искусственного интеллекта угрожают социальной стабильности, и компании, занимающиеся искусственным интеллектом, должны нести ответственность за вред, причиненный их продуктами.
Об этом предупредила группа старших экспертов накануне саммита по безопасности ИИ, пишет The Guardian.
Неназванный соавтор политических предложений от 23 экспертов сказал, что было "крайне опрометчиво" разрабатывать все более мощные системы ИИ, прежде чем понять, как сделать их безопасными.
"Пришло время серьезно подойти к передовым системам искусственного интеллекта. Это не игрушки. Увеличение их возможностей, пока мы не поймем, как сделать их безопасными, является абсолютно безрассудным", - сказал Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли.
Он добавил, что сейчас существует больше правил вокруг магазинов с едой, чем вокруг компаний искусственного интеллекта. Поэтому в документе-предложении авторы обратились с призывом принять ряд стратегий, в частности:
правительства должны выделять одну треть своих исследований и разработок искусственного интеллекта, а компании - одну треть своих научно-исследовательских ресурсов на безопасное и этическое использование систем;
предоставление независимым аудиторам доступа к лабораториям ИИ;
создание лицензионной системы для создания передовых моделей;
компании с искусственным интеллектом должны принять специальные меры безопасности, если в их моделях обнаружены опасные возможности;
возложение ответственности на технологические компании за предсказуемый и предотвратимый вред от их систем Ш
Авторы предупредили, что небрежно разработанные системы искусственного интеллекта угрожают "усилить социальную несправедливость, подорвать наши профессии, подорвать социальную стабильность, способствовать широкомасштабной преступной или террористической деятельности и ослабить наше общее понимание реальности, которая является основой общества".
Они отметили, что текущие системы искусственного интеллекта уже демонстрируют признаки тревожных возможностей, которые указывают путь к появлению автономных систем, которые могут планировать, преследовать цели и "действовать в мире". По словам экспертов, модель GPT-4 AI, которая работает в инструменте ChatGPT, разработанном американской фирмой OpenAI, позволяет проектировать и проводить химические эксперименты, просматривать веб-страницы и использовать программные инструменты, включая другие модели ИИ.
В документе-предложениях говорится, что "если мы создадим высокоразвитый автономный ИИ, мы рискуем создать системы, которые автономно будут преследовать нежелательные цели, и мы не сможем держать их под контролем".
Среди других политических рекомендаций в документе есть следующее:
- обязательная отчетность о случаях, когда модели демонстрируют тревожное поведение;
- введение мер для предотвращения воспроизведения опасных моделей;
- предоставление регуляторам полномочий приостанавливать разработку моделей искусственного интеллекта, которые демонстрируют опасное поведение.
Некоторые эксперты по искусственному интеллекту утверждают, что страхи относительно угрозы существованию людей преувеличены. Так, главный ученый по искусственному интеллекту в Meta Марка Цукерберга Янн ЛеКун убежден, что мысль, что искусственный интеллект может уничтожить людей, является "абсурдной".
Однако авторы документа о политике утверждают, что если бы передовые автономные системы искусственного интеллекта действительно появились сейчас, мир не знал бы, как сделать их безопасными или провести тесты на их безопасность.
"Даже если бы мы это сделали, большинству стран не хватает институтов, чтобы предотвратить неправильное использование и поддерживать безопасную практику", - добавили они.
Источник: ТСН