Кто сделал публикацию, скоро будет иметь больше значения, чем то, что было опубликовано, прогнозирует редакция британского журнала The Economist. Фото, видео и аудио уже никогда не будут бесспорными доказательствами, потому что их отныне несложно подделать.
Используя инструменты искусственного интеллекта, уже можно несколькими щелчками мыши создавать неправдивый, но очень реалистичный контент. Дипфейки бывают забавными: аккаунт TikTok, на котором, помимо прочего, «нарисованный» Том Круз в фиолетовом халате рядом с настоящей Пэрис Хилтон поет песню Tiny Dancer, уже привлек 5.1 миллиона подписчиков. Это также глубокие перемены в обществах, которые долгое время считали изображения, видео и аудио незыблемыми доказательствами реальности чего-либо. Телефонным мошенникам теперь нужно всего десять секунд аудио, чтобы имитировать голоса близких, которые якобы попали в беду; в интернете также множатся фейковые видеоролики с участием политиков.
Фундаментальная проблема – не нова. От печатного станка до интернета новые технологии часто облегчают распространение лжи. Обычно люди используют ярлыки, чтобы обнаружить нечестную игру: слишком много орфографических ошибок позволяют предположить, что электронное письмо может быть, например, фишинговой атакой. Совсем недавно изображения людей, созданные с помощью искусственного интеллекта, часто выдавали себя некачественными рендерами.
Однако со временем фальшивки становится все труднее обнаружить: ИИ постоянно совершенствуется, вычислительных мощностей и обучающих данных становится все больше. Может ли программное обеспечение для обнаружения фейков, встроенное в веб-браузеры, идентифицировать такой контент? К сожалению, нет. «Гонка вооружений» между генерацией фейков и их обнаружением идет на пользу фальсификаторам. В конечном итоге модели искусственного интеллекта, вероятно, смогут создавать точные подделки – цифровые клоны того, как выглядела бы подлинная запись события, если бы оно произошло. Даже самая лучшая система обнаружения не сможет найти ни трещины, ни выступа, за который можно было бы ухватиться.
Инструменты ИИ, управляемые официальными компаниями, могут быть вынуждены использовать "водные знаки", но это не помешает мошенникам, которые могут использовать модели с открытым исходным кодом, настраивать их и запускать дома, на своих ноутбуках.
Вариантов антиутопии предостаточно. Из любой фотографии человека мошенники могут сделать порнографический контент и использовать его для шантажа – тактика, о которой уже предупреждало ФБР.
Не исключено, что кто-нибудь сможет снять видео, на котором президент или премьер-министр объявляет о первом ядерном ударе, что на мгновение станет шоком для всего мира.
Мошенники, выдающие себя за родственников, будут процветать.
Однако общества при этом адаптируются к мошенникам. Люди со временем осознают, что изображения, аудио или видео – это не обязательно надежное доказательство чего-либо (эра разведки с открытыми источниками, в которой информация может быть надежно получена от краудсорсинга, может быть недолговечной).
Некоторый интернет-контент больше невозможно будет проверить, поэтому то, кто его опубликовал, станет таким же важным, как и то, что именно было опубликовано. Если предположить, что заслуживающие доверия источники смогут продолжать безопасно идентифицировать себя – через URL-адреса, адреса электронной почты и платформы социальных сетей, – репутация и происхождение станут более важными, чем когда-либо.
Но так было на протяжении большей части истории. Эпоха проверенного массового контента была исключением. Тот факт, что людям вскоре будет сложно обнаружить невидимую руку искусственного интеллекта, не означает, что рынок идей обречен. Если какие-то фейки и будут достигать успеха, то это может быть в основном развлекательный контент.