Фальшивые младенцы, настоящий ужас: дипфейки с войны в Газе усиливают опасения по поводу способности ИИ влиять на общество
Фальшивые младенцы, настоящий ужас: дипфейки с войны в Газе усиливают опасения по поводу способности ИИ влиять на общество

Фальшивые младенцы, настоящий ужас: дипфейки с войны в Газе усиливают опасения по поводу способности ИИ влиять на общество

Фальшивые младенцы, настоящий ужас: дипфейки с войны в Газе усиливают опасения по поводу способности ИИ влиять на общество

Засилье распространенных ложных фото- и видеоматериалов с войны Израиля и ХАМАС влечет за собой опасения относительно влияния ИИ на другие важные события в мире.

Среди изображений разбомбленных домов и разрушенных улиц Газы некоторые выглядели особенно ужасно: окровавленные, брошенные младенцы.

Эти изображения, просматриваемые в Интернете миллионы раз с начала войны, являются дипфейками, созданными с помощью искусственного интеллекта. Если вы внимательно присмотритесь, вы увидите подсказки: странно скрюченные пальцы или глаза, мерцающие неестественным светом — все это указывает на цифровой обман, пишет Associated Press.

Однако возмущение, которое они спровоцировали, вполне реально.

Фотографии войны Израиля и ХАМАС ярко и болезненно проиллюстрировали потенциал искусственного интеллекта как инструмента пропаганды, используемого для создания реалистичных изображений резни. С тех пор, как в прошлом месяце началась война, распространенные в социальных сетях цифровые измененные изображения использовались для ложных заявлений об ответственности за жертвы, или для введения в заблуждение людей по поводу жестокости, которой никогда не было.

Хотя большинство неправдивых утверждений о войне, распространяющихся в Интернете, были созданы без использования искусственного интеллекта и поступали из более привычных источников, технологический прогресс идет все дальше, чего не скажешь о контроле над ним.

Это совершенно очевидно делает потенциал искусственного интеллекта еще одной формой оружия и дает представление о том, что может происходить в ходе будущих конфликтов, выборов и других крупных событий.

«Все будет хуже – гораздо хуже – прежде чем станет лучше. Изображения, видео и аудио, созданные с помощью генеративного ИИ – это будет эскалация, которой вы еще не видели», – считает Жан-Клод Гольденштайн, генеральный директор CREOpoint, технологической компании, расположенной в Сан-Франциско и Париже, использующей ИИ для оценки обоснованности онлайн-претензий.

Компания создала базу данных наиболее вирусных дипфейков, появлявшихся в Газе.

В некоторых случаях за новые выдавались фотографии других конфликтов или катастроф. В других — генеративные программы искусственного интеллекта использовались для создания изображений с нуля, например изображение плачущего среди обломков бомбардировки ребенка, которое стало вирусным в первые дни конфликта.

Другие примеры созданных искусственным интеллектом изображений включают видео, на которых изображены якобы израильские ракетные удары, или танки, катящиеся через разрушенные кварталы, или семьи, прочесывающие руины в поисках выживших.

Во многих случаях подделки разработаны для того, чтобы вызвать сильную эмоциональную реакцию, поэтому содержат тела младенцев, детей или семей. В первые кровавые дни войны поклонники как Израиля, так и ХАМАС утверждали, что другая сторона убивает детей и младенцев. В качестве доказательств предлагались дипфейки – изображения плачущих младенцев.

Пропагандисты, создающие такие образы, умело работают с глубокими импульсами и тревогами людей, говорит Имран Ахмед, генеральный директор Центра противодействия цифровой ненависти, некоммерческой организации, отслеживавшей дезинформацию во время войны. Независимо от того, это дипфейк ребенка, или настоящий образ младенца из другого конфликта, эмоциональное влияние на зрителя одинаково.

Чем отвратительнее изображение, тем больше вероятность, что пользователь запомнит его и поделится им, невольно распространяя дезинформацию дальше.

«Людям прямо сейчас говорят: посмотрите на это фото ребенка. Дезинформация разработана, чтобы заставить вас приобщиться к ней», — объясняет Ахмед.

Подобный обманчивый контент, созданный ИИ, начал распространяться после того, как Россия вторглась в Украину в 2022 году. Появилось измененное видео, на котором показано, как президент Украины Владимир Зеленский приказывает украинцам сдаться. Такие заявления продолжали распространяться и на прошлой неделе, показывая, насколько устойчива может быть даже легко развенчанная дезинформация.

Каждый новый конфликт или сезон выборов предоставляют новые возможности для распространителей дезинформации продемонстрировать последние достижения ИИ. Поэтому многие эксперты по искусственному интеллекту и политологи предупреждают о рисках в следующем году, когда в нескольких странах состоятся масштабные выборы, в том числе в США, Индии, Пакистане, Тайване, Индонезии и Мексике.

Риск того, что искусственный интеллект и социальные сети могут быть использованы для распространения лжи среди избирателей США, вызвал беспокойство законодателей обеих партий в Вашингтоне. На недавних слушаниях по опасности технологий deepfake представитель США Джерри Коннолли, демократ от Виргинии, заявил, что США должны инвестировать в финансирование разработки инструментов ИИ, предназначенных для противодействия другим инструментам ИИ.

«Мы как нация должны это сделать правильно», - сказал Коннолли.

По всему миру ряд технологических компаний начинают работают над новыми программами, которые могут выискивать дипфейки, прикреплять к изображениям водяные знаки, чтобы подтвердить их происхождение, или сканировать текст, чтобы проверить любые подозрительные утверждения, возможно, сделанные с использованием ИИ.

«Следующей волной искусственного интеллекта будет: как мы можем проверить содержимое. Как вы можете обнаружить дезинформацию, как вы можете проанализировать текст, чтобы определить, заслуживает ли он доверия?», — говорит Мария Амели, соучредитель Factiverse, норвежской компании, создавшей программу искусственного интеллекта, которая может сканировать содержимое на наличие неточностей или предвзятости, внесенных другими программами искусственного интеллекта

Такие программы вызывают непосредственный интерес у преподавателей, журналистов, финансовых аналитиков и других, заинтересованных в искоренении лжи, плагиата или мошенничества. Подобные программы разрабатываются для обнаружения поддельных фотографий или видео.

По словам Дэвида Доэрманна, ученого, который возглавляет усилия в Агентстве передовых оборонных исследовательских проектов по реагированию на созданные обработанными ИИ изображениями угрозы национальной безопасности, несмотря на то, что эта технология является многообещающей, те, кто использует искусственный интеллект, на шаг впереди.

Доэрманн, который сейчас является профессором в Университете Баффало, считает, что эффективный ответ на политические и социальные вызовы, связанные с дезинформацией искусственного интеллекта, потребует как лучших технологий, так и лучших нормативных актов, добровольных отраслевых стандартов и значительных инвестиций в программы цифровой грамотности, чтобы помочь пользователям Интернета найти способы отличить правду от фантазии.

«Каждый раз, когда мы выпускаем обнаруживающий это инструмент, наши враги могут использовать искусственный интеллект, чтобы скрыть доказательства. Выявление и попытка уничтожить фейковый материал больше не являются решением. Нам нужно найти гораздо более масштабный выход», – говорит Доэрманн.

На фоне распространения использования искусственного интеллекта американский словарь Merriam-Webster назвал «аутентичность» (authentic) словом 2023 года.

Источник материала
loader
loader