Ученые Вашингтонского университета создали программу, которая способна генерировать контент, внешне мало отличимый от нормальных новостей. Ранее исследователи из Сан-Франциско уже заявляли, что искусственный интеллект (ИИ) может создавать фейковые новости, и предупреждали об опасности использования таких технологий недобросовестными пользователями, компаниями или организациями.

Ученые из Института Аллена по изучению ИИ совместно с Вашингтонским университетом создали генерирующую фейк-ньюс нейросеть. Программа на основе анализа текстов Wall Street Journal (WSJ) написала новость, что в США якобы была создана компания по добыче полезных ископаемых на Луне. «Опасность заключается в том, что в мире уже достаточно пропагандистских статей. Поэтому нейросети могут взять модели этих статей и генерировать из них фейковый контент,— заявила WSJ доцент Института Аллена Йечжин Чу.— Их качество настолько высоко, что они выглядят весьма убедительными».

Впрочем, специалисты отмечают, что при подробном анализе распознать фейк, созданный нейросетью, все-таки можно. В частности, в данной статье программа упомянула не существующее устройство — «гравитационный трактор/тягач» — теоретический вид космического аппарата, о вероятности создания которого нередко пишут СМИ. Кроме того, в сообщении были цитаты несуществующих экспертов из несуществующих организаций, названия которых созданы путем соединения слов из названий настоящих компаний. Также в тексте есть логические и смысловые нестыковки между абзацами и небольшие грамматические ошибки.

Однако эти недостатки с лихвой окупаются дешевизной и простотой генерирования фейк-ньюс для массового потребителя, говорят эксперты. «Большие объемы синтезированной дезинформации не только возможны, но дешевы и правдоподобны,— отмечает принимавшая участие в эксперименте Сара Крепс из Университета Корнелла.— Распространение такой информации в интернете может дать возможность для целенаправленных кампаний по дезинформированию населения. Даже если люди не верят фейковым новостям, само понимание их существования подрывает доверие к СМИ и правительствам».

В феврале ученые из сан-францисского исследовательского института OpenAI создали генератор текстов, который может создавать вымышленные новости, анализируя алгоритмы реальных новостей. Таким образом, программа создала довольно стройный со стилистической точки зрения текст о том, что «Россия объявила войну США после того, как Дональд Трамп случайно запустил в воздух ракету. Россия проанализировала траекторию полета и заявила, что примет все меры для обеспечения безопасности ее населения». Директор OpenAI Джек Кларк заявил, что «подобные технологии быстро развиваются и через год-два могут быть использованы для масштабных кампаний по дезинформированию и пропаганде».

Проблема все большего распространения фейковых новостей в интернете беспокоит не только специалистов по IT, СМИ и власти многих стран, но и психологов. В августе британская The Times сообщила об исследовании ирландских ученых влияния фейковых новостей на политические предпочтения избирателей. В прошлом году за неделю до проведения в Ирландии референдума о легализации абортов ученые Университета Корка показали 3140 участникам эксперимента шесть новостных заметок по теме референдума, две из которых были ложными. Затем участников попросили выбрать фейки. В ходе обсуждения участники поняли, какие именно новости оказались недостоверными. Спустя некоторое время ученые опросили людей по ряду вопросов, связанных с референдумом и политиками, высказывавшимися по этому вопросу. Выяснилось, что примерно половина участников имеют представление о теме, «помня» о каких-то событиях на основании фейковых новостей. Причем многие из них не смогли восстановить в памяти реальные события даже после того, как им напомнили, что новостные сообщения были сфабрикованы. Исходя из этого исследователи сделали вывод, что фейковые новости могут влиять на мнения и, соответственно, выбор избирателей даже после разоблачения таких новостей.

Евгений Хвостик