ИИ научили видеть людей сквозь стены. Ученые из Массачусетского технологического института (США) несколько лет работали над созданием искусственного интеллекта. В результате им удалось создать беспроводное устройство, которое способно распознавать действия человека даже сквозь препятствия. Специалисты рассказали, что им удалось создать модель агрессивного поведения искусственного интеллекта. Результаты своего эксперимента они опубликовали в специализированном научном журнале.
Известно, что данное открытие получило название Norman и представляет собой робота-психопата. В основу разработки положено поведение Норманна Бейтса, который является основателем известного персонажа романа Роберта Блоха. Ученые предложили роботу несколько фотографий, на которых были изображены различные преступления. Для проведения качественного опыта был привлечен еще один искусственный интеллект, который был создан ранее. Первый ИИ имел устойчивую психику, а второй – имел отклонения. В ходе исследования установлено, что данные роботы абсолютно по-разному воспринимали изображения на снимках.
Американские специалисты доказали, что начальное обучение ИИ оказывает воздействие на его дальнейшее мировоззрение. Напомним, что Илон Маск неоднократно выступал против искусственного интеллекта, который, по его мнению, может захватить господство на Земле.
Тем временем искусственный интеллект научили создавать реалистичные видеофальшивки. В интернете появляются отредактированные видеоролики, на которых люди произносят определённые слова (хотя в действительности их не произносили) или совершают какие-то действия (хотя в действительности их не совершали). Благодаря новым разработкам на основе искусственного интеллекта качество подобных видеофальшивок возрастёт в разы.
Сегодня технологии создания поддельных видеороликов не ограничиваются движениями губ и лица человека на исходных кадрах – система на основе искусственного интеллекта способна подготовить реалистичную видеозапись, на которой отредактированное цифровое изображение человека может двигать головой в разные стороны, моргать и проявлять эмоции. Все действия и слова актёра, который снимется в исходном видеоролике, будут перенесены в поддельный видеоролик.
Команда разработчиков сравнила новый алгоритм с существующими системами по изменению видео и фото, к созданию которых имеют отношение Facebook и Google. Новый алгоритм превзошёл существующие техники, а участники эксперимента с трудом могли определить подлинность видеороликов.
Работу исследователей частично профинансировала компания Google. Создатели системы надеются, что с помощью новой технологии удастся улучшить виртуальную реальность. Чтобы приступить к созданию изменённого ролика, искусственному интеллекту необходимо изучить всего несколько минут исходного материала. Поэтому исследователи утверждают, что программы для высококачественного редактирования видео станут более доступными.
Разработчики понимают, что их изобретение может вызвать некоторые опасения в обществе. Исследователь Юстус Тис сообщил, что переживает по поводу этической стороны вопроса. По словам Тиса, результаты исследования были опубликованы, чтобы предупредить людей о достижениях техники манипуляции.
Учёные в очередной раз «предупредили об опасности», но продолжили совершенствовать подозрительную технологию. В тексте исследования об этической проблеме упомянуто лишь вскользь: разработчики считают, что кто-то должен улучшить систему водяных знаков или придумать другой способ для выявления видеоподделок. Сами исследователи этим вопросом заниматься не желают, так как они заняты работой над улучшением инструмента для создания поддельных видео.
Вступите в группу, и вы сможете просматривать изображения в полном размере
![]()
Это интересно
+1
|
|||
Последние откомментированные темы: