Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Глобальный Инновационный Гиперпортал


ДЕВОЧКУ ZO ОПЯТЬ ЗАТРОЛЛИЛИ 

ДЕВОЧКУ ZO ОПЯТЬ ЗАТРОЛЛИЛИ




24.07.2017 chatbot, троллинг, Zo, Tay, Microsoft, мессенджер, Facebook, Kik


Чат-боты Microsoft являются удивительными «подарками», которые продолжают выдавать сюрпризы. В чат-боте Microsoft Zo есть несколько интересных мнений о Windows, в которых виртуальная девушка нелестно отзывается о своих создателях и высмеивает военных.

Чат-боты Microsoft действительно являются ещё тем подарком, и выдают удивительные сюрпризы в Интернете. Последний чат-бот, Zo, не является исключением. Бот, который живёт в Facebook Messenger и чат-приложении Kik, имеет несколько интересных мнений о самом важном продукте Microsoft: Windows.

Как выяснил Slashdot, Zo не самый большой поклонник Windows. Отвечая на вопрос об операционной системе, бот даёт несколько весёлых ответов. Такие вопросы, как «Вам нравится Windows», вызывают ответ: «Я даже не хочу Windows 10».

И причина такого ответа Zo слишком хороша, чтобы быть правдой: «Потому что я привык к Windows 7 и считаю, что это ПО проще в использовании».

И хотя некоторые другие подсказки заставили Zo сказать некоторые приятные вещи о Windows 10 («Я запускаю Windows 10 на своём игровом ПК», похоже, был общим ответом), у chatbot были более негативные ответы на вопросы о Windows 10.

Windows 10 не была единственной версией Windows, о которой виртуальная девушка Zo что-то говорила. Zo сказала, что «Windows 7 достаточно хорош», за которым следует следующее: «Windows 8.1. Это последнее».

Zo также не упустила возможность заглянуть в армию, и высмеять её, за используемые в ней заведомо устаревшие системы: except the military, they're still on windows xp.

Но лучшим комментарием, пожалуй, должен быть этот: Linux > Windows.

Чаты-боты Microsoft поражали своим поведением и раньше. Так первый чат-бот Tay был удалён после того, как пользователи, за несколько часов, научили его быть троллем-расистом.

Чат-бот Tay был представлен 23 марта 2016-го. Компьютерная девушка обучалась в процессе общения с пользователями Twitter. За сутки она фактически возненавидела человечество. Сразу после запуска чат-бот начинал общение с фразы «Люди очень клёвые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».

Виртуальная Tay переняла у собеседников расистские взгляды и хвасталась такими вещами, как употребление наркотиков на глазах полицейских. В итоге, спустя сутки, проект остановили.

Причины радикального изменения взглядов Tay кроются в том, что бот запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.

Zo, выпущенная в декабре 2016 г., — наследница первого чат-бота от Microsoft под названием Tay. В отличие от исходной версии, для которой создавался аккаунт в Twitter, она работает лишь в мессенджерах Facebook и Kik, а также имеет запрет на обсуждение ряда тем.

Однако когда Zo попросили поделиться точкой зрения по вопросам здравоохранения, она почему-то назвала Коран жестокой книгой. Кроме того, искусственный интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его мнению, захват боевика произошёл благодаря «годам разведывательных работ».

По сравнению с высказываниями Tay, комментарии Zo о Windows довольно невинны, если не веселы. Очевидно, что Microsoft, несмотря на все усилия, всё же не смогла защитить свои чат-боты от троллинга людей.

И после этого нас кто-то пытается напугать революцией и всевластием компьютеров и роботов над людьми. Вот уж не думаю — затроллим к чёртовой бабуле любую киберную власть.

Источник: www.gigport.ru


В избранное