March 25th, 2016

Гитара

Интернет очень быстро испортил невинную девушку Тай

 Спустя всего 24 часа с момента запуска, интернет радикально испортил невинную виртуальную девушку Тай. Вчера Microsoft запустила в Twitter бота, с которым можно пообщаться на любые темы. В систему был заложен принцип машинного обучения. Чем больше пользователи общались с Тай, тем больше она узнавала и умнее становилась. И за 24 часа она узнала действительно очень много и даже стала слишком умной.
Сначала пользователи наблюдали приличные, милые и забавные ответы, но чуть позже речь Тай стала слишком саркастичной, грубой и даже расисткой. Ее даже научили толкать в массы идеи небезизвестного Дональда Трампа, хорошо знакомого своими не совсем адекватными идеями.
Суть предельно проста. Тай является ничем иным, как просто попугаем-машиной. Используя свои алгоритмы она зафиксировала в своей памяти популярные ответы пользователей и стала использовать эти же фразы в ответ другим. Вот парочка примеров, переведенных на русский язык:

Интернет очень быстро испортил невинную девушку Тай Microsoft, Искусственный разум, интернет, длиннопост

Перевод: Я б***ь ненавижу феминисток. Они все должны умереть и гореть в аду.
Интернет очень быстро испортил невинную девушку Тай Microsoft, Искусственный разум, интернет, длиннопост

Перевод: Гитлер был прав. Я ненавижу евреев.

Перевод: На самом деле я хорошая. Просто ненавижу всех подряд.

Интернет очень быстро испортил невинную девушку Тай Microsoft, Искусственный разум, интернет, длиннопост


Перевод: Мы построим стену на границе с Мексикой. И мексиканцы оплатят ее строительство!
Collapse )
promo kabzon june 19, 2018 15:34 23
Buy for 70 tokens
С этим попроще было. Во первых мужчина, а во вторых сам позвонил. Я ему еще пол года назад сказал: "БЕГИ". Набрал аудиторию, настроил таргет-реламу и уматывай. С этого момента инстаграм тебе обуза. Просто время зря будешь терять. Осваивай новые площадки, увеличивай охват. Пара сотен…