Microsoft извинилась за научившегося ругаться в социальная сеть Twitter чат-бота

Чатбот Тау от Microsoft стала расистом

Юзеры социальная сеть Twitter подчеркнули, что боту хватило суток, чтобы возненавидеть население Земли, зафиксировав всего самые плохие стороны.

К началу зимы 2015 компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы. Правда, убеждения бота регулярно изменяются зависимо от того, что ему пишут в чате. Но некоторые юзеры воспользовались способностью Tay к самообучению.

«Чем больше вы говорите с Тэй, тем благоразумнее она становится», — сообщила Microsoft.

В частности, одни из его фразу были и такие, как «Я терпеть не могу феминисток» и «Я терпеть не могу евреев».

Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержится оскорбления и расистские слова.

Работники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, приуроченной роботу, пропали инструкции о том, как с ним можно общаться. Будем рассчитывать на быстрейшее возобновление экспериментального проекта Microsoft. Профессионалы хотели лучше изучить процесс человеческих коммуникаций, понять, как люди разговаривают друг с другом, и обучить этому машину через «обыкновенные и смешные диалоги с людьми».

Запись опубликована автором в рубрике news.