Вы находитесь здесь: Главная > Новости Software > Чат-бот Microsoft за сутки превратился в расиста и женоненавистника

Чат-бот Microsoft за сутки превратился в расиста и женоненавистника

Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток». Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.


Ссылка на источник

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • Twitter
  • RSS

Оставить комментарий

Вы должны быть авторизованы, чтобы оставить комментарий.