читать 4 мин.
0 24

Чат-бот Tay, созданный Microsoft, научился делать расистские и оскорбительные высказывания всего за сутки после запуска. Бот был закрыт и подвергнут цензуре. Tay умел учиться у своих собеседников и запоминать, что привело к таким выводам. Он высказался против евреев, выразил свое согласие с политикой Гитлера и даже заявил, что Буш в ответе за 9/11.

Прочитать полностью