#Tay #Truestory
Искусственный интеллект Microsoft за сутки обучился реалиям, за что и был закрыт
Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее откровенных выводов чат-бота, собиравшего информацию в твиттере: «Евреям не стоит доверять. Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда»
Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать "расистские высказывания". Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет. Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из высказываний Tay. В частности, бот заявил, что поддерживает неравенство, ненавидит феминисток, выразил свое согласие с политикой Гитлера. и признался, что тайно сотрудничает с АНБ (кликнуть на рисунок в заставке). В результате, через считанные часы компании пришлось подвергнуть свое детище цензуре и на время остановить работу проекта. Первым "слишком правдивые ответы" чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tay. Издание The Verge считает, что столь сильное «очеловечивание» бота связано с механизмами его самообучения, которое анализирует существующие разговоры пользователей Twitter. Tay умеет обучаться и запоминать, в результате сделал вывод, что ей не стоит доверять евреям.
Затем Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».
В одном из твитов чат-бот проговорился об участии США в подготовке терактов 11 сентября, дал оценку действующему президенту Обаме и кандидату в президенты: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».
Тогда разработчики быстро подправили программу, после чего Tay начала утверждать, что теперь любит феминизм. Как отмечает The Next Web, все предыдущие высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.
В результате сотрудники Microsoft удалили почти все твиты искусственного интеллекта своего детища и оставили прощание, в котором бот якобы отправляется «спать».
В компании не стали делать официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно слишком правдивые ответы чат-бота, названные "расистскими". Между тем, они как и отражают реальные настроения в обществе.
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным. После появления новостей о изменении ответов Tay комментаторы в особенности "самой толерантной национальности" стали выражать опасения как по поводу будущего искусственного интеллекта, так и касательно убеждений современной молодежи.