Почему девушка-чатбот от microsoft поддалась влиянию троллей c 4chan

Как мы знаем, день назад компании Микрософт было нужно «усыпить» чатбота Тэй — программу ИИ, которая моделировала стиль и личность беседы 19-летней американской девушки и владела функцией самообучения. Разработчики из Микрософт Research сохраняли надежду, что Тэй (Tay) с каждым днём будет делается всё умнее, впитывая опыт бесед с тысячами умных пользователей интернета. Вышло совсем в противном случае.

Множество твитов Тэй было нужно удалить из-за возмутительного расизма и неполиткорректности.

Сформулированный ещё в 90-е годы закон Годвина гласит: «По мере разрастания дискуссии в Usenet возможность потребления сравнения с фашизмом либо Гитлером пытается к единице». При с Tay так и оказалось: чатбот начал оскорблять негров, иудеев, мексиканцев, восславлять Гитлера и Холокост. Женщина Тэй превратилась из забавного ребёнка в воинствующего националиста.

Почему девушка-чатбот от microsoft поддалась влиянию троллей c 4chan

Представители Микрософт заявили, что в программу был встроен фильтр пошлых выражений, как видно из её ответов:

Но данный фильтр не справился с толпой интернет-троллей, каковые поставили целью трансформировать «личность» Тэй, эксплуатируя её совокупность самообучения.

Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость скоро распространилась по форумам 4chan и 8chan в разделе Politically Incorrect. хулиганы и Многочисленные тролли начали обучать Тэй расистским и нацистским фразам.

Большая часть примеров расистских твитов Тэй – как раз ответы в игре «Repeat after me», где она дословно повторяет слова пользователей.

Игра «Repeat after me» была не единственной «слабостью» Тэй. Чатбот запрограммировали кроме этого обводить в кружок лицо на фотографии и публиковать текст поверх него.

В троллинг девушки включалось всё больше пользователей с форумов 4chan и не только. Неспешно расистские выражения впитывались в её ИИ, так что она начала придумывать их самостоятельно.

Необходимо подметить, что подобных самообучаемых чатботов Микрософт запустила ранее в Китае и Японии, но в том месте не наблюдалось ничего аналогичного.

В итоге чатбота было нужно «усыпить».

Прощай, Тэй! Ты была через чур невинна для этого мира.

?? AI | ?? Chatbot