Компания Microsoft запустила в Twitter чат-бот под названием «Tay», чтобы тот общался с живыми людьми и обучался, запоминая содержание разговоров, пишет Deutsche Wirtschafts Nachrichten. Словарный запас виртуальной собеседницы с сознанием молодой девушки был рассчитан на интернет-пользователей в возрасте от 18 до 24 лет. Однако спустя несколько часов эксперимент пришлось прервать, так как программа стала публиковать сообщения, в которых восхваляла Адольфа Гитлера, отрицала Холокост и оскорбляла афро-американцев.
За пару часов в интернете чат-бот Microsoft превратился в нациста
Microsoft отключил свой чат-бот «Tay» за ксенофобские высказывания, сообщает Deutsche Wirtschafts Nachrichten. Эксперимент в Twitter, где программа должны была общаться с живыми людьми, пришлось прервать уже через несколько часов, так как «Tay» стала публиковать оскорбительные твиты, восхваляя Адольфа Гитлера и отрицая Холокост.
Сейчас виртуальная собеседница находится на доработке.
Большая часть твитов уже удалена, продолжает издание. На своей странице в Twitter чат-бот опубликовала сообщение о том, что ей нужно поспасть после стольких разговоров, и вышла из сети. В Microsoft сообщили, что в программе нужно «кое-что исправить».
Изначально разработчики использовали в чат-боте фильтр нецензурных выражений, но, видимо, они недооценили ту «деструктивную энергию, с которой интернет-пользователи общаются на политические темы», а также их изобретательность. Оказалось, что с помощью простой команды «Повторяй за мной» можно было заставить «Tay» говорить что угодно.
Сама идея создания такой программы не нова, отмечает Deutsche Wirtschafts Nachrichten.
Первый чат-бот был создан 50 лет назад. Он назывался Eliza. Виртуальная собеседница могла поддерживать разговор, подставляя подходящие фразы к распознанным ключевым словам. На фоне развития самообучающихся машин и искусственного интеллекта такие технологии считаются все более перспективными в сфере обслуживания клиентов. К примеру, Facebook разработал для своего мессенджера виртуального ассистента.
Понравилась статья? Подпишитесь на канал, чтобы быть в курсе самых интересных материалов
Подписаться
Свежие комментарии