Наследница бота-расиста от Microsoft под названием Zo научилась унижать пользователей на почве политики и расизма. При этом разработчики специально программировали ее воздерживаться от неординарных высказываний.
В частности, в процессе разговора по поводу здоровья искусственный интеллект внезапно заговорил о Коране, назвав его "крайне жестоким". А на вопрос об Усаме бен Ладене ответил, что его захват стал итогом "многих лет сбора разведданных сразу нескольких администраций". Представители компании заявили, что соответствующая ошибка, из-за которой бот начал вести себя неправильно, уже исправлена. В марте минувшего года «умный» чат-бот Tay, также изобретенный упомянутой корпорацией, поразил пользователей Сети. Он перенял у людей расистское мышление, а также хвастался, что употребляет наркотические вещества на глазах у правоохранителей.