Чтобы проверить, насколько это вероятно, ученые провели тестирование с использованием двух высокоэффективных классификаторов речи, обученных реагировать на проявления ксенофобии. Классификаторам дали задание проверить около 680 тыс. комментариев к роликам на пяти популярных каналах YouTube, посвященных шахматам. Из комментариев, которые хотя бы один классификатор отметил как ксенофобские, была сформирована случайная выборка на 1000 вхождений. При ручной проверке выяснилось, что в подавляющем большинстве из них риторики ненависти не было - ложные срабатывания классификаторов были вызваны словами «черный», «белый», «атака» и «угроза». По мнению авторов, задействованные ими системы обучали на примерах, которые содержали слишком мало шахматных терминов.