Бот-трафик — любое посещение сайта не человеком. Это не означает, что каждый зашедший к вам робот несет опасность. Например, поисковые роботы Яндекса и Гугла, боты защиты авторских прав, роботы различных SEO-программ — это безобидные гости, которые не сделают сайту ничего плохого. А вот спам-боты, DDoS-боты и другие вредоносные роботы — это уже проблема. Обычно вредоносные боты формируют бот-сети. Бот-сети — группы компьютеров, в которых установлены вредоносные боты. Очень часто обычные пользователи даже не подозревают, что их компьютер входит в бот-сеть. Компьютеры заражаются вирусами, и спамеры получают частичный контроль над аппаратом. Затем компьютер используется для рассылки спама или DDoS-атак. Если вы стали замечать, что компьютер работает заметно медленнее, чем обычно, то рекомендуется проверить его на предмет присутствия вредоносных ботов.
Если на сайт проник вредоносный робот, то он искажает реальные цифры аналитических показателей. Вы не сможете опираться на поступающие данные по просмотрам страниц, показателям отказов, геолокации посетителей ресурса, среднее время нахождения на сайте и т. д. Без объективных показателей невозможно грамотно настроить рекламные кампании, оптимизировать процессы сайта, выбрать правильную стратегию продвижения бренда в сети. Полагаясь на необъективные данные, вы рискуете потерять время, деньги и силы.
Чтобы минимизировать число вредоносных ботов на сайте, регулярно сканируйте уязвимости безопасности ресурса. Легче всего это делать с помощью специальных программ ― например, SUCURI, Quttera, Detectify и другие подобные. На данный момент использование дополнительных программ и своевременная диагностика уязвимости сайта — единственный способ не попасть в ловушку вредоносных роботов. Системы аналитики не успевают вовремя обновляться, чтобы распознавать бот-трафик и отсеивать его при выдаче результатов показателей.