Les bots générateurs de trafic sont une arme à double tranchant. Bien qu’au début, ils puissent être une solution intéressante pour générer du trafic, il est fort possible qu’à long terme, ils finissent par affecter négativement votre site Web.
Le trafic de bot décrit tout trafic non humain vers un site Web ou une application. Le terme trafic de bots a généralement une connotation négative, mais en réalité, le trafic de bots n’est pas intrinsèquement bon ou mauvais, cela dépend de l’objectif des bots.
Certains bots sont essentiels pour des services utiles comme les moteurs de recherche et les assistants numériques (par exemple Siri, Alexa). La plupart des entreprises acceptent ces types de bots sur leurs sites.
D’autres robots peuvent avoir un objectif malveillant, tels que ceux utilisés pour le credential stuffing, le scraping de données et le lancement d’attaques DDoS. Même certains des “mauvais” bots les plus bénins, comme les robots d’indexation Web malveillants, peuvent être ennuyeux car ils peuvent perturber l’analyse du site et conduire à la fraude au clic.
On estime que plus de 40 % de tout le trafic sur Internet est constitué de trafic de bots, et qu’une partie importante de celui-ci est constituée de bots malveillants. Pour cette raison, de nombreuses organisations recherchent des moyens de gérer le trafic des bots arrivant sur leurs sites.
Les ingénieurs Web peuvent visualiser directement les requêtes réseau sur leurs sites et identifier le trafic potentiel des bots. Des outils d’analyse Web intégrés tels que Google Analytics ou Heap peuvent également aider à détecter le trafic de robots.
Les anomalies analytiques suivantes sont des caractéristiques du trafic de bot :
Comme mentionné ci-dessus, le trafic de bot non autorisé peut avoir un impact sur les mesures d’analyse telles que les pages vues, le taux de rebond, la durée de la session, la géolocalisation des utilisateurs et les conversions. Ces écarts de métriques peuvent être frustrants pour le propriétaire du site ; il est très difficile de mesurer les performances d’un site inondé de bots. Les tentatives d’amélioration du site, telles que les tests A/B et l’optimisation du taux de conversion, sont également paralysées par le bruit statistique généré par les bots.
Google Analytics offre une option pour “exclure tous les résultats des robots et des araignées connus” (les araignées sont des robots des moteurs de recherche qui explorent les pages Web). Si la source du trafic des robots peut être identifiée, les utilisateurs peuvent également fournir une liste spécifique d’adresses IP à ignorer par Google Analytics.
Bien que ces mesures puissent empêcher certains bots de casser l’analyse, elles n’arrêteront pas tous les bots. De plus, la plupart des bots malveillants ont un objectif autre que de perturber l’analyse du trafic, et en dehors de la préservation des données d’analyse, ces mesures ne font rien pour atténuer l’activité nuisible des bots.
L’envoi de quantités massives de trafic de robots est un moyen très courant, utilisé par les attaquants pour lancer une attaque DDoS. Lors de certains types d’attaques DDoS, une telle quantité de trafic d’attaque est dirigée vers un site Web que le serveur d’origine est surchargé et que le site ralentit ou devient indisponible pour les utilisateurs légitimes.
Certains sites Web peuvent être financièrement affectés par le trafic de robots malveillants, même si leur fonctionnalité n’est pas affectée. Les sites qui dépendent de la publicité et ceux qui vendent des marchandises avec un inventaire limité sont particulièrement vulnérables.
Pour les sites qui diffusent des publicités, les bots qui apparaissent sur le site et cliquent sur divers éléments de la page peuvent entraîner de faux clics publicitaires ; c’est ce qu’on appelle la fraude au clic.
Bien que cela puisse initialement entraîner une augmentation des revenus publicitaires, les réseaux publicitaires en ligne sont très efficaces pour détecter les clics de robots. S’ils soupçonnent qu’un site Web commet une fraude au clic, ils prendront des mesures, telles que l’interdiction du site Web et de son propriétaire de leur réseau. Pour cette raison, les propriétaires de sites d’hébergement de publicités doivent se méfier particulièrement de la fraude au clic de bot.
La création d’une nouvelle vue est très facile tant que vous gardez à l’esprit qu’aucun historique ne vous sera attribué.
Le trafic robotique est généré par des paramètres dès la première saisie de votre compte dans Analytics.