Table des matières de l'article :
Imperva, un leader de la cybersécurité qui protège les applications, API et données critiques à grande échelle, a annoncé la sortie du Rapport sur les mauvais robots 2024, une analyse globale du trafic automatisé des robots sur Internet. Près de la moitié (49,6 %) du trafic Internet en 2023 a été généré par des robots, soit une augmentation de 2 % par rapport à l'année précédente, le niveau le plus élevé enregistré par Imperva depuis 2013, l'année où elle a commencé à suivre le trafic automatisé.
Pour la cinquième année consécutive, la part du trafic web associée aux bad bots a augmenté, atteignant 32 % en 2023, contre 30,2 % en 2022, tandis que le trafic des utilisateurs humains a diminué à 50,4 %. Le trafic automatisé coûte aux organisations des milliards de dollars chaque année en raison des attaques contre les sites Web, les API et les applications.
Les robots constituent l'une des menaces les plus répandues et croissantes auxquelles sont confrontés tous les secteurs, déclare Nanhi Singh, directeur général de la sécurité des applications chez Imperva. « Du simple web scraping aux piratages de comptes, en passant par les attaques de spam et de déni de service, les robots ont un impact négatif sur les services en ligne d'une organisation, nécessitant des investissements plus importants dans l'infrastructure et le support client. Les organisations doivent lutter de manière proactive contre la menace des robots malveillants, alors que les attaquants se concentrent davantage sur les abus liés aux API qui peuvent conduire à une compromission de compte ou à une exfiltration de données.
Principales tendances identifiées dans le rapport Bad Bots 2024 :
- La moyenne mondiale du trafic des robots malveillants a atteint 32 % :
L'Irlande (71 %), l'Allemagne (67,5 %) et le Mexique (42,8 %) ont enregistré les niveaux de trafic de robots malveillants les plus élevés en 2023. Les États-Unis ont également connu une légère augmentation du trafic de robots malveillants, passant de 32,1 % en 2022 à 35,4 % en 2023. XNUMX. - Utilisation croissante de l’IA générative liée à l’essor des simples robots :
L'adoption rapide de l'IA générative et des grands modèles de langage (LLM) a conduit à une augmentation du volume de robots simples à 39,6 % en 2023, contre 33,4 % en 2022. Cette technologie utilise des robots de scraping Web automatisé et des robots d'exploration pour alimenter des modèles de formation, permettant utilisateurs techniques pour écrire des scripts automatisés pour un usage personnel. - Le rachat de compte est un risque commercial persistant :
Les attaques de piratage de compte (ATO) ont augmenté de 10 % en 2023 par rapport à la même période de l'année dernière. Il est remarquable que 44 % de toutes les attaques ATO ciblaient les points de terminaison des API, contre 35 % en 2022. Parmi toutes les tentatives de connexion Internet, 11 % étaient associées à un piratage de compte. Les secteurs qui ont connu le plus grand volume d'attaques ATO en 2023 étaient les services financiers (36,8 %), les voyages (11,5 %) et les services aux entreprises (8 %). - Les API sont un vecteur d'attaque populaire :
Les menaces automatisées sont à l'origine de 30 % des attaques d'API en 2023. Parmi celles-ci, 17 % étaient des robots malveillants qui exploitaient des vulnérabilités de la logique métier, une faille dans la conception et la mise en œuvre des API qui permet aux attaquants de manipuler des fonctionnalités légitimes et d'accéder à des données sensibles ou à des comptes d'utilisateurs. Les cybercriminels utilisent des robots automatisés pour trouver et exploiter les API, qui servent de chemin direct vers les données sensibles, ce qui en fait une cible privilégiée pour les abus de logique métier. - Chaque secteur a un problème de robot :
Pour la deuxième année consécutive, le secteur des jeux (57,2 %) a enregistré la plus forte proportion de trafic de robots malveillants. Pendant ce temps, les secteurs de la vente au détail (24,4 %), des voyages (20,7 %) et des services financiers (15,7 %) ont connu le plus grand volume d'attaques de robots. La proportion de robots malveillants avancés, ceux qui imitent fidèlement le comportement humain et échappent aux défenses, était la plus élevée sur les sites Web du secteur juridique et gouvernemental (75,8 %), du divertissement (70,8 %) et des services financiers (67,1 %). - Le trafic de robots malveillants provenant des FAI résidentiels atteint 25,8 % :
Les techniques d'évasion initiales des robots malveillants reposaient sur le fait de se faire passer pour l'agent utilisateur (navigateur) couramment utilisé par les utilisateurs humains légitimes. Les robots malveillants se faisant passer pour des agents utilisateurs mobiles représentaient 44,8 % de tout le trafic des robots malveillants au cours de l'année écoulée, contre 28,1 % il y a à peine cinq ans. Les acteurs sophistiqués combinent des agents utilisateurs mobiles avec le recours à des FAI résidentiels ou mobiles. Les proxys résidentiels permettent aux opérateurs de robots d'échapper à la détection en faisant apparaître la source du trafic comme une adresse IP résidentielle légitime attribuée par un FAI.
Le trafic automatisé dépassera bientôt la proportion du trafic Internet provenant des humains, modifiant ainsi la façon dont les organisations abordent la création et la sécurisation de leurs sites Web et applications », poursuit Singh. « À mesure que de plus en plus d’outils basés sur l’IA seront introduits, les robots deviendront omniprésents. Les organisations doivent investir dans des outils de gestion des robots et de sécurité des API pour gérer la menace du trafic automatisé et malveillant.
Aperçu de l’analyse des Bad Bots
Imperva, une entreprise leader en cybersécurité axée sur la protection des applications et des données Web, est connue pour ses services de protection des applications et des données similaires à ceux proposés par CloudFlare. Chaque année, Imperva publie un rapport détaillé sur les bad bots, fournissant une analyse approfondie du trafic automatisé sur Internet. Ce rapport est devenu une ressource clé pour les entreprises cherchant à comprendre et à atténuer les menaces posées par les robots malveillants.
L'impact des robots sur les entreprises
Les mauvais robots sont des programmes automatisés conçus pour effectuer des tâches sur Internet sans intervention humaine. Bien qu'il existe de « bons » robots utilisés à des fins légitimes telles que l'indexation des moteurs de recherche, Les robots malveillants sont créés à des fins malveillantes, telles que le web scraping, le vol de données, la détection de vulnérabilités et la réalisation d'attaques DDoS.. L’augmentation du trafic généré par les bad bots a de lourdes conséquences pour les entreprises, notamment :
- Augmentation des coûts de fonctionnement :
Les robots malveillants peuvent consommer une quantité importante de ressources réseau et serveur, obligeant les entreprises à investir dans une infrastructure supplémentaire pour gérer la charge de trafic supplémentaire. Cela peut entraîner une augmentation des coûts d’exploitation et une réduction des performances des services en ligne. - Compromis de sécurité :
Les robots malveillants peuvent identifier et exploiter les vulnérabilités des applications Web et des API, permettant aux attaquants d'accéder à des données sensibles et de compromettre les comptes d'utilisateurs. Ce type d’activité peut entraîner des violations de données et des pertes financières importantes pour les entreprises. - Dommages à la réputation :
Les attaques de robots peuvent avoir un impact négatif sur l'expérience utilisateur, provoquant des temps d'arrêt, des ralentissements et d'autres problèmes de performances sur les sites Web. Cela peut nuire à la réputation d’une entreprise et entraîner une perte de confiance des clients. - Augmentation de la charge de travail du support client :
Les problèmes causés par des robots malveillants nécessitent souvent l’intervention du support client pour être résolus. Cela augmente la charge de travail du personnel d'assistance et peut allonger les délais de réponse aux demandes légitimes des clients.
Le besoin d’outils de gestion de robots et de sécurité des API
Pour répondre efficacement à la menace posée par les robots malveillants, les entreprises doivent investir dans des solutions avancées de gestion des robots et de sécurité des API. Ces outils peuvent aider à détecter et à bloquer le trafic de robots malveillants, tout en protégeant les ressources de l'entreprise et en améliorant les performances des services en ligne. Parmi les solutions les plus efficaces figurent :
- Gestion des robots :
Outils de gestion des robots qui utilisent l'apprentissage automatique et l'analyse comportementale pour identifier et bloquer les robots malveillants en temps réel. Ces outils peuvent faire la distinction entre le trafic légitime et le trafic généré par les robots, garantissant ainsi que les ressources de l'entreprise sont utilisées efficacement. - Sécurité des API :
Solutions de sécurité API qui protègent les interfaces de programmation d’applications contre les abus et les attaques malveillantes. Ces outils peuvent surveiller le trafic des API, détecter les anomalies et appliquer des politiques de sécurité pour empêcher tout accès non autorisé aux données sensibles. - Atténuation des attaques DDoS :
Services d'atténuation DDoS capables d'identifier et de bloquer le trafic malveillant généré par les robots avant qu'il n'atteigne l'infrastructure de l'entreprise. Ces services peuvent protéger les sites Web et les applications des perturbations causées par les attaques DDoS.
Conclusions
Le rapport Bad Bots 2024 d'Imperva souligne l'importance de lutter contre la menace croissante des robots malveillants sur Internet. Avec près de la moitié du trafic mondial généré par des robots, les entreprises doivent prendre des mesures proactives pour protéger leurs actifs et garantir la sécurité des données et des applications. Cela inclut la mise en œuvre de solutions avancées de gestion des robots et de sécurité des API, essentielles pour atténuer les risques associés aux robots malveillants. Les sites Web, les API et les principaux serveurs Web comme Apache et NGINX sont particulièrement vulnérables aux attaques automatisées. La protection de ces composants critiques protège non seulement les opérations commerciales, mais garantit également une expérience utilisateur sûre et fiable, préservant ainsi la réputation et la continuité opérationnelle des entreprises en ligne.