En 2025, le web change de nature. Selon une étude publiée par Cloudflare, la majorité des requêtes qui transitent sur Internet ne provient plus directement des humains. Elles sont générées par des bots. Des robots d’indexation, d’IA, de sécurité ou de surveillance, devenus omniprésents.
Cette bascule ne signifie pas la disparition des internautes. Elle révèle surtout un web massivement exploré et consommé par des machines, en coulisses. Une transformation silencieuse, mais structurante pour tout l’écosystème numérique.
A retenir :
- Les bots génèrent désormais plus de requêtes que les humains.
- Googlebot domine largement le trafic automatisé.
- Les bots d’IA explosent avec les assistants génératifs.
- Les sites doivent apprendre à gérer et filtrer ces accès.
Une croissance du trafic portée par l’automatisation
Le trafic Internet mondial a progressé d’environ 19 % en 2025. Cette hausse n’est pas tirée par une explosion du nombre d’utilisateurs humains. Elle s’explique avant tout par la montée en puissance des requêtes automatisées.
Selon Cloudflare, une part croissante du web est sollicitée par :
- des crawlers de moteurs de recherche,
- des bots d’IA générative,
- des outils de monitoring et de sécurité,
- des bots malveillants ou agressifs.
Selon Cloudflare, les serveurs voient aujourd’hui davantage de requêtes automatisées que de visites humaines directes. Un changement profond dans la façon dont le web est parcouru.
Googlebot, toujours le géant du crawling mondial
Parmi tous les bots, Googlebot reste ultra-dominant. À lui seul, il représente plus d’un quart du trafic de bots vérifiés observé par Cloudflare. En 2025, il génère environ 4,5 % de toutes les requêtes HTML mondiales.
Ce chiffre dépasse même l’ensemble des autres bots d’IA combinés. GPTBot, ClaudeBot ou les crawlers de Meta pèsent ensemble autour de 4,2 % des requêtes HTML.
Selon plusieurs analyses sectorielles, Googlebot n’est plus seulement un outil d’indexation. Il sert aussi indirectement à nourrir et améliorer des systèmes d’IA, renforçant son poids stratégique.
L’explosion des bots d’IA change la donne
Le phénomène le plus marquant reste la montée fulgurante des bots liés à l’IA générative. En un an, les bots dits « user-action », capables de simuler un comportement humain sur une page, ont été multipliés par 15.
Ces bots ne se contentent plus de lire. Ils explorent, extraient, résument, comparent. Selon Cloudflare, cette dynamique accompagne l’essor des assistants capables d’aller chercher de l’information en temps réel sur le web.
J’ai pu constater ce basculement sur plusieurs sites médias. Des pics de trafic nocturnes, sans visiteurs humains visibles, mais avec des charges serveur bien réelles.
Un web saturé de robots, mais toujours humain
Dire que « les bots dominent le web » peut prêter à confusion. Les humains restent bien majoritaires côté usage réel. Navigation, achats, lectures, vidéos. Tout cela demeure humain.
Mais chaque internaute est désormais entouré d’une armée invisible de robots. Ils indexent les pages, testent la sécurité, analysent les performances, ou tentent parfois de contourner les règles.
Selon Cloudflare, cette superposition explique pourquoi le volume de requêtes bot dépasse celui des humains, sans pour autant les remplacer.
Des éditeurs contraints de reprendre le contrôle
Face à cette pression, de nombreux sites réagissent. Certains bloquent partiellement les bots d’IA via robots.txt. D’autres utilisent des solutions plus fines, comme les Verified Bots ou les Content Signals proposés par Cloudflare.
Les enjeux sont multiples :
- Maîtriser les coûts d’infrastructure, alourdis par le crawling intensif.
- Protéger les contenus contre le scraping massif.
- Clarifier l’usage des données pour l’entraînement des IA.
Un responsable technique me confiait récemment avoir réduit de 30 % sa facture serveur simplement en limitant certains crawlers non essentiels.
Ce que cela change pour les utilisateurs et les sites
Pour l’utilisateur final, l’expérience reste fluide. Le web semble toujours humain. Pourtant, en arrière-plan, l’IA et les bots façonnent déjà l’accès à l’information.
Pour les éditeurs, l’enjeu devient stratégique. Il faut :
- distinguer bots utiles et nuisibles,
- adapter les infrastructures,
- définir des règles claires d’accès aux contenus.
Un éditeur indépendant m’expliquait avoir choisi d’autoriser Googlebot, mais de bloquer certains bots d’IA, par souci de droits d’auteur. Un choix de plus en plus courant.
Selon Cloudflare, cette évolution n’en est qu’à ses débuts. La question n’est plus de savoir si les bots dominent les requêtes, mais comment nous voulons cohabiter avec eux.