Un changement discret, mais majeur
Google a touché à un petit levier qui soutenait silencieusement tout l’écosystème de la recherche :
la disparition de l’option pour afficher plus de dix résultats par page et la fin du paramètre d’URL
&num=100
. D’un point de vue utilisateur, c’est un bouton en moins.
Du point de vue de la liberté d’exploration — humaine et IA —
c’est un goulot d’étranglement.
Ce changement n’a pas été claironné en fanfare. Il s’est imposé, test après test, jusqu’à devenir la nouvelle norme : dix liens, pas un de plus. Je vous propose de décortiquer ce que cela signifie pour Google, pour les IA, et pour le web ouvert.
Ce que Google a réellement fait
- Suppression de l’option “résultats par page” dans les paramètres de recherche.
- Limitation effective à 10 résultats, même quand on force l’URL avec
&num=100
. - Aucune communication officielle détaillée ; d’abord perçu comme un test A/B, puis confirmé comme un changement durable.
- Effet UX direct : plus de clics, moins de visibilité pour la longue traîne, dépendance accrue à la première page.
Concrètement, des fils sur le forum d’aide de Google ont constaté dès août 2024 la
disparition de l’option et l’inefficacité de &num=100
(fil de support).
En septembre 2025, la presse spécialisée a confirmé que Google ne prenait plus en charge ce paramètre
(Search Engine Land)
et que cela perturbait jusqu’aux rapports de Search Console
(SERoundtable).
Le même mois, des tests montraient encore des comportements intermittents — typiques d’un déploiement progressif
(SERoundtable).
Pourquoi Google pourrait vouloir ce changement
Il n’y a jamais une seule raison chez Google. Il y a des arbitrages.
Hypothèse | Objectif caché | Conséquence |
---|---|---|
Monétisation | Plus de pages vues = plus d’impressions publicitaires. | CPM global en hausse, pression publicitaire accrue. |
Contrôle du narratif | Réduction de la diversité visible pour renforcer la hiérarchie algorithmique. | Concentration du trafic sur les “grands” sites et les sources mainstream. |
Préparer l’ère IA | Faire de la place aux AI Overviews et garder l’utilisateur dans l’écosystème Google. | Baisse des clics sortants, hausse des réponses “sur place”. |
Simplification technique | Optimiser le rendu mobile-first et les pipelines internes pour l’IA. | Indexation et génération de snippets plus prévisibles. |
Ce que cela change pour les IA
Beaucoup d’IA et d’outils d’agrégation (RAG, analyse de tendances, scraping légitime) collectaient historiquement 50 à 100 liens par requête pour diversifier leurs sources. Avec une fenêtre “top 10” imposée, on obtient :
- ↓ Diversité des données accessibles ;
- ↑ Dépendance aux mêmes sources dominantes ;
- ↑ Risque de biais (les mêmes idées reviennent, en boucle).
Si toutes les IA mangent à la même cantine, elles finissent par servir les mêmes plats. C’est pratique pour standardiser les réponses ; c’est dangereux pour la créativité et la vérification.
Conséquences pour Internet en général
- Réduction de la visibilité des petits sites et des indépendants ;
- Érosion de la longue traîne : le web au-delà du top 10 s’efface ;
- Concentration de l’attention sur une première page devenue l’unique fenêtre ;
- Effet de bulle : les mêmes sources créent les mêmes angles.
J’en parlais déjà en filigrane dans mes analyses maison : la bataille de l’attention façonne la réalité numérique que nous consommons. Pour creuser le sujet côté outils et alternatives IA, je renvoie à mon comparatif des IA populaires et de leurs équivalents gratuits et à mon billet d’anticipation “IA 2027”.
Les implications stratégiques pour Google
Court terme : plus de contrôle, une apparente “fiabilité”, une intégration IA plus fluide.
Moyen terme : image d’arbitre de la vérité, défiance des éditeurs et des utilisateurs avancés ; en Europe, attente de transparence et risques antitrust.
Long terme : Google glisse d’un rôle d’index à celui de fournisseur d’interprétation. Le moteur ne montre plus le web, il le résume.
À noter : certains SEO ont mesuré l’impact direct de la fin de &num=100
sur leurs données,
avec des chutes d’impressions dans Search Console liées au changement de pagination et d’extraction
(analyse chiffrée).
Vers un web centralisé par l’IA
La tendance est nette : l’utilisateur ne cherche plus, il reçoit. Les IA ne montrent plus la diversité du web, elles en livrent une version filtrée. Internet était un océan ; il devient un aquarium : clair, bien éclairé, mais aux parois invisibles.
Et pendant ce temps, seules les IA internes aux grandes plateformes gardent une vision relativement complète du web. Les autres tournent autour des mêmes dix rochers.
Vers une IA qui tourne en rond ?
Si toutes les IA s’alimentent des mêmes dix résultats, elles finiront par produire les mêmes analyses. La créativité, la diversité et la vérification des sources paieront l’addition.
En voulant maîtriser la qualité, Google risque de rendre l’IA — et nous avec — un peu moins intelligents. Le futur n’appartiendra pas à ceux qui savent cliquer… mais à ceux qui savent contourner.
Comment contourner la limite ?
🧭 Utiliser des moteurs alternatifs
- DuckDuckGo — respect de la vie privée, résultats non personnalisés.
- Brave Search — index indépendant + API ; pagination contrôlable (docs API).
- Kagi — payant, sans pub, réglages fins et “lenses” personnalisables (réglages).
📦 Explorer des bases ouvertes
- Common Crawl — archives massives du web.
- OpenWebText — corpus inspiré de Reddit (communauté).
🔍 Opérateurs avancés (Google ou alternatifs)
site:
, inurl:
, filetype:
, intitle:
pour cibler précisément et reconstituer votre “top 100” par sous-requêtes.
🤖 Approche développeur / chercheur
- Automatiser des requêtes multiples via API (Brave, Kagi, Bing Web Search) pour agréger 50–200 liens.
- Coupler à un pipeline RAG (dedup, scoring, diversité de domaines) pour éviter la bouillie “top 10”.
Côté “culture maison”, j’explique mon propre usage des IA pour défricher le terrain dans mon retour sur un projet IA + code.