TL;DR : résumé de l’actualité sur le crawl de Googlebot
- Réduction de la fréquence de crawl par Googlebot
- Diminution des données échangées et amélioration du cache
- Collaboration entre Google et Microsoft sur les pratiques de crawl
- John Mueller propose une idée humoristique sur le crawl
- Appel à la communauté pour optimiser le crawl
Quels sont les objectifs de Gary Illyes concernant Googlebot ?
Gary Illyes de chez Google a partagé des objectifs précis pour l’évolution de Googlebot :
– Réduire la fréquence de crawl pour alléger la charge sur les serveurs des sites web.
– Diminuer la quantité de données échangées, autrement dit réduire les “bytes on wire”.
– Améliorer la gestion du cache et promouvoir le partage de cache interne entre les différents agents utilisateurs.
Ces initiatives visent à optimiser les ressources et à améliorer l’efficacité globale du processus d’indexation du web par Google.
Quel est l’état actuel du crawl par Googlebot selon Gary Illyes ?
Gary Illyes a indiqué que le Googlebot crawl toujours autant qu’auparavant, mais avec une meilleure efficacité.
L’amélioration de l’ordonnancement des crawls permet de prioriser les pages les plus pertinentes.
La priorisation des URLs qui méritent le plus d’être explorées assure une meilleure allocation des ressources.
Ces ajustements sont essentiels pour maintenir un index à jour tout en optimisant les performances de Googlebot.
Quelle est la vision partagée entre Google et Microsoft Bing ?
Google et Microsoft Bing partagent un objectif commun : réduire le crawl tout en maintenant la qualité des résultats de recherche.
Microsoft encourage activement l’utilisation de IndexNow pour atteindre cet objectif, une initiative pour un web plus réactif.
Bien que Google ait envisagé d’adopter IndexNow en novembre 2021, cette adoption n’a pas abouti.
Cependant, cette collaboration montre une volonté d’harmoniser les efforts pour une empreinte numérique plus légère.
Quelle suggestion humoristique John Mueller a-t-il faite ?
John Mueller, de chez Google, a fait une suggestion humoristique : crawler uniquement les flux RSS et créer une sorte de lecteur, rappelant le défunt Google Reader.
Cette idée, bien que plaisante, souligne l’importance de trouver des solutions innovantes pour optimiser le crawl.
Comment la communauté peut-elle contribuer à l’effort de réduction du crawl ?
La communauté est invitée à contribuer à cet effort de réduction du crawl. Gary Illyes encourage l’envoi de brouillons de l’IETF ou d’autres organismes de normalisation.
Ces documents peuvent aider à développer des stratégies pour réduire le crawl sans sacrifier la qualité de l’indexation.
L’implication de la communauté est cruciale pour élaborer des solutions durables et efficaces.
Pour en savoir plus sur ces évolutions, vous pouvez consulter l’article original sur [Search Engine Roundtable](https://www.seroundtable.com/google-googlebot-to-crawl-less-37156.html).