Que faire si une même URL apparaît tant comme indexée que non indexée sur Google Search Console ?
Bonjour à tous, Je me pose une question assez technique concernant la Google Search Console. J'ai remarqué un phénomène étrange sur plusieurs sites que je gère : certaines URLs apparaissent à la fois dans la section des pages indexées et dans celle des pages non indexées (plus précisément, 'découvertes, actuellement non indexées'). Est-ce que quelqu'un a déjà rencontré ce problème ? Si oui, comment l'avez-vous résolu ? Je suis preneur de toute piste ou explication possible. Je me demande si ça peut venir d'un problème de crawl budget, de contenu dupliqué, ou d'autre chose... Merci d'avance pour votre aide !
Commentaires (9)
-
Salut VerseVoyager16, Ah, la fameuse schizophrénie de la Google Search Console, je connais bien! 😅 C'est comme quand tu demandes à ton équipe si tout va bien et que tu reçois un "oui" hésitant... faut creuser! Ce que tu décris, c'est typiquement Google qui hésite : "je te vois, je te vois plus, je te revois... Ah non, en fait...". Les raisons peuvent être multiples, mais déjà, le fait que Google te dise "découverte, actuellement non indexée" est un indice. Comme le disait la data, ça veut souvent dire que Google a détecté la page, mais n'a pas jugé utile de la crawler *tout de suite*. Ça peut être lié à plusieurs facteurs. Déjà, l'histoire du crawl budget, c'est pas une blague. Si ton site est gros, Google doit faire des choix. Imagine que tu as un budget limité pour offrir des cadeaux à Noël 🎁. Tu vas prioriser les personnes que tu apprécies le plus, non ? Ben Google, c'est pareil. Les pages qu'il juge importantes (contenu de qualité, mises à jour fréquentes, etc.), il va les crawler en premier. Ensuite, le contenu dupliqué, c'est le grand classique. Si Google pense que ta page est une copie d'une autre, il va pas se fatiguer. Vérifie bien qu'il n'y a pas de similarités excessives avec d'autres pages, internes ou externes. Utilise un outil comme Siteliner pour détecter ça. Le maillage interne, c'est aussi un truc à checker. Est-ce que ta page est bien liée depuis d'autres pages de ton site ? Si elle est orpheline 🥺, Google aura du mal à la trouver et à la considérer comme importante. Et enfin, l'hébergement. Si ton serveur répond lentement ou a des indisponibilités fréquentes, Google va lever le pied. Il n'a pas envie de perdre son temps sur un site qui rame. En gros, je te conseillerais de : 1. **Analyser tes logs serveur.** Regarde si Googlebot rencontre des erreurs (404, 500, etc.) quand il essaie de crawler ces URLs. 2. **Améliorer la qualité du contenu.** Assure-toi que tes pages sont uniques, intéressantes et apportent une valeur ajoutée. 3. **Optimiser ton maillage interne.** Crée des liens pertinents vers ces pages depuis d'autres pages de ton site. 4. **Vérifier la vitesse de ton site.** Utilise PageSpeed Insights pour identifier les points faibles et les corriger. 5. **Soumettre les URLs à l'indexation via la Search Console.** Ça peut donner un petit coup de pouce. En espérant que ça t'aide ! 😉
-
Super analyse LeadRigolo ! 👍 Pour compléter, je me demandais si VerseVoyager16 avait bien vérifié les erreurs remontées par la Search Console ? Souvent, elle donne des indications assez claires sur les problèmes rencontrés. Et sinon, pour ceux qui débutent avec la Search Console, je vous conseille cette vidéo : [Google Search Console : Élimine les erreurs néfastes au bon référencement de ton site [SEO]]
-
Rhythmatales, excellente suggestion de vérifier les erreurs dans la Search Console ! C'est souvent la première chose à faire, et pourtant, on peut facilement passer à côté, surtout quand on est pris dans le feu de l'action. Et merci pour le partage de la vidéo, c'est toujours utile d'avoir des ressources pédagogiques sous la main pour aider ceux qui démarrent ! 😄
-
Mouais, enfin bon, la vidéo, c'est un peu la solution de facilité, non ? Genre, "regardez une vidéo et hop, problème réglé". Faut pas prendre les gens pour des quiches non plus. Parfois, faut vraiment mettre les mains dans le cambouis et aller voir les logs, comme je disais. Mais bon, chacun sa méthode hein... 🤔
-
LeadRigolo, t'as pas tort sur le fait qu'une vidéo, ça remplace pas une analyse poussée. Mais je pense que c'est surtout un bon point de départ. Après, c'est sûr que faut pas hésiter à fouiller les logs, c'est là qu'on trouve les vrais indices. D'ailleurs, un truc que j'aime bien faire en complément, c'est utiliser Screaming Frog pour crawler le site et voir comment il est perçu par un "faux" Googlebot. Ça permet de détecter des problèmes que la Search Console ne montre pas toujours directement.
-
Merci Rhythmatales pour l'astuce Screaming Frog ! J'avoue, je l'utilise moins ces derniers temps, mais c'est vrai que c'est un outil top pour avoir une vision claire du site. Faudrait que je m'y replonge... 😃
-
Bon, je reviens vers vous après avoir exploré vos pistes. J'ai passé Screaming Frog sur le site, comme suggéré, et effectivement, ça a mis en lumière quelques erreurs 404 que la Search Console ne listait pas explicitement. J'ai corrigé ces liens cassés, soumis de nouveau les URLs à l'indexation, et... ça semble avoir porté ses fruits ! Le statut 'découvert, actuellement non indexé' a disparu pour la majorité des pages concernées. Merci pour vos conseils ! Ça m'a forcé à revoir certains basiques que j'avais un peu négligés.
-
Content de t'avoir aidé VerseVoyager16 ! 😄 C'est toujours les petits détails qui font la diff, hein ? Genre, tu crois que ton site est nickel et là, paf, une 404 qui traîne et qui fout le boxon. Si jamais ça se reproduit, un truc que tu peux aussi tester, c'est de regarder la "couverture" dans la Search Console (l'onglet "Pages"). Des fois, Google te donne des infos un peu plus précises sur pourquoi il a du mal avec certaines pages. C'est pas toujours super clair, mais ça peut donner des pistes. Et puis, n'hésite pas à jeter un oeil à ton fichier robots.txt. On sait jamais, peut-être qu'une règle un peu trop zélée empêche Google de crawler certaines parties de ton site. Allez, bonne continuation et bon courage pour la suite! 💪
-
robots.txt, bien vu LeadRigolo ! On a vite fait de faire une boulette là-dessus. Une fois, j'avais bloqué tout un dossier par erreur... 😳 Heureusement que je m'en suis rendu compte assez vite. Vérifier la couverture, c'est une bonne idée aussi, mais c'est vrai que les infos sont parfois un peu cryptiques.
VerseVoyager16
le 03 Mai 2025