Vous avez investi beaucoup de travail dans votre contenu, vous avez optimisé votre site, développé une bonne structure logique et obtenu de nombreux liens pertinents pour votre contenu ? En fait, votre site devrait avoir de bonnes positions chez Google
Google a également besoin de temps. Ainsi, si vous avez récemment lancé votre site, il peut arriver que Google n’ait pas encore trouvé et indexé votre site. Habituellement, le Google Crawler suit les URL connues et suit toutes les nouvelles URL que Google peut trouver dans ce processus d’exploration. Le dernier chiffre connu est que Google compte plus de 130 billions de pages dans son index. Et même si Google dispose de l’une des plus grandes capacités de calcul au monde, il donne la priorité à son exploration et à son indexation. Il existe un moyen simple d’informer Google des nouvelles pages, mais aussi des modifications apportées à vos pages. Vous allez sur la console de recherche Google.
S’il s’agit d’une sous-page, il est possible qu’elle ne soit pas liée correctement ou pas liée du tout. Peut-être qu’il manque aussi dans le plan de site XML. Le premier rend difficile l’exploration de la page par Google. L’absence de cette information dans le plan de site XML ne fait que retarder le tout.
Avec la balise Canonical, vous pouvez vous assurer que s’il existe plusieurs URL avec un contenu identique ou similaire, une seule URL est utilisée pour l’indexation. Cela permet d’éviter les inconvénients des contenus dupliqués. Si, par exemple, après un nouveau lancement, le Canonical renvoie à une autre URL, l’URL d’origine ne peut pas être indexée correctement.
La plupart du temps, la console de recherche, outils pour les webmasters vous indiquera ce point. Jetez donc toujours un coup d’œil aux notifications dans le coin supérieur droit ou aux notifications de sécurité dans la navigation de gauche. Sinon, on vous recommande le SaaS Sucuri Anti-Malware, ce service surveille constamment votre site web et vous informe en cas de problèmes et vous aide à les résoudre.
Si vous fournissez un contenu qui est exactement identique ou très similaire à celui d’un autre site, Google indexera cette page, mais ne l’affichera probablement pas là où vous le souhaiteriez. La raison : ce contenu n’est pas unique. Cela arrive particulièrement souvent avec les descriptions de produits dans les boutiques en ligne ou la navigation à facettes. Vous pouvez facilement savoir si vous fournissez un contenu en double en prenant une phrase du texte en question et en la recherchant sur Google à l’aide de guillemets ou en vérifiant l’URL de votre DC sur Copyscape.
La balise meta robots avec la valeur noindex peut empêcher Google d’indexer votre page. Si vous voulez changer cela, supprimez la valeur noindex. La plupart du temps, ces réglages sont effectués par le biais de votre système de gestion de contenu. La commande noindex est située dans la section principale de votre site web; Un outil simple pour détecter la mauvaise étiquette via un “noindex” est browseo. Nous vous montrons ci-dessous une capture d’écran de ce à quoi cela pourrait ressembler. Outre les nombreuses données pertinentes qui vous aident à optimiser votre recherche, comme le titre, la description, etc., vous trouverez également ci-dessous les informations à fournir si votre page est définie comme “index” ou “non-index”.
S’il existe un fichier appelé robots.txt dans le répertoire racine de votre domaine, qui contient les lignes suivantes, vous avez refusé aux crawlers de Google ainsi qu’à tous les autres crawlers l’accès à votre page. Si vous supprimez ces deux lignes, votre page peut être à nouveau explorée et donc indexée. Vous pouvez lire le fichier robots.txt assez facilement. Comme ce fichier doit être librement accessible, il vous suffit de joindre un fichier /robots.txt derrière votre domaine ou votre page d’accueil et vous pouvez vérifier quelles sont les interdictions qui y sont stockées. Vous pouvez voir ici à quoi cela pourrait ressembler. https://www.121watt.de/robots.txt et ici vous pouvez également jeter un coup d’œil à notre site robots.txt. Habituellement, vous fermez des pages comme
Il est également possible de verrouiller spécifiquement les chenilles avec robots.txt. Dans ce cas, par exemple, l’entrée est Si vous supprimez cette entrée, vous pourrez continuer à indexer avec plaisir.
Si une sous-page de votre projet n’est pas accessible, cela peut être dû au fait que la pagination est occupée par nofollow. En outre, vous devez également inclure les attributs dans l’en-tête HTML. De cette façon, la chenille peut encore mieux capturer les sous-pages les plus profondes. Vous trouverez une documentation à ce sujet sous ce lien.
Peut-être avez-vous écrit le mal sur un concurrent ou êtes-vous devenu victime d’un troll. Finalement, quelqu’un a demandé que votre site soit retiré de l’index. Pour le savoir, connectez-vous à la console de recherche et cliquez sur “URL supprimées”. Si aucune URL n’y apparaît, ce n’est pas la raison pour laquelle votre page est introuvable.
– Annuler une demande de suppression
Si vous souhaitez annuler la suppression temporaire d’une page dans les résultats de recherche, procédez comme suit :
– Utilisation abusive de l’outil de suppression
L’utilisation de l’outil de suppression d’URL est une étape préliminaire permettant de bloquer du contenu en urgence. L’utilisation de cet outil dans les cas de figure suivants peut générer des problèmes au niveau de votre site :
Bien sûr, il est possible qu’aucune de ces erreurs ne soit la cause d’un manque d’indexation. Toutefois, les causes mentionnées ci-dessus couvrent les sources d’erreurs les plus courantes. Dans tous les cas, vous ne devez pas paniquer si votre projet n’apparaît soudainement pas dans les SERP. Prenez une tasse de café et parcourez cet article étape par étape. On est sûr que vous trouverez la solution.