top of page

Robots.txt sur Wix : le guide complet pour maîtriser l'indexation et l'exploration en 2026

  • il y a 3 heures
  • 9 min de lecture
Robots.txt sur Wix : le guide complet pour maîtriser l'indexation et l'exploration en 2026

Sommaire


Le fichier robots.txt est l'un des plus petits fichiers de votre site Wix, mais aussi l'un des plus puissants pour piloter votre referencement. En 2026, alors que les robots d'exploration de Google et des intelligences artificielles generatives se multiplient, sa configuration determine ce qui sera indexe, cite et ignore par les moteurs.

Beaucoup de proprietaires de sites Wix ignorent que leur robots.txt existe deja, qu'il est genere automatiquement par la plateforme, et qu'il peut etre personnalise. Une seule directive mal placee peut desindexer l'integralite d'un site, alors qu'une configuration fine peut maximiser le budget de crawl alloue par Googlebot.

Chez lacky, agence SEO specialisee Wix, nous auditons des dizaines de robots.txt par mois et constatons que les memes erreurs reviennent : blocage du dossier /_partials/, oubli de la directive Sitemap, ou refus involontaire des bots IA. Ce guide vous donne la methode complete pour auditer, corriger et optimiser le robots.txt de votre site Wix en 2026.


Robots.txt : qu'est-ce que c'est et pourquoi c'est crucial sur Wix ?

Le fichier robots.txt est un fichier texte place a la racine de votre domaine, accessible a l'URL https://votresite.com/robots.txt. Il suit le Protocole d'exclusion des robots, un standard adopte depuis 1994 et formellement reconnu par l'IETF en 2022 sous la RFC 9309.

Son role est d'indiquer aux robots d'exploration - Googlebot, Bingbot, GPTBot, ClaudeBot, PerplexityBot et d'autres - quelles parties du site ils peuvent explorer. Sur Wix, ce fichier est essentiel car la plateforme genere automatiquement de nombreuses URL techniques (previews, dossiers internes) qui n'ont aucun interet SEO et meritent d'etre exclues.

Attention : robots.txt regule l'exploration, pas l'indexation. Une URL bloquee par robots.txt peut quand meme apparaitre dans les resultats Google si elle recoit des liens externes, mais sans contenu - un cas tres prejudiciable pour la qualite globale du site.

Pour vraiment desindexer, il faut combiner robots.txt avec la balise meta robots noindex ou un en-tete HTTP X-Robots-Tag. Cette nuance est la source numero un des erreurs SEO sur Wix.


Comment Wix gere automatiquement votre robots.txt en 2026

Depuis 2024, Wix genere automatiquement un fichier robots.txt pour chaque site publie sur un domaine personnalise. Ce fichier par defaut autorise tous les bots a explorer toutes les pages publiques et bloque les chemins techniques de la plateforme.

Concretement, Wix bloque par defaut les dossiers comme /_partials/, /pro-gallery-webapp/ et certains chemins de preview qui n'ont aucun interet pour le SEO. Le fichier inclut aussi automatiquement la directive Sitemap: pointant vers votre sitemap.xml Wix.

En 2026, Wix a renforce cette gestion automatique avec des regles dynamiques qui s'adaptent au type de site (Wix Editor, Wix Studio, e-commerce). Un site e-commerce Wix bloque par exemple automatiquement les URL de panier et de checkout, qui ne doivent jamais apparaitre dans Google.

Cependant, ce parametrage par defaut reste generique et ne couvre pas les besoins specifiques de votre activite. Si vous avez un blog avec des categories internes, des pages d'auteur ou des ?utm_source= parametres, vous gagnerez a personnaliser votre robots.txt.

La bonne nouvelle : depuis 2024, Wix expose une interface d'edition qui permet de modifier le robots.txt sans toucher au code, dans Reglages > SEO > robots.txt. Nous detaillons cette procedure dans la section suivante.


Acceder et modifier le robots.txt de votre site Wix

Pour acceder au robots.txt de votre site Wix, connectez-vous a votre tableau de bord et selectionnez le site concerne. Allez dans Marketing & SEO, puis Outils SEO, et enfin Editeur de fichier robots.txt.

Wix affiche le contenu actuel du fichier - generalement deja pre-rempli avec les regles par defaut. Vous pouvez ajouter, modifier ou supprimer des directives directement dans l'interface, avec une validation syntaxique en temps reel depuis 2025.

Une fois vos modifications saisies, cliquez sur Enregistrer et republiez votre site pour que les changements soient pris en compte. Wix met a jour le fichier en moins de 60 secondes apres publication, mais Googlebot peut mettre jusqu'a 24 heures pour le re-crawler.

Important : le robots.txt n'est accessible que sur les sites avec un domaine personnalise connecte (ex : votresite.fr). Sur les URL Wix gratuites en votrenom.wixsite.com/site, le fichier reste sous le controle exclusif de Wix.

Pour verifier que votre fichier est bien servi, ouvrez https://votresite.fr/robots.txt dans un navigateur. Vous devez voir un fichier texte brut, sans erreur 404 ni redirection - autrement c'est une alerte rouge SEO a corriger immediatement.


Syntaxe du fichier robots.txt : les directives a connaitre

Le robots.txt utilise une syntaxe minimaliste composee de quelques directives standards. Voici les principales que vous rencontrerez en 2026 sur un site Wix.

Directive

Role

Exemple Wix

User-agent

Specifie le bot cible

User-agent: Googlebot

Disallow

Bloque un chemin

Disallow: /pro-gallery-webapp/

Allow

Autorise un chemin (override)

Allow: /_partials/blog/

Sitemap

Declare l'emplacement du sitemap

Sitemap: https://lacky.fr/sitemap.xml

Crawl-delay

Delai entre requetes (non Google)

Crawl-delay: 5


La directive User-agent definit pour quel bot s'applique le bloc. La valeur * cible tous les robots, tandis que Googlebot ou GPTBot ciblent un robot specifique.

Les directives Disallow et Allow prennent un chemin relatif depuis la racine. Sur Wix, l'ordre compte : une regle Allow plus specifique l'emporte sur une regle Disallow plus generale, conformement au standard RFC 9309.

La directive Sitemap est cruciale et doit pointer vers l'URL absolue de votre sitemap Wix - generalement https://votresite.fr/sitemap.xml. Cette declaration aide les moteurs a decouvrir vos pages plus rapidement, en complement des donnees structurees Schema.org pour Wix.

Note importante : Googlebot ignore Crawl-delay depuis 2019. Pour reguler la frequence de crawl Google, utilisez plutot l'outil Settings > Crawl rate de la Search Console.

Wix accepte aussi les commentaires precedes du caractere # - utiles pour documenter vos choix. Une directive complexe sans commentaire devient illisible six mois plus tard - c'est une bonne pratique professionnelle souvent oubliee.


Les erreurs robots.txt qui plombent votre SEO Wix

Premiere erreur : le Disallow: / sur User-agent: *. Cette directive bloque l'integralite du site a tous les robots et desindexe votre Wix en quelques semaines - une catastrophe SEO trop souvent rencontree apres une migration mal faite.

Deuxieme erreur : bloquer les ressources CSS et JavaScript via Disallow: /_partials/ sans exception. Googlebot a besoin de ces fichiers pour comprendre le rendu de la page, et un blocage trop agressif degrade les Core Web Vitals percus, comme rappele dans notre liste des erreurs SEO Wix les plus courantes.

Troisieme erreur : oublier la directive Sitemap:. Sans elle, Google peut mettre des semaines a decouvrir vos nouveaux articles de blog, surtout sur un site Wix recent avec peu de backlinks.

Quatrieme erreur : utiliser une regle large comme Disallow avec joker pour exclure tous les parametres d'URL. Cette regle peut bloquer involontairement des pages de filtrage produit Wix Stores ou des pages de tri qui generent du trafic organique long-traine.

Cinquieme erreur : confondre robots.txt et noindex. Si vous voulez retirer une page de l'index Google, ajoutez la balise meta noindex dans la page Wix concernee, plutot qu'un Disallow qui empechera Googlebot d'y voir cette balise.

Sixieme erreur : casse incorrecte ou caractere invisible. Le fichier doit etre encode en UTF-8 sans BOM, avec des sauts de ligne LF, sinon certains bots peuvent ignorer entierement vos directives.


Bloquer ou autoriser les bots IA (GPTBot, ClaudeBot, PerplexityBot)

En 2026, la question des bots IA est devenue strategique pour tout site Wix. ChatGPT, Claude, Perplexity, Gemini et d'autres envoient leurs propres robots pour collecter du contenu et alimenter leurs modeles ou leurs reponses en temps reel.

Les principaux User-agents IA sont : GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot (Perplexity), Google-Extended (entrainement Gemini) et CCBot (Common Crawl). Chacun obeit theoriquement aux directives robots.txt qui leur sont destinees.

Pour autoriser ces bots a indexer votre contenu - strategie recommandee si vous voulez etre cite par les IA - laissez votre robots.txt ouvert sans bloc specifique. Pour les bloquer, ajoutez par exemple : User-agent: GPTBot suivi de Disallow: / sur une nouvelle ligne.

Attention : bloquer Google-Extended empeche votre contenu d'alimenter Gemini et les AI Overviews de Google. Cela peut couper une source de trafic emergente mais grandissante en 2026, particulierement sur les requetes informationnelles.

Notre recommandation chez lacky : autoriser tous les bots IA sauf raison legale ou strategique tres specifique. Le contenu cite par les IA generatives genere de plus en plus de trafic indirect via les liens de citation - un levier emergent en 2026.


Tester et auditer votre robots.txt Wix avec Google Search Console

Une fois votre robots.txt modifie, vous devez imperativement tester son comportement. Google Search Console offre depuis 2024 un nouvel outil de diagnostic robots.txt accessible via Parametres > robots.txt.

Cet outil affiche la derniere version detectee par Googlebot, sa date de recuperation, son code HTTP de reponse et la taille en octets. Un code 200 et une date recente signifient que tout fonctionne correctement.

Pour tester si une URL specifique est bloquee, utilisez l'outil Inspection d'URL de la Search Console. Saisissez l'URL et regardez la section Crawl : elle indique si l'URL est autorisee ou bloquee, et par quelle directive precise.

Une autre methode professionnelle : utiliser Screaming Frog SEO Spider en mode robots.txt custom. Cet outil simule un crawl avec un robots.txt different du votre, ce qui permet de tester l'impact d'un changement avant deploiement.

Apres une modification importante, surveillez le rapport Pages > Couverture pendant deux a trois semaines. Toute hausse anormale d'URL en Bloquee par robots.txt doit declencher un audit, comme detaille dans notre guide complet de la Google Search Console pour Wix.


Strategies avancees : crawl budget, sous-domaines et e-commerce

Sur les sites Wix de taille importante (plus de 500 pages), la gestion du crawl budget devient un enjeu majeur. Googlebot alloue un nombre limite de requetes par jour a chaque domaine, et chaque URL bloquee inutilement gaspille ce budget.

Strategie 1 : bloquer les URL parametrees qui dupliquent du contenu existant. Par exemple, Disallow: /*?ref= empeche le crawl des URL d'affiliation qui sont en realite des copies de la page parente.

Strategie 2 : autoriser explicitement les ressources critiques pour le rendu. Une regle Allow: /_partials/blog-app/ garantit que Wix sert correctement les composants du blog a Googlebot, meme si /_partials/ est bloque globalement.

Strategie 3 : pour un site multi-langues sur Wix, declarez plusieurs sitemaps dans le robots.txt. Ajoutez par exemple Sitemap: https://lacky.fr/fr/sitemap.xml et Sitemap: https://lacky.fr/en/sitemap.xml sur deux lignes distinctes.

Strategie 4 : pour Wix Stores, exclure les URL de recherche interne qui generent du contenu duplique. Une regle Disallow: /search-results evite que Googlebot indexe des pages de resultats internes pauvres en contenu unique.

Strategie 5 : utiliser un robots.txt dedie pour vos sous-domaines. Si vous heberger un blog sur blog.lacky.fr, ce sous-domaine doit avoir son propre robots.txt independant - point qu'oublient 80% des integrateurs Wix.


Temoignage client : un cas reel d'audit robots.txt Wix

Apres notre migration vers Wix Studio en janvier 2026, notre trafic SEO a chute de 60% en deux semaines. L'audit lacky a identifie un Disallow: / laisse par erreur dans le robots.txt heritee de la phase de developpement. La correction a pris 5 minutes ; la recuperation complete a pris 6 semaines, mais nous avons retrouve nos positions et meme gagne 18% de trafic supplementaire grace au nettoyage des URL parametrees.

- Marie L., directrice marketing PME industrielle, mars 2026


Foire aux questions sur le robots.txt Wix

Tous les sites Wix ont-ils un robots.txt par defaut ?

Oui, depuis 2024 Wix genere automatiquement un fichier robots.txt pour chaque site connecte a un domaine personnalise. Sur les URL gratuites en wixsite.com, le fichier reste partage et non modifiable.


Combien de temps Google met-il pour prendre en compte une modification ?

Googlebot recupere generalement le robots.txt toutes les 24 heures environ. Vous pouvez accelerer le processus via Search Console > Parametres > robots.txt > Demander un nouveau crawl.


Faut-il bloquer les bots IA comme GPTBot et ClaudeBot ?

Sauf raison legale specifique, nous recommandons d'autoriser ces bots pour beneficier des citations dans les reponses IA. Le trafic referent issu des liens de citation est en forte croissance en 2026.


Que faire si mon robots.txt renvoie une erreur 404 ?

Une erreur 404 sur /robots.txt est une alerte rouge SEO. Verifiez que votre domaine est bien connecte a Wix et republiez le site - le fichier doit etre regenere automatiquement.


Robots.txt et noindex : quelle difference ?

Le robots.txt empeche l'exploration d'une URL, tandis que noindex empeche son indexation. Pour retirer une page de Google, utilisez noindex - le robots.txt seul ne suffit pas.


Peut-on avoir plusieurs sitemaps declares dans robots.txt ?

Oui, le standard RFC 9309 autorise plusieurs lignes Sitemap: dans un meme fichier. C'est la pratique recommandee pour les sites Wix multi-langues ou comportant plus de 50 000 URL.


Auditez votre robots.txt avec l'agence lacky

Un robots.txt mal configure peut annihiler des mois de travail SEO sur votre site Wix. Notre equipe d'experts SEO Wix realise un audit complet de votre fichier en moins de 48 heures.

Nous identifions les blocages critiques, optimisons les directives pour les bots IA, et garantissons une declaration sitemap correcte. Notre methode integre les meilleures pratiques 2026, avec un livrable concret et un suivi des resultats sur la Google Search Console.

Pret a securiser votre referencement Wix ? Demandez un audit robots.txt gratuit et echangeons sur les enjeux SEO de votre site Wix avec un expert dedie.

 
 
Dégradé rose pourpre

Tous droits réservés © 2014 - 2025

AGENCE WEB LACKY

CONTACT

Du lundi au vendredi : de 9h à 19h

SPÉCIALISTE WIX DANS TOUTE LA FRANCE

CRÉATION DE SITE DANS TOUTE LA FRANCE

bottom of page