DéfinitionSEM

Qu’est ce que le robot.txt ?

Le lexique du SEM (Search Engine Marketing) = SEO + SEA + SMO

Le fichier « robots.txt » est un fichier utilisé pour informer les moteurs de recherche des pages Web qui peuvent ou ne peuvent pas être explorées sur un site Web. Il s’agit d’un fichier de texte simple qui est placé à la racine d’un site Web et qui est accessible via une URL standard, comme par exemple « www.example.com/robots.txt« .

Le fichier « robots.txt » peut être utilisé pour spécifier les pages Web qui ne doivent pas être indexées par les moteurs de recherche, telles que les pages de maintenance ou les pages de test. Il peut également être utilisé pour restreindre l’accès à certaines parties d’un site Web, telles que les images ou les fichiers multimédias.

Il est important de noter que le fichier « robots.txt » n’est pas une méthode sécurisée pour protéger les pages Web, car tout le monde peut voir les instructions qui y sont contenues. Si vous souhaitez protéger les pages Web de votre site, il est préférable de les protéger en utilisant des méthodes telles que l’authentification par mot de passe ou les redirections 301.

 

Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This