En regardant dans mes statistiques de visites pour un autre billet, j'ai remarqué que j'avais des tentatives d'accès sur un fichier /.well-known/dnt-policy.txt. Je me suis donc renseigné sur ce fichier, et de fil en aiguille, j'ai lu sur d'autres fichiers textes plus ou moins standard placés à la racine d'un site.

dnt-policy.txt

Commençons donc par ce fichier dnt-policy.txt. Le premier résultat en cherchant sur un moteur de recherche m'amène à une page du site de l'EFF. A quoi sert ce fichier ? Il sert à annoncer la politique du site Internet visité concernant l'en-tête Do Not Track.

A la lecture de tout cela, je vois que c'est quand même assez compliqué, je ne pense pas mettre en place de fichier sur mon blog dans l'immédiat.

robots.txt

Le grand classique, robots.txt permet de signaler aux moteurs de recherche quel contenu de son site indexer, et quel contenu ne pas indexer. Malgré tout, certains robots ou moteurs de recherche ne respectent pas les directives de ce fichier, puisqu'il n'y a aucune obligation.

Pour aller plus loin :

Bien entendu, mon blog dispose d'un tel fichier.

humans.txt

Dans la logique du précédent fichier, certains se sont dit : et pourquoi pas proposer un fichier à destination des "humains" et qui contient des informations sur les différentes personnes qui ont contribué à la construction du site ? Ainsi est né le fichier humans.txt ! On peut se renseigner sur cette initiative sur humanstxt.org

Je viens de mettre en place un tel fichier, mais je n'ai pas ajouté de lien vers celui-ci dans mes balise meta. J'espère que pour le moment, cela convient.

security.txt

Toujours dans l'esprit d'informations faciles à obtenir, security.txt a pour principe d'indiquer qui contacter en cas de problème de sécurité avec le site visité. Ce fichier est en particulier utile aux chercheurs en sécurité des systèmes d'information qui souhaitent informer de manière responsable l'équipe du site de la présence d'une vulnérabilité.

Le fichier est assez simple dans son implémentation, on y indique généralement une adresse e-mail ainsi qu'une URL vers une éventuelle clé GPG pour s'assurer de la confidentialité des échanges. Plus d'informations sont disponibles sur le site dédié.

J'ai profité de l'écriture de ce billet pour en mettre un ! J'espère que celui-ci est correct.

hackers.txt

Ce dernier fichier est un peu plus particulier. Kiffie Liversage a remarqué que sur le site humanstxt.org qu'une image d'illustration contenait, en plus des habituels robots.txt et humans.txt, un fichier nommé hackers.txt. A priori il n'y a aucune norme, aucun standard ou convention pour un tel fichier, alors il a décidé d'en créer une.

Je n'ai pas de fichier de ce type au moment de l'écriture de ce billet. Mais l'initiative m'amuse, alors j'ai bien envie de le faire aussi à l'occasion !

et d'autres ?

Il existe probablement d'autres conventions, plus ou moins connues. Les seules qui me viennent à l'esprit sont le répertoire /.well-known/ (utilisé pour dnt-policy.txt mais aussi pour le fichier de challenge Let's Encrypt, et décrit dans la RFC 5785), et le fichier sitemaps.xml, mais qui n'est pas juste du texte, comme son nom l'indique.

Vous avez aimé cet article ? Alors partagez-le sur les réseaux sociaux !

Crédit photo : Susanlenox - Ninotchka (1939).