[DEV] humans.txt, le robots.txt des humains

*mode pas là ... en vacances ... de retour le 12/05/2013 au soir*

le fichier "robots.txt" est un fichier qu'on dépose sur un site web pour donner des infos/droits d’accès ou pas aux moteurs de recherches et d'indexation.
On peut par exemple refuser qu'une partie d'un site soit lue/indexée par Google.

Et bien "humans.txt" est le pendant mais pour donner des infos sur les Hommes/Entreprises/... qui sont derrières le site =)
Mimi.
Pas "encore" W3C, mais why not un jour.

Source:

humans.txt, le robots.txt des humains


petitcodeur.fr

Source image: humanstxt.org/

Haut de page