Google voudrait que le web devienne plus facile à indexer par son moteur de recherche. Pour cela, l'entreprise propose que son protocole d’exclusion des robots devienne un standard officiel du web. (CCM) — Google vient de demander officiellement la création d'un nouveau standard d'utilisation des fichiers "robots.txt" par les webmasters. Ce protocole normalisé faciliterait la tâche
from CommentCaMarche https://ift.tt/2XmIgFB
الاشتراك في:
تعليقات الرسالة (Atom)