Éviter de données du site de l'analyse et déchiré

Je suis à la recherche dans la construction d'un site de contenu avec peut-être des milliers d'entrées différentes, accessibles par index et par la recherche.

Quelles sont les mesures que je peux prendre pour prévenir malveillants robots à l'arraché toutes les données de mon site? Je suis moins inquiet à propos de SEO, bien que je ne veux pas bloquer légitime robots tous ensemble.

Par exemple, j'ai pensé à la variation aléatoire des petits morceaux de la structure HTML utilisé pour afficher mes données, mais je suppose que ce ne serait pas très efficace.

OriginalL'auteur yoavf | 2008-10-07