Un Utilisateur Agent qui dit juste “Mozilla/4.0” est un bot, droit?
Je reçois plusieurs demandes dans les applications web qui sont fondamentalement erroné dans les façons mon code ne doit pas être de générer...
Principalement ce sont des demandes pour .ashx sans OBTENIR les paramètres spécifiés.
L'agent de l'utilisateur est "Mozilla/4.0" (rien de plus)
L'IPs varient au jour le jour.
C'est un bot, non?
Merci!
OriginalL'auteur Daniel Magliola | 2009-05-07
Vous devez vous connecter pour publier un commentaire.
Cela semble très étrange pour moi. Toute légitime bot permettrait d'identifier lui-même dans une manière que vous pouvez reconnaître. Malveillants bot serait capable de faire un bien meilleur travail de l'utilisateur de l'agent de ressembler à un navigateur. C'est quelque part au milieu. Cela, combiné avec le mauvais demandes, m'amène à croire que vous avez affaire à un bon vieux incompétence.
De toute façon, vous voulez probablement 404 ces demandes plutôt que de retourner un jaune d'erreur à l'écran.
Vous 404 de sorte qu'un bot ne pense pas qu'il y a une vraie page. Sinon, un malveillant bot pourrait essayer quelque chose d'autre sur la page plus tard, et cette fois, ils pourraient avoir de la chance. Et un moteur de recherche continueront à venir autour de nous maintenant et à l'index. Si vous 404 la page blanche, le bot va tout simplement disparaître.
OriginalL'auteur Joel Coehoorn
Désolé de remonter une vieille question, mais je pense que c'est le bot utilisé par le Grand Firewall de Chine.
Ils rampent, contenus web, et de faire de la censure.
Vérifiez votre journal et de voir si il y a quelque chose comme " GET /cert/bazs.cert'.
Sûr à 100% si cela se trouve.
Si le lien s'affiche dans QQ(logiciel de messagerie instantanée, populaire en Chine), ou de parcourir votre site avec Tencent Voyageur(TT navigateur?), le bot ne se montrent immédiatement. Tencent a son propre moteur de recherche, de l'User-Agent est comme " ... Sosospider ...", pas "Mozilla/4.0'
Désolé pour ajouter à cela de nombreuses années par la suite. Le "Grand Firewall de Chine", l'explication est ce que nous avons trouvé était plus correct. Nous avons retracé tous les clientip adresses à l'aide de la
Mozilla/4.0
useragent chaîne de retour à la "China Telecom Shanghai".Nous avons remarqué ce genre de journaux récemment, après quelques recherches, nous pensons qu'ils sont juste certains robots de la partie Continentale de la Chine, parce que nous avons partagé quelques-unes de nos liens via):). BTW, les journaux comme " GET /cert/bazs.cert " signifie la partie Continentale de la Chine le gouvernement est en train d'essayer de récupérer vos Dossiers enregistrés pour le gouvernement de votre site web.
Nous sommes assez sûr que c'est). Nous utilisons sdk) pour partager des liens, chaque fois que nous partageons un lien via sdk), il y aura deux nouveaux journaux avec un agent de Mozilla/4.0.
OriginalL'auteur Proton
Selon http://www.user-agents.org le " Yahoo état d'esprit: de l'Intention de Recherche menées bot rapports.
Mais ouais, ce ne serait pas un navigateur de reporting.
OriginalL'auteur gacrux
Sont ces demandes aux pages existantes que vous avez écrit vous-même, ou sont-ils une erreur 404?
Dans ce dernier cas, il pourrait être une sorte d'attaque d'analyse, en essayant de détecter vulnérables instances de l'application avant de les frapper avec un exploit.
OriginalL'auteur Michael Borgwardt
J'avais mis en œuvre asp.net côté demande, le suivi sur plusieurs sites web et, en examinant les dossiers, je peux dire que seul l'agent Utilisateur "Mozilla/4.0" peut être produite par une de ces raisons:
Il est intéressant de voir que mon premier Android a été identifiée comme "Safari 3.0", le dernier Android est identifié comme "Mozilla 0"! Il est donc difficile de l'incompétence d'un logiciel spécifique génération.
Retour 404 sur une telle demande peut-être ne pas être la meilleure approche pour les robots de Recherche, surtout si c'est site web public avec de fréquentes modifier le contenu.
Sur l'autre main, vous devriez être conscient que les demandes de
WebResource.axd
où la destination n'est pas valide pointent vers cross site scripting attaques. Dans cette situations à l'aide de SanitizerProvider est recommandé. Vous pouvez lire plus sur ce type d'attaque sur La croix-site_scripting.Une autre bonne chose à identifier les attaques est en regardant les fichiers journaux IIS, qui sont souvent positionnés sur [racine]:\inetpub\logs\LogFiles\W3SVC1. Voici snipp de mon outil pour l'analyse de fichiers journaux IIS:
Dans ce cas, l'agent Utilisateur n'était pas un problème, bot attaque a été identifié en demandant "/dbadmin/index.php" à partir de 2 adresses ip différentes. Il y a le couple de fichiers/pages que l'attaque de bots sont à la recherche pour.
Espérons que cela aide et donne plus de valeur à cette question.
OriginalL'auteur Gregor Primar