Éviter l'exploration en double d'URL

J'ai codé un simple robot.
Dans le settings.py fichier, en se référant à scrapy de la documentation, j'ai utilisé

DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter'

Si j'arrête le robot et redémarrer le robot à nouveau, il est en raclant le double de l'url de nouveau.
Suis-je en train de faire quelque chose de mal?

source d'informationauteur user1787687