Téléchargement de fichiers de site web en powershell

Que j'essaie de faire un script pour interroger des fichiers sur un site web IIS, puis télécharger les fichiers automatiquement. Jusqu'à présent, j'ai ceci:

$webclient = New-Object System.Net.webclient
$source = "http://testsite:8005/"
$destination = "C:\users\administrator\desktop\testfolder\"
#The following line returns the links in the webpage
$testcode1 = $webclient.downloadstring($source) -split "<a\s+" | %{ [void]($_ -match "^href=['"]([^'">\s]*)"); $matches[1] }
foreach ($line in $test2) {
    $webclient.downloadfile($source + $line, $destination + $line)
}

Je ne suis pas bon à PowerShell encore, et j'ai quelques erreurs, mais j'ai réussi à obtenir un couple de fichiers de test je l'ai jeté dans mon dossier wwwroot (le web.fichier de config semble undownloadable, donc j'imagine que c'est un de mes erreurs). Quand j'ai essayé de changer mon $source valeur dans un sous-dossier sur mon site qui a quelques test des fichiers texte(exemple = http://testsite:8005/subfolder/, j'ai des erreurs et pas de téléchargements. L'exécution de mon $testcode1 va me donner les liens suivants dans mon sous-dossier:
/subfolder/test2/txt
/
/subfolder/test1.txt
/subfolder/test2.txt
Je ne sais pas pourquoi il répertorie les test2 fichier deux fois. J'ai pensé que mon problème était que, comme il était de retour le sous-dossier/format de fichier, que j'ai été faire des erreurs parce que j'étais en train de télécharger $source + $line, qui serait essentiellement http://testsite:8005/subfolder/subfolder/test1.txt, mais quand j'ai essayé d'y remédier en ajoutant dans un $root valeur qui a été le répertoire racine de mon site et de faire un foreach($line in $testcode1) { $webclient.downloadfile($root + $line, $destination + $line) }, je reçois toujours des erreurs.
Si certains d'entre vous à haute vitesse gourous peuvent aider à me montrer l'erreur de mes moyens, je lui en serais reconnaissant. Je suis à la recherche de télécharger tous les fichiers dans chaque sous-dossier sur mon site, dont je sais qu'impliquerait l'utilisation de certains récursive de l'action, mais encore une fois, j'ai actuellement n'ont pas le niveau de compétence de moi-même de le faire. Je vous remercie à l'avance de m'aider!

c'est vraiment bien posé la question, +1
Pensez à utiliser wget pour cette tâche.
Détails supplémentaires: je suis à l'aide de PowerShell 2.0, et ne peuvent pas passer à la v3 ou d'utiliser toutes les applets de commande n'est native PowerShell, ni de l'installer rien de plus sur mon ordinateur, donc je suis en train d'essayer de trouver une solution, je peux effectuer avec un standard de Windows 7 machine.
Avez-vous essayé de cet autre type de méthode? stackoverflow.com/questions/11436694/...
Oui, cette méthode a été utilisée comme la base de ce que je suis en train de faire ici, mais quand j'ai tapé ça, il ne serait pas télécharger quoi que ce soit. Je uderstand ce qu'il est en train de faire, mais sa méthode de fractionnement le code source de saisir les liens semble inefficace, mais sans l'aide de sa méthode, il est difficile pour moi de récupérer certains de la durée de code pour mieux mes propres (manque de connaissance de ma part, actuellement).

OriginalL'auteur Sacto_Smithers | 2013-10-24