Utilisation de cURL pour obtenir tous les liens dans un site web (et pas seulement la page)

J'utilise la suite script PHP pour récupérer tous les liens sur une page donnée, mais je suis en train de récupérer tous les liens sur un site web dans son ensemble.

<?php

    function urlLooper($url){

        $urlArray = array();

        $ch = curl_init();
        curl_setopt($ch, CURLOPT_URL, $url);
        curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
        $result = curl_exec($ch);

        $regex='|<a.*?href="(.*?)"|';
        preg_match_all($regex,$result,$parts);
        $links=$parts[1];
        foreach($links as $link){
            array_push($urlArray, $link);
        }
        curl_close($ch);

        foreach($urlArray as $value){
            echo $value . '<br />';
        }
    }

    $url = 'http://www.justfundraising.com/';
    urlLooper($url);

?>

Est-il possible d'utiliser cURL (ou toute autre méthode franchement) pour obtenir tous les liens sur un site web? J'ai accès au serveur dans le cas où vous vous poseriez la question.

Mon idée était de générer tous les liens de la page d'accueil, puis de transmettre ces liens de retour par la même fonction pour obtenir une nouvelle liste de liens en ignorant les doublons. Je figure de cette façon que je vais obtenir toutes les pages.

Toute aide sera appréciée!

Vous pourriez étudier phpQuery qui facilite la page d'extraction et d'analyse, permettant de construire une simple araignée moins encombrant que le manuel de roulage et de l'extraction de texte approches.
Votre script ci-dessus ne m'a aidé énormément, merci =)
J'ai utilisé ceci; vous ne savez pas si cela peut aider.

OriginalL'auteur Tom Hartman | 2011-08-11