Comment puis-je récupérer des données d'un site à l'intérieur d'un programme en C++
Je veux écrire un programme en C++ qui permet de gérer mon pool de hockey, et l'une des principales choses que j'ai besoin de faire est de lire le programme de la semaine à venir. J'espérais utiliser le site de la LNH. est-il possible d'avoir le programme à télécharger le fichier HTML pour une url donnée, puis d'analyser? je suppose qu'une fois que j'ai le fichier téléchargé, Simple fichier I/O, mais je ne sais pas comment faire pour télécharger le fichier.
Double Possible de par programmation de la lecture d'une page web
OriginalL'auteur Ben313 | 2010-12-20
Vous devez vous connecter pour publier un commentaire.
Je voudrais utiliser une bibliothèque fournissant Http abstraction.
Par exemple:
rpc-netlib
Je ne pense pas qu'il peut faire beaucoup plus simple que la
Sur GNU/Linux compiler avec:
QHttp
Exemple, c'est peut-être assez longue,
depuis QHttp pouvez envoyer que des non-blocage des demandes (ce qui signifie que vous avez à les attraper quelques signaux indiquant que la demande a été fini, etc.).
Mais la documentation est superbe, de sorte qu'il ne devrait pas être un problème. 🙂
+1 parce que c'est plus C++ish de libcurl.
OriginalL'auteur Palmik
À l'aide de libcurl est une option. Ici est un exemple d'utilisation avec C++ pour télécharger du contenu d'une page web comme une chaîne de caractères.
OriginalL'auteur darioo
J'ai enfin réussi à le compiler et lier avec:
OriginalL'auteur user1638291