Mauvaise idée de transférer de grandes charges utiles à l'aide de services Web?
Je recueillir que, fondamentalement, n'est pas une limite à la quantité de données qui peut être envoyée lors de l'utilisation de REPOS par l'intermédiaire d'un POST ou GET. Alors que je n'ai pas utilisé de REPOS ou de services web, il semble que la plupart des services impliquer le transfert de quantités limitées de données. Si vous souhaitez transférer 1-5 MO de données (dans les deux sens) sont des services web considéré comme une mauvaise idée?
Mise à jour: Les applications que nous envisageons de connexion via un service REST sont les applications internes. Nous avons la possibilité de choisir d'autres options de connectivité (ie: RMI)
source d'informationauteur Marcus Leon
Vous devez vous connecter pour publier un commentaire.
1-5 mo à l'aide de reste, ce n'est pas vraiment que les grandes d'un ensemble de données. Le facteur limitant est susceptible de mémoire. Selon la façon dont vous êtes la génération du document xml, vous pouvez exécuter basse sur les ressources du serveur si vous avez un trafic élevé sur le service.
Si vous utilisez un flux xml génération de mémoire n'est pas tant un problème. création d'une arborescence dom et puis cracher, il sera beaucoup plus gourmande en mémoire.
Mais même si votre arborescence dom a pris 10 fois la mémoire de la première xml, vous aurait besoin de 40 conncurrent connexions fillup 2 go de mémoire sur le serveur. Donc ce ne peut pas être un problème dans votre situation.
Moins probable est des problèmes de mémoire sur le côté client. mais 5 dé-sérialisation d'un 5mo dump xml ne devrait pas être un problème sur le fonctionnement normal de l'ordinateur.
1 à 5 MO est bon, aussi longtemps que vous le fournir à l'utilisateur avec une sorte de progrès de la rétroaction. Les services web utilisent le protocole HTTP, ce qui est correct-ish quand il s'agit de surcharge sur les plus grands ensembles de données, le vrai problème est le XML. XML, le plus souvent, ajoute une surcharge énorme de la taille des données sérialisées. Je voudrais examiner JSON ou Hesse pour les plus grands ensembles de données 🙂