Cochez cette l'article out. Dremel est la que l'avenir de la ruche devrait être (et sera).
Le problème majeur de MapReduce et de solutions sur le dessus de cela, comme Pig, Hive, etc, c'est qu'ils ont le temps de latence entre l'exécution de la tâche et obtenir la réponse. Dremel utilise une totalement nouvelle approche (sorti en 2010 dans le document par google) qui...
...utilise un nouveau moteur d'exécution de requête basée sur l'agrégateur arbres...
...courir presque en temps réel , interactive ET adhoc requêtes à la fois de MapReduce qui ne le peuvent pas. Et Pig et Hive ne sont pas temps réel
Vous devriez garder un oeil sur projets sortir de cette. Est est assez nouveau pour moi aussi... donc tout autre expert commentaires sont les bienvenus!
Edit: Dremel est ce que l'avenir de RUCHE (et pas MapReduce comme je l'ai mentionné avant) devrait être. La ruche droit fournit maintenant un SQL comme interface pour s'exécuter de tâches MapReduce. La ruche a une latence très élevée, et donc n'est pas pratique dans ad-hoc sur l'analyse des données. Dremel offre un très rapide SQL comme interface pour les données en utilisant une technique différente que MapReduce.
Ok, mais ce que sur le logiciel Storm ?
Tiens à ajouter les détails ci-dessus, Regardez Apache de Forage qui est une implémentation open source de Google Dremel.
Dremel et MapReduce ne sont pas directement comparables, mais plutôt qu'ils sont des technologies complémentaires.
MapReduce est pas spécifiquement conçu pour l'analyse de données - c'est plutôt un cadre de logiciel qui permet à une collection de noeuds pour lutter contre distribuée de problèmes informatiques pour les grands ensembles de données.
Dremel est un outil d'analyse de données conçus pour exécuter des requêtes sur les massifs, structuré ensembles de données (tels que des journaux ou des fichiers d'événements). Il prend en charge une syntaxe de type SQL, mais en dehors de la table ajoute, il est en lecture seule. Il ne prend pas en charge la mise à jour ou de créer des fonctions, ni ne disposent de la table d'index. Les données sont organisées en "colonnes" de format, ce qui contribue à une très rapide vitesse de requête. Google BigQuery produit est une mise en œuvre de Dremel accessible via une API RESTful.
Hadoop (une implémentation open source de MapReduce) en collaboration avec la "Ruche" de l'entrepôt de données du logiciel, permet également à l'analyse de données pour d'énormes ensembles de données en utilisant SQL syntaxe de style. La ruche s'avère essentiel des requêtes en MapReduce fonctions. En revanche à l'aide d'un ColumIO format, la Ruche des tentatives de faire des recherches rapides en utilisant des techniques telles que l'indexation de table.
btw, l'entrée est en lecture seule, mais vous pouvez matérialiser sortie de Dremel requêtes pour une réutilisation ultérieure
MapReduce est un algorithme abstrait pour comment diviser un problème, de le distribuer, et de combiner les résultats. Dremel semble être un outil spécifique pour l'interrogation et l'analyse d'ensembles de données.
Cochez cette l'article out. Dremel est la que l'avenir de la ruche devrait être (et sera).
Le problème majeur de MapReduce et de solutions sur le dessus de cela, comme Pig, Hive, etc, c'est qu'ils ont le temps de latence entre l'exécution de la tâche et obtenir la réponse. Dremel utilise une totalement nouvelle approche (sorti en 2010 dans le document par google) qui...
...courir presque en temps réel , interactive ET adhoc requêtes à la fois de MapReduce qui ne le peuvent pas. Et Pig et Hive ne sont pas temps réel
Vous devriez garder un oeil sur projets sortir de cette. Est est assez nouveau pour moi aussi... donc tout autre expert commentaires sont les bienvenus!
Edit: Dremel est ce que l'avenir de RUCHE (et pas MapReduce comme je l'ai mentionné avant) devrait être. La ruche droit fournit maintenant un SQL comme interface pour s'exécuter de tâches MapReduce. La ruche a une latence très élevée, et donc n'est pas pratique dans ad-hoc sur l'analyse des données. Dremel offre un très rapide SQL comme interface pour les données en utilisant une technique différente que MapReduce.
Dremel et MapReduce ne sont pas directement comparables, mais plutôt qu'ils sont des technologies complémentaires.
MapReduce est pas spécifiquement conçu pour l'analyse de données - c'est plutôt un cadre de logiciel qui permet à une collection de noeuds pour lutter contre distribuée de problèmes informatiques pour les grands ensembles de données.
Dremel est un outil d'analyse de données conçus pour exécuter des requêtes sur les massifs, structuré ensembles de données (tels que des journaux ou des fichiers d'événements). Il prend en charge une syntaxe de type SQL, mais en dehors de la table ajoute, il est en lecture seule. Il ne prend pas en charge la mise à jour ou de créer des fonctions, ni ne disposent de la table d'index. Les données sont organisées en "colonnes" de format, ce qui contribue à une très rapide vitesse de requête. Google BigQuery produit est une mise en œuvre de Dremel accessible via une API RESTful.
Hadoop (une implémentation open source de MapReduce) en collaboration avec la "Ruche" de l'entrepôt de données du logiciel, permet également à l'analyse de données pour d'énormes ensembles de données en utilisant SQL syntaxe de style. La ruche s'avère essentiel des requêtes en MapReduce fonctions. En revanche à l'aide d'un ColumIO format, la Ruche des tentatives de faire des recherches rapides en utilisant des techniques telles que l'indexation de table.
MapReduce est un algorithme abstrait pour comment diviser un problème, de le distribuer, et de combiner les résultats. Dremel semble être un outil spécifique pour l'interrogation et l'analyse d'ensembles de données.