Zookeeper erreur de connexion
Nous avons autonome zookeeper le programme d'installation sur une machine de dev. Il fonctionne très bien pour tous les autres dev machine à l'exception de celle testdev machine.
Nous obtenir cette erreur, encore et encore en essayant de vous connecter à zookeeper par testdev:
2012-11-09 14:06:53,909 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@947] - Socket connection established to zk01.dev.bunchball.net/192.168.8.58:2181, initiating session
2012-11-09 14:06:53,911 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@1183] - Unable to read additional data from server sessionid 0x0, likely server has closed socket, closing socket connection and attempting reconnect
2012-11-09 14:06:55,366 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@1058] - Opening socket connection to server zk01.dev.bunchball.net/192.168.8.58:2181
2012-11-09 14:06:55,368 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@947] - Socket connection established to zk01.dev.bunchball.net/192.168.8.58:2181, initiating session
2012-11-09 14:06:55,368 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@1183] - Unable to read additional data from server sessionid 0x0, likely server has closed socket, closing socket connection and attempting reconnect
2012-11-09 14:06:57,271 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@1058] - Opening socket connection to server zk01.dev.bunchball.net/192.168.8.58:2181
2012-11-09 14:06:57,274 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@947] - Socket connection established to zk01.dev.bunchball.net/192.168.8.58:2181, initiating session
2012-11-09 14:06:57,275 - INFO [main-SendThread(zk01.dev.bunchball.net:2181):ClientCnxn$SendThread@1183] - Unable to read additional data from server sessionid 0x0, likely server has closed socket, closing socket connection and attempting reconnect
Nous avons essayé de redémarrer le test de dev de la machine, et également redémarrer zookeeper hôte, mais rien n'a fonctionné. Nous sommes totalement confus pourquoi il fonctionne parfaitement bien avec d'autres machines à l'exception de celui-ci. Ce qui pourrait être la cause de cela?
Vous devez vous connecter pour publier un commentaire.
Je viens d'avoir la même situation que vous et je viens de corrigé ce problème.
C'est la raison pour laquelle vous avez configuré le même nombre de gardiens de zoo qui résultent directement dans
ce problème,essayez de changer votre numéro de zookeeper nœud à un intrus.
par exemple l'état d'origine de mon zookeeper cluster est composé de 4 nœuds,puis il suffit de supprimer l'un d'eux qui a pour conséquence le nombre de nœud à 3
eh bien ,maintenant que son ok pour le démarrage zookeeper cluster
ci-dessous est la sortie de se connecter avec succès à la gardienne serveur
zookeeper
nœud?J'ai connu le même problème et a trouvé que c'était en raison de la gardienne des nœuds de cluster besoins ports ouverts pour communiquer les uns avec les autres.
une fois que j'ai permis à ces ports par groupe de sécurité aws et redémarré. Tout a bien fonctionné pour moi
Je viens de résoudre le problème. J'utilise centos 7. Et le fauteur de troubles est pare-feu.À l'aide de "systemctl stop firewalld" pour arrêter tout cela dans chaque serveur peut simplement résoudre le problème.Ou vous pouvez utiliser la commande comme
Enfin utiliser
à redémarrer vos serveurs et le problème est résolu.
Dans mon cas, j'ai config zoo.cfg comme ceci:
Mais, dans l'hôte 1, j'ai config d'accueil-1 résoudre à l'adresse 127.0.0.1 dans /etc/hosts:
qui peut résultats d'autres hôtes ne peuvent pas communiquer avec elle. Résoudre d'accueil-1 à son adresse ip réelle de résoudre ce problème.
Espère que cela peut vous aider.
J'ai eu ce problème aussi, et il s'est avéré que j'ai dit à la gardienne de se connecter au mauvais port. Avez-vous vérifié que la gardienne est effectivement en cours d'exécution sur le port 2181 sur le dev de la machine?
J'ai eu le même message d'erreur quand j'essaye de connecter mon courtier avec mon Zookeeper ensemble à l'aide des enregistrements de point de Zookeeper IPs. Le problème était dans ma gardiens de zoo. Mon équipe d'interprétation n'ont pas été capable de se lier à port 2181 parce que j'étais en pointant mes enregistrements A pour adresse IP publique. Ce fut la prévention de la gardienne d'animaux ensemble pour choisir un chef de file et de communiquer les uns avec les autres. Pointage des dossiers privés IP activé la gardienne d'animaux ensemble pour choisir un chef de file et le cluster est devenue active. Après cela, lorsque j'ai essayé de connecter un de mes courtiers à l'ensemble, c'connecté avec succès.
J'ai eu ce problème aussi, et j'ai trouvé que j'ai juste besoin de redémarrer zookeeper, puis redémarrez tomcat donc ma webapp connecté bien alors
J'ai été en mesure de commencer avec la gardienne et kafka avoir 2 nœuds de chacun.
J'ai obtenu l'erreur parce que j'avais commencé zookeeper avec ./zkServer.sh au lieu de kafka wrapper
bin/zookeeper-server-start.sh config/zookeeper.propriétés
Assurez-vous que tous les services requis sont en cours d'exécution
Étape 1 : Vérifier si hbase-master est en cours d'exécution
si non, alors le démarrer
sudo /etc/init.d/hbase-master start
Étape 2 : Vérifier si hbase-regionserver est en cours d'exécution
si non, alors le démarrer
sudo /etc/init.d/hbase-regionserver start
Étape 3 : Vérifiez si zookeeper-le serveur est en cours d'exécution
si non, alors le démarrer
sudo /etc/init.d/zookeeper-server start
ou tout simplement de l'exécution de ces 3 commandes en ligne.
après cela, n'oubliez pas de vérifier le statut
Vous trouverez peut-être que la gardienne n'est toujours pas en cours d'exécution:
ensuite, vous pouvez exécuter le zookeeper
après qui, de nouveau, vérifier l'état et à assurer l'exécution de
Cela devrait fonctionner.
Je commence instance autonome dans ma machine, et de rencontrer le même problème. Finalement, je change d'ip "127.0.0.1" à "localhost" et le problème a disparu.
Je viens d'avoir la même situation que vous et je viens de corrigé ce problème.
mon
conf/zoo.cfg
comme cela:puis j'ai mis
data/myid
contenu du fichier comme ceci:enfin redémarrer zookeeper
Cela peut se produire si il y a trop de connexions ouvertes.
Essayez d'augmenter la
maxClientCnxns
réglage.De la documentation:
Vous pouvez modifier les paramètres dans le fichier de configuration. Très probablement, il peut être trouvé à
/etc/zookeeper/conf/zoo.cfg
.Moderne ZooKeeper versions valeur par défaut est de 60 ans. Vous pouvez l'augmenter en ajoutant le
maxClientCnxns=4096
ligne à la fin du fichier de configuration.J'ai aussi rencontré ce problème la semaine dernière et ont réussi à résoudre ce problème maintenant. J'ai eu l'idée pour résoudre ce l'un de la réponse partagée par @gukoff.
Mon exigence et la situation était légèrement différente de celles partagées jusqu'à présent, mais la question est fondamentalement la même, donc j'ai pensé de le partager sur ce fil.
J'étais en train d'essayer de requête zookeeper collège (toutes les 30 secondes) pour des informations à partir de mon application, et a été à l'aide de la Conservateur Cadre à cet effet (les méthodes disponibles en LeaderLatch classe). Donc, en fait, j'ai été le démarrage d'une CuratorFramework client et la fourniture de cette à LeaderLatch objet.
Seulement après que j'ai couru dans l'erreur mentionnée dans ce thread, j'ai réalisé que je n'avais pas fermer la gardienne de la connexion client(s) établie dans mes applications. Le
maxClientCnxns
propriété a la valeur de 60 et dès que le nombre de connexions (tous ont été vicié connexions) a touché 60, ma demande a commencé à se plaindre de cette erreur.J'ai découvert sur le nombre de connexions ouvertes par:
Vérification de la gardienne d'animaux journaux, où il y avait des messages d'avertissement indiquant que "Trop de connexions à partir de {adresse IP de l'hôte}"
Exécutant la commande suivante
netstat
commande à partir de la même hôte mentionné dans le ci-dessus les journaux d'où ma demande était en cours d'exécution:Note: Le 2181 port par défaut pour zookeeper fourni en paramètre dans la commande grep pour correspondre à la gardienne d'animaux connexions.
Pour résoudre ce problème, j'ai effacé tous ceux rassis connexions manuellement et ajouter ensuite le code de fermeture de la gardienne d'animaux connexions client gracieusement dans mon application.
J'espère que cela aide!
Vérifier la gardienne d'animaux les logs (/var/log/zookeeper). Il ressemble à une connexion est établie, ce qui devrait signifier qu'il y a un enregistrement de celle-ci.
J'ai eu la même situation et c'était à cause d'un processus de connexions ouvertes et a échoué à les fermer. Ce qui a finalement dépassé par l'hôte de limite de connexion et mes journaux étaient bondés de
En supposant que la gardienne est sur le port d'habitude, vous pourriez faire un chèque pour que avec:
J'ai rencontré le même problème ,trop. Dans mon cas, le problème est sur des règles iptables.
Pour communiquer avec zookeeper nœud, 2181 port doit être accepter les demande, également pour la communication interne entre les zookeeper nœuds 2888,3888 ports doivent être ouverts pour la requête entrante.
Eu la même erreur lors de l'installation sur un 2 nœud de cluster. J'ai découvert que j'avais mélangé le contenu de la myid fichier et le serveur.id=HOST_IP:port d'entrée.
Essentiellement, si vous avez deux serveurs (SERVER1 et SERVER2) pour lequel vous avez créé "myid" les fichiers dans dataDir pour zookeeper comme ci-dessous
Assurer l'entrée dans votre zoo.cfg fichier correspond pour chacun de ces je.e serveur.1 doit utiliser SERVEUR1 nom d'hôte et le serveur.Doit utiliser 2 SERVER2 nom d'hôte suivi par le port comme ci-dessous
Juste pour être sûr, j'ai aussi supprimé la version-* dossier dans le dataDir puis redémarré Zookeeper pour le faire fonctionner.
Impossible de lire des données supplémentaires à partir du serveur sessionid 0x0, probablement serveur a fermé socket, fermeture de la connexion de socket et de tenter de reconnecter (org.apache.zookeeper.ClientCnxn)
J'ai changé juste le nombre de courtiers dans le zoo.cfg fichier et redémarrez zookeeper et kafka service
Également vérifier le pare-feu local,
service firewalld statut
Si il fonctionne, seulement l'arrêt
service firewalld arrêter
Et puis de lui donner un essai.
Seulement maintenant, je résolus de la même question et après un blog.
En bref, si xx zoo.cfg comme:
puis xx, myid=1 est doit
C'est un problème commun si la Gardienne d'animaux server ne fonctionne pas ou ne fonctionne plus (c'est à dire qu'il s'est écrasé après avoir commencé).
Alors d'abord, vérifiez que vous avez les Zookeeper serveur en cours d'exécution. Une manière simple de vérifier est de filtrer les processus en cours d'exécution:
(exécuter cette une couple de fois pour voir si le même ID de processus est toujours là. ses possible de tenir de redémarrer avec une nouvelle ID de processus. Vous pouvez également utiliser 'systemctl status zookeeper" si votre distribution Linux support systemd)
Vous devriez voir le processus qui s'exécute comme un processus java:
Si elle n'est pas là, alors il y a probablement quelque chose dans le zookeeper fichier journal indiquant le problème.
Pour trouver le zookeeper fichier journal, vous devez d'abord comprendre d'où sa configuré pour l'enregistrement. Dans mon cas, j'ai zookeeper installé sous mon répertoire racine (ne vous suggère pas l'installer):
Et vous pouvez trouver le paramètre de journal dans ce fichier:
Donc Zookeeper est configuré pour ouvrir une session sous /var/log.
Puis, il ya habituellement une gardienne d'animaux.journal et/ou de la gardienne.fichier qui devrait indiquer votre erreur de démarrage.