Spark - Comment exécuter localement un cluster autonome

Est-il la possibilité d'exécuter le Étincelle autonome cluster localement sur une seule machine (qui est fondamentalement différent de simplement la création d'emplois au niveau local (c'est à dire, local[*]))?.

Jusqu'à présent, je suis en cours d'exécution 2 différentes VMs pour construire un cluster, ce qui si je pouvais courir autonome de cluster sur la même machine, avoir par exemple trois différentes machines virtuelles en cours d'exécution?

Quelque chose comme avoir plusieurs adresses de loopback faire l'affaire?

source d'informationauteur luke