Bonjour, je suis en tain d'installer Spark et je fais face à un problème, en effet, j'ai installer la version 1.8.0_261, j'ai ensuite installer Scala 2.11.8.
Puis j'ai modifié les variables d'environnement en mettant : la variable JAVA_HOME dans les variables d’environnements système avec comme valeur: C:\Program Files\Java\jdk1.8.0_261 dans la Variable PATH d’environnement système la valeur : C:\Program Files\Java\jdk1.8.0_261\bin
Variable: SCALA_HOME Valeur: C: \ Program Files (x86) \ scala Variable système PATH Valeur: C: \ Program Files (x86) \ scala \ bin
J'ai vérifié l'installation des deux logiciels via la cmd(invite de commande) J'ai ensuite télécharger spark-3.0.1-bin-hadoop2.7.tgz et je l'ai décompresser.
J'ai après télécharger ensuite Winutilities et l'ai coller sous C:\Spark\spark-2.0.1-bin-hadoop2.7\bin et ajouter ces variables d’environnements .
Variable: SPARK_HOME Valeur: C:\spark-2.0.1-bin-hadoop2.7\bin Variable système PATH Valeur: C:\Spark\spark-2.0.1-bin-hadoop2.7\bin
Je me suis ensuite placer dans le répertoire bin du dossier Spark et j'ai écrit dans le terminal spark-shell mais on m'indique que le chemin spécifié est introuvable.
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.