Nous savons que Spark est plus puissant que MapReduc. Alors si nous voulons le tester, tout d’abord qu’il faut l’installer dans notre PC…
Tutoriel: Lien 1
Problème rencontré: Set JAVA_HOME Résoudre: vi ~/.bash_profile Problème rencontré: sbt/sbt clean assembly Résoudre: //Regarder README.md build/mvn -DskipTests clean package You don't need to do this if you downloaded a pre-built package.
Pour démarrer le hadoop: /usr/local/Cellar/spark/bin/spark-shell Installation avec succès: http://localhost:4040