Sparkのインストール(Macベース)
2039 ワード
Sparkのインストール(Macベース)
一、紹介
1.1内容
Macコンピュータにsparkを正常にインストールし(hadoopを事前にインストールする必要はありません)、jupyterでpysparkを使用してsparkを操作します.
1.2知識点
1.3環境
本明細書のすべての環境変数は、
.bash_profile
または.zshrc
で構成される.vim ~/.bash_profile #
source ~./bash_profile #
一、Java JDKのdmgファイルをインストールする
Sparkは現在JDK-9をサポートしていないため、最新のJDK-8バージョンの公式サイトをダウンロード(遅い)国内ダウンロード(速い)ダウンロードが完了した後、
jdk-8.dmg
ファイルをクリックしてインストールし、対応する環境変数を追加することを選択した.export JAVA_HOME="/Library/Java/JavaVirtualMachines/jdk1.8.0_151.jdk/Content s/Home"
export PATH="$JAVA_HOME/bin:$PATH"
Terminalに
java
と入力してインストール結果を表示二、Spark&pysparkのインストール
2.1ダウンロード
> brew install apache-spark
> sudo -H pip install pyspark --user
2.2構成
apache-sparkのデフォルトのインストール場所:
/usr/local/Cellar/apache-spark/2.2.0
、バージョンは現在最新の2.2.0# spark
export SPARK_PATH="/usr/local/Cellar/apache-spark/2.2.0"
export PATH="$SPARK_PATH/bin:$PATH"
2.3運転
Terminalで、
pyspark
と入力してインストールが成功したかどうかを確認します.三、pysparkのipython環境
jupyter notebookでpysparkを使用するには、環境変数を構成する必要があります.
# python , 2 3
export PYSPARK_PYTHON="/Library/Frameworks/Python.framework/Versions/3.5/bin/python3.5"
export PYSPARK_DRIVER_PYTHON="/Library/Frameworks/Python.framework/Versions/3.5/bin/ipython3"
export PYSPARK_DRIVER_PYTHON_OPTS="notebook"
alias pysbook='$SPARK_PATH/bin/pyspark'
terminalに
pyspark
またはpysbook
(別名)を入力し、spark付きipython notebookを直接実行できます.参考リンク:【1】stack overflow上のjava環境構成【2】mac上にspark+ipython環境を構築【3】Spark学習(一)−Sparkインストールおよび概要【4】mac下におけるSparkのインストールと使用【5】Sparkインストールと構成
【転載】:https://www.jianshu.com/p/f284b77289ca