spark1.63はspark 2にアップグレードする.3.1環境変数構成
1475 ワード
なぜならspark 2.3 jdk 1が必要である.8のサポートにより、spark-submitとspark-sqlはjdkバージョンを指定する必要があります.具体的にはテスト例を参照してください.
1.パーソナルユーザプロファイルを変更する.bashrc,注釈以前のspark環境とjava環境,追加
vi ~/.bashrc
保存後実行:source.bashrc
この構成で完了
2.計算円周率試験例を実行する:
spark-submit --class org.apache.spark.examples.SparkPi\--master yarn\--deploy-mode client\--driver-memory 4g\--executor-memory 2g\--executor-cores 1\--conf "spark.executorEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--conf "spark.yarn.appMasterEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--queue root.bigdata.statistics\/opt/core/spark/examples/jars/spark-examples*.jar 10
3.spark-sqlサンプルを起動する:
spark-sql --master yarn\--deploy-mode client\--driver-memory 2g\--executor-memory 8g\--executor-cores 4\--conf "spark.executorEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--conf "spark.yarn.appMasterEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--queue root.bigdata.statistics
1.パーソナルユーザプロファイルを変更する.bashrc,注釈以前のspark環境とjava環境,追加
vi ~/.bashrc
#export SPARK_HOME=/opt/core/spark-
1.6
.
3
-bin-hadoop2.
6
#export JAVA_HOME=/usr/java/jdk1.
7
.0_67-cloudera
export SPARK_HOME=/opt/core/spark-
2.3
.
1
-bin-hadoop2.
6
export JAVA_HOME=/usr/local/jdk1.
8
.0_161
export PATH=${SPARK_HOME}/bin:${JAVA_HOME}/bin:$PATH
保存後実行:source.bashrc
この構成で完了
2.計算円周率試験例を実行する:
spark-submit --class org.apache.spark.examples.SparkPi\--master yarn\--deploy-mode client\--driver-memory 4g\--executor-memory 2g\--executor-cores 1\--conf "spark.executorEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--conf "spark.yarn.appMasterEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--queue root.bigdata.statistics\/opt/core/spark/examples/jars/spark-examples*.jar 10
3.spark-sqlサンプルを起動する:
spark-sql --master yarn\--deploy-mode client\--driver-memory 2g\--executor-memory 8g\--executor-cores 4\--conf "spark.executorEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--conf "spark.yarn.appMasterEnv.JAVA_HOME=/usr/local/jdk1.8.0_161"\--queue root.bigdata.statistics