Linkisインストール

1913 ワード

まずlinkisをインストールするにはインストールする必要があります
MySQL(5.5+)、MySQLのインストール方法
JDK(1.8.0_141以上)、JDKのインストール方法
Python(2.xと3.xともにサポート)、Pythonのインストール方法
Hadoop(コミュニティ版とCDH 3.0以下のバージョンでサポート)
Hive(1.2.1,2.0,2.0以上、互換性の問題がある可能性があります)
Spark(Linkis release 0.7.0から、Spark 2.0以上のすべてのバージョンをサポート)
ここでは、hadoopユーザーのデプロイメントユーザーを作成します.
sudo useradd Hadoop		   hadoop     
  sudo  
cp /etc/sudoers /etc/sudoers.bak
chattr -i /etc/sudoers

Hadoopユーザーがジョブを実行するには秘密を免除する必要があります
vi /etc/sudoers
hadoop  ALL=(ALL)       NOPASSWD:ALL

hadoopユーザーとlocalhostユーザーの秘密保護ログインを構成してssh-keyを作成し、公開鍵をauthorized_にコピーする必要があります.keys中
環境変数の設定
vim /home/Hadoop/.bashrc
export JAVA_HOME=”/opt/java/jdk1.8.0_171”
export PATH=”$JAVA_HOME/bin:$PATH”
export CLASSPATH=”.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar”
export HADOOP_HOME=”/opt/cloudera/parcels/CDH/lib/hadoop”
export HADOOP_CONF_DIR=” /opt/cloudera/parcels/CDH/lib/Hadoop/etc/hadoop”
export SPARK_HOME=” /opt/cloudera/parcels/CDH/lib/spark”

linkisインストールパッケージのインストール
tar -xvf wedatasphere-linkis-0.9.0-dist-spark2.1 (1).tar
cp conf/config.sh conf/config.sh.bak
vim conf/config.sh
    deployUser=hadoop      #      
    LINKIS_INSTALL_HOME=/appcom/Install/Linkis    #       
    WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop    #        ,                   ,        。
RESULT_SET_ROOT_PATH=hdfs://NNCluster/user/linkis/tmp   #        ,    Job      
HDFS_USER_ROOT_PATH=hdfs://NNCluster/user/linkis
vim conf/db.sh
MYSQL_HOST=10.75.201.130
MYSQL_PORT=3306
MYSQL_DB=linkis
MYSQL_USER=root
MYSQL_PASSWORD=***

コピーhdfs.keytabファイルローカルディレクトリへのインストール実行
sudo sh bin/install.sh

サービスの開始
./bin/start-all.sh > start.log 2>start_error.log

インストールリファレンスhttps://github.com/WeBankFinTech/Linkis/wiki/Linkisの迅速なインストール方法