hue 4.2.0インストール(メタデータベースとしてMySQLを使用)


1.インストール依存
yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel  gmp-devel openssl-devel

2.mavenインストールa.mavenインストールパッケージapache-maven-3.5をダウンロードする.4-bin.zip b.解凍インストールパッケージunzip apache-maven-3.5.4-bin.zip c.改包名mv apache-maven-3.5.4-bin.zip maven d.プロファイルcd maven/conf vi settingsを変更する.xml
<mirrors>
     <mirror>
         <id>alimavenid>
         <mirrorOf>centralmirrorOf>
         <name>aliyun mavenname>
         <url>http://maven.aliyun.com/nexus/content/groups/public/url>
     mirror>

     <mirror>
         <id>uiid>
         <mirrorOf>centralmirrorOf>
         <name>Human Readable Name for this Mirror.name>
         <url>http://uk.maven.org/maven2/url>
     mirror>

     <mirror>
         <id>jboss-public-repository-groupid>
         <mirrorOf>centralmirrorOf>
         <name>JBoss Public Repository Groupname>
         <url>http://repository.jboss.org/nexus/content/groups/publicurl>
     mirror>
 mirrors>
e.      
vi /etc/profile
export MAVEN_HOME=/usr/local/maven
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$MAVEN_HOME/bin:$PATH
f.       
source /etc/profile

3.インストールhue a.インストールパッケージhue-4.2をダウンロードする0.tgz公式サイト:http://gethue.com/ b.解凍インストールパッケージtar-zxvf hue-4.2.0.tgz c. cd hue-4.2.0.tgz d.make apps e.コンパイルに問題が発生したらmake clean make apps f.hueを再コンパイル
vi hue/desktop/conf/hue.ini
HUE
secret_key=
http_host=192.168.168.128
http_port=8888
time_zone=Asia/Shanghai
server_user=root
server_group=root
default_user=root
default_hdfs_superuser=root

database
engine=mysql
host=10.0.30.8
port=3306
user=root
password=111111
name=hive1    #      

Hadoop/HDFS
fs_defaultfs=hdfs://192.168.168.128:9000
webhdfs_url=http://192.168.168.128:50070/webhdfs/v1
hadoop_conf_dir=/usr/local/hadoop/etc/Hadoop
hadoop_hdfs_home=/usr/local/Hadoop
hadoop_bin=/usr/local/hadoop/bin

YARN
resourcemanager_host=192.168.168.128
resourcemanager_port=8032
hadoop_conf_dir=/usr/local/hadoop/etc/Hadoop
hadoop_mapred_home=/usr/local/Hadoop
hadoop_bin=/usr/local/hadoop/bin
resourcemanager_api_url=http://192.168.168.128:8088
proxy_api_url=http://192.168.168.128:8088
history_server_api_url=http://192.168.168.128:19888

Hive
hive_server_host=192.168.168.128
hive_server_port=10000
hive_conf_dir=/usr/local/hive/conf

mysql
nice_name="My SQL DB"
name=hive1
engine=mysql
host=10.0.30.8
port=3306
user=root
password=111111

HBase
hbase_clusters=(Cluster|master:9090)
hbase_conf_dir=/home/hadoop/hbase-1.0.1.1/conf

Pig
# Location of piggybank.jar on local filesystem.
## local_sample_dir=/usr/share/hue/apps/pig/examples
# Location piggybank.jar will be copied to in HDFS.
## remote_data_dir=/user/hue/pig/examples

Sqoop2
server_url=http://master:12000/sqoop
sqoop_conf_dir=/home/sqoop-1.99.6/conf
g.hadoop  
vi hdfs-site.xml
<property>
  <name>dfs.webhdfs.enabledname>
  <value>truevalue>
property>
vi core-site.xml

<property> 
  <name>dfs.webhdfs.enabledname> 
  <value>truevalue> 
property>
<property>
     <name>hadoop.proxyuser.root.hostsname>
     <value>*value>
property>
<property>
     <name>hadoop.proxyuser.root.groupsname>
     <value>*value>
property>
<property>  
    <name>hadoop.proxyuser.httpfs.hostsname>  
    <value>*value>  
property>  
<property>  
    <name>hadoop.proxyuser.httpfs.groupsname>  
    <value>*value>  
property> 
h.       
i.     、      
bin/hue syncdb
bin/hue migrate
./supervisor