sqoopを使ってoracleデータをhiveに移動します.


    :  sqoop oracle     hive 
  :hive   (     )         oracle      ,      
    :    1、     oracle         ,(                 ,       )       2、  sqoop oracle      HDFS  。(  :          hive         ,      hive      )    3、  hive   (   )           hive 。
    : 1、  oracle  HDFS  。sqoop import --connect jdbc:oracle:thin:@10.10.10.10:1521:jzfpdb -username jzfp -password jzfp --table TB_FPXM_CS_SOURCE --fields-terminated-by "\t" --lines-terminated-by "
" --as-textfile --delete-target-dir --target-dir /tmp/data_back/TB_FPXM_CS_SOURCE ;
 2、抽出したデータをローカルファイルにロードする
 hadoop fs -cat /tmp/data_back/TB_FPXM_CS_SOURCE/* >pzb.txt;
 3、バックアップスクリプト
#/bin/bash
printf "*************************************
"; time=`date -d next-day +%Y%m%d` #time=`date +%Y%m%d` for name in `cat /tmp/wcj/pzb.txt | awk '{print $3}'` do echo $name; echo $time; echo /tmp/data_back/$name/$time; #hadoop fs -mkdir /tmp/data_back/$name/$time; sqoop import --connect jdbc:oracle:thin:@10.10.10.10:1521:jzfpdb -username jzfp -password jzfp --table $name --fields-terminated-by "\t" --lines-terminated-by "
" --split-by "fpxm_key" --as-textfile --delete-target-dir --target-dir /tmp/data_back/$name/$time ; echo 1111111; done
 4、タイミングタスク
crontab -e  
 
後善