sqoopを使ってoracleデータをhiveに移動します.
: sqoop oracle hive
:hive ( ) oracle ,
: 1、 oracle ,( , ) 2、 sqoop oracle HDFS 。( : hive , hive ) 3、 hive ( ) hive 。
: 1、 oracle HDFS 。sqoop import --connect jdbc:oracle:thin:@10.10.10.10:1521:jzfpdb -username jzfp -password jzfp --table TB_FPXM_CS_SOURCE --fields-terminated-by "\t" --lines-terminated-by "
" --as-textfile --delete-target-dir --target-dir /tmp/data_back/TB_FPXM_CS_SOURCE ;
2、抽出したデータをローカルファイルにロードする hadoop fs -cat /tmp/data_back/TB_FPXM_CS_SOURCE/* >pzb.txt;
3、バックアップスクリプト#/bin/bash
printf "*************************************
";
time=`date -d next-day +%Y%m%d`
#time=`date +%Y%m%d`
for name in `cat /tmp/wcj/pzb.txt | awk '{print $3}'`
do
echo $name;
echo $time;
echo /tmp/data_back/$name/$time;
#hadoop fs -mkdir /tmp/data_back/$name/$time;
sqoop import --connect jdbc:oracle:thin:@10.10.10.10:1521:jzfpdb -username jzfp -password jzfp --table $name --fields-terminated-by "\t" --lines-terminated-by "
" --split-by "fpxm_key" --as-textfile --delete-target-dir --target-dir /tmp/data_back/$name/$time ;
echo 1111111;
done
4、タイミングタスクcrontab -e
後善