Hadoopの——SQOOPノート


       :http://blog.csdn.net/l1028386804/article/details/46517039
SQOOPはデータを導入してエクスポートするためのものです.    (1)MySQL、OracleなどのデータベースのデータをHFS、Hive、HBaseに導入する
    (2)HFS、Hive、HBaseのデータをMySQL、Oracleなどのデータベースにエクスポートする
1.データをmysqlからhdfsに導入する(デフォルトは/user/)
 sqoop import --connect jdbc:mysql://hadoop0:3306/hive  --username root --password admin --table TBLS --fields-terminated-by '\t'  --null-string '**'  -m 1 --append  --hive-import
 sqoop import --connect jdbc:mysql://hadoop0:3306/hive  --username root --password admin --table TBLS --fields-terminated-by '\t'  --null-string '**'  -m 1 --append  --hive-import  --check-column 'TBL_ID' --incremental append --last-value 6
2.hdfsからmysqlにデータを導出する 
  sqoop export --connect jdbc:mysql://hadoop0:3306/hive  --username root --password admin --table ids --fields-terminated-by '\t' --export-dir '/ids'
3.作業、運転作業に設定する
  sqoop job --create myjob -- import --connect jdbc:mysql://hadoop0:3306/hive  --username root --password admin --table TBLS --fields-terminated-by '\t'  --null-string '**'  -m 1 --append  --hive-import 
4.導入してエクスポートする事務は、Mapperタスク単位です.