sqoop笔记-new

    xiaoxiao2021-12-14  24

    Linux、Hadoop命令汇总: netstat -nltp | grep 3306  查看端口3306的占用情况 sqoop的使用 ----sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具 ----实质就是将导入导出命令转换成mapreduce程序来实现 sqoop安装:sqoop和hive一样只是一个工具,哪用哪安装,安装在一台节点上就可以了。 1.上传sqoop并解压 tar -zxvf sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz 2.安装和配置 ----修改配置文件 sqoop-env-template.sh  为  sqoop-env.sh #Set path to where bin/hadoop is available export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1 #Set path to where hadoop-*-core.jar is available export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1 #set the path to where bin/hbase is available export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2 #Set the path to where bin/hive is available export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin #Set the path for where zookeper config dir is          (----若要导Hbase则需要配置此项) export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf 在添加sqoop到环境变量 ######将数据库连接驱动拷贝到$SQOOP_HOME/lib里 mv  mysql-connector-java-5.1.28.jar /home/hadoop-node-01/sqoop-1.4.4.bin__hadoop-2.0.4-alpha/lib/ 3.使用 第一类:数据库中的数据导入到HDFS上 sqoop import  --connect jdbc:mysql://192.168.1.10:3306/itcast  --username root --password 123   --table trade_detail  --columns 'id, account, income, expenses' 指定输出路径、指定数据分隔符 sqoop import  --connect jdbc:mysql://192.168.1.10:3306/itcast  --username root --password 123   ##要导入数据的表 --table trade_detail  ##数据导入hdfs后所存放的目录 --target-dir '/sqoop/td'  ##导入的数据字段之间的分隔符 --fields-terminated-by '\t' 指定Map数量 -m  sqoop import  --connect jdbc:mysql://192.168.1.10:3306/itcast  --username root --password 123   --table trade_detail  --target-dir '/sqoop/td1'  --fields-terminated-by '\t' ##指定做导入处理时的map 任务数  -m 2 增加where条件, 注意:条件必须用引号引起来 sqoop import  --connect jdbc:mysql://192.168.1.10:3306/itcast  --username root --password 123   --table trade_detail  --where 'id>3'  --target-dir '/sqoop/td2'  增加query语句(使用 \ 将语句换行) sqoop import  --connect jdbc:mysql://192.168.1.10:3306/itcast  --username root --password 123  --query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS'  --split-by trade_detail.id  --target-dir '/sqoop/td3' 注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上 而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS 如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上 第二类:将HDFS上的文件数据导出到数据库的表里面去 sqoop export  --connect jdbc:mysql://192.168.8.120:3306/itcast  --username root --password 123  ##你要导出的数据所在的目录 --export-dir '/td3'  ##你要导往的目标关系表 --table td_bak  -m 1  ##你要导出的文件的字段分隔符 --fields-termianted-by '\t' 4.配置mysql远程连接 GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION; FLUSH PRIVILEGES;  GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION; FLUSH PRIVILEGES 命令Demo sqoop export --connect jdbc:mysql://hadoop-01-server:3306/urlknowledge --username root --password root \ --table know \ --export-dir /flowcount/srcdata \ --columns url \ --input-fields-terminated-by '\t' sqoop export --connect jdbc:mysql://weekend01:3306/urlrule --username root --password root \ --table urlinfo \ --export-dir /llyy/topkurl3/ \ --columns url \ --input-fields-terminated-by '\t' sqoop export --connect jdbc:mysql://weekend01:3306/flowurl --username root --password root \ --table topkurl \ --export-dir /flow/topkurl \ --columns url \ --input-fields-terminated-by '\t'
    转载请注明原文地址: https://ju.6miu.com/read-962987.html

    最新回复(0)