Docker Hadoop Hbase 글에서 작성한 컨테이너를 이어서 사용합니다. Docker Hadoop Hive 2를 참고해서 Hive 설치까지 끝냅니다.
sqoop 바이너리를 받고 압축해제해서 적당한 폴더로 옮깁니다. 폴더 사용자 그룹을 설정하고 sqoop 커맨드 help를 실행해 봅니다.
sqoop을 이용해서 RDBMS와 HDFS 간의 데이터 마이그레이션을 할 수 있습니다.
sqoop-env.sh 설정파일에 Hadoop, Hive, Hbase, Zookeeper 설치경로를 수정합니다.
설정이 완료되면, Sqoop Connector 를 다운받아서 sqoop 설치경로/lib 아래에 둡니다.
예를들어, mysql을 db로 사용한다면 mysql connector driver 가 필요합니다.
MySQL Connector/j 페이지에서 connector/j 를 다운받아서 mysql-connector-java-{version}.jar 파일을 lib 폴더 아래에 복사합니다.
sqoop 바이너리를 받고 압축해제해서 적당한 폴더로 옮깁니다. 폴더 사용자 그룹을 설정하고 sqoop 커맨드 help를 실행해 봅니다.
wget http://mirror.navercorp.com/apache/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz tar xvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz sudo mkdir /usr/local/sqoop sudo mv sqoop-1.4.7.bin__hadoop-2.6.0/* /usr/local/sqoop sudo chown -R hduser:hadoop /usr/local/sqoop cd /usr/local/sqoop bin/sqoop help
sqoop을 이용해서 RDBMS와 HDFS 간의 데이터 마이그레이션을 할 수 있습니다.
sqoop-env.sh 설정파일에 Hadoop, Hive, Hbase, Zookeeper 설치경로를 수정합니다.
cp ./conf/sqoop-env-template.sh conf/sqoop-env.sh vim conf/sqoop-env.sh export HADOOP_COMMON_HOME=/usr/local/hadoop export HADOOP_MAPRED_HOME=/usr/local/hadoop export HBASE_HOME=/usr/local/hbase export HIVE_HOME=/usr/local/hive export ZOOCFGDIR=/usr/local/zookeeper/conf
설정이 완료되면, Sqoop Connector 를 다운받아서 sqoop 설치경로/lib 아래에 둡니다.
예를들어, mysql을 db로 사용한다면 mysql connector driver 가 필요합니다.
MySQL Connector/j 페이지에서 connector/j 를 다운받아서 mysql-connector-java-{version}.jar 파일을 lib 폴더 아래에 복사합니다.