Docker Hadoop Spark 글에서 작성한 Dockerfile 을 이용해서 Container를 생성하고, Docker Hadoop Hive 1 글에서 jdk 와 Hadoop 설치를 완료하면 Hadoop 컨테이너는 준비가 되었습니다.
우선 hduser로 접속합니다. 그리고 pig 바이너리를 다운로드 받습니다. 바이너리 파일을 /usr/local/pig 로 옮겨주고 권한을 줍니다.
pig는 JAVA_HOME, HADOOP_HOME(mapreduce 실행방식일 경우) 환경변수를 참조합니다. 환경변수를 설정합니다.
pig는 로컬 방식으로 실행할 수도 있고, mapreduce 방식으로 실행할 수 있습니다.
로컬 방식은 ./bin/pig -x local 로 실행합니다. 하둡을 이용하면 ./bin/pig 명령어를 입력합니다.
pig 설치가 완료되었습니다.
우선 hduser로 접속합니다. 그리고 pig 바이너리를 다운로드 받습니다. 바이너리 파일을 /usr/local/pig 로 옮겨주고 권한을 줍니다.
su hduser cd /tmp wget http://mirror.navercorp.com/apache/pig/pig-0.16.0/pig-0.16.0.tar.gz tar xvf pig-0.16.0.tar.gz sudo mkdir /usr/local/pig sudo mv pig-0.16.0/* /usr/local/pig sudo chown -R hduser:hadoop /usr/local/pig
pig는 JAVA_HOME, HADOOP_HOME(mapreduce 실행방식일 경우) 환경변수를 참조합니다. 환경변수를 설정합니다.
vim ~/.bashrc export JAVA_HOME=/usr/lib/jvm/java-8-oracle export HADOOP_HOME=/usr/local/hadoop source ~/.bashrc
pig는 로컬 방식으로 실행할 수도 있고, mapreduce 방식으로 실행할 수 있습니다.
로컬 방식은 ./bin/pig -x local 로 실행합니다. 하둡을 이용하면 ./bin/pig 명령어를 입력합니다.
pig 설치가 완료되었습니다.