September 29, 2021
본 게시물은 윈도우 환경에서 진행하였습니다.
sudo apt-get update // 모듈 업데이트
java -version // 자바 버전확인 (깔려있는지 확인하기 위함)
sudo apt-get install default-jdk -y // jdk 설차
which java // java 파일 경로 확인
readlink -f /usr/bin/java // readlink : 심볼릭 링크의 원보 파일 확인
//readlink -f : 심볼릭 링크를 따라 최종 파일의 절대경로로 반환
sudo vim /etc/profile
// 파일 맨 밑에
// export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
// 입력 ( readlink -f 에서 확인한 경로 입력)
source /etc/profile // 스크립트 수정값 적용
wget http://apache.mirror.cdnetworks.com/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
// 파일 다운
tar zxvf hadoop-2.9.2.tar.gz
// 압축 해제
sudo cp -rf hadoop-2.9.2 /usr/local/hadoop
// 압축 해제 폴더 복사
rm -rf hadoop-2.9.2*
// 기존 압축 해제 폴더 제거
sudo addgroup hadoop
// hadoop 그룹 추가
sudo adduser --ingroup hadoop manager
// hadoop 그룹에 manager 사용자 추가
sudo adduser manager sudo
// manager 사용자를 sudo 그룹에 추가
sudo chown -R manager:hadoop /usr/local/hadoop
// hadoop 폴더 소유권 변경
ls -l /usr/local
// 변경 됬는지 확인
sudo su - manager // user 변경
nano ~/.bashrc
// 파일 맨 밑에
// export HADOOP_HOME=/usr/local/hadoop
// export PATH=$PATH:$HADOOP_HOME/bin
// export PATH=$PATH:$HADOOP_HOME/sbin
// export HADOOP_MAPRED_HOME=$HADOOP_HOME
// export HADOOP_COMMON_HOME=$HADOOP_HOME
// export HADOOP_HDFS_HOME=$HADOOP_HOME
// 입력
source ~/.bashrc
sudo nano /usr/local/hadoop/etc/hadoop/hadoop-env.sh
// 파일 맨 밑에
// export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
// 입력
sudo mkdir -p /usr/local/hadoop/tmp
sudo chown -R manager:hadoop /usr/local/hadoop/tmp/
sudo nano /usr/local/hadoop/etc/hadoop/core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:62350</value>
</property>
</configuration>
cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapredsite.xml
sudo nano /usr/local/hadoop/etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:62351</value>
</property>
</configuration>
sudo mkdir -p /usr/local/hadoop/hdfs/namenode
sudo mkdir -p /usr/local/hadoop/hdfs/datanode
sudo chown -R manager:hadoop /usr/local/hadoop/hdfs
sudo nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub manager@localhost
hadoop namenode -format
start-dfs.sh
jps
// java 실행중인 프로세스 확인
// SecondaryNameNode, DataNode, Jps, NameNode
hadoop fs -mkdir -p /wordcount/input
hadoop fs -put CHANGES.txt /wordcount/input
hadoop jar WordCount.jar com.care.WordCount.WordCount /wordcount/input /wordcount/output
hadoop fs -ls /wordcount/output/
hadoop fs -cat /wordcount/output/part-00000