소개
상상해 보세요. 여러분이 재앙의 오라클 (Disaster Oracle) 이라는 신화적 존재에게서 지침을 구하기 위해 사막 유적 한가운데에 서 있는 시나리오를 말입니다. 재앙의 오라클은 Hadoop HDFS 인프라를 올바르게 설정해야만 막을 수 있는 대격변적인 사건을 예견했습니다. 여러분의 목표는 데이터 왕국의 안전을 보장하기 위해 오라클의 지침을 따르는 것입니다.
상상해 보세요. 여러분이 재앙의 오라클 (Disaster Oracle) 이라는 신화적 존재에게서 지침을 구하기 위해 사막 유적 한가운데에 서 있는 시나리오를 말입니다. 재앙의 오라클은 Hadoop HDFS 인프라를 올바르게 설정해야만 막을 수 있는 대격변적인 사건을 예견했습니다. 여러분의 목표는 데이터 왕국의 안전을 보장하기 위해 오라클의 지침을 따르는 것입니다.
이 단계에서는 데이터 저장 및 처리를 위해 Hadoop HDFS 를 구성하는 것으로 시작합니다.
터미널을 열고 다음 단계를 따라 시작하십시오.
적절한 권한을 위해 Hadoop 사용자로 전환합니다.
su - hadoop
HDFS 데이터를 저장할 디렉토리를 생성합니다.
hdfs dfs -mkdir /home/hadoop/data
다음으로, 구성된 HDFS 디렉토리에 샘플 데이터를 업로드합니다.
샘플 데이터가 포함된 로컬 파일을 생성합니다.
echo 'Hello, Hadoop World!' > /tmp/sample.txt
로컬 파일을 HDFS 에 업로드합니다.
hdfs dfs -put /tmp/sample.txt /home/hadoop/data
파일이 HDFS 에 존재하는지 확인합니다.
hdfs dfs -ls /home/hadoop/data
이 단계에서는 HDFS 가 데이터 복제를 처리하는 방식을 살펴봅니다.
업로드된 파일의 복제 상태를 확인합니다.
hdfs fsck /home/hadoop/data/sample.txt -files -blocks -locations
파일의 복제 인자를 2 로 변경합니다.
hdfs dfs -setrep -R 2 /home/hadoop/data/sample.txt
이 랩에서는 참가자들이 사막 유적에서 재해 오라클 (Disaster Oracle) 과 상호 작용하여 Hadoop HDFS 설정을 배우고 연습하는 몰입형 시나리오를 설계했습니다. 랩에 설명된 단계를 따르면 사용자는 HDFS 구성, 데이터 업로드 및 데이터 복제 관리에 대한 실질적인 경험을 얻을 수 있습니다. 이 랩은 사용자가 관련된 주요 개념과 작업에 대한 실질적인 이해를 갖도록 보장하면서 Hadoop HDFS 설정에 대한 포괄적인 소개를 제공하는 것을 목표로 합니다.