Hadoop HDFS Einrichtung

HadoopHadoopBeginner
Jetzt üben

💡 Dieser Artikel wurde von AI-Assistenten übersetzt. Um die englische Version anzuzeigen, können Sie hier klicken

Einführung

Stellen Sie sich ein Szenario vor, in dem Sie mitten in einem Wüstenruin sind und von einer mythischen Figur namens Disaster Oracle (Katastrophenorakel) Anweisungen erhalten. Das Disaster Oracle hat ein katastrophales Ereignis vorhergesehen, das nur vermieden werden kann, indem die Hadoop HDFS-Infrastruktur richtig eingerichtet wird. Ihr Ziel ist es, den Anweisungen des Oracles zu folgen, um das Sicherheits der Datenwelt zu gewährleisten.

Initialisierung der HDFS-Konfiguration

In diesem Schritt starten Sie mit der Konfiguration von Hadoop HDFS, um die Datenaufzeichnung und -verarbeitung vorzubereiten.

Öffnen Sie das Terminal und folgen Sie den untenstehenden Schritten, um loszulegen.

  1. Wechseln Sie zum Hadoop-Benutzer, um die richtigen Berechtigungen zu erhalten:

    su - hadoop
  2. Erstellen Sie ein Verzeichnis zum Speichern von HDFS-Daten:

    hdfs dfs -mkdir /home/hadoop/data

Hochladen von Daten in HDFS

Als nächstes laden Sie Beispiel-Daten in das konfigurierte HDFS-Verzeichnis hoch.

  1. Erstellen Sie eine lokale Datei mit Beispiel-Daten:

    echo 'Hello, Hadoop World!' > /tmp/sample.txt
  2. Laden Sie die lokale Datei in HDFS hoch:

    hdfs dfs -put /tmp/sample.txt /home/hadoop/data
  3. Überprüfen Sie, ob die Datei in HDFS vorhanden ist:

    hdfs dfs -ls /home/hadoop/data

Datenreplikationsverwaltung

In diesem Schritt werden Sie untersuchen, wie HDFS die Datenreplikation behandelt.

  1. Überprüfen Sie den Replikationsstatus der hochgeladenen Datei:

    hdfs fsck /home/hadoop/data/sample.txt -files -blocks -locations
  2. Ändern Sie den Replikationsfaktor der Datei auf 2:

    hdfs dfs -setrep -R 2 /home/hadoop/data/sample.txt

Zusammenfassung

In diesem Labyrinth haben wir ein immersives Szenario entworfen, in dem die Teilnehmer mit dem Katastrophenorakel in einem Wüstenruin interagieren, um das Einrichten von Hadoop HDFS zu lernen und zu üben. Indem die in diesem Labyrinth beschriebenen Schritte befolgt werden, erhalten die Benutzer praktische Erfahrungen bei der Konfiguration von HDFS, dem Hochladen von Daten und der Verwaltung der Datenreplikation. Ziel dieses Labyrinths ist es, eine umfassende Einführung in die Einrichtung von Hadoop HDFS zu geben, während gleichzeitig gewährleistet wird, dass die Benutzer eine praktische Vorstellung von den Schlüsselkonzepten und -operationen haben.