Einführung
In einem fernen, fernen Galaxien existiert ein laufender Weltraumkrieg zwischen verschiedenen Fraktionen. Die Galaxie ist auch voll von Raumhändlern, die versuchen, in der Chaos Gewinne zu erzielen. Unsere Geschichte konzentriert sich auf einen solchen Raumhändler, der wertvolle Datenfiles mit Hilfe des Hadoop's HDFS Dateisystems übertragen muss. Das Ziel des Händlers ist es, Dateien erfolgreich von ihrem lokalen System auf Hadoop zu kopieren, indem der Befehl copyFromLocal verwendet wird, und Dateien von Hadoop auf ihr lokales System zurückzuholen, indem der Befehl get verwendet wird.
Datei auf Hadoop kopieren
In diesem Schritt muss der Raumhändler eine Datei namens data.txt von ihrem lokalen System auf Hadoop HDFS kopieren.
Öffnen Sie das Terminal und folgen Sie den Schritten unten, um zu beginnen.
Wechseln Sie zum Benutzer
hadoopfür die richtigen Berechtigungen:su - hadoopErstellen Sie ein Verzeichnis namens
space_datain Hadoop:hdfs dfs -mkdir /space_dataKopieren Sie die lokale Datei
data.txtnach Hadoop:hdfs dfs -copyFromLocal /home/hadoop/data.txt /space_data/Vergewissern Sie sich, dass die Datei erfolgreich kopiert wurde:
hdfs dfs -ls /space_data
Datei aus Hadoop abrufen
Jetzt muss der Raumhändler die Datei data.txt aus Hadoop abrufen und auf ihr lokales System speichern.
Wechseln Sie in das Verzeichnis, in dem Sie die abgerufene Datei speichern möchten:
mkdir /home/hadoop/space_data && cd /home/hadoop/space_dataRufen Sie die Datei
data.txtvon Hadoop auf das lokale System ab:hdfs dfs -get /space_data/data.txtVergewissern Sie sich, dass die Datei erfolgreich abgerufen wurde:
ls -l data.txt
Zusammenfassung
In diesem Lab haben wir ein Raumhandels-Szenario simuliert, in dem ein Händler Datenfiles zwischen seinem lokalen System und Hadoop HDFS übertragen musste. Indem Sie die Befehle copyFromLocal und get in der Hadoop FS Shell üben, können Benutzer lernen, wie man Dateien effizient zu und von Hadoops verteiltem Dateisystem verschiebt. Diese praktische Erfahrung hilft dabei, die grundlegenden Dateimanagement-Operationen in Hadoop zu verstehen und verbessert die Fähigkeiten beim Umgang mit Big-Data-Ekosystemen.



