Hadoop FS Shell rm

HadoopHadoopBeginner
Jetzt üben

💡 Dieser Artikel wurde von AI-Assistenten übersetzt. Um die englische Version anzuzeigen, können Sie hier klicken

Einführung

Willkommen im zukunftsträchtigen Technologielabor! Sie sind der Lableiter und überwachen eine spannende Praktikumsession zu der Hadoop-HDFS-Fähigkeit FS Shell rm. In diesem Lab werden die Teilnehmer lernen, wie sie das Hadoop-Dateisystem-Shell effektiv nutzen, um Dateien zu löschen. Das Hauptziel ist es, die Benutzer mit dem Befehl hadoop fs -rm und seinen Funktionen vertraut zu machen.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHDFSGroup -.-> hadoop/fs_ls("FS Shell ls") hadoop/HadoopHDFSGroup -.-> hadoop/fs_mkdir("FS Shell mkdir") hadoop/HadoopHDFSGroup -.-> hadoop/fs_rm("FS Shell rm") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_ls -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_mkdir -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_rm -.-> lab-271876{{"Hadoop FS Shell rm"}} end

Ein Datei löschen

In diesem Schritt lernen Sie, wie Sie eine bestimmte Datei mit der Hadoop FS Shell löschen.

  1. Öffnen Sie das Terminal und wechseln Sie als Benutzer hadoop mit folgendem Befehl:

    su - hadoop
  2. Erstellen Sie eine Testdatei im HDFS:

    hdfs dfs -touchz /test_file.txt
  3. Löschen Sie die Testdatei mit dem Befehl hadoop fs -rm:

    hadoop fs -rm /test_file.txt

Der Befehl hadoop fs -rm /test_file.txt wird verwendet, um eine Datei namens "test_file.txt" aus dem HDFS zu löschen. Hier ist eine Aufteilung jedes Teils des Befehls:

  • hadoop fs: Dies ist das Befehlszeilentool (CLI), das verwendet wird, um mit dem HDFS zu interagieren. Es ermöglicht Ihnen, verschiedene Dateisystemoperationen durchzuführen, wie das Kopieren von Dateien, das Auflisten von Verzeichnissen und das Löschen von Dateien.

  • -rm: Dies ist die Option, die angibt, dass Sie eine Datei oder ein Verzeichnis aus dem HDFS entfernen (löschen) möchten.

  • /test_file.txt: Dies ist der Pfad zur Datei, die Sie löschen möchten. In diesem Fall befindet sich die Datei im Stammverzeichnis ("/") des HDFS und ihr Name ist "test_file.txt".

Ein Verzeichnis löschen

In diesem Schritt üben Sie das Löschen eines Verzeichnisses mit der Hadoop FS Shell.

  1. Erstellen Sie ein Verzeichnis im HDFS:

    hadoop fs -mkdir /test_directory
  2. Löschen Sie das Verzeichnis mit dem Befehl hadoop fs -rm mit der -r-Option für das rekursive Löschen:

    hadoop fs -rm -r /test_directory

Der Befehl hadoop fs -rm -r /test_directory wird verwendet, um ein Verzeichnis und dessen Inhalt rekursiv aus dem Hadoop Distributed File System (HDFS) zu löschen. Hier ist eine Aufteilung jedes Teils des Befehls:

  • hadoop fs: Dies ist das Befehlszeilentool (CLI), das verwendet wird, um mit dem HDFS zu interagieren. Es ermöglicht Ihnen, verschiedene Dateisystemoperationen durchzuführen, wie das Kopieren von Dateien, das Auflisten von Verzeichnissen und das Löschen von Dateien.

  • -rm: Dies ist die Option, die angibt, dass Sie eine Datei oder ein Verzeichnis aus dem HDFS entfernen (löschen) möchten.

  • -r: Dies ist eine zusätzliche Option, die angibt, dass die Löschung rekursiv durchgeführt werden soll. Wenn sie mit der "-rm"-Option verwendet wird, ermöglicht es Ihnen, ein Verzeichnis und all seine Inhalte zu löschen.

  • /test_directory: Dies ist der Pfad zum Verzeichnis, das Sie löschen möchten. In diesem Fall befindet sich das Verzeichnis im Stammverzeichnis ("/") des HDFS und sein Name ist "test_directory".

Zusammenfassung

In diesem Lab haben wir uns auf den praktischen Aspekt des Verwenden des Hadoop FS Shell rm-Befehls konzentriert, um Dateien und Verzeichnisse im HDFS zu verwalten.

Durch die Schritt-für-Schritt-Anleitung mit Praktikumsaufgaben und Validierungs-Checkern können die Teilnehmer effektiv lernen, wie sie Dateien und Verzeichnisse in einer Hadoop-Umgebung löschen.

Dieses Lab zielt darauf ab, das Verständnis der Benutzer für die Dateisystemmanipulationsfähigkeiten von Hadoop zu verbessern und sie in der Lage zu versetzen, die Dateiverwaltungstasks in einem Big-Data-Ekosystem mit Zuversicht zu bewältigen.