Hadoop FS Shell rm

HadoopHadoopBeginner
Practicar Ahora

💡 Este tutorial está traducido por IA desde la versión en inglés. Para ver la versión original, puedes hacer clic aquí

Introducción

Bienvenido al laboratorio de tecnología futurista. Usted es el supervisor del laboratorio que supervisa una sesión práctica emocionante sobre la habilidad de HDFS de Hadoop FS Shell rm. En este laboratorio, los participantes aprenderán a utilizar efectivamente el Shell del Sistema de Archivos de Hadoop para eliminar archivos. El objetivo principal es familiarizar a los usuarios con el comando hadoop fs -rm y sus funcionalidades.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHDFSGroup -.-> hadoop/fs_ls("FS Shell ls") hadoop/HadoopHDFSGroup -.-> hadoop/fs_mkdir("FS Shell mkdir") hadoop/HadoopHDFSGroup -.-> hadoop/fs_rm("FS Shell rm") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_ls -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_mkdir -.-> lab-271876{{"Hadoop FS Shell rm"}} hadoop/fs_rm -.-> lab-271876{{"Hadoop FS Shell rm"}} end

Eliminando un archivo

En este paso, aprenderá a eliminar un archivo específico utilizando el Shell del Sistema de Archivos de Hadoop.

  1. Abra la terminal y cambie al usuario hadoop ejecutando:

    su - hadoop
  2. Cree un archivo de prueba en el HDFS:

    hdfs dfs -touchz /test_file.txt
  3. Elimine el archivo de prueba utilizando el comando hadoop fs -rm:

    hadoop fs -rm /test_file.txt

El comando hadoop fs -rm /test_file.txt se utiliza para eliminar un archivo llamado "test_file.txt" del HDFS. Aquí está una descripción detallada de cada componente del comando:

  • hadoop fs: Esta es la herramienta de interfaz de línea de comandos (CLI) utilizada para interactuar con el HDFS. Le permite realizar diversas operaciones de sistema de archivos, como copiar archivos, listar directorios y eliminar archivos.

  • -rm: Esta es la opción utilizada para indicar que desea eliminar (borrar) un archivo o directorio del HDFS.

  • /test_file.txt: Esta es la ruta al archivo que desea eliminar. En este caso, el archivo se encuentra en el directorio raíz ("/") del HDFS y su nombre es "test_file.txt".

Eliminando un directorio

En este paso, practicarás eliminar un directorio utilizando el Shell del Sistema de Archivos de Hadoop.

  1. Crea un directorio en el HDFS:

    hadoop fs -mkdir /test_directory
  2. Elimina el directorio utilizando el comando hadoop fs -rm con la bandera -r para la eliminación recursiva:

    hadoop fs -rm -r /test_directory

El comando hadoop fs -rm -r /test_directory se utiliza para eliminar un directorio y su contenido de forma recursiva del Sistema de Archivos Distribuido de Hadoop (HDFS). Aquí está una descripción detallada de cada componente del comando:

  • hadoop fs: Esta es la herramienta de interfaz de línea de comandos (CLI) utilizada para interactuar con el HDFS. Le permite realizar diversas operaciones de sistema de archivos, como copiar archivos, listar directorios y eliminar archivos.

  • -rm: Esta es la opción utilizada para indicar que desea eliminar (borrar) un archivo o directorio del HDFS.

  • -r: Esta es una opción adicional que especifica que la eliminación debe realizarse de forma recursiva. Cuando se utiliza con la opción "-rm", permite eliminar un directorio y todo su contenido.

  • /test_directory: Esta es la ruta al directorio que desea eliminar. En este caso, el directorio se encuentra en el directorio raíz ("/") del HDFS y su nombre es "test_directory".

Resumen

En este laboratorio, nos centramos en el aspecto práctico del uso del comando rm del Shell del Sistema de Archivos de Hadoop para administrar archivos y directorios en el HDFS.

Al proporcionar una guía paso a paso con ejercicios prácticos y verificadores de validación, los participantes pueden aprender efectivamente cómo eliminar archivos y directorios en un entorno de Hadoop.

Este laboratorio tiene como objetivo mejorar la comprensión de los usuarios sobre las capacidades de manipulación del sistema de archivos de Hadoop y capacitarles para navegar con confianza en las tareas de administración de archivos en un ecosistema de Big Data.