Prueba de la Shell de Hadoop FS

HadoopHadoopBeginner
Practicar Ahora

💡 Este tutorial está traducido por IA desde la versión en inglés. Para ver la versión original, puedes hacer clic aquí

Introducción

En este laboratorio, nos sumergiremos en un emocionante escenario ambientado en un sanatorio abandonado. Usted se convertirá en un intrépido explorador que navega por las ruinas de este lugar siniestro. Su objetivo es utilizar los comandos test de la Shell de Hadoop FS para descubrir datos ocultos dentro del Sistema de Archivos Distribuido de Hadoop (HDFS).


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHDFSGroup -.-> hadoop/fs_ls("FS Shell ls") hadoop/HadoopHDFSGroup -.-> hadoop/fs_test("FS Shell test") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-288972{{"Prueba de la Shell de Hadoop FS"}} hadoop/fs_ls -.-> lab-288972{{"Prueba de la Shell de Hadoop FS"}} hadoop/fs_test -.-> lab-288972{{"Prueba de la Shell de Hadoop FS"}} end

Explorando el Sanatorio Abandonado

En este paso, comenzará su exploración ejecutando comandos test de la Shell de Hadoop FS para localizar y validar archivos específicos dentro del HDFS.

  1. Utilice el siguiente comando para verificar si un archivo existe en el HDFS:
hadoop fs -test -e /data/secret_file.txt
  1. Explique el propósito del comando e interprete la salida.

El significado de este comando es probar si la ruta especificada existe en el Sistema de Archivos Distribuido de Hadoop (HDFS).

Especificamente, el significado de cada parte de este comando es el siguiente:

  • hadoop fs: Este es el prefijo del comando del sistema de archivos de Hadoop que se utiliza para interactuar con el Sistema de Archivos Distribuido de Hadoop.
  • -test: Esta es una opción que indica que se va a realizar una operación de prueba.
  • -e: Esta también es una opción que indica verificar si la ruta especificada existe.
  • /data/secret_file.txt: Esta es la ruta que se va a probar, es decir, /data/secret_file.txt.

Entonces, el propósito de este comando es probar si el archivo /data/secret_file.txt existe en el HDFS.

hadoop fs -test -e /data/secret_file.txt
echo $?

Ver la salida del comando anterior.

0

Descubriendo Pistas de Datos

En este paso, continuará su expedición dentro del sanatorio y empleará más comandos de prueba de la Shell de Hadoop FS para desentrañar pistas adicionales de datos almacenados en el HDFS.

  1. Valide la propiedad de lectura de un directorio usando:
hadoop fs -test -r /data/top_secret
  1. Analice los resultados y explique su significado.

El significado de este comando es probar si la ruta especificada existe y tiene permisos de lectura del propietario en el Sistema de Archivos Distribuido de Hadoop (HDFS).

Especificamente, el significado de cada parte de este comando es el siguiente:

  • hadoop fs: Este es el prefijo del comando del sistema de archivos de Hadoop utilizado para interactuar con el Sistema de Archivos Distribuido de Hadoop.
  • -test: Esta es una opción que indica que se va a realizar una operación de prueba.
  • -r: Esta también es una opción que indica verificar los permisos de lectura de la ruta especificada.
  • /data/top_secret: Esta es la ruta que se va a probar, es decir, /data/top_secret.

Por lo tanto, el propósito de este comando es probar si la ruta /data/top_secret existe en el HDFS y si el usuario actual tiene permisos de lectura del propietario para esa ruta.

hadoop fs -test -e /data/secret_file.txt
echo $?

Ver la salida del comando anterior.

0

Resumen

En este laboratorio, el ambiente macabro de un sanatorio abandonado sirve de telón de fondo para dominar los comandos test de la Shell de Hadoop FS. Siguiendo los pasos descritos, los estudiantes pueden adquirir experiencia práctica en la navegación por el HDFS y la validación de la presencia, propiedad y permisos de los archivos. A través de este enfoque inmersivo, los aprendices pueden mejorar su comprensión de las operaciones del sistema de archivos de Hadoop mientras se sumergen en un entorno de aprendizaje basado en una narrativa atractiva.