Hadoop FS Shell stat

HadoopHadoopBeginner
Pratiquer maintenant

💡 Ce tutoriel est traduit par l'IA à partir de la version anglaise. Pour voir la version originale, vous pouvez cliquer ici

Introduction

Dans ce laboratoire, nous explorerons le point de compétence Hadoop HDFS "FS Shell stat" dans le cadre d'un scénario inspiré de la légendaire histoire d'un trésor enfoui dans une crique de naufrage. Imaginez un scénario où les trésors inconnus d'un navire englouti sont supposés être enterrés profondément dans le fond de l'océan de la Crique du Trésor. Vous incarnez le rôle d'un narrateur célèbre de cette légende de chasse au trésor, dont la tâche est de guider les explorateurs à découvrir les richesses cachées.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHDFSGroup -.-> hadoop/fs_put("FS Shell copyToLocal/put") hadoop/HadoopHDFSGroup -.-> hadoop/fs_chmod("FS Shell chmod") hadoop/HadoopHDFSGroup -.-> hadoop/fs_stat("FS Shell stat") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-271877{{"Hadoop FS Shell stat"}} hadoop/fs_put -.-> lab-271877{{"Hadoop FS Shell stat"}} hadoop/fs_chmod -.-> lab-271877{{"Hadoop FS Shell stat"}} hadoop/fs_stat -.-> lab-271877{{"Hadoop FS Shell stat"}} end

Explorer FS Shell stat

Dans cette étape, nous allons approfondir la commande hadoop fs -stat pour recueillir des informations détaillées sur un fichier spécifique dans Hadoop HDFS.

  1. Basculer sur l'utilisateur hadoop :
    su - hadoop
  2. Créer un fichier nommé treasure.txt dans le répertoire actuel :
    vim treasure.txt
  3. Le contenu de treasure.txt est :
    hello world
  4. Placer le fichier treasure.txt dans le système de fichiers Hadoop :
    hadoop fs -put treasure.txt /user/hadoop/
  5. Utiliser la commande suivante pour afficher les attributs d'un fichier nommé treasure.txt dans le système de fichiers Hadoop :
    hadoop fs -stat %g-%F-%b-%y-%Y-%o /user/hadoop/treasure.txt
    Les paramètres de la commande sont :
    %g: Nom du groupe propriétaire
    %F: Type de fichier
    %b: Longueur en octets
    %y: Horodatage de modification
    %Y: Horodatage d'accès
    %o: Taille du bloc
  6. La sortie fournira des informations telles que les autorisations de fichier, le type de fichier, l'heure de modification, l'heure d'accès et la taille du bloc. Comme ceci :
    supergroup-regular file-12-2024-03-08 12:42:00-1709901720659-134217728

Analyser les autorisations de fichier

Dans cette étape, nous allons nous concentrer sur la compréhension et l'analyse des autorisations de fichier en utilisant la commande hadoop fs -stat.

  1. Exécutez la commande suivante pour afficher les autorisations de fichier du fichier treasure.txt :
    hadoop fs -stat %F-%A /user/hadoop/treasure.txt
    Les paramètres de la commande sont :
    %F: Type de fichier
    %A: Autorisations de fichier
  2. La sortie affichera le type de fichier et les autorisations associées au fichier. Comme ceci :
    fichier régulier-rw-r--r--

Sommaire

Dans ce laboratoire, nous avons exploré la commande hadoop fs -stat dans l'environnement Hadoop HDFS pour récupérer des informations détaillées sur les fichiers. En suivant le guide étape par étape, les utilisateurs peuvent mieux comprendre comment utiliser cette commande pour l'analyse des attributs de fichiers et la vérification des autorisations dans Hadoop. Ce laboratoire vise à offrir une expérience pratique aux débutants pour se familiariser avec les opérations FS Shell stat dans Hadoop.