Vérification de l'état des objets HDFS
Surveiller et comprendre l'état des objets HDFS, tels que les fichiers et les répertoires, est essentiel pour une gestion efficace des données et la résolution de problèmes. Le HDFS propose diverses commandes et outils pour aider les utilisateurs à vérifier l'état des objets HDFS.
État d'un fichier HDFS
Pour vérifier l'état d'un fichier HDFS, vous pouvez utiliser la commande hdfs dfs -stat
. Cette commande affiche des informations sur le fichier spécifié, notamment sa taille, le facteur de réplication et l'heure de modification.
Exemple :
hdfs dfs -stat %n,%b,%r,%y /path/to/file.txt
Cela affichera les informations suivantes :
file.txt,123456,3,2023-04-25 12:34:56
État d'un répertoire HDFS
Pour vérifier l'état d'un répertoire HDFS, vous pouvez utiliser la commande hdfs dfs -ls
. Cette commande répertorie le contenu du répertoire spécifié, y compris les fichiers et les sous-répertoires.
Exemple :
hdfs dfs -ls /path/to/directory
Cela affichera un format semblable à un tableau avec les informations suivantes pour chaque fichier et répertoire :
Permission |
Replication |
Length |
Owner |
Group |
Modification Time |
File/Directory Name |
-rw-r--r-- |
3 |
123456 |
user |
group |
2023-04-25 12:34 |
file.txt |
drwxr-xr-x |
- |
- |
user |
group |
2023-04-20 10:00 |
subdirectory |
État du système de fichiers HDFS
Pour obtenir une vue d'ensemble de l'état du système de fichiers HDFS, vous pouvez utiliser la commande hdfs dfsadmin -report
. Cette commande fournit des informations détaillées sur le cluster HDFS, notamment le nombre de nœuds actifs et inactifs, le stockage total et utilisé, ainsi que les statistiques du système de fichiers.
Exemple :
hdfs dfsadmin -report
La sortie inclura les informations suivantes :
Live datanodes (3):
...
Dead datanodes (0):
...
Filesystem status:
Total files: 10000
Total size: 1.2 TB
Total blocks (validated): 120000
Missing blocks: 0
Corrupt blocks: 0
En utilisant ces commandes HDFS, vous pouvez surveiller et gérer efficacement l'état de vos objets HDFS, garantissant ainsi la santé et la fiabilité de votre infrastructure de big data.