Récupération de fichiers supprimés depuis la Corbeille
Lorsqu'un fichier est supprimé dans le HDFS, il est d'abord déplacé dans le répertoire Corbeille, où il est stocké pendant une période de temps spécifiée avant d'être définitivement supprimé. Cela offre aux utilisateurs un moyen de récupérer les fichiers supprimés accidentellement.
Localisation des fichiers supprimés dans la Corbeille
Pour localiser un fichier supprimé dans le répertoire Corbeille, vous pouvez utiliser la commande suivante :
hdfs dfs -ls /.Trash/Current/
Cela répertoriera tous les fichiers et répertoires actuellement présents dans la Corbeille.
Restauration des fichiers supprimés
Pour restaurer un fichier supprimé depuis le répertoire Corbeille, vous pouvez utiliser la commande suivante :
hdfs dfs -mv /.Trash/Current/path/to/file /path/to/restore
Cela déplacera le fichier du répertoire Corbeille vers son emplacement d'origine.
Suppression définitive et vidage de la Corbeille
Si vous souhaitez supprimer définitivement le contenu du répertoire Corbeille, vous pouvez utiliser la commande suivante :
hdfs dfs -expunge
Cela supprimera tous les fichiers du répertoire Corbeille, et ils ne pourront plus être récupérés.
Configuration de la période de conservation de la Corbeille
La fonctionnalité de Corbeille dans le HDFS peut être configurée pour contrôler la période de conservation des fichiers supprimés. Vous pouvez modifier le fichier de configuration core-site.xml
et définir les propriétés suivantes :
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
<property>
<name>fs.trash.checkpoint.interval</name>
<value>0</value>
</property>
La propriété fs.trash.interval
spécifie le nombre de minutes après lesquelles le contenu du répertoire Corbeille sera définitivement supprimé. La propriété fs.trash.checkpoint.interval
définit la fréquence à laquelle le répertoire Corbeille est sauvegardé (checkpointed).
En comprenant et en utilisant la fonctionnalité de Corbeille dans le HDFS, vous pouvez efficacement récupérer les fichiers supprimés accidentellement et maintenir l'intégrité des données dans votre cluster Hadoop.