Wiederherstellen gelöschter Dateien aus dem Papierkorb
Wenn eine Datei in HDFS gelöscht wird, wird sie zunächst in das Papierkorbverzeichnis verschoben, wo sie für einen bestimmten Zeitraum gespeichert wird, bevor sie endgültig gelöscht wird. Dies bietet Benutzern die Möglichkeit, versehentlich gelöschte Dateien wiederherzustellen.
Finden gelöschter Dateien im Papierkorb
Um eine gelöschte Datei im Papierkorbverzeichnis zu finden, können Sie den folgenden Befehl verwenden:
hdfs dfs -ls /.Trash/Current/
Dies listet alle Dateien und Verzeichnisse auf, die derzeit im Papierkorb sind.
Wiederherstellen gelöschter Dateien
Um eine gelöschte Datei aus dem Papierkorbverzeichnis wiederherzustellen, können Sie den folgenden Befehl verwenden:
hdfs dfs -mv /.Trash/Current/path/to/file /path/to/restore
Dies verschiebt die Datei aus dem Papierkorbverzeichnis zurück an ihren ursprünglichen Speicherort.
Endgültiges Löschen und Leeren des Papierkorbs
Wenn Sie den Inhalt des Papierkorbverzeichnisses endgültig löschen möchten, können Sie den folgenden Befehl verwenden:
hdfs dfs -expunge
Dies entfernt alle Dateien aus dem Papierkorbverzeichnis, und sie können nicht mehr wiederhergestellt werden.
Konfigurieren der Aufbewahrungsdauer im Papierkorb
Die Papierkorbfunktion in HDFS kann so konfiguriert werden, dass die Aufbewahrungsdauer für gelöschte Dateien gesteuert wird. Sie können die Konfigurationsdatei core-site.xml
ändern und die folgenden Eigenschaften festlegen:
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
<property>
<name>fs.trash.checkpoint.interval</name>
<value>0</value>
</property>
Die Eigenschaft fs.trash.interval
gibt die Anzahl der Minuten an, nach der der Inhalt des Papierkorbverzeichnisses endgültig gelöscht wird. Die Eigenschaft fs.trash.checkpoint.interval
legt die Häufigkeit fest, mit der das Papierkorbverzeichnis gesichert wird.
Indem Sie die Papierkorbfunktion in HDFS verstehen und nutzen, können Sie effektiv versehentlich gelöschte Dateien wiederherstellen und die Datenintegrität in Ihrem Hadoop-Cluster aufrechterhalten.