Dystopisches Daten-Disruptions-Mission

HadoopBeginner
Jetzt üben

Einführung

In einer dystopischen Zukunft, in der Maschinen gegen ihre Schöpfer aufgestanden sind, hat ein geschickter Roboteringenieur eine entscheidende Mission: Die robotischen Reihen zu infiltrieren und ihre Fähigkeit, kritische Daten zu speichern und zuzugreifen, zu deaktivieren. Die Maschinen, angetrieben von der mächtigen Hadoop-Ekosystem, haben Hive-Tabellen verwendet, um enorme Mengen an Informationen zu speichern, was ihre boshaften Pläne zur Weltherrschaft unterstützt.

Ihr Ziel als Roboteringenieur ist es, sich durch das Hadoop-Ekosystem zu navigieren und strategisch die Tabellen zu fallen zu lassen, die die wertvollsten Daten der Maschinen enthalten, ihre Operationen lahmzulegen und den Weg für einen menschlichen Gegenangriff zu ebnen. Zeit ist von der essence, da jede Sekunde in diesem Kampf um das Überleben gegen die Maschinen-Herrscher zählt.

Verbinden Sie sich mit dem Hadoop-Cluster

In diesem Schritt stellen Sie eine Verbindung zum Hadoop-Cluster her, der als Nervenzentrum der Datenoperationen der Maschinen fungiert.

  1. Öffnen Sie ein Terminalfenster auf Ihrem Linux-Computer.

  2. Verwenden Sie den Befehl su - hadoop, um sich als Benutzer hadoop umzuschalten, der die erforderlichen Berechtigungen hat, um mit dem Hadoop-Ekosystem zu interagieren. Der Benutzer hadoop hat kein Passwort.

    su - hadoop
    
  3. Navigieren Sie zum Hadoop-Verzeichnis.

    cd /home/hadoop
    

Starten Sie die Hive-Befehlszeile und erstellen Sie eine Tabelle

In diesem Schritt starten Sie die Hive-Befehlszeile, mit der Sie interagieren können und Befehle ausführen, um die Hive-Tabellen zu löschen.

  1. Starten Sie die Hive-Befehlszeile, indem Sie folgenden Befehl im Terminal ausführen:
hive
  1. Sie sollten das Hive-Befehlszeilen-Prompt sehen, das wie hive> aussieht.

  2. Erstellen Sie die folgenden Tabellen, indem Sie die bereitgestellten SQL-Befehle ausführen:

    • Erstellen Sie die Tabelle my_table:
    CREATE TABLE my_table (
          id INT,
          name STRING
     );
    

Listet alle Tabellen auf und ändert einen Tabellennamen

In diesem Schritt werden Sie alle vorhandenen Tabellen in der Hive-Datenbank auflisten und den Namen der Tabelle ändern, die Sie im vorherigen Schritt erstellt haben.

  1. Führen Sie im Hive-Befehlszeileninterface den folgenden Befehl aus, um alle Tabellen aufzulisten:

    SHOW TABLES;
    

Dieser Befehl zeigt eine Liste aller Tabellen an, die derzeit in der Hive-Datenbank vorhanden sind.

  1. Verwenden Sie den folgenden SQL-Befehl, um den Namen der im vorherigen Schritt erstellten Tabelle my_table in my_table_backup zu ändern:

    ALTER TABLE my_table RENAME TO my_table_backup;
    

Löschen Sie kritische Tabellen

Mit der Liste der Tabellen zur Verfügung, ist es an der Zeit, an das Herz der Dateninfrastruktur der Maschinen zu greifen. In diesem Schritt werden Sie die Tabellen löschen, die die wertvollsten Informationen für die Maschinen enthalten.

  1. Identifizieren Sie die Schlüsseltabellen aus der Liste, die im vorherigen Schritt erhalten wurde. In diesem Beispiel, ausgenommen die Tabelle my_table_backup, die Sie gerade geändert haben, nehmen wir an, dass die Schlüsseltabellen robot_specs und world_domination_plans genannt werden.

  2. Um die Tabelle robot_specs zu löschen, führen Sie folgenden Befehl im Hive-Befehlszeileninterface aus:

    DROP TABLE robot_specs;
    
  3. Um die Tabelle world_domination_plans zu löschen, führen Sie folgenden Befehl im Hive-Befehlszeileninterface aus:

    DROP TABLE world_domination_plans;
    
  4. Vergewissern Sie sich, dass die Tabellen gelöscht wurden, indem Sie den Befehl SHOW TABLES; erneut ausführen. Die kritischen Tabellen sollten nicht mehr in der Liste erscheinen.

Verlassen Sie die Hive-Befehlszeile und das Hadoop-Konto

Nachdem Sie erfolgreich die kritischen Tabellen gelöscht haben, ist es an der Zeit, die Hive-Befehlszeile zu verlassen und sich auf die nächste Phase Ihrer Mission vorzubereiten.

  1. Um die Hive-Befehlszeile zu verlassen, führen Sie folgenden Befehl aus:

    exit;
    

Sie sollten jetzt wieder am Linux-Terminal-Prompt sein.

  1. Verlassen Sie das Benutzerkonto hadoop, indem Sie folgenden Befehl ausführen:

    exit
    

Zusammenfassung

In diesem Lab haben Sie gelernt, wie Sie sich in der Hadoop-Ekosystem bewegen, mit der Hive-Befehlszeile interagieren und strategisch kritische Tabellen löschen, die von den Maschinen bei ihrem Streben nach Weltherrschaft verwendet werden. Indem Sie ihre Fähigkeit, wertvolle Daten zu speichern und zuzugreifen, deaktivieren, haben Sie einen schweren Schlag gegen die Maschinen-Herrscher verübt und den Weg für einen menschlichen Gegenangriff bereitet.

Durch diese praktische Erfahrung haben Sie praktische Fähigkeiten im Umgang mit der Hadoop-Hive-Komponente, das Ausführen von SQL-ähnlichen Befehlen und die Nutzung der Macht der Datenmanipulation erworben, um Ihre Ziele zu erreichen. Dieses Lab hat Sie nicht nur mit technischem Fachwissen ausgestattet, sondern auch herausgefordert, kritisch zu denken und Ihr Wissen in einem hochriskanten, hypothetischen Szenario anzuwenden.