Misión de Disrupción de Datos Disteópica

HadoopBeginner
Practicar Ahora

Introducción

En un futuro distópico donde las máquinas se han rebelado contra sus creadores, un hábil ingeniero de robots se encarga de una misión crucial: infiltrarse en las filas de los robots y deshabilitar su capacidad para almacenar y acceder a datos críticos. Las máquinas, alimentadas por el poderoso ecosistema Hadoop, han estado utilizando tablas de Hive para almacenar grandes cantidades de información, alimentando sus siniestros planes de dominación mundial.

Su objetivo como ingeniero de robots es navegar por el ecosistema Hadoop y estratégicamente eliminar las tablas que contienen los datos más valiosos de las máquinas, debilitando sus operaciones y abriendo el camino para un contraataque humano. El tiempo es esencial, ya que cada segundo cuenta en esta batalla por la supervivencia contra los señores de las máquinas.

Conéctese al clúster de Hadoop

En este paso, establecerá una conexión con el clúster de Hadoop, que es el centro nervioso de las operaciones de datos de las máquinas.

  1. Abra una ventana de terminal en su máquina Linux.

  2. Utilice el comando su - hadoop para cambiar al usuario hadoop, que tiene los permisos necesarios para interactuar con el ecosistema de Hadoop. El usuario hadoop no tiene contraseña.

    su - hadoop
    
  3. Navegue hasta el directorio de Hadoop.

    cd /home/hadoop
    

Inicie la CLI de Hive y cree una tabla

En este paso, iniciará la CLI de Hive, que le permitirá interactuar con las tablas de Hive y ejecutar comandos para eliminarlas.

  1. Inicie la CLI de Hive ejecutando el siguiente comando en la terminal:
hive
  1. Debería ver el indicador de la CLI de Hive, que se ve como hive>.

  2. Cree las siguientes tablas ejecutando los comandos SQL proporcionados:

    • Cree la tabla my_table:
    CREATE TABLE my_table (
          id INT,
          name STRING
     );
    

Liste todas las tablas y modifique el nombre de una tabla

En este paso, listará todas las tablas existentes en la base de datos de Hive y cambiará el nombre de la tabla que creó en el paso anterior.

  1. En la CLI de Hive, ejecute el siguiente comando para listar todas las tablas:

    SHOW TABLES;
    

Este comando mostrará una lista de todas las tablas que actualmente se encuentran en la base de datos de Hive.

  1. Utilice el siguiente comando SQL para cambiar el nombre de la tabla my_table que creó en el paso anterior a my_table_backup:

    ALTER TABLE my_table RENAME TO my_table_backup;
    

Elimine tablas críticas

Con la lista de tablas a tu disposición, es hora de atacar el corazón de la infraestructura de datos de las máquinas. En este paso, eliminarás las tablas que contienen la información más valiosa para las máquinas.

  1. Identifica las tablas clave de la lista obtenida en el paso anterior. En este ejemplo, excluyendo la tabla my_table_backup que acabas de modificar, supongamos que las tablas clave se llaman robot_specs y world_domination_plans.

  2. Para eliminar la tabla robot_specs, ejecuta el siguiente comando en la CLI de Hive:

    DROP TABLE robot_specs;
    
  3. Para eliminar la tabla world_domination_plans, ejecuta el siguiente comando en la CLI de Hive:

    DROP TABLE world_domination_plans;
    
  4. Verifica que las tablas hayan sido eliminadas ejecutando nuevamente el comando SHOW TABLES;. Las tablas críticas ya no deberían aparecer en la lista.

Salir de la CLI de Hive y de la cuenta de Hadoop

Después de eliminar con éxito las tablas críticas, es hora de salir de la CLI de Hive y prepararse para la siguiente fase de tu misión.

  1. Para salir de la CLI de Hive, ejecuta el siguiente comando:

    exit;
    

Ahora deberías estar de vuelta en el indicador de la terminal de Linux.

  1. Salir de la cuenta de usuario hadoop ejecutando el siguiente comando:

    exit
    

Resumen

En este laboratorio, aprendiste cómo navegar por el ecosistema de Hadoop, interactuar con la CLI de Hive y, estratégicamente, eliminar las tablas críticas utilizadas por las máquinas en su búsqueda del dominio mundial. Al deshabilitar su capacidad para almacenar y acceder a datos valiosos, has infligido un golpe significativo contra los señores máquinas, abriendo el camino para un contraataque humano.

A través de esta experiencia práctica, adquiriste habilidades prácticas en el trabajo con el componente Hadoop Hive, la ejecución de comandos similares a SQL y el aprovechamiento del poder de la manipulación de datos para alcanzar tus objetivos. Este laboratorio no solo te equipó con conocimientos técnicos, sino que también te desafió a pensar críticamente y aplicar tus conocimientos en un escenario hipotético de alto riesgo.