Introducción
En un futuro distópico donde las máquinas se han rebelado contra sus creadores, un hábil ingeniero de robots se encarga de una misión crucial: infiltrarse en las filas de los robots y deshabilitar su capacidad para almacenar y acceder a datos críticos. Las máquinas, alimentadas por el poderoso ecosistema Hadoop, han estado utilizando tablas de Hive para almacenar grandes cantidades de información, alimentando sus siniestros planes de dominación mundial.
Su objetivo como ingeniero de robots es navegar por el ecosistema Hadoop y estratégicamente eliminar las tablas que contienen los datos más valiosos de las máquinas, debilitando sus operaciones y abriendo el camino para un contraataque humano. El tiempo es esencial, ya que cada segundo cuenta en esta batalla por la supervivencia contra los señores de las máquinas.
Conéctese al clúster de Hadoop
En este paso, establecerá una conexión con el clúster de Hadoop, que es el centro nervioso de las operaciones de datos de las máquinas.
Abra una ventana de terminal en su máquina Linux.
Utilice el comando
su - hadooppara cambiar al usuariohadoop, que tiene los permisos necesarios para interactuar con el ecosistema de Hadoop. El usuariohadoopno tiene contraseña.su - hadoopNavegue hasta el directorio de Hadoop.
cd /home/hadoop
Inicie la CLI de Hive y cree una tabla
En este paso, iniciará la CLI de Hive, que le permitirá interactuar con las tablas de Hive y ejecutar comandos para eliminarlas.
- Inicie la CLI de Hive ejecutando el siguiente comando en la terminal:
hive
Debería ver el indicador de la CLI de Hive, que se ve como
hive>.Cree las siguientes tablas ejecutando los comandos SQL proporcionados:
- Cree la tabla
my_table:
CREATE TABLE my_table ( id INT, name STRING );- Cree la tabla
Liste todas las tablas y modifique el nombre de una tabla
En este paso, listará todas las tablas existentes en la base de datos de Hive y cambiará el nombre de la tabla que creó en el paso anterior.
En la CLI de Hive, ejecute el siguiente comando para listar todas las tablas:
SHOW TABLES;
Este comando mostrará una lista de todas las tablas que actualmente se encuentran en la base de datos de Hive.
Utilice el siguiente comando SQL para cambiar el nombre de la tabla
my_tableque creó en el paso anterior amy_table_backup:ALTER TABLE my_table RENAME TO my_table_backup;
Elimine tablas críticas
Con la lista de tablas a tu disposición, es hora de atacar el corazón de la infraestructura de datos de las máquinas. En este paso, eliminarás las tablas que contienen la información más valiosa para las máquinas.
Identifica las tablas clave de la lista obtenida en el paso anterior. En este ejemplo, excluyendo la tabla
my_table_backupque acabas de modificar, supongamos que las tablas clave se llamanrobot_specsyworld_domination_plans.Para eliminar la tabla
robot_specs, ejecuta el siguiente comando en la CLI de Hive:DROP TABLE robot_specs;Para eliminar la tabla
world_domination_plans, ejecuta el siguiente comando en la CLI de Hive:DROP TABLE world_domination_plans;Verifica que las tablas hayan sido eliminadas ejecutando nuevamente el comando
SHOW TABLES;. Las tablas críticas ya no deberían aparecer en la lista.
Salir de la CLI de Hive y de la cuenta de Hadoop
Después de eliminar con éxito las tablas críticas, es hora de salir de la CLI de Hive y prepararse para la siguiente fase de tu misión.
Para salir de la CLI de Hive, ejecuta el siguiente comando:
exit;
Ahora deberías estar de vuelta en el indicador de la terminal de Linux.
Salir de la cuenta de usuario
hadoopejecutando el siguiente comando:exit
Resumen
En este laboratorio, aprendiste cómo navegar por el ecosistema de Hadoop, interactuar con la CLI de Hive y, estratégicamente, eliminar las tablas críticas utilizadas por las máquinas en su búsqueda del dominio mundial. Al deshabilitar su capacidad para almacenar y acceder a datos valiosos, has infligido un golpe significativo contra los señores máquinas, abriendo el camino para un contraataque humano.
A través de esta experiencia práctica, adquiriste habilidades prácticas en el trabajo con el componente Hadoop Hive, la ejecución de comandos similares a SQL y el aprovechamiento del poder de la manipulación de datos para alcanzar tus objetivos. Este laboratorio no solo te equipó con conocimientos técnicos, sino que también te desafió a pensar críticamente y aplicar tus conocimientos en un escenario hipotético de alto riesgo.



