Optimización del flujo de datos interestelar

HadoopHadoopBeginner
Practicar Ahora

💡 Este tutorial está traducido por IA desde la versión en inglés. Para ver la versión original, puedes hacer clic aquí

Introducción

En el año 2375, la Federación Galáctica ha establecido una red de puertos interestelares para facilitar el transporte de mercancías y recursos a través de la vasta extensión de la galaxia de la Vía Láctea. Usted es un navegante de vuelo asignado al Puerto Espacial Andrómeda, con la tarea de optimizar la importación y exportación de carga interestelar utilizando las avanzadas capacidades de procesamiento de datos del ecosistema Hadoop.

Su misión es racionalizar el flujo de datos entre el puerto espacial y la Red de Comercio Galáctico, asegurando el manejo eficiente de los manifiestos, registros de inventario e información logística. Al dominar el arte de importar y exportar datos con Hadoop, contribuirá a la operación fluida de este centro interestelar, permitiendo el intercambio ininterrumpido de mercancías y fomentando el crecimiento económico en toda la galaxia.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop(("Hadoop")) -.-> hadoop/HadoopHiveGroup(["Hadoop Hive"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHDFSGroup -.-> hadoop/fs_mkdir("FS Shell mkdir") hadoop/HadoopHiveGroup -.-> hadoop/hive_shell("Hive Shell") hadoop/HadoopHiveGroup -.-> hadoop/manage_db("Managing Database") hadoop/HadoopHiveGroup -.-> hadoop/import_export_data("Importing and Exporting Data") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-288980{{"Optimización del flujo de datos interestelar"}} hadoop/fs_mkdir -.-> lab-288980{{"Optimización del flujo de datos interestelar"}} hadoop/hive_shell -.-> lab-288980{{"Optimización del flujo de datos interestelar"}} hadoop/manage_db -.-> lab-288980{{"Optimización del flujo de datos interestelar"}} hadoop/import_export_data -.-> lab-288980{{"Optimización del flujo de datos interestelar"}} end

Importando datos de un sistema estelar remoto

En este paso, aprenderá a importar datos de un sistema estelar remoto al Hadoop Distributed File System (HDFS). Estos datos representan el manifiesto de carga de un envío entrante desde la Nebulosa de Orión.

Primero, asegúrese de estar registrado como el usuario hadoop ejecutando el siguiente comando en la terminal:

su - hadoop

Luego, vaya al directorio /home/hadoop y cree una nueva carpeta llamada galactic_imports:

cd /home/hadoop
mkdir galactic_imports

A continuación, use el comando hdfs para crear un directorio en HDFS llamado /home/hadoop/imports:

hdfs dfs -mkdir -p /home/hadoop/imports

Descargue el archivo de manifiesto de carga de la Nebulosa de Orión usando el comando wget:

wget http://localhost:8080/orion_manifest.csv -P /home/hadoop/galactic_imports/

Este comando guardará el archivo orion_manifest.csv en el directorio galactic_imports. En la práctica, puede reemplazar http://localhost:8080 con la URL real, por ejemplo, https://example.com.

Importe el manifiesto de carga a HDFS usando el comando hadoop fs:

hadoop fs -put /home/hadoop/galactic_imports/orion_manifest.csv /home/hadoop/imports/

Este comando copiará el archivo orion_manifest.csv desde el sistema de archivos local al directorio /home/hadoop/imports en HDFS.

Exportando datos a la Red de Comercio Galáctico

En este paso, aprenderá a exportar datos procesados de Hadoop a la Red de Comercio Galáctico, asegurando que la información de carga sea accesible a todos los sistemas miembros.

Primero, cree un nuevo directorio en HDFS llamado /home/hadoop/exports:

hdfs dfs -mkdir /home/hadoop/exports

Ahora, lance la shell de Hive ejecutando el siguiente comando:

hive

Ejecute una consulta de Hive para procesar el archivo orion_manifest.csv y generar un informe resumen:

CREATE TABLE orion_manifest(
  item STRING,
  quantity INT,
  origin STRING
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
STORED AS TEXTFILE;
LOAD DATA INPATH '/home/hadoop/imports/orion_manifest.csv' INTO TABLE orion_manifest;
INSERT OVERWRITE DIRECTORY '/home/hadoop/exports/orion_summary'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
SELECT origin, SUM(quantity) AS total_quantity
FROM orion_manifest
GROUP BY origin;
EXIT;

Esta consulta de Hive creará una tabla a partir del archivo orion_manifest.csv, procesará los datos y almacenará el informe resumen en el directorio /home/hadoop/exports/orion_summary en HDFS.

Exporte el informe resumen de HDFS al sistema de archivos local:

mkdir /home/hadoop/galactic_exports
hadoop fs -get /home/hadoop/exports/orion_summary/* /home/hadoop/galactic_exports/

Este comando creará un directorio galactic_exports en el directorio /home/hadoop y copiará los archivos del directorio /home/hadoop/exports/orion_summary en HDFS al directorio galactic_exports.

Finalmente, cargue el informe resumen a la Red de Comercio Galáctico usando el comando scp:

scp /home/hadoop/galactic_exports/* localhost:/home/hadoop/incoming/reports/

Este comando copiará de manera segura los archivos del directorio galactic_exports al directorio /incoming/reports/ en el servidor localhost, haciendo disponible el informe resumen a todos los sistemas miembros de la Red de Comercio Galáctico. En la práctica, puede reemplazar localhost con un servidor real, por ejemplo, trade.network.com.

Resumen

En este laboratorio, aprendió cómo importar y exportar datos en el ecosistema Hadoop, una habilidad crucial para manejar el flujo de información en la Federación Galáctica interestelar. Al dominar estas técnicas, ha contribuido a la operación eficiente del Puerto Espacial Andrómeda, facilitando el intercambio fluido de mercancías y recursos a través de la galaxia.

A través de ejercicios prácticos, importó manifiestos de carga de sistemas estelares remotos al HDFS, procesó los datos usando consultas de Hive y exportó los informes resumidos a la Red de Comercio Galáctico. Esta experiencia práctica le ha equipado con los conocimientos y habilidades necesarios para prosperar como navegante de vuelo, asegurando la integración sin problemas del puerto espacial con la compleja red de comercio interestelar.

En general, este laboratorio no solo ha impartido pericia técnica sino también ha instilado un sentido de asombro y aprecio por las maravillas de la logística interestelar. La capacidad de aprovechar el poder de Hadoop en la gestión y procesamiento de grandes cantidades de datos sin duda lo propulsará a nuevas alturas en su carrera, contribuyendo al crecimiento y prosperidad continua de la Federación Galáctica.