宇宙ハイブ統合の旅

HadoopHadoopBeginner
今すぐ練習

💡 このチュートリアルは英語版からAIによって翻訳されています。原文を確認するには、 ここをクリックしてください

はじめに

遥かな銀河に、宇宙の謎を研究するエイリアンの研究拠点が存在します。首席研究者の一人であるゼノバイオロジストのザラは、様々な天体から収集された膨大なデータの分析を担当しています。しかし、データの量と複雑さが極めて大きいため、従来の方法で処理して価値ある洞察を抽出することは困難でした。

ザラの目標は、強力なデータウェアハウスツールであるHadoop Hiveの力を活用して、天文学データを効率的に保存、処理、分析することです。基地のHadoopクラスタにHiveをセットアップすることで、彼女は天体の起源と進化に光を当てることができる隠されたパターンや関係を明らかにし、最終的に我々の宇宙理解を進歩させることを期待しています。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("Hadoop")) -.-> hadoop/HadoopHDFSGroup(["Hadoop HDFS"]) hadoop(("Hadoop")) -.-> hadoop/HadoopHiveGroup(["Hadoop Hive"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("HDFS Setup") hadoop/HadoopHiveGroup -.-> hadoop/hive_setup("Hive Setup") hadoop/HadoopHiveGroup -.-> hadoop/hive_shell("Hive Shell") hadoop/HadoopHiveGroup -.-> hadoop/manage_db("Managing Database") hadoop/HadoopHiveGroup -.-> hadoop/create_tables("Creating Tables") hadoop/HadoopHiveGroup -.-> hadoop/load_insert_data("Loading and Inserting Data") hadoop/HadoopHiveGroup -.-> hadoop/basic_hiveql("Basic HiveQL Queries") hadoop/HadoopHiveGroup -.-> hadoop/where("where Usage") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/hive_setup -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/hive_shell -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/manage_db -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/create_tables -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/load_insert_data -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/basic_hiveql -.-> lab-288977{{"宇宙ハイブ統合の旅"}} hadoop/where -.-> lab-288977{{"宇宙ハイブ統合の旅"}} end

Hive のインストール

このステップでは、Hadoop クラスタに Apache Hive をインストールします。これにより、SQL のようなクエリを使って天文学データを処理および分析できるようになります。

まず、ターミナルで次のコマンドを実行して hadoop ユーザーに切り替えます。

su - hadoop

次に、公式サイトから Apache Hive の最新の安定版をダウンロードします。

wget https://downloads.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

ダウンロードしたアーカイブを展開します。

tar -xzf apache-hive-3.1.3-bin.tar.gz

次に、~/.bashrc ファイルに次の行を追加することで HIVE_HOME 環境変数を設定します。

echo 'export HIVE_HOME=/home/hadoop/apache-hive-3.1.3-bin' >> ~/.bashrc
export HIVE_HOME=/home/hadoop/apache-hive-3.1.3-bin

次に、$HIVE_HOME/conf ディレクトリに次の内容の hive-site.xml ファイルを作成して、Hive を Hadoop クラスタと連携させるように構成します。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:derby:;databaseName=/home/hadoop/metastore_db;create=true</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>org.apache.derby.jdbc.EmbeddedDriver</value>
  </property>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
  </property>
</configuration>

この構成ファイルは、Hive テーブルとパーティションのメタデータを格納する Hive メタストアをセットアップします。

最後に、次のコマンドでメタベースを初期化します。

$HIVE_HOME/bin/schematool -dbType derby -initSchema

Hive テーブルの作成

このステップでは、様々な天体から収集された天文学データを格納するための Hive テーブルを作成します。

  1. 次のコマンドを実行して Hive シェルを起動します。
$HIVE_HOME/bin/hive
  1. astronomy という新しいデータベースを作成します。
CREATE DATABASE astronomy;
  1. astronomy データベースを使用します。
USE astronomy;
  1. 次のスキーマを持つ celestial_bodies という新しいテーブルを作成します。
CREATE TABLE celestial_bodies (
  id INT,
  name STRING,
  type STRING,
  distance DOUBLE,
  mass DOUBLE,
  radius DOUBLE
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
STORED AS TEXTFILE;

このテーブルは、天体の ID、名前、タイプ(たとえば、恒星、惑星、小惑星)、地球からの距離、質量、半径など、様々な天体に関する情報を格納します。

  1. ローカルファイルから celestial_bodies テーブルにサンプルデータを読み込みます。
LOAD DATA LOCAL INPATH '/home/hadoop/celestial_data.csv' OVERWRITE INTO TABLE celestial_bodies;

ヒント: /home/hadoop/ のパスには既に celestial_data.csv というシミュレーションが存在します

  1. Hive シェルを終了します。
EXIT;

Hive テーブルの照会

このステップでは、天文学データを分析するために、celestial_bodies テーブルに対して SQL のようなクエリを実行します。

  1. Hive シェルが既に実行されていない場合は起動します。
$HIVE_HOME/bin/hive
  1. astronomy データベースを使用します。
USE astronomy;
  1. テーブル内の天体の数を取得します。
SELECT COUNT(*) FROM celestial_bodies;
  1. 質量が 1.0 より大きい天体を検索します。
SELECT name, type, mass FROM celestial_bodies WHERE mass > 1.0;
  1. 惑星の地球からの平均距離を取得します。
SELECT AVG(distance) FROM celestial_bodies WHERE type = 'Planet';
  1. Hive シェルを終了します。
EXIT;

分析要件に基づいて、さらに多くのクエリを試してみても構いません。

まとめ

この実験では、Hadoop クラスタに Apache Hive をセットアップし、天文学データを保存および分析するために使用するプロセスを検討しました。Hive のインストール方法、Hive データベースとテーブルの作成方法、データのテーブルへの読み込み方法、およびデータから価値ある洞察を抽出するための SQL のようなクエリの実行方法を学びました。

Hive の力を活用することで、ゼノバイオロジストのザラは、エイリアンの研究拠点が収集した膨大な天体データを効率的に処理および分析することができます。このデータに対して複雑なクエリと集約を実行する能力により、彼女は隠されたパターンや関係を明らかにすることができ、天体の起源と進化に関する画期的な発見につながる可能性があります。

この実験は、Hive のセットアップとデータ分析に関する実践的な経験を提供するだけでなく、大規模なデータ処理タスクを処理する際の Hadoop エコシステムの多様性と拡張性を強調しています。私たちが宇宙の謎を探求し続けるにつれて、Hive のようなツールは、膨大な天体データの中に隠された秘密を明らかにする上で重要な役割を果たします。