Xara 的数据魔法

HadoopHadoopBeginner
立即练习

💡 本教程由 AI 辅助翻译自英文原版。如需查看原文,您可以 切换至英文原版

引言

在神奇的沙漠王国 Xara,英明仁慈的国王 Amir 希望利用散落在王国各地的庞大数据资源的力量。他召集了最熟练的数据巫师,设计一个能够收集、处理和分析王国数据的系统,从而解锁洞察力,帮助决策并为所有人带来繁荣。

目标是创建一个强大且可扩展的数据平台,该平台能够与 Hadoop 分布式文件系统(HDFS)集成,并利用 MapReduce 的强大功能进行高效的数据处理。这个平台将使王国能够分析来自各种来源的数据,例如贸易记录、农业产量和人口普查信息,从而赋予国王 Amir 做出明智决策的能力,以改善他的臣民的生活。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL hadoop(("`Hadoop`")) -.-> hadoop/HadoopHDFSGroup(["`Hadoop HDFS`"]) hadoop(("`Hadoop`")) -.-> hadoop/HadoopMapReduceGroup(["`Hadoop MapReduce`"]) hadoop(("`Hadoop`")) -.-> hadoop/HadoopYARNGroup(["`Hadoop YARN`"]) hadoop(("`Hadoop`")) -.-> hadoop/HadoopHiveGroup(["`Hadoop Hive`"]) hadoop/HadoopHDFSGroup -.-> hadoop/hdfs_setup("`HDFS Setup`") hadoop/HadoopHDFSGroup -.-> hadoop/fs_ls("`FS Shell ls`") hadoop/HadoopHDFSGroup -.-> hadoop/fs_mkdir("`FS Shell mkdir`") hadoop/HadoopHDFSGroup -.-> hadoop/fs_put("`FS Shell copyToLocal/put`") hadoop/HadoopMapReduceGroup -.-> hadoop/mappers_reducers("`Coding Mappers and Reducers`") hadoop/HadoopYARNGroup -.-> hadoop/yarn_jar("`Yarn Commands jar`") hadoop/HadoopHiveGroup -.-> hadoop/process("`Process Control Function`") subgraph Lab Skills hadoop/hdfs_setup -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/fs_ls -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/fs_mkdir -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/fs_put -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/mappers_reducers -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/yarn_jar -.-> lab-288981{{"`Xara 的数据魔法`"}} hadoop/process -.-> lab-288981{{"`Xara 的数据魔法`"}} end

探索 Hadoop 生态系统

在这一步中,你将熟悉 Hadoop 生态系统及其核心组件:HDFS 和 MapReduce。

Hadoop 是一个开源框架,用于在商品硬件集群上分布式存储和处理大规模数据集。它由两个主要组件组成:

  1. Hadoop 分布式文件系统(HDFS):一种分布式文件系统,旨在将大文件存储在多个机器上,提供容错性和高吞吐量的数据访问。

  2. MapReduce:一种编程模型和软件框架,用于编写在机器集群上并行处理大量数据的应用程序。

要探索 Hadoop 生态系统,你可以在终端中使用以下命令:

首先,确保你以 hadoop 用户身份登录,在终端中运行以下命令:

su - hadoop

列出 HDFS 中的目录和文件:

hdfs dfs -ls /

在 HDFS 中创建一个新目录:

hdfs dfs -mkdir -p /home/hadoop/input

将本地文件复制到 HDFS:

hdfs dfs -put /home/hadoop/local/file.txt /home/hadoop/input

这些命令展示了如何与 HDFS 交互,包括列出其内容、创建目录以及从本地文件系统复制文件。

hdfs dfs 命令用于与 Hadoop 分布式文件系统(HDFS)交互。-ls 选项列出 HDFS 中目录的内容,而 -mkdir 用于创建新目录。-put 选项将本地文件复制到 HDFS。

运行 MapReduce 任务

在这一步中,你将学习如何在存储在 HDFS 上的数据上运行 MapReduce 任务,利用并行处理的能力高效分析大规模数据集。

MapReduce 是一种编程模型,用于在机器集群上并行处理大规模数据集。它包含两个主要阶段:

  1. Map(映射):输入数据被分割成较小的块,每个块由一个称为“mapper”的独立任务处理。Mapper 处理数据并生成键值对。

  2. Reduce(归约):Mapper 的输出按键排序和分组,每个组由一个称为“reducer”的独立任务处理。Reducer 将每个键关联的值合并并生成最终结果。

让我们运行一个简单的 MapReduce 任务,统计文本文件中单词的出现次数。首先,创建一个名为 WordCount.java 的 Java 文件,内容如下:

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCount {

    public static class TokenizerMapper
            extends Mapper<Object, Text, Text, IntWritable>{

        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();

        public void map(Object key, Text value, Context context
        ) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                context.write(word, one);
            }
        }
    }

    public static class IntSumReducer
            extends Reducer<Text,IntWritable,Text,IntWritable> {
        private IntWritable result = new IntWritable();

        public void reduce(Text key, Iterable<IntWritable> values,
                           Context context
        ) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable val : values) {
                sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf, "word count");
        job.setJarByClass(WordCount.class);
        job.setMapperClass(TokenizerMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        job.setReducerClass(IntSumReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        FileInputFormat.addInputPath(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

接下来,编译 Java 文件:

mkdir ~/wordcount
javac -source 8 -target 8 -classpath $(hadoop classpath) -d ~/wordcount WordCount.java
jar -cvf ~/wordcount.jar -C ~/wordcount .

最后,运行 MapReduce 任务:

hadoop jar ~/wordcount.jar WordCount /home/hadoop/input/file.txt /home/hadoop/output

WordCount 类定义了一个 MapReduce 任务,用于统计文本文件中单词的出现次数。TokenizerMapper 类将每行输入文本分词并生成 (word, 1) 键值对。IntSumReducer 类对每个单词的值(计数)进行求和,并生成最终的 (word, count) 对。

Java 文件被编译并打包成 JAR 文件,然后使用 hadoop jar 命令执行。输入文件路径 (/home/hadoop/input/file.txt) 和输出目录路径 (/home/hadoop/output) 作为参数提供。

总结

在本实验中,你踏上了一段前往神奇沙漠王国 Xara 的旅程,协助国王 Amir 利用 Hadoop 生态系统的力量来处理和分析王国的数据。你探索了 Hadoop 的核心组件,包括用于分布式存储的 HDFS 和用于并行数据处理的 MapReduce。

通过动手实践,你学习了如何与 HDFS 交互、创建目录以及上传文件。你还获得了运行 MapReduce 任务的经验,特别是单词计数应用程序,展示了 Hadoop 的并行处理能力。

通过完成本实验,你掌握了将 Hadoop 与 HDFS 和 MapReduce 集成的宝贵技能,为你应对现实世界中的大数据挑战提供了知识储备。这段经历无疑将促进你作为数据巫师的成长,使你有能力解锁洞察力并在各个领域中推动决策制定。

您可能感兴趣的其他 Hadoop 教程