Hadoop编程——第五章:(1) MapReduce执行流程

本文深入剖析MapReduce的内部执行流程,包括InputFormat和OutputFormat组件,以及排序和分组行为。同时讲解了Java和Hadoop的序列化机制,重点介绍Hadoop的Writable接口及其在效率上的优势。最后揭示Hadoop提供的可序列化数据类型及其在项目中的应用.

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、MapReduce内部执行流程

虽然MapReduce从外表看起来就两个阶段Map和Reduce,但是内部却包含了很多默认组件和默认的行为。包括:
组件:读取数据组件InputFormat、输出数据组件0utputFormat ;
行为:排序( key的字典序排序)、分组( reduce阶段key相同的分为一组,一组调用一次reduce处理);
在这里插入图片描述

二、序列化机制

(一)概念

**序列化(Serialization)**是将结构化对象转换成字节流以便于进行网络传输或写入持久储存的过程。
**反序列化( Deserialization )**是将字节流转换为一系列结构化对象的过程,重新创建该对象。
在这里插入图片描述

(二)Java序列化机制

Java中一切都是对象。开发程序中,经常会涉及到下述场景∶
跨进程、跨网络传递对象;
将对象数据持久化存储;
这就需要有一种可以在两端传输数据的协议。
Java序列化机制就是为了解决这个问题而产生。

Java序列化机制
Java对象序列化的机制,把对象表示成一个二进制的字节数组,里面包含了对象的数据,对象的类型信息,对象内部的数据的类型信息等等。通过保存或则转移这些二进制数组达到持久化、传递的目的。
要实现序列化,需要实现java.io.Serializable接口。反序列化是和序列化相反的过程,就是把二进制数组转化为对象的过程。
在这里插入图片描述

(三)Hadoop序列化机制

Hadoop的序列化没有采用java的序列化机制,而是实现了自己的序列化机制writable。
原因在于java的序列化机制比较臃肿,重量级,是一种不断的创建对象的机制,并且会额外附带很多信息(校验、继承关系系统等)。
但在Hadoop的序列化机制中,用户可以复用对象,这样就减少了java对象的分配和回收,提高了应用效率。

Hadoop通过Writable接口实现的序列化机制,接口提供两个方法write和readFields.
write叫做序列化方法,用于把对象指定的字段写出去;
readFields叫做反序列化方法,用于从字节流中读取字段重构对象;

Hadoop没有提供对象比较功能,所以和java中的Comparable接口合并,提供一个接口WritableComparable。WritableComparable接口可用于用户自定义对象的比较规则。
在这里插入图片描述

三、 Hadoop封装的数据类型

Hadoop提供了如下内容的数据类型,这些数据类型都实现了WritableComparable接口,以便用这些类型定义的数据可以被序列化进行网络传输和文件存储,以及进行大小比较。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值