大家好,我是考100分的小小码 ,祝大家学习进步,加薪顺利呀。今天说一说mapreduce的原理_深入理解redis,希望您对编程的造诣更进一步.
1.MapReduce概念
1)MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,解决海量数据的计算问题.
2)MapReduce是分布式运行的,由两个阶段组成:Map和Reduce,Map阶段是一个独立的程序,有很多个节点同时运行,每个节点处理一部分数据。Reduce阶段是一个独立的程序,有很多个节点同时运行,每个节点处理一部分数据【在这先把reduce理解为一个单独的聚合程序即可】。
3)MapReduce框架都有默认实现,用户只需要覆盖map()和reduce()两个函数,即可实现分布式计算,非常简单。
4)两个函数的形参和返回值都是<key、value>,使用的时候一定要注意构造<k,v>。
2.MapReduce核心思想
(1)分布式的运算程序往往需要分成至少2个阶段。
(2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
(3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
(4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。
总结:分析WordCount数据流走向深入理解MapReduce核心思想。
3. MapReduce 中的shuffle
4.Mapreduce代码
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import java.io.IOException; public class WordCount { //分割任务 // 第一对kv,是决定数据输入的格式 // 第二队kv 是决定数据输出的格式
public static class MyMapper extends Mapper<LongWritable, Text, Text, LongWritable> { /*map阶段数据是一行一行过来的 每一行数据都需要执行代码*/ @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { LongWritable longWritable = new LongWritable(1); String s = value.toString(); context.write(new Text(s), longWritable); } } //接收Map端数据
public static class MyReducer extends Reducer<Text, LongWritable, Text, LongWritable> { /* reduce 聚合程序 每一个k都会调用一次 * 默认是一个节点 * key:每一个单词 * values:map端 当前k所对应的所有的v */ @Override protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException { //设置统计的初始值为0
long sum = 0l; for (LongWritable value : values) { sum += value.get(); } context.write(key, new LongWritable(sum)); } } /** * 是当前mapreduce程序入口 * 用来构建mapreduce程序 */
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { //创建一个job任务
Job job=Job.getInstance(); //指定job名称
job.setJobName("第一个mr程序"); //构建mr //指定当前main所在类名(识别具体的类)
job.setJarByClass(WordCount.class); //指定map端类 // 指定map输出的kv类型
job.setMapperClass(MyMapper.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(LongWritable.class); //指定reduce端类 //指定reduce端输出的kv类型
job.setReducerClass(MyReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(LongWritable.class); // 指定输入路径
Path in = new Path("/word"); FileInputFormat.addInputPath(job,in); //输出路径指定
Path out = new Path("/output"); FileSystem fs = FileSystem.get(new Configuration()); //如果文件存在
if(fs.exists(out)){ fs.delete(out,true); } //存在
FileOutputFormat.setOutputPath(job,out); //启动
job.waitForCompletion(true); System.out.println("MapReduce正在执行"); } }
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5832.html