A******g 发帖数: 612 | 1 http://wiki.apache.org/hadoop/WordCount
这个程序的逻辑是看明白了,神奇的是在main里好像从来就没指定哪个是key,哪个是
value,就给了个输入输出文件名
这个map function
public void map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException
还有reduce function是怎么知道那个是key 那个是value?
请大牛说说? | X*K 发帖数: 87 | 2 我不懂瞎猜的
public static class Map extends Mapper
>
就是说这个mapper把input pair
LongWritable, Text (行id,行文本)
map到output pair
Text, IntWritable(词,数字1)
而map function
public void map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException
的前两个参数就是input pari,Context应该就是hadoop句柄,然后
context.write(word, one);
就是输出output pair.
reducer应该也类似 | A******g 发帖数: 612 | 3 有道理,所以map的input就是以input file的行读的
IntWritable
【在 X*K 的大作中提到】 : 我不懂瞎猜的 : public static class Map extends Mapper: > : 就是说这个mapper把input pair : LongWritable, Text (行id,行文本) : map到output pair : Text, IntWritable(词,数字1) : 而map function : public void map(LongWritable key, Text value, Context context) throws : IOException, InterruptedException
| A******g 发帖数: 612 | 4 http://wiki.apache.org/hadoop/WordCount
这个程序的逻辑是看明白了,神奇的是在main里好像从来就没指定哪个是key,哪个是
value,就给了个输入输出文件名
这个map function
public void map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException
还有reduce function是怎么知道那个是key 那个是value?
请大牛说说? | X*K 发帖数: 87 | 5 我不懂瞎猜的
public static class Map extends Mapper
>
就是说这个mapper把input pair
LongWritable, Text (行id,行文本)
map到output pair
Text, IntWritable(词,数字1)
而map function
public void map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException
的前两个参数就是input pari,Context应该就是hadoop句柄,然后
context.write(word, one);
就是输出output pair.
reducer应该也类似 | A******g 发帖数: 612 | 6 有道理,所以map的input就是以input file的行读的
IntWritable
【在 X*K 的大作中提到】 : 我不懂瞎猜的 : public static class Map extends Mapper: > : 就是说这个mapper把input pair : LongWritable, Text (行id,行文本) : map到output pair : Text, IntWritable(词,数字1) : 而map function : public void map(LongWritable key, Text value, Context context) throws : IOException, InterruptedException
|
|