先來簡單介紹一下什麼是文件倒排索引
倒排索引是文件檢索系統中最常見的資料結構,被廣泛應用在全文搜尋引擎上。主要用來儲存某個單詞(或片語)在一個文件或者一組文件中的儲存位置的對映,即提供了一種根據內容來查詢文件的方式。
簡單點來講呢,就是根據內容找文章。
倒排索引的概念說明白了,就該說說怎麼用MapReduce實現。
測試資料奉上:
file1:MapReduce is simple
file2:MapReduce is powerful is simple
file3:Hello MapReduce bye MapReduce
輸出的結果:
Hello file3.txt:1;
MapReduce file3.txt:2;file:2.txt:1;file1.txt:1;
bye file"3.txt:1;
is file2.txt:2;file1.txt:1;
powerful file2.txt:1;
simple file2.txt:1;file1.txt:1;
設計思路
map、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、
context.write("MapReduce:file1", 1) context.write("is:file1", 1) context.write("simple:file1", 1) context.write("MapReduce :file2", 1) context.write("is:file2", 1) context.write("powerful :file2", 1) context.write("is:file2", 1)
<"MapReduce:file1", {1}> <"is:file1", {1}> <"simple:file1", {1}> <"simple:file1", {1}> <"is:file2", {1, 1}> ..........................
combine、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、
context.write("MapReduce" , "file1:1") context.write("is" , "file1:1") context.write("simple" , "file1:1") context.write("MapReduce " , "file2:1") context.write("is" , "file2:2")................................
<"MapReduce",{ "file1:1","file2:1"}> <"is",{ "file1:1","file2:2"}> <"simple",{ "file1:1"}> .......................
reduce、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、、
context.write("MapReduce","file1:1,file2:1")..................................
這個過程中的Combine是不可插拔的,也就是不可以省略的,因為它和Reduce的業務邏輯不一樣。
程式碼奉上
import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.FileSplit; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class InvertedIndex { public static class InvertedMap extends Mapper<LongWritable, Text, Text, IntWritable> { private Text kText = new Text(); private IntWritable vIntWritable = new IntWritable(1); private FileSplit split; @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] lineSplit = line.split("\t"); // 獲取文件名稱 split = (FileSplit) context.getInputSplit(); int indexOfFile = split.getPath().toString().indexOf("file"); String fileName = split.getPath().toString().substring(indexOfFile); for (int i = 0; i < lineSplit.length; i++) { kText.set(lineSplit[i] + ":" + fileName); context.write(kText, vIntWritable); } } } public static class InvertedConbine extends Reducer<Text, IntWritable, Text, Text> { private Text kText = new Text(); private Text vText = new Text(); protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { // 詞頻統計 int sum = 0; for (IntWritable v : values) { sum += v.get(); } int indexOf = key.toString().indexOf(":"); kText.set(key.toString().substring(0, indexOf)); vText.set(key.toString().substring(indexOf + 1) + ":" + sum); context.write(kText, vText); } } public static class InvertedReduce extends Reducer<Text, Text, Text, Text> { private Text vText = new Text(); protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { String filelist = new String(); for (Text v : values) { filelist += v.toString() + ";"; } vText.set(filelist); context.write(key, vText); } } public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { Configuration conf = new Configuration(); Job job = Job.getInstance(conf); job.setJarByClass(InvertedIndex.class); job.setMapperClass(InvertedMap.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(IntWritable.class); job.setCombinerClass(InvertedConbine.class); job.setReducerClass(InvertedReduce.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); FileInputFormat.setInputPaths(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true)? 0:1); } }