更新時間:2020年12月01日18時03分 來源:傳智教育 瀏覽次數(shù):
MapReduce程序的運行模式主要有兩種:
(1)本地運行模式:在當(dāng)前的開發(fā)環(huán)境模擬MapReduce執(zhí)行環(huán)境,處理的數(shù)據(jù)及輸出結(jié)果在本地操作系統(tǒng)。
(2)集群運行模式:把MapReduce程序打成一個Jar包,提交至Yarn集群上去運行任務(wù)。由于Yarn集群負責(zé)資源管理和任務(wù)調(diào)度,程序會被框架分發(fā)到集群中的節(jié)點上并發(fā)的執(zhí)行,因此處理的數(shù)據(jù)和輸出結(jié)果都在HDFS文件系統(tǒng)中。
集群運行模式只需要將MapReduce程序打成Jar包上傳至集群即可,比較簡單,這里不再贅述。下面我們以詞頻統(tǒng)計為例,講解如何將MapReduce程序設(shè)置為在本地運行模式。
在MapReduce程序中,除了要實現(xiàn)Mapper(代碼見WordCountMapper.java文件)和Reduce(代碼見WordCountReducer.java文件)外,我們還需要一個Driver類提交程序,具體代碼,如文件所示。
文件 WordCountDriver.java
1 import org.apache.hadoop.conf.Configuration; 2 import org.apache.hadoop.fs.Path; 3 import org.apache.hadoop.io.IntWritable; 4 import org.apache.hadoop.io.Text; 5 import org.apache.hadoop.mapreduce.Job; 6 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; 7 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; 8 public class WordCountDriver { 9 public static void main(String[] args) throws Exception { 10 //通過Job來封裝本次MR的相關(guān)信息 11 Configuration conf = new Configuration(); 12 // 配置MR運行模式,使用local表示本地模式,可以省略 13 **conf.set("mapreduce.framework.name", "local")**; 14 Job wcjob = Job.getInstance(conf); 15 // 指定MR Job jar包運行主類 16 wcjob.setJarByClass(WordCountDriver.class); 17 //指定本次MR所有的Mapper Reducer類 18 wcjob.setMapperClass(WordCountMapper.class); 19 wcjob.setReducerClass(WordCountReducer.class); 20 // 設(shè)置我們的業(yè)務(wù)邏輯 Mapper類的輸出 key和 value的數(shù)據(jù)類型 21 wcjob.setMapOutputKeyClass(Text.class); 22 wcjob.setMapOutputValueClass(IntWritable.class); 23 // 設(shè)置我們的業(yè)務(wù)邏輯 Reducer類的輸出 key和 value的數(shù)據(jù)類型 24 wcjob.setOutputKeyClass(Text.class); 25 wcjob.setOutputValueClass(IntWritable.class); 26 // 使用本地模式指定要處理的數(shù)據(jù)所在的位置 27 **FileInputFormat.setInputPaths(wcjob,"D:/mr/input")**; 28 // 使用本地模式指定處理完成之后的結(jié)果所保存的位置 29 **FileOutputFormat.setOutputPath(wcjob,new Path("D:/mr/output"))**; 30 // 提交程序并且監(jiān)控打印程序執(zhí)行情況 31 boolean res = wcjob.waitForCompletion(true); 32 System.exit(res ? 0 : 1); 33 **}** 34 **}
在文件中,往Configuration對象中添加“mapreduce.framework.name=local”參數(shù),表示程序為本地運行模式,實際上在hadoop-mapreduce-client-core-2.7.4.jar包下面的mapred-default.xml配置文件中,默認指定使用本地運行模式,因此mapreduce.framework.name=local配置也可以省略;同時,還需要指定本地操作系統(tǒng)源文件目錄路徑和結(jié)果輸出的路徑。當(dāng)程序執(zhí)行完畢后,就可以在本地系統(tǒng)的指定輸出文件目錄查看執(zhí)行結(jié)果了。輸出的結(jié)果,如圖1所示。
圖1 詞頻案例的輸出結(jié)果
小提示:
在使用本地運行模式執(zhí)行wordcount案例時,即使配置了windows平臺的hadoop,運行時仍報如下錯誤:
解決辦法:根據(jù)錯誤提示和網(wǎng)上資料的提示,需要修改org.apache.hadoop.io.nativeio包下的NativeIO類的access()方法,將返回值直接設(shè)為true,即:
public static boolean access(String path, AccessRight desiredAccess) throws IOException { // return access0(path, desiredAccess.accessRight()); **return true;**