HadoopStudio中实现MapReduce应用

在学习Hadoop的过程中,你可能会遇到HadoopStudio中开发部署MapReduce应用问题,这里向大家介绍一下,希望通过本节的介绍,大家能够掌握HadoopStudio下开发部署MapReduce应用的方法。

HadoopStudio开发部署MapReduce应用

HadoopStudio是基于Hadoop框架的MapReduce应用集成开发和部署环境。HadoopStudio以NetBeans模块插件的方式使用,可在NetBeans插件中心获取。开发者可以通过HadoopStudio的可视化界面,部署分布在不同节点的计算任务,并监控MapReduce处理过程中各阶段的输入、输出以及交互过程。

针对MapReduce任务执行过程的各要素,HadoopStudio提供了HDFS、JobTracker以及Cluster节点的配置工具。使用HadoopStudio配置之前,需要预先在目标机器上部署Hadoop作业执行环境,在UbuntuLinux上的Hadoop配置过程,已有详尽教程(单节点,多节点)可供参考。

在HadoopStudio中对作业节点配置,首先需要定义负责数据存储的Filesystems节点,可选节点包含本地磁盘访问、HDFS文件系统和AmazonS3连接三种方式。HDFS节点的配置,需要指定NameNode节点的地址、访问端口和登录用户名,其中登录用户名为可选项。对于目前***的r0.20版本,Filesystems节点的端口配置由conf/hadoop-site.xml改为在conf/core-site.xml中设定。

在HadoopCluster配置部分,添加远程计算节点对应的JobTracker,指定节点的地址,并在下拉列表中选择之前添加的Filesystems节点,添加的节点则会出现在Hadoop可用节点的列表中。在主节点计算任务启动之后,包含DataNode、TaskTracker、JobTracker、NameNode、SecondaryNameNode进程。对于数据处理,集群中结点由一个NameNode和若干DataNode组成,SecondaryNameNode为NameNode的备份。计算任务中,节点由一个JobTracker和若干TaskTracker组成,JobTracker负责任务调度,TaskTracker执行并行计算任务。TaskTracker须运行在DataNode上以获取用于计算的数据。

对于已编写的计算任务,HadoopStudio提供了简化的作业部署流程。首先在HadoopJobs中添加生成好的jar包(如Hadoop自带的Hadoop-*-examples.jar示例),之后选择要执行的主类并添加依赖项,并选择执行任务的目标Cluster节点和目标Filesystems后即可启动计算任务。同时,HadoopStudio提供了实时显示的MapReduce任务工作流视图,可显示任务执行过程中的作业类型、完成情况、执行状态、起止时间、报错信息以及输出结果等内容。

Hadoop应用开发方面,HadoopStudio将Hadoop类库进行打包,可直接在项目中添加所有依赖项。编码过程中,HadoopStudio为每种作业的提供了模板,并能够在代码编辑的同时自动对模板视图进行更新。

目前HadoopStudio支持Hadoop0.18.x版本的ClientAPI和Hadoop0.20.x的Client与Server的API,并且支持不同版本Hadoop的混合使用。但HadoopStudio目前的文档比较简单,感兴趣的朋友可以在freshmeat.net的项目站点跟踪HadoopStudio的***信息。

【编辑推荐】

  1. Hadoop创建Hbase表方法指导
  2. Hbase和Hadoop操作文件性能测试
  3. Hadoop集群与Hadoop性能优化
  4. Hadoop 从Yahoo向Google的技术转折
  5. Hadoop初探

标题名称:HadoopStudio中实现MapReduce应用
文章来源:http://www.shufengxianlan.com/qtweb/news34/466084.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联