站点图标 IDC铺

hadoop集群搭建

一、目的本文描述了如何安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群如果你希望在单机上安装Hadoop玩玩,从这里能找到相关细节二、先决条件确保在你集群中的每个节点上都安装了所有必需软件。

获取Hadoop软件包三、安装安装Hadoop集群通常要将安装软件解压到集群内的所有机器上通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker这些机器是masters

余下的机器即作为DataNode也作为TaskTracker这些机器是slaves我们用HADOOP_HOME指代安装的根路径通常,集群里的所有机器的HADOOP_HOME路径相同四、配置接下来描述了如何配置Hadoop集群。

1、配置文件对Hadoop的配置通过conf/目录下的两个重要配置文件完成:hadoop-default.xml – 只读的默认配置hadoop-site.xml- 集群特有的配置要了解更多关于这些配置文件如何影响Hadoop框架的细节,请看这里。

此外,通过设置conf/hadoop-env.sh中的变量为集群特有的值,你可以对bin/目录下的Hadoop脚本进行控制    2、集群配置要配置Hadoop集群,你需要设置Hadoop守护进程的运行环境

和Hadoop守护进程的运行参数Hadoop守护进程指NameNode/DataNode 和JobTracker/TaskTracker2.1、配置Hadoop守护进程的运行环境管理员可在conf/hadoop-env.sh脚本内对Hadoop守护进程的运行环境做特别指定。

至少,你得设定JAVA_HOME使之在每一远端节点上都被正确设置管理员可以通过配置选项HADOOP_*_OPTS来分别配置各个守护进程 下表是可以配置的选项守护进程配置选项NameNodeHADOOP_NAMENODE_OPTS。

DataNodeHADOOP_DATANODE_OPTSSecondaryNamenodeHADOOP_SECONDARYNAMENODE_OPTSJobTracker  HADOOP_JOBTRACKER_OPTS

TaskTrackerHADOOP_TASKTRACKER_OPTS例如,配置Namenode时,为了使其能够并行回收垃圾(parallelGC), 要把下面的代码加入到hadoop-env.sh :

export HADOOP_NAMENODE_OPTS=”-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}”其它可定制的常用参数还包括:HADOOP_LOG_DIR – 守护进程日志文件的存放目录。

如果不存在会被自动创建HADOOP_HEAPSIZE – 最大可用的堆大小,单位为MB比如,1000MB 这个参数用于设置hadoop守护进程的堆大小缺省大小是1000MB2.2、配置Hadoop守护进程的运行参数。

这部分涉及Hadoop集群的重要参数,这些参数在conf/hadoop-site.xml中指定参数取值备注fs.default.name  NameNode的URIhdfs://主机名/mapred.job.tracker。

JobTracker的主机(或者IP)和端口主机:端口dfs.name.dir  NameNode持久存储名字空间及事务日志的本地文件系统路径当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。

dfs.data.dir  DataNode存放块数据的本地文件系统路径,逗号分割的列表当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上mapred.system.dir  。

Map/Reduce框架存储系统文件的HDFS路径比如/hadoop/mapred/system/  这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问mapred.local.dir  。

本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方多路径有助于利用磁盘i/omapred.tasktracker.{map|reduce}.tasks.maximum  某一TaskTracker上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。

默认为2(2个map和2个reduce),可依据硬件情况更改dfs.hosts/dfs.hosts.exclude  许可/拒绝DataNode列表如有必要,用这个文件控制许可的datanode列表mapred.hosts/mapred.hosts.exclude

许可/拒绝TaskTracker列表如有必要,用这个文件控制许可的TaskTracker列表通常,上述参数被标记为 final 以确保它们不被用户应用更改2.3、现实世界的集群配置这节罗列在大规模集群上运行。

sort基准测试(benchmark)时使用到的一些非缺省配置      运行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序:参数取值备注dfs.block.size  。

134217728针对大文件系统,HDFS的块大小取128MBdfs.namenode.handler.count  40启动更多的NameNode服务线程去处理来自大量DataNode的RPC请求mapred.reduce.parallel.copies

20reduce启动更多的并行拷贝器以获取大量map的输出mapred.child.java.opts-Xmx512M  为map/reduce子虚拟机使用更大的堆fs.inmemory.size.mb  。

200为reduce阶段合并map输出所需的内存文件系统分配更多的内存io.sort.factor100文件排序时更多的流将同时被归并io.sort.mb  200提高排序时的内存上限      运行sort1400和sort2000时需要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序:。

参数取值备注mapred.job.tracker.handler.count  60启用更多的JobTracker服务线程去处理来自大量TaskTracker的RPC请求mapred.reduce.parallel.copies    。

50tasktracker.http.threads50为TaskTracker的Http服务启用更多的工作线程reduce通过Http服务获取map的中间输出mapred.child.java.opts    。

-Xmx1024M使用更大的堆用于maps/reduces的子虚拟机

2.4、Slaves通常,你选择集群中的一台机器作为NameNode,另外一台不同的机器作为JobTracker余下的机器即作为DataNode又作为TaskTracker,这些被称之为slaves在conf/slaves文件中列出所有slave的主机名或者IP地址,一行一个。

2.5、日志Hadoop使用Apache log4j来记录日志,它由Apache Commons Logging框架来实现编辑conf/log4j.properties文件可以改变Hadoop守护进程的日志配置(日志格式等)。

2.6、历史日志作业的历史文件集中存放在hadoop.job.history.location,这个也可以是在分布式文件系统下的路径,其默认值为${HADOOP_LOG_DIR}/historyjobtracker的web UI上有历史日志的web UI链接。

历史文件在用户指定的目录hadoop.job.history.user.location也会记录一份,这个配置的缺省值为作业的输出目录这些文件被存放在指定路径下的“_logs/history/”目录中因此,默认情况下日志文件会在“mapred.output.dir/_logs/history/”下。

如果将hadoop.job.history.user.location指定为值none,系统将不再记录此日志用户可使用以下命令在指定路径下查看历史日志汇总   $ bin/hadoop job -history output-dir

这条命令会显示作业的细节信息,失败和终止的任务细节     关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看     $ bin/hadoop job -history all output-dir。

一但全部必要的配置完成,将这些文件分发到所有机器的HADOOP_CONF_DIR路径下,通常是${HADOOP_HOME}/conf五、Hadoop的机架感知HDFS和Map/Reduce的组件是能够感知机架的。

NameNode和JobTracker通过调用管理员配置模块中的APIresolve来获取集群里每个slave的机架id该API将slave的DNS名称(或者IP地址)转换成机架id使用哪个模块是通过配置项topology.node.switch.mapping.impl来指定的。

模块的默认实现会调用topology.script.file.name配置项指定的一个的脚本/命令 如果topology.script.file.name未被设置,对于所有传入的IP地址,模块会返回/default-rack作为机架id。

在Map/Reduce部分还有一个额外的配置项mapred.cache.task.levels,该参数决定cache的级数(在网络拓扑中)例如,如果默认值是2,会建立两级的cache- 一级针对主机(主机 -> 任务的映射)另一级针对机架(机架 -> 任务的映射)。

六、启动Hadoop       启动Hadoop集群需要启动HDFS集群和Map/Reduce集群格式化一个新的分布式文件系统:   $ bin/hadoop namenode -format在分配的NameNode上,运行下面的命令启动HDFS:  。

$ bin/start-dfs.shbin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。

在分配的JobTracker上,运行下面的命令启动Map/Reduce:   $ bin/start-mapred.shbin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。

七、停止Hadoop在分配的NameNode上,执行下面的命令停止HDFS:   $ bin/stop-dfs.shbin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。

在分配的JobTracker上,运行下面的命令停止Map/Reduce:   $ bin/stop-mapred.shbin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。

退出移动版