Hadoop 2.0.3在Linux环境下单机部署的讲解
当前位置:以往代写 > 大数据教程 >Hadoop 2.0.3在Linux环境下单机部署的讲解
2019-06-14

Hadoop 2.0.3在Linux环境下单机部署的讲解

Hadoop 2.0.3在Linux环境下单机部署的讲解

在众多学习中,文章也许不起眼,但是重要的下面我们就来讲解一下!!

1.Hadoop2.0简述[1]
HDFS:为了保证name服务器的规模水平,开发人员使用了多个独立的Namenodes和Namespaces。这些Namenode是联合起来的,它们之间不需要相互协调。Datanode可以为所有Namenode存放数据块,每个数据块要在平台上所有的Namenode上进行注册。Datenode定期向Namenode发送心跳信号和数据报告,接受和处理Namenodes的命令。
Yarn(新一代MapReduce):在hadoop-0.23中介绍的新架构,将JobTracker的两个主要的功能:资源管理和作业生命周期管理分成不同的部分。新的资源管理器负责管理面向应用的计算资源分配和每个应用的之间的调度及协调。
每个新的应用既是一个传统意义上的MapReduce作业,也是这些作业的 DAG(Database Availability Group数据可用性组),资源管理者(ResourcesManager)和管理每台机器的数据管理者(NodeManager)构成了整个平台的计算布局。
每一个应用的应用管理者实际上是一个架构的数据库,向资源管理者(ResourcesManager)申请资源,数据管理者(NodeManager)进行执行和监测任务。
2. Hadoop2.0的目录结构[2]oracle数据库教程
Hadoop2.0的目录结构很像Linux操作系统的目录结构,各个目录的作用如下:
(1)   在新版本的hadoop中,由于使用hadoop的用户被分成了不同的用户组,就像Linux一样。因此执行文件和脚本被分成了两部分,分别存放在bin和sbin目录下。存放在sbin目录下的是只有超级用户(superuser)才有权限执行的脚本,比如start-dfs.sh, start-yarn.sh, stop-dfs.sh, stop-yarn.sh等,这些是对整个集群的操作,只有superuser才有权限。而存放在bin目录下的脚本所有的用户都有执行的权限,这里的脚本一般都是对集群中具体的文件或者block pool操作的命令,如上传文件,查看集群的使用情况等。
(2)   etc目录下存放的就是在0.23.0版本以前conf目录下存放的东西,就是对common, hdfs, mapreduce(yarn)的配置信息。
(3)   include和lib目录下,存放的是使用Hadoop的C语言口开发用到的头文件和链接的库。
(4)   libexec目录下存放的是hadoop的配置脚本,具体怎么用到的这些脚本,我也还没跟踪到。目前我就是在其中hadoop-config.sh文件中增加了Java_HOME环境变量。
(5)   logs目录在download到的安装包里是没有的,如果你安装并运行了hadoop,就会生成logs 这个目录和里面的日志。
(6)   share这个文件夹存放的是doc文档和最重要的Hadoop源代码编译生成的jar包文件,就是运行hadoop所用到的所有的jar包。
3.学习hadoop的配置文件[3]
(1)   dfs.hosts记录即将作为datanode加入集群的机器列表
(2)   mapred.hosts 记录即将作为tasktracker加入集群的机器列表
(3)   dfs.hosts.exclude mapred.hosts.exclude 分别包含待移除的机器列表
(4)   master 记录运行辅助namenode的机器列表
(5)   slave 记录运行datanode和tasktracker的机器列表
(6)   hadoop-env.sh 记录脚本要用的环境变量,以运行hadoop
(7)   core-site.xml hadoop core的配置项,例如hdfs和mapreduce常用的i/o设置等。
(8)   hdfs-site.xml hadoop守护进程的配置项,包括namenode、辅助namenode和datanode等。
(9)   mapred-site.xml mapreduce守护进程的配置项,包括jobtracker和tasktracker。
(10) hadoop-metrics.properties 控制metrics在hadoop上如何发布的属性。
   (11) log4j.properties 系统日志文件、namenode审计日志、tasktracker子进程的任务日志的属性。
4. hadoop详细配置[4,5]
从Hadoop官网上下载hadoop-2.0.0-alpha.tar.gz,放到共享文件夹中,在/usr/lib中进行解压,运行tar -zxvf /mnt/hgfs/share/hadoop-2.0.0-alpha.tar.gz。
(1)在gedit ~/.bashrc中编辑:

  1. export HADOOP_PREFIX=”/usr/lib/hadoop-2.0.0-alpha” 
  2. export PATH=$PATH:$HADOOP_PREFIX/bin 
  3. export PATH=$PATH:$HADOOP_PREFIX/sbin 
  4. export HADOOP_MAPRED_HOME=${HADOOP_PREFIX} 
  5. export HADOOP_COMMON_HOME=${HADOOP_PREFIX} 
  6. export HADOOP_HDFS_HOME=${HADOOP_PREFIX} 
  7. export YARN_HOME=${HADOOP_PREFIX} 

仍然保存退出,再source ~/.bashrc,使之生效。
(2)在etc/hadoop目录中编辑 core-site.xml

  1.  
  2.  
  3. io.native.lib.available 
  4. true 
  5.  
  6.  
  7. fs.default.name 
  8. hdfs://10.1.50.170:9000 
  9. The name of the default file system.Either the literal string “local” or a host:port for NDFS. 
  10. true 
  11.  
  12.  

#p#分页标题#e#

(3) 在etc/hadoop目录中编辑hdfs-site.xml

  1.  
  2.  
  3. dfs.namenode.name.dir 
  4. file:/usr/lib/hadoop-2.0.0-alpha/workspace/hadoop_space/hadoop23/dfs/name 
  5. Determines where on the local filesystem the DFS name node should store the 
  6. name table.If this is a comma-delimited list of directories,then name table is 
  7. replicated in all of the directories,for redundancy. 
  8. true 
  9.  
  10.  
  11. dfs.datanode.data.dir 
  12. file:/usr/lib/hadoop-2.0.0-alpha/workspace/hadoop_space/hadoop23/dfs/data 
  13. Determines where on the local filesystem 
  14. an DFS data node should store its blocks.If this is a comma-delimited
  15.  list of directories,then data will be stored in all named directories,
  16. typically on different devices.Directories that do not exist are ignored. 
  17. true 
  18.  
  19.  
  20. dfs.replication 
  21.  
  22.  
  23. dfs.permission 
  24. false 
  25.  
  26.  

路径
file:/home/hadoop/workspace/hadoop_space/hadoop23/dfs/name与
file:/home/hadoop/workspace/hadoop_space/hadoop23/dfs/data
是计算机中的一些文件夹,用于存放数据和编辑文件的路径必须用一个详细的URI描述。
(4)在 /etc/hadoop 使用以下内容创建一个文件mapred-site.xml

  1.  
  2.  
  3. mapreduce.framework.name 
  4. yarn 
  5.  
  6.  
  7. mapreduce.job.tracker 
  8. hdfs://10.1.50.170:9001 
  9. true 
  10.  
  11.  
  12. mapreduce.map.memory.mb 
  13. 1536 
  14.  
  15.  
  16. mapreduce.map.java.opts 
  17. -Xmx1024M 
  18.  
  19.  
  20. mapreduce.reduce.memory.mb 
  21. 3072 
  22.  
  23.  
  24. mapreduce.reduce.java.opts 
  25. -Xmx2560M 
  26.  
  27.  oracle视频教程
  28. mapreduce.task.io.sort.mb 
  29. 512 
  30.  
  31.  
  32. mapreduce.task.io.sort.factor 
  33. 100 
  34.  
  35.  
  36. mapreduce.reduce.shuffle.parallelcopies 
  37. 50 
  38.  
  39.  
  40. mapred.system.dir 
  41. file:/usr/lib/hadoop-2.0.0-alpha/workspace/hadoop_space/hadoop23/mapred/system 
  42. true 
  43.  
  44.  
  45. mapred.local.dir 
  46. file:/usr/lib/hadoop-2.0.0-alpha/workspace/hadoop_space/hadoop23/mapred/local 
  47. true 
  48.  
  49.  

 路径:
file:/home/hadoop/workspace/hadoop_space/hadoop23/mapred/system与
file:/home/hadoop/workspace/hadoop_space/hadoop23/mapred/local
为计算机中用于存放数据的文件夹路径必须用一个详细的URI描述。
(5)编辑yarn-site.xml
 

  1.   
  2.  
  3. yarn.resourcemanager.address 
  4. 10.1.50.170:8080 
  5.  
  6.  
  7. yarn.resourcemanager.scheduler.address 
  8. 10.1.50.170:8081 
  9.  
  10.  
  11. yarn.resourcemanager.resource-tracker.address 
  12. 10.1.50.170:8082 
  13.  
  14.  
  15. yarn.nodemanager.aux-services 
  16. mapreduce.shuffle 
  17.  oracle视频
  18.  

    有人把数据比喻为蕴藏能量的煤矿。煤炭按照性质有焦煤、无烟煤、肥煤、贫煤等分类,而露天煤矿、深山煤矿的挖掘成本又不一样。与此类似,大数据并不在“大”,而在于“有用”。价值含量、挖掘成本比数量更为重要。对于很多行业而言,如何利用这些大规模数据是成为赢得竞争的关键。
      大数据的价值体现在以下几个方面:1)对大量消费者提供产品或服务的企业可以利用大数据进行精准营销;2) 做小而美模式的中长尾企业可以利用大数据做服务转型;3) 面临互联网压力之下必须转型的传统企业需要与时俱进充分利用大数据的价值。

    不过,“大数据”在经济发展中的巨大意义并不代表其能取代一切对于社会问题的理性思考,科学发展的逻辑不能被湮没在海量数据中。著名经济学家路德维希·冯·米塞斯曾提醒过:“就今日言,有很多人忙碌于资料之无益累积,以致对问题之说明与解决,丧失了其对特殊的经济意义的了解。”[5]  这确实是需要警惕的。

  19. yarn.nodemanager.aux-services.mapreduce.shuffle.class 
  20. org.Apache.hadoop.mapred.ShuffleHandler 
  21.  
  22.  

#p#分页标题#e#

(6) 在 /etc/hadoop 目录中创建hadoop-env.sh 并添加:
export HADOOP_FREFIX=/usr/lib/hadoop-2.0.0-alpha
export HADOOP_COMMON_HOME=${HADOOP_FREFIX}
export HADOOP_HDFS_HOME=${HADOOP_FREFIX}
export PATH=$PATH:$HADOOP_FREFIX/bin
export PATH=$PATH:$HADOOP_FREFIX/sbin
export HADOOP_MAPRED_HOME=${HADOOP_FREFIX}
export YARN_HOME=${HADOOP_FREFIX}
export HADOOP_CONF_HOME=${HADOOP_FREFIX}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_FREFIX}/etc/hadoop
export JAVA_HOME=/usr/lib/jvm/java-7-sun
另,需要yarn-env.sh中充填相同的内容,再配置到各节点。
配置过程中遇到的问题:
▼在浏览器中localhost:8088中,只能看到主节点的信息,看不到datanode的信息。
解决方法:在重新配置yarn.xml(以上为修改后内容)后已经可以看到两个节点,但启动后有一个datanode会自动关闭。
▼在纠结了很长时间kerbose的问题后,才找到运行不能的原因是这个提示:
INFO mapreduce.Job: Job job_1340251923324_0001 failed with state FAILED due to: Application application_1340251923324_0001 failed 1 times due to AM Container for appattempt_1340251923324_0001_000001 exited with  exitCode: 1 due to:Failing this attempt.. Failing the application.
按照一个国外友人的回贴[6]fs.deault.name -> hdfs://localhost:9100 in core-site.xml ,mapred.job.tracker – > http://localhost:9101 in mapred-site.xml,错误提示发生改变。再把hadoop-env.sh中的内容copy到yarn-env.sh中,平台就可以勉强运行了(还是有报警)
5.初始化hadoop
首先格式化 namenode,输入命令 hdfs namenode –format;
Hadoop 2.0.3在Linux环境下单机部署的讲解 
然后开始守护进程 hadoop-daemon.sh start namenode 和 hadoop-daemon.sh start datanode或(可以同时启动:start-dfs.sh);然后,开始 Yarn 守护进程运行 yarn-daemon.sh start resourcemanager和 yarn-daemon.sh start nodemanager(或同时启动: start-yarn.sh)。
Hadoop 2.0.3在Linux环境下单机部署的讲解
最后,检查守护进程是否启动运行 jps,是否输出以下结果:
Hadoop 2.0.3在Linux环境下单机部署的讲解
在datanode上jps,有以下输出:Oracle培训
Hadoop 2.0.3在Linux环境下单机部署的讲解
Hadoop 2.0.3在Linux环境下单机部署的讲解
浏览UI,打开 localhost:8088 可以查看资源管理页面。
结束守护进程stop-dfs.sh和stop-yarn.sh(或者同时关闭stop-all.sh)。

更多视频课程文章的课程,可到课课家官网查看。我在等你哟!!!

    关键字:

在线提交作业