hadoop 伪分布配置[亲测有效]

hadoop 伪分布配置[亲测有效]配置 Hadoop 伪分布式 任务配置说明: VMware 15 Centos 6.5 java -jdk 1.8 hadoop-2.6.0-cdh5.14.0.tar.gz 第一步 自行安装虚拟机

hadoop 伪分布配置

配置 Hadoop 伪分布式

任务配置说明:

    1. VMware 15

    2. Centos 6.5

    3. java -jdk 1.8

    4. hadoop-2.6.0-cdh5.14.0.tar.gz

第一步

自行安装虚拟机

第二步 开始大配置

  1. 修改主机名和用户名

    •  vim /etc/sysconfig/network  --(将HOSTNAME=) 改为master(主机的意思)

      代码100分

    • 代码100分 vim /etc/hosts  --(增加一行内容 ip    master)
  2. 配置静态ip

    •  vim /etc/sysconfig/network-scripts/ifcfg-eth0
      • 修改内容如下:

        代码100分 DEVICE=eth0 (网卡名称)
         HWADDR=00:0C:29:63:C3:47
         TYPE=Ethernet
         UUID=7cce5090-6637-40fc-a47e-9f5e2d561b46
         ONBOOT=yes (必须设置 设置启动)
         NM_CONTROLLED=yes
         BOOTPROTO=static (静态)
         IPADDR=192.168.65.21  --(你的ip)
         NETMASK=255.255.255.0 --(子网掩码)
         GATEWAY=192.168.65.1  --(网关)
         DNS1=114.114.114.114  --(DNS)
  3. 配置SSH无密码连接

    • 关闭防火墙

      •  service iptables stop  --(仅一次性关闭防火墙  再次开机防火墙就重新开启了)
      •  chkconfig iptables off  --(永久关闭防火墙  防止重启防火墙自启动)
    • 配置 SSH

      • 安装 ssh

        •  yum install ssh
      • 安装 rsync

        •  yum install rsync
    • 启动 SSH 服务命令

      •  service sshd restart
      • 检查 ssh 是否已经安装成功 可以执行 rpm -qa | grep openssh

      • 出现

        •  [hadoop@master ~]$  rpm -qa | grep openssh
           openssh-server-5.3p1-94.el6.x86_64
           openssh-clients-5.3p1-94.el6.x86_64
           openssh-5.3p1-94.el6.x86_64
           openssh-askpass-5.3p1-94.el6.x86_64
        • 代表成功

      • 检查 rsync 是否安装成功 可执行 rpm -qa | grep rsync

        • 出现

          •  [hadoop@master ~]$ rpm -qa | grep rsync
             rsync-3.0.6-12.el6.x86_64
          • 代表成功

    • 生成 SSH 公钥 (只可以生成当前执行用户的秘钥)

      •  ssh-keygen -t rsa  --(连续回车即可)  
      •  ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop(用户名)@master(主机名)
      • 验证 ssh master

     

    4.配置 java 环境

    • 安装 Java jdk

      • 卸载初始系统存在的jdk

        • 检查 是否安装了jdk

        •  rpm -qa | grep jdk
          • 如果出现了返回值 那么使用 yum -y remove xxx(将返回值输入即可)

      • 安装 JDK (需要实现上传)

        •  tar -zxvf jdk-8u221-linux-x64.tar.gz  --(解压压缩包)
        • 修改环境配置文件

          • vim /etc/profile

            • 文件末尾添加

              • #java –(注释代表java)

                 export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221 --(你java安装目录)
                 export PATH=$PATH:$JAVA_HOME/bin
          • 让配置文件修改后生效

            •  source /etc/profile
      • 验证 java是否安装成功 –(输入java命令即可)

        •  [hadoop@master jdk1.8.0_221]$ java
        • 如若返回一大页东西则安装成功 java -version可以查看当前java版本信息

    5.配置 hadoop 环境

    • 老样子 先解压

      •   tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz
    • 修改配置文件信息

      • 进入 hadoop 配置文件目录 cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/etc/hadoop/

      • 修改 hadoop-env.sh 文件 末尾追加以下内容

        •  export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221
        •  export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
      • 修改 core-site.xml 文件

         <configuration>
                 <property>
                         <name>fs.default.name</name>
                         <value>hdfs://master:9000</value>
                 </property>
         </configuration>
      • 修改 hdfs-site.xml

         <configuration>
                 <property>
                         <name>dfs.replication</name>
                         <value>3</value>
                 </property>
                 <property>
                         <name>dfs.name.dir</name>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/name</value>
                 </property>
                 <property>
                         <name>dfs.data.dir</name>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/data</value>
                 </property>
         </configuration>
      • 修改 mapred-site.xml

        • 可以看到我们目录中没有mapred-site.xml 我们可以通过模板拷贝出来一个

          •  cp mapred-site.xml.template mapred-site.xml
          •  vim mapred-site.xml
        • 添加如下内容

           <configuration>
                   <property>
                           <name>mapreduce.framework.name</name>
                           <value>yarn</value>
                   </property>
           </configuration>
      • 修改 yarn-site.xml

         <configuration>
         
         <!-- Site specific YARN configuration properties -->
                 <property>
                         <name>yarn.resourcemanager.address</name>
                         <value>master:8080</value>
                 </property>
                 <property>
                         <name>yarn.resourcemanager.resource-tracker.address</name>
                         <value>master:8082</value>
                 </property>
                 <property>
                         <name>yarn.nodemanager.aux-services</name>
                         <value>mapreduce_shuffle</value>
                 </property>
                 <property>
                         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
                 </property>
         </configuration>
      • 修改 slaves

         master
    • 至此,Hadoop 安装配置工作全部完成,为了能在任何路径下使用 Hadoop 命令,还需要配置环境变量

      • 对 /etc/profile 追加如下信息

         export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
         export PATH=$PATH:$HADOOP_HOME/bin
      • 对 环境配置文件生效

         [hadoop@master hadoop]$ source /etc/profile
    • 在第一次启动 Hadoop 之前,必须对 HDFS 格式化,执行命令

       [hadoop@master hadoop]$ hadoop namenode -format

第三步

  • 启动 Hadoop

    • 格式化 Hadoop 完成后,便可以启动 hadoop ,不过首先我们赋予脚本可执行权限

       [hadoop@master hadoop]$ chmod +x -R /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 然后就可以启动集群了 执行启动脚本 –(进入hadoop的sbin脚本目录)

       [hadoop@master sbin]$ cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 执行脚本

       [hadoop@master sbin]$ bash start-all.sh
    • 最后检查要启动的节点是否正常启动

       [hadoop@master sbin]$ jps
       9025 DataNode
       9185 SecondaryNameNode
       8899 NameNode
       9335 ResourceManager
       9432 NodeManager
       9644 Jps
    • 至此 一切完成

第四步

  • 我们可以打开浏览器查看我们的HDFS

    • 如果 linux 有浏览器可以通过浏览器地址输入

       master:50070   --(即可访问)
    • 如果 想在windows访问 打开浏览器

       linuxip:50070
       例如我的:192.168.65.21:50070
  • 大功告成了

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/8799.html

(0)
上一篇 2023-02-21
下一篇 2023-02-21

相关推荐

  • 用Python编写快速的数据分析程序

    用Python编写快速的数据分析程序在当今数字时代,数据分析已成为一项十分重要的技能,它使得企业能够挖掘内部和外部的重要信息,并为企业提供决策支持。数据分析可以使得企业掌握消费者的购买能力,评估产品和服务的效果,确立最佳的营销战略。随着今天的技术发展,数据分析变得更加简单和快速,Python编程语言是数据分析的主要工具之一。

    2024-02-23
    130
  • 一小时建立数据分析平台_大数据实时分析

    一小时建立数据分析平台_大数据实时分析实时数据分析门槛较高,我们如何用极少的开发工作就完成实时数据平台的搭建,做出炫酷的图表呢? 如何快速的搭建实时数据分析平台,首先我们需要实时数据的接入端,我们选择高扩展性、容错性、速度极快的消息系统K

    2023-02-22
    152
  • Python中的max和el的用法

    Python中的max和el的用法Python中的max()函数用于找出可迭代对象中的最大值,它可以接收任意多个参数,找到最大值后返回。

    2024-02-11
    97
  • flink sql实时计算_flink 编程

    flink sql实时计算_flink 编程一、理想与现实 Apache Flink 是一个分布式流批一体化的开源平台。Flink 的核心是一个提供数据分发、通信以及自动容错的流计算引擎。Flink 在流计算之上构建批处理,并且原生的支持迭代计

    2023-01-31
    169
  • Linux常用命令、Linux系统和Linux运维培训「建议收藏」

    Linux常用命令、Linux系统和Linux运维培训「建议收藏」华为P40系列搭载HMS应用体验感挺赞,最近发现华为智慧助手真心好用,能绑定多个手机号码,查看多平台购物的快递信息,对我这种剁手党来说很方便,不用每个平台切换查找信息了,还有智能取件提醒不怕错过每一…

    2023-03-05
    159
  • 使用Python将脚本转换为可执行文件

    使用Python将脚本转换为可执行文件在使用Python进行开发的过程中,我们通常需要将编写好的Python脚本转换为可执行文件进行部署,以方便其他用户使用。Python提供了多种方式来实现这个过程,本文将会详细介绍如何使用Python将脚本转换为可执行文件。

    2024-06-08
    61
  • 从 Exadata 到 TiDB,中通快递 HTAP 实践[通俗易懂]

    从 Exadata 到 TiDB,中通快递 HTAP 实践[通俗易懂]作者介绍:朱志友,中通快递大数据架构师。 中通快递背景介绍 中通快递业务的规模目前是世界第一,是第一个达成年百亿业务量的快递企业,在 2019 年的双十一更是完成了订单量超过 2 亿的佳绩。中通科技…

    2023-03-28
    156
  • 最全Redis基础知识「建议收藏」

    最全Redis基础知识「建议收藏」NoSQL概述 什么是NoSQL NoSQL不仅仅是SQL,它是Not Only SQL 的缩写,也是众多非关系型数据库的统称NoSQL和关系型数据库一样,也是用来存储数据的仓库。 为什么需要NoSQ

    2023-02-06
    167

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注