hadoop集群 本文共有5909个字,关键词: 建议先将之前的java版本删除 ```bash 安装java jdk 可以先删除原来的 rpm -qa | grep jdk yum remove … ``` 添加hadoop用户来启动hadoop ```bash useradd hadoop passwd hadoop ``` ```bash #添加写权限 chmod u+w /etc/sudoers ``` ```bash vim /etc/sudoers root ALL=(ALL) ALL #添加下面一行 hadoop ALL=(root) NOPASSWD:ALL ``` ```bash #撤销文件的写权限 chmod u-w /etc/sudoers ``` ```bash cd /opt mkdir hadoop #将hadoop文件夹的所有者指定为hadoop用户 chown -R hadoop:hadoop /opt/hadoop 修改hosts master192.168.119.110 slave1192.168.119.111 slave2192.168.119.112 ``` ```bash su - hadoop ``` 配置core-site.xml ```xml fs.defaultFS hdfs://master:9000 hadoop.tmp.dir /opt/hadoop/data/tmp ``` 配置hdfs-site.xml ```xml dfs.namenode.name.dir /opt/hadoop/data/name namenode上存储hdfs名字空间元数据 dfs.datanode.data.dir /opt/hadoop/data/data datanode上数据块的物理存储位置 dfs.replication 2 数据需要备份的数量,不能大于集群的机器数量,默认为3 dfs.block.size 5242880 5M,需修改成1024整数倍5M=510241024 dfs.namenode.secondary.http-address slave1:50090 这个主机名设置哪个节点,SecondaryNameNode就启动在哪个服务器上 dfs.webhdfs.enabled true dfs.client.use.datanode.hostname true only cofig in clients dfs.hosts.exclude /opt/hadoop/etc/hadoop/dfs_exclude datanode踢除主机列表文件 dfs.hosts /opt/hadoop/etc/hadoop/slaves datanode添加主机列表文件 ``` 配置yarn-env.sh,配置JAVA_HOME ```bash export JAVA_HOME=/opt/jdk1.8.0_333 ``` 配置yarn-site.xml ```xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname master The hostname of the RM.修改为主节点主机名 yarn.resourcemanager.nodes.exclude-path /opt/hadoop/etc/hadoop/dfs_exclude datanode踢除主机列表文件 yarn.resourcemanager.nodes.include-path /opt/hadoop/etc/hadoop/slaves datanode添加主机列表文件 ``` 配置mapred-env.sh,增加JAVA_HOME ```bash export JAVA_HOME=/opt/jdk1.8.0_333 ``` 配置历史服务器mapred-site.xml ```xml mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 ``` 配置slaves文件 ```bash vim /opt/hadoop/etc/hadoop/masters master #或写IP #192.168.119.100 ``` 配置slaves文件和works文件,即从服务器结点可让三台服务器同步 ```bash vim /opt/hadoop/etc/hadoop/slaves slave1 slave2 或者写IP 192.168.119.111 192.168.119.112 ``` 配置免密(确认以hadoop身份登陆) 在master上 ```bash ssh-keygen -t dsa -f ~/.ssh/id_dsa cp ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys ``` 拷贝至slave1和slave2 ```bash scp ~/.ssh/id_dsa.pub hadoop@slave1:~/.ssh/master.pub scp ~/.ssh/id_dsa.pub hadoop@slave2:~/.ssh/master.pub ``` 在主机上执行 ```bash ssh hadoop@slave1 "cat ~/.ssh/master.pub>> ~/.ssh/authorized_keys" ssh hadoop@slave2 "cat ~/.ssh/master.pub>> ~/.ssh/authorized_keys" ``` 或者以hadoop身份进入slave1和slave2 分别运行 ```bash cat ~ /.ssh/master.pub>> ~ /.ssh/authorized_keys ``` 将环境 这里用到的/etc/profile ,/opt/jdk1.8.0_333 目录 和 /opt/hadoop目录从master拷贝至slave1和slave2 [可能需要先给slave1和slave2的相关文件夹权限,或以root身份先拷贝再授权] ```bash scp -r /opt/jdk1.8.0_333 hadoop@slave1:/opt scp -r /opt/jdk1.8.0_333 hadoop@slave2:/opt scp -r /opt/hadoop hadoop@slave1:/opt scp -r /opt/hadoop hadoop@slave1:/opt ``` 格式化namenode 命令: ```bash bin/hdfs namenode -format ``` 启动服务 ```bash sbin/start-all.sh ``` http://192.168.119.110:9870/ hdfs://192.168.119.110:9000 cluster : 192.168.119.110:8088/cluster 2nd NameNode 192.168.119.110:50090 启动历史服务器 ```bash ./sbin/mr-jobhistory-daemon.sh start historyserver ``` http://192.168.119.110:19888/ 以下内容可选 修改start-dfs.sh、stop-dfs.sh 在文件头部加上: ```bash HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root ``` 修改start-yarn.sh、stop-yarn.sh 在文件头部加上: ```bash YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root ``` 如果修改了相关配置文件,可以使用进行复制 ```bash scp -r hadoop@slave1:/your path #例如 scp -r hadoop@slave1:/opt/hadoop/etc/hadoop ``` 「一键投喂 软糖/蛋糕/布丁/牛奶/冰阔乐!」 赞赏 × 梦白沙 (๑>ڡ<)☆谢谢老板~ 1元 2元 5元 10元 50元 任意金额 2元 使用微信扫描二维码完成支付 版权声明:本文为作者原创,如需转载须联系作者本人同意,未经作者本人同意不得擅自转载。 随手发现 2022-06-29 评论 276 次浏览