Docker安装Hadoop 本文共有17500个字,关键词: 本文讲述在Ubuntu下创建使用docker基于ubuntu镜像创建hadoop.实现以下功能1、为一主二从2、docker静态地址3、全部自定义安装一、创建一个安装好jdk的镜像1、创建一个ubuntu容器sudo docker pull ubuntu2、映射主机上的java目录到启动的容器中make ~/build#-r表示递归cp -r /usr/lib/jvm/java-8-openjdk-amd64 ~/build3、下载Hadoop到文件夹wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.2/hadoop-3.3.2.tar.gz4、启动容器docker run -it -v /home/bs/build:/root/build --name ubuntu ubuntu5、进bash更新和安装 vim sshapt update & apt upgradeapt install vim ssh#选择6,70#启动ssh服务/etc/init.d/ssh start#写入启动项vim ~/.bashrc#在最后写上 /etc/init.d/ssh start#立即加载配置source ~/.bashrc#设置免密登陆cat /root/.ssh/id_rsa.pub >> authorized_keys#试验ssh localhost6、移动jdk至容器内mkdir /usr/lib/jvm#cp -r /root/build/java-8-openjdk-amd64/ /usr/lib/jvm/java-8-openjdk-amd64mv /root/build/java-8-openjdk-amd64/ /usr/lib/jvm/java-8-openjdk-amd647、设置JAVA环境变量vim ~/.bashrcexport JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/export PATH=$PATH:$JAVA_HOME/bin:wqsource ~/.bashrc8返回主机exit通过docker ps 查看ubuntu的镜像ID9、创建一个新的imagedocker commit [id] ubuntu/jdkinstalled二、安装Hadoop1、新启动一个dockerdocker run -it -v /home/bs/build/:/root/build --name ubuntu-jdk1 ubuntu/jdkinstalled2、进入ubuntu-jdk1 bash3、解压hadooptar -zxvf /root/build/hadoop-3.3.2.tar.gz -C /usr/local/cd /usr/local/hadoop-3.3.2/bin运行 ./hadoop version 即可查看到内容4、编辑/etc/hadoop/core-site.xml<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property></configuration>5、编辑hadoop-env.shvim hadoop-env.sh#在顶部加入JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/6、编辑hdfs-site.xml#dfs.replication = 3 是3个副本vim hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs_name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs_data</value> </property></configuration>7、编辑mapred-site.xml vim mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property></configuration>可使用yarn框架、jobhistory使用地址以及web地址<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>bigdata:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>bigdata:19888</value> </property></configuration>8、编辑yarn-site.xml vim yarn-site.xml <configuration><!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> <description>NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序</description> </property><property> <name>yarn.resourcemanager.hostname</name> <value>master</value> <description>resourcemanager</description></property></configuration>9、创建一个安装好hadoop的image使用docker ps查看id然后docker commit [id] ubuntu/hadoopinstalled三、启用集群1、创建一个自定义的网络,网段172.18.0.0/16,网络名称为: hadoopnet。docker network create --subnet=172.18.0.0/16 hadoopnet2、分别启动三个常用端口 HDFS页面:50070YARN的管理界面:8088HistoryServer的管理界面:19888Zookeeper的服务端口号:2181Mysql的服务端口号:3306Hive.server1=10000Kafka的服务端口号:9092azkaban界面:8443Hbase界面:16010,60010Spark的界面:8080Spark的URL:7077docker run -it -h master --name master -p 9870:9870 -p 9000:9000 -p 50070:50070 --network hadoopnet --ip 172.18.0.2 ubuntu/hadoopinstalleddocker run -it -h slave01 --name slave01 --network hadoopnet --ip 172.18.0.3 ubuntu/hadoopinstalleddocker run -it -h slave02 --name slave02 --network hadoopnet --ip 172.18.0.4 ubuntu/hadoopinstalled3、修改hosts文件vim /etc/hosts#修改master slave01 slave01的IPmaster 172.18.0.2slave01 172.18.0.3slave02 172.18.0.44、同步其它2台的hostsscp /etc/hosts slave01:/etc/hostsscp /etc/hosts slave02:/etc/hosts如果之前没有把ssh公钥复制,需要从/root/.ssh/id_rsa.pub复制ssh-copy-id root@masterssh-copy-id root@slave01ssh-copy-id root@slave02 5、在master中解决可能存在的问题vi /etc/profileexport HDFS_NAMENODE_USER=rootexport HDFS_DATANODE_USER=rootexport HDFS_SECONDARYNAMENODE_USER=rootexport YARN_RESOURCEMANAGER_USER=rootexport YARN_NODEMANAGER_USER=rootsource /etc/profilemore https://blog.csdn.net/weixin_49736959/article/details/1088971296、配置worksvim /usr/local/hadoop-3.3.2/etc/hadoop/workers slave01slave02master7、hdfs格式化cd /usr/local/hadoop-3.3.2bin/hdfs namenode -format8、启动sbin/start-all.sh如果出错错误,把namenode datanode以及日志全部删掉重新format9、运行jps检查也可以从以下地址找到相关信息其它:http://dblab.xmu.edu.cn/blog/install-hadoop-simplify/其它:https://my.oschina.net/u/4231975/blog/4523266 「一键投喂 软糖/蛋糕/布丁/牛奶/冰阔乐!」 赞赏 × 梦白沙 (๑>ڡ<)☆谢谢老板~ 1元 2元 5元 10元 50元 任意金额 2元 使用微信扫描二维码完成支付 版权声明:本文为作者原创,如需转载须联系作者本人同意,未经作者本人同意不得擅自转载。 ubuntu系统,Docker 2022-04-15 评论 264 次浏览