VMware上安装Hadoop安装配置与教程小白必看

tech2024-06-21  69

VMware上安装Hadoop安装配置与教程小白必看

安装Hadoop前准备工作进入BIOS模式开启虚拟化安装虚拟机VMware并安装ubuntu Hadoop安装与配置启动终端创建新用户并设置密码更新apt安装SSH安装JDK设置环境变量安装HadoopHadoop伪分布式配置执行NameNode格式化开启NameNode和DataNode守护进程判断是否启动成功关闭Hadoop

安装Hadoop前准备工作

本文主要记录踩过无数坑的Hadoop的安装与伪分布式的搭建记录笔记

进入BIOS模式开启虚拟化

安装虚拟机VMware并安装ubuntu

安装VMware(安装类型自定义,稍后安装操作系统,操作系统选择Linux,版本为Ubuntu,安装位置自定义,网络适配器选择桥接网络,其余的按默认设置或者自己电脑实际情况设置。)

新建虚拟机(选择设置中的CD/DVD,使用ISO映像文件,点击浏览选择Ubuntu镜像。) 开启虚拟机安装操作系统(选择语言为中文简体,安装Ubuntu,用户名为hadoop,密码自定,其余的按默认设置。)

具体安装教程网上有许多,这里给出 VMware虚拟机安装ubuntu16.04系统教程

Hadoop安装与配置

重头戏要来啦~~

启动终端

快捷键:ctrl+alt+t

创建新用户并设置密码

sudo useradd -m hadoop -s /bin/bash #创建新用户 sudo passwd hadoop #设置密码

更新apt

sudo apt-get update #更新apt sudo apt-get install vim #需要更改配置文件

安装SSH

sudo apt-get install openssh-server #安装SSH ssh localhost #登陆本机 配置SSH无密登陆 exit # 退出刚才的 ssh localhost cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost ssh-keygen -t rsa # 回车进入下一步 cat ./id_rsa.pub >> ./authorized_keys # 加入授权

安装JDK

cd /usr/lib sudo mkdir jvm #创建/usr/lib/jvm目录用来存放JDK文件 cd ~ #进入hadoop用户的主目录 cd Downloads #注意区分大小写字母 sudo tar -zxvf ./jdk-8u231-linux-x64.tar.gz -C /usr/lib/jvm #把JDK文件解压到/usr/lib/jvm目录下

查看

cd /usr/lib/kjvm

设置环境变量

cd ~ vim ~/.bashrc 在打开的配置文件中添加: export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_231 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH 保存后退出 source ~/.bashrc (保存.bashrc文件并退出vim编辑器。)

查看

java –version (查看是否安装成功)

安装Hadoop

将 Hadoop 安装至 /usr/local/ 中:

sudo tar -zxf ~/下载/hadoop-3.2.1.tar.gz -C /usr/local # 解压到/usr/local中 cd /usr/local/ sudo mv ./hadoop-3.2.1/ ./hadoop # 将文件夹名改为hadoop sudo chown -R hadoop ./hadoop # 修改文件权限

检查 Hadoop 是否可用

cd /usr/local/hadoop ./bin/hadoop version

Hadoop伪分布式配置

修改配置文件core-site.xml

gedit ./etc/hadoop/core-site.xml <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>

修改配置文件hdfs-site.xml

gedit ./etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>

执行NameNode格式化

./bin/hdfs namenode –format

开启NameNode和DataNode守护进程

./sbin/start-dfs.sh

判断是否启动成功

jps #是否出现jps、SecondaryNameNode、NameNode、DataNode

关闭Hadoop

./sbin/stop-dfs.sh

好啦~~到这Hadoop就安装完毕啦~

最新回复(0)