jdk环境配置点击直达
本文使用的是hadoop-2.6.0-cdh5.14.2.tar.gz
然后将解压的文件夹改名
mv hadoop-2.6.0-cdh5.14.2/ hadoop这里需要注意自己的解压文件夹目录,如果不一样需要适当的修改目录 我是将所要文件都解压到/opt文件夹下面的
也可以将之前的环境变量删除粘贴下面的命令,来达到偷懒的效果
export JAVA_HOME=/opt/jdk1.8.0_221 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export HADOOP_HOME=/opt/hadoop export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_INSTALL=$HADOOP_HOME export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH设置主机名为hadoop002
hostnamectl set-hostname hadoop002 vi /etc/hosts第4和5步主要是为集群做准备
进入目录
cd /opt/hadoop/etc/hadoop插入(注意修改ip地址为linux的ip)
<!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.83.101:9000</value> </property> <!-- 指定Hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop/tmp</value> </property> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property> <property> <name>hadoop.native.lib</name> <value>false</value> <description>Should native hadoop libraries, if present, be used. </description> </property>插入(注意修改IP地址)
<!-- 指定HDFS副本的数量 --> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.83.102:50090</value> </property>首先修改文件名称
mv mapred-site.xml.template mapred-site.xml vi mapred-site.xml插入(注意修改IP地址)
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>192.168.83.102:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>192.168.83.102:19888</value> </property>插入(注意修改主机名)
<property> <name>yarn.resourcemanager.hostname</name> <value>hadoop002</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <!-- 日志聚集功能使用 --> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <!-- 日志保留时间设置7天 --> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>604800</value> </property>修改为主机名
这里改为jdk包的具体路径
访问http://192.168.83.102:50070/ 测试
如果修改配置文件需要经过以下步骤
删除tmp文件夹删除logs文件夹重新格式化 hdsf namenode -format关闭 stop-all.sh开启 start-all.sh1.上传hadoop-native-64-2.6.0.tar 到opt文件夹
2.解包hadoop-native-64-2.6.0.tar
tar -xvf hadoop-native-64-2.6.0.tar -C /opt/hadoop/lib/native3.复制文件
cd ./hadoop/lib/native/ cp * ../4.输入
mr-jobhistory-daemon.sh start historyserver5.访问http://192.168.83.102:19888/jobhistory
字符统计为非常常用的实例,主要用来统计数量
创建test文件夹
hadoop fs -mkdir /test上传文件到test
hadoop fs -put README.txt /test执行wordcount命令
hadoop jar ./share/hadoop/mapreduce2/hadoop-mapreduce-examples-2.6.0-cdh5.14.2.jar wordcount /test/README.txt /output查看结果
hadoop fs -cat /output/part-r-00000