在需要绕过hive启动spark时,报一下错误,可用。亲测有效!!!
hadoop 关闭安全模式
临时解决hadoop dfsadmin -safemode leave
永久解决
cd /root/bigdata/hadoop/etc/hadoop
vi hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/root/bigdata/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/root/bigdata/hadoop/hdfs/data</value> </property> <!-- 添加下列代码 --> <property> <name>dfs.safemode.threshold.pct</name> <value>0</value> </property> <!-- end --> </configuration>重启hadoop
