配置单元 shell 未启动
hive shell not starting
hadoop_1@shubho-HP-Notebook:~$ hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop_1/apache-hive-2.3.2-bin/lib /log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop_1/hadoop/share/hadoop/common /lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.ClassCastException: java.base/jdk.internal.loader.ClassLoaders$AppClassLoader cannot be cast to java.base/java.net.URLClassLoader
at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:394)
at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:370)
at org.apache.hadoop.hive.cli.CliSessionState.<init>(CliSessionState.java:60)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:708)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at java.base/jdk.internal.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.base/java.lang.reflect.Method.invoke(Method.java:564)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
hadoop_1@shubho-HP-Notebook:~$
抛出上述异常。于是查了一下,没有conf/hive-site.xml。所以我创建并编辑了它:
<property>
<name>hive.exec.local.scratchdir</name>
<value>$HIVE_HOME/iotmp</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>$HIVE_HOME/iotmp</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>$HIVE_HOME/iotmp</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
还是报同样的错误
我一直在为同样的错误而苦苦挣扎。我发现问题是因为我安装了 java 9 并配置了 java 9 的 hadoop。而 Hive 不支持 java 版本 9.
解决方案是将java版本9替换为java版本8.Installjava版本8,然后在java8上同时配置hadoop和hive .
打开文件 $HADOOP_HOME/etc/hadoop/hadoop-env.sh
并粘贴以下行:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
在配置hive时也设置相同的地址。
我遇到了同样的问题,当键入命令 hive.first 时 hive sell 没有启动,我检查所有守护进程是否 运行 或不使用 jps 命令,在我的情况下 namenode 不是 working.so 首先停止所有 运行 守护进程使用 stop-all.sh 然后格式化 namenode (namenode -format) 并再次启动 start-all.sh 然后使用 jps.If 检查它的问题仍然存在你可以再次检查你的配置文件和配置,它对我有用。
hadoop_1@shubho-HP-Notebook:~$ hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop_1/apache-hive-2.3.2-bin/lib /log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop_1/hadoop/share/hadoop/common /lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.ClassCastException: java.base/jdk.internal.loader.ClassLoaders$AppClassLoader cannot be cast to java.base/java.net.URLClassLoader
at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:394)
at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:370)
at org.apache.hadoop.hive.cli.CliSessionState.<init>(CliSessionState.java:60)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:708)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at java.base/jdk.internal.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.base/java.lang.reflect.Method.invoke(Method.java:564)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
hadoop_1@shubho-HP-Notebook:~$
抛出上述异常。于是查了一下,没有conf/hive-site.xml。所以我创建并编辑了它:
<property>
<name>hive.exec.local.scratchdir</name>
<value>$HIVE_HOME/iotmp</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>$HIVE_HOME/iotmp</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>$HIVE_HOME/iotmp</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
还是报同样的错误
我一直在为同样的错误而苦苦挣扎。我发现问题是因为我安装了 java 9 并配置了 java 9 的 hadoop。而 Hive 不支持 java 版本 9.
解决方案是将java版本9替换为java版本8.Installjava版本8,然后在java8上同时配置hadoop和hive .
打开文件 $HADOOP_HOME/etc/hadoop/hadoop-env.sh
并粘贴以下行:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
在配置hive时也设置相同的地址。
我遇到了同样的问题,当键入命令 hive.first 时 hive sell 没有启动,我检查所有守护进程是否 运行 或不使用 jps 命令,在我的情况下 namenode 不是 working.so 首先停止所有 运行 守护进程使用 stop-all.sh 然后格式化 namenode (namenode -format) 并再次启动 start-all.sh 然后使用 jps.If 检查它的问题仍然存在你可以再次检查你的配置文件和配置,它对我有用。