之前hadoop使用的是3.x所以hive也要使用3.x版本。
wget https://mirrors.bfsu.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz tar -zxvf apache-hive-3.1.2-bin.tar.gz 2 添加环境变量 /etc/profile export HIVE_HOME=/opt/apache-hive-3.1.2-bin export PATH=$HIVE_HOME/bin:$PATH source /etc/profile 3 创建目录 $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse $HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
tar -zxvf apache-hive-3.1.2-bin.tar.gz 2 添加环境变量 /etc/profile export HIVE_HOME=/opt/apache-hive-3.1.2-bin export PATH=$HIVE_HOME/bin:$PATH source /etc/profile 3 创建目录 $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse $HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
/etc/profile
export HIVE_HOME=/opt/apache-hive-3.1.2-bin export PATH=$HIVE_HOME/bin:$PATH source /etc/profile 3 创建目录 $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse $HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
source /etc/profile 3 创建目录 $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse $HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
$HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse $HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
$HIVE_HOME/bin/schematool -dbType derby -initSchema $HIVE_HOME/bin/hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 5 可能采坑 运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本 beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>
运行hiveserver2的时候,出现下面这个google的nosuchmethod,是guava的jar包冲突导致的,到hive的lib目录下吧guava换成28.0-jre版本
beeline连接报错,root is not allow...这个是hadoop没有进项相关配置。 需要先stop-dfs.sh停止hadoop,然后修改core-site.xml配置,追加如下配置。
<property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property>