博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark2.3.0 配置spark sql 操作hive
阅读量:6721 次
发布时间:2019-06-25

本文共 1054 字,大约阅读时间需要 3 分钟。

spark可以通过读取hive的元数据来兼容hive,读取hive的表数据,然后在spark引擎中进行sql统计分析,从而,通过spark sql与hive结合实现数据分析将成为一种最佳实践。配置步骤如下:

 1、启动hive的元数据服务

hive可以通过服务的形式对外提供元数据读写操作,通过简单的配置即可

  
编辑 $HIVE_HOME/conf/hive-site.xml,增加如下内容
:

<property>

<name>hive.metastore.uris</name>

<value>thrift:// master:9083</value>

</property>


  
启动hive metastore

[root@master apache-hive-1.2.2-bin]# ./bin/hive --service metastore  1>/dev/null  2>&1  &

  查看 metastore:

[root@master apache-hive-1.2.2-bin]# jobs
[1]+  Running                 ./bin/hive --service metastore > /dev/null 2>&1 &

 

2、spark配置

    将hive的配置文件拷贝给spark

将 $HIVE_HOME/conf/hive-site.xml copy $SPARK_HOME/conf/

[root@master apache-hive-1.2.2-bin]# cp ./conf/hive-site.xml /usr/local/spark-2.3.0/conf/

 

   
将mysql的jdbc驱动包拷贝给spark

将 $HIVE_HOME/lib/mysql-connector-java-5.1.12.jar copy或者软链到$SPARK_HOME/lib/

[root@master lib]# cp ./mysql-connector-5.1.8.jar /usr/local/spark-2.3.0/jars/

 

3、启动spark-sql的shell交互界面

   [root@master lib]# spark-sql  

 4、在spark sql 中执行hive操作

 

 

spark-sql> show databases;

 

2018-06-27 09:52:08 INFO  CodeGenerator:54 - Code generated in 461.952527 ms
default
hive

 

 

转载地址:http://drcmo.baihongyu.com/

你可能感兴趣的文章
自动化1
查看>>
Jenkins 2.32.3参数化构建maven项目
查看>>
使用Oracle存储过程批量生成测试数据
查看>>
正则表达式 - ×××
查看>>
Target runtime Apache Tomcat v6.0 is not defined
查看>>
.net密码找回
查看>>
安装mysql遇到的问题
查看>>
我的友情链接
查看>>
大道至简--GoEasy推送
查看>>
免费邮箱服务器(收藏)
查看>>
org.aspectj.lang.JoinPoint-中文简要API
查看>>
数据库内存使用
查看>>
shell-9-函数(tc与限速实例)
查看>>
[战略]Fans未来战略--第4篇--2012年的IT技术学习规划
查看>>
Linux入门之一:LInux系统环境及命令使用
查看>>
android 获得已安装应用
查看>>
REAPER Audio May Be Coming To Linux(专业的音频工作站)
查看>>
jquery 定位
查看>>
幻日奇观 黑龙江现“三个太阳”
查看>>
“可视化”人工神经网络揭示细胞内部活动
查看>>