您的位置:首页 > 博客中心 > 数据库 >

spark1.1的部署、sparksql CLI、sparksql-jdbc运用

时间:2022-03-13 23:44

SparkSql实际运用:在spark0.9.x中不支持jdbc操作,spark1.1会加入jdbc支持

gxlsystem.com,布布扣

版本说明:spark-1.1.0+scala-2.10.4+hive-0.12.0

注意:版本不匹配可能出现各种不同的问题,可能出现不能配合工作,或者运算结果不对的情况!
spark1.1的发布正式版:2014/9/11

       b、hive-sit.xml文件比较多,参考hive的安装
注意:需要在hive-site中配置zookeeper,让session保持数据同步,以及配置hiveserver2的一些选项!远程mysql作为数据仓库的配置更是毋庸置疑!


c、需要copy hive的hive-site.xml文件到spark的conf目录下),配置HIVE_CONF_DIR
不知道配置其中一个行不行,我嫌麻烦,就都配置上了,两外hive的lib目录下面需要有mysql的jdbc驱动jar包。

1、启动hive的metastore出错hive-0.12版本部署:

3、启动sparksql的CLI端
bin/spark-sql --master spark://hadoop0:7077 --executor-memory 1g 

gxlsystem.com,布布扣

gxlsystem.com,布布扣

gxlsystem.com,布布扣

4、start-thriftserver.sh 服务启动 

gxlsystem.com,布布扣

.使用jdbc远程客户端登陆查询数据:   

gxlsystem.com,布布扣

.远程成功之后,看启动start-thriftserver.sh 服务的主机发生的响应

gxlsystem.com,布布扣

.jdbc客户端查询数据

gxlsystem.com,布布扣

gxlsystem.com,布布扣

总结:
1、与使用shark时候区别不大,程序完全不用修改,就可以跑在sparksql上面,但是底层的解析变成了spark自己出的,Catalyst解释引擎(SQL)来做!在webui界面可以看 到很大的不同,执行语句! 

gxlsystem.com,布布扣

2、解析sql的时候感觉没有比HiveQL更快,和使用shark基于HiveQL的时候差别不大,可能是我电脑比较烂的原因,也许有更多好的性能优化方案!正在研究中。

3、写jdbc连接sparksql的程序参考:

https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients

热门排行

今日推荐

热门手游