CentOS 7
Hive 2.3.6
Spark 2.3.0
Jupyter hub 1.1.0(notebook,lab通用)
Python 3.7
pyspark测试代码
from pyspark import SparkConf, SparkContextfrom pyspark.sql import HiveContextsqlContext = HiveContext(sc)my_dataframe = sqlContext.sql("show databases")my_dataframe.show() 连接 确定pyspark的安装路径通常情况下,pyspark应在anaconda目录下,例如: # su - jupyter1 当前进行测试的用户ps xf #查看spark的进程,发现具体使用的pyspark目录anaconda3/lib/python3.7/site-packages/pyspark/
查看pyspark目录下是否有jars, conf目录,若无,则新建
将hive-site.xml文件放入conf文件夹下,将spark目录中的
mysql-connector-java-5.1.47.jar放入jars文件夹下
进入jupyter hub中,重启自己的服务
重启完成后,通过以下代码进行测试
#import pysparkfrom pyspark.sql import SparkSessionfrom pyspark.sql import Row#创建实例spark = SparkSession.builder.appName("Python Spark SQL Hive integration example").enableHiveSupport().getOrCreate()sc = spark.sparkContext#连接hive,并显示default目录下的表spark.sql("show tables").show()