pyspark调mysqljdbc读取了参数出来,待续

编程

from __future__ import print_function
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext

import os, time,sys


def main(argv):
    print(argv[1])
    print(argv[2])
    print(argv[3])
    spark = SparkSession.builder
      .appName("test")
      .master("local")
      .getOrCreate()
      
    sc = spark.sparkContext
        
    sqlContext=SQLContext(sc)
    jdbcDf=sqlContext.read.format("jdbc").options(url="jdbc:mysql://ip:3306/test",
    driver="com.mysql.jdbc.Driver",
    dbtable="(SELECT * FROM test  LIMIT 5) tmp",
    user="test",password="1111123").load()
    #print(jdbcDf.select("job_name").show(2))
    print(jdbcDf)
    print("hjzFinish")
    

if __name__ == "__main__":
    # 设置spark_home环境变量,路径不能有中文、空格
    #os.environ["SPARK_HOME"] = "E:/data_page/spark-2.0.2-bin-hadoop2.7"
    # 运行在本地(local),2个线程,一行写不完换行时用“”
    main(sys.argv) 

以上是 pyspark调mysqljdbc读取了参数出来,待续 的全部内容, 来源链接: utcz.com/z/512902.html

回到顶部