如何从 IBM 的数据科学体验中的 pyspark 访问 postgres table?
How do I access a postgres table from pyspark on IBM's Data Science Experience?
这是我的代码:
uname = "xxxxx"
pword = "xxxxx"
dbUrl = "jdbc:postgresql:dbserver"
table = "xxxxx"
jdbcDF = spark.read.format("jdbc").option("url", dbUrl).option("dbtable",table).option("user", uname).option("password", pword).load()
我在添加 postgres 驱动程序 jar (%Addjar -f https://jdbc.postgresql.org/download/postgresql-9.4.1207.jre7.jar) 后收到 "No suitable driver" 错误。是否有在 DSX 上的 pyspark 2.0 中从 postgres 加载数据的工作示例?
只提供驱动选项
option("driver", "org.postgresql.Driver")
请使用 pixiedust 包管理器在 spark 服务级别安装 postgres 驱动程序。
http://datascience.ibm.com/docs/content/analyze-data/Package-Manager.html
由于 Pixiedust 仅在 spark 1.6 上受支持,运行
pixiedust.installPackage("https://jdbc.postgresql.org/download/postgresql-9.4.1207.jre7.jar")
安装完成后,重启内核,然后
切换到 spark 2.0 到 运行 您的 postgres 连接以使用 sparksession 获取 spark 数据帧。
uname = "username"
pword = "xxxxxx"
dbUrl = "jdbc:postgresql://hostname:10635/compose?user="+uname+"&password="+pword
table = "tablename"
Df = spark.read.format('jdbc').options(url=dbUrl,database='compose',dbtable=table).load()
houseDf.take(1)
工作笔记本:-
谢谢,
查尔斯.
这是我的代码:
uname = "xxxxx"
pword = "xxxxx"
dbUrl = "jdbc:postgresql:dbserver"
table = "xxxxx"
jdbcDF = spark.read.format("jdbc").option("url", dbUrl).option("dbtable",table).option("user", uname).option("password", pword).load()
我在添加 postgres 驱动程序 jar (%Addjar -f https://jdbc.postgresql.org/download/postgresql-9.4.1207.jre7.jar) 后收到 "No suitable driver" 错误。是否有在 DSX 上的 pyspark 2.0 中从 postgres 加载数据的工作示例?
只提供驱动选项
option("driver", "org.postgresql.Driver")
请使用 pixiedust 包管理器在 spark 服务级别安装 postgres 驱动程序。
http://datascience.ibm.com/docs/content/analyze-data/Package-Manager.html
由于 Pixiedust 仅在 spark 1.6 上受支持,运行
pixiedust.installPackage("https://jdbc.postgresql.org/download/postgresql-9.4.1207.jre7.jar")
安装完成后,重启内核,然后 切换到 spark 2.0 到 运行 您的 postgres 连接以使用 sparksession 获取 spark 数据帧。
uname = "username"
pword = "xxxxxx"
dbUrl = "jdbc:postgresql://hostname:10635/compose?user="+uname+"&password="+pword
table = "tablename"
Df = spark.read.format('jdbc').options(url=dbUrl,database='compose',dbtable=table).load()
houseDf.take(1)
工作笔记本:-
谢谢, 查尔斯.