RserveException : eval failed when running R on Databricks
dudu
阅读:137
2025-02-15 21:57:57
评论:0
我对 R 没有任何经验,我试图在 Databricks 笔记本中与 Spark 一起使用它来分析一些数据。
我遵循了这里的教程 http://people.apache.org/~pwendell/spark-releases/latest/sparkr.html
到目前为止,我有这个代码:
sparkR.stop()
sc <- sparkR.init()
sqlContext <- sparkRSQL.init(sc)
df <- createDataFrame(sqlContext, '/FileStore/tables/boanf7gu1466936449434/german.data')
在最后一行我收到错误:
RserveException: eval failed, request status: error code: 127
org.rosuda.REngine.Rserve.RserveException: eval failed, request status: error code: 127
at org.rosuda.REngine.Rserve.RConnection.eval(RConnection.java:234)
at com.databricks.backend.daemon.driver.RShell.setJobGroup(RShell.scala:202)
at com.databricks.backend.daemon.driver.RDriverLocal.setJobGroup(RDriverLocal.scala:150)
at com.databricks.backend.daemon.driver.DriverLocal.execute(DriverLocal.scala:125)
at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
at scala.util.Try$.apply(Try.scala:161)
at com.databricks.backend.daemon.driver.DriverWrapper.executeCommand(DriverWrapper.scala:480)
at com.databricks.backend.daemon.driver.DriverWrapper.runInner(DriverWrapper.scala:381)
at com.databricks.backend.daemon.driver.DriverWrapper.run(DriverWrapper.scala:212)
at java.lang.Thread.run(Thread.java:745)
这是什么触发?
请您参考如下方法:
在 DataBricks 中,已经有一个 spark 实例在运行。所以,你不想阻止它。
sparkR.stop() #This line of your code stops the existing spark instance.
sc <- sparkR.init() #You also don't need this to start a spark instance because you already have one.
sqlContext <- sparkRSQL.init(sc)
由于您已经有一个实例,因此您可以直接使用以下内容创建 df。
spark_table <- SparkR::read.df(path = '/FileStore/tables/boanf7gu1466936449434/german.data', schema = NULL, na.strings = "NA")
r_table <- SparkR::as.data.frame(spark_table)
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。