如何解决如何注册用R编写的udf函数以在SparkSQL中使用它
下午好。
我通常使用PySpark转换数据,Python中的UDF对我来说很清楚。 我定义一个函数:
def my_func1(x,y):
.....
return some_stuff
然后我通过注册
spark.udf.register("my_func1",my_func1,schema)
,然后在SQL中使用int
spark.sql("select a,b,my_func(c,d) from my_table")
我试图为用R编写的函数找到相同的方法,但未成功。 有人可以给个建议吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。