发布于2019-10-14 07:21 阅读(840) 评论(0) 点赞(30) 收藏(5)
我有一个很大的pyspark数据框。所以我想对其子集执行预处理,然后将它们存储到hdfs。稍后,我想阅读所有内容并合并在一起。谢谢。
将DataFrame写入HDFS(Spark 1.6)。
df.write.save('/target/path/', format='parquet', mode='append') ## df is an existing DataFrame object.
一些格式的选项是csv
,parquet
,json
等。
从HDFS(Spark 1.6)读取DataFrame。
sqlContext.read.format('parquet').load('/path/to/file')
格式方法采用参数如parquet
,csv
,json
等。
作者:黑洞官方问答小能手
链接:https://www.pythonheidong.com/blog/article/135168/f891f403db38de45b5e3/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!