发布于2020-01-16 22:16 阅读(1149) 评论(0) 点赞(6) 收藏(0)
我正在使用一种工具生成可用于测试目的的随机数据。请参阅下面的代码部分,该部分使我感到悲伤。当文件大约为400MB时,它比常规解决方案运行得更快,更完美(大约需要20秒),但是,一旦达到500MB,我就会遇到内存不足的错误。我如何才能一次从内存中提取内容并将其写到文件中,而内存中的内容逐渐增加到不超过10 MB。
def createfile(filename,size_kb):
tbl = bytearray(range(256))
numrand = os.urandom(size_kb*1024)
with open(filename,"wb") as fh:
fh.write(numrand.translate(tbl))
createfile("file1.txt",500*1024)
任何帮助将不胜感激
结合Jaco和mhawk并处理一些float转换。这是可以在不到10秒的时间内生成Gbs数据的代码
def createfile(filename,size_kb):
chunksize = 1024
chunks = math.ceil(size_kb / chunksize)
with open(filename,"wb") as fh:
for iter in range(chunks):
numrand = os.urandom(int(size_kb*1024 / chunks))
fh.write(numrand)
numrand = os.urandom(int(size_kb*1024 % chunks))
fh.write(numrand)
在不到8秒的时间内创建1 Gb文件
作者:黑洞官方问答小能手
链接:https://www.pythonheidong.com/blog/article/226458/f04d1662c77335b9a515/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!