Python生成千万行的浮点数文本文件 测试numpy运算性能

生成千万行的浮点数文本文件,浮点数范围从0到1之间,Python代码:

from random import random
from array import array
with open('/Users/test/floats-10M-lines.txt', 'w') as f:
    l = [str(random()) for i in range(10**7)]
    f.write('\n'.join(l))

以上代码用Python3.5运行,在本机(i5的mbp)运行需要13、14秒。

生成的文本文件floats-10M-lines.txt大小是192701137字节,约192.7MB。

用numpy加载文本,简单测试加减乘除的性能。

perf_counter是Python3的计时器模块time下入精度和性能都比较高的计时器。(Python 3.3 及更新的版本中都有这个库)

用这个计时器来估算性能。

测试代码:

import numpy
from time import perf_counter as pc

t_load = pc()
floats = numpy.loadtxt('/Users/test/floats-10M-lines.txt')
print("load data time:", pc() - t_load)

print(floats[-3:])  # 查看最后三个数

t_add = pc()
floats += .5
print("add time:", pc() - t_add)

print(floats[-3:])

t_minus = pc()
floats -= .4
print("minus time:", pc() - t_minus)

print(floats[-3:])

t_mul = pc()
floats *= 2.79
print("multiply time:", pc() - t_mul)

print(floats[-3:])

t_div = pc()
floats /= 3.52
print("division time:", pc() - t_div)

print(floats[-3:])


t_save = pc()
# 将运算后的结果floats数组存入后缀为.npy的二进制文件
numpy.save('/Users/test/floats-10M', floats)
print("save data time:", pc() - t_save)


t_load_again = pc()
floats2 = numpy.load('/Users/test/floats-10M.npy', 'r+')
print("load data again time:", pc() - t_load_again)

print(floats2[-3:])

numpy.load 方法利用了一种叫作内存映射的机制,它让我们在内存不足的情况下仍然可以对数组做切片。

输出结果:

load data time: 65.7026106659323
[ 0.96038447  0.99720327  0.39896402]

add time: 0.017584401881322265
[ 1.46038447  1.49720327  0.89896402]

minus time: 0.0120230030734092
[ 1.06038447  1.09720327  0.49896402]

multiply time: 0.008878643857315183
[ 2.95847266  3.06119711  1.39210962]

division time: 0.01236245408654213
[ 0.84047519  0.86965827  0.39548569]

save data time: 0.07357809785753489

load data again time: 0.11263397801667452

[ 0.84047519  0.86965827  0.39548569]

[Finished in 66.6s]

结果分析:

numpy.loadtxt加载文本文件生成数组并不快,1000万行,192.7M的文件load时间超过1分钟(65.7秒),相比之下代码生成文本文件的时间是13、14秒,大概是5倍。慢的原因是:从文本文件里读取时,会使用内置的 float 方法把每一行文字转换成浮点数。

numpy数组的加减乘除是很高效的,1000万个浮点数的加减乘除分别都在18毫秒内完成了。

numpy数组保存为二进制文件效率很高,只需要73毫秒。二进制文件大小为80M(一个float数字8字节,1000万个)。

把二进制文件load进来效率也很高,只需要112毫秒。相同的行数,load文本文件的时间是65秒,大概是load二进制文件的580倍。

总结:

  • 二进制文件的读取比文本文件的读取高效得多,占用内存也小得多。
  • numpy运算的高性能可见一斑。