python处理上万文件速度太慢

python处理上万文件速度太慢

刚刚学的python,所以不是很懂应该怎么优化

代码如下:

list = os.listdir(rootdir) 

for i in range(0,len(list)):

path = os.path.join(rootdir,list[i])

fileFont = os.path.splitext(path)[0]

fileDate = fileFont.split('.')

fileDate = fileDate[len(fileDate)-1]

# 获取时间大于 20130101

totals = totals.merge(right=num, how="outer", on="date", sort=True) 的文件

fileList.append(fileDate)

with open(path, 'r') as f:

# print(len(f.readlines()))

rowNum = len(f.readlines())

rowList.append(rowNum)

f.close()

这里需要循环十几个文件夹,每个文件夹里有三千多个.csv文件。按照这么写的话差不多一个小时才遍历完.
应该怎么做才可以提高速度呢?


回答:

一般思路是多线程+异步打开每个文件
建议搜一下这两方面python的相关知识

以上是 python处理上万文件速度太慢 的全部内容, 来源链接: utcz.com/p/937659.html

回到顶部