Python 计算目录及其所有子目录中的文件数
Python count files in a directory and all its subdirectories
我正在尝试计算文件夹及其所有子文件夹中的所有文件
例如,如果我的文件夹如下所示:
file1.txt
subfolder1/
├── file2.txt
├── subfolder2/
│ ├── file3.txt
│ ├── file4.txt
│ └── subfolder3/
│ └── file5.txt
└── file6.txt
file7.txt
我想要7号。
我首先尝试的是一个递归函数,它计算所有文件并为每个文件夹调用自身
def get_file_count(directory: str) -> int:
count = 0
for filename in os.listdir(directory):
file = (os.path.join(directory, filename))
if os.path.isfile(file):
count += 1
elif os.path.isdir(file):
count += get_file_count(file)
return count
这种方法可行,但对于大目录来说会花费很多时间。
我还记得 this post,它显示了一种使用 win32com 计算文件夹总大小的快速方法,我想知道这个库是否也提供了一种方法来完成我正在寻找的事情。
但是经过搜索,我只找到了这个
fso = com.Dispatch("Scripting.FileSystemObject")
folder = fso.GetFolder(".")
size = folder.Files.Count
但这只是 returns 目标文件夹(而不是其子文件夹)中的文件数
那么,你知道python中是否有一个最优函数,即returns一个文件夹及其所有子文件夹中的文件数吗?
我用了os.walk()
这是我的示例,希望对您有所帮助
def file_dir():
directories = []
res = {}
cwd = os.getcwd()
for root, dirs, files in os.walk(cwd):
for file in files:
if file.endswith(".tsv"):
directories.append(os.path.join(root, file))
res['dir'] = directories
return res
IIUC,你可以做到
sum(len(files) for _, _, files in os.walk('path/to/folder'))
或者,为了避免 len
以获得更好的性能:
sum(1 for _, _, files in os.walk('folder_test') for f in files)
你也可以直接使用命令:
find DIR_NAME -type f | wc -l
这是returns所有文件的数量
使用 os.system()
这可以从 python.
完成
另一种使用库 os
和 Path
的解决方案:
from pathlib import Path
from os.path import isfile
len([x for x in Path('./dir1').rglob('*') if isfile(x)])
正确的方法是像其他人指出的那样使用os.walk
,但要给出另一个尽可能类似于你原来的解决方案:
您可以使用 os.scandir
来避免构建整个列表的成本,它应该快得多:
def get_file_count(directory: str) -> int:
count = 0
for entry in os.scandir(directory):
if entry.is_file():
count += 1
elif entry.is_dir():
count += get_file_count(os.path.join(directory, entry.name))
return count
此代码将显示来自指定根目录的所有目录条目的计数(例如,普通文件、符号链接)。
包括时间和测试中使用的实际路径名:
from glob import glob, escape
import os
import time
def get_file_count(directory: str) -> int:
count = 0
for filename in glob(os.path.join(escape(directory), '*')):
if os.path.isdir(filename):
count += get_file_count(filename)
else:
count += 1
return count
start = time.perf_counter()
count = get_file_count('/Volumes/G-DRIVE Thunderbolt 3')
end = time.perf_counter()
print(count)
print(f'{end-start:.2f}s')
输出:
166231
2.38s
我正在尝试计算文件夹及其所有子文件夹中的所有文件 例如,如果我的文件夹如下所示:
file1.txt
subfolder1/
├── file2.txt
├── subfolder2/
│ ├── file3.txt
│ ├── file4.txt
│ └── subfolder3/
│ └── file5.txt
└── file6.txt
file7.txt
我想要7号。
我首先尝试的是一个递归函数,它计算所有文件并为每个文件夹调用自身
def get_file_count(directory: str) -> int:
count = 0
for filename in os.listdir(directory):
file = (os.path.join(directory, filename))
if os.path.isfile(file):
count += 1
elif os.path.isdir(file):
count += get_file_count(file)
return count
这种方法可行,但对于大目录来说会花费很多时间。
我还记得 this post,它显示了一种使用 win32com 计算文件夹总大小的快速方法,我想知道这个库是否也提供了一种方法来完成我正在寻找的事情。 但是经过搜索,我只找到了这个
fso = com.Dispatch("Scripting.FileSystemObject")
folder = fso.GetFolder(".")
size = folder.Files.Count
但这只是 returns 目标文件夹(而不是其子文件夹)中的文件数
那么,你知道python中是否有一个最优函数,即returns一个文件夹及其所有子文件夹中的文件数吗?
我用了os.walk()
这是我的示例,希望对您有所帮助
def file_dir():
directories = []
res = {}
cwd = os.getcwd()
for root, dirs, files in os.walk(cwd):
for file in files:
if file.endswith(".tsv"):
directories.append(os.path.join(root, file))
res['dir'] = directories
return res
IIUC,你可以做到
sum(len(files) for _, _, files in os.walk('path/to/folder'))
或者,为了避免 len
以获得更好的性能:
sum(1 for _, _, files in os.walk('folder_test') for f in files)
你也可以直接使用命令:
find DIR_NAME -type f | wc -l
这是returns所有文件的数量
使用 os.system()
这可以从 python.
另一种使用库 os
和 Path
的解决方案:
from pathlib import Path
from os.path import isfile
len([x for x in Path('./dir1').rglob('*') if isfile(x)])
正确的方法是像其他人指出的那样使用os.walk
,但要给出另一个尽可能类似于你原来的解决方案:
您可以使用 os.scandir
来避免构建整个列表的成本,它应该快得多:
def get_file_count(directory: str) -> int:
count = 0
for entry in os.scandir(directory):
if entry.is_file():
count += 1
elif entry.is_dir():
count += get_file_count(os.path.join(directory, entry.name))
return count
此代码将显示来自指定根目录的所有目录条目的计数(例如,普通文件、符号链接)。
包括时间和测试中使用的实际路径名:
from glob import glob, escape
import os
import time
def get_file_count(directory: str) -> int:
count = 0
for filename in glob(os.path.join(escape(directory), '*')):
if os.path.isdir(filename):
count += get_file_count(filename)
else:
count += 1
return count
start = time.perf_counter()
count = get_file_count('/Volumes/G-DRIVE Thunderbolt 3')
end = time.perf_counter()
print(count)
print(f'{end-start:.2f}s')
输出:
166231
2.38s