从多个文件中删除停用词 (NLTK)
remove stop words (NLTK) from multiple files
我有几个要发送的文本文件(本地文件夹),我想从该文件夹中的每个文件中删除停用词,并将新文件保存在子文件夹中。
一个文件的代码:
import io
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
stop_words = set(stopwords.words('english'))
file1 = open("1_1.txt")
line = file1.read()
words = line.split()
for r in words:
if not r in stop_words:
appendFile = open('subfolder/1_1.txt','a')
appendFile.write(" "+r)
appendFile.close()
我想我必须用 glob 试试?但我似乎并没有理解文档。我也许应该降低()文本?必须有一个超级简单的方法,但我只找到一个句子或一个文件的教程,而不是多个文件。
import io
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
stop_words = set(stopwords.words('english'))
file1 = open("file1.txt")
line = file1.read()
words = word_tokenize(line)
words_witout_stop_words = ["" if word in stop_words else word for word in words]
new_words = " ".join(words_witout_stop_words).strip()
appendFile = open('subfolder/file1.txt','w')
appendFile.write(new_words)
appendFile.close()
现在您可以在 localfolder
的文件名中添加循环,一切顺利。
我有几个要发送的文本文件(本地文件夹),我想从该文件夹中的每个文件中删除停用词,并将新文件保存在子文件夹中。
一个文件的代码:
import io
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
stop_words = set(stopwords.words('english'))
file1 = open("1_1.txt")
line = file1.read()
words = line.split()
for r in words:
if not r in stop_words:
appendFile = open('subfolder/1_1.txt','a')
appendFile.write(" "+r)
appendFile.close()
我想我必须用 glob 试试?但我似乎并没有理解文档。我也许应该降低()文本?必须有一个超级简单的方法,但我只找到一个句子或一个文件的教程,而不是多个文件。
import io
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
stop_words = set(stopwords.words('english'))
file1 = open("file1.txt")
line = file1.read()
words = word_tokenize(line)
words_witout_stop_words = ["" if word in stop_words else word for word in words]
new_words = " ".join(words_witout_stop_words).strip()
appendFile = open('subfolder/file1.txt','w')
appendFile.write(new_words)
appendFile.close()
现在您可以在 localfolder
的文件名中添加循环,一切顺利。