0
我有一个脏文档,其中包含无效的英文单词,数字等 我只想将所有有效的英文单词,然后计算我的列表的比例的字数与有效英文单词的总数。Python NLTK:使用有效的英文单词计算单词和概率列表
例如,如果我的文档中有一句话:
sentence= ['eishgkej he might be a good person. I might consider this.']
我只想"he might be a good person. I might consider this"
计数,计数"might"
。
所以,我得到了答案2/10。
我在考虑使用下面的代码。不过,我需要改变不了线features[word] = 1
但功能的个性化......
all_words = nltk.FreqDist(w.lower() for w in reader.words() if w.lower() not in english_sw)
def document_features(document):
document_words = set(document)
features = {}
for word in word_features:
if word in document_words:
features[word] = 1
else:
features[word]=0
return features
有你试图在字典中查找单词,例如共发现? – 2013-03-05 16:22:06
“english_sw”和“word_features”的定义在哪里? – askewchan 2013-03-05 16:33:56
oh english_sw是“词典”,如WordNet,如拉斯曼斯所说.. – user976856 2013-03-05 16:38:27