如何打印 Wordnet 的全部内容(最好使用 NLTK)?

How can I print the entire contents of Wordnet (preferably with NLTK)?

NLTK 提供打印 Brown(或 Gutenberg)语料库中所有单词的功能。但是等效的功能在 Wordnet 上似乎不起作用。

有没有办法通过 NLTK 做到这一点?如果没有,怎么办?

这个有效:

from nltk.corpus import brown as b
print b.words()

这会导致 AttributeError:

from nltk.corpus import wordnet as wn
print wn.words()

请尝试以下操作:

for word in wn.words():
    print word

这应该可行,因为 wn.words() 实际上是一个生成字符串序列的迭代器,而不是像 b.words 这样的字符串列表。 for 循环使迭代器一次生成一个单词。

对于 wordnet,它是词义资源,因此资源中的元素按词义索引(又名 synsets)。

遍历synsets:

>>> from nltk.corpus import wordnet as wn
>>> for ss in wn.all_synsets():
...     print ss
...     print ss.definition()
...     break
... 
Synset('able.a.01')
(usually followed by `to') having the necessary means or skill or know-how or authority to do something

对于每个同义词集 (sense/concept),都有一个单词列表附加到它上面,称为 lemmas:词条是我们使用的单词的规范 ("root") 形式到我们查字典的时候。

要使用一行代码在 wordnet 中获取完整的引理列表:

>>> lemmas_in_wordnet = set(chain(*[ss.lemma_names() for ss in wn.all_synsets()]))

有趣的是,wn.words() 也会 return 所有 lemma_names:

>>> lemmas_in_words  = set(i for i in wn.words())
>>> len(lemmas_in_wordnet)
148730
>>> len(lemmas_in_words)
147306

但奇怪的是,使用 wn.words() 收集的单词总数存在一些差异。

"Printing the full content" 将 wordnet 转换为文本似乎过于雄心勃勃,因为 wordnet 的结构有点像层次图,同义词集相互关联每个同义词集都有自己的 properties/attributes。这就是为什么 wordnet 文件不简单地保存为单个文本文件的原因。

查看同义词集包含的内容:

>>> first_synset = next(wn.all_synsets())
>>> dir(first_synset)
['__class__', '__delattr__', '__dict__', '__doc__', '__eq__', '__format__', '__ge__', '__getattribute__', '__gt__', '__hash__', '__init__', '__le__', '__lt__', '__module__', '__ne__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__slots__', '__str__', '__subclasshook__', '__unicode__', '__weakref__', '_all_hypernyms', '_definition', '_examples', '_frame_ids', '_hypernyms', '_instance_hypernyms', '_iter_hypernym_lists', '_lemma_names', '_lemma_pointers', '_lemmas', '_lexname', '_max_depth', '_min_depth', '_name', '_needs_root', '_offset', '_pointers', '_pos', '_related', '_shortest_hypernym_paths', '_wordnet_corpus_reader', 'also_sees', 'attributes', 'causes', 'closure', 'common_hypernyms', 'definition', 'entailments', 'examples', 'frame_ids', 'hypernym_distances', 'hypernym_paths', 'hypernyms', 'hyponyms', 'instance_hypernyms', 'instance_hyponyms', 'jcn_similarity', 'lch_similarity', 'lemma_names', 'lemmas', 'lexname', 'lin_similarity', 'lowest_common_hypernyms', 'max_depth', 'member_holonyms', 'member_meronyms', 'min_depth', 'name', 'offset', 'part_holonyms', 'part_meronyms', 'path_similarity', 'pos', 'region_domains', 'res_similarity', 'root_hypernyms', 'shortest_path_distance', 'similar_tos', 'substance_holonyms', 'substance_meronyms', 'topic_domains', 'tree', 'unicode_repr', 'usage_domains', 'verb_groups', 'wup_similarity']

通过这个 howto 将有助于了解如何在 wordnet 中访问您需要的信息:http://www.nltk.org/howto/wordnet.html

这将生成同义词集中所有单词的同义词输出:

from nltk.corpus import wordnet as wn
synonyms=[]
for word in wn.words():
    print (word,end=":")
    for syn in wn.synsets(word):
      for l in syn.lemmas():
        synonyms.append(l.name())
    print(set(synonyms),end="\n")
    synonyms.clear()