按部首组织的汉字索引。斯坦福核心 nlp

an index of chinese characters organized by component radicals. stanford core nlp

我想使用 here 中描述的那个,它是 Stanford CoreNLP 的一部分,因为它看起来很有前途,但我不明白它是如何工作的。我下载了整个 CoreNLP,但是找不到 README 文档中提到的 .jar 文件,即 chinese_map_utils.jar。你认为他们希望我根据他们在那里列出的组件代码自己创建这样一个 .jar 文件吗?这似乎有点荒谬。

基本上我想要的是一个将汉字分解成它们的组成笔划或部首的系统(我知道不是所有的部分都被称为部首,请原谅我的迂腐),所以如果你知道一个替代方案可行的解决方案,那么我很乐意听到它。

无需使用此 chinese_map_utils.jar — 如果您的 class 路径上有 CoreNLP,那应该就足够了。

您可能对 class RadicalMap 感兴趣。执行指令包含在 class 的源代码中(参见 main 方法)。