中文的stanford segmenter和我的自定义词典的优先级

时间:2016-07-07 04:51:16

标签: machine-learning stanford-nlp

我最近使用stanford segmenter进行中文分词。现在我有一个问题:一些分割结果完全不遵循我的自定义词典,例如“桃子的爱情”切成“桃子”“的”“爱情”,“58同城”切成“58”“同城“等等。 “桃子的爱情”和“58同城”都在我的自定义词典中。我希望“桃子的爱情”和“58同城”是独立的词。     分段器是否具有根据我的自定义词典首先拆分单词的界面?谢谢。

0 个答案:

没有答案
相关问题