Skip to content
hankcs edited this page Apr 21, 2019 · 13 revisions

新闻

2018年08月25日

随v1.6.8发布了在一亿字的大型综合语料库上训练的分词模型,该语料是已知范围内全世界最大的中文分词语料库。在HanLP的在线演示中使用已久,现在无偿公开。语料规模决定实际效果,希望如此大规模的语料库能够引起人们对语料库建设工作的重视。

文档

本wiki将面向高级用户,提供更多HanLP的细节。对于希望拓展功能的用户,请优先以子类的形式进行,而不推荐修改类库。如有任何接口设计的确需要修改,请及时提交PR。更多细节,请查阅右侧栏的目录——

You can’t perform that action at this time.