中文分句python程序
在学习NLP过程中,发现很难找到现有用于中文分句的python库或者项目。使用LTP分句功能后发现存在中文引号的情况下,分句结果并不好。分句没有考虑到双引号当中的句子应该是一句话。对于汉语使用过程中例如:“……”xx说,“……”;“……”xx说。;xx说:“……”等话语引用的情况下,双引号内容应当是宾语部分,在LTP分词中被直接分割。对此,希望能自己构建一个项目,对这类复杂的中文分句情况进行改进。
由于存在歧义的情况,尚未做到将上述三种复杂引号使用场景按预期进行分句。现已做到将中文引号内部内容单独成句以及针对一般的情况的中文分句。
希望能通过这个项目吸引各路大牛分享解决我发现的问题的一些看法或者代码,并且希望更多人关注到NLP问题里中文的特性与独有问题。