如何解决关于中文使用quote和coref的问题
除了管道的其余部分之外,我还尝试使用 StanfordCoreNLP 4.2.0 从中文数据中提取引号和核心信息。我已经能够使用以下代码使 tokenize、ssplit、pos、lemma、ner、depparse、kbp 工作:
"java -cp"+ class_path +"*; -Xmx" + memory + "g edu.stanford.nlp.pipeline.StanfordCoreNLP -props StanfordCoreNLP-chinese.properties -threads "+ nthreads + " -annotators tokenize,ssplit,pos,lemma,ner,depparse,kbp" + " -filelist " + file_list + " -outputDirectory "+ output_folder + " -outputFormat xml"
但是当我向注释器添加 coref 和/或引用时,它不输出任何文件(我当前的输出是 xml,但我也尝试了文本)。我试过了:
- tokenize,kbp,quote,coref
- tokenize,quote
- tokenize,coref -coref.algorithm neural
- tokenize、ssplit、pos、lemma、ner、depparse、kbp、coref
而且我已经尝试使用 parse 而不是 depparse。即使只使用 tokenize、ssplit、pos、parse,我也无法让解析注释器工作 - 它不输出任何内容。
关于为什么会发生这种情况的任何建议将不胜感激!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。