加载自定义NER模型Stanford CoreNLP
我已经创建了自己的NER模型与斯坦福大学“斯坦福大学NER”软件,并按照这些方向。
我知道CoreNLP按照以下顺序开箱即用地加载了三个NER模型:
edu/stanford/nlp/models/ner/english.all.3class.distsim.crf.ser.gz
edu/stanford/nlp/models/ner/english.muc.7class.distsim.crf.ser.gz
edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz
我现在想将我的NER模型包括在上面的列表中,并先用NER模型标记文本。
我已经找到了关于该主题的两个以前问题,它们是“使用自定义NER模型的Stanford OpenIE[”和“为什么Stanford CoreNLP
NER注释器默认加载3个模型?”
这两个职位都有很好的答案。答案的一般信息是您必须编辑文件中的代码。
从这篇文章中说可以编辑,corenlpserver.sh
但在Stanford CoreNLP下载的软件中找不到该文件。谁能指出我该文件的位置?
这篇文章说,我可以使用参数-ner.model
专门调用要加载的NER模型。我将此参数添加到初始服务器命令(java -mx4g -cp "*"
edu.stanford.nlp.pipeline.StanfordCoreNLPServer -port 9000 -timeout 15000
-ner.model *modlefilepathhere*)中。由于服务器仍加载了所有三个模型,因此无法正常工作。
它还指出您必须更改一些Java代码,尽管它没有明确指出进行更改的位置。
我是否需要props.put("ner.model",
"model_path1,model_path2");在CoreNLP软件中修改此代码或将其添加到特定的类文件中?
从我的研究看来,我需要添加/修改一些代码来调用我独特的NER模型。上面概述了这些“编辑”,并且此信息已从其他StackOverflow问题中提取。我需要专门编辑哪些文件?这些文件到底在哪里(例如edu
/ Stanford / nlp / …等)?
我的系统在本地服务器上运行,并且我正在使用API pycorenlp来打开到我的本地服务器的管道并向其发出请求。python /
pycorenlp代码的两个关键行是:
nlp = StanfordCoreNLP('http://localhost:9000')
output = nlp.annotate(evalList[line], properties={'annotators': 'ner, openie','outputFormat': 'json', 'openie.triple.strict':'True', 'openie.max_entailments_per_clause':'1'})
我 不 认为这会影响我打电话给我的独特NER模型的能力,但我想提出,以获得最佳的答案,我可以在所有情境数据。
回答:
如果要自定义服务器使用的管道,请创建一个名为的文件server.properties
(也可以根据需要调用它)。
然后-serverProperties server.properties
,在使用java命令启动服务器时添加此选项。
在该.properties文件中,您应该包括 ner.model = /path/to/custom_model.ser.gz
通常,您可以在.properties文件中自定义服务器将使用的管道。例如,您还可以在其中用行annotators =
tokenize,ssplit,pos,lemma,ner,parse等设置注释器列表。
更新以解决评论:
在您的Java命令中,您不需要
-ner.model /path/to/custom_model.ser.gz
.properties文件中可以包含无限数量的属性设置,每行一个设置(空白行将被忽略,#号行被忽略)
当您运行Java命令时,默认情况下它将在您正在运行该命令的目录中查找文件。因此,如果您的命令包含
-serverProperties server.properties
该命令,则将假定该文件server.properties
位于该命令运行所在的目录中。如果提供绝对路径,则-serverProperties /path/to/server.properties
可以从任何地方运行命令。因此,为了清楚起见,您可以使用以下命令启动服务器(在包含所有jar的文件夹中运行):
java -Xmx8g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer -port
9000 -timeout 15000 -serverProperties server.properties
并且server.properties
应该是这样的文件:
ner.model = /path/to/custom_model.ser.gz
server.properties
可能看起来像这样:
annotators = tokenize,ssplit,pos,lemma,ner,depparsener.model = /path/to/custom_model.ser.gz
parse.maxlen = 100
仅作为示例…您应将所有设置 server.properties
您似乎正在使用我不太了解的pycorenlp库。另外2个选项是我在该答案或stanza
我们制作的程序包中显示的一些代码。上面那个答案的细节。
以上是 加载自定义NER模型Stanford CoreNLP 的全部内容, 来源链接: utcz.com/qa/417037.html