一.中文库下载
国内可以使用镜像https://hf-mirror.com/下载。地址:https://hf-mirror.com/spacy/zh_core_web_md/tree/main,中文所以下载的是zh_core_web_md-any-py3-none-any.whl。然后使用pip install安装。
二.简单测试
import spacy from spacy.language import Language # 自定义管道组件 @Language.component("custom_component") def custom_component(doc): print("自定义管道组件:",doc) print(type(doc)) return doc # 下载并加载中文模型 # 可以从 https://github.com/howl-anderson/spacy_model 获取中文模型 nlp = spacy.load('zh_core_web_md') nlp.add_pipe("custom_component",last=True) # 分词并打印实体 text = "中国是一个伟大的国家,它拥有庞大的人口和丰富的文化。" doc = nlp(text) tokens=[token.text for token in doc] print("分词结果:",tokens) pos_tags=[(token.text,token.pos_)for token in doc] print("词性标注结果:",pos_tags) entities=[(ent.text,ent.label_)for ent in doc.ents] print("实体识别结果:",entities) dependency_tree=[(token.text,token.dep_,token.head.text)for token in doc] print("依赖关系分析结果:",dependency_tree)
三、运行结果
标签:入门,doc,component,token,text,print,spacy From: https://www.cnblogs.com/5ishare/p/18125525