0
点赞
收藏
分享

微信扫一扫

文本预处理库spaCy的基本使用(快速入门)


文章目录

  • ​​spaCy 简介​​
  • ​​spaCy 安装​​
  • ​​spaCy的基本使用​​
  • ​​spaCy中的几个重要类​​
  • ​​spaCy的处理过程(Processing Pipeline)​​
  • ​​实战:对中文进行分词和Word Embedding​​

spaCy 简介

spaCy(​​官方网站​​​,​​github链接​​)是一个NLP领域的文本预处理Python库,包括分词(Tokenization)、词性标注(Part-of-speech Tagging, POS Tagging)、依存分析(Dependency Parsing)、词形还原(Lemmatization)、句子边界检测(Sentence Boundary Detection,SBD)、命名实体识别(Named Entity Recognition, NER)等功能。​​具体支持功能参考链接​​。



spaCy的特点:

  • 支持多种语言
  • 使用深度学习模型进行分词等任务
  • 每种语言基本都提供了不同尺寸的模型可供选择,用户可根据实际需求选择。用户可通过​​官网链接​​​或​​github链接​​查询模型。
  • 简单易用


spaCy 安装

pip install spacy -i https://pypi.tuna.tsinghua.edu.cn/simple

若想安装GPU版,可参考​​官方文档​​


spaCy的基本使用

spacy对所有的任务基本都是4步走:

  1. 下载模型
  2. 加载模型
  3. 对句子进行处理
  4. 获取结果

举例,使用spacy进行英文分词:

1.首先通过命令下载模型:

python -m spacy download en_core_web_sm

​en_core_web_sm​​​ 是模型的名称,可以到​​该链接​​搜索模型。

由于在国内,可能会有下载慢的问题,可以到​​github​​​搜索模型,然后使用 ​​pip install some_model.whl​​ 手动安装

2.加载、使用模型和获取结果

import spacy # 导包
# 加载模型
nlp = spacy.load("en_core_web_sm")
# 使用模型,传入句子即可
doc = nlp("Apple is looking at buying U.K. startup for $1 billion")
# 获取分词结果
print([token.text for token in doc])

最终输出为:

['Apple', 'is', 'looking', 'at', 'buying', 'U.K.', 'startup', 'for', '$', '1', 'billion']


spaCy中的几个重要类

在上一节中,有几个关键对象

  1. ​nlp​​​:该对象为​​spacy.Language​​​类(​​官方文档链接​​​)。​​spacy.load​​​方法会返回该类对象。​​nlp("...")​​​本质就是调了​​Language.__call__方法​​
  2. ​doc​​​: 该对象为​​spacy.tokens.Doc​​​(​​官方文档链接​​​),里面包含分词、词性标注、词形还原等结果(具体可参考​​链接​​​)。​​doc​​是一个可迭代对象。
  3. ​token​​​: 该对象为​​spacy.tokens.token.Token​​​(​​官方文档链接​​​),可以通过该对象获取每个词的具体属性(单词、词性等),具体可参考​​链接​​。


spaCy的处理过程(Processing Pipeline)

文本预处理库spaCy的基本使用(快速入门)_python


调用​​nlp(...)​​时会按照上图的顺序执行(先分词,然后进行词性标注等等)。对于不需要的组件,可以选择在加载模型时排除掉:

nlp = spacy.load("en_core_web_sm", exclude=["ner"])

或者禁用掉:

nlp = spacy.load("en_core_web_sm", disable=["tagger", "parser"])

对于禁用,可以在后续想要使用的时候解除禁用:

nlp.enable_pipe("tagger")

所有内置的组件可参考​​链接​​


实战:对中文进行分词和Word Embedding

1.首先到​​官方文档的中文模块​​下找到合适的模型。这里就选择最小的那个吧。

文本预处理库spaCy的基本使用(快速入门)_加载_02


2.下载模型

python -m spacy download zh_core_web_sm

3.写代码

import spacy # 导包
# 加载模型,并排除掉不需要的components
nlp = spacy.load("zh_core_web_sm", exclude=("tagger", "parser", "senter", "attribute_ruler", "ner"))
# 对句子进行处理
doc = nlp("自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。")
# for循环获取每一个token与它对应的向量
for token in doc:
# 这里为了方便展示,只截取5位,但实际该模型将中文词编码成了96维的向量
print(token.text, token.tensor[:5])

在官方提供的模型中,具有​​tok2vec​​这个组件,说明该模型可以对词进行embedding,很方便。最终的输出为:

自然 [-0.16925007 -0.8783153  -1.4360809   0.14205566 -0.76843846]
语言 [ 0.4438781 -0.82981354 -0.8556605 -0.84820974 -1.0326502 ]
处理 [-0.16880168 -0.24469137 0.05714838 -0.8260342 -0.50666815]
是 [ 0.07762825 0.8785285 2.1840482 1.688557 -0.68410844]
... // 略
和 [ 0.6057179 1.4358768 2.142096 -2.1428592 -1.5056412]
方法 [ 0.5175674 -0.57559186 -0.13569726 -0.5193214 2.6756258 ]
。 [-0.40098143 -0.11951387 -0.12609476 -1.9219975 0.7838618 ]


举报

相关推荐

0 条评论