百度DDParser的依存分析

2023-12-27 03:48
文章标签 分析 百度 依存 ddparser

本文主要是介绍百度DDParser的依存分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

# 安装

  安装前没注意,安装了paddlepaddle最新版2.0.1,结果引发了一些错误,好在不是严重的问题,修改后依旧可以使用

  1. 安装百度深度学习框架paddlepaddle飞桨(版本2.0.1

python -m pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple

  2. 安装DDParser(版本0.1.2

pip install ddparser

  3.  报错 [链接]

RuntimeError: paddle-ernie requires paddle 1.7+, got 2.0.1

  4. 打开C:\Anaconda3\lib\site-packages\ddparser\ernie\__init__.py,修改如下

'''原来'''
# paddle_version = [int(i) for i in paddle.__version__.split('.')]
# if paddle_version[1] < 7:'''修改后'''
paddle_version = [i for i in paddle.__version__.split('.')]
if 10 * int(paddle_version[0]) +int(paddle_version[1]) < 17:

  5. 初次运行会下载模型,放置在C:\Anaconda3\Lib\site-packages\ddparser\model_files

  6. 运行 ddp.parse("百度是一家高科技公司") 报错

AttributeError: module 'paddle.fluid.layers' has no attribute 'index_select'

7. 报错原因:从1.x版本升级为2.0版本,API有变动 [飞桨框架API映射表]

    打开C:\Anaconda3\lib\site-packages\ddparser\parser\nets\bilstm.py,修改成变动后的API(注:dim参数名改为axis

8. 同样的问题还包括

C:\Anaconda3\lib\site-packages\ddparser\parser\nets\nn.py

AttributeError: module 'paddle.fluid.layers' has no attribute 'arange'

# 说明

  分词器:百度词法分析工具 LAC(实现中文分词、词性标注、专名识别等功能),支持使用其他工具的分词结果进行依存分析

  附录1 pos:词性和专名类别标签集合

  附录2 dep:依存句法分析标注关系集合(DuCTB1.0是百度构建的中文依存句法树库

# 操作

from ddparser import DDParserddp = DDParser()results = ddp.parse("清华大学研究核能的教授有哪些")>>> [{'word': ['清华大学', '研究', '核能', '的', '教授', '有', '哪些'],   'head': [5, 5, 2, 2, 6, 0, 6],  'deprel': ['ATT', 'ATT', 'VOB', 'MT', 'SBV', 'HED', 'VOB']}]

    为了将结果可视化,这里用DataFrame输出,数据格式按照 CoNLL-X format(注:CoNLL-U是CoNLL-X的扩展版

CoNLL-U 格式

① CoNLL 格式是一种偏向于“机读"的形式。在CONLL格式中,每个词语占一行,无值列用下划线'_'代替,列的分隔符为制表符'\t',行的分隔符为换行符'\n';句子与句子之间用空行分隔。

② GitHub Issue:ddp.parse的结果可以直接输出CoNLL-X格式吗 

③ 另外可以试一下paddlehub ,里面对ddparser做了封装,提供可视化表示。

col = ('FROM','LEMMA','CPOSTAG','POSTAG','FEATS','HEAD','DEPREL','PROB','PDEPREL')
row = []for res in results:for i in range(len(res['word'])):data = {"FROM":res['word'][i], "LEMMA":res['word'][i], "HEAD":res['head'][i], "DEPREL":res['deprel'][i]}row.append(data)df = pd.DataFrame(row,columns=col)
df.fillna('_',inplace = True) # 缺省值
df.index = df.index + 1  # 把索引号加1视为ID
print(df)

    Windows可以用DependencyViewer加载CoNLL格式的txt文件,其他可以用web端的conllu.js

    📍 UD提供的可视化工具:Visualisation 

    📍 HanLP进一步封装:Dependency Tree Visualization

# 扩展

    在DDParser()中指定参数prob和use_pos,使用prob可以指定输出概率,使用use_pos可以输出词性标签

from ddparser import DDParser
ddp = DDParser(prob=True, use_pos=True)
ddp.parse(["百度是一家高科技公司"])
>>> [{'word': ['百度', '是', '一家', '高科技', '公司'], 'postag': ['ORG', 'v', 'm', 'n', 'n'], 'head': [2, 0, 5, 5, 2], 'deprel': ['SBV', 'HED', 'ATT', 'ATT', 'VOB'], 'prob': [1.0, 1.0, 1.0, 1.0, 1.0]}]

     在class DDParser中指定参数buckets=True可以在数据集长度不均时处理速度更快

from ddparser import DDParser
ddp = DDParser(buckets=True)

    在已分词情况下(比如希望使用其他工具的分词结果),通过调用parse_seg()方法,可以进行依存句法树分析

ddp = DDParser()
ddp.parse_seg([['百', '度', '是', '一家', '高科技', '公司'], ['他', '送', ' 了', '一本', '书']])
>>> [{'word': ['百', '度', '是', '一家', '高科技', '公司'], 'head': [2, 3, 0, 6, 6, 3], 'deprel': ['ATT', 'SBV', 'HED', 'ATT', 'ATT', 'VOB']}, {'word': ['他', '送', '了', '一本', '书'], 'head': [2, 0, 2, 5, 2], 'deprel': ['SBV', 'HED', 'MT', 'ATT', 'VOB']}]

    更多请查看 GitHub BaiDu DDParser

# 工具学习系列

  • 哈工大LTP的依存分析
  • 百度DDParser的依存分析
  • HanLP的依存分析
  • Spacy的依存分析

词性标注集pos/tag依存句法分析标注集dep语义依存分析标注集sdp
LTP863词性标注集BH-DEPBH-SDP
SpaCy基于Google Universal POS Tag set扩展采用了 ClearNLP 的依存分析标签-
DDParser百度构建的标注集DuCTB-
HanLPCTB、PKU、863、UDSD、UDSemEval16、DM、PAS、PSD
stanford corenlpPenn Chinese Treebank Tag Set(CTB)没找到说明采用的标注集 [链接]-
jieba和 ictclas 兼容的标记法不支持不支持

# 参考

    2020.11-依存句法树baidu-DDParser工具使用

# 其他

1)pandas似乎要在ddparser前导入,否则会报错

import pandas as pd
from ddparser import DDParser

BUG0:AttributeError: type object ‘Callable‘ has no attribute ‘_abc_registry‘  [解决方案]

BUG1:‘WindowsPath‘ object has no attribute ‘read_text‘ [解决方案]

2)百度LAC分词

from LAC import LAC
lac = LAC(mode='seg') # mode选项:lac(默认)与seg,lac包含词性 seg_result = lac.run(text)

这篇关于百度DDParser的依存分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/541804

相关文章

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

MySQL中的表连接原理分析

《MySQL中的表连接原理分析》:本文主要介绍MySQL中的表连接原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、环境3、表连接原理【1】驱动表和被驱动表【2】内连接【3】外连接【4编程】嵌套循环连接【5】join buffer4、总结1、背景

python中Hash使用场景分析

《python中Hash使用场景分析》Python的hash()函数用于获取对象哈希值,常用于字典和集合,不可变类型可哈希,可变类型不可,常见算法包括除法、乘法、平方取中和随机数哈希,各有优缺点,需根... 目录python中的 Hash除法哈希算法乘法哈希算法平方取中法随机数哈希算法小结在Python中,

Java Stream的distinct去重原理分析

《JavaStream的distinct去重原理分析》Javastream中的distinct方法用于去除流中的重复元素,它返回一个包含过滤后唯一元素的新流,该方法会根据元素的hashcode和eq... 目录一、distinct 的基础用法与核心特性二、distinct 的底层实现原理1. 顺序流中的去重

关于MyISAM和InnoDB对比分析

《关于MyISAM和InnoDB对比分析》:本文主要介绍关于MyISAM和InnoDB对比分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录开篇:从交通规则看存储引擎选择理解存储引擎的基本概念技术原理对比1. 事务支持:ACID的守护者2. 锁机制:并发控制的艺

MyBatis Plus 中 update_time 字段自动填充失效的原因分析及解决方案(最新整理)

《MyBatisPlus中update_time字段自动填充失效的原因分析及解决方案(最新整理)》在使用MyBatisPlus时,通常我们会在数据库表中设置create_time和update... 目录前言一、问题现象二、原因分析三、总结:常见原因与解决方法对照表四、推荐写法前言在使用 MyBATis

Python主动抛出异常的各种用法和场景分析

《Python主动抛出异常的各种用法和场景分析》在Python中,我们不仅可以捕获和处理异常,还可以主动抛出异常,也就是以类的方式自定义错误的类型和提示信息,这在编程中非常有用,下面我将详细解释主动抛... 目录一、为什么要主动抛出异常?二、基本语法:raise关键字基本示例三、raise的多种用法1. 抛

github打不开的问题分析及解决

《github打不开的问题分析及解决》:本文主要介绍github打不开的问题分析及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、找到github.com域名解析的ip地址二、找到github.global.ssl.fastly.net网址解析的ip地址三

Mysql的主从同步/复制的原理分析

《Mysql的主从同步/复制的原理分析》:本文主要介绍Mysql的主从同步/复制的原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录为什么要主从同步?mysql主从同步架构有哪些?Mysql主从复制的原理/整体流程级联复制架构为什么好?Mysql主从复制注意

java -jar命令运行 jar包时运行外部依赖jar包的场景分析

《java-jar命令运行jar包时运行外部依赖jar包的场景分析》:本文主要介绍java-jar命令运行jar包时运行外部依赖jar包的场景分析,本文给大家介绍的非常详细,对大家的学习或工作... 目录Java -jar命令运行 jar包时如何运行外部依赖jar包场景:解决:方法一、启动参数添加: -Xb