深度学习每周学习总结N1(one-hot 编码案例)

2024-06-13 08:28

本文主要是介绍深度学习每周学习总结N1(one-hot 编码案例),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
  • 🍖 原作者:K同学啊 | 接辅导、项目定制

数据链接
提取码:c949

–来自百度网盘超级会员V5的分享

目录

    • 总结:
    • 1. 中文文本One-Hot编码示例
      • 代码解析
    • 2.直接使用词袋模型(CountVectorizer)实现独热编码

总结:

之前有学习过文本预处理的环节,对文本处理的主要方式有以下三种:

1:词袋模型(one-hot编码)

2:TF-IDF

3:Word2Vec(词向量)

详细介绍及中英文分词详见pytorch文本分类(一):文本预处理

本期主要介绍one-hot编码示例流程(词汇表 -> 文本序列 -> One-hot编码)手撕模式 + 直接调用现成的词袋模型(CountVectorizer)

1. 中文文本One-Hot编码示例

import torch
import torch.nn.functional as F
import jieba# 示例中文文本
texts = ['你好,最近怎么样?','我过的很好,谢谢!','再见。']# 使用结巴分词进行分词
tokenized_texts = [list(jieba.cut(text)) for text in texts] # [['你好', ',', '最近', '怎么样', '?'], ['我', '过', '的', '很好', ',', '谢谢', '!'], ['再见', '。']]# 构建词汇表
word_index = {}
index_word = {}
# 将所有分词结果中的单词去重,建立 word_index 和 index_word 两个字典,分别存储单词到索引和索引到单词的映射
for i,word in enumerate(set(word for text in tokenized_texts for word in text)):word_index[word] = iindex_word[i] = word# 将文本转化为整数序列
sequences = [[word_index[word] for word in text] for text in tokenized_texts] # 获取词汇表大小
vocab_size = len(word_index)# 将整数序列转化为ont-hot编码
one_hot_results = torch.zeros(len(texts),vocab_size)
for i,seq in enumerate(sequences):one_hot_results[i,seq] = 1# 打印结果
print("词汇表: \n",word_index)
print("文本: \n",texts)
print("分词结果: \n",tokenized_texts)
print("文本序列: \n",sequences)
print("One-Hot编码: \n",one_hot_results)
词汇表: {'。': 0, '的': 1, '谢谢': 2, '你好': 3, '再见': 4, '我过': 5, '!': 6, '很': 7, '?': 8, '好': 9, '怎么样': 10, '最近': 11, ',': 12}
文本: ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
分词结果: [['你好', ',', '最近', '怎么样', '?'], ['我过', '的', '很', '好', ',', '谢谢', '!'], ['再见', '。']]
文本序列: [[3, 12, 11, 10, 8], [5, 1, 7, 9, 12, 2, 6], [4, 0]]
One-Hot编码: tensor([[0., 0., 0., 1., 0., 0., 0., 0., 1., 0., 1., 1., 1.],[0., 1., 1., 0., 0., 1., 1., 1., 0., 1., 0., 0., 1.],[1., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0.]])

让我们逐步解析这段代码,并说明每一步操作后数据的结构和状态。

代码解析

  1. 导入必要的库

    import torch
    import torch.nn.functional as F
    import jieba
    
  2. 示例中文文本

    texts = ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
    

    texts 是一个包含三条中文文本的列表。

  3. 使用结巴分词进行分词

    tokenized_texts = [list(jieba.cut(text)) for text in texts]
    

    操作:对每条文本进行分词,结果存储在 tokenized_texts 列表中。

    结果

    tokenized_texts = [['你好', ',', '最近', '怎么样', '?'], ['我', '过', '的', '很好', ',', '谢谢', '!'], ['再见', '。']]
    
  4. 构建词汇表

    word_index = {}
    index_word = {}
    for i, word in enumerate(set(word for text in tokenized_texts for word in text)):word_index[word] = iindex_word[i] = word
    

    操作:将所有分词结果中的单词去重,建立 word_indexindex_word 两个字典,分别存储单词到索引和索引到单词的映射。

    结果

    word_index = {'最近': 0, '谢谢': 1, '?': 2, '的': 3, ',': 4, '怎么样': 5, '很好': 6, '我': 7, '再见': 8, '你好': 9, '过': 10, '。': 11, '!': 12}
    index_word = {0: '最近', 1: '谢谢', 2: '?', 3: '的', 4: ',', 5: '怎么样', 6: '很好', 7: '我', 8: '再见', 9: '你好', 10: '过', 11: '。', 12: '!'}
    
  5. 将文本转化为整数序列

    sequences = [[word_index[word] for word in text] for text in tokenized_texts]
    

    操作:将每条分词后的文本转化为对应的整数序列。

    结果

    sequences = [[9, 4, 0, 5, 2], [7, 10, 3, 6, 4, 1, 12], [8, 11]]
    
  6. 获取词汇表大小

    vocab_size = len(word_index)
    

    操作:计算词汇表的大小。

    结果

    vocab_size = 13
    
  7. 将整数序列转化为one-hot编码

    one_hot_results = torch.zeros(len(texts), vocab_size)
    for i, seq in enumerate(sequences):one_hot_results[i, seq] = 1
    

    操作:初始化一个全零的二维张量 one_hot_results,然后根据每条文本的整数序列,将对应位置置为1,生成one-hot编码。

    结果

    tensor([[0., 0., 1., 0., 1., 1., 0., 0., 0., 1., 0., 0., 0.],[0., 1., 0., 1., 1., 0., 1., 1., 0., 0., 1., 0., 1.],[0., 0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 1., 0.]])
    
  8. 打印结果

    print("词汇表: \n", word_index)
    print("文本: \n", texts)
    print("分词结果: \n", tokenized_texts)
    print("文本序列: \n", sequences)
    print("One-Hot编码: \n", one_hot_results)
    

    操作:打印出词汇表、原文本、分词结果、文本序列和one-hot编码。

  9. 总结
    这段代码的核心功能是将中文文本分词后,生成相应的整数序列,再转换为one-hot编码。每一步操作后数据的状态如下:

  • texts:包含原始文本的列表。
  • tokenized_texts:包含分词后的文本列表。
  • word_indexindex_word:分别存储单词到索引和索引到单词的映射字典。
  • sequences:包含整数序列的列表。
  • one_hot_results:包含one-hot编码的二维张量。

2.直接使用词袋模型(CountVectorizer)实现独热编码

import torch
import torch.nn.functional as F
import jieba
from sklearn.feature_extraction.text import CountVectorizer
import re# 示例中文文本
texts = ['你好,最近怎么样?','我过的很好,谢谢!','再见。']# 使用结巴分词进行分词,并移除标点符号 
tokenized_texts = [' '.join(re.findall(r'\w+', ' '.join(jieba.cut(text)))) for text in texts] # 结果:['你好 最近 怎么样', '我 过 的 很好 谢谢', '再见']"""
注意此处代码和上述代码不一致的原因是:CountVectorizer 期望接收的输入是一个字符串列表,但我们提供了一个分词后的列表列表。
为了使用 CountVectorizer 并确保标点符号被移除,我们需要确保输入是字符串而不是分词后的列表。
"""# cv = CountVectorizer() # 创建词袋数据结构
cv = CountVectorizer(token_pattern=r"(?u)\b[\u4e00-\u9fa5a-zA-Z]+\b")  # 仅匹配中文字符和英文单词cv_fit = cv.fit_transform(tokenized_texts)  # CountVectorizer 用于将文本转换为词袋模型。fit_transform 方法同时完成拟合模型和将文本转化为特征向量的操作。# 将词频矩阵转换为 tensor
tensor_result = torch.from_numpy(cv_fit.toarray()).float()print("文本: \n",texts)
print("分词结果: \n",tokenized_texts)
print("列表形式的字典: \n",cv.get_feature_names_out())    #列表形式呈现文章生成的词典,和鲸线上需要使用get_feature_names()
print("字典: \n",cv.vocabulary_)       #字典形式呈现,key:词,value:词id
print("token计数矩阵:\n",cv_fit.toarray()) #.toarray() 将结果转化为稀疏矩阵 一行对应着一句话,一列对应一个词,列index对应词id
print("词频矩阵的 tensor 表示:\n", tensor_result)
文本: ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
分词结果: ['你好 最近 怎么样', '我过 的 很 好 谢谢', '再见']
列表形式的字典: ['你好' '再见' '好' '很' '怎么样' '我过' '最近' '的' '谢谢']
字典: {'你好': 0, '最近': 6, '怎么样': 4, '我过': 5, '的': 7, '很': 3, '好': 2, '谢谢': 8, '再见': 1}
token计数矩阵:[[1 0 0 0 1 0 1 0 0][0 0 1 1 0 1 0 1 1][0 1 0 0 0 0 0 0 0]]
词频矩阵的 tensor 表示:tensor([[1., 0., 0., 0., 1., 0., 1., 0., 0.],[0., 0., 1., 1., 0., 1., 0., 1., 1.],[0., 1., 0., 0., 0., 0., 0., 0., 0.]])

这篇关于深度学习每周学习总结N1(one-hot 编码案例)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1056778

相关文章

解决IDEA报错:编码GBK的不可映射字符问题

《解决IDEA报错:编码GBK的不可映射字符问题》:本文主要介绍解决IDEA报错:编码GBK的不可映射字符问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录IDEA报错:编码GBK的不可映射字符终端软件问题描述原因分析解决方案方法1:将命令改为方法2:右下jav

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

Java Stream流使用案例深入详解

《JavaStream流使用案例深入详解》:本文主要介绍JavaStream流使用案例详解,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录前言1. Lambda1.1 语法1.2 没参数只有一条语句或者多条语句1.3 一个参数只有一条语句或者多

MySQL 中的 JSON 查询案例详解

《MySQL中的JSON查询案例详解》:本文主要介绍MySQL的JSON查询的相关知识,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录mysql 的 jsON 路径格式基本结构路径组件详解特殊语法元素实际示例简单路径复杂路径简写操作符注意MySQL 的 J

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

Python Transformers库(NLP处理库)案例代码讲解

《PythonTransformers库(NLP处理库)案例代码讲解》本文介绍transformers库的全面讲解,包含基础知识、高级用法、案例代码及学习路径,内容经过组织,适合不同阶段的学习者,对... 目录一、基础知识1. Transformers 库简介2. 安装与环境配置3. 快速上手示例二、核心模

Python实现图片分割的多种方法总结

《Python实现图片分割的多种方法总结》图片分割是图像处理中的一个重要任务,它的目标是将图像划分为多个区域或者对象,本文为大家整理了一些常用的分割方法,大家可以根据需求自行选择... 目录1. 基于传统图像处理的分割方法(1) 使用固定阈值分割图片(2) 自适应阈值分割(3) 使用图像边缘检测分割(4)

Python中__init__方法使用的深度解析

《Python中__init__方法使用的深度解析》在Python的面向对象编程(OOP)体系中,__init__方法如同建造房屋时的奠基仪式——它定义了对象诞生时的初始状态,下面我们就来深入了解下_... 目录一、__init__的基因图谱二、初始化过程的魔法时刻继承链中的初始化顺序self参数的奥秘默认

Windows Docker端口占用错误及解决方案总结

《WindowsDocker端口占用错误及解决方案总结》在Windows环境下使用Docker容器时,端口占用错误是开发和运维中常见且棘手的问题,本文将深入剖析该问题的成因,介绍如何通过查看端口分配... 目录引言Windows docker 端口占用错误及解决方案汇总端口冲突形成原因解析诊断当前端口情况解

Python中使用正则表达式精准匹配IP地址的案例

《Python中使用正则表达式精准匹配IP地址的案例》Python的正则表达式(re模块)是完成这个任务的利器,但你知道怎么写才能准确匹配各种合法的IP地址吗,今天我们就来详细探讨这个问题,感兴趣的朋... 目录为什么需要IP正则表达式?IP地址的基本结构基础正则表达式写法精确匹配0-255的数字验证IP地