当前位置: 首页 > news >正文

深度学习N2周:构建词典

  • 🍨 本文为🔗365天深度学习训练营中的学习记录博客
  • 🍖 原作者:K同学啊

本周任务:使用N1周的.txt文件构建词典,停用词请自定义

1.导入数据

from torchtext.vocab import build_vocab_from_iterator
from collections import Counter
from torchtext.data.utils import get_tokenizer
import jieba, re, torchdata = ["我是K同学啊!","我是一个深度学习博主,","这是我的365天深度学习训练营教案,","你可以通过百度、微信搜索关键字【K同学啊】找到我"
]

2.设置分词器

# 中文分词方法
tokenizer = jieba.lcut# 加载自定义词典
jieba.load_userdict("D:/learn/my_dict.txt")

jieba是一个由python编写的中文分词库,用于对中文文本进行分词,其安装方法:

cmd命令:pip install jieba

my_dict.txt文件内容如下:

3.清除标点符号与停用词

在使用jieba进行分词时,可以通过去除标点符号来减少分词结果种的噪音。

# 去除标点符号的函数
def remove_punctuation(text):return re.sub(r'[^\w\s]', '', text)

在使用jieba进行分词时,可以通过去除停用词(即没有具体含义、对文本语义没有影响的词汇,如“的”、“是”、“这”)来减少分词结果中的噪音。标点符号与停用词的去除通常有助于提高文本分类任务的结果。

# 假设我们有一个停用词表,内容如下:
stopwords = set(["的", "这", "是"])# 去除停用词的函数
def remove_stopwords(words):return [word for word in words if word not in stopwords]

4.设置迭代器

# 定义一个迭代器来返回文本数据中的词汇
def yield_tokens(data_iter):for text in data_iter:# 去除标点符号text = remove_punctuation(text)# 分词并生成词汇text = tokenizer(text)# 去除停用词text = remove_stopwords(text)yield text

5.构建词典

# 使用 build_vocab_from_iterator 来构建词汇表
vocab = build_vocab_from_iterator(yield_tokens(data), specials=["<unk>"])# 将未知的词汇索引为0
vocab.set_default_index(vocab["<unk>"])

.build_vocab_from_iterator()函数详解

作用:从一个可迭代对象中统计token的频次,并返回一个vocab(词汇字典) 

6.文本数字化

# 打印词汇表中的内容
print("词典大小:", len(vocab))
print("词典内部映射:", vocab.get_stoi())text = "这是我的365天深度学习训练营教案"
words = remove_stopwords(jieba.lcut(text))
print("\n")
print("jieba分词后的文本: ", jieba.lcut(text))
print("去除停用词后的文本: ", remove_stopwords(jieba.lcut(text)))
print("数字化后的文本: ", [vocab[word] for word in words])

结果:

 查了很多资料,依旧没有解决这个问题。但通过看别人的帖子,理解了算法的原理。

7.总结

1.遇到的问题

解决:

pip install torchtext

2.掌握了如何从文本数据中提取词汇,并通过去除标点符号和停用词来减少噪音。还学会了如何使用jieba进行中文分词,并通过自定义词典来优化分词结果。可能因为torchtext与电脑配置冲突,一直无法运行到最后一步,就差一点点。。。

http://www.lqws.cn/news/165367.html

相关文章:

  • 板凳-------Mysql cookbook学习 (十)
  • ReLU 激活函数:重大缺陷一去不复返!
  • reverse笔记
  • 目标检测实战:让AI“看见“并定位物体(superior哥AI系列第11期)
  • Web后端基础(Maven基础)
  • 8天Python从入门到精通【itheima】-69~70(字符串的常见定义和操作+案例练习)
  • 从Copilot到Agent,AI Coding是如何进化的?
  • 2025爱分析·银行数字化应用实践报告|爱分析报告
  • [闭源saas选项]Pinecone:为向量数据库而生的实时语义搜索引擎
  • 关于智能体API参考接口
  • SpringBoot自动化部署实战技术文章大纲
  • 前端使用 preview 插件预览docx文件
  • 【cmder】--- Windows 下 cmder 经典常用快捷键 显著提高效率
  • python打卡day45
  • 如何实现本地mqtt服务器和云端服务器同步?
  • Spring @Scheduled vs XXL-JOB vs DolphinScheduler vs Airflow:任务调度框架全景对比
  • DeepSeek私有化部署的理性抉择:谁需要?谁不必?
  • 408第一季 - 408内容概述
  • 【Linux基础知识系列】第十一篇-Linux系统安全
  • 安科瑞防逆流方案落地内蒙古中高绿能光伏项目,筑牢北疆绿电安全防线
  • 企业级AI迈入黄金时代,企业该如何向AI“蝶变”?
  • 摄像机ISP处理流程
  • COMSOL学习笔记-静电场仿真
  • 【强化学习】——03 Model-Free RL之基于价值的强化学习
  • 软件测试基础知识总结
  • RMSE可以融合均值与标准差
  • [zynq] Zynq Linux 环境下 AXI BRAM 控制器驱动方法详解(代码示例)
  • Tensorrt python api 10.11.0笔记
  • 【信息系统项目管理师-选择真题】2025上半年(第一批)综合知识答案和详解
  • ResolverActivity 优先级