当前位置: 首页 > news >正文

《动手深度学习》8.2文本预处理—代码分析

这部分代码也让我头晕,想必大家也有很多问题,边写边查,边注释了~

文本预处理的思路如下:

        1、读入文本

        2、数据清洗(去掉不要的符号、空格等)

        3、token化

        4、vocab词表化

1、读入文本 + 数据清洗

import collections
import re
from d2l import torch as d2l#d2l内嵌的字典,先在这个字典注册ulr和校验码
d2l.DATA_HUB['time machine'] = (d2l.DATA_URL + 'timemachine.txt','090b5e7e70c295757f55df93cb0a180b9691891a')#按每一行来读入,并且去掉非字母、前后空格、小写化
def read_time_machine():with open(d2l.download('time machine'), 'r') as f:#此时读入的形状就是list of stringslines = f.readlines()return [re.sub('[^A-Za-z]+', ' ', line).strip().lower() for line in lines]lines = read_time_machine()
print(lines[0])
print(len(lines))

2、token化

#这里处理为了list of lists
#分别是按单词和按字符处理
def tokenize(lines, token='word'):if token == 'word':return [line.split() for line in lines]elif token == 'char':return [list(line) for line in lines]else:print(f'错误,未知token类型:{token}')
tokens = tokenize(lines, 'word')
print(len(tokens))
print(tokens[0])

3、vocab化

#首先实现利用Counter(内置词典),来对单词频率进行统计
def count_corpus(tokens):if len(tokens) == 0 or isinstance(tokens[0], list):tokens = [token for line in tokens for token in line]return collections.Counter(tokens)
class Vocab:#min_freq是对低频词的筛选#reserved_tokens是预留词,这些词不一定出现在文本,但训练时会用到,自己显示加进去def __init__(self, tokens=None, min_freq=0, reserved_tokens=None):if tokens is None:tokens = []if reserved_tokens is None:reserved_tokens = []#频率统计conter = count_corpus(tokens)#降序排#self._tokens_freqs是排序后的字典self._tokens_freqs = sorted(conter.items(), key=lambda x:x[1], reverse=True)#'<unk>'的索引为0#先把预留词填进去#这里是两个对应的映射转换表self.idx_to_token = ['unk'] + reserved_tokensself.token_to_idx = {token : idx for idx, token in enumerate(self.idx_to_token)}        #把_tokens_freqs填入映射转换表for token, freq in self._tokens_freqs:if freq < min_freq:breakif token not in self.token_to_idx:self.idx_to_token.append(token)self.token_to_idx[token] = len(self.idx_to_token) - 1#重写方法,可以让vocab直接使用len(vocab)而无需vocab.len()def __len__(self):return len(self.idx_to_token)#方法属性,代码风格而已,使得self.unk 等价于vocab.unk()@propertydef unk(self):return 0@propertydef token_freqs(self):return self._tokens_freqs#由token 获得 idx#重写,可以让vocab直接使用vocab[tokens],等价于vocab.__getitem__(tokens)def __getitem__(self, tokens):#判断传入的token为一个或者多个if not isinstance(tokens, (list, tuple)):return self.token_to_idx.get(tokens, self.unk)#多个则需要递归处理return [self.__getitem__(token) for token in tokens]#由idx 获得tokendef to_tokens(self, indices):if not isinstance(indices, (list, tuple)):return self.idx_to_token[indices]return [self.idx_to_token[idx] for idx in indices]
vocab = Vocab(tokens)
print(list(vocab.token_to_idx.items())[:10])for i in [0, 10]:print(tokens[i])print(vocab[tokens[i]])
#整合所有功能
#corpus 是所有token的映射idx,是为了输入进模型
#vocab 是一个转换查询表,相当于建立了映射关系
#所以corpus利用vocab进行转换
#vocab是翻译官
def load_corpus_time_machine(max_tokens=-1):lines = read_time_machine()tokens = tokenize(lines, 'char')vocab = Vocab(tokens)#展平tokens,模型需要一维输入corpus = [vocab[token] for line in tokens for token in line]if max_tokens > 0:corpus = corpus[:max_tokens]return corpus, vocabcorpus, vocab = load_corpus_time_machine()
print(len(corpus))
print(len(vocab))

http://www.lqws.cn/news/134623.html

相关文章:

  • linux 故障处置通用流程-36计+1计
  • [C]extern声明变量报错:undefined reference终极解决方案
  • 图论水题2
  • 基于 qiankun + vite + vue3 构建微前端应用实践
  • 高防CDN有用吗?它的防护效果怎么样?
  • ComfyUI一键画风转换:爆火吉普力画风一键转绘
  • 区块链+AI融合实战:智能合约如何结合机器学习优化DeFi风控?
  • JavaWeb:前后端分离开发-部门管理
  • 如何搭建Z-Blog PHP版本:详细指南
  • 关于项目多语言化任务的概述
  • 一文读懂RAG流程中用到的请求参数与返回字段
  • 【Linux】Linux权限
  • matlab模糊控制实现路径规划
  • 函数调用(Function Calling)
  • Markdown基础(1.2w字)
  • 本地日记本,用于记录日常。
  • k8s热更新-subPath 不支持热更新
  • 损失函数L对全连接层W、X、b的梯度
  • 【机器人编程基础】循环语句for-while
  • 字符串Base64编码经历了什么
  • 压测软件-Jmeter
  • 【Pandas】pandas DataFrame sample
  • 机器学习的数学基础:假设检验
  • 从上下文学习和微调看语言模型的泛化:一项对照研究
  • Linux系统iptables防火墙实验拓补
  • WES7系统深度定制全流程详解(从界面剥离到工业部署)
  • 【python】运行python程序的方式
  • 数据湖是什么?数据湖和数据仓库的区别是什么?
  • 不同视角理解三维旋转
  • macOS 上使用 Homebrew 安装redis-cli