爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      NLP扎实基础5:TextCNN模型与Pytorch复现

      首页 知识中心 物联网 文章详情页

      NLP扎实基础5:TextCNN模型与Pytorch复现

      2024-05-21 07:53:51 阅读次数:48

      pytorch

      TextCNN模型通过CNN卷积的思想对文本数据做处理,整个处理流程如下图所示:

      NLP扎实基础5:TextCNN模型与Pytorch复现

      卷积层:

      卷积层是通过一个卷积核,滑过整个平面,然后得到卷积后的特征图。

      卷积层的目的是提取局部特征,2维卷积一般有以下三种:

      • Full Mode:以卷积层最下角对齐输入的最上角,最后会导致输入维度 < 输出维度,其中浅色的地方一般是补0
      • Valid Mode:从输入的最上角开始,最后输入维度 > 输出维度
      • Same Mode:自适应匹配位置,使最终的输入维度 = 输出维度

      NLP扎实基础5:TextCNN模型与Pytorch复现

      池化层

      池化层是以特征筛选为手段的特征提取,常见的有以下两种:

      • Max Pooling:最大池化,相同颜色选择最大的输出
      • Avg Pooling:均值池化,相同颜色求均值输出
        NLP扎实基础5:TextCNN模型与Pytorch复现

      Pytorch复现

      """
      TextCNN
      """
      import numpy as np
      from torchtext.vocab import vocab
      from collections import Counter, OrderedDict
      from torch.utils.data import Dataset, DataLoader
      from torchtext.transforms import VocabTransform  # 注意:torchtext版本0.12+
      import torch
      from torch import nn
      from torch.nn import functional as F
      from torchtext.data.utils import ngrams_iterator
      
      
      def get_text():
          # TextCNN是有监督的构造预训练模型,因此训练数据既有语料,也有label
          # 这里复现时我们的label设置为分类问题
          sentence_list = [  # 假设这是全部的训练语料
              "nlp drives computer programs that translate text from one language to another",
              "nlp combines computational linguistics rule based modeling of human language with statistical",
              "nlp model respond to text or voice data and respond with text",
              "nlp model for sentiment analysis are provided by human",
              "nlp drives computer programs that translate text from one language to another",
              "nlp combines computational linguistics rule based modeling of human language with statistical",
              "nlp model respond to text or voice data and respond with text",
              "nlp model for sentiment analysis are provided by human",
          ]
          sentence_label = [0, 1, 1, 0, 0, 1, 1, 0]
          return sentence_list, sentence_label
      
      
      def pad_or_cut(value: np.ndarray, target_length: int):
          """填充或截断一维numpy到固定的长度"""
          data_row = None
          if len(value) < target_length:  # 填充
              data_row = np.pad(value, [(0, target_length - len(value))])
          elif len(value) > target_length:  # 截断
              data_row = value[:target_length]
          return data_row
      
      
      class TextCnnDataSet(Dataset):
          def __init__(self, text_list, text_label, max_length=20):
              """
              构造适用于TextCNN的采样Dataset
              :param text_list: 语料文本内容
              :param text_label: 语料的标签
              :param max_length: 文本的最长长度,超过就截断,不足就补充
              """
              super(TextCnnDataSet, self).__init__()
              text_vocab, vocab_transform = self.reform_vocab(text_list)
              self.text_list = text_list  # 原始文本
              self.text_label = text_label  # 有监督的label
              self.text_vocab = text_vocab  # torchtext的vocab
              self.vocab_transform = vocab_transform  # torchtext的vocab_transform
              self.train_data = self.generate_train_data()
              self.max_length = max_length
      
          def __len__(self):
              return len(self.train_data)
      
          def __getitem__(self, idx):
              data_row = self.train_data[idx]  # 得到训练数据token,作为x
              data_row = pad_or_cut(data_row, self.max_length)  # 将训练数据切分到固定长度
              data_label = self.text_label[idx]  # 训练文本的 y
              return data_row, data_label
      
          def reform_vocab(self, text_list):
              """根据语料构造torchtext的vocab"""
              total_word_list = []
              for _ in text_list:  # 将嵌套的列表([[xx,xx],[xx,xx]...])拉平 ([xx,xx,xx...])
                  total_word_list += list(ngrams_iterator(_.split(" "), 2))  # 这里使用n-gram处理原始单词
              counter = Counter(total_word_list)  # 统计计数
              sorted_by_freq_tuples = sorted(counter.items(), key=lambda x: x[1], reverse=True)  # 构造成可接受的格式:[(单词,num), ...]
              ordered_dict = OrderedDict(sorted_by_freq_tuples)
              # 开始构造 vocab
              special_token = ["<UNK>", "<SEP>"]  # 特殊字符
              text_vocab = vocab(ordered_dict, specials=special_token)  # 单词转token,specials里是特殊字符,可以为空
              text_vocab.set_default_index(0)
              vocab_transform = VocabTransform(text_vocab)
              return text_vocab, vocab_transform
      
          def generate_train_data(self):
              """生成Text的训练数据"""
              data_list = []
              for sentence in self.text_list:
                  sentence_words = sentence.split(' ')  # 切分句子
                  sentence_id_list = np.array(self.vocab_transform(sentence_words))
                  data_list.append(sentence_id_list)
              return data_list
      
          def get_vocab_transform(self):
              return self.vocab_transform
      
          def get_vocab_size(self):
              return len(self.text_vocab)
      
      
      class TextCnnModel(nn.Module):
          def __init__(self, vocab_size, embedding_dim=100, output_dim=2, out_channels=66, filter_sizes=(2, 3, 4)):
              """
              TextCNN 模型
              :param vocab_size: 语料大小
              :param embedding_dim: 每个词的词向量维度
              :param output_dim: 输出的维度,由于咱们是二分类问题,所以输出两个值,后面用交叉熵优化
              :param out_channels: 卷积核的数量
              :param filter_sizes: 卷积核尺寸
              :param dropout: 随机失活概率
              """
              super().__init__()
              self.embedding = nn.Embedding(vocab_size, embedding_dim)
              conv_list = []
              for conv_size in filter_sizes:
                  # 由于是文本的embedding,所以in_channels=1,常见的如图像的RGB,则in_channels=3
                  conv_list.append(nn.Conv2d(1, out_channels, (conv_size, embedding_dim)))
                  # nn.Conv2d 的使用:
                  # (batch_size, 特征图个数, 特征图长, 特征图宽) -> 经过nn.conv2d(特征图个数,输出的特征图个数,卷积核的长,卷积核的宽) ->
                  # (batch_size, 输出的特征图个数, a-b+1, ∂-ß+1)
              self.conv_model = nn.ModuleList(conv_list)
              # 最后的FC
              self.linear = nn.Linear(out_channels * len(filter_sizes), output_dim)
      
          def conv_and_pool(self, x, conv):
              x = F.relu(conv(x)).squeeze(3)
              x = F.max_pool1d(x, x.size(2)).squeeze(2)
              return x
      
          def forward(self, text_token):
              # 步骤1:把文本转为 word embeddings
              word_embeddings = self.embedding(text_token)
              emb_out = word_embeddings.unsqueeze(1)
              # 步骤2:使用多种shape的卷积核进行卷积操作
              conv_result_list = []
              for conv in self.conv_model:
                  # 过一层卷积,然后把最后一个维度(值=1)剔除掉
                  conv_out = F.relu(conv(emb_out)).squeeze(3)  # shape=(batch_size, 66 out_channels, 19)
                  # 步骤3:对每一层做最大池化,然后拼接起来
                  max_conv_out = F.max_pool1d(conv_out, conv_out.size(2)).squeeze(2)  # shape = (batch_size, 66 out_channels)
                  conv_result_list.append(max_conv_out)
              # 步骤4:拼接起来
              concat_out = torch.cat(conv_result_list, dim=1)  # 这里要指定第二个维度(dim=0对应第一个维度)
              # 步骤5:
              model_out = self.linear(concat_out)
              return model_out
      
          def get_embedding(self, token_list: list):
              return self.embedding(torch.Tensor(token_list).long())
      
      
      def main():
          batch_size = 3
          # ========== 开始处理数据 ==========
          sentence_list, sentence_label = get_text()
          data_set = TextCnnDataSet(sentence_list, sentence_label)  # 构造 DataSet
          data_loader = DataLoader(data_set, batch_size=batch_size)  # 将DataSet封装成DataLoader
          # =========== 开始训练 ==========
          model = TextCnnModel(data_set.get_vocab_size(), output_dim=np.unique(sentence_label).size)
          optimizer = torch.optim.Adam(model.parameters())
          criterion = nn.CrossEntropyLoss()
          for _epoch_i in range(100):
              loss_list = []
              for text_token, text_label in data_loader:
                  # 开始训练
                  optimizer.zero_grad()
                  model_out = model(text_token)
                  loss = criterion(model_out, text_label)
                  loss.backward()
                  optimizer.step()
                  loss_list.append(loss.item())
              print("训练中:", _epoch_i, "Loss:", np.sum(loss_list))
          # ================== 最后测试 =====================
          # 得到: nlp can translate text from one language to another 的词向量
          sentence = "nlp can translate text from one language to another"
          vocab_transform = data_set.get_vocab_transform()
          # sentence_ids = vocab_transform(sentence.split(' '))
          all_sentence_words = list(ngrams_iterator(sentence.split(' '), 2))
          sentence_id_list = pad_or_cut(np.array(vocab_transform(all_sentence_words)), target_length=20)
          sentence_embedding = model.get_embedding(sentence_id_list)
          # 句向量的特征图对应着 sentence_embedding
          print("这个是句向量的特征图的维度:", sentence_embedding.shape)
          # =================== 直接用TextCnn分类 =====================
          text_tensor = torch.Tensor(sentence_id_list).long()
          text_tensor = text_tensor.unsqueeze(0)  # 整理输入
          _, predicted = torch.max(model(text_tensor).data, 1)  # 得到预测结果
          print("直接用TextCnn得到的分类结果:", predicted)
      
      
      if __name__ == '__main__':
          main()
      
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/weixin_35757704/article/details/124692700,作者:呆萌的代Ma,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:解决HuggingFace加载预训练模型时报错TypeError: expected str, bytes or os.PathLike object, not NoneType

      下一篇:工作流模式的链表模型类

      相关文章

      2024-11-06 07:12:42

      深度学习从入门到精通——VOC 2012数据读取(pytorch)

      深度学习从入门到精通——VOC 2012数据读取(pytorch)

      2024-11-06 07:12:42
      pytorch , 读取
      2024-09-25 10:15:01

      PyTorch实现堆叠自编码器

      以下是一个使用PyTorch实现堆叠自编码器的示例代码,该代码包括三个自编码器和一些辅助函数,用于训练和测试堆叠自编码器。

      2024-09-25 10:15:01
      pytorch
      2024-06-25 09:53:39

      pytorch搭建TextCNN与使用案例

      pytorch搭建TextCNN与使用案例

      2024-06-25 09:53:39
      pytorch
      2024-06-13 08:59:42

      注意力机制学习(一)——通道注意力与pytorch案例

      注意力机制学习(一)——通道注意力与pytorch案例

      2024-06-13 08:59:42
      pytorch
      2024-06-13 08:59:42

      注意力机制学习(二)——空间注意力与pytorch案例

      注意力机制学习(二)——空间注意力与pytorch案例

      2024-06-13 08:59:42
      pytorch , 神经网络
      2024-06-05 08:57:09

      PyTorch中to()和cuda()的区别

      PyTorch中to()和cuda()的区别

      2024-06-05 08:57:09
      pytorch , 张量
      2024-06-04 10:11:10

      PyTorch实现联邦学习堆叠自编码器

      联邦学习是一种用于训练分布在不同设备或地点的模型的技术,其中数据分布在不同的设备上,且不会离开设备。每个设备只训练其本地数据的模型,并将更新的模型参数传递给服务器,服务器对这些更新进行聚合以更新全局模型。

      2024-06-04 10:11:10
      pytorch , 服务器
      2024-05-22 09:13:36

      PyTorch是什么?

      在现代人工智能领域,深度学习技术发挥着至关重要的作用。要实现深度学习,研究人员和工程师需要依赖一些高效、灵活的软件库。PyTorch就是这样一款深受欢迎的库。

      2024-05-22 09:13:36
      pytorch , 机器学习
      2024-04-25 14:12:25

      什么是libtorch:

      什么是libtorch:

      2024-04-25 14:12:25
      pytorch
      2024-03-28 09:00:50

      TypeError: super(type, obj): obj must be an instance or subtype of type这个问题怎么处理?

      TypeError: super(type, obj): obj must be an instance or subtype of type这个问题怎么处理?

      2024-03-28 09:00:50
      python , pytorch
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5241848

      查看更多

      最新文章

      pytorch使用GPU训练模型

      2023-04-19 09:38:47

      pytorch 使用 CPU 多进程多核训练模型

      2023-04-19 09:37:46

      查看更多

      热门文章

      pytorch使用GPU训练模型

      2023-04-19 09:38:47

      pytorch 使用 CPU 多进程多核训练模型

      2023-04-19 09:37:46

      查看更多

      热门标签

      模型 生成 学习 django python 图像 训练
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      pytorch 使用 CPU 多进程多核训练模型

      pytorch使用GPU训练模型

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号