爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      文本情感分类

      首页 知识中心 其他 文章详情页

      文本情感分类

      2024-09-24 06:31:02 阅读次数:42

      人工智能,机器学习

      文本情感分类

      1. 案例介绍

      为了对前面的word embedding这种常用的文本向量化的方法进行巩固,这里完成一个文本情感分类的案例

      现在有一个经典的数据集IMDB数据集,这是一份包含了5万条流行电影的评论数据,其中训练集25000条,测试集25000条。数据格式如下:

      下图左边为名称,其中名称包含两部分,分别是序号和情感评分,(1-4为neg,5-10为pos),右边为评论内容

      文本情感分类

      根据上述的样本,需要使用pytorch完成模型,实现对评论情感进行预测

      2. 思路分析

      首先可以把上述问题定义为分类问题,情感评分分为1-10,10个类别(也可以理解为回归问题,这里当做分类问题考虑)。那么根据之前的经验,大致流程如下:

      1. 准备数据集

      2. 构建模型

      3. 模型训练

      4. 模型评估

      知道思路之后,那么我们一步步来完成上述步骤

      3. 准备数据集

      准备数据集和之前的方法一样,实例化dataset,准备dataloader,最终数据可以处理成如下格式:

      文本情感分类

      其中有两点需要注意:

      1. 如何完成基础的Dataset的构建和Dataloader的准备

      2. 每个batch中文本的长度不一致的问题如何解决

      3. 每个batch中的文本如何转化为数字序列

      3.1 基础Dataset的准备    【当Dataset中的返回input结果如果是字符串的时候,可以通过修改collate_fn解决异常问题】

      dataset.py

      import os
      import re
      from torch.utils.data import Dataset, DataLoader
      
      data_base_path = r'./aclImdb/'
      
      
      #  1.定义token的方法
      def tokenize(test):
          filters = ['!','"','#','$','%','&','\(','\)','\*','\+',',','-','\.','/',':',';','<','=','>','\?','@'
              ,'\[','\\','\]','^','_','`','\{','\|','\}','~','\t','\n','\x97','\x96','”','“',]
          text = re.sub("<.*?>", " ", test, flags=re.S)
          text = re.sub("|".join(filters), " ", test, flags=re.S)
          return [i.strip() for i in text.split()]
      
      
      #  2.准备dataset
      class ImdbDataset(Dataset):
          def __init__(self, mode):
              super().__init__()
              if mode == "train":
                  text_path = [os.path.join(data_base_path, i) for i in ["train/neg", "train/pos"]]
              else:
                  text_path = [os.path.join(data_base_path, i) for i in ["test/neg", "test/pos"]]
              self.total_file_path_list = []
              for i in text_path:
                  self.total_file_path_list.extend([os.path.join(i, j) for j in os.listdir(i)])
      
          def __getitem__(self, item):
              cur_path = self.total_file_path_list[item]
              cur_filename = os.path.basename(cur_path)
              label = int(cur_filename.split("_")[-1].split(".")[0]) - 1  # 处理标题,获取标签label,转化为从[0-9]
              text = tokenize(open(cur_path).read().strip())  # 直接按照空格进行分词
              return label, text
      
          def __len__(self):
              return len(self.total_file_path_list)
      
      
      #  3.实例化,准别dataloader
      dataset = ImdbDataset(mode="train")
      dataloader = DataLoader(dataset=dataset, batch_size=2, shuffle=True)
      
      #  4.观察数输出结果
      for idx, (label, text) in enumerate(dataloader):
          print("idx:", idx)
          print("label:", label)
          print("text:", text)
          break
      

      此时运行是报错的,

      文本情感分类

      出现问题的原因在于Dataloader中的参数collate_fn

      collate_fn的默认值为torch自定义的default_collate,collate_fn的作用就是对每个batch进行处理,而默认的default_collate处理出错。

      解决问题的思路:

      手段1:考虑先把数据转化为数字序列,观察其结果是否符合要求,之前使用DataLoader并未出现类似错误

      手段2:考虑自定义一个collate_fn,观察结果

      这里使用方式2,自定义一个collate_fn,然后观察结果:

      def collate_fn(batch):
          #  batch是一个列表,其中是一个一个的元组,每个元组是dataset中_getitem__的结果
          batch = list(zip(*batch))
          labels = torch.tensor(batch[0], dtype=32)
          texts = batch[1]
          del batch
          return labels, texts

      修改后的总代码:

      dataset.py

      import os
      import re
      import torch
      from torch.utils.data import Dataset, DataLoader
      
      data_base_path = r'./aclImdb/'
      
      
      #  1.定义token的方法
      def tokenize(test):
          filters = ['!','"','#','$','%','&','\(','\)','\*','\+',',','-','\.','/',':',';','<','=','>','\?','@'
              ,'\[','\\','\]','^','_','`','\{','\|','\}','~','\t','\n','\x97','\x96','”','“',]
          text = re.sub("<.*?>", " ", test, flags=re.S)
          text = re.sub("|".join(filters), " ", test, flags=re.S)
          return [i.strip() for i in text.split()]
      
      
      #  2.准备dataset
      class ImdbDataset(Dataset):
          def __init__(self, mode):
              super().__init__()
              if mode == "train":
                  text_path = [os.path.join(data_base_path, i) for i in ["train/neg", "train/pos"]]
              else:
                  text_path = [os.path.join(data_base_path, i) for i in ["test/neg", "test/pos"]]
              self.total_file_path_list = []
              for i in text_path:
                  self.total_file_path_list.extend([os.path.join(i, j) for j in os.listdir(i)])
      
          def __getitem__(self, item):
              cur_path = self.total_file_path_list[item]
              cur_filename = os.path.basename(cur_path)
              label = int(cur_filename.split("_")[-1].split(".")[0]) - 1  # 处理标题,获取标签label,转化为从[0-9]
              text = tokenize(open(cur_path).read().strip())  # 直接按照空格进行分词
              return label, text
      
          def __len__(self):
              return len(self.total_file_path_list)
      
      
      def collate_fn(batch):
          #  batch是一个列表,其中是一个一个的元组,每个元组是dataset中_getitem__的结果
          batch = list(zip(*batch))
          labels = torch.tensor(batch[0], dtype=32)
          texts = batch[1]
          del batch
          return labels, texts
      
      
      #  3.实例化,准别dataloader
      dataset = ImdbDataset(mode="train")
      dataloader = DataLoader(dataset=dataset, batch_size=2, shuffle=True, collate_fn=collate_fn)
      
      #  4.观察数输出结果
      for idx, (label, text) in enumerate(dataloader):
          print("idx:", idx)
          print("label:", label)
          print("text:", text)
          break
      

      运行结果:

      文本情感分类

      可以把上述代码的实例化部分封装成函数,示例代码如下,后面的代码是直接调用封装好的函数

      import os
      import re
      import torch
      from torch.utils.data import Dataset, DataLoader
      
      data_base_path = r'../data/aclImdb/'
      
      
      #  1.定义token的方法
      def tokenize(test):
          filters = ['!', '"', '#', '$', '%', '&', '\(', '\)', '\*', '\+', ',', '-', '\.', '/', ':', ';', '<', '=', '>', '\?',
                     '@'
              , '\[', '\\', '\]', '^', '_', '`', '\{', '\|', '\}', '~', '\t', '\n', '\x97', '\x96', '”', '“', ]
          text = re.sub("<.*?>", " ", test, flags=re.S)
          text = re.sub("|".join(filters), " ", test, flags=re.S)
          return [i.strip() for i in text.split()]
      
      
      #  2.准备dataset
      class ImdbDataset(Dataset):
          def __init__(self, mode):
              super().__init__()
              if mode == "train":
                  text_path = [os.path.join(data_base_path, i) for i in ["train/neg", "train/pos"]]
              else:
                  text_path = [os.path.join(data_base_path, i) for i in ["test/neg", "test/pos"]]
              self.total_file_path_list = []
              for i in text_path:
                  self.total_file_path_list.extend([os.path.join(i, j) for j in os.listdir(i)])
      
          def __getitem__(self, item):
              cur_path = self.total_file_path_list[item]
              cur_filename = os.path.basename(cur_path)
              label = int(cur_filename.split("_")[-1].split(".")[0]) - 1  # 处理标题,获取标签label,转化为从[0-9]
              text = tokenize(open(cur_path).read().strip())  # 直接按照空格进行分词
              return label, text
      
          def __len__(self):
              return len(self.total_file_path_list)
      
      
      def collate_fn(batch):
          #  batch是一个列表,其中是一个一个的元组,每个元组是dataset中_getitem__的结果
          batch = list(zip(*batch))
          labels = torch.tensor(batch[0], dtype=32)
          texts = batch[1]
          del batch
          return labels, texts
      
      
      def get_dataloader():
          imdb_dataset = ImdbDataset('train')
          data_loader = DataLoader(imdb_dataset, shuffle=True, batch_size=2, collate_fn=collate_fn)
          return data_loader
      
      
      #  3.实例化,准别dataloader
      dataset = ImdbDataset(mode="train")
      dataloader = DataLoader(dataset=dataset, batch_size=2, shuffle=True, collate_fn=collate_fn)
      
      #  4.观察数输出结果
      # for idx, (label, text) in enumerate(dataloader):
      for idx, (label, text) in enumerate(get_dataloader()):
          print("idx:", idx)
          print("label:", label)
          print("text:", text)
          break
      

      3.2 文本序列化

      再介绍word embedding的时候,不会直接把文本转化为向量,而是先转化为数字,再把数字转化为向量,那么这个过程该如何实现呢?

      这里我们可以考虑把文本中的每个词语和其对应的数字,使用字典保存,同时实现方法把句子通过字典映射为包含数字的列表。

      实现文本序列化之前,考虑以下几点:

      1. 如何使用字典把词语和数字进行对应

      2. 不同的词语出现的次数不尽相同,是否需要对高频或者低频词语进行过滤,以及总的词语数量是否需要进行限制

      3. 得到词典之后,如何把句子转化为数字序列,如何把数字序列转化为句子

      4. 不同句子长度不相同,每个batch的句子如何构造成相同的长度(可以对短句子进行填充,填充特殊字符)

      5. 对于新出现的词语在词典中没有出现怎么办(可以使用特殊字符代理)

      思路分析:

      1. 对所有句子进行分词

      2. 词语存入字典,根据次数对词语进行过滤,并统计次数

      3. 实现文本转数字序列的方法

      4. 实现数字序列转文本方法

      wordSequence.py

      import numpy as np
      
      
      #  构建字典,实现方法把句子转换成为数字序列和其翻转
      class Word2Sequence(object):
          UNK_TAG = "UNK"  # 表示特殊的字符
          PAD_TAG = "PAD"  # 表示对句子的填充
      
          UNK = 0
          PAD = 1
      
          def __init__(self):
              # 初始词典
              self.dict = {
                  self.UNK_TAG: self.UNK,
                  self.PAD_TAG: self.PAD  # 初始键值对
              }
              self.fited = False
      
          #  把单词转换为索引
          def to_index(self, word):
              """word -> index"""
              assert self.fited == True, "必须先进行fit操作"
              return self.dict.get(word, self.UNK)
      
          #  把索引转换为词语/字
          def to_word(self, index):
              """index -> word"""
              assert self.fited, "必须先进行fit操作"
              if index in self.inversed_dict:
                  return self.inversed_dict[index]
              return self.UNK_TAG
      
          def __len__(self):
              return self(self.dict)
      
          def fit(self, sentences, min_count=1, max_count=None, max_feature=None):  # max_count最大不限制
              """
              把所有的句子放到词典中去,把单个句子放到dict中去
              :param sentence: [[word1,word2,word3],[word1,word3,wordn..],...]
              :param min_count:最小出现的次数
              :param max_count:最大出现的次数
              :param max_feature:总词语的最大数量  一个保留多少个单词
              :return:
              """
              count = {}
              for sentence in sentences:
                  for a in sentence:
                      if a not in count:
                          count[a] = 0
                      count[a] += 1
              # 比最小的数量大和比最大的数量小的需要
              if min_count is not None:  # 删除count中词频小于min word
                  count = {k: v for k, v in count.items() if v >= min_count}
              if max_count is not None:  # 删除词语大于max 的值
                  count = {k: v for k, v in count.items() if v <= max_count}
      
              #  限制最大的数量
              if isinstance(max_feature, int):
                  count = sorted(list(count.items()), key=lambda x: x[1])  # 排序, 根据什么进行排序
                  if max_feature is not None and len(count) > max_feature:
                      count = count[-int(max_feature):]
                  for w, _ in count:
                      self.dict[w] = len(self.dict)
              else:
                  for w in sorted(count.keys()):
                      self.dict[w] = len(self.dict)
      
              self.fited = True
              #  准备一个index->word的字典
              self.inversed_dict = dict(zip(self.dict.values(), self.dict.keys()))
      
          #  把新来的句子转换成序列
          def transform(self, sentence, max_len=None):
              """
              实现把句子转化为数组(向量)
              :param sentence:
              :param max_len:
              :return:
              """
              assert self.fited, "必须先进行fit操作"
              if max_len is not None:
                  r = [self.PAD] * max_len
              else:
                  r = [self.PAD] * len(sentence)
              if max_len is not None and len(sentence) > max_len:
                  sentence = sentence[:max_len]
              for index, word in enumerate(sentence):
                  r[index] = self.to_index(word)
              return np.array(r, dtype=64)
      
          def inverse_transform(self, indices):
              """
              实现从数组 转化为文字
              :param indices: [1,2,3....]
              :return:[word1,word2.....]
              """
              sentence = []
              for i in indices:
                  word = self.to_word(i)
                  sentence.append(word)
              return sentence
      
      
      if __name__ == '__main__':
          w2s = Word2Sequence()
          w2s.fit([
              ["你", "好", "么"],
              ["你", "好", "哦"]])
          print(w2s.dict)
          print(w2s.fited)
          print(w2s.transform(["你", "好", "嘛"]))
          print(w2s.transform(["你好嘛"], max_len=10))
      

      文本情感分类

      运行结果:

      文本情感分类

      完成了wordsequence之后,接下来就是保存现有样本中的数据字典,方便后续的使用。

      实现对IMDB数据的处理和保存

      #1. 对IMDB的数据记性fit操作
      def fit_save_word_sequence():
          from wordSequence import Word2Sequence
      
          ws = Word2Sequence()
          train_path = [os.path.join(data_base_path,i)  for i in ["train/neg","train/pos"]]
          total_file_path_list = []
          for i in train_path:
              total_file_path_list.extend([os.path.join(i, j) for j in os.listdir(i)])
          for cur_path in tqdm(total_file_path_list,ascii=True,desc="fitting"):
              ws.fit(tokenize(open(cur_path).read().strip()))
          ws.build_vocab()
          # 对wordSequesnce进行保存
          pickle.dump(ws,open("./model/ws.pkl","wb"))
      
      #2. 在dataset中使用wordsequence
      ws = pickle.load(open("./model/ws.pkl","rb"))
      
      def collate_fn(batch):
          MAX_LEN = 500 
          #MAX_LEN = max([len(i) for i in texts]) #取当前batch的最大值作为batch的最大长度
      
          batch = list(zip(*batch))
          labes = torch.tensor(batch[0],dtype=)
      
          texts = batch[1]
          #获取每个文本的长度
          lengths = [len(i) if len(i)<MAX_LEN else MAX_LEN for i in texts]
          texts = torch.tensor([ws.transform(i, MAX_LEN) for i in texts])
          del batch
          return labes,texts,lengths
      
      #3. 获取输出
      dataset = ImdbDataset(ws,mode="train")
          dataloader = DataLoader(dataset=dataset,batch_size=20,shuffle=True,collate_fn=collate_fn)
          for idx,(label,text,length) in enumerate(dataloader):
              print("idx:",idx)
              print("table:",label)
              print("text:",text)
              print("length:",length)
              break

      输出如下:

      idx: 0
      table: tensor([ 7,  4,  3,  8,  1, 10,  7, 10,  7,  2,  1,  8,  1,  2,  2,  4,  7, 10,
               1,  4], dtype=32)
      text: tensor([[ 50983,  77480,  82366,  ...,      1,      1,      1],
              [ 54702,  57262, 102035,  ...,  80474,  56457,  63180],
              [ 26991,  57693,  88450,  ...,      1,      1,      1],
              ...,
              [ 51138,  73263,  80428,  ...,      1,      1,      1],
              [  7022,  78114,  83498,  ...,      1,      1,      1],
              [  5353, 101803,  99148,  ...,      1,      1,      1]])
      length: [296, 500, 221, 132, 74, 407, 500, 130, 54, 217, 80, 322, 72, 156, 94, 270, 317, 117, 200, 379]

      思考:前面我们自定义了MAX_LEN作为句子的最大长度,如果我们需要把每个batch中的最长的句子长度作为当前batch的最大长度,该如何实现?

      4. 构建模型

      这里我们只练习使用word embedding,所以模型只有一层,即:

      1. 数据经过word embedding

      2. 数据通过全连接层返回结果,计算log_softmax

      import torch
      import torch.nn as nn
      import torch.nn.functional as F
      from torch import optim
      from build_dataset import get_dataloader,ws,MAX_LEN
      
      class IMDBModel(nn.Module):
          def __init__(self,max_len):
              super(IMDBModel,self).__init__()
              self.embedding = nn.Embedding(len(ws),300,padding_idx=ws.PAD) #[N,300]
              self.fc = nn.Linear(max_len*300,10)  #[max_len*300,10]
      
          def forward(self, x):
              embed = self.embedding(x) #[batch_size,max_len,300]
              embed = embed.view(x.size(0),-1)
              out = self.fc(embed)
              return F.log_softmax(out,dim=-1)

      5. 模型的训练和评估

      训练流程和之前相同

      1. 实例化模型,损失函数,优化器

      2. 遍历dataset_loader,梯度置为0,进行向前计算

      3. 计算损失,反向传播优化损失,更新参数

      train_batch_size = 128
      test_batch_size = 1000
      imdb_model = IMDBModel(MAX_LEN)
      optimizer = optim.Adam(imdb_model.parameters())
      criterion = nn.CrossEntropyLoss()
      
      def train(epoch):
          mode = True
          imdb_model.train(mode)
          train_dataloader =get_dataloader(mode,train_batch_size)
          for idx,(target,input,input_lenght) in enumerate(train_dataloader):
              optimizer.zero_grad()
              output = imdb_model(input)
              loss = F.nll_loss(output,target) #traget需要是[0,9],不能是[1-10]
              loss.backward()
              optimizer.step()
              if idx %10 == 0:
                  print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                      epoch, idx * len(input), len(train_dataloader.dataset),
                             100. * idx / len(train_dataloader), loss.item()))
      
                  torch.save(imdb_model.state_dict(), "model/mnist_net.pkl")
                  torch.save(optimizer.state_dict(), 'model/mnist_optimizer.pkl')
                  
       def test():
          test_loss = 0
          correct = 0
          mode = False
          imdb_model.eval()
          test_dataloader = get_dataloader(mode, test_batch_size)
          with torch.no_grad():
              for target, input, input_lenght in test_dataloader:
                  output = imdb_model(input)
                  test_loss  += F.nll_loss(output, target,reduction="sum")
                  pred = torch.max(output,dim=-1,keepdim=False)[-1]
                  correct = pred.eq(target.data).sum()
              test_loss = test_loss/len(test_dataloader.dataset)
              print('\nTest set: Avg. loss: {:.4f}, Accuracy: {}/{} ({:.2f}%)\n'.format(
                  test_loss, correct, len(test_dataloader.dataset),
                  100. * correct / len(test_dataloader.dataset)))
      
      if __name__ == '__main__':
          test()
          for i in range(3):
              train(i)
              test()
      

      这里我们仅仅使用了一层全连接层,其分类效果不会很好,这里重点是理解常见的模型流程和word embedding的使用方法

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/weixin_44799217/article/details/115036733,作者:IT之一小佬,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:JSP的page指令+九大内置对象+El表达式

      下一篇:java的设计模式之抽象工厂模式

      相关文章

      2025-04-09 09:16:56

      python四种抽样方法的使用:随机抽样、聚类抽样、系统抽样、分层抽样

      python四种抽样方法的使用:随机抽样、聚类抽样、系统抽样、分层抽样

      2025-04-09 09:16:56
      python , 代码 , 方法 , 机器学习 , 示例
      2025-04-09 09:16:07

      TF-IDF:概念与python实现

      TF-IDF(Term Frequency - Inverse Document Frequency)表示“词频-逆文本频率”。词频(TF,Term Frequency )表示给定词语在文件或语料中出现的频率(归一化以屏蔽长短文件的差异);逆文本频率(IDF,Inverse Document Frequency)是一个词语重要性的度量。

      2025-04-09 09:16:07
      log , 人工智能 , 文本 , 网页
      2025-04-01 10:16:07

      知识图谱与人工智能之间的关系

      知识图谱与人工智能之间的关系

      2025-04-01 10:16:07
      人工智能 , 图谱 , 机器 , 理解 , 知识
      2025-03-31 08:58:01

      人工智能与AI生成内容:探索AI大模型的无限可能

      人工智能与AI生成内容:探索AI大模型的无限可能

      2025-03-31 08:58:01
      AIGC , 人工智能 , 内容 , 技术 , 模型 , 生成
      2025-03-24 08:47:15

      Python测试开发初稿

      Python测试开发初稿

      2025-03-24 08:47:15
      java , 人工智能 , 大数据 , 编程语言
      2025-03-17 07:50:34

      【人工智能基础】学习线路

      【人工智能基础】学习线路

      2025-03-17 07:50:34
      TensorFlow , 人工智能 , 学习 , 深度 , 神经网络
      2025-03-17 07:50:26

      【人工智能概述(一)】人工智能基本概概念、学派、发展历程与新一代人工智能

      【人工智能概述(一)】人工智能基本概概念、学派、发展历程与新一代人工智能

      2025-03-17 07:50:26
      人工智能 , 学习 , 深度 , 知识
      2025-02-13 08:28:59

      大数据、人工智能、机器学习、深度学习关系联系前言

      大数据、人工智能、机器学习、深度学习关系联系前言

      2025-02-13 08:28:59
      人工智能 , 学习 , 数据 , 机器 , 模型
      2025-01-17 09:16:08

      文心一言 VS chatgpt (12)-- 算法导论3.1 6~7题

      文心一言 VS chatgpt (12)-- 算法导论3.1 6~7题

      2025-01-17 09:16:08
      chatgpt , 人工智能 , 文心一言 , 算法
      2025-01-17 09:13:53

      长城守卫军问题。 长城上有连成一排的n个烽火台,每个烽火台都有士兵驻守。 第i个烽火台驻守着ai个士兵,相邻峰火台的距离为1。

      长城守卫军问题。 长城上有连成一排的n个烽火台,每个烽火台都有士兵驻守。 第i个烽火台驻守着ai个士兵,相邻峰火台的距离为1。

      2025-01-17 09:13:53
      i++ , leetcode , 人工智能 , 空间复杂度
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5235145

      查看更多

      最新文章

      TF-IDF:概念与python实现

      2025-04-09 09:16:07

      知识图谱与人工智能之间的关系

      2025-04-01 10:16:07

      【人工智能基础】学习线路

      2025-03-17 07:50:34

      【人工智能概述(一)】人工智能基本概概念、学派、发展历程与新一代人工智能

      2025-03-17 07:50:26

      长城守卫军问题。 长城上有连成一排的n个烽火台,每个烽火台都有士兵驻守。 第i个烽火台驻守着ai个士兵,相邻峰火台的距离为1。

      2025-01-17 09:13:53

      预测性人工智能会彻底改变SIEM行业吗?

      2024-12-06 06:38:51

      查看更多

      热门文章

      Numpy的介绍和优势

      2023-08-04 07:30:01

      人工智能对就业的影响:机遇与挑战

      2024-05-28 08:15:10

      人工智能的三个层次

      2024-04-16 03:14:57

      解决dataframe报错ValueError: Cannot take a larger sample than population when ‘replace=False‘

      2024-04-16 08:57:13

      人工智能在现代科技中的应用和未来发展趋势

      2024-04-17 08:51:50

      如何提高深度学习预测准确率

      2024-04-17 02:21:24

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      有关缩进的解析

      Numpy的介绍和优势

      PyTorch中mnist的transforms图像处理

      人工智能在现代科技中的应用和未来发展趋势

      PyTorch是什么?

      ASR项目实战-任务队列在文件转写特性中的应用

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号