爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Transformer技术深度剖析:AI语言处理的新纪元

      首页 知识中心 软件开发 文章详情页

      Transformer技术深度剖析:AI语言处理的新纪元

      2024-10-29 09:04:56 阅读次数:28

      模型

      1.Transformer全局概括

      Transformer是一种深度学习模型,最初由Vaswani等人在2017年的论文《Attention Is All You Need》中提出。它在自然语言处理(NLP)领域引起了革命,因为它的设计克服了以前模型的一些限制,特别是在处理长距离依赖和并行计算方面。下面是Transformer模型的全面概述:

      1.核心概念

      1. 注意力机制(Attention Mechanism):

        • Transformer的核心是注意力机制,特别是所谓的“自注意力”(Self-Attention)。
        • 它允许模型在处理一个单词时同时考虑句子中的其他单词,从而捕获它们之间的上下文关系。
      2. 编码器-解码器架构:

        • 原始的Transformer模型包括编码器(Encoder)和解码器(Decoder)。
        • 编码器读取输入数据并产生一个上下文表示,解码器则使用这个表示来生成输出数据。
      3. 多头注意力(Multi-Head Attention):

        • 模型对每个单词的注意力分为多个“头”,这样可以让模型在多个子空间中学习信息。
        • 这增强了模型对不同位置的敏感性,能够捕获不同类型的上下文信息。
      4. 位置编码(Positional Encoding):

        • 由于Transformer不使用递归或卷积,因此需要另一种方法来理解单词的顺序或位置。
        • 位置编码是添加到输入单词的一种编码,提供了单词在序列中的位置信息。
      5. 堆叠层:

        • Transformer中的编码器和解码器都是由多个相同的层堆叠而成。
        • 每层包含多头注意力机制和全连接的前馈网络。

      2.应用

      • 机器翻译:Transformer模型最初是为了改进机器翻译而设计的,但它迅速被应用于各种NLP任务。
      • 文本生成:如GPT系列模型,它们是基于Transformer的架构,专注于生成连贯和相关的文本。
      • 文本理解:如BERT和其变体,它们利用Transformer编码器来理解文本,广泛用于问答系统、情感分析等。

      3.优势与挑战

      • 优势:

        • 能够捕获长距离依赖。
        • 高效的并行处理能力。
        • 在多种NLP任务上取得了先进的性能。
      • 挑战:

        • 模型参数通常非常庞大,需要大量的计算资源进行训练。
        • 对于输入序列的长度有限制,主要是因为计算复杂度和内存要求。

      Transformer模型自推出以来,已成为NLP领域的一项关键技术,推动了包括文本分类、摘要、机器翻译等多个领域的发展。此外,它的核心思想和技术也被应用于计算机视觉和其他机器学习任务中。

      2.编码器(Encoder)

      Transformer编码器的底层实现涉及多个组件和步骤,这些组件共同构成了Transformer编码器的核心功能。

      以下是其实现流程的详细介绍:

      1. 输入嵌入(Input Embedding)

      首先,输入序列(如一句话中的单词或字符)被转换成固定大小的向量。这一步通常使用嵌入层完成,每个唯一的输入单元(如单词)都被映射到高维空间中的一个稠密向量。

      2. 位置编码(Positional Encoding)

      由于Transformer本身不具备捕捉序列中位置信息的能力,因此需要向输入嵌入中添加位置信息。位置编码是一个与嵌入向量维度相同的向量,它为模型提供了每个单元在序列中的位置信息。位置编码通常使用正弦和余弦函数的组合来生成,并与输入嵌入相加。

      3. 多头自注意力(Multi-Head Self-Attention)

      在加入了位置信息的嵌入向量之后,接下来是多头自注意力层。这一层让模型能够同时关注输入序列中的多个位置。具体来说,它包括以下步骤:

      • 线性投影:首先,输入向量被线性投影成三组向量,分别是查询(Q),键(K),值(V)。
      • 点积注意力:对于每个头,使用缩放的点积注意力计算注意力得分,即通过计算查询和键的点积来确定值的权重。
      • 组合头的输出:每个头的输出被拼接起来,并通过另一个线性投影层进行处理。

      4. 残差连接和层归一化(Residual Connection and Layer Normalization)

      每个子层(如自注意力层)的输出通过一个残差连接添加回输入,并进行层归一化。残差连接有助于避免深层网络中的梯度消失问题,而层归一化则有助于稳定训练过程。

      5. 前馈网络(Feed-Forward Network)

      每个编码器层还包括一个前馈网络,它对每个位置的向量独立地进行处理。这通常是两个线性变换和一个非线性激活函数(如ReLU)。

      6. 再次应用残差连接和层归一化

      与自注意力层类似,前馈网络的输出也通过残差连接,然后应用层归一化。

      Transformer编码器的每一层都重复上述流程。输入数据流经每一层,逐渐添加更多的上下文信息。通过堆叠多个这样的层,编码器能够捕捉输入数据中的复杂模式和关系。这种架构的关键优点是其能够处理长距离依赖关系,并且由于其并行化的特性,适合于大规模数据处理。

      3.位置编码

      在Transformer模型中,位置编码(Positional Encoding)是一个关键的组成部分。由于Transformer依赖于自注意力机制,它不像传统的递归神经网络(RNN)或卷积神经网络(CNN)那样自然地处理输入序列中的顺序信息。为了让模型能够理解单词在句子中的顺序,引入了位置编码。

      1.为什么需要位置编码

      • Transformer中的自注意力机制在处理输入时是位置不变的(position-invariant),这意味着如果不添加额外的位置信息,模型就无法知道单词在句子中的顺序。
      • 位置编码的目的是为每个单词提供其在序列中位置的信息,从而使Transformer能够利用单词的顺序信息。

      2.如何计算位置编码

      位置编码是通过数学公式计算得到的,并与每个单词的嵌入向量相加。对于位置pos(一个整数,表示单词在序列中的位置)和维度i(嵌入向量的维度索引),位置编码PE(pos, i)的计算方法如下:

      • 对于偶数索引i:

        P E ( p o s , 2 i ) = sin ⁡ ( p o s 1000 0 2 i / d ) PE(pos, 2i) = \sin\left(\frac{pos}{10000^{2i/d}}\right) PE(pos,2i)=sin(100002i/dpos​)

      • 对于奇数索引i:

        P E ( p o s , 2 i + 1 ) = cos ⁡ ( p o s 1000 0 2 i / d ) PE(pos, 2i+1) = \cos\left(\frac{pos}{10000^{2i/d}}\right) PE(pos,2i+1)=cos(100002i/dpos​)

      其中,d是嵌入向量的维度。

      3.特点和作用

      • 这种计算方法生成了一个唯一的位置编码向量,对于每个不同的位置pos,其向量都是不同的。
      • 此编码方式允许模型推断出相对位置信息,因为类似位置的编码向量在高维空间中彼此接近。
      • 通过将位置编码加到词嵌入向量上,模型就能够利用这些信息来更好地理解语言的结构。

      4.应用

      • 在Transformer模型的编码器和解码器的每一层中,都将位置编码添加到输入的词嵌入向量中。
      • 这种方法使得Transformer可以处理序列化数据,同时保持高效的并行处理能力。

      总的来说,位置编码在Transformer模型中解决了捕获序列顺序信息的问题,使得模型能够在处理NLP任务时更有效地理解文本的语义和结构。

      4.注意力机制

      注意力机制(Attention Mechanism)在深度学习,特别是在自然语言处理(NLP)领域中,已成为一种非常重要的技术。它启发于人类的注意力机制,即我们倾向于集中注意力于感官输入的某些部分,同时忽略其他部分。在深度学习中,注意力机制允许模型在处理输入数据时动态地集中于那些最重要的部分。

      1.注意力机制的基本原理

      注意力机制通常涉及以下几个关键步骤:

      1. 打分(Scoring):模型首先需要确定输入数据的哪些部分是最重要的。这通过一个打分函数来实现,该函数衡量了不同输入部分对于当前任务的相关性。

      2. 加权求和(Weighted Sum):一旦每部分的重要性被打分,模型就会根据这些分数对输入数据进行加权求和。这允许模型在处理数据时集中注意力于更重要的部分。

      3. 输出:加权求和的结果是一个聚合了输入数据关键信息的向量,该向量随后被用于后续的处理,如分类、生成文本等。

      2.注意力机制的类型

      1. 软注意力(Soft Attention):这种类型的注意力机制是可微分的,它为输入的每个部分赋予一个实数权重(一般通过softmax函数实现)。这是最常见的注意力机制,被广泛用于各种深度学习模型中。

      2. 硬注意力(Hard Attention):硬注意力选择输入的一个子集进行集中处理。由于这种选择过程是不可微分的,硬注意力通常需要通过强化学习等方法进行训练。

      3. 自注意力(Self-Attention):这种注意力机制允许输入内的每个元素都关注于输入内的其他所有元素。它是Transformer模型中的核心部分,使得模型能够捕捉长距离依赖关系。

      3.注意力机制的应用

      注意力机制在自然语言处理领域中尤其流行,应用于诸如机器翻译、文本摘要、问答系统等任务。此外,它也被用于图像识别、语音识别等其他领域。

      4.注意力机制的优势

      • 提升性能:在许多任务中,注意力机制能够显著提升模型的性能。
      • 可解释性:通过查看模型的注意力权重,我们可以获得一些关于模型是如何做出决策的洞察,这增加了模型的可解释性。

      总的来说,注意力机制通过允许模型集中处理输入数据中的重要部分,提供了一种有效的方式来捕捉数据的复杂关系。随着深度学习的不断发展,注意力机制已成为一种不可或缺的工具,推动了许多领域的研究和应用。

      5.多头注意力机制

      多头注意力机制(Multi-Head Attention)是Transformer模型的一个关键组成部分,它使模型能够同时从不同的表示子空间中获取信息。这种机制在模型处理序列数据时提高了其灵活性和能力,特别是在理解复杂的上下文关系方面。以下是多头注意力机制的详细介绍:

      1.基本概念

      1. 注意力机制:注意力机制是一种让模型能够集中注意力于输入序列中的重要部分的方式,类似于人类在处理信息时会集中注意力于某些关键部分。

      2. 自注意力(Self-Attention):在自注意力中,模型计算一个序列中的每个元素对序列中其他所有元素的注意力。这允许模型捕获序列内的任意两个元素之间的关系。

      2.多头注意力的工作原理

      1. 分割为多个头:在多头注意力机制中,模型首先将输入的嵌入向量分割成多个头。每个头学习输入数据的不同部分。

      2. 并行的自注意力层:每个头独立地进行自注意力运算。这意味着模型可以并行地处理多个表示子空间中的信息。

      3. 线性变换:在每个头上,输入经过线性变换,然后计算自注意力。这包括三个重要的步骤:查询(Query)、键(Key)和值(Value)的计算。

      4. 计算注意力得分:每个头根据查询(Query)和键(Key)的点积来计算注意力得分,然后这些得分通过softmax函数进行归一化。

      5. 加权和:每个头使用归一化的注意力得分对值(Value)进行加权求和。

      6. 拼接和最后的线性变换:所有头的输出被拼接在一起,然后通过一个线性层来整合不同头的学习成果。

      3.公式表示

      对于多头注意力,其计算可以表示为:

      MultiHead ( Q , K , V ) = Concat ( head 1 , … , head h ) W O \text{MultiHead}(Q, K, V) = \text{Concat}(\text{head}_1, \dots, \text{head}_h)W^O MultiHead(Q,K,V)=Concat(head1​,…,headh​)WO

      其中每个头 head i \text{head}_i headi​是:

      head i = Attention ( Q W i Q , K W i K , V W i V ) \text{head}_i = \text{Attention}(QW^Q_i, KW^K_i, VW^V_i) headi​=Attention(QWiQ​,KWiK​,VWiV​)

      而Attention的计算方式如下所示:

      Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V Attention(Q,K,V)=softmax(dk​ ​QKT​)V

      4.优势

      • 提升模型的表达能力:通过并行地学习不同的表示子空间,多头注意力机制使模型能够捕捉到更加丰富和复杂的信息。
      • 增加灵活性:模型能够同时关注序列中不同位置的信息,这对于理解长距离依赖关系尤为重要。

      5.应用

      • 自然语言处理:多头注意力在各种NLP任务中非常有效,如机器翻译、文本摘要、问答系统等。
      • 其他领域:此外,多头注意力的概念也被扩展到其他领域,如计算机视觉。

      总的来说,多头注意力机制是Transformer模型强大能力的关键来源之一,它通过同时处理序列的不同方面,使模型能够更好地理解和处理复杂的数据。

      6.残差

      Transformer模型中的残差连接(Residual Connections)是一种重要的网络架构特征,用于帮助处理深层网络中的梯度消失和爆炸问题。这种机制在Transformer的每个子层中都得到了应用,特别是在其编码器(Encoder)和解码器(Decoder)的每一层中。

      1.基本原理

      1. 直接跳跃连接:在Transformer模型的每个子层中,输入不仅传递到子层进行处理,而且通过一个直接的连接跳跃到子层的输出。这意味着子层的输出是它的输入和处理后的结果的总和。

      2. 数学表达:如果一个子层的操作表示为 ( F(x) ),其中 ( x ) 是输入,那么残差连接的输出是 ( F(x) + x )。

      2.在Transformer中的应用

      1. 编码器和解码器中的应用:在Transformer模型的每个编码器和解码器层中,都有两个子层:一个是多头注意力机制,另一个是前馈神经网络。每个子层都有一个残差连接,然后是层归一化(Layer Normalization)。

      2. 促进梯度流动:这些残差连接允许梯度直接流过,这对于深层网络至关重要,因为它们帮助缓解了梯度消失的问题。

      3.实现示例

      在Transformer模型的伪代码中,一个编码器层可以表示为:

      def encoder_layer(x):
          # 多头注意力子层,包括残差连接和层归一化
          x = LayerNorm(x + MultiHeadAttention(x))
          # 前馈网络子层,包括残差连接和层归一化
          x = LayerNorm(x + FeedForward(x))
          return x
      

      4.重要性

      • 深层网络训练:残差连接使得训练深层的Transformer模型成为可能,因为它们提供了一种有效的方式来缓解深层网络中常见的梯度问题。

      • 增强的信息流:通过在模型中添加这些“快捷路径”,信息可以更直接地流动,从而提高了整个网络的学习能力。

      总之,残差连接在Transformer模型中发挥着至关重要的作用,它们不仅帮助模型捕捉深层次的信息,而且还确保了模型的稳定训练和高效的信息处理。这一机制的引入是Transformer架构取得成功的关键因素之一。

      7.BN与LN

      批归一化(Batch Normalization,简称BN)和层归一化(Layer Normalization,简称LN)都是深度学习中常用的归一化技术,用于加速模型训练过程中的收敛速度,并有助于缓解梯度消失问题。它们虽然目的相同,但是在实现方式上有所不同。

      1.批归一化(BN)

      概念:

      • 批归一化是一种用于深度神经网络的技术,旨在改善训练的稳定性和加速收敛速度。它最初被提出用于解决深度学习模型中的内部协变量偏移问题。

      工作原理:

      1. 计算批统计量:在一个批次的数据通过网络的某一层时,BN计算这个批次数据的均值和方差。
      2. 归一化:然后,使用这些统计量将层的输入标准化,使其具有零均值和单位方差。
      3. 可学习的参数:BN引入了两个可训练的参数,称为缩放(scale)和偏移(shift)参数。这些参数让网络有能力恢复数据的原始特征,如果它们对于后续层是有用的。

      优点:

      • 可以减少对其他正则化技术(如Dropout)的依赖。
      • 加速了网络训练的收敛速度,并有助于缓解梯度消失问题。

      局限性:

      • 对批次大小比较敏感。较小的批次会导致估计的均值和方差不准确,影响模型性能。
      • 在递归神经网络(RNN)中应用起来更加复杂。

      2.层归一化(LN)

      概念:

      • 层归一化是另一种归一化技术,特别适用于循环神经网络(RNN)和变长输入数据。与BN不同,LN对每个样本独立进行归一化。

      工作原理:

      1. 归一化:LN在单个样本的所有特征上进行归一化操作。它计算单个样本的所有输入特征的均值和方差。
      2. 标准化:使用计算出的均值和方差对每个样本进行标准化。
      3. 可学习的参数:与BN类似,LN也引入了缩放和偏移参数,以便网络可以学习恢复数据的有用特性。

      优点:

      • 由于对每个样本独立归一化,LN不受批次大小的影响,适用于批次大小变化较大的情况。
      • 在处理时间序列数据和循环神经网络时特别有效。

      局限性:

      • 在某些卷积神经网络(CNN)应用中,LN可能不如BN有效。

      3.使用场景

      • BN:在卷积神经网络(CNN)和大批量数据处理中非常有效,尤其适用于图像处理任务。
      • LN:在循环神经网络(RNN)和处理序列数据(如NLP任务)时非常有效,特别是在批次大小不一或较小时。

      BN和LN都是为了解决深度神经网络中的特定问题而设计的,它们通过对网络层的输入进行归一化,帮助模型更快地收敛并提高了训练过程的稳定性。选择使用哪种归一化技术取决于具体的应用场景和网络架构。

      8.解码器(Decoder)

      Transformer模型的解码器(Decoder)部分负责将编码器的输出转换为最终的输出序列。它通常用于序列生成任务,如机器翻译中的目标语言生成。解码器的结构与编码器类似,但有一些关键的区别,特别是在处理自注意力和编码器-解码器注意力时。以下是解码器的详细介绍:

      1. 输入嵌入和位置编码

      与编码器相似,解码器首先将其输入序列(目标序列)转换为嵌入表示,并加上位置编码。

      • 输入嵌入:通常是目标序列的词嵌入(在机器翻译任务中是目标语言)。
      • 位置编码:与编码器中相同,提供序列中词汇的位置信息。

      2. 解码器层的堆叠

      解码器由多个相同的层堆叠而成,每层包含以下三个子层:

      • 屏蔽的自注意力机制(Masked Self-Attention):

        • 与编码器中的自注意力类似,但有一个重要区别:为了避免在生成当前词汇时“看到”未来的词汇,应用了一个掩码(mask)。
        • 这个掩码确保对于每个位置,模型只能关注到该位置之前(包括当前位置)的词汇。
      • 编码器-解码器注意力(Encoder-Decoder Attention):

        • 这一层使解码器能够关注(即“看到”)编码器的输出。
        • 查询(Q)来自前一层的解码器输出,而键(K)和值(V)来自编码器的输出。
      • 前馈网络(Feed-Forward Network):

        • 与编码器中的前馈网络相同,对每个位置应用相同的全连接层。

      3. 残差连接和层归一化

      每个子层的输出都通过残差连接(即直接加上子层的输入),然后进行层归一化。

      4. 输出

      解码器的最后一层的输出用于预测下一个词汇。这通常通过一个线性层(线性变换),然后是一个softmax层来实现,softmax层输出每个词汇的概率分布。

      总的来说,Transformer解码器的设计使其能够有效地生成序列,同时考虑到源序列(通过编码器-解码器注意力)和已生成的目标序列的上下文(通过屏蔽的自注意力)。这种结构使得解码器在诸如机器翻译、文本生成等序列生成任务中表现卓越。解码器层的堆叠增强了模型的能力,使其能够捕捉复杂的依赖关系。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://lglxv587.blog.csdn.net/article/details/135714991,作者:散一世繁华,颠半世琉璃,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:Go 语言初探:从基础到实战

      下一篇:Python之闭包的使用

      相关文章

      2025-05-19 09:04:30

      开源与闭源:AI模型发展的两条路径

      开源与闭源:AI模型发展的两条路径

      2025-05-19 09:04:30
      开源 , 模型 , 用户
      2025-05-14 09:51:21

      Transformer模型:Position Embedding实现

      在自然语言处理(NLP)中,Transformer 模型是一个非常重要的里程碑,它通过自注意力(self-attention)机制极大地提高了处理序列数据的能力。

      2025-05-14 09:51:21
      位置 , 序列 , 模型
      2025-05-14 09:51:21

      python 加载 TensorFlow 模型

      为了加载一个TensorFlow模型,我们首先需要明确模型的格式。TensorFlow支持多种模型格式,但最常见的两种是SavedModel和HDF5(对于Keras模型)。

      2025-05-14 09:51:21
      model , TensorFlow , 加载 , 模型 , 示例 , 签名
      2025-05-13 09:53:23

      AIGC的底层技术:底层逻辑代码分析与原理实现

      AIGC(AI Generated Content)的底层技术主要涉及深度学习和自然语言处理技术,其核心目的是通过机器学习和模型训练来生成高质量的内容。

      2025-05-13 09:53:23
      AIGC , 学习 , 技术 , 案例 , 模型 , 生成
      2025-05-13 09:53:23

      AIGC工具的使用测评:代码分析与原理实现

      AIGC(Artificial Intelligence Guided Coding)工具是一种基于人工智能技术的开发辅助工具,旨在通过智能化的代码分析和预测,为开发者提供更快速、准确的开发体验。

      2025-05-13 09:53:23
      AIGC , 代码 , 工具 , 开发者 , 模型 , 生成 , 示例
      2025-05-06 09:19:30

      【30天玩转python】机器学习入门

      机器学习(Machine Learning, ML)是一种使计算机能够在没有显式编程的情况下自动改进的技术。它广泛应用于分类、回归、图像处理、自然语言处理等领域。通过数据训练模型,机器可以从经验中学习,并预测或决定新的数据结果。

      2025-05-06 09:19:30
      数据 , 机器 , 模型 , 算法
      2025-05-06 09:18:38

      【 数据建模与预测】数据建模的基本方法与预测技术

      在大数据时代,数据建模与预测技术是将数据转化为可操作性洞察的关键手段。数据建模通过数学模型表达数据中的关系,预测技术则利用这些模型对未来进行推测。

      2025-05-06 09:18:38
      序列 , 建模 , 数据 , 模型 , 预测
      2025-04-18 08:02:02

      diffusionAI从入门到精通——基本组件介绍

      diffusionAI从入门到精通——基本组件介绍

      2025-04-18 08:02:02
      图像 , 文本 , 模型 , 生成 , 示例 , 输入
      2025-04-18 08:02:02

      django从入门到精通(五)——表单与模型

      Django 模型是一个 Python 类,用于定义数据库中的数据结构。每个模型类对应数据库中的一张表,类的属性对应表中的字段。

      2025-04-18 08:02:02
      Django , 定义 , 模型 , 用于 , 表单 , 验证
      2025-04-16 09:12:36

      软件设计师教程(第5版)第5章 软件工程基础知识(更新中)

      【软件工程】是指应用计算机科学、数学及管理科学等原理,以工程化的原则和方法来解决软件问题的工程,其目的是提高软件生产率、提高软件质量、降低软件成本。

      2025-04-16 09:12:36
      模型 , 测试 , 系统 , 软件 , 需求
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5242502

      查看更多

      最新文章

      AIGC的底层技术:底层逻辑代码分析与原理实现

      2025-05-13 09:53:23

      AIGC工具的使用测评:代码分析与原理实现

      2025-05-13 09:53:23

      软件设计师教程(第5版)第5章 软件工程基础知识(更新中)

      2025-04-16 09:12:36

      AI 大模型重塑软件开发流程的未来

      2025-03-25 08:08:59

      AI大模型如何重塑软件开发流程:优势、挑战与应对策略

      2025-03-21 09:33:29

      【大模型应用开发极简入门】微调(一):1.微调基础原理介绍、2. 微调的步骤、3. 微调的应用(Copilot、邮件、法律文本分析等)

      2025-03-12 09:31:01

      查看更多

      热门文章

      AI模型如何重塑软件开发

      2024-12-11 06:19:22

      一段比较简单的人工智能自动做模型的程序

      2024-09-25 10:14:34

      R语言连续型变量回归分析预测

      2024-08-02 09:08:33

      AI 大模型重塑软件开发流程的未来

      2025-03-25 08:08:59

      软件测试模型

      2024-10-30 08:58:12

      架构师必备知识 - 软件体系结构 - “4+1”视图模型

      2024-10-21 09:43:42

      查看更多

      热门标签

      java Java python 编程开发 代码 开发语言 算法 线程 Python html 数组 C++ 元素 javascript c++
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      MATLAB与R语言在建模中的合作与应用(下篇)

      工程数学与数学建模在编程与算法设计中的应用(下)

      Java中的机器学习模型集成与应用

      分词算法在自然语言处理中的基本原理与应用场景

      软件开发方法

      Python 实现 NLP 的完整流程

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号