活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      AI创作间_相关内容
      • 创建对等连接(同账号)
        参数 说明 选择本端VPC 名称 对等连接名称,由汉字、英文字母、数字、中划线、下划线等构成,一般不超过64个字符。 选择本端VPC 描述 可选参数。 根据需要在文本框中输入对等连接的描述信息。 选择本端VPC 企业项目 所属企业项目,系统默认为default。 选择本端VPC 本端VPC 本端VPC:显示已选择的本端VPC,可在下拉框中选择。 选择本端VPC 本端VPC网段 显示本端VPC的网段。 选择对端VPC 账户 当前账户:表示在同一个账户内、同一个地域下的不同VPC间建立对等连接。 其他账户:表示在同一个地域下的不同账户的VPC间建立对等连接。 此处选择当前账户。 选择对端VPC 对端VPC 对端VPC:显示已选择的对端VPC,可在下拉框中选择。 选择对端VPC 对端VPC网段 显示对端VPC网段。 对端VPC网段选择的子网网段不能和本端VPC的子网网段相同或有重叠网段,否则对等连接路由可能无法连通。
        来自:
        帮助文档
        虚拟私有云 VPC
        对等连接
        创建对等连接
        创建对等连接(同账号)
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API列表
      • 网络ACL
        添加出方向规则 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需添加出方向规则的ACL所在行,点击“配置规则”按钮,进入网络ACL详情页面; 4. 选择“出方向规则”,进入出方向规则管理页面; 5. 点击“添加规则”按钮,进入添加出方向规则页面; 6. 配置出方向规则的“名称”、“类型”、“策略”等信息; 7. 确认配置信息后,点击“确定”,即完成出方向规则的创建。 关联子网 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需关联子网的ACL所在行,点击“配置规则”按钮,进入网络ACL详情页面; 4. 选择“关联子网”,进入关联子网管理页面; 5. 点击“关联”按钮,进入关联子网页面; 6. 选择需要关联的子网; 7. 点击“确定”,即完成子网的关联。 关闭网络ACL 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需关闭网络ACL的所在行,点击“更多”按钮; 4. 点击“关闭”按钮,进入关闭网络ACL确认页面; 5. 点击“确定”,即完成网络ACL的关闭。 删除网络ACL 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需删除网络ACL的所在行,点击“更多”按钮; 4. 点击“删除”按钮,进入删除网络ACL确认页; 5. 点击“确定”,即完成网络ACL的删除。 说明 修改(删除)入/出方向规则、向前(向后)插入入/出方向规则、关闭(开启)入/出方向规则等操作,可参考上述类似的操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        网络管理
        网络ACL
      • 应用场景
        分布式系统异步通信场景 在单体或传统大型单机应用场景中,系统涉及模块众多,接口调用错综繁杂,业务流程耦合导致系统对用户请求响应慢,可以通过将拆分子系统,并用消息队列作为子系统间的异步通信通道进行系统解耦,提升整个系统的响应速度。 数据同步和交换场景 在大中型分布式系统中,各个子系统数据需最终保持一致,比如金融业务场景,需要有可靠消息传递,能保证业务的连续性。分布式消息队列可用于子系统间的高可靠数据传递,实现两者之间数据同步和交换,降低实现难度和成本,并提供数据通道帮助触发其他的业务流程。 削峰填谷场景 在电子商务系统或大型网站,比如大型电商场景,通常会涉及到订单、支付和通知等等场景的业务处理,系统上下游处理能力存在差异,当处理能力高的系统上游突发请求超过系统下游处理能力时,系统对外呈现的服务能力为0。此时可以通过队列服务堆积请求消息,对请求消息实现削峰填谷,错峰处理,避免下游因突发流量崩溃。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        应用场景
      • MindIE NPU单机推理
        本节介绍如何创建MindIE NPU单机推理任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机部署。整体部署 2 个推理应用实例,每个实例占用 1 张 NPU 卡,因此本任务共需 2 张 NPU 卡,用于验证轻量级模型在单机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:2 配置信息 推理类型选择 单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架:ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 Master:CPU,内存,共享内存可以不填,NPU填:1 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        MindIE NPU单机推理
      • vLLM NPU多机PD分离
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        vLLM NPU多机PD分离
      • OpenClaw(原Clawdbot)挂载持久化存储
        本文介绍如何为OpenClaw挂载持久化存储。 概述 OpenClaw(原Clawdbot)是一款开源的本地优先AI 代理与自动化平台。您可以通过OpenClaw将多渠道通信能力与大语言模型深度集成,创建拥有持久记忆与主动执行能力的定制化 AI 助理。本文介绍为OpenClaw挂载持久化存储。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。 步骤一:部署OpenClaw 1. 在应用托管部署OpenClaw,详见 通过应用托管部署OpenClaw 。 步骤二:创建存储
        来自:
      • 创建数据库
        参数 说明 数据库名称 1.名称长度为164个字符,由小大写字母、数字、下划线()或中划线()组成,以字母开头,字母或数字结尾 ; 2.数据库名称不能为rdsadmin、master、msdb、tempdb、model或resource字段(不区分大小写)。 支持字符集 数据库字符集,支持的字符集包括: 1.ChinesePRCCIAS; 2.ChinesePRCCSAS; 3.ChinesePRCCIAI; 4.SQLLatin1GeneralCP1CIAS; 5.ChinesePRC90CIAI; 6.CyrillicGeneralCIAS; 7.THAICIAS。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库
        创建数据库
      • (停止维护)CCE发布Kubernetes 1.13版本说明
        Kubernetes版本(CCE增强版) 版本说明 v1.13.10r0 主要特性: 负载均衡支持设置名称 4层负载均衡支持健康检查,7层负载均衡支持健康检查/分配策略/会话保持l CCE集群支持创建物理机节点(容器隧道网络) 支持AI加速型节点(搭载海思Ascend 310 AI处理器),适用于图像识别、视频处理、推理计算以及机器学习等场景 支持配置docker baseSize 支持命名空间亲和调度 支持节点数据盘划分用户空间 支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络) v1.13.7r0 主要特性: Kubernetes同步社区1.13.7版本 支持网络平面(NetworkAttachmentDefinition)
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.13版本说明
      • 调度策略(亲和与反亲和)
        参数名 参数描述 必须满足 即硬约束,设置必须要满足的条件,对应于requiredDuringSchedulingIgnoredDuringExecution,多条规则间是一种“或”的关系,即只需要满足一条规则即会进行调度。 尽量满足 即软约束,设置尽量满足的条件,对应于preferredDuringSchedulingIgnoredDuringExecution,无论是满足其中一条或者是都不满足都会进行调度。
        来自:
        帮助文档
        云容器引擎
        用户指南
        工作负载
        容器设置
        调度策略(亲和与反亲和)
      • 使用数据加速
        本节介绍如何使用加速数据集。 以创建离线训练应用为例,说明如何使用加速数据集。 前提条件 已完成AI套件安装,弹性数据集组件运行正常。 确保存储插件cstorcsi运行正常。 数据集加速状态为已加速或已预热。 约束与限制 当前使用加速数据集仅限default命名空间。 如数据集加速状态为已加速或已预热,训练应用默认使用加速PVC;其他状态下,训练应用默认使用非加速PVC。 操作步骤 使用加速数据集 登录云容器引擎管理控制台 在集群列表页点击进入指定集群 进入主菜单 智算套件 > AI应用列表 > 离线训练 > 创建AI应用 进入离线训练应用创建页面,进行相关信息配置,详细参考 创建训练任务 配置训练数据 点击“选择数据集”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 点击“选择数据集版本”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 训练应用创建完成,将默认使用加速PVC。以PyTorchJob为例,可以在yaml中查看挂载信息:
        来自:
        帮助文档
        智算套件
        用户指南
        数据集管理
        数据集加速
        使用数据加速
      • 基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
        ” 号开头,可选择对应知识库或知识文档作为推理参考。 3. 若不想继续使用某个知识库,可按照特定操作流程将其移除,具体操作可参考相关图示。 通过以上步骤,您即可完成一个简单的私有知识库搭建,赶紧动手尝试吧! 五、推荐使用场景 1. 智能客服训练 AI 回答公司政策、产品 FAQ,减少人工客服负担。 2. 企业内部搜索让员工直接向AI提问,无需翻遍公司Wiki或文档库。 3. 智能助手帮助销售整理客户信息,协助HR处理面试反馈,助力研发自动生成技术文档。 4. 智能营销策划协助市场团队分析市场趋势和竞争对手数据,生成针对性的营销活动方案,提升营销效果。 5. 财务智能分析工具帮助财务人员自动完成财务报表分析,预测财务风险,为企业决策提供数据支持。 6. 生产流程优化系统利用AI实时监测生产设备运行状况,预测设备故障,提前安排维护,减少生产中断。 7. 培训内容生成助手,为培训部门快速生成员工培训课件、在线课程内容,满足不同岗位的培训需求。 8. 供应链管理智能助手,根据销售数据、库存水平和供应商信息,辅助优化采购计划。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
      • 创建vLLM NPU多机PD分离任务(1)
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 推理类型选择 多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。 简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • URL采集设置
        单个url阈值 正常调用下采样率判断优先级如下: 公共采样率(命中采)<局部采样率(若没有可忽略,命中采)<慢请求响应公共阈值(命中采)<单个url慢请求阈值(命中采)<黑名单(命中不采) 参数名称 说明 样例 慢请求响应公共阈值 用于定义全局慢请求阈值。 单位ms,默认500,支持设置0~1,000,000间的任意整数。 响应时间超过该阈值的请求将被定义为慢请求,慢请求采样率为百分百。 500 慢请求响应单个url阈值 用于定义某个url的慢请求阈值。 单位ms,默认500,支持设置0~1,000,000间的任意整数。 对于当前url而言,响应时间超过该阈值的请求将被定义为慢请求,慢请求采样率为百分百。 500 Code定义 自定义错误状态码,影响错误数展示。 业务code采集长度限制 自定义code采集长度,避免影响性能。 业务code解析 用于定义状态码的正确值。 如果设置多个业务code,那么只有所有业务code的值都满足正确值时,该url的业务code解析才会被判定为正确。 错误状态码定义 用于定义错误状态码。 错误调用下采集优先级判断如下: 业务code自定义(非正确采)<错误状态码定义(命中采) 参数名称 说明 样例 业务code采集长度限制 配置解析responseBody的长度限制,大于该长度的body不解析,防止影响性能。 默认0不采集,支持设置 0~2,000间的任意整数。 50 解析业务code的key 配置业务状态码的字段名称。 如果接口返回内容为{"errorCode":500,"errorMsg":"error msg"} 则该字段配置为errorCode。 errorCode 业务code的正确值 配置业务状态码的正确值。 如果需要设置多个正确值,可用半角逗号,隔开,所有非正确的值都会将调用链设置为错误。 200,202 错误状态码定义 配置业务状态码的错误值范围。 默认“状态码500及以上定义为错误”,允许修改为“状态码400及以上定义为错误”
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用设置
        URL采集设置
      • x86 V6实例(CPU采用Intel Cascade Lake架构)
        高性能计算型 采用Intel Cascade Lake CPU,满足多核高主频、低时延HPC的业务场景。 规格名称 业务场景 CPU 内存 本地磁盘 扩展配置 physical.h6.xlarge HPC 44cores Intel Cascade Lake 2288X V5 (222 core CPU,3.0 GHz) 192GiB 无 SDI3.0(225GE) GPU加速型 采用Intel Cascade Lake CPU、NVIDIA T4,满足AI推理和图形图像加速业务场景。 规格名称 业务场景 CPU 内存 本地磁盘 扩展配置 physical.pi6.3xlarge.6 异构图形图像,AI推理 52cores ATLAS G560V5 (226 core CPU,2.6 GHz) 448GiB 2480G SATA SSD+11600G NVMe SSD 6T4 +2Hi1822
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        x86 V6实例(CPU采用Intel Cascade Lake架构)
      • 使用ECI开通L20实例
        本文为您介绍如何使用ECI开通L20实例。 NVIDIA L20是NVIDIA面向数据中心AI和图形工作负载设计的一款专业 GPU,属于NVIDIA Ada Lovelace架构的数据中心GPU产品线。L20在AI推理、图形渲染和虚拟化之间取得平衡,填补了纯计算卡和专业显卡之间的市场空白。 操作步骤 1. 订购弹性容器实例,选择指定规格。架构选择X86计算,类型选择GPU计算加速型,显卡类型选择L20。 2. 在容器配置中打开高级设置,填写容器所需的GPU卡数量 3. 最后,点击确认订单。
        来自:
        帮助文档
        弹性容器实例
        最佳实践
        使用ECI开通L20实例
      • 资金管理
        如何进行账号间转款 ? 天翼云暂不支持账号间款项直接转移。可以先提现,再充值到要转款的账号。 能否给其他人的天翼云账号充值? 可以使用以下两种方式给其他人的账号进行充值: 在线充值:获取其他用户的天翼云账号和密码,登录后进行在线充值。 转账汇款:获取其他用户的专属汇款账号,把充值金额汇入对方的专属汇款账号即可。 对公汇款多久可以到账? 对公汇款到账需要一定时间,具体到账时间依赖于银行系统,一般为13个工作日,建议对公充值一般在工作日(周一至周五,每天9点17点)进行,避免等待时间过长。 通过在线支付方式进行充值后,为什么账户余额没有变化? 在线充值有一定延迟,请稍后查看。 如何申请专属汇款账号? 天翼云为每位用户开设了银行专属账号,可进入“余额充值>转账汇款”页面点击“开通”进行申请,每个天翼云账号会对应分配唯一的银行专属汇款账号。 换了手机号后如何提现? 1、进入“账号中心 > 安全设置”页面。 2、单击“绑定手机”后的“立即修改”,跳转到修改信息页面。根据页面提示信息修改绑定手机号码后,再进行提现。 提现有金额限制吗? 没有,用户可根据需要提现。 每天提现次数有限制吗? 没有,用户可根据需要分次提现。
        来自:
        帮助文档
        费用中心
        常见问题
        资金管理
      • 基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
        ” 号开头,可选择对应知识库或知识文档作为推理参考。 3. 若不想继续使用某个知识库,可按照特定操作流程将其移除,具体操作可参考相关图示。 通过以上步骤,您即可完成一个简单的私有知识库搭建,赶紧动手尝试吧! 五、推荐使用场景 1. 智能客服训练 AI 回答公司政策、产品 FAQ,减少人工客服负担。 2. 企业内部搜索让员工直接向AI提问,无需翻遍公司Wiki或文档库。 3. 智能助手帮助销售整理客户信息,协助HR处理面试反馈,助力研发自动生成技术文档。 4. 智能营销策划协助市场团队分析市场趋势和竞争对手数据,生成针对性的营销活动方案,提升营销效果。 5. 财务智能分析工具帮助财务人员自动完成财务报表分析,预测财务风险,为企业决策提供数据支持。 6. 生产流程优化系统利用AI实时监测生产设备运行状况,预测设备故障,提前安排维护,减少生产中断。 7. 培训内容生成助手,为培训部门快速生成员工培训课件、在线课程内容,满足不同岗位的培训需求。 8. 供应链管理智能助手,根据销售数据、库存水平和供应商信息,辅助优化采购计划。 返回DeepSeek专题导航。
        来自:
        帮助文档
        弹性云主机 ECS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
      • 产品介绍
        本节介绍安全云应用的产品介绍。 产品简介 安全云应用是一种基于天翼云托管的应用程序流式传输服务,通过天翼云自研的clink传输协议,将音视频、图像、外设等信息传输到用户的远程设备上,实现跨平台、安全、易用的应用程序访问。 注意 目前安全云应用功能仅在部分资源池(石家庄3、郴州2、佛山3)开放,如当前资源池的AI云电脑(政企版)控制台没有安全云应用的功能菜单,请联系运维客服进行开通(运维客服邮箱:clouddesktop@chinatelecom.cn)。 应用场景 国产化转型 在国产操作系统上无缝运行Windows应用,确保用户业务系统的连续性,轻松实现国产化转型。 安全办公场景 远程访问应用,内外网隔离,兼顾外网访问需求的同时,最大限度保证用户数据安全。 支持的操作系统 服务桌面:承载云应用运行的AI云电脑,支持Windows Server 2019 用户桌面:用户使用的国产化AI云电脑,统信V20, 麒麟V10,中科方德 产品规格 规格类型 功能适用 规格参数 系统支持 基础版 适用于简单办公、文档编辑、客户服务等场景 2C4G 80G系统盘 Windows 标准版 适用于视频娱乐,在线会议,OA办公等场景 4C8G 80G系统盘 Windows 旗舰版 适用于高效办公,开发设计,视频监控等场景 8C16G 80G系统盘 Windows
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        安全云应用
        产品介绍
      • 应用场景
        国产化算力需求 满足客户将大模型迁移至国产AI芯片的需求,提升模型的性能、灵活性、稳定性和可扩展性,强化国产AI系统的自主能力,避免外部技术制约的影响。 模型性能极致调优 基于国产算力,从训练和推理框架、数据前后处理、算子亲和性等方面入手优化,提升模型的MFU、TPS、训练精度等关键指标。 机器环境摸排检查 可根据具体情况,为客户软硬件、NPU健康状态、网络功能及性能、存储系统、镜像及容器和集群等进行必要的检查验证,可输出检测报告。 专家咨询和技术支持 为客户提供全方位的模型适配专家服务,支持客户进行专业咨询和模型跑通实践。
        来自:
        帮助文档
        模型适配专家服务
        产品介绍
        应用场景
      • 分布式消息服务RocketMQ(1)
        分布式消息服务RocketMQ是一款低成本、高可靠、高性能的消息中间件产品,兼容开源RocketMQ客户端,提供高效可靠的消息传递服务,解决分布式应用系统之间的消息数据通信难题,用于系统间的解耦,用户只需专注业务,无需部署运维,适用于电商、金融、政企等多样业务场景。
        来自:
      • 钢筋计数模型训练教学与实践
        本实践基于科研助手进行钢筋计数模型训练、推理。 场景描述 概述 息壤·科研助手是一款适用于高校科研使用场景的一站式科研实训平台,可调度各种类型的计算资源,支持一键部署、随时随地、无需配置开箱即用。科研助手支持用户实现AI教学场景的模型训练、推理、调优等。 实践内容 钢筋是建筑业的重要材料,庞大的数量、工地现场环境复杂以及人工点验错漏等现实因素为钢筋点验工作制造了难度,那么如何才能快速且准确地完成对于整个建筑施工过程极为重要的钢筋点验工作环节呢?本次实践内容为“AI数钢筋”——通过人工智能技术实现钢筋数量统计。所谓“AI数钢筋”就是,通过多目标检测机器视觉方法以实现钢筋数量智能统计,达到提高劳动效率和钢筋数量统计精确性的效果。目标检测算法通过与摄像头结合,可以实现自动钢筋计数,再结合人工修改少量误检的方式,可以智能、高效地完成钢筋计数任务。 步骤简介 教程包括如下步骤: 应用商城选购:在科研助手的应用商城中选购自己所需的教学与实践镜像 创建开发机:购买开发机,选择所需的资源规格 访问开发机并开始实践:在开发机中进行相应的教学与实践 获取结果:将实践生成的内容保存至本地 实践步骤
        来自:
        帮助文档
        科研助手
        最佳实践
        钢筋计数模型训练教学与实践
      • MindIE NPU单机PD分离
        本节介绍如何创建MindIE NPU单机PD分离任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机 PD(Prefill/Decode)分离部署。部署形态为 2P × 2D 架构,其中 Prefill 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡;Decode 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡。因此,本任务共需 4 张 NPU 卡,实现 Prefill 与 Decode 解耦,以提升首 Token 时延与整体吞吐性能。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        应用管理
        在线推理
        创建推理应用
        MindIE NPU单机PD分离
      • 产品功能
        智算一体机集成一站式智算服务平台,提供大模型训练、推理、应用等全栈AI工具链服务。包含数据管理、模型开发与训练、模型评估、模型管理、服务部署等模块。 序号 主要功能/性能 解决客户问题 1 数据集管理 实现创建数据集、导入数据、管理数据和数据标注功能,帮助用户操作管理数据。 2 模型开发与训练管理 & 模型精调 实现快速微调、模型开发管理、训练任务管理、开发环境管理功能。提供多种开发工具和开发环境,也支持用户上传开发环境。客户可根据自身情况,灵活选择模型开发方式,进行模型训练迭代。 3 模型管理 实现导入模型、管理模型、模型评估功能。帮助客户对模型进行版本管理,性能测评。 4 模型部署 实现模型服务的部署、管理和密钥的管理。解决客户在训练迭代大模型后,在线测试模型推理、上下文理解等性能。 5 模型广场 一站式智算服务平台支持多种主流开源大模型API调用,为客户提供在线试用体验。 6 模型服务 实现账户的模型服务开通、应用的模型服务权限管理,支持查看调用情况和告警信息。方便客户管理模型服务权限。 7 运营运维平台 实现用户运营、资源运营、监控调度、配额及权限设置功能。方便客户进行运营运维操作。 8 AI算力 解决AI应用中所需要的算力资源,包含昇腾、英伟达等多样算力。
        来自:
        帮助文档
        智算一体机
        产品介绍
        产品功能
      • MindIE NPU单机PD分离(1)
        本节介绍如何创建MindIE NPU单机PD分离任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机 PD(Prefill/Decode)分离部署。部署形态为 2P × 2D 架构,其中 Prefill 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡;Decode 阶段使用 2 个实例,每个实例占用 1 张 NPU 卡。因此,本任务共需 4 张 NPU 卡,实现 Prefill 与 Decode 解耦,以提升首 Token 时延与整体吞吐性能。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 开启PD分离选择 静态PD分离 配置信息 推理类型选择单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 产品优势
        一站式智算服务平台为您提供优质的服务体验,本文带您了解平台产品优势。 全流程开发工具 提供训练数据管理、模型开发(代码式开发工具、预置大模型、预置开发环境)、模型训练、模型精调、模型管理、模型评估、服务部署到模型服务调用的全链路功能。集成分布式训练调度技术、多种训练加速方法和高性能存储,支撑大模型训练,并极大降低训练和应用模型成本、缩短训练时长。 兼顾各类用户需求 面向需要开发复杂模型的用户,提供完整的代码式开发工具、预置大模型、预置开发环境等,满足用户的各种复杂模型开发需求。面向希望能快速、便捷建模的用户,则充分利用大模型微调训练的特点,提供快速微调工具,只需选择数据、配置参数即可完成大模型微调,降低大模型训练的使用门槛。 部署快捷,适配广泛 集成分布式算力调度、模型并行推理和多种运算加速能力,提升模型推理性能,实现推理服务的快捷部署。同时,适配多种模型结构,灵活支持用户各类复杂推理应用需求。 集成多种AI框架 集成多种AI框架,包括国产AI框架,支持各种主流大模型。 安全可信 符合数据监管要求,不设置数据埋点,不收集存储用户的入参和出参数据,从根本上保证了用户的数据隐私安全。
        来自:
        帮助文档
        一站式智算服务平台
        产品介绍
        产品优势
      • OpenClaw(原Clawdbot)集成企业微信
        本文介绍通过OpenClaw集成企业微信。 概述 OpenClaw(原Clawdbot)是一款开源的本地优先AI 代理与自动化平台。您可以通过OpenClaw将多渠道通信能力与大语言模型深度集成,创建拥有持久记忆与主动执行能力的定制化 AI 助理。本文介绍通过OpenClaw集成企业微信。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。 步骤一:部署OpenClaw 1. 在应用托管部署OpenClaw,详见 通过应用托管部署OpenClaw 。 步骤二:集成企业微信 说明:应用托管的OpenClaw应用最新版本默认已内置企业微信插件,无需额外安装。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        OpenClaw(原Clawdbot)集成企业微信
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 什么是云间高速(标准版)
        云企业路由器 在云间高速(标准版)产品中,是区域(资源池)范围内的核心网络设备,承担当前区域内流量和跨域间流量的转发,同时支持自定义路由表和自定义路由策略。 网络实例 在云间高速(标准版)产品中,可以无缝接入云间高速的网络实例,包含用户购买的天翼云产品:虚拟私有云(VPC)、云专线、天翼云SDWAN、VPN连接(CTYUN4.0资源池)和云桌面网络。 跨域互联带宽包 购买云间高速(标准版)产品,同时需要购买各个跨域网络实例的互通网络带宽,所有的跨域互通网络实例使用的带宽总和即为带宽包。 跨域连接 云间高速(标准版)实例中,任意两个云企业路由器实例间建立的连接称为跨域连接。跨域连接的带宽需从互联带宽包中分配,且带宽为双向。所有跨域连接带宽的总和不得超出其所属带宽包的容量。请根据实际的业务网络需求,提前合理规划跨域连接的带宽。 路由表 云间高速(标准版)产品实例中,云企业路由器通过配置在其上的路由表进行流量转发,每个云企业路由器包含一张默认路由表,支持创建多自定义路由表和自定义路由,并支持通过路由表关联转发和路由学习功能定义互通、隔离,满足网络多样化的需求。 说明 支持自定义路由表能力的资源池:CTYUN4.0资源池。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        什么是云间高速(标准版)
      • ALM-12066 节点间互信失效
        本章节主要介绍 ALM12066 节点间互信失效。 告警解释 系统每一个小时检查一次主OMS节点和其他Agent节点间的互信是否正常,如果存在互信失效的节点,则发送告警。待客户修复改问题,该告警会自动清除。 告警属性 告警ID 告警级别 是否自动清除 12066 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 可能会导致管理面的一些操作异常。 可能原因 /etc/ssh/sshdconfig配置文件被破坏。 omm密码过期。 处理步骤 查看/etc/ssh/sshdconfig配置文件状态 1.打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看告警详情中涉及的主机列表。 2.以omm用户登录主OMS管理节点。 3.依次在告警详情中的节点执行ssh 命令:ssh host2 (host2为告警详情中OMS节点之外的其它节点),看是否连接失败。 是,执行步骤4。 否,执行步骤6。 4.打开host2主机上的“/etc/ssh/sshdconfig”配置文件,查看另外节点是否配置在AllowUsers 、DenyUsers等白名单或者黑名单中。 是,执行步骤5。 否,联系OS专家处理。 5.修改白名单或者黑名单设置,保证omm用户在白名单中或者不在黑名单中。然后持续一段时间观察告警是否清除。 是,操作结束。 否,执行步骤6。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12066 节点间互信失效
      • 人脸库
        本节主要介绍如何在智能视图服务控制台使用人脸库。 如果要使用人脸识别相关的AI分析功能,需要配置人脸库,包含创建目标人脸库、添加人员信息等操作。点击左侧导航栏的【AI管理人脸库】,可以查看平台的所有人脸库列表,包括人脸库名称、人数、创建时间和更新时间等信息,用户可以进行查看/编辑/删除相关操作。 添加人脸库 点击【添加人脸库】,进入该页面,输入名称和描述完成人脸库的创建。 添加人员 进入目标人脸库的成员详情页面,点击【添加成员】按钮,根据页面提示上传头像、填写姓名等关键信息。 添加完成后,返回人脸库的成员详情页面可进行查看,支持对人员进行编辑和删除操作。
        来自:
        帮助文档
        智能视图服务
        用户指南
        AI管理
        人脸库
      • 天翼云函数计算一键部署DeepSeek大模型
        大模型部署难点 大模型的部署面临诸多挑战,这些难点主要集中在硬件资源、数据处理、模型优化、安全性以及实际应用的适配等多个方面。个人用户想部署大模型主要有下列难点: 硬件资源成本大:大模型的训练和推理需要强大的硬件支持,通常需要高性能的 GPU/TPU 集群;例如推理时可能需要 A100、H100 等高端 GPU。即使是较小的模型(如1.5B参数),也需要至少4GB显存的GPU和16GB内存。 软件环境与配置难:部署需要搭建复杂的软件环境,涉及操作系统、AI 框架等,配置错误可能导致模型无法运行。部署过程中可能遇到依赖环境不兼容或缺失的问题,例如 Python、CUDA 版本不匹配。 缺乏中文支持:许多部署工具(如Ollama、Docker)不提供中文支持,进一步增加了模型部署门槛。 技术支持不足:本地部署需要掌握一定的专业支持,特别是故障排除和模型优化;依靠个人自查解决问题难度很大,且效率低下。 FAAS平台部署DeepSeek 接下来将分别从平台优势、部署架构、操作步骤等几个方面,为您详细展示如何通过天翼云 FAAS 平台快速部署 DeepSeek 大模型,构建私有的 AI 智能问答应用。 平台优势 免运维:FAAS 提供全托管 Serverless 计算服务,无需管理维护基础设施;用户只需要指定GPU资源规格,平台就会置备好计算资源即刻使用;同时 24h 服务的技术支持团队,随时为用户提供专业支持和答疑解惑。 低成本:FAAS 平台采用极低的按量计费模式,根据用户实际使用的资源量进行收费;用户不再需要承担高额的 GPU 硬件购买、租用、这就成本,甚至能够以最低的费用使用到最新的 GPU 卡。 开箱即用:FAAS 平台开箱即用,省去了复杂的软件环境、操作系统、框架配置等操作;提供多种 AI应用模板、GPU函数模板,帮助用户快速构建部署AI应用和大模型。 高弹性:FAAS 平台支持实时弹性伸缩和动态负载均衡,秒级扩缩容能力灵活调度计算资源;保障应用服务稳定高可用,相比于人工扩缩容提效显著。
        来自:
        帮助文档
        函数计算
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        函数计算:天翼云函数计算与DeepSeek大模型
        天翼云函数计算一键部署DeepSeek大模型
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 56
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      AI Store

      模型推理服务

      应用托管

      知识库问答

      推荐文档

      主机新手使用指南

      云课堂 第七课:使用对等连接在天翼云两个用户的云网络

      数据管道列表

      产品定义

      迁移准备

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号