爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云计算_相关内容
      • 认证鉴权
        步骤2:构造动态密钥 使用 HMACSHA256 算法,进行链式计算,生成动态密钥。HMACSHA256(key, data) 表示使用密钥 key 对数据 data 进行 HMACSHA256 计算。 plaintext ktime HMACSHA256(ctyuneopsk, eopdate) kAk HMACSHA256(ktime, ctyuneopak) kdate HMACSHA256(kAk, eopdate的前8位日期) 步骤3:计算最终签名 plaintext signature Base64(HMACSHA256(kdate, 待签名字符串)) 步骤4:构造授权头 plaintext EopAuthorization: {ctyuneopak} headers{参与签名的header列表} Signature{signature} 三、完整请求示例 plaintext GET HTTP/1.1 Host: eopdate: 20211221T163614Z ctyuneoprequestid: 123456789 EopAuthorization: ctyuneopak headersctyuneoprequestid;eopdate Signaturexad01/ada 四、关键要点 时间格式 :eopdate必须为YYYYMMDDTHHMMSSZ格式(如:20211221T163614Z)。注意计算kdate时,只使用eopdate的前8位日期。 字母排序:所有参与签名的元素都必须按字母顺序排列。 必须字段 :ctyuneoprequestid和eopdate是必填签名头。 签名有效期:建议每次请求都重新生成签名。 注意事项: 参与签名的header、query、body参数,在计算签名前后不能更改(包括空格、换行等),否则会导致签名错误。报错CTAPI10009。
        来自:
        帮助文档
        知识库问答
        API参考
        如何调用API
        认证鉴权
      • 认证鉴权(1)
        步骤2:构造动态密钥 使用 HMACSHA256 算法,进行链式计算,生成动态密钥。HMACSHA256(key, data) 表示使用密钥 key 对数据 data 进行 HMACSHA256 计算。 plaintext ktime HMACSHA256(ctyuneopsk, eopdate) kAk HMACSHA256(ktime, ctyuneopak) kdate HMACSHA256(kAk, eopdate的前8位日期) 步骤3:计算最终签名 plaintext signature Base64(HMACSHA256(kdate, 待签名字符串)) 步骤4:构造授权头 plaintext EopAuthorization: {ctyuneopak} headers{参与签名的header列表} Signature{signature} 三、完整请求示例 plaintext GET HTTP/1.1 Host: eopdate: 20211221T163614Z ctyuneoprequestid: 123456789 EopAuthorization: ctyuneopak headersctyuneoprequestid;eopdate Signaturexad01/ada 四、关键要点 时间格式 :eopdate必须为YYYYMMDDTHHMMSSZ格式(如:20211221T163614Z)。注意计算kdate时,只使用eopdate的前8位日期。 字母排序:所有参与签名的元素都必须按字母顺序排列。 必须字段 :ctyuneoprequestid和eopdate是必填签名头。 签名有效期:建议每次请求都重新生成签名。 注意事项: 参与签名的header、query、body参数,在计算签名前后不能更改(包括空格、换行等),否则会导致签名错误。报错CTAPI10009。
        来自:
      • SLURM介绍
        本文面向初次使用SLURM集群的用户,聚焦核心命令与快速上手流程,通过简明易懂的方式讲解日常作业管理的必备技能,帮助您快速掌握集群使用方法,充分发挥天翼云弹性高性能计算的算力优势。 引言 Simple Linux Utility for Resource Management,简称SLURM,是全球最主流的高性能计算集群资源管理与作业调度系统,被90%以上的世界顶级超算中心采用。天翼云弹性高性能计算 (EHPC) 基于SLURM作业调度系统,为用户提供开箱即用的超算级算力服务。 主要覆盖场景: 工业仿真: 完美适配 LSDYNA、STARCCM+、ANSYS、VASP 等主流 CAE/CFD 软件。通过 SLURM 调度器实现跨节点多核并行计算,结合天翼云底层 RDMA 高速网络,大幅缩短复杂流体力学、结构强度及材料科学计算的仿真周期。 生物信息: 针对 AlphaFold 3、GROMACS、Nextflow 、GATK 等批量化任务进行深度优化。支持在高性能容器化环境(如 Apptainer/Singularity)中一键部署复杂的生信流水线,实现海量基因组测序数据的高效并行处理。 芯片制造: 提供满足 EDA (电子设计自动化) 工具所需的超大内存节点与高性能存储支持。在电路仿真、物理验证与寄生参数提取等环节,利用 Slurm 的优先级调度机制,确保关键设计任务在高并发环境下依然稳定运行。 训练推理: 针对 NVIDIA Hopper/Ampere 及华为昇腾 (Ascend) 等异构算力深度适配。兼容vLLM、DeepSpeed、MegatronLM 等主流框架,支持百亿/千亿级参数大模型的分布式训练与高吞吐推理。通过高性能容器部署实现环境解耦,快速部署最新 AI 大模型,实现 Token 自由。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        资源调度
        SLURM介绍
      • 创建自定义层
        层为您提供了发布和部署自定义内容的能力,包括公共依赖库、运行时环境和函数扩展等。为了减少在部署或更新函数时的代码包体积,您可以将函数依赖的公共库提取到层中,或者使用函数计算官方的公共层。本文将介绍层的功能原理、各运行时中使用层的说明,以及如何构建层的ZIP包和创建、删除自定义层。 功能原理 在构建层时,需将所有内容打包成ZIP文件。函数计算的运行时会将层的内容解压并部署到/opt目录下。 当函数配置了多个层时,这些层的内容会按照层配置的逆序合并到/opt目录。如果某个文件与其他层中的文件同名,先配置的层中的该文件会覆盖后配置层中的同名文件。 说明 为某函数配置了第1层和第2层,函数实例启动时,会先加载第1层,再加载第2层,并将它们解压到/opt目录。在/opt目录中,第2层的内容在前,第1层的内容在后。如果第1层和第2层中存在同名文件,那么第2层中的文件会覆盖第1层中的文件。 如果层中的代码依赖二进制库或可执行文件,需要使用Linux系统进行编译构建层,推荐使用Debian 10。 函数计算的运行时基于x8664架构,如果层中的依赖库对指令集有依赖,需使用x8664架构的机器,或通过交叉编译方式确保依赖库与函数计算的运行时兼容。 创建自定义层 创建层时,需要将所有内容打包到ZIP文件中。函数计算运行时会将层的内容解压并部署在函数的/opt目录下。
        来自:
        帮助文档
        函数计算
        用户指南
        高级功能
        层管理
        创建自定义层
      • 产品规格
        本文介绍弹性文件服务的产品规格。 规格类型 参数 SFS Turbo标准型 SFS Turbo性能型 最大带宽 1.5GB/s 2GB/s 最高IOPS 5000 30000 时延 10ms 3ms 容量 500GB起步,默认32TB上限,可提交工单申请扩大上限至320TB。 500GB起步,默认32TB上限,可提交工单申请扩大上限至320TB。 扩容步长 1GB 1GB 优势 低成本 低时延 应用场景 适用于大容量、低时延的业务,如代码存储、日志存储、Web服务、虚拟桌面等。 适用于海量小文件、随机IO密集型以及时延敏感型业务,如高性能计算、文件共享、内容管理等。 说明 提交工单后,在资源余量和网关余量满足的情况下可为您扩大单文件系统配额。 提交工单时须同时申请扩大单用户弹性文件系统总容量和单文件系统容量上限 两个配额项至所需配额。 规格说明 多台云主机可达到上述最大带宽,测试时建议使用多台云主机。 最大IOPS、最大带宽两个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 带宽大小与容量相关,但是由于有缓存,所以容量和性能的比例不容易体现。 IOPS大小与容量非线性相关。容量越大,性能越好,取决于实际压力情况。 时延是指低负载情况下的最低延迟,非稳定时延。时延与容量无关。
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        产品规格
      • 产品规格
        本文介绍弹性文件服务的产品规格。 规格类型 参数 SFS Turbo标准型 SFS Turbo性能型 最大带宽 1.5GB/s 2GB/s 最高IOPS 5000 30000 时延 10ms 3ms 容量 500GB起步,默认32TB上限,可提交工单申请扩大上限至320TB。 500GB起步,默认32TB上限,可提交工单申请扩大上限至320TB。 扩容步长 1GB 1GB 优势 低成本 低时延 应用场景 适用于大容量、低时延的业务,如代码存储、日志存储、Web服务、虚拟桌面等。 适用于海量小文件、随机IO密集型以及时延敏感型业务,如高性能计算、文件共享、内容管理等。 说明 提交工单后,在资源余量和网关余量满足的情况下可为您扩大单文件系统配额。 提交工单时须同时申请扩大单用户弹性文件系统总容量和单文件系统容量上限 两个配额项至所需配额。 规格说明 多台云主机可达到上述最大带宽,测试时建议使用多台云主机。 最大IOPS、最大带宽两个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 带宽大小与容量相关,但是由于有缓存,所以容量和性能的比例不容易体现。 IOPS大小与容量非线性相关。容量越大,性能越好,取决于实际压力情况。 时延是指低负载情况下的最低延迟,非稳定时延。时延与容量无关。
        来自:
      • NVIDIA GPU 物理机常见问题处理指南
        在高性能计算与人工智能领域飞速发展的当下,数据传输的效率与稳定性已成为决定计算任务成败的关键因素。IB 网络以其卓越的高带宽、超低延迟和可靠的远程直接内存访问(RDMA)技术,为大规模分布式训练、科学计算等场景提供了无与伦比的网络支持。无论是构建大型数据中心集群,还是运行对网络要求严苛的深度学习任务,NVIDIA GPU 物理机与 IB 网络的深度融合都展现出强大的协同优势。本指南将系统梳理 NVIDIA GPU 物理机环境下 IB 卡和GPU相关常见问题,并介绍 gpuburn 测试完整操作流程,帮助您快速掌握处理对策,解锁高效计算的新可能。 一、IB(InfiniBand)背景介绍 在高性能计算与数据中心网络领域,RoCE(RDMA over Converged Ethernet)和 NVIDIA IB(InfiniBand)是实现高速数据传输的两大主流技术,它们虽都支持远程直接内存访问(RDMA),但在架构、性能和应用场景上存在显著差异。 维度 RoCE(RDMA over Converged Ethernet) NVIDIA IB(InfiniBand) 网络类型 基于以太网(Ethernet)的 RDMA 协议 专用高速网络架构(独立于以太网) 物理介质 普通以太网交换机、网线(支持 10/25/100G 等) 专用 IB 交换机、光纤 / 铜缆(支持 100/200/400G 等) 延迟 微秒级(通常 110 μs) 纳秒级(通常 < 1 μs,更低延迟) 协议复杂度 依赖以太网 QoS(如 PFC/ETS)避免拥塞 内置流量控制(如 Credits),无需额外配置 典型场景 通用数据中心、混合网络环境 高性能计算(HPC)、AI 训练集群(如 NVIDIA DGX)
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        NVIDIA GPU 物理机常见问题处理指南
      • 统计分析
        维度 模块 说明 会议用量 趋势图 支持查看所选组织在指定周期内的并发会议数与并发参会人数的趋势变化图。 并发会议数:指在同一时刻,由所选组织内用户发起且正在进行中的会议总数。 并发参会人数:指在同一时刻,将所选组织内用户发起的所有正在进行中的会议的参会人数进行累计求和。 会议用量 会议用量统计 支持查看所选组织在指定周期内的累计会议数、会议总时长、最大并发会议数、最大并发参会人数。 累计会议数:周期内,由所选组织下用户发起且实际有人参会的会议总场次。 会议总时长:周期内,所选组织下所有有人参会的会议时长累计总和。 最大并发会议数:周期内,所选组织下同时进行中的会议数量的最高峰值。 最大并发参会人数:周期内,所选组织下所有会议中,同一时刻参会人数总和的最高峰值。 直播用量 趋势图 支持查看所选组织在指定周期内的并发直播数、并发直播观看人数、并发直播观看连接数的趋势变化图。 并发直播数:指在同一时刻,由所选组织内用户发起的且有开启直播的会议总数。 并发直播观看人数:指在同一时刻,所选组织内所有直播会议的去重观看用户数累计。计算规则:同一用户同时观看多场不同直播,人数累计多个;同一用户使用多个终端观看同一场直播,计为1人。 并发直播观看连接数:指在同一时刻,所选组织内所有直播会议的观看终端连接数累计。计算规则:同一用户同时观看多场不同直播,连接数累计多个;同一用户使用多个终端观看同一场直播,连接数同样累计多个。 直播用量 直播用量统计 支持查看所选组织在指定周期内的累计直播数、直播总时长、直播观看总时长、最大并发直播数、最大并发直播观看人数、最大并发直播观看连接数。 累计直播数:周期内,由所选组织下用户发起的且有开启直播的会议总数。 直播总时长:周期内,所选组织内所有直播会议的开启直播时长累计总和。 直播观看总时长:周期内,所选组织内所有直播会议的观众观看时长累计总和。每场直播的所有观众观看时长累加后得到该场直播的观看总时长,再将所有直播的观看总时长进行累加。 最大并发直播数:周期内,所选组织内并发进行的直播会议数量的最高峰值。 最大并发直播观看人数:周期内,所选组织内所有直播会议并发观看人数的最高峰值。 最大并发直播观看连接数:周期内,所选组织内所有直播会议并发观看终端连接数的最高峰值。 云录制用量 趋势图 支持查看所选组织在指定周期内的并发云录制数的趋势变化图。 并发云录制数:指在同一时刻,由所选组织内用户发起的且有开启云录制的会议总数。 云录制用量 云录制用量统计 支持查看所选组织在指定周期内的累计云录制数、云录制总时长、最大并发录制数。 累计云录制数:周期内,由所选组织下用户发起的且有开启云录制的会议总数。 云录制总时长:周期内,所选组织内所有会议的开启云录制时长累计总和。 最大并发录制数:周期内,所选组织内并发开启云录制的会议数量的最高峰值。 会议纪要用量 趋势图 支持查看所选组织在指定周期内的并发会议纪要数的趋势变化图。 并发会议纪要数:指在同一时刻,由所选组织内用户发起的且有开启智能会议纪要的会议总数。 会议纪要用量 会议纪要用量统计 支持查看所选组织在指定周期内的累计会议纪要数、会议纪要总时长、最大并发会议纪要数。 累计会议纪要数:周期内,由所选组织下用户发起的且有开启会议纪要的会议总数。 会议纪要总时长:周期内,所选组织内所有会议的开启会议纪要时长累计总和。开启云录制时,勾选了“同时开启智能会议纪要”,则该云录制时长一并计入会议纪要时长。 最大并发会议纪要数:周期内,所选组织内并发开启会议纪要的会议数量的最高峰值。 实时转写用量 趋势图 支持查看所选组织在指定周期内的并发实时转写数的趋势变化图。 并发实时转写数:指在同一时刻,由所选组织内用户发起的且有开启实时转写的会议总数。 实时转写用量 实时转写用量统计 支持查看所选组织在指定周期内的累计实时转写数、实时转写总时长、最大并发实时转写数。 累计实时转写数:周期内,由所选组织下用户发起的且有开启实时转写的会议总数。 实时转写总时长:周期内,所选组织内所有会议的开启实时转写时长累计总和。 最大并发实时转写数:周期内,所选组织内并发开启实时转写的会议数量的最高峰值。
        来自:
        帮助文档
        AOne会议
        管理员指南
        统计分析
      • 产品咨询类
        TaurusDB是否支持计算存储分离 TaurusDB使用了计算和存储分离的设计思想,在高可用、备份恢复和升级扩展等方面,给您带来了全方位提升的体验。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        产品咨询类
      • 如何保证代码的安全?
        函数计算服务对用户数据的保护采取了严格的安全措施,确保用户代码的存储和执行环境都是安全且隔离的。函数计算服务不会访问或查看用户的数据和代码,同时实施严格的权限控制机制,确保每个账号只能访问其拥有权限的资源,没有权限读取或获取其他账号的数据,包括代码。
        来自:
        帮助文档
        函数计算
        常见问题
        代码开发
        如何保证代码的安全?
      • 本地Windows主机使用WinSCP上传文件到Linux云主机
        WinSCP工具可以实现在本地与远程计算机之间安全地复制文件。 1. 通过WinSCP官网,下载 WinSCP 客户端并安装。 2. 启动WinSCP,启动后界面如下: 填写说明: 协议:选填 SFTP 或者 SCP 均可。 主机名:云主机的公网 IP。登录管理控制台即可查看对应云主机的公网 IP。 端口:默认 22。 用户名:root。 密码:购买云主机设置的密码。 3. 单击“登录”,进入 “WinSCP” 文件传输界面。 4. 登录成功之后,您可以选择左侧本地计算机的文件,拖拽到右侧的远程云主机,完成文件上传到云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        文件上传/数据传输
        本地Windows主机使用WinSCP上传文件到Linux云主机
      • 认证鉴权
        信息的获取 云网平台获取 登录云网门户,在“控制台”>“个人中心”>“ 第三方账号绑定 ”,通过创建或者查看获取ak,sk。 基本签名流程 ctyuneopak/ctyuneopsk基本签名流程 1、待签字符串:使用规范请求和其他信息创建待签字符串; 2、计算密钥:使用HEADER、ctyuneopsk、ctyuneopak来创建Hmac算法的密钥; 3、计算签名:使用第三步的密钥和待签字符串在通过hmacsha256来计算签名。 4、签名应用:将生成的签名信息作为请求消息头添加到HTTP请求中。 创建待签名字符串 待签名字符串的构造规则如下: 待签名字符串 需要进行签名的Header排序后的组合列表+ "n" + 排序的query + "n" + toHex(sha256(原封的body)) 需要进行签名的Header排序后的组合列表(排序的header) header 以 headername:headervalue来一个一个通过n拼接起来,EOP是强制要求ctyuneoprequestid和eopdate这个头作为Header中的一部分,并且必须是待签名Header里的一个。需要进行签名算法的Header需要进行排序(将它们的headername以26个英文字母的顺序来排序),将排序后得到的列表进行遍历组装成待签名的header。 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名。 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制。 排序的header例子: 假设你需要将ctyuneoprequestid、eopdate、host都要签名,则待签名的header构造出来是: ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n ctyuneoprequestid、eopdate和host的排序就是这个顺序,如果你加入一个ccad的header;同时这个header也要是进行签名,则待签名的header组合: ccda:123n ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n 构造动态密钥 发起请求时,需要构造一个eopdate的时间,这个时间的格式是yyyymmddTHHMMSSZ;言简意赅一些,就是年月日T时分秒Z 1、先是拿你申请来的ctyuneopsk作为密钥,eopdate作为数据,算出ktime 2、拿ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; 3、拿kAk作为密钥,eopdate的年月日值作为数据;算出kdate eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) :: Ktime 使用ctyuneopsk作为密钥,eopdate作为数据,算出ktime; Ktime hmacSha256(ctyuneopsk, eopdate) kAk 使用ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; kAk hmacsha256(ktime,ctyuneopak) kdate 使用kAk作为密钥,eopdate的年月日值作为数据;算出kdate; kdate hmacsha256(kAk, eopdate)
        来自:
        帮助文档
        共享带宽 SBW
        API参考
        如何调用API
        认证鉴权
      • 查看告警记录
        告警记录可以展示近30天所有告警规则的状态变化,用户可以统一、方便地回溯和查看告警记录。 告警记录可以展示近30天所有告警规则的状态变化,用户可以统一、方便地回溯和查看告警记录。 当出现告警时,可以参考本章节查看具体云资源的告警记录详情。 操作步骤 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击“告警 > 告警记录”,进入“告警记录”界面。 在告警记录页面,可查看近7天所有告警规则的状态变化。 说明 在“告警记录”列表右上角可选择日历,查看近30天内的任意时间段内的告警记录。 在“告警记录”列表右上角可选择查看“所有状态”、“告警级别”、“所有资源类型”、“告警名称”的历史告警。 4. 单击待查看的告警规则名称,进入告警规则详情页面,页面下方呈现了该告警规则近30天内的“告警记录”列表。 在告警记录列表中,用户可查看对应时间内资源是否有异常并进行相应处理。 说明 正常状况下,由于告警需要计算触发,告警产生时间可能略晚于最新的数据触发时间几秒。 如果已有监控数据,创建或修改告警规则,导致触发告警,告警产生时间以触发告警的操作时间(创建告警规则或修改告警规则的时间)为准。
        来自:
        帮助文档
        云监控服务
        用户指南
        使用告警功能
        查看告警记录
      • 创建网关实例
        本章节介绍如何创建云原生API网关实例 概述 云原生API网关支持多种服务发现方式(如云容器引擎CCE、注册配置中心RCCNacos引擎、注册配置中心RCCEureka引擎、函数计算FaaS等),并集成安全运维能力。本文介绍如何创建云原生API网关实例。 操作步骤 1. 登录云原生API网关控制台,并在顶部菜单栏选择地域。 2. 在概览页,点击新建实例;或者在左侧导航栏,选择实例,单击新建实例。 3. 跳转至订购页,选择相关配置(参见下方配置项说明),然后点击下一步。 4. 跳转至配置总览页,确认配置信息,点击提交订单, 5. 跳转至支付页,完成费用支付, 6. 返回云原生API网关控制台,左侧导航栏选择实例,刷新列表查看创建的网关信息和状态。 7. 实例创建大约需要5~10分钟,当网关信息和创建时一致,且状态为运行中,则表示网关创建成功。 实例配置说明 配置项 描述 计费模式 支持包年包月和按需计费方式,费用说明请参照购买指南>计费说明。 购买时长 可以根据实际需求进行选择,支持1个月、2个月、3个月、4个月、5个月、6个月、1年。 自动续期 您可以选择开启自动续期,避免云原生API网关到期后无法使用。 自动续期购买时长 开启自动续期,可以选择续期时长,支持1个月、2个月、3个月、4个月、5个月、6个月、1年。 部署方式 实例节点将按单可用区、多可用区部署方式,分布在单个或者多个可用区中。多可用区部署可增强实例的容灾能力。注意:基础版规格不具备高可用、多AZ容灾能力。 可用区 选择单可用区部署方式时,可用区可任选其一;选择多可用区部署时,必须选择至少3个可用区。 CPU架构 部署实例的主机架构。 主机类型 部署实例的主机类型。 网关规格 参见产品简介产品规格介绍 虚拟私有云 选择虚拟私有云,若您还没有虚拟私有云,请参照创建虚拟私有云。 所在子网 择所在子网,若您还没有所在子网,请参照创建所在子网。 启用ipv6 若子网已开启ipv6访问,在此处可选择启用ipv6。未启用ipv6时,将通过ipv4访问。 安全组 选择安全组,若您还没有可用安全组,请参照创建安全组。 实例名称 自定义实例名称,不可重复;实例名称长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符(),大小写字母或数字结尾。 企业项目 网关实例关联的企业项目,可以到IAM控制台创建企业项目。 指标监控 启用后,可在控制台观测分析中查看系统和API的流量、成功率、延迟等监控指标,若您还没有开通应用性能监控产品,可先点击提示链接前往开通。 链路追踪 可选择采集百分比启用,启用后,可在控制台观测分析中查看API请求的链路追踪信息。您可通过委托授权的方式开通此服务。 云日志服务 启用后,可在控制台观测分析中查看访问日志。您可通过委托授权的方式开通此服务。
        来自:
        帮助文档
        云原生API网关
        用户指南
        API网关
        实例管理
        创建网关实例
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        一站式智算服务平台
        推理服务API
        API列表
      • 启用伸缩组
        本文将为您介绍如何将已停用状态的伸缩组转变为已启用状态。 操作场景 弹性伸缩的伸缩组状态如下表所示: 状态 状态说明 已启用 创建的弹性伸缩组处于“已启用”状态,此时可以对弹性伸缩组做任何操作。 已停用 将处于启用状态的伸缩组停用后,此时伸缩组处于停用状态,此时伸缩组无法触发伸缩活动。 注意 仅当伸缩组状态为“已停用”才可以启用伸缩组。只有状态为“已启用” 的伸缩组,此伸缩组才可能触发伸缩活动。启用伸缩组后,当伸缩组内的当前云主机数量小于“最小实例数”或大于“最大实例数”时,系统自动添加或减少相应数量的云主机,使其满足当前伸缩组的创建信息。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择弹性伸缩组所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 在状态为“已停用”且待修改启用状态的伸缩组所在行,单击“操作”列的“启用”。 5. 在跳出的“启用”确认弹窗中,确认待启用的伸缩组信息,点击“确定”,即可启用此伸缩组。 说明 您也可以单击待启用的伸缩组名称,在伸缩组详情信息页面的右上角点击“启用”进行伸缩组状态的更改。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组管理
        启用伸缩组
      • CDN回源的流量为什么按照公网下行流量计费了
        本文介绍CDN回源的流量为什么按照公网下行流量计费了。 媒体存储CDN回源流出流量是指数据从媒体存储传输到天翼云CDN所产生的回源流量,这部分流量将按照CDN回源流出流量计费。具体可参考:计费项。 如您发现CDN回源流量按照公网流量计费,可参考一下原因并根据指引进行操作: 如您的CDN为其他云厂商的产品,则产生的回源流量会按照公网下行流量计算。 如您使用天翼云CDN,需要在源站配置中,选择【媒体存储源站】,此配置下产生的回源流量会按照CDN回源流量进行计费。如您选择【IP或域名】,产生的回源流量将按照公网下行流量计费。 CDN回源流量计费模式说明: CDN回源流量支持按需+资源抵扣包计费,如您为按需计费模式,且源站配置正确,则回源流量会按照CDN回源流量资费进行计费,如您需订购资源抵扣包,可联系您的客户经理或致电服务热线:4008109889。 目前包周期(用量封顶模式)不支持CDN回源量流量计费,如您为包周期计费模式,则所有下行流量(包括CDN回源)均会按照公网下行流量计费,如您需转换计费方式,可联系您的客户经理或致电服务热线:4008109889。 关于您服务具体的计费模式查询,可参考:订购管理。
        来自:
        帮助文档
        媒体存储
        常见问题
        计费常见问题
        CDN回源的流量为什么按照公网下行流量计费了
      • 安装Tesla驱动
        本节为您介绍如何自行为计算加速型GPU云主机安装Tesla驱动。 您可根据如下操作步骤自行安装Tesla驱动,如要安装CUDA工具包请参见安装CUDA工具包,如要安装cuDNN加速库请参见安装cuDNN加速库。 前提条件 GPU云主机未安装驱动。 GPU云主机配备弹性IP。 一 、CentOS/CTyunOS/Kylin操作系统驱动安装 下载Tesla驱动 建议根据Tesla驱动及相关组件版本兼容指南选择合适的驱动版本。 1. 下载对应驱动。访问NVIDIA驱动下载官网,选择对应GPU型号、操作系统和CUDA Toolkit版本后,进行下载,本文以 A100 为例,如下图所示。 2. 点击搜索,选择要下载的驱动版本,点击下载。 安装Tesla驱动 1. 将下载的驱动安装包上传到云主机中,执行以下命令,对安装包添加执行权限。例如,对文件名为NVIDIALinuxx8664470.199.02.run添加执行权限。 plaintext chmod +x NVIDIALinuxx8664470.199.02.run 2. 安装kerneldevel、gcc包,注意kerneldevel版本要和内核版本保持一致。 plaintext sudo yum install y gcc kerneldevel 3. 执行以下命令,运行驱动安装程序,并按提示进行后续操作。 plaintext sudo sh NVIDIALinuxx8664470.199.02.run disablenouveau kernelsourcepath/usr/src/kernels/$(uname r) 4. 安装完成后,执行以下命令进行验证。 plaintext nvidiasmi 如返回信息类似下图中的 GPU 信息,则说明驱动安装成功。 5. GPU驱动开启持久化模式 PersistenceM(Persistence Mode)是一个用户可设置的驱动程序属性的术语。启用持久性模式后,即使没有活动的客户端,NVIDIA驱动程序也会保持加载状态。这样可以最大程度地减少与运行依赖的应用程序(例如 CUDA 程序)相关的驱动程序加载延迟,同时减少GPU云主机掉卡问题的发生。 plaintext cd /usr/share/doc/NVIDIAGLX1.0/sample bunzip2 nvidiapersistencedinit.tar.bz2 tar xvf nvidiapersistencedinit.tar cd nvidiapersistencedinit && sh install.sh u root 二 、Ubuntu操作系统驱动安装
        来自:
        帮助文档
        GPU云主机
        用户指南
        驱动及工具包的安装
        手动安装Tesla驱动、工具包及加速库
        安装Tesla驱动
      • 应用场景
        应用 政务、教育、工业制造行业等。 场景特点 服务架构技术陈旧,业务间集成、依赖度高,使得单个业务迭代影响范围大,系统维护、扩展困难。 使用场景 政务、教育、工业制造行业:快速完成架构转变,使用业务容器化应用替代传统应用,系统更灵活,管理更简便,维护更容易。 在线弹性伸缩 当用户的线上业务访问流量存在无法预测、不稳定的特点或存在高低峰的时期差异时,一方面容易造成业务处理速度慢、响应慢,系统崩溃等严重问题。另一方面,会造成用户计算、网络等资源的浪费。云容器引擎服务提供的弹性伸缩服务,支持多类工作负载伸缩策略配置,用户可通过组合多种弹性策略以应对突发流量。平台全天候的实时指标监控,秒触发级容器扩缩容操作,无需人工干预,实现业务灵活伸缩,大幅度提升应用应对能力,无需用户投入过多运维成本。 应用 电商、视频直播客户、游戏客户。 场景特点 用户存在高峰低峰时期差异,高峰时期,后台服务响应缓慢,用户体验降低,甚至导致系统宕机。低峰时期,大量资源空闲,利用率降低。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        应用场景
      • 授权事件源访问函数计算
        当您需通过事件源如对象存储ZOS触发函数执行时,可授予该事件源触发函数的权限,该权限是触发器级别的,每个触发器的委托均可以被授予相应权限,该委托也可以同时被授予不同触发器。本文以授予ZOS访问函数计算的权限为例,介绍授予事件源访问函数计算权限的应用场景和操作步骤。 应用场景 以ZOS事件源触发函数计算代码执行为例,当存在一个ZOS Bucket A和函数B,需要将此Bucket A的上传文件事件触发函数计算的函数B时,您需要创建一个ZOS触发器并授予相应权限策略。访问控制提供系统授权策略CtyunServicelnlineDelegationPolicyForEb,该策略具有S3事件源触发函数计算代码执行的权限。在创建触发器时,您可以为触发器绑定一个委托,既可以新建一个新委托也可以使用已有委托。然后将策略CtyunServicelnlineDelegationPolicyForEb绑定到该委托内,成功绑定该策略后ZOS事件源就可以触发函数计算代码执行。 操作步骤 1. 登录函数计算控制台,在左侧导航栏,单击函数。 2. 在顶部菜单栏,选择地域,然后在函数页面,单击目标函数。 3. 在函数配置页面,选择配置 页签,在左侧导航栏,单击触发器 ,然后单击创建触发器。 4. 在创建触发器面板,填写相关信息,然后单击确定。 说明 其他类型的触发器的权限配置过程基本一致,按需选择相应的服务类型即可。 配置项 操作 本文示例 触发器类型 选择对象存储 ZOS。 对象存储ZOS 名称 填写自定义的触发器名称。 zostrigger 版本或别名 默认值为LATEST ,如果您需要创建其他版本或别名的触发器,需先在函数详情页的版本或别名 下拉列表选择该版本。关于版本和别名的简介,请参见版本管理和别名管理。 LATEST Bucket 名称 选择已创建的ZOS Bucket。 testbucket 文件前缀 输入要匹配的文件名称的前缀。建议您配置文件前缀和后缀,避免触发事件嵌套循环触发引起额外费用。此外,一个Bucket的不同触发器如果指定了相同的事件类型,则前缀和后缀不能重复。 myfolder 文件后缀 输入要匹配的文件名称的后缀。强烈建议您配置前缀和后缀,避免触发事件嵌套循环触发引起额外费用。另外,一个Bucket的不同触发器如果指定了相同的事件类型,则前缀和后缀不能重复。 zip 触发事件 选择一个或多个触发事件。关于对象存储ZOS的事件类型。本示例选择zos:ObjectCreated:Put。 zos:ObjectCreated:Put 委托名称 选择CtyunServiceDelegateRoleForEb。如果您第一次创建该类型的触发器,则需要在单击确定后,在弹出的对话框中选择立即授权。 CtyunServiceDelegateRoleForEb
        来自:
        帮助文档
        函数计算
        安全与合规
        权限访问管理
        授权事件源访问函数计算
      • 天翼云Windows云主机远程连接时出现报错: 此计算机无法连接到远程计算机
        本文向您介绍天翼云Windows云主机远程连接时出现报错“此计算机无法连接到远程计算机问题”的解决方案。 问题描述 使用远程登录方式登录Windows云服务器时出现错误:此计算机无法连接到远程计算机。 可能原因 1. 云服务器安全组3389端口未放行。 2. 远程桌面连接配置错误。 3. 远程桌面会话主机配置错误。 解决方案 检查云服务器安全组端口配置 1. 天翼云官网进行登录,通过控制台找到对应云服务器。点击对应云服务实例名进入详情页。 2. 选择安全组。 3. 点击默认安全组字样前下拉菜单进入安全组详情页,确认3389端口权限是否开启。 检查远程桌面连接配置 1. 使用管理控制台VNC方式登录云服务器。 2. 依次选择选择控制面板>系统和安全>系统>允许远程访问。 3. 确认允许远程连接到此计算机选项开启。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        远程连接报错
        天翼云Windows云主机远程连接时出现报错: 此计算机无法连接到远程计算机
      • 环境说明
        本文介绍在函数计算中使用Python语言编写函数的运行环境信息。 Python运行时 函数计算目前支持的Python运行时环境如下: 版本 标识符 操作系统 架构 Python 3.10.12 Python 3.10 Linux (Debian 10) x8664 Python 3.9.16 Python 3.9 Linux (Debian 10) x8664 Python 3.6.15 Python 3.6 Linux (Debian 10) x8664
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        Python
        环境说明
      • 基本签名流程
        签名流程包括构造待签名字符串、构造动态密钥、计算签名信息、签名信息应用4个步骤,具体内容如下: 1. 构造待签名字符串:使用规范请求和其他信息创建待签字符串。 2. 构造动态密钥:使用 HEADER、ctyuneopsk、ctyuneopak 来创建 Hmac 算法的密钥。 3. 计算签名信息:使用第 2 步的密钥和待签字符串,再通过 hmacsha256 来计算签名信息。 4. 签名信息应用:将生成的签名信息作为请求消息头添加到 HTTP 请求中。
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        如何调用API
        鉴权
        基本签名流程
      • 迁移时长
        迁移过程中指标 Windows块级 Linux文件级 Linux块级 总共数据量 待迁移的所有分区已用空间之和,右键点击“分区>属性>常规”可以查看 待迁移的所有分区已用空间之和,通过df TH可以查看 待迁移的所有分区大小之和,通过 fdisk lu 可以查看 已迁数据量 已迁移的数据块的大小,只计算分区中已用空间的数据块 已迁移的文件大小 已迁移的数据块的大小,包括分区中的所有数据块 已迁移时间 开始迁移的时间,从任务开始时间计算 开始迁移的时间,从任务开始时间计算 开始迁移的时间,从任务开始时间计算 剩余时间 (总共数据量已迁数据量)/迁移速率 (总共数据量已迁数据量)/迁移速率 (总共数据量已迁数据量)/迁移速率 迁移速率 计算最近5s内迁移数据量。如5s迁移了200MB,则迁移速率200MB8/5s 320Mbps;由于迁移数据经过网卡传输迁移会被压缩,因此迁移速率不等于网卡速率。 从目的端网卡中获取,实际迁移速率。 最近5s内迁移数据量。如5s迁移200MB,则速率200MB8/5s 320Mbps;由于块级还没有压缩,因此迁移速率等于网卡速率。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        迁移时长
      • 基本概念
        本文介绍DRDS使用过程的一些常用概念。 计算节点 计算节点是负责执行数据处理和查询计算的节点。计算节点通常负责解析查询请求,执行数据库操作,进行数据的聚合、过滤、排序等计算操作,并最终返回查询结果。计算节点是数据库系统中的核心部分,负责处理客户端的查询请求,执行查询操作,以及在分布式环境下协调不同存储节点的数据处理。 存储节点 存储节点是负责存储实际数据的节点。在分布式数据库中,数据通常被水平拆分成多个数据分片,然后存储在不同的存储节点上。每个存储节点承担一部分数据,以实现数据的水平扩展,提高系统的性能和可伸缩性。 分片 分片(又称Sharding)是一种在分布式数据库中水平划分数据的概念。它将数据库中的数据拆分成多个较小的逻辑片段(也称为分片或分区),然后将这些分片分散存储在不同的存储节点上,以实现水平扩展和分布式存储。 schema 概念 schema即逻辑库,在后续介绍中将统称为schema,它类似于传统单体数据库中的数据库,是一个逻辑上的数据库容器。schema是多个数据库分片的集合。 介绍 对实际应用来说,并不需要知道分布式数据库中间件的存在,应用开发人员只需要知道数据库的概念,所以分布式数据库中间件可以被看做是一个或多个数据库集群构成的逻辑库。 DRDS实例的schema,包括所有逻辑表、分片规则、全局序列等数据,schema切分后形成多个分片,分布在多个存储节点上。 逻辑表
        来自:
        帮助文档
        分布式关系型数据库
        产品介绍
        常用概念
        基本概念
      • 远程桌面连接Windows云主机报错:无法验证此远程计算机的身份
        本文主要介绍远程桌面连接Windows云主机报错:无法验证此远程计算机的身份如何处理。 问题描述 由于在安全软件中设置了安全登录限制,导致远程桌面连接Windows云主机报错:无法验证此远程计算机的身份。需要再次登录输入密码。 图 协议错误 可能原因 云主机安装了安全软件,防止有未知IP登录云主机。 解决方法 卸载安全软件。 登录安全软件,将登录安全等级修改为系统默认登录方式。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Windows远程登录报错类
        远程桌面连接Windows云主机报错:无法验证此远程计算机的身份
      • 应用场景
        本文主要介绍应用场景。 Kafka作为一款热门的消息队列中间件,具备高效可靠的消息异步传递机制,主要用于不同系统间的数据交流和传递,在企业解决方案、金融支付、电信、电子商务、社交、即时通信、视频、物联网、车联网等众多领域都有广泛应用。 异步通信 将业务中属于非核心或不重要的流程部分,使用消息异步通知的方式发给目标系统,这样主业务流程无需同步等待其他系统的处理结果,从而达到系统快速响应的目的。 如网站的用户注册场景,在用户注册成功后,还需要发送注册邮件与注册短信,这两个流程使用Kafka消息服务通知邮件发送系统与短信发送系统,从而提升注册流程的响应速度。 图 串行发送注册邮件与短信流程 图 借助消息队列异步发送注册邮件与短信流程 错峰流控与流量削峰 在电子商务系统或大型网站中,上下游系统处理能力存在差异,处理能力高的上游系统的突发流量可能会对处理能力低的某些下游系统造成冲击,需要提高系统的可用性的同时降低系统实现的复杂性。电商大促销等流量洪流突然来袭时,可以通过队列服务堆积缓存订单等信息,在下游系统有能力处理消息的时候再处理,避免下游订阅系统因突发流量崩溃。消息队列提供亿级消息堆积能力,3天的默认保留时长,消息消费系统可以错峰进行消息处理。 另外,在商品秒杀、抢购等流量短时间内暴增场景中,为了防止后端应用被压垮,可在前后端系统间使用Kafka消息队列传递请求。 图 消息队列应对秒杀大流量场景
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        应用场景
      • 配置单实例并发度
        您可以在函数计算中设置实例并发度,即指定每个函数实例可以同时处理的最大并发请求数。这使您能够在流量高峰期有效管理资源使用,降低冷启动的影响,从而实现提升性能和控制成本的目标。 背景信息 函数计算按实例执行时长计费。假设有3个请求需要同时处理,每个请求都需要10秒,根据不同的并发度设置,执行时长会有所不同。 如果实例并发度设置为1,每个实例一次只能处理1个请求,那么函数计算需要创建3个实例来处理这3个请求,总执行时长为30秒。 如果实例并发度设置为10,每个实例可以同时处理最多10个请求,那么函数计算只需创建1个实例即可处理这3个请求,总执行时长仅为10秒。 说明 默认情况下,函数的实例并发度为1,这意味着一个实例只能同时处理一个请求。当您将单实例并发度设置为大于1时,函数计算在进行弹性伸缩时,会在充分利用现有实例的并发度后,才会创建新的实例。 实例并发度设置为不同的值时,请求执行的区别如下图所示: 应用场景 单实例多并发功能适用于函数中存在大量等待下游服务响应的场景。由于等待响应通常不消耗资源,通过在一个实例内并发处理,不仅能够节省成本,还能提高应用的响应能力和吞吐量。 优势 节省费用并减少执行时长。 例如,对于偏重 I/O 的函数,可以在一个实例内并发处理,从而减少所需实例数量并降低总执行时长。 实现请求之间的状态共享。 多个请求可以共用一个实例内的数据库连接池,从而减少与数据库的连接次数。 降低冷启动的概率。 由于多个请求能够在一个实例内处理,新实例的创建次数减少,从而降低了冷启动的发生概率。
        来自:
        帮助文档
        函数计算
        用户指南
        函数配置
        配置单实例并发度
      • 概览
        本文主要介绍CMDB管理概述。 应用性能监控默认内置了一个资源配置管理信息CMDB,您可用于组织应用结构信息以及相关配置信息,主要概念如下: 项目:用于组织和管理应用,在项目下还可以通过应用分组精细化管理应用。 环境: 即我们常说的开发环境、生产环境,是用于应用部署和运行的计算、网络、中间件等资源的集合。 例如可以把同VPC下的云容器引擎、注册中心、数据库等实例组成一个环境。 分组:在一个项目下面可以创建多个分组,主要起文件夹和管理的功能。 应用:应用是组成项目的某个业务实现,可独立部署运行,可以简单理解为一份代码程序对应一个应用,例如电商项目里的订单应用。一个应用可以部署到多个环境。 下图是一个CMDB结构示例: 在应用监控指标浏览页面,您可通过该组织结构进行更方便快捷的指标管理。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        CMDB管理
        概览
      • 天翼云CPU实例部署DeepSeek-R1模型最佳实践
        总结 通过本次实践,无论是在天翼云EMR云实例上结合xFasterTransformer部署DS R1 distill Qwen7B蒸馏模型,还是基于英特尔® 至强® 6处理器部署满血版DeepSeekR1 671B模型,均验证了CPU系统在DeepSeek大模型推理上的可行性和符合业界普遍要求的性能表现。CPU系统不仅能够灵活应对不同规模的模型需求,无论是轻量化蒸馏模型还是全功能满血模型,都能高效满足用户场景需求,提供了一种低成本、经济高效的解决方案。 附录1 英特尔® 至强® 可扩展处理器与AI加速技术 最新英特尔® 至强® 可扩展处理器产品 英特尔第五代® 至强® 可扩展处理器(代号 Emerald Rapids)——为AI加速而生 第五代英特尔® 至强® 处理器以专为AI工作负载量身定制的设计理念,实现了核心架构和内存系统的双重飞跃。其64核心设计搭配高达320MB的三级缓存(每核心由1.875MB提升至5MB),相较上代缓存容量实现近三倍增长,为大规模并行AI推理提供充裕的本地数据存储空间。与此同时,处理器支持DDR55600高速内存,单路最大4TB的容量保证了大数据处理时的带宽和延迟优势。基于这些硬件提升,Emerald Rapids整体性能较上一代提升21%,AI推理性能平均提升42%,在大语言模型推理场景中可实现最高1.5倍的性能加速,同时大幅降低总拥有成本达77%。 英特尔® 至强®6处理器(代号 GNR Granite Rapids)——引领CPU AI算力革新 全新GNR处理器专为应对人工智能、数据分析及科学计算等计算密集型任务而设计。该产品在内核数量、内存带宽及专用AI加速器方面均实现重大突破: 核心与性能:每CPU配备多达128个性能核心,单路核心数较上一代翻倍,同时平均单核性能提升达1.2倍、每瓦性能提升1.6倍,进一步强化了CPU在大模型推理中的独立处理能力; AI加速功能:内置英特尔® 高级矩阵扩展(AMX)新增对FP16数据类型的支持,使得生成式AI和传统深度学习推理任务均能获得显著加速; 内存与I/O突破:支持DDR56400内存及英特尔首款引入的Multiplexed Rank DIMM (MRDIMM) 技术,有效将内存带宽提升至上一代的2.3倍;同时,高达504MB的三级缓存和低延迟设计确保数据能够更快加载,为复杂模型训练和推理缩短响应时间。 英特尔® 至强® 6处理器不仅通过更多的核心和更高的单线程性能提升了AI大模型推理能力,同时也能够作为机头CPU为GPU和其他加速器提供高速数据供给,进一步缩短整体模型训练时间。在满足混合工作负载需求的同时,其TCO平均降低30%,大模型推理加速最高可达2.4倍。 无论是第五代至强还是全新的至强6处理器,英特尔均通过在核心架构、缓存系统、内存技术和专用AI加速器方面的全面革新,提供了业界领先的AI计算支持。这两款产品为数据中心和高性能计算平台在AI推理、训练以及多样化工作负载下提供了强大而高效的算力保障
        来自:
        帮助文档
        弹性云主机 ECS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        天翼云CPU实例部署DeepSeek-R1模型最佳实践
      • 触发器管理
        本文介绍如何在函数计算控制台创建、更新和删除触发器。 在函数计算控制台,您可以在配置选项卡中创建函数计算支持的所有触发器。 前提条件 创建函数 创建触发器 创建Http触发器 创建定时触发器 创建Kafka触发器 创建RocketMQ触发器 创建日志触发器 创建对象存储触发器 更新触发器 1. 登陆函数计算控制台,点击目标函数,进入函数详情页。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡中,选择左边的触发器选项卡,此时页面将展示当前函数配置的所有触发器。 4. 在列表中的最右侧有操作栏,点击修改 按钮,即可根据不同种类的触发器配置内容修改触发器,最后点击确定完成修改。 删除/禁用触发器 删除触发器和禁用触发器从功能上来看是一样的效果,都是停止接受新的事件,不再触发对应的函数。两者的区别是在于: 删除触发器:完全删除触发器相关的数据,不可恢复,如有需要可以重新新建。 禁用触发器:会保留触发器的元数据,可以恢复,如有需要可以通过启用触发器快速恢复触发器功能。
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        触发器管理
      • Linux云主机卡顿
        本文介绍如何处理Linux云主机卡顿问题。 问题原因 当您发现云主机的运行速度变慢或云主机突然出现网络断开的现象,则可能是由以下原因导致的。 1. 云主机使用共享型实例:共享型实例在云计算中是指多个虚拟机共享同一台物理服务器的资源,这会导致资源争用,可能导致服务器卡顿问题。 2. 云主机受到恶意软件或病毒感染:恶意软件可能执行各种恶意任务,占用大量计算资源,增加云主机网络带宽和资源消耗,影响正常的服务运行等,可能导致服务器卡顿问题。 3. 云主机系统资源利用率异常:资源包括CPU、内存、磁盘和网络等,当其中一个或多个资源受到过度使用或不合理分配时,可能导致服务器卡顿问题。 问题处理 云主机使用资源共享型实例 步骤一:问题定位 检查当前云主机的规格类型,共享资源型和独享资源型实例的说明请参见规格类型。 步骤二:问题处理 独享资源型实例在云计算中独享物理服务器的资源,可以提供更稳定和可预测的性能。如果您对业务稳定性有较高要求,建议您将共享型实例变更为独享资源型实例,请参见变更规格。 云主机受到恶意软件或病毒的感染 步骤一:问题定位 定位云主机是否受到恶意软件感染,您可以运行受信任的杀毒软件或安全扫描工具,对服务器进行全面扫描。此外,您还可以检查操作系统、应用程序和安全软件是否为最新版本,并已应用最新的安全更新和补丁。 步骤二:问题处理 如果服务器受到恶意软件感染,及时采取行动非常重要。隔离服务器、运行安全扫描工具、清除恶意软件、更新系统等都是确保服务器安全的关键步骤。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机卡顿
        Linux云主机卡顿
      • 1
      • ...
      • 41
      • 42
      • 43
      • 44
      • 45
      • ...
      • 476
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      Token服务

      推荐文档

      退订

      修改用户

      入驻条件

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号