活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      DDoS高防(边缘云版)_相关内容
      • 参数模板导入与导出
        参数模板导出 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入数据库概览页面。 2. 在左侧导航栏,选择MySQL > 参数模板,进入参数模板列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在参数模板列表中,找到待导出的参数模板,然后在操作 列选择更多 > 导出。 说明 您也可以单击目标参数模板名称,进入参数列表页面,然后单击参数列表上方的导出参数,即可在浏览器中看到下载任务。 4. 在浏览器页面查看下载任务。 下载完毕后,可打开对应xlsx文件。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        参数管理
        参数模板导入与导出
      • 跨资源池备份
        本实践介绍如何将云主机上的文件数据跨资源池备份到另一个资源池的云备份存储库,以满足异地备份的需求。 实践场景 用户为保证数据的高可靠性,往往有将数据进行异地备份的需求,本实践以华东1的云主机的文件数据跨资源池异地备份至华北2为例,介绍如何使用云备份进行跨资源池备份。 约束与限制 云主机具备公网或其他的跨资源池网络访问能力。 操作步骤 步骤一:在备份目的端购买存储库 1. 登录云备份控制台,在备份目的端的资源池购买备份存储库,在本实践演示场景下,是将华东1的数据备份至华北2,因此选择华北2资源池。 2. 单击云备份页面左侧导航栏“存储库管理”页签,并选择上方“文件备份”模块,进入文件备份存储库界面。 3. 单击右上方“创建存储库”按钮,配置“存储库容量”、“创建时长”等参数后,确认下单并支付后完成存储库创建,具体可参考创建存储库。 步骤二:在备份目的端获取客户端信息并安装在源端云主机上 1. 在备份目的端资源池进行备份客户端的获取,在本实践演示场景下,是将华东1的数据备份至华北2,因此选择华北2资源池。 2. 进入云备份页面左侧导航栏“本地文件备份”页签,点击“客户端资源”模块左上方的“添加客户端”按钮,下载华北2资源池的客户端安装包或复制华北2的客户端安装命令。 3. 切换至华东1资源池,进入需要进行备份的云主机内,将上一步的安装包放置进华东1的云主机内进行安装,或在华东1的云主机内执行上一步所复制的安装命令,具体可参考安装本地客户端。 4. 客户端安装完成后,等待1~2分钟,再次进入华北2的云备份控制台,在“本地文件备份”页签的“客户端资源”模块,可以看到华东1的云主机的信息记录。
        来自:
        帮助文档
        云备份 CBR
        最佳实践
        跨资源池备份
      • 创建SFS Turbo备份存储库
        帮助用户完成SFS Turbo备份存储库的创建,快速创建SFS Turbo备份容器。 操作步骤 1. 登录云服务备份管理控制台。 a. 登录管理控制台。 b. 单击管理控制台左上角的,选择区域。 c. 单击“”,选择“存储 > 云服务备份> SFS Turbo备份”。 2. 在界面右上角单击“购买SFS Turbo备份存储库”。 3. 选择计费模式。 包年包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费是后付费模式,根据实际使用量进行计费,可以随时购买或删除存储库。费用直接从账户余额中扣除。 4. (可选)在文件系统列表中勾选需要备份的文件系统,勾选后将在已选文件系统列表区域展示,如下图所示。 图 选择文件系统 说明 所选文件系统未绑定存储库且状态必须为“可用”。 若不勾选文件系统,如需备份可在创建存储库后绑定文件系统即可。 说明 单AZ备份:备份数据仅存储在单个可用区(AZ),成本更低。 多AZ备份:备份数据冗余存储至多个可用区(AZ),可靠性更高。 5. 输入存储库容量。此容量为绑定文件系统所需的总容量。您需要提前规划存储库容量,存储库的空间不能小于备份文件系统的空间。取值范围为[10,10485760]GB。 6. 选择是否配置自动备份。 立即配置:配置后会将存储库绑定到备份策略中,整个存储库绑定的文件系统都将按照备份策略进行自动备份。可以选择已存在的备份策略,也可以创建新的备份策略。 暂不配置:存储库将不会进行自动备份。 7. 如开通了企业项目,需要为存储库添加已有的企业项目。 企业项目是一种云资源管理方式,企业项目管理提供统一的云资源按项目管理,以及项目内的资源管理、成员管理,默认项目为default。 8. (可选)为存储库添加标签。 标签以键值对的形式表示,用于标识存储库,便于对存储库进行分类和搜索。此处的标签仅用于存储库的过滤和管理。一个存储库最多添加10个标签。 9. 输入待创建的存储库的名称。 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度小于等于64个字符。例如:vault612c。也可以采用默认的名称,默认的命名规则为“vaultxxxx”。 10. 当计费模式为“包年/包月”时,需要选择购买时长。可选取的时间范围为1个月~5年。 可以选择是否自动续费,勾选自动续费时: 按月购买:自动续费周期为1个月。 按年购买:自动续费周期为1年。 11. 根据页面提示,完成支付。 12. 返回SFS Turbo备份页面。可以在存储库列表看到成功创建的存储库。
        来自:
        帮助文档
        云服务备份
        快速入门
        创建存储库
        创建SFS Turbo备份存储库
      • 创建节点池
        操作场景 本章介绍了如何添加运行CCE集群的节点池以及对节点池执行操作。要了解节点池的工作原理,请参阅节点池概述。 操作步骤 将节点池添加到现有集群。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 单击右上角的“创建节点池”。 步骤 3 在创建节点池页面中,参照如下说明设置节点池选型参数。 计费模式: 节点池仅支持“按需计费”的计费模式,该模式将根据实际使用的资源按小时计费。 节点池创建后,自建的节点池里的资源无法转包周期,默认节点池里的资源可以转包周期。您可以把自建节点池里的资源迁移到默认的节点池里后再进行转包周期的操作。如何迁移请参见迁移节点。 当前区域:指节点实例所在的物理位置。 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度;不同区域的云服务产品之间内网互不相通。 节点池名称:新建节点池的名称,默认按“集群名nodepool随机数”生成名称,可自定义。 节点类型:目前仅支持虚拟机节点。 节点购买数量:该节点池下购买的节点数量,此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示选择,如需更多配额,请单击提交工单申请扩大配额。 弹性扩缩容: − 默认不开启。 − 单击 开启后,节点池将根据集群负载情况自动创建或删除节点池内的节点,参数设置如下: 节点数上限和节点数下限:您可设置节点数的上限和下限,保证节点数在合理的范围内伸缩。 优先级:请根据业务需要设置相应数值,该数值表示节点池之间进行弹性扩缩容的优先级,数值越大优先级越高,如设置为4的节点池比设置为1的节点池优先启动弹性伸缩。若多个节点池的值设置相同,如都设置为2,表示这几个节点池之间不分优先级,系统将按最小资源浪费原则进行伸缩。 弹性缩容冷却时间:请设置时间,单位为分钟或小时。弹性缩容冷却时间是指当前节点池扩容出的节点多长时间不能被缩容。 说明: 节点池中的节点建议不要放置重要数据,以防止节点被弹性缩容,数据无法恢复。 为保证功能的正常使用,节点池开启弹性扩缩容功能后,请务必安装autoscaler。 可用区:可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 请根据业务需要进行选择。节点池创建之后不支持修改可用区属性,请谨慎选择。 如果您需要提高工作负载的高可靠性,建议您选择“随机可用区”,将节点随机均匀分布在不同可用区中。 节点规格:请根据业务需求选择相应的节点规格。 须知: 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件,详细请参见节点预留资源计算公式 。 操作系统:请直接选择节点对应的操作系统。 须知:重装操作系统或修改操作系统配置将导致节点不可用,请务必谨慎操作。 虚拟私有云:跟随集群,不可变更。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 请确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32768GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致,此处不再赘述,详情参见系统盘中的云硬盘类型介绍。 须知: 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建,创建密钥对操作步骤请参见。 步骤 4 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 步骤 5 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 Taints:默认为空。支持给该节点池扩容出来的节点加Taints来设置反亲和性,每个节点池最多配置10条Taints,每条Taints包含以下3个参数: −Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 −Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 −Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。 须知: Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 K8S标签:K8S标签是附加到Kubernetes 对象(比如Pods)上的键值对,旨在用于指定对用户有意义且相关的对象的标识属性,但不直接对核心系统有语义含义。 详细请参见Labels and Selectors。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 步骤 6 (可选)您可以单击左侧的 按钮添加多个节点池,在按钮下方可以查看您可用的节点池配额数量。 步骤 7 完成配置后,单击“下一步:配置确认”,确认所设置的服务选型参数、规格和费用等信息。 步骤 8 确认规格和费用后,单击“提交”,节点池开始创建。 节点池创建预计需要610分钟,您可以单击“返回节点池管理”进行其他操作或单击“查看节点池事件列表”后查看节点池详情。待节点池状态为“正常”,表示节点池创建成功。 查看创建的节点池 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 节点池管理”。 步骤 2 在节点池管理页面中,单击右上角的集群选择框,选择集群后可显示当前集群下所有的节点池,并可查看每个节点池的节点类型、节点规格、弹性扩缩容状态和操作系统等。 须知: 节点池功能上线后,会在每个集群中创建一个默认节点池“DefaultPool”,该节点池不能被编辑、删除或迁移,集群中原有的节点及节点池外创建的节点均会显示在默认节点池“DefaultPool”中。 单击默认节点池“DefaultPool”中“节点”数据框,可查看DefaultPool中的节点列表。 步骤 3 单击右上角的Autoscaler状态选择框,可筛选全部、已启用、未启用Autoscaler功能的节点池。 步骤 4 在节点池列表中,单击节点池的名称,在节点池详情页面,可查看节点池的基本信息、ECS高级设置、Kubernetes高级设置、节点列表等信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点池管理
        创建节点池
      • 设置API可见
        本章节主要介绍设置API可见。 操作场景 当需要修改API的在服务目录中的可见范围时,可以通过“设置可见”功能或编辑API中的“服务目录可见性”参数进行设置。 前提条件 已创建API。 通过“设置可见”功能修改API可见范围 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.进入“开发API > API目录”或“开发API > API管理”页面,在待修改的API所在行,选择“更多 >设置可见”。 4.在弹出的窗口中点击添加,填写项目ID并确认,即可设置此API在服务目录中额外对以该项目下的用户可见。 详见下图:设置可见 通过“服务目录可见性”参数修改API可见范围 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.进入“开发API > API目录”或“开发API > API管理”页面,在API列表操作列中,选择“编辑”。注意,仅当API处于已创建、已驳回、已下线、已停用的情况下才能进行API修改。 4.在基本配置处,修改“服务目录可见性”参数的取值,可以选择为“当前工作空间可见”、“当前项目可见”或“当前租户可见”。然后保存修改。 5.修改完成后,重新恢复或发布API,即可修改此API在服务目录中的可见范围。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        管理API
        设置API可见
      • 删除Vhost
        本章节主要介绍如何删除Vhost。 操作场景 本章节主要介绍删除Vhost的操作,有以下几种方式,您可以根据实际情况选择任意一种方式: 方式一:在控制台删除 方式二:使用RabbitMQ WebUI删除 方式三:调用API删除 方式一:在控制台删除 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击实例名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“Vhost列表”,进入Vhost列表页面。 步骤 6 通过以下任意一种方法,删除Vhost。 勾选Vhost名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除Vhost”。 在待删除的Vhost所在行,单击“删除”。 步骤 7 在弹出的确认删除对话框中,单击“是”。 方式二:使用RabbitMQ WebUI删除 步骤 1 登录RabbitMQ WebUI。 步骤 2 在顶部导航栏选择“Admin”,进入Admin页面。 步骤 3 在右侧导航栏选择“Virtual Hosts”,进入Virtual Hosts页面。 图1 Virtual Hosts页面 步骤 4 单击待删除的Vhost名称,进入Vhost详情页。 图2 待删除的Vhost 步骤 5 在“Delete this vhost”区域,单击“Delete this virtual host”,弹出确认删除对话框。 图3 删除Vhost 步骤 6 单击“确定”,完成Vhost的删除。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        Vhost管理
        删除Vhost
      • 查询消息
        本文主要介绍查询消息。 操作场景 您可以查看指定Topic不同分区的偏移量、消息大小、创建时间以及消息正文。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例名称,进入实例详情页面。 步骤 5 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称、分区以及查询方式。 如果未设置具体分区,查询结果显示Topic所有分区的消息。 查询方式支持以下两种方式: 按创建时间查询:即按生产该消息的时间。 按偏移量查询:即记录消息的位置。 说明 当Topic中的数据量比较大时,单副本Topic查询消息可能会报“内部服务错误”,建议根据数据量适当减小查询时间范围。 步骤 6 单击“搜索”,查询消息。 查询结果如下: 图 查询Topic消息 消息的参数说明如下: Topic名称:消息所在的Topic名称。 分区:消息所在的分区。 偏移量:消息在分区中的位置。 消息大小:消息存入磁盘的大小,单位为B。 创建时间:消息的创建时间。创建时间由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,创建时间会默认为1970。 步骤 7 单击“查看消息正文”,弹出“查看消息正文”对话框,查看消息的内容,包括Topic名称、分区、偏移量、创建时间和消息正文。 步骤 8 (可选)如果需要恢复默认设置,单击“重置”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        查询消息
      • 新资费
        磁盘类型 标准资费(按月)元/GB/月 标准资费(按天)元/GB/天 标准资费(按年)元/GB/年 标准资费(按需)元/GB/小时 高IO(SAS) 0.4 0.013151 4.8 0.000900 超高IO(SSD) 1.2 0.039452 14.4 0.001700 极速型SSD 2 0.065755 24 0.004200
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        产品资费
        新资费
      • 查询当前实例中云容器引擎来源的服务列表
        参数 参数类型 说明 示例 下级对象 host String 节点ip 127.0.0.1 port Integer 节点端口 8080 priority Integer 节点优先级配置,只有在高优先级的节点不可用或者尝试过,才会访问一个低优先级的节点。默认值为0,可以设置为负数,让其作为备份节点 1 weight Integer 节点权重 1
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        查询当前实例中云容器引擎来源的服务列表
      • 查询服务详情
        参数 参数类型 说明 示例 下级对象 host String 节点ip 127.0.0.1 port Integer 节点端口 8080 priority Integer 节点优先级配置,只有在高优先级的节点不可用或者尝试过,才会访问一个低优先级的节点。默认值为0,可以设置为负数,让其作为备份节点 1 weight Integer 节点权重 1
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        查询服务详情
      • SDK接入概述
        日志格式 日志格式根据SDK的语言类型有细微的差异,以Java SDK 为例,LogItem 有四个参数。 content 和 labels 是一个List 类型,其中的 LogContent和 Labels是一个 类型,K 是String 类型,V是一个泛型,可以为String、int、double等类型。 注意:其中content和labels的key的长度不超过64字符,仅支持数字、字母、下划线、连字符()、点(.),且必须以字母开头。value类型最好使用字符串(String)和数字类型(int,double),其他类型建议先转为字符串类型,并且value值不能为空或空字符串。 参数 类型 描述 是否必须 logtimestamp long 时间戳,单位纳秒,一般是当前时间 是 originmsg string 原始日志内容 是 content ArrayList 对日志进行分词后的内容,可用于索引 否 labels ArrayList 自定义标签 否 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(AccessKey、SecretKey)获取方式 天翼云账号的AK和SK,硬编码到代码中或者明文存储都有很大的安全风险,建议密文存放,使用时解密,确保安全,或者设置在环境变量中,从环境变量中获取。 AK、SK可以通过登录天翼云官网,在用户的账号中心中查看。详情请查看如何获取访问密钥(AK/SK)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取。 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 接入限制 目前API 和 SDK日志上传都进行了频控限流措施,目前的传输的限制如下: 在1个日志项目下,写入流量最大限制:200MB/s 在1个日志项目下,写入次数最大限制:1000次/s 在1个日志单元下,写入流量最大限制:100MB/s 在1个日志单元下,写入次数最大限制:500次/s 如果日志上传频率很高,写入次数的被限流,可以在每次写入时上传多条日志,或者使用异步批量上传功能(部分SDK支持)。 注意 单次上报的日志包大小限制5MB,单条日志大小限制1MB。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        SDK接入概述
      • SDK接入概述
        日志格式 日志格式根据SDK的语言类型有细微的差异,以Java SDK 为例,LogItem 有四个参数。 content 和 labels 是一个List 类型,其中的 LogContent和 Labels是一个 类型,K 是String 类型,V是一个泛型,可以为String、int、double等类型。 注意:其中content和labels的key的长度不超过64字符,仅支持数字、字母、下划线、连字符()、点(.),且必须以字母开头。value类型最好使用字符串(String)和数字类型(int,double),其他类型建议先转为字符串类型,并且value值不能为空或空字符串。 参数 类型 描述 是否必须 logtimestamp long 时间戳,单位纳秒,一般是当前时间 是 originmsg string 原始日志内容 是 content ArrayList 对日志进行分词后的内容,可用于索引 否 labels ArrayList 自定义标签 否 参数(Endpoint) 获取方式 各资源池地址请查看访问地址(Endpoint)。 参数(AccessKey、SecretKey)获取方式 天翼云账号的AK和SK,硬编码到代码中或者明文存储都有很大的安全风险,建议密文存放,使用时解密,确保安全,或者设置在环境变量中,从环境变量中获取。 AK、SK可以通过登录天翼云官网,在用户的账号中心中查看。详情请查看如何获取访问密钥(AK/SK)。 参数(logProject、logUnit)获取方式 logProject、logUnit代表了日志上传的目标日志项目与目标日志单元。要获取这两个参数的前提是您已经成功开通了云日志服务,并创建了日志项目和日志单元,详情参考创建日志项目与日志单元。 创建完成后,您可在云日志服务控制台日志管理日志项目与日志单元列表中获取。 注意 日志项目和日志单元编码所属区域要和访问地址endpoint相对应,例如日志项目和日志单元开通在华东1区域内,则也需要使用华东1的endpoint。 接入限制 目前API 和 SDK日志上传都进行了频控限流措施,目前的传输的限制如下: 在1个日志项目下,写入流量最大限制:200MB/s 在1个日志项目下,写入次数最大限制:1000次/s 在1个日志单元下,写入流量最大限制:100MB/s 在1个日志单元下,写入次数最大限制:500次/s 如果日志上传频率很高,写入次数的被限流,可以在每次写入时上传多条日志,或者使用异步批量上传功能(部分SDK支持)。 注意 单次上报的日志包大小限制5MB,单条日志大小限制1MB。
        来自:
      • 管理SFS Turbo文件系统与OBS桶的存储联动
        数据淘汰功能 SFS Turbo文件系统绑定OBS桶之后,可以使用数据淘汰功能。淘汰时会释放数据内容,仅保留元数据,释放后不占用SFS Turbo文件系统上的存储空间。再次访问该文件时,将重新从OBS中加载文件数据内容。 按时间淘汰 SFS Turbo文件系统绑定OBS桶之后,支持数据按时间淘汰功能。设定时间内没有被访问过的文件会被淘汰。 按时间淘汰功能支持设置(冷)数据淘汰时间,设置步骤请参考以下操作。 1. 进入SFS Turbo文件系统列表页面。 2. 在文件系统列表中,单击创建的SFS Turbo文件系统名称,进入文件系统详情页面。 3. 在“基本信息”页签,设置(冷)数据淘汰时间。 按容量淘汰 SFS Turbo文件系统绑定OBS桶后,支持数据按容量淘汰功能。 容量达到95%及以上按照30分钟淘汰时间进行淘汰,淘汰至容量低于85%。 说明 淘汰规则:按时间淘汰和按容量淘汰哪个先达到就先按哪个淘汰。 数据淘汰默认开启,淘汰时间默认为60小时。 如果SFS Turbo文件系统存储空间写满,会影响业务运行,建议在云监控服务CES上配置SFS Turbo已用容量的监控告警。 当触发容量阈值告警时请手动缩短数据淘汰时间,例如从60小时配置成40小时,加速(冷)数据淘汰,或者对SFS Turbo存储空间进行扩容。 建议在需要高性能场景下适当延长数据淘汰周期,避免淘汰后需要从OBS中加载冷数据而产生的高时延。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        管理SFS Turbo文件系统与OBS桶的存储联动
      • 删除数据库
        本章节主要介绍了SQL Server控制台删除数据库功能与说明。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【数据库管理】,可以看到实例已创建的数据库列表。 5. 选择目标数据库,点击操作列的【删除】按钮。 6. 在弹出的确认框中,单击【确定】。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库
        删除数据库
      • 调整HBlock性能参数
        参数 类型 描述 是否必须 perfScen String 设置性能调优针对的场景。 取值: ICv1:智算场景。 VMv1:虚拟化场景。 default:系统默认的类型。 否 haSens String 设置性能调优针对的场景敏感型。 取值: High:高敏感型场景。 Middle:中等敏感型场景。 Low:低敏感型场景。 默认值为Middle。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        调整HBlock性能参数(集群版适用)
        调整HBlock性能参数
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        本教程将详细介绍如何借助天翼云 SDWAN 实现对 DeepSeek 的定向加速,以访问海外资源。 应用场景 企业在云上部署私有化DeepSeek平台,进行企业知识库、智能问答等大模型开发工作,在此过程中会使用到ollama、huggingface、github等境外开发工具或平台实现大模型高效迭代优化。 天翼云SDWAN通过优化对合规境外网站的访问过程,可以为客户提供更加流畅的海外资源访问体验。用户只需在云上DeepSeek主机业务环境中部署SDWAN软件CPE(vCPE),即实现可对定向海外资源的加速访问。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建了云主机用于部署DeepSeek服务,并通过网络配置将其加入到VPC子网中。 操作步骤 本教程的配置流程如下: 步骤一:部署 vCPE 1. 创建并配置云主机 :在天翼云控制台创建一台用于部署天翼云 SDWAN vCPE 的云主机,为其创建和绑定弹性公网 IP(EIP),并通过网络配置将其加入到创建的VPC子网中,请参考创建弹性云主机。 2. 创建vCPE资源,并部署到云主机中:您可通过以下两种方式开通 vCPE 资源。 天翼云官网自助开通:若选择通过天翼云官网自行下单,具体操作步骤如下: 1. 登录天翼云 SDWAN 控制台,在界面中选择“智能网关”选项,随后在“智能网关”页面点击“创建智能网关”按钮。 2. 按照页面给出的提示,选择“软件版”vCPE和接入带宽等关键业务配置。 3. 参数配置完毕后,点击“提交订单”。在确认订单信息准确无误后,勾选产品服务协议,接着点击“确认下单”。 4. 完成订单支付,支付成功即完成 vCPE 资源的购买。 客户经理协助开通:您也可以直接联系客户经理,由其协助完成 vCPE 资源的开通。 购买完成后,及时联系 SDWAN 客户经理进行交付。届时,天翼云 SDWAN 交付团队会协助您将创建好的 vCPE 实例资源部署到云主机上,并接入天翼云 SDWAN 网络。
        来自:
        帮助文档
        天翼云SD-WAN
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 步骤四:初始化数据盘
        云硬盘挂载至云主机后,需要初始化云硬盘才可以正常使用。本文帮助您了解如何初始化数据盘。 操作场景 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 系统盘会自动初始化,无须手动再操作。 数据盘无论是随云主机一起创建的,还是后续购买手动创建的,都需手动初始化。 注意 磁盘分区和格式化被视为高风险操作,因此在进行初始化操作时必须保持谨慎。此操作仅适用于一块全新的数据盘,而不适用于已写入数据的盘。如果您决定格式化已写入数据的盘,请务必为该盘创建一个快照,以确保数据不会丢失。 前提条件 数据盘已挂载至云主机,且未初始化。 操作方法 专属云内磁盘操作同公有云中一样,数据盘需要初始化之后才可使用。初始化方法参见初始化数据盘。
        来自:
        帮助文档
        专属云(存储独享型)
        快速入门
        步骤四:初始化数据盘
      • 应用系统
        本章节介绍应用容灾多活中应用系统的管理功能。包括数据双活/应用双活管理。 概述 应用系统是业务应用在多活产品内的具体实例,指应用在多活系统上的逻辑概念,用于进行租户粒度的管控配置和隔离。 创建应用系统 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 单击列表上方创建 ,进入新增应用系统页面。 4. 填写应用系统名称、勾选应用系统需要开通的模块、勾选“我已阅读,理解并接受《应用容灾多活计费规则》”,单击确定按钮完成创建。 5. 在应用系统列表,查看应用系统已创建成功。 注意 创建应用系统后,即根据开通模块数与实际接入应用节点数开始进行计费统计。 修改应用系统 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 在应用系统列表 中找到需要修改的应用系统,单击应用系统数据行右侧更多 ,单击编辑 ,弹出应用系统修改页面。 4. 填写需要修改的应用系统名称、勾选应用系统需要开通的模块、勾选“我已阅读,理解并接受《应用容灾多活计费规则》”,单击确定按钮完成修改。 5. 在应用系统列表,查看应用系统已修改成功。 注意 修改应用系统后,在下一个统计周期,即根据新的开通模块数与实际接入应用节点数进行计费统计。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        应用管理
        应用系统
      • 实践准备工作
        本章主要介绍实践准备工作 为了让您能更好的完成并体验HE2E项目在软件开发生产线上的端到端实施,在进行具体的任务操作前,您需要完成以下准备工作。 购买软件开发生产线 在使用软件开发生产线前,需完成软件开发生产线的购买。 软件开发生产线提供三种版本:基础版、专业版、铂金版。本文档中选择开通基础版。购买操作请参考“《软件开发生产线用户指南》>购买软件开发生产线”。 创建项目 在开展项目实践前,由产品负责人Sarah创建项目。 步骤 1 登录软件开发生产线首页。 步骤 2 单击“新建项目”。 步骤 3 选择“DevOps全流程样例项目”。 步骤 4 输入项目名称“凤凰商城”,单击“确定”,完成项目创建。 添加项目成员 由产品负责人Sarah为团队成员创建帐号,并添加项目中。 本样例项目涉及四个项目角色,为了方便介绍,本文档中每个角色对应一个人,如下表所示。 项目角色列表 项目成员 项目角色 工作职责 样例项目中对应操作 Sarah 产品负责人(项目创建者) 负责产品整体规划与产品团队的组建。 创建项目 添加项目成员 管理需求规划 Maggie 项目经理 负责管理项目交付计划。 管理迭代规划 监控和跟踪项目状态 管理项目配置 跟踪测试计划进展 Chris 开发人员 负责项目代码的开发、编译、部署及验证。 开发代码 检查代码 构建应用 部署应用 配置流水线 Billy 测试人员 负责编写测试用例并执行。 创建迭代测试计划 执行测试计划 步骤 1 进入“凤凰商城”项目,进入“设置 > 通用设置 > 成员管理”页面。 步骤 2 单击项目成员列表上方“添加成员 > 从本企业用户”。 步骤 3 在弹框中单击“创建用户”,跳转至“用户”页面。 添加成员 步骤 4 单击“创建用户”,依次创建三个用户“Maggie”、“Chris”、“Billy”。 步骤 5 返回软件开发生产线页面,刷新浏览器,重新单击项目成员列表上方“添加成员 > 从本企业用户”,勾选成员“Maggie”、“Chris”、“Billy”,单击“下一步”。 步骤 6 单击每一行的“项目角色”下拉列表,为成员Maggie选择角色“项目经理”、Chris选择角色“开发人员”、Billy选择角色“测试人员”,单击“保存”。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        实践准备工作
      • 套餐管理
        3.2 订购操作步骤 进入【套餐管理】页面,查看可订购套餐卡片: 7 天体验版:仅新用户可见【套餐】卡片,非新用户无订购权限; Lite基础套餐/Pro 高级套餐:所有用户均可订购。 点击目标套餐卡片,配置以下内容: 选择模型:Lite基础套餐可以选择模型;高级套餐无需选择模型,套餐内所有模型均可使用; 选择购买时长:Lite基础套餐/Pro 高级套餐支持订购112 个月,默认 1 个月; Lite基础套餐/Pro 高级套餐可按需关闭自动续订开关(默认开启),7 天体验版不支持续订。 勾选相关服务协议,点击【确认订购】按钮,提交表单后提示支付弹窗,跳转页面完成支付。 订单支付完成后回到应用托管控制台,进入【套餐管理】页面,可查询到已订购的套餐,状态为「生效中」,系统自动创建 OpenClaw 实例,资源准备预计 15 分钟,请耐心等待。
        来自:
        帮助文档
        应用托管
        用户指南
        套餐管理
      • 套餐管理(1)
        3.2 订购操作步骤 进入【套餐管理】页面,查看可订购套餐卡片: 7 天体验版:仅新用户可见【套餐】卡片,非新用户无订购权限; Lite基础套餐/Pro 高级套餐:所有用户均可订购。 点击目标套餐卡片,配置以下内容: 选择模型:Lite基础套餐可以选择模型;高级套餐无需选择模型,套餐内所有模型均可使用; 选择购买时长:Lite基础套餐/Pro 高级套餐支持订购112 个月,默认 1 个月; Lite基础套餐/Pro 高级套餐可按需关闭自动续订开关(默认开启),7 天体验版不支持续订。 勾选相关服务协议,点击【确认订购】按钮,提交表单后提示支付弹窗,跳转页面完成支付。 订单支付完成后回到应用托管控制台,进入【套餐管理】页面,可查询到已订购的套餐,状态为「生效中」,系统自动创建 OpenClaw 实例,资源准备预计 15 分钟,请耐心等待。
        来自:
      • 数据导出工单列表
        任务状态 用于展示数据导出任务的状态与执行时间,状态包括已创建、执行成功、执行中、执行失败四种状态。当任务执行失败时,可以在这里查看失败原因。 预检查 用于展示数据导出工单的预检查详情,包括连接检查、权限检查。 审批流程 用于展示数据导出工单的审批流程详情。当组织处于基础版时,用户提交的数据导出工单会触发数据导出任务直接执行,不会经过审批流程,所以没有需要展示的审批流程信息;当组织处于企业版时,用户提交的数据导出工单在通过预定的审批流程之后,才会执行数据导出任务,所以会展示具体的审批流程信息。 重试 针对异常的工单,可以根据异常原因,进行选择是否需要重试,点击重试按钮即可进行重试。 下载 工单状态是执行完成的时候,会出现下载 按钮,点击即可进行下载,鼠标浮至下载中按钮时,可查看当前实时下载进度。 注意 文件导出完成后,有效期为24小时,须在有效期内进行下载。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导出
        数据导出工单列表
      • 修改实例端口
        本页介绍了如何修改实例端口。 文档数据库服务实例支持修改数据库端口,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”菜单,进入实例列表页。 3. 选择需要修改端口的实例,点击该实例的实例名称,进入实例详情。 4. 在实例信息栏中找到“数据库端口”信息,点击“修改端口”按钮。 5. 部分资源池在点击“修改端口”按钮后,会弹出“修改端口”弹窗页,在弹窗页,根据指引在“新端口”信息栏,填写端口,再点击“确认”按钮即可完成端口修改。 6. 部分资源池在点击“修改端口”按钮后,原端口信息处会变成一个可输入框,填入需要修改的端口,再按下回车键即可完成端口修改。 注意 修改端口会导致实例重启,请谨慎操作。 修改端口范围为1024~65535之间,其他范围的端口设置无效。 单机版实例、副本集实例的默认端口为8030。 集群规格实例的Mongos默认端口为9030。 集群版实例的Shard与ConfigServer节点端口不支持修改。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库管理
        修改实例端口
      • 分布式消息服务Kafka事件源
        参数 说明 示例 实例名称 选择前提条件中已创建的分布式消息服务Kafka版实例。 KAFKAxxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建 :自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有 :选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点 :从最新位点开始消费。 最早位点 :从最初位点开始消费。 最新位点
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务Kafka事件源
      • 分布式消息服务RocketMQ事件源
        参数 说明 示例 实例名称 前提条件中已创建的分布式消息服务RocketMQ版实例。 xxx Topic 当前实例中的Topic。 topic1 Group 消费组名。 快速创建 :自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有 :选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点 :从最新位点开始消费。 最新位点 Tag 用于过滤消息的Tag值,非必填。 tag1
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件源
        分布式消息服务RocketMQ事件源
      • 自定义分布式消息服务RocketMQ事件源
        参数 说明 示例 名称 事件源名。 source1 实例名称 选择前提条件中已创建的分布式消息服务RocketMQ版实例。 xxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建 :自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有 :选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。仅支持从最早位点进行消费。 最早位点 :从最初位点开始消费。 最早位点
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务RocketMQ事件源
      • 计费概述
        本章节说明数据库安全计费概述 计费项 计费说明 计费项 计费项说明 计费模式 数据库实例 计费因子:不同规格的实例类型提供不同数据库纳管数、吞吐率和入库速率。 包年/包月 计费示例 假设您在2023/06/30 16:50:04购买了一个数据库安全审计(性能规格:基础版)购买时长为一个月,并在到期前手动续费1个月,则: 第一个计费周期为:2023/06/30 16:50:04 ~ 2023/07/30 23:59:59 第二个计费周期为:2023/07/30 23:59:59 ~ 2023/08/30 23:59:59
        来自:
        帮助文档
        数据库安全
        计费说明
        计费概述
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API列表
      • 修改伸缩配置
        参数 是否必填 参数类型 说明 示例 下级对象 volumeType 是 String 磁盘类型。取值范围:SATA:普通IO,SAS:高IO,SSD:超高IO,FASTSSD:极速型SSD SATA volumeSize 是 Integer 磁盘大小 40 flag 是 Integer 磁盘类型。取值范围:1:系统盘,2:数据盘。系统盘限制为1块 1
        来自:
        帮助文档
        弹性伸缩服务 AS
        API参考
        API(公测中)
        伸缩配置
        修改伸缩配置
      • 兼容接口和版本
        兼容接口 实例类型 版本 InfluxDB 集群是基于多个节点(至少是三节点)组成。集群的主要特点是横向扩展能力强,能满足不断增长的数据量需求,因此当您对可用性要求较高、数据量较大、未来扩展性要求较高的情况下,推荐您使用集群架构。 1.7,1.8
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        产品介绍
        兼容接口和版本
      • x86 V6实例(CPU采用Intel Cascade Lake架构)
        高性能计算型 采用Intel Cascade Lake CPU,满足多核高主频、低时延HPC的业务场景。 规格名称 业务场景 CPU 内存 本地磁盘 扩展配置 physical.h6.xlarge HPC 44cores Intel Cascade Lake 2288X V5 (222 core CPU,3.0 GHz) 192GiB 无 SDI3.0(225GE) GPU加速型 采用Intel Cascade Lake CPU、NVIDIA T4,满足AI推理和图形图像加速业务场景。 规格名称 业务场景 CPU 内存 本地磁盘 扩展配置 physical.pi6.3xlarge.6 异构图形图像,AI推理 52cores ATLAS G560V5 (226 core CPU,2.6 GHz) 448GiB 2480G SATA SSD+11600G NVMe SSD 6T4 +2Hi1822
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        x86 V6实例(CPU采用Intel Cascade Lake架构)
      • 调整HBlock性能参数
        参数 描述 perfscen PERFSCEN 设置性能调优针对的场景。 取值: ICv1:智算场景。 VMv1:虚拟化场景。 default:系统默认的类型。 hasens HASENS 设置性能调优针对的场景敏感型。 取值: High:高敏感型场景。 Middle:中等敏感型场景。 Low:低敏感型场景。 默认值为Middle。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        调整HBlock性能参数(集群版适用)
        调整HBlock性能参数
      • 1
      • ...
      • 149
      • 150
      • 151
      • 152
      • 153
      • ...
      • 540
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      弹性伸缩服务 AS

      模型推理服务

      科研助手

      智算一体机

      人脸检测

      人脸实名认证

      人脸比对

      动作活体识别

      推荐文档

      删除消费组

      产品优势

      重置管理员密码

      产品监控

      云课堂 第十九课:RDS数据库服务基于SSL的安全访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号