活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      商企云数据_相关内容
      • 升级Kakfa实例内核版本
        本章节介绍如何将老的内核版本升级到最新的内核版本。 升级Kafka实例内核版本,指的是将老的内核版本升级到最新的内核版本,升级后,Kafka实例将支持一些新的特性(例如支持在控制台创建消费组、支持查看Topic详情等),并且修复老版本的一些问题。 升级Kafka实例内核版本并不会升级Kafka实例的大版本,例如升级前Kafka版本为2.7,升级内核版本后,Kafka版本还是2.7。 升级内核版本的影响 若Topic为单副本,升级期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,升级不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期升级。 升级过程中会逐个节点升级,单个节点的升级包括两部分:升级软件包和数据同步。升级软件包耗时在5分钟左右,数据同步耗时取决于升级软件包过程中其他节点Leader副本的生产数据量,数据量越大,所需时间越久。升级总耗时每个节点升级软件包耗时+数据同步耗时。 升级过程中会逐个节点重启监控进程,导致监控数据断点,重启成功后,监控数据恢复。 升级过程中节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20)));
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        升级Kakfa实例内核版本
      • Linux系统使用多网卡时网卡名称出现漂移
        本文为您介绍Linux系统使用多网卡时网卡名称出现漂移的解决方法。 问题描述 若使用 Linux 系统的云主机配备了多块网卡,则在重启主机后可能出现网卡名称与网卡 MAC 地址不对应的问题,即网卡漂移问题。 以网卡 eth1 实际对应的 MAC 地址为de:8a:88:20:88:6a、网卡 eth2 实际对应的 MAC 地址为76:c5:cc:74:26:c1 为例,若出现网卡漂移问题,则在执行 ip a 命令查看网卡信息时,会发现网卡 eth1 对应的 MAC 地址变为了网卡 eth2 应对应的 MAC地址。 问题原因 Linux 系统运行后会将网卡相关信息保存在 /etc/udev/rules.d/70persistentnet.rules 文件中。若此文件不存在或文件内容和 Linux 操作系统实际情况不一致时,则可能导致网卡漂移问题。 解决步骤 注意:此问题的推荐解决方案需重启云主机,请您在评估业务中断影响后谨慎操作。 1. 以问题描述中的场景为例,推荐在/etc/udev/rules.d/70persistentnet.rules 文件中,将网卡名称与网卡 MAC 地址绑定,使网卡名称与网卡 MAC 地址相对应。每一个网卡可添加相应的规则,每个规则的模板如下: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}" ", KERNEL"eth", NAME" " 以绑定网卡 eth1 对应的 MAC 地址为de:8a:88:20:88:6a 为例: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address de:8a:88:20:88:6a ", KERNEL"eth", NAME"eth1" 2. 保存文件后重启云主机。 reboot 3. 再次通过命令 ip a 查看网卡名称与 MAC 是否对应。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        网络配置
        Linux系统使用多网卡时网卡名称出现漂移
      • 使用ECX部署OpenClaw
        本文介绍如何使用ECX部署OpenClaw,配置大模型服务并使用WebUI进行配置管理。 购买边缘云主机 1、登录++智能边缘云控制台++。 2、进入边缘虚拟机实例,创建虚拟机。 点击【新建实例】。 就近选择云主机地域可用区,实例规格选择通用计算型,建议规格至少为s6.large.2(2vCPU,4GB内存)。 镜像选择:镜像市场镜像,大模型,openclaw,勾选镜像协议;系统盘容量不低于100GB。 网络配置选择新购买公网IP,公网带宽上限至少为5Mbps。若无可用VPC,可点击前往VPC和子网自助创建后,点击刷新图标更新信息。 点击安全组管理,新建安全组。 其中入方向放通0.0.0.0/0 22、0.0.0.0/0 18789,出方向全放通。 确认信息无误,勾选协议并提交。 点击立即支付,完成订单支付。 支付成功后,点击控制台,进入边缘虚拟机控制台,刷新页面可看到刚刚创建的虚拟机。 3、当虚拟机运行状态为“运行中”,登录虚拟机,执行如下命令,查看OpenClaw服务运行状态,确认其是否正常启动。 shell systemctl user status openclawgateway.service 若显示服务状态为active(running),证明OpenClaw服务已经正常启动。
        来自:
        帮助文档
        智能边缘云
        最佳实践
        ECX+OpenClaw,快速构建你的个人AI助理
        使用ECX部署OpenClaw
      • 云容器引擎集群15分钟快速体验
        Demo下载 1. Demo下载地址:微服务治理中心控制台>应用治理>应用接入>云容器引擎 15分钟快速体验导航。 2. ctyunmsedemo.tar.gz项目介绍。 quickstart文件夹 :提供simpledemo、appa、appb、appc和zuul的启动jar包和一键启动脚本,简单配置即可快速接入微服务治理中心。 springcloud文件夹 :appa、appb和appc的项目源码。 simpledemo文件夹 :simpledemo的项目源码。 Demo镜像打包 demo镜像制作并上传云容器引擎镜像仓库。(需提前制作jdk镜像包) 1. 通过jar文件和dockerfile文件制作镜像。 FROM jdk8 ADD ./appa.jar /usr/local WORKDIR /usr/local RUN cd /usr/local && ls CMD [“java”, “jar”, “/usr/local/appa.jar”] 2. 通过容器镜像服务创建镜像仓库,镜像服务>实例列表>镜像仓库>创建仓库 进入云容器引擎控制台,点击容器镜像服务。 在实例列表页面,选择容器镜像服务实例。 进入镜像仓库菜单,点击创建仓库。 选择命名空间,设置仓库名称,点击创建。 3. demo上传至云容器引擎镜像仓库。 执行docker build f ./Dockerfilea t msgcappa:1.1 .命令,构建demo镜像。 docker build f ./Dockerfilea t msgcappa:1.1 . 登录容器镜像服务实例。 docker login username{user} registrycrs{regionCode}.ctyun.cn 推送镜像。 docker tag registryvpccrs{regionCode}.ctyun.cn/msgctest/ : docker push registryvpccrs{regionCode}.ctyun.cn/msgctest/ :
        来自:
        帮助文档
        微服务引擎
        快速入门
        微服务治理中心
        15分钟完成微服务治理中心能力快速体验
        云容器引擎集群15分钟快速体验
      • 开启弹性IP防护
        本节介绍如何开启弹性IP防护。 注意事项 一个弹性IP防护消耗1个“可防护公网IP数” 配额。 开启弹性IP防护 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“防火墙开关 > 互联网边界防火墙开关”。 3. 在“弹性IP”页签,选择IP版本后,找到需要开启防护的弹性IP,单击操作列的“开启防护”。 系统会定期自动同步当前账号下的资产到该页面,若有弹性IP资产未同步,可以在互联网边界防火墙开关页面右上角单击“同步资产”,手动同步资产。资产同步预计需要1~2分钟。 弹性IP列表展示当前账号下所有VPC内的绑定云主机资产的公网IP。列表包括公网IP(实例名称、ID)、私网IP(实例名称、ID)、虚拟私有云(VPC名称、VPC网段)、子网、绑定资产类型、绑定资产(资产名称、ID)、防护状态。 4. 进入开启弹性IP防护页面,完成相应配置。 1. 自动检查:单击“立即扫描”,待扫描完成后,单击“下一步”。 注意 若有未检查通过的项,请根据提示信息完成相应操作后,再执行下一步。 2. 创建终端节点。配置引流子网后,单击“创建终端节点”。 注意 支持选择已有子网,也可以自定义子网。自定义子网的网段必须属于当前VPC的CIDR;创建后无法更改。 终端节点创建完成后,单击“下一步”。 3. 网络引流配置:确认基础信息后,单击“开始引流”。 4. 开启防护成功。
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        防火墙开关
        互联网边界防火墙
        开启弹性IP防护
      • 运维环境设置
        此小节介绍如何设置云堡垒机运维环境。 在使用堡垒机之前,您需要先设置运维工具及配置运维工具路径。 使用本地客户端方式运维资产,需要初始化本地终端环境设置,下载并设置访问插件。 下载访问插件 1.使用访问用户登录云堡垒机(原生版)控制台。 2.在左侧导航栏选择“运维设置”,进入“运维设置”页面。 3.单击页面右上角的“访问插件”按钮,根据实际操作环境选择插件下载。 配置运维工具 说明 目前版本Xshell、SecureCRT、Filezilla、WinSCP、DBeaver和Navicat需要使用客户端路径配置工具配置路径后才可以使用。 使用版本限制请参考:使用限制章节。 1.在“运维设置”页面勾选需要使用的客户端工具,并单击“保存”。 2.若您配置的工具需要配置客户端路径,则单击页面右上角的“客户端路径配置”。 3.在弹出的对话框中选择需要配置客户端,选择客户端路径。 安装RemoteAPP程序 您若要使用云堡垒机访问应用服务器,需要在应用发布服务器中安装RemoteAppProxy跳板工具。 2.8及以上版本堡垒机请选择openappmstsc.exe。 2.8及以下版本堡垒机请选择openapp.exe。 堡垒机版本请参考:关于系统章节。 下载步骤: 1. 使用管理员账号登录服务器。 2. 在服务器中,将RemoteAPP程序拷贝到“C:tool”目录中,若没有则手动创建该目录。 3. 双击“openappmstsc.exe”或“openapp.exe”启动安装。 4. 安装完成后,单击“关闭”。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        运维使用手册
        运维环境设置
      • 删除消息
        介绍分布式消息服务Kafka删除消息功能操作内容。 场景描述 在以下场景中,可以考虑删除Kafka中的消息: 错误消息:当Kafka中的消息存在错误或异常时,需要将这些消息删除。这可能是由于消息格式错误、消息内容不完整或者其他数据质量问题导致的。删除错误消息可以保持数据的一致性和准确性。 保留策略变更:Kafka中可以设置消息的保留时间或者大小,即消息在主题中的保留期限。当需要更改消息的保留策略时,可能需要删除旧的消息以应用新的策略。例如,如果要缩短消息的保留时间,则需要删除超过新保留期限的旧消息。 清理测试数据:在测试环境中,经常需要清理旧的测试数据,以确保环境的可用空间和性能。当测试数据不再需要时,可以删除相应的消息来释放资源。 故障恢复:当Kafka发生故障或者数据丢失时,可能需要删除一些消息以进行数据恢复。在这种情况下,需要根据故障的范围和影响选择删除相应的消息,以恢复数据的完整性。 需要注意的是,在删除消息之前,需要确保删除的消息不再需要或者已经备份。删除消息是不可逆的操作,一旦删除就无法恢复。因此,在执行删除操作之前,建议先进行备份或者确认消息不再需要。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后进入主题管理页面。 (5)在Topic所在行,点击其右侧“更多”,在下拉框中单击“消息删除”,并选择确认。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        删除消息
      • 通过制品部署前端应用
        本章节介绍如何通过制品部署前端应用到容器 概述 在微服务云应用平台中接入您的应用进行发布,所支持的介质类型大体上可分为制品(JAR/WAR/ZIP包等)、镜像等,您可以按实际需求选择接入的方式。 为了帮助您快速体验如何在微服务云应用平台中通过制品部署前端应用到容器。微服务云应用平台提供了前端VUE应用制品( 通过制品部署前端应用 前提条件 1. 您已开通微服务云应用平台 2. 您已订购一个云容器引擎实例 说明 用户如果想使用自定义基础镜像部署前端应用,对应的Dockerfile需要用户参考系统提供的模板改写,模板说明如下: 1. WORKDIR /usr/local/:设置工作目录 2. COPY $packageName . :拷贝制品包到当前目录(用户上传制品包统一用packageName占位符表示) 3. RUN mkdir p /usr/local/static:创建静态资源目录 4. RUN tar xvf $packageName C /usr/local/static :解压缩制品包到静态资源目录 5. RUN cp r /usr/local/static/ /usr/share/nginx/html:拷贝静态资源文件到nginx运行目录下 6. EXPOSE 8081:暴露服务指定端口 7. CMD ["nginx", "g", "daemon off;"]':通过nginx启动服务 部署流程 创建环境和导入资源 在左侧导航栏,选择环境管理。在环境列表左上角点击创建环境。环境创建好后,将云容器引擎导入到环境中。
        来自:
      • 弹性云主机变更规则
        本节介绍了弹性云主机的变更规则。 包周期产品升降配规则请参考天翼云帮助中心费用中心变更包周期产品升降配规则。
        来自:
        帮助文档
        弹性云主机 ECS
        计费说明
        弹性云主机变更规则
      • 重做备机
        本页介绍天翼云TeleDB数据库重做备机。 操作场景 在分布式数据库中,‌当主机(‌主节点)‌发生故障时,‌需要重做备机(‌备节点)‌以保证数据完整性和系统的可用性。 操作步骤 1. 切换至TeleDB控制台,在左侧导航单击实例列表。 2. 单击目标实例所在行的详情 ,进入实例详情页面。 3. 进入实例详情页,单击GTM节点信息 或协调节点 或数据节点 操作列下拉框的重做备机 ,弹出重做备机对话框。 4. 当GTM节点信息重做备机时进入重做备机 对话框,在重做协调节点 下拉框选择协调节点,在重做备节点下拉框选择重做备节点。 5. 当协调节点 或数据节点 重做备机时进入重做备机 对话框,在重做协调节点 下拉框选择协调节点,在重做备节点下拉框选择重做备节点。 6. 单击确定完成重做备机。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        维护管理实例
        重做备机
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 复制表
        本页介绍天翼云TeleDB数据库的复制表功能。 复制表是所有DN 节点都存储一份相同的数据。 plaintext teledb create table trep (id int,mc text) distribute by replication; CREATE TABLE teledb d+ trep Table "public.trep" Column Type Collation Nullable Default Storage Stats target Description +++++++ id integer plain mc text extended Distribute By: REPLICATION Location Nodes: ALL DATANODES 所有节点都会保存一份数据 plaintext teledb insert into trep values(1,'teledb'),(2,'ctyun'); COPY 2 teledb EXECUTE DIRECT ON (dn01) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows) teledb EXECUTE DIRECT ON (dn02) 'select from trep'; id mc + 1 teledb 2 ctyun (2 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        数据表管理
        复制表
      • 计费说明
        续费说明 由于特惠包是先付费再使用方式,所以在您特惠包的订单到期或即将到期时,请及时续费。如果不及时续费,可能影响您的使用。 表 不同阶段续费说明 帐户余额充足 帐户余额不足或欠费 ::: APM状态 可正常使用APM 冻结,不再采集并展示欠费后的应用数据,但之前的数据仍可展示、查询。 续费说明 此期间续订特惠包,可正常使用APM。 如果充值,APM自动解除冻结,按需计费。如果您需要特惠包,需要重新购买。否则,APM按需计费。 续费说明 如果不续订特惠包,APM自动将收费方式转为按需计费。 如果不充值,超出保留期后,所有资源被释放,此期间APM不计费。 停止计费 对于以按需计费模式使用的APM 2.0资源,若不再使用且需停止计费,请您删除存储在APM 2.0上的指标数据。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        计费说明
      • OBS Manager
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        OBS Manager
      • 概述
        全局索引是一组非分片键和分片键的映射关系,通过非分片键查询到分片键,直接计算出数据所在的分片节点,从而提升非分片键查询(select语句)时的效率,避免广播查询。本文对分布式关系数据库DRDS全局索引功能进行说明。 核心特性 全局索引的核心特性说明如下: 增量索引追加 解析binlog数据,提取非分片键和分片键的映射关系。 支持全量索引重建 通过JDBC从数据库中获取全量数据。 以单索引单分片为最小任务单元分配重建任务。 索引存储 索引数据以keyvalue方式存储在分布式缓存中。 索引配置 索引项相关的配置与DRDS实例共用,配置修改实时同步。 库表信息变更自动同步更新。 索引延时 正常情况下,索引与数据库延时在秒级以内。 注意事项 DRDS实例版本不同全局索引的管理入口可能存在差异,具体版本说明如下,请以控制台实际情况为准: V5.1.20.0.13及以后版本:Giserver与DBProxy合并部署,不再区分DBProxy和Giserver两种实例,即购买DRDS实例时,将自动为该实例部署Giserver与DBProxy,且两者之间底层服务与进程互相隔离、故障互相隔离,更具安全性和性价比。 说明 您可以在控制台的左侧导航栏选择DRDS > 实例管理 ,进入实例列表页面,再单击目标DRDS实例操作 列的管理 ,进入实例基本信息 页面,然后单击目录树的全局索引,管理您的GiServer。 V5.1.20.0.13以前的版本:存在DBProxy和Giserver两种实例,存量GiServer实例不影响使用。 说明 您可以在控制台的左侧导航栏选择DRDS > 全局索引,进入全局索引管理页面,管理您的GiSever实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        概述
      • 聚合函数
        聚合函数是对日志的指定列进行的统计运算。聚合函数返回的是单个值,常与GROUP BY语句一起使用。本文介绍聚合函数的基本语法及示例。 函数列表 云日志服务支持如下表格所示聚合函数 函数名称 语法 说明 arbitrary函数 arbitrary(x) 返回x中任意一个非空的值。 avg函数 avg(x) 计算x中的算术平均值。 count函数 count()/count()/count(1)count(x) 统计所有的日志条数。统计x中值不为NULL的日志条数。 max函数 max(x) 查询x中的最大值。 maxby函数 maxby(x, y) 查询y为最大值时对应的x值。 min函数 min(x) 查询x中最小值。 minby函数 minby(x, y) 查询y为最小值时对应的x值。 sum函数 sum(x) 计算x的总和。 skewness函数 skewness(x) 计算x的偏度。 kurtosis函数 kurtosis(x) 计算x的峰度。 countif函数 countif(expr) 统计满足指定条件的日志条数。 bitand函数 bitand(x) 返回x中所有值按位与运算的结果。 bitor函数 bitor(x) 返回x中所有值按位或运算的结果。 arbitrary函数 返回x中任意一个非空的值。 语法 plaintext arbitrary(x) 参数说明 参数名称 说明 类型 是否必选 x 原始字段 任意数据类型 是
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        聚合函数
      • 聚合函数(1)
        聚合函数是对日志的指定列进行的统计运算。聚合函数返回的是单个值,常与GROUP BY语句一起使用。本文介绍聚合函数的基本语法及示例。 函数列表 云日志服务支持如下表格所示聚合函数 函数名称 语法 说明 arbitrary函数 arbitrary(x) 返回x中任意一个非空的值。 avg函数 avg(x) 计算x中的算术平均值。 count函数 count()/count()/count(1)count(x) 统计所有的日志条数。统计x中值不为NULL的日志条数。 max函数 max(x) 查询x中的最大值。 maxby函数 maxby(x, y) 查询y为最大值时对应的x值。 min函数 min(x) 查询x中最小值。 minby函数 minby(x, y) 查询y为最小值时对应的x值。 sum函数 sum(x) 计算x的总和。 skewness函数 skewness(x) 计算x的偏度。 kurtosis函数 kurtosis(x) 计算x的峰度。 countif函数 countif(expr) 统计满足指定条件的日志条数。 bitand函数 bitand(x) 返回x中所有值按位与运算的结果。 bitor函数 bitor(x) 返回x中所有值按位或运算的结果。 arbitrary函数 返回x中任意一个非空的值。 语法 plaintext arbitrary(x) 参数说明 参数名称 说明 类型 是否必选 x 原始字段 任意数据类型 是
        来自:
      • 网关路由
        如果您的业务请求需要分发到不同的后端服务或应用,可以通过为应用配置网关路由来实现复杂的请求分发。接下来本文将介绍如何通过云原生 API 网关来设置具体的路由规则。 前提条件 AGW 您已创建云原生API网关。 CAE 您已开通CAE且创建了命名空间,并确保云原生API 网关与CAE命名空间绑定同一个VPC。 创建路由规则 1. 在CAE网关路由中,在顶部点击创建路由。 2. 在创建路由页面,配置相关信息,然后点击保存。 配置项 描述 示例 所属命名空间 需要流量分发的应用所处命名空间 demo 网络名称 路由规则名称 testroute 网络类型 选择HTTP类型 网关类型 选择API网关 网关实例 选择与命名空间使用同一VPC的网关实例。如果您需要创建新的网关实例,点击创建网关实例进行创建 demoagw 域名 选择需要匹配的域名,支持选择多个域名。 www.app.com 路径 支持多种路径匹配规则 前缀:以前缀作为匹配条件。例如,Path以/demo开头。 等价:即完全匹配。例如,Path等于/demo。 条件:前缀 路径:/demo 请求方法 设置匹配HTTP请求中的Method参数 GET 请求头 设置匹配HTTP请求中的Header参数 请求头:user 条件:等于 值:tony 请求参数 设置匹配HTTP请求中的Query参数 请求参数:name 条件:等于 值:tony Cookie 设置匹配HTTP请求中的Cookie参数 Cookie:token 条件:等于 值:test 服务来源 支持K8s Service 使用场景 选择当前路由的目标服务类型。 单服务:将请求分发到唯一一个后端服务,是最常使用的场景。 多服务:将请求按比例分发到多个后端服务,通常在切流和灰度场景下使用。 单服务 后端服务 选择后端应用、服务及其对应的端口、超时时间以及重试次数 Fallback 开启Fallback开关,设置Fallback服务,您需要选择指定的服务。当路由指向的后端服务没有可用节点时,原请求会访问此处指定的Fallback服务。
        来自:
        帮助文档
        云应用引擎
        用户指南
        流量管理
        网关路由
      • RBAC授权
        本节介绍了RBAC授权的用户指南。 操作场景 角色绑定(Role Binding)是将角色中定义的权限赋予一个或者一组用户。它包含若干主体(用户、组或服务账户)的列表和对这些主体所获得的角色的引用。 RoleBinding 在指定的名字空间中执行授权,而 ClusterRoleBinding 在集群范围执行授权。一个 RoleBinding 可以引用同一的名字空间中的任何 Role。 或者,一个 RoleBinding 可以引用某ClusterRole 并将该 ClusterRole 绑定到RoleBinding 所在的名字空间。如果你希望将某 ClusterRole 绑定到集群中所有名字空间,你要使⽤ClusterRoleBinding。 前提条件 已创建云容器引擎集群,具体操作请参见创建⼀个集群。若已有容器集群,⽆需重复操作。 操作步骤 注意 子账号来自于天翼云的 ,请提前创建好子用户,并需子用户登陆天翼云后才可以同步到云容器引擎控制台。 为⼦账号授权或调整子账号权限: 1、登陆云容器引擎控制台, 点击左侧导航栏中的集群,进入集群列表页。 2、在集群列表中点击需要授权的集群,进入集群管理页面。 3、在集群管理页面导航栏中选择安全管理 > 授权,进入角色授权页面。 4、点击管理权限操作单个子账号权限,或选择多个子账号后点击添加权限为多个子账号批量授权,点击后进入集群RBAC配置页面。 5、在集群RBAC配置页面中,可以对子账号已有的用户权限进行调整或为子账号新增权限,权限可以限定单个命名空间或不限制命名空间(集群权限),⽤户可设置的权限有内置权限(管理员、运维人员、开发人员、受限人员)和自定义权限,选择自定义权限可选择集群中创建的任意Cluster Role进行授权。 6、点击下⼀步完成授权。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        安全管理
        RBAC授权
      • 支持审计的关键操作列表
        本节主要介绍支持审计的关键操作列表 通过云审计服务,您可以记录与文档数据库服务相关的操作事件,便于日后的查询、审计和回溯。 文档数据库服务的关键操作列表 操作名称 资源类型 事件名称 恢复到新实例 instance ddsRestoreToNewInstance 恢复到已有实例 instance ddsRestoreToOldInstance 创建实例 instance ddsCreateInstance 删除实例 instance ddsDeleteInstance 重启实例 instance ddsRestartInstance 扩节点 instance ddsGrowInstance 扩磁盘 instance ddsExtendInstanceVolume 重置数据库密码 instance ddsResetPassword 实例重命名 instance ddsRenameInstance 切换SSL instance ddsSwitchSsl 修改实例端口 instance ddsModifyInstancePort 创建备份 backup ddsCreateBackup 删除备份 backup ddsDeleteBackup 设置备份策略 backup ddsSetBackupPolicy 应用参数模板 parameterGroup ddsApplyConfigurations 复制参数模板 parameterGroup ddsCopyConfigurations 重置参数模板 parameterGroup ddsResetConfigurations 创建参数模板 parameterGroup ddsCreateConfigurations 删除参数模板 parameterGroup ddsDeleteConfigurations 更新参数模板 parameterGroup ddsUpdateConfigurations 绑定公网IP instance ddsBindEIP 解绑公网IP instance ddsUnBindEIP 修改标签 tag ddsModifyTag 删除实例标签 tag ddsDeleteInstanceTag 添加实例标签 tag ddsAddInstanceTag 扩容失败回退 instance ddsDeleteExtendedDdsNode 规格变更 instance ddsResizeInstance 实例解冻 instance ddsUnfreezeInstance 实例冻结 instance ddsFreezeInstance 修改内网地址 instance ddsModifyIP 修改内网域名 instance ddsModifyDNSName 设置集群均衡开关 instance ddsSetBalancer 内部通信方式切换 instance ddsSwitchInnerSsl 添加只读节点 instance AddReadonlyNode 集群开启shard/config IP instance ddsCreateIp 修改实例安全组 instance ddsModifySecurityGroup 迁移可用区 instance ddsMigrateAvailabilityZone 实例备注 instance ddsModifyInstanceRemark 可维护时间段 instance ddsModifyInstanceMaintenanceWindow 补丁升级 instance ddsUpgradeDatastorePatch 主备切换 instance ddsReplicaSetSwitchover 跨网段访问配置 instance ddsModifyInstanceSourceSubnet 实例参数修改 parameterGroup ddsUpdateInstanceConfigurations 实例导出参数模板 parameterGroup ddsSaveConfigurations 设置跨区域备份策略 backup ddsModifyOffsiteBackupPolicy 慢日志开启明文显示 instance ddsOpenSlowLogPlaintextSwitch 慢日志关闭明文显示 instance ddsCloseSlowLogPlaintextSwitch 下载错误/慢日志 instance ddsDownloadLog 实例开启审计策略 instance ddsOpenAuditLog 实例关闭审计策略 instance ddsCloseAuditLog 实例下载审计日志 instance ddsDownloadAuditLog 实例删除审计日志 instance ddsDeleteAuditLogFile 回收站策略 instance ddsModifyRecyclePolicy
        来自:
        帮助文档
        文档数据库服务
        用户指南
        审计
        支持审计的关键操作列表
      • 自建SQL Server迁移至自建TiDB
        本节为您介绍自建SQL Server迁移至自建TiDB任务配置。 前提条件 自建TiDB目标端版本为V5、V6版本 目标端权限要求 迁移模式 所需权限 基础权限 SELECT, INSERT, DELETE 全量迁移 需具备基础权限,且具备CREATE, ALTER 结构迁移 需具备基础权限,且具备CREATE, ALTER, REFERENCES, INDEX, TRIGGER, CREATE VIEW, DROP, CREATE ROUTINE, EXECUTE 增量迁移 需具备基础权限 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为TIDB,可将源端迁移至版本范围内的TiDB数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建SQL Server为源的迁移任务配置
        自建SQL Server迁移至自建TiDB
      • Kafka客户端参数配置建议
        参数 默认值 推荐值 说明 acks 1 高可靠:all或者1高吞吐:1 收到Server端确认信号个数,表示producer需要收到多少个这样的确认信号,算消息发送成功。 acks参数代表了数据备份的可用性。常用选项:acks0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为1。 acks1:这意味着至少要等待leader已经成功将数据写入本地log,但是并没有等待所有follower是否成功写入。如果follower没有成功备份数据,而此时leader又无法提供服务,则消息会丢失。 acksall或者1:这意味着leader需要等待ISR中所有备份都成功写入日志。只要任何一个备份存活,数据都不会丢失。min.insync.replicas指定必须确认写入才能被认为成功的副本的最小数量。 retries 0 结合实际业务调整 客户端发送消息的重试次数。值大于0时,这些数据发送失败后,客户端会重新发送。 注意,这些重试与客户端接收到发送错误时的重试没有什么不同。允许重试将潜在的改变数据的顺序,如果这两个消息记录都是发送到同一个partition,则第一个消息失败第二个发送成功,则第二条消息会比第一条消息出现要早。针对网络闪断场景,生产者建议配置重试能力,推荐重试次数retries3,重试间隔retry.backoff.ms1000。 request.timeout.ms 30000 结合实际业务调整 设置一个请求最大等待时间,超过这个时间则会抛Timeout异常。超时时间如果设置大一些,如127000(127秒),高并发的场景中,能减少发送失败的情况。 block.on.buffer.full TRUE TRUE TRUE表示当我们内存用尽时,停止接收新消息记录或者抛出错误。默认情况下,这个设置为TRUE。 然而某些阻塞可能不值得期待,因此立即抛出错误更好。如果设置为false,则producer抛出一个异常错误:BufferExhaustedException batch.size 16384 262144 默认的批量处理消息字节数上限。producer将试图批处理消息记录,以减少请求次数。 这将改善client与server之间的性能。不会试图处理大于这个字节数的消息字节数。 发送到brokers的请求将包含多个批量处理,其中会包含对每个partition的一个请求。较小的批量处理数值比较少用,并且可能降低吞吐量(0则会仅用批量处理)。 较大的批量处理数值将会浪费更多内存空间,这样就需要分配特定批量处理数值的内存大小。 buffer.memory 33554432 67108864 producer可以用来缓存数据的内存大小。如果数据产生速度大于向broker发送的速度,producer会阻塞或者抛出异常,以“block.on.buffer.full”来表明。 这项设置将和producer能够使用的总内存相关,但并不是一个硬性的限制,因为不是producer使用的所有内存都是用于缓存。一些额外的内存会用于压缩(如果引入压缩机制),同样还有一些用于维护请求。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka客户端参数配置建议
      • 将数据库实例恢复到指定时间点
        说明:本章节会介绍如何将数据库实例恢复到指定时间点 操作场景 关系型数据库服务支持使用已有的自动备份,恢复实例数据到指定时间点。 限制条件 如果您要将数据库备份恢复到新实例: 数据库引擎、数据库版本和数据库端口,与原实例相同,不可修改。 数据库密码需重新设置。 对当前实例恢复操作 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“实例管理”页面,选择指定的实例,单击实例名称。 在左侧导航栏中选择“备份恢复”页签,单击“恢复到指定时间点”。 选择需要恢复的时间区间,选择或输入该恢复时间区间内的一个恢复时间点,选择恢复方式,单击“确定”。 恢复到新实例 跳转到“恢复到新实例”的服务选型页面: 数据库引擎、数据库版本和数据库端口,与原实例相同,不可修改。 数据库密码需重新设置。 其他参数,用户可修改。 查看恢复结果。 恢复到新实例 为用户重新创建一个和该备份数据相同的实例。可看到实例由“创建中”变为“正常”,说明恢复成功。 恢复成功的新实例是一个独立的实例,与原有实例没有关联。如需使用只读实例,请重新在该实例上进行创建。 创建或恢复完成后,系统会自动执行一次全量备份。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        备份与恢复
        将数据库实例恢复到指定时间点
      • 故障自诊断
        本文为您介绍如何快速进行GPU云主机故障自诊断。 步骤一:使用故障信息收集脚本一键收集所有信息 故障信息一键收集脚本下载地址:故障信息收集脚本 将脚本上传至GPU云主机,执行 PGPUHealthCheck.sh 命令,根据提示查看具体故障,并在步骤二中查看解决办法。 步骤二:根据所查询出的具体问题选择对应的处理办法 因Linux内核升级导致的驱动不可用 因Nouveau驱动未禁用导致的问题 因Xid错误导致的问题 因GPU掉卡导致的问题 因GPU驱动导致ERR!的问题 注意 其他故障的处理请您查看故障修复目录下的其余章节,如均未能解决您的问题,请您进一步提交工单处理。
        来自:
        帮助文档
        GPU云主机
        故障修复
        故障自诊断
      • 单机串接静态路由入云
        步骤五:绑定天翼云SDWAN实例 完成以下操作,通过将智能网关实例加载到SDWAN网络中,实现组网。 1. 登录天翼云SDWAN控制台。 2. 选择“智能网关”,单击目标智能网关实例“操作”列的“绑定网络实例”。 3. 根据页面提示,选择要加入的天翼云SDWAN实例。 4. 单击“确定”,完成智能网关实例绑定天翼云SDWAN实例。 步骤六:绑定云间高速(标准版)实例 完成以下步骤,将SDWAN实例绑定云间高速(标准版)实例,实现企业线下分支访问天翼云VPC资源。 1. 登录天翼云SDWAN控制台。 2. 选择“天翼云SDWAN”,单击目标SDWAN实例“操作”列的“绑定云间高速(标准版)”。 3. 根据页面提示,选择待绑定的云间高速(标准版)实例和其下的云企业路由器实例。 4. 单击“确定”,完成绑定。 步骤七:访问测试 完成上述配置后,您可以通过在线下分支机构的客户端访问已连接的VPC中部署的云资源,验证配置是否生效。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        单机串接静态路由入云
      • 存储挂载及卸载
        本节主要介绍如何针对指定虚拟机进行存储的挂载及卸载。 边缘存储挂载 1. 登录ECX控制台。 2. 单击左侧【边缘虚拟机>实例】导航栏,点击实例名称进入实例详情页。 3. 点击详情页上方硬盘标签栏。 4. 点击【存储挂载】可对该实例挂载存储。 5. 也可以进入边缘存储控制台进行存储的挂载,具体步骤见边缘存储操作指引:本地盘、挂载云硬盘。 边缘存储卸载 1. 登录ECX控制台。 2. 单击左侧【边缘虚拟机>实例】导航栏,点击实例名称进入实例详情页。 3. 点击详情页上方硬盘标签栏。 4. 展开硬盘标签栏下非系统盘。 5. 点击名称后的【卸载】按钮,可进行边缘存储的卸载,其中系统盘不支持卸载。 6. 也可以进入边缘存储控制台进行存储的卸载,具体步骤见边缘存储操作指引:本地盘、卸载云硬盘。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘虚拟机
        实例
        存储挂载及卸载
      • 添加NS记录
        本小节介绍云解析添加NS记录操作方法。 使用场景 域名服务器记录,用来指定某个子域名由哪个DNS服务器解析。 操作方法 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 单击页面上方的“添加记录”按钮,系统将自动生成一条空白记录。 4. 填写以下信息。 主机记录:一般是指子域名的前缀。 如需将子域名为www.ctyun.cn域名的解析授权给其他DNS服务器进行解析,只需要在主机记录处填写“www”即可。 主机记录“@”不能做 NS记录,授权出去的子域名不会影响其他子域名的正常解析。 记录类型:选NS记录。 线路类型:通常选择默认(默认为必填项,否则会导致部分用户无法解析)。 记录值:记录值为要授权的DNS服务器域名。 TTL:缓存时间,默认为3600秒。 5. 单击“√”完成记录添加。
        来自:
        帮助文档
        云解析
        用户指南
        解析记录管理
        添加解析记录
        添加NS记录
      • 什么是实时日志
        本文为您介绍实时日志的功能。 功能介绍 在使用产品服务过程中,会实时产生大量的日志,主要分成两类: 业务流经过边缘节点,日志在边缘节点产生,由日志采集组件进行数据聚合、存储,目前针对业务需求,将一些日志在控制台进行简单有序的方式展示,提供方便快捷的方式进行查询,适用于日志实时数据分析、安全诊断与分析。 业务流经过云端中心,则云端中心会进行相关日志存储。 功能优势 时效性高:该功能是将日志数据进行提前聚合入库,日志查询时效一般在15分钟以内。 操作简单:提供可视化界面,将字段转化说明,并可选择相关字段进行快捷筛选查询,针对不同业务还提供不同粒度的数据汇聚,操作简单、便捷。 注意事项 实时查询对性能要求较高,若查询或处理量级过大可能访问较慢,建议一般查询时间周期不超过30天。 实时日志一般适用于问题诊断或实时数据分析,若有统计相关需求建议查看安全防护分析或 联系我们。
        来自:
        帮助文档
        边缘安全加速平台
        日志与数据分析
        实时日志
        什么是实时日志
      • 续费概述
        针对多活容灾服务续费情况,为您进行说明,请在续费前务必阅读以下内容。 只有通过实名认证的客户,才可以执行续订操作。 按需资源、包年/包月转按需(已完成转按需或正在进行转按需)的资源不可续订。 未完成订单中的资源不允许续订,如开通中的资源、规格变更中的资源、退订中的资源。 已退订或释放的资源不可续费。 若资源到期后续费,续费周期自资源续订解冻开始,计算新的服务有效期,按照新的服务有效期计算费用。例如,客户资源2020年9月30日到期,10月11日续订1个月,那么资源新的服务开始时间为10月11日,到期时间为11月10日。相关费用自10月11日开始计算。 容灾管理中心支持自动续订,按月购买自动续订周期为1个月,按年购买自动续订周期为1年。 主机高可用、持续数据保护、数据定时灾备、数据库双活、文件存储数据灾备、对象存储数据灾备支持自动续订,按年购买自动续订周期为1年。
        来自:
        帮助文档
        多活容灾服务
        计费说明
        续费说明
        续费概述
      • 到期
        包年包月的存储库到期后不会自动转为按需计费,系统会根据冻结期对资源进行处理,存储库和备份数据仍会保留,也可以继续查看删除备份数据,但不可以进行创建备份、恢复资源,添加标签等操作,如冻结期结束仍未续订,则资源将被系统自动删除。 关于到期后相关详情请参考天翼云费用中心。
        来自:
        帮助文档
        云服务备份
        计费说明
        到期
      • 计费模式
        本文对CMS产品计费模式进行说明。 云迁移服务CMS (CTCMS,Cloud Migration Service)工具为免费,但在迁移过程中会涉及相关计费项,如迁移实施、天翼云CTECS资源等。
        来自:
        帮助文档
        云迁移服务CMS
        计费说明
        计费模式
      • 管理VPC
        本文介绍如何添加和删除文件系统的VPC。 操作场景 文件系统必须通过添加VPC,挂载在弹性云主机上,才能实现文件共享。弹性文件服务支持配置多个VPC,以使归属于不同VPC的云主机也能共享访问同一个文件系统。 说明 一个文件系统最多可以添加20个可用的VPC。 部分地域在添加VPC时,需要选择对应的权限组。 添加VPC操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>弹性文件服务SFS Turbo”,进入弹性文件服务控制台页面,在文件系统操作栏或者点击目标文件系统名称进入详情页,点击“添加VPC”。 3. 在弹出的添加VPC对话框中可以在下拉列表中选中待绑定VPC及权限组,如果没有可用的VPC,需先申请,点击右侧“创建虚拟私有云”。 4. 点击“确定”,完成添加。 5. 添加完成后,可以在详情页下方VPC页签可看到绑定的VPC,可以点击操作栏下方的“更换权限组”,以更改VPC绑定的权限组。 解绑VPC操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>弹性文件服务SFS Turbo”,在文件系统列表页,点击待解绑VPC的文件系统名称进入文件系统详情页。 3. 在文件系统详情页的VPC页签下,点击待解绑的VPC操作栏下的“解绑”。 4. 在弹出页面,点击“确定”,完成VPC的解绑。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        基础管理
        管理VPC
      • 1
      • ...
      • 304
      • 305
      • 306
      • 307
      • 308
      • ...
      • 591
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      轻量型云主机

      弹性伸缩服务 AS

      公共算力服务

      模型推理服务

      科研助手

      一站式智算服务平台

      智算一体机

      人脸检测

      人脸实名认证

      推荐文档

      常见问题

      玩转天翼云⑤:windows修改mysql目录

      MySQL

      在第三方应用中集成监控应用

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号