活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微服务引擎_相关内容
      • 操作流程
        步骤 说明 实践准备 完成实践开始前的准备工作,包括注册帐号、开通软件开发生产线、创建项目、添加项目成员等操作。 管理项目规划 完成项目的整体规划,包括项目需求规划、迭代需求规划等。 管理项目配置 根据项目需求,对工作项变更的通知方式、工作项状态的流转方式等进行自定义设置。 开发代码 通过分支来进行代码的编写,包括创建分支、代码提交、合并分支等操作。 检查代码 对代码进行静态扫描,根据修复建议优化代码,提高代码质量。 构建应用 构建环境镜像、将代码编译打包成软件包。 部署应用 将构建好的环境镜像及软件包安装并运行在环境中,本文档提供两种环境的部署方法:CCE与ECS。 管理项目测试 为迭代创建测试计划、设计测试用例,并按照计划执行测试用例。 配置流水线 将代码检查、构建、部署等任务串联成流水线。当代码有更新时,可自动触发流水线,实现持续交付。 释放资源 实践完成,释放软件开发生产线、云容器引擎等资源。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        操作流程
      • 物理备份恢复
        本页介绍天翼云TeleDB数据库物理备份恢复相关操作。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树上选择备份与恢复 > 物理备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复页签。 2. 创建恢复任务 1. 单击实例恢复,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点 ,勾选可恢复时间点 ,单击校验 ,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情 ,出现恢复详情对话框。 2. 在恢复详情对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        备份与恢复
        物理备份恢复
      • 比较参数模板
        本章节会介绍如何比较参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数模板管理
        比较参数模板
      • 节点详情
        本章节介绍网关治理功能的节点详情 概述 在节点详情页面,可以查看所有节点的通过QPS、限流QPS、异常QPS、RT、并发等指标,并且可以在此页面对接口管理流控规则进行操作。一个节点对应一个JVM进程,当多个JVM接入单机后,即展示为多个节点。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择网关治理。 3. 在网关治理页面的应用卡片页签单击目标网关卡片。 4. 在左侧导航栏中选择节点详情。 功能介绍 节点页面展示了应用的所有节点详细信息以及这些节点当前的通过QPS、限流QPS、异常QPS和RT等数据。同时,该页面还展示5分钟内的流量监控指标,节点所在机器的CPU信息、LOAD信息、物理内存、DISK和网络流量。 此外,该页面还提供了所在节点的5min内的JVM信息,包括堆内存详情,非堆内存详情,元空间详情,JVM线程数,缓冲区详情和GC等数据。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        网关治理
        节点详情
      • 全量SQL洞察
        TOP SQL执行耗时分布 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“全量SQL洞察”,进入全量SQL洞察页面。 单击“开启DAS收集全量SQL”,可获取当前实例所执行过的SQL信息。 说明 DAS收集全量SQL功能开启后立即生效。 在“TOP SQL”页签中,查看TOP SQL执行耗时分布情况。 您可以根据需要设置时间段,选择“近1小时”、“近3小时”、“近6小时”,查看当前时间段内的TOP SQL执行耗时分布。也可以选择上述以外时间段进行查看,间隔不得超过一天。 执行耗时分布展示了选定时间范围内所有SQL的执行耗时分布,共分为以下4个区间。 1s:执行耗时>1s的SQL执行次数 上述4个区间内的SQL执行次数是根据用户选择的时间段来计算的。 如果用户选择1小时以内(包括1小时)的时间段,执行耗时分布每10秒计算一次。 如果用户选择6小时以内(包括6小时)的时间段,执行耗时分布1分钟计算一次。 如果用户选择大于6小时的时间段,执行耗时分布每5分钟计算一次。 DAS支持查看实例级别和节点级别的执行耗时分布,当您选择“节点”时,默认显示主节点的执行耗时分布。如果您想查看其他节点的执行耗时分布,请单击切换节点按钮选择其他您想要查看的节点。 查看TOP SQL列表,获取执行耗时信息。例如平均执行耗时、总耗时、 平均锁等待耗时、平均扫描行数等。 单击执行耗时分布图上的某个点,查看该时间点的TOP SQL列表。 在执行耗时分布图上用鼠标选择一段时间,查看该段时间的Top SQL列表。 单击“导出”可导出当前列表里显示的TOP SQL信息。此功能仅限付费实例使用,免费实例暂不支持导出功能。 单击操作栏的“详情”按钮,可以查看该执行SQL的详细执行信息。例如总执行次数、平均扫描行数、平均执行耗时等信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        PostgreSQL
        全量SQL洞察
      • 获取容器Core Dump
        本节介绍云容器引擎的最佳实践:获取容器Core Dump。 应用场景 Core Dump是指当一个程序发生严重错误导致异常终止时,操作系统将该程序当前的内存状态以及其他相关信息保存到一个特殊的文件中,这个文件通常称为 core 文件或核心转储文件。core文件包含了程序在崩溃时的内存映像、CPU 寄存器状态、堆栈信息等,可以用于分析程序异常终止的原因。 在容器环境中,Core Dump的处理与传统的物理机环境略有不同,因为容器本身是在宿主机上运行的,因此需要一些特殊的配置才能捕获容器内发生的核心转储。本节介绍容器中core文件的一般处理流程和相关概念。 将Core Dump文件输出到主机目录 开启节点Core Dump 设置Core Dump文件的输出路径 echo "/tmp/cores/core.%t.%e.%p" > /proc/sys/kernel/corepattern 上述文件路径中: %t:表示coredump的时间。 %e:表示程序文件名。 %p:表示进程ID。 将Core Dump的输出路径修改为/tmp/cores,后续容器中的应用程序Core Dump文件也将输出到容器的/tmp/cores文件,因为在容器中读取的 /proc/sys/kernel/corepattern文件实质上就是主机的 /proc/sys/kernel/corepattern文件。 配置容器Core Dump和验证 通过kubectl或者控制台完成如下配置: apiVersion: v1 kind: Pod metadata: name: corevolume spec: volumes: name: coredumppath hostPath: 通过hostPath将容器Core Dump持久化在主机 path: /home/coredump containers: name: ubuntu image: ubuntu:12.04 command: ["/bin/sleep","3600"] volumeMounts: mountPath: /tmp/cores name: coredumppath 用上述方式创建Pod并进入,触发当前shell终端的段错误。 $ kubectl get pod NAME READY STATUS RESTARTS AGE corevolume 1/1 Running 0 55s $ kubectl exec it corevolume /bin/bash root@corevolume:/ kill s SIGSEGV $$ 在容器实际运行的主机上查看/home/coredump目录会生成core文件。 ls /home/coredump core.1738160312.corevolume.15
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        容器
        获取容器Core Dump
      • Ingress
        本节介绍了云容器引擎的最佳实践:Ingress。 修改自定义端口 1、点击目标容器集群名称,进入集群详情页。 2、在菜单栏【插件】中选择【插件市场】,安装nginxingresscontroller插件。 3、安装插件时指定IngressController插件http及https端口。 4、您也可通过查看插件详情,按需修改端口重新安装插件即可。 配置基础用户名和密码 步骤一:创建用户名和密码 1、使用htpasswd工具创建一个包含用户名和密码的文件auth,例如添加一个名为foo的用户,该用户的密码是123456。 2、输入 cat auth查看文件auth,即可查看htpasswd工具生成的用户名和密码的加密形式。 步骤二:新增secret文件 1、点击目标容器集群名称,进入集群详情页。 2、在菜单栏【配置管理】中选择【保密字典】,点击【新增】。 3、创建一个名为“basicauth”的Secret对象,将auth作为变量名,步骤一htpasswd工具生成的用户名和密码的加密形式作为变量值填入。 4、查看Secret的yaml文件,填入后变量值会自动进行Base64加密。 注:当使用这个Secret对象来进行身份验证时,Ingress控制器会解码这里的Base64字符串,使用其中的用户名和密码来验证用户的身份。如果提供的用户名和密码与这里存储的一致,用户将被允许访问相应的资源。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        网络
        Ingress
      • Kubernetes 1.29版本说明
        本文介绍了:云容器引擎发布Kubernetes 1.29版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.29 版本Changelog 1. Kubernetes 1.29 版本,API 优先级和公平性(AFP)正式 GA,该特性以更细粒度的方式对请求进行分类和隔离。它还引入了有限的排队量,因此在非常短暂的突发情况下不会拒绝任何请求。请求使用公平排队技术从队列中分派,例如,行为不佳的控制器不会影响其他控制器(即使在相同的优先级)。 2. APIListChunking 正式 GA,该特性支持对 List 请求进行分页,减少一次性返回数据太多而导致的性能问题。 3. ServiceNodePortStaticSubrange 达到 GA,该特性将 NodePort 划分为静态段和动态段,在 NodePort 自动分配时,则优先从动态段进行分别,降低与静态段分配到时端口冲突的概率。 4. ReadWriteOncePod 正式 GA,该特性允许用户在 PVC 中配置访问模式 ReadWriteOncePod,确保只有一个 Pod 可以修改存储中的数据。 5. CRD 验证表达式语言正式 GA,该特性支持在 CRD 验证时使用表达式语言(CEL)定义验证规则,对比 webhook 更加简单高效。 6. PodHostIPs 升级到 Beta 阶段,该特性支持将 Node IP 暴露给 Pod。 7. 原生边车容器 升级到 Beta 阶段,该特性以 restartPolicy 设置为 Always 的方式声明,原生边车容器适用于批处理、日志采集等场景。 8. Job Pod 更换策略升级到 Beta 阶段,该特性使用 Failed 阶段代替删除时间戳不为空作为 Pod 替换的条件,避免出现删除过程中的 Pod 占用索引和节点资源。 9. Job Pod 逐索引的回退限制达到 Beta 阶段,该特性可以避免持续失败的带索引的 Job Pod 进行不要的失败重试,达到优化资源利用的目的。 更多信息请参考:Kubernetes 1.29 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        Kubernetes 1.29版本说明
      • 管理保密字典
        本文将介绍如何在集群中管理保密字典。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 背景信息 在 Kubernetes 中,保密字典(Secret)是一种用于保存敏感数据的对象。它可以存储像用户名、密码、令牌、密钥、证书等敏感信息,这些信息需要被保护以避免被恶意用户利用。 保密字典可以以字符串或者文件的形式保存敏感信息,它们被编码为 base64 格式并存储在 Kubernetes 集群中。 保密字典可以被用于各种用例,例如:在容器中或 Pod 中挂载配置文件、合并 Docker 镜像的安全证书等。 保密字典的使用方式类似于配置项目,但保密字典显然更加安全,因为它可以加密保存,并且可以限制访问权限。您可以在 Pod 中使用 Volume 或者环境变量引用保密字典,或者将其用作镜像源、终端服务器等。 创建保密字典 1. 登录云容器引擎控制台,在左侧导航栏中选择“集群”。 2. 在集群列表页面中,单击目标集群名称,并在左侧导航栏中选择“配置管理” 。 3. 选择“保密字典”,在保密字典页面中,您可以通过以下两种方式创建配置项。 1. 通过保密字典菜单创建。 1. 单击保密字典页面左上角的“创建” 。 2. 在创建保密字典页面中,填写保密字典名称。名称最长100个字符,由小写字母、数字、""及"."组成,且开始和结尾只能是数字和字母。 3. 填写保密字典内容。包括变量名和对应变量值,允许添加多个配置项。支持“上传文本文件”和“上传二进制文件” 。 2. 使用YAML创建。 1. 单击保密字典页面左上角的“新增YAML” 。 2. 在使用模版部署的页面填写保密字典内容,即Secret的相关信息;或者选择从文件导入然后单击保存。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        配置项及密钥
        管理保密字典
      • 表管理
        本节主要介绍表管理 新建表 操作说明 数据表包含基本信息、字段/列信息、虚拟列、索引、外键5大组成部分,其中,索引、外键、CHECK约束为可选项,作为表信息的补充,您可根据实际业务需要进行设置。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签下单击“新建表”。 图 新建表 2. 在新建表页面“基本信息”页签中填写表的基本信息,表名、存储引擎、字符集信息。填写完成后,在页面中下部单击“下一步”。 图 基本信息页面 3、在表字段信息设置页签,根据业务需要设置具体表字段信息:表列名、字段类型、是否可空、是否为主键,并可对扩展信息进行编辑。 如无需添加索引、外键、CHECK约束设置时,可直接单击页面下部中间的“立即创建”。 如需要添加索引、外键、CHECK约束设置时,单击页面下部中间的“下一步”,设置相关信息。设置完成后单击页签下方的“立即创建”,完成表的创建操作。 4、在SQL预览弹出框中单击“执行脚本”,即可完成新建表的相关操作。 图 SQL预览页面 打开表 操作步骤 1、在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”,并在表列表右侧操作栏中,单击“打开表”。 2、暂不支持分布式关系型数据库DRDS数据库管理服务库管理中表的编辑操作。在表详情页面,您可以查看表信息。 表 界面操作说明 名称 功能说明 :: Where条件 您可通过where查询,快速获取查询信息。 复制行 双击选择行,单击“复制行”,即可复制所选行数据信息。 删除行 双击选择行,单击“删除行”,即可删除所选行数据信息。 复制列 在列下拉框中选择所需复制的列,即可复制列信息。 列设置 您可通过“列设置”筛选出需显示的列信息。 16进制显示Binary类型 列内容以Binary类型显示时,需要勾选此选项,否则显示乱码。 新增 向表内添加数据。 刷新 支持对表数据进行手动更新。 提交编辑 支持对数据进行二次编辑。 单行详情 显示指定数据行详细信息。 查看表详情
        来自:
        帮助文档
        数据管理服务
        用户指南
        分布式关系型数据库DRDS数据库管理(开发工具)
        库管理
        表管理
      • 异步搜索
        本文为您介绍天翼云云搜索服务中的OpenSearch和Elasticsearch实例异步搜索功能的使用方法。 功能简介 天翼云云搜索服务中的OpenSearch和Elasticsearch都支持异步搜索功能(Asynchronous Search),这一功能极大地提升了在处理长时间运行查询时的用户体验和系统效率。通过异步搜索,用户可以在后台执行耗时较长的查询任务,而无需等待查询结果的即时返回。 这一功能对于大数据集、复杂查询以及需要持续获取查询状态的场景特别有用。 核心原理 在传统的同步搜索模式中,用户发出查询请求后,必须等待查询结果返回才能继续其他操作。如果查询涉及大规模数据处理或复杂的计算,这可能会导致用户界面的阻塞和等待时间过长。异步搜索通过将查询任务分离到后台执行,解决了这一问题。 当用户发起异步搜索请求时,搜索引擎会立即返回一个查询任务 ID,而查询本身在后台继续运行。用户可以通过这个任务 ID 随时查询任务的进展情况、获取部分结果或在任务完成后检索最终的完整结果。这种模式下,用户可以在查询结果生成的过程中继续执行其他操作,显著提高了系统的响应性和用户的工作效率。 应用场景与优势 处理复杂查询 对于涉及大量数据处理或复杂计算的查询,异步搜索允许这些任务在后台执行,避免了用户界面因长时间等待而被冻结的情况。这尤其适用于分析海量数据、执行深度聚合或跨多索引的查询任务。 提高系统性能与效率 异步搜索将长时间运行的任务移至后台执行,减少了同步操作对系统资源的占用,优化了集群的整体性能。同时,用户能够并行处理其他任务,提升了操作效率。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        异步搜索
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 配置流控规则
        本章节介绍如何配置流控规则 配置流控规则 配置流控规则的原理是监控应用或服务流量的QPS指标,当指标达到设定的阈值时立即拦截流量,避免应用被瞬时的流量高峰冲垮,从而保障应用高可用性。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择流量防护 规则管理,在流控规则页签单击新增流控规则,然后在弹出的对话框中配置规则信息,参数说明如下。 5. 设置完成单击新增。 页面参数说明如下: 参数 描述 接口名称 待流控的资源名称。 来源应用 该规则针对的来源应用,默认来源应用设为default,代表不区分来源应用。 统计维度 选择资源调用关系进行流控。 • 当前接口 :直接控制来自来源应用中调用来源的访问流量,如果来源应用为default则不区分调用来源。通常应用于流量匀速通过的场景。 • 关联接口 :控制当前资源的关联资源的流量。通常应用于资源争抢时,留足资源给优先级高接口的场景。 • 链路入口 :控制该资源所在的调用链路的入口流量。选择链路入口后需要继续配置 入口资源 ,即该调用链路入口的上下文名称。通常应用于预热启动避免大流量冲击的场景。 单机QPS阈值 触发对流控接口的统计维度对象的QPS阈值。 流控效果 选择流控方式来处理被拦截的流量。 • 快速失败 :达到阈值时,立即拦截请求。按照应用系统设置中的适配模块配置信息,进行内容返回。 • 预热启动 :需设置具体的预热时间。如果系统在此之前长期处于空闲的状态,当流量突然增大的时候,该方式会让处理请求的速率缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。默认会从设置的QPS阈值的1/3开始慢慢往上增加至设置的QPS值,多余请求会按照快速失败处理。 • 排队等待 :请求匀速通过,允许排队等待,通常用于请求调用削峰填谷等场景。需设置具体的超时时间,达到超时时间后请求会快速失败。 是否开启 打开开关表示启用该规则,关闭开关表示禁用该规则。开关修改之后会立即生效。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        流量防护
        配置流控规则
      • 产品概述
        本文主要介绍产品概述 应用运维遇到挑战 在云时代微服务架构下应用日益丰富,纷杂的应用异常问题接踵而来。应用运维面临巨大挑战: 分布式应用关系错综复杂,应用性能问题分析定位困难,应用运维面临如何保障应用正常、快速完成问题定位、迅速找到性能瓶颈的挑战。 应用体验差导致用户流失。运维人员如果无法实时感知并追踪体验差的业务,不能及时诊断应用异常,将严重影响用户体验。 业务系统的应用多、分布广,跨系统、跨区域、跨应用的调用频繁,如何降低应用的管理和运维成本,提升应用运维的效率是迫切需要解决的问题。 APM帮您解决 应用性能管理服务(Application Performance Management,简称APM)帮助运维人员快速发现应用的性能瓶颈,以及故障根源的快速定位,为用户体验保驾护航。 您无需修改代码,只需为应用安装一个APM Agent,就能够对该应用进行全方位监控,帮助您快速定位出错接口和慢接口、重现调用参数、发现系统瓶颈,从而大幅提升线上问题诊断的效率。目前支持JAVA应用,具体的应用监控能力概览如下表。 表 APM监控能力 场景能力 说明 非侵入的应用性能数据采集 用户无需更改应用代码,只需要部署APM Agent包,修改相应的应用启动参数,就可以实现应用监控。 应用指标监控 无须配置,自动监控应用相关大量监控指标,如JVM、JavaMethod、URL、Exception、Tomcat、httpClient、Mysql、Redis、kafka等。 应用拓扑 通过对RPC调用信息进行动态分析、智能计算,自动生成分布式应用间拓扑关系。 调用链追踪 多个应用接入APM后,自动针对某一些请求进行采样,采集单个请求的服务之间调用关系以及中间调用的健康情况,实现全局调用链路的自动跟踪。 常用诊断场景的指标下钻分析 根据应用响应时间、请求数、错误率等指标下钻分析,按应用、组件、环境、数据库和中间件等多维度查看。 异常URL跟踪和慢URL跟踪捕捉 基于调用URL跟踪的超时和异常分析,并有效自动关联到对应的接口调用,如 SQL、MQ 等。 1. 接入APM:应用通过APM自身的AK/SK鉴权进行接入。 2. 数据采集:APM可以通过非侵入方式采集APM Agent提供的应用数据、基础资源数据、用户体验数据等多项指标。 3. 业务实现:APM支持应用指标监控、应用拓扑、调用链追踪和智能告警功能。 4. 业务拓展: 1. 通过APM的应用拓扑、调用链追踪等快速诊断应用性能异常,并结合AOM(应用运维管理)的应用运维指标进行综合判断。 2. 找到应用性能瓶颈后,可以通过CPTS(云性能测试服务 )关联分析生成性能报表。 3. 通过智能算法学习历史指标数据,APM多维度关联分析异常指标,提取业务正常与异常时上下文数据特征,通过聚类分析找到问题根因。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        产品概述
      • 版本说明书
        本页简要介绍分布式数据库V5.1.0的版本更新说明。 V5.1.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 5.1 2023年08 月 说明 该版本适配的DCP版本为3.6.1S。 新增和优化功能: 1. 新增日志管理模块。 管控侧:新增错误日志管理、慢日志管理、高频SQL管理和审计日志管理。 内核侧:不涉及。 2. 支持创建定时任务JOB。 管控侧:不涉及。 内核侧:支持通过DBMSJOB创建定时任务。 3. 支持逻辑备份恢复,包括多介质备份和恢复到不同实例。 管控侧:新增介质支持,新增恢复到不同实例功能。 内核侧:不涉及。 4. 支持闪回查询和闪回恢复。 管控侧:不涉及。 内核侧:支持一定时间内旧版本表数据的查询和支持表的恢复,应对误删表的场景。 5. 管控侧对接DCP模块,包括微服务接入和统一鉴权。通过微服务接入,用户管理、VIP管理、实例开通、扩容、注销等功能依赖的底层资源管理均交由DCP分配,控制台保留其实例管理功能和一系列高可用能力,作为DCP微服务体系一部分保障用户实例正常运行。 6. 监控告警信息由管控接入到DCP,包括支持GTM监控能力、指标监控对接DCP和事件告警。 7. 管控侧支持OpenAPI能力。 8. 管控侧对接DCP Cgroup资源隔离能力。 9. 管控侧支持开启索引优化建议定时任务,并查看慢SQL日志列表中对于SQL优化的建议。 10. 支持实例管理,包括实例开通时提供多个不同的blocksize编译包、实例开通时支持配置SSL协议和initdb的时候去设置是否要开启checksum校验。 11. 新增Analyze信息CN同步模块,包括数据计算模块、数据转换模块和数据加载模块。 12. 支持XML类型、支持包Package的修改语法。 13. 内核侧支持通过虚拟索引构建和索引建议分析提升数据库性能。 14. 支持按照如下分布方式:HASH(column) ,MODULO(column) ,ROUNDROBIN,shard,replication 设置数据分布。 15. 物化视图定期刷新数据。 16. 支持拓展MySQL和Oracle外表。 17. 支持madlib适配,扩展机器学习能力。 18. 支持全密态功能。 内核测:支持全密文,包括密文检索和计算。实现数据离开客户端时,在用户侧对数据进行加密,数据以加密形态存储在数据库服务器中,且不影响服务端的检索与计算,当数据返回至客户端时,可自动对数据进行解密,用户对加解密过程无感知。 管控侧:不涉及。 修复漏洞 无。 修复缺陷 1. 将oracle语法兼容的concat和concatws函数从stable改成immutable。 2. 安全用户提示需要修改为mls。 3. 编译配置增加withgmssl选项。 4. 超级用户无法触发慢查询SQL。 5. 创建物化视图使用using method。 6. 大量DROP、TRUNCATE操作从库回放慢导致的CPU飙升。 7. 单独编译插件teledbxoraclepackagefunction报错。 8. 当协调者分析表时,sample的时候采用目标行数需要除以n节点数。 9. 分区表创建include关键字索引报错。 10. 减小backend进程内存使用。 11. 将系统函数updateanalyzecn改成了pgupdateanalyzecn函数。 12. 解决会话处于pgxcnodereceive时无法响应cancel request的问题。 13. 解决arm环境旧版本gmssl在teledb的编译问题。 14. 解决gmssl在x86机器上编译问题。 15. 连续空字符串扩展查询commandTag为NULL coredump修复。 16. 慢SQL查询内核获取的SQL语句为空。 17. 启用“pgqualstats”插件时,在从分区表删除数据时会导致coredump。 18. 删除冗余的XLOGBTREESPLITLROOT和XLOGBTREESPLITRROOT两种xlog类型。 19. 删除EMA代码。 20. 实现alter package语法。 21. 视图增加无效优化SQL 记录。 22. 缩小使用的缓存内存,移除SMgrRelationData 中的 smgrshardtargblocks。 23. 索引支持include关键字特性。 24. 添加telesql,Makefile中添加telesql软连接(install/clean)。 25. 增加自动化DDS死锁检测算法。 26. 增加analyze同步功能。 27. 修改telesql引发make报warning的问题。 28. 修改源码以支持make world和make installworld通过。 29. 修复plpgsql 变量名定义逻辑。 30. 修复pgvisibility回归测例。 31. 修复pgunlock插件存在的编译警告。 32. 修复pgstatstatements插件bugs,创建报错。 33. 修复pgsqueeze如果没有加入sharedpreloadlibarairies参数,执行返回。 34. 修复pgdirtyread插件的Makefile文件以及make check测例。 35. 修复filefdw插件产生coredump问题。 36. 修复auditadmin只能在pghba.conf中设置trust才能使用。 37. 修复在pgxcctl.conf中关于pghba.conf采用scramsha256产生coredump。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        版本说明书
      • 集群定时备份
        本节介绍了集群定时备份的用户指南。 操作场景:为增强集群容灾能力,提高集群可靠性。可对集群进行定时备份。 前提条件:用户需要在所操作的集群的插件市场中安装备份还原插件“ccsebackup”。 创建任务 定时备份提供按指定时间执行备份还原任务,配置操作大体与集群备份的相似。 在云容器引擎控制台菜单中按照以下路径进入界面【集群】{选定的集群}【备份】 【集群定时备份】,点击【创建备份】,弹出创建备份对话框。 名称、命名空间、资源和持久卷的配置与集群备份余下字段则与定时执行相关。 名称 说明 保留天数 必填,定时备份后产生的备份包所保留的天数,超过保留天数的备份包则会被自动清理 时间点 必填,定时备份时执行的时间点,为整点 重复周期 必填,定时备份任务重复在一周内哪几天触发执行 说明 此处建议保留天数要大于两个定时备份任务执行的间隔天数,否则会导致任务执行完毕后,还没等到下个任务开始,就被清理 点击“创建后”完成定时任务创建。 新建的定时备份任务会被展示在列表中,列表末端的操作列包含三个按钮: 编辑:弹出定时任务编辑框修改定时任务信息。 立即执行:马上触发备份任务执行。 删除:删除当前定时备份任务。 任务详情 在定时任务列表中点击任务名称,进入定时任务详情页。在详情页面可以看到定时任务的名称、所备份的命名空间、资源类型、是否包含持久卷、任务创建时间、备份包的保留天数和备份任务的重复周期这些信息。此外在“相关备份任务”中展示了每次执行的任务信息。 任务信息包括了任务名称、大小,任务执行的状态,任务的执行时间等。 另外列表中还包含了一个操作列,操作包括还原、下载和删除,功能与集群备份的列表的一致。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群备份
        集群定时备份
      • 在Serverless集群中运行Job任务
        本文为您介绍如何Serverless集群中运行Job任务。 背景信息 在Serverless集群中,您可以按需按量创建Pod。当Pod结束后停止收费,无需为Job任务预留计算资源,从而摆脱集群计算力不足和扩容的烦扰,同时结合抢占式实例可以降低Job任务的计算成本。本文主要为您介绍如何通过SCE按需创建Job任务,来对圆周率Pi进行小数位的计算。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群 。 确保kubectl工具已经连接目标集群。 操作步骤 登录控制台创建Job 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群”。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“任务”。 5. 点击创建任务。 6. 点击创建工作负载后,可在Job列表查看Job。 使用命令行创建Job 1. 创建job.yaml文件,内容如下: shell apiVersion: batch/v1 kind: Job metadata: name: pi spec: template: spec: containers: name: pi image: user1registryhuadong1.crsinternal.ctyun.cn/library/perl command: ["perl", "Mbignumbpi", "wle", "print bpi(10)"] restartPolicy: Never backoffLimit: 4 2. 执行命令创建该任务。 plaintext kubectl apply f job.yaml 3. 查看Job与Pod的运行状态,可以看到已经运算成功。 shell kubectl get job pi NAME COMPLETIONS DURATION AGE pi 1/1 2m23s 9m21s kubectl get pod NAME READY STATUS RESTARTS AGE pib89fv 0/1 Completed 0 9m37s 4. 查看运算结果。 登录到弹性容器实例的控制台,进入到上面Pod对应的ECI实例中,查看日志,可以看到对圆周率的小数点后9位的运算结果。
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        在Serverless集群中运行Job任务
      • 如何测试云硬盘的性能
        工具安装 依次执行以下命令,安装libaio和测试工具FIO。 plaintext sudo yum install libaio y sudo yum install libaiodevel y sudo yum install fio –y FIO工具参数介绍 不同场景的测试公式基本一致,根据不同的测试目标,部分参数会有所不同,如下表所示。 参数 说明 direct 指定 direct 模式,默认值为1。 值为1:表示使用direct I/O,忽略I/O缓存,数据直写。 值为0:表示不使用direct I/O。 numjobs 并发线程数,默认为1。 当被测试磁盘性能较高时推荐加大numjobs数以增加压力。 iodepth 测试时的IO队列深度。 队列深度是指每个线程的队列深度,如果有多个线程测试,意味着每个线程都是此处定义的队列深度。FIO总的IO并发数iodepth numjobs。 rw 测试时的读写策略。可选值如下: randwrite:随机写 randread:随机读 read:顺序读 write:顺序写 randrw:混合随机读写 ioengine 测试时FIO选择哪种I/O引擎,本实践中选择libaio。 bs 每次请求的块大小(block size)。默认值为4k。 size 测试文件大小。取值如下: 带单位的数字,比如size10G,表示读/写的数据量为10GiB。 百分数,比如size20%,表示读/写的数据量占该设备总文件的20%的空间。 runtime 测试时间,即FIO运行时长。 如果未配置该参数,则持续将size指定的文件大小,以每次bs值为分块大小读/写完。 timebased 采用的时间模式。 无需设置该参数值,只要 FIO 基于时间来运行。 groupreporting 多个 job 并发时,打印整个 group 的统计值。 filename 测试对象,可以是磁盘设备名称(如/dev/vdb),或文件地址(如/opt/fiotest/fiotest.txt)。 name 本次测试任务的名称。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        如何测试云硬盘的性能
      • 比较参数模板
        本节介绍了如何比较云数据库TaurusDB实例的参数模板。 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 步骤 6 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 步骤 5 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        参数模板管理
        比较参数模板
      • 如何选择驱动及相关库、软件版本
        本文介绍如何选择驱动及相关库、软件版本。 GPU云主机在实际的使用中往往需要安装驱动、CUDA工具包、cuDNN、Pytorch等相关的库或软件版本。 如何选择CUDA版本 CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员可以使用C语言来为CUDA™架构编写程序,所编写出的程序可以在支持CUDA™的处理器上以超高性能运行。 在选择CUDA版本前,需要先了解GPU云主机所挂载的显卡的算力,然后根据显卡算力来选择对应的CUDA版本。 具体步骤如下: 步骤一 :通过英伟达官网查看显卡算力。以NVIDIA T4 为例,可以看到其显卡计算能力为7.5。 步骤二 :根据显卡计算能力查看可支持CUDA版本,详情请参见NVIDIA数据中心。以NVIDIA T4 为例,CUDA 10以上的版本均能够支持,建议您选择最新版本的CUDA。 如何选择显卡驱动版本 根据确定的CUDA版本来选择显卡的驱动版本,如下图所示。例如您选择的CUDA版本为11.4.3,使用Linux操作系统时,驱动版本应大于450.80.02。详情请参见.NVIDIA数据中心卡用户指南。
        来自:
        帮助文档
        GPU云主机
        最佳实践
        如何选择驱动及相关库、软件版本
      • 回收站
        本章节会介绍回收站的功能和策略 操作场景 RDS支持将删除的主备或者单机实例,加入回收站管理。通过在回收站中重建实例,将数据恢复到新实例上。新实例数据库引擎、数据库版本、存储类型与原实例相同,其他参数可以重新配置。默认可以恢复1~7天内删除的实例。 约束限制 RDS不回收只读实例,只有主备或者单机实例才会进入回收站。 已停止的实例被删除后不会进入回收站。 回收站策略机制默认开启,且不可关闭。设置保留天数为1天,该功能免费。 设置回收站策略 注意 回收站保留天数默认7天。修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。 6、单击“确定”,完成设置。 重建实例 在回收站保留期限内的主实例可以通过重建实例恢复数据。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,在实例列表中找到需要恢复的目标实例,单击操作列的“重建”。 6、在“重建新实例”页面,选填配置后,提交重建任务。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库实例
        回收站
      • Kafka触发器
        Kafka触发器可以订阅天翼云提供的分布式消息队列Kafka实例,并根据消息触发关联的函数,借此能力,使得函数可以消费指定Topic的消息,执行自定义处理逻辑。 注意事项 Kafka触发器订阅的Kafka实例必须和函数计算的函数实例在相同地域。 前提条件 已创建函数。 已开通分布式消息Kafka实例(KAFKA引擎版),详情请参考创建分布式消息服务Kafka实例。 已创建Topic,创建GroupID(可选)。 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡 中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择Kafka触发器,配置参数解释如下。 配置项 操作 示例 触发器类型 选择Kafka触发器。 Kafka触发器 名称 填写自定义的触发器名称。 kafkatrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST Kafka 实例 选择已创建的Kafka实例。 Topic 选择已创建的Kafka实例的Topic。 Group ID 快速创建:推荐方案。自动创建以 GROUPFCTrigger{triggername}{uuid} 命名的 Group ID。 使用已有:选择Kafka实例已有的GroupID,请您注意不要与已有的业务混用GroupID,否则会影响已有的消息收发。 消费任务并发数 消费者的并发数量,有效取值范围为[1,20],建议不超过Topic的分区数。该值同时影响投递到函数的并发数。 消费位点 选择消息的消费位点,即触发器从kafka消息队列开始拉取消息的位置。 最早位点 :从最早位点开始消费。 最新位点:从最新位点开始消费。 最新位点 调用方式 选择函数调用方式。 同步调用 :指触发器消费topic消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。但消费任务并发数大于1时,多个消费者有可能会并发消费消息并投递,并发的情况视Topic队列本身积存的消息而定。 异步调用:指触发器消费topic消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 推送配置 批量推送条数:批量推送的最大值,积压值达到后立刻推送,取值范围为 [1, 10000]。 批量推送间隔:批量推送的最大时间间隔,达到后立刻推送,单位秒,取值[0,15]。默认0无需等待,数据直接推送。 推送格式:函数收到的事件格式,详情请查阅触发器事件消息格式。 重试策略 消息推送函数失败后重试的策略,共两种: 指数退避:指数退避重试,重试5次,重试周期为2,4,8,16,32(秒)。 线性退避:线性退避重试,重试5次,重试周期为1,2,3,4,5(秒)。 容错策略 当重试次数耗尽后仍然失败时的处理方式: 允许容错:当异常发生并超过重试策略配置时直接丢弃。 禁止容错:当异常发生并超过重试策略配置时继续阻塞执行。 死信队列 当容错策略为:允许容错时,可以额外开启死信队列。当开启死信队列时且异常发生并超过重试策略配置时,消息会被投递到指定的消息队列里,当前只支持投递到kafka和rocketmq
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        Kafka触发器
      • 参数对比列表
        本节主要介绍参数对比列表 在进行数据库迁移时,为了确保迁移成功后业务应用的使用不受影响,数据复制服务提供了参数对比功能帮助您进行源库和目标库参数一致性对比。 本章节针对不同的引擎版本,列举了常见的常规参数及性能参数,方便您在使用参数对比功能时进行参考。 MySQL 5.6版本 表 MySQL5.6参数列表 参数名称 参数类型 是否需要重启数据库 ::: connecttimeout 常规参数 否 eventscheduler 常规参数 否 innodblockwaittimeout 常规参数 否 maxconnections 常规参数 否 netreadtimeout 常规参数 否 netwritetimeout 常规参数 否 explicitdefaultsfortimestamp 常规参数 是 innodbflushlogattrxcommit 常规参数 否 maxallowedpacket 常规参数 否 txisolation 常规参数 否 charactersetclient 常规参数 否 charactersetconnection 常规参数 否 collationconnection 常规参数 否 charactersetresults 常规参数 否 collationserver 常规参数 否 binlogcachesize 性能参数 否 binlogstmtcachesize 性能参数 否 bulkinsertbuffersize 性能参数 否 innodbbufferpoolsize 性能参数 是 keybuffersize 性能参数 否 longquerytime 性能参数 否 querycachetype 性能参数 是 readbuffersize 性能参数 否 readrndbuffersize 性能参数 否 sortbuffersize 性能参数 否 syncbinlog 性能参数 否 MySQL 5.7版本 表 MySQL5.7参数列表 参数名称 参数类型 是否需要重启数据库 ::: connecttimeout 常规参数 否 eventscheduler 常规参数 否 innodblockwaittimeout 常规参数 否 maxconnections 常规参数 否 netreadtimeout 常规参数 否 netwritetimeout 常规参数 否 explicitdefaultsfortimestamp 常规参数 否 innodbflushlogattrxcommit 常规参数 否 maxallowedpacket 常规参数 否 txisolation 常规参数 否 charactersetclient 常规参数 否 charactersetconnection 常规参数 否 collationconnection 常规参数 否 charactersetresults 常规参数 否 collationserver 常规参数 否 binlogcachesize 性能参数 否 binlogstmtcachesize 性能参数 否 bulkinsertbuffersize 性能参数 否 innodbbufferpoolsize 性能参数 否 keybuffersize 性能参数 否 longquerytime 性能参数 否 querycachetype 性能参数 否 readbuffersize 性能参数 否 readrndbuffersize 性能参数 否 sortbuffersize 性能参数 否 syncbinlog 性能参数 否 说明 对于上述参数“innodbbufferpoolsize”,参数对比功能对应用到目标数据库的值做了内控,最大不会超过目标数据库总内存的70%。所以有时候是无法完全和源数据库该参数取值一致,这是为了避免目标数据库设置过大,而导致数据库无法启动,如果您觉得上述最大值偏小,可以在数据库中通过执行命令手动设置更大的值。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        对象管理
        参数对比列表
      • 开发HTTP函数示例
        本章介绍开发HTTP函数的示例。 概述 使用自定义镜像开发HTTP函数时,用户需要在镜像中实现一个http server,并监听8000端口接收请求。 说明 HTTP函数只支持APIG触发器。 步骤一:准备环境 本章节所有操作均默认具有操作权限,请确保您登录的用户已有“FunctionGraph Administrator”权限,即FunctionGraph服务管理员权限。 步骤二:制作镜像 以在linux x86 64位系统上制作镜像为例。 1. 创建一个空文件夹 mkdir customcontainerhttpexample && cd customcontainerhttpexample 2. 以Nodejs语言为例,实现一个Http Server,创建一个main.js文件,引入express框架,接收POST请求,打印请求Body到标准输出并返回Hello FunctionGraph, method POST给客户端。 const express require('express'); const PORT 8000; const app express(); app.use(express.json()); app.post('/', (req, res) > { console.log('receive', req.body); res.send('Hello FunctionGraph, method POST'); }); app.listen(PORT, () > { console.log(Listening on }); 3. 创建一个package.json文件,此文件用于向npm提供信息,使其能够识别项目以及处理项目的依赖关系。 { "name": "customcontainerhttpexample", "version": "1.0.0", "description": "An example of a custom container http function", "main": "main.js", "scripts": {}, "keywords": [], "author": "", "license": "ISC", "dependencies": { "express": "^4.17.1" } } name:值为项目名。 version:值为项目版本。 main:列举文件为库的主入口。 dependencies:列出npm上可用的项目的所有依赖项。 4. 创建Dockerfile文件 FROM node:12.10.0 ENV HOME/home/customcontainer GROUPID1003 GROUPNAMEcustomcontainer USERID1003 USERNAMEcustomcontainer RUN mkdir m 550 ${HOME} && groupadd g ${GROUPID} ${GROUPNAME} && useradd u ${USERID} g ${GROUPID} ${USERNAME} COPY chown${USERID}:${GROUPID} main.js ${HOME} COPY chown${USERID}:${GROUPID} package.json ${HOME} RUN cd ${HOME} && npm install RUN chown R ${USERID}:${GROUPID} ${HOME} RUN find ${HOME} type d xargs chmod 500 && find ${HOME} type f xargs chmod 500 USER ${USERNAME} WORKDIR ${HOME} EXPOSE 8000 ENTRYPOINT ["node", "main.js"] FROM:指定基础镜像为node:12.10.0,基础镜像必须设置,值可修改。 ENV:设置环境变量,设置HOME环境变量为/home/customcontainer,设置GROUPNAME和USERNAME为customcontainer,USERID和GROUPID为1003,这些环境变量必须设置,值可修改。 RUN:格式为RUN ,例如RUN mkdir m 550 {HOME}表示构建容器时创建{USERNAME}用户的home目录。 USER:切换${USERNAME}用户。 WORKDIR:切换工作目录到${USERNAME}用户的home目录下。 COPY:将main.js和package.json拷贝到容器的${USERNAME}用户的home目录下。 EXPOSE:暴露容器的8000端口,请勿修改。 ENTRYPOINT:使用node main.js命令启动容器,请勿修改。 说明 1. 可以使用任意基础镜像。 2. 在云上环境会默认使用uid 1003,gid 1003 启动容器。uid、gid可以在函数页面的设置 > 常规设置 >容器镜像覆盖板块中修改,但不可以是root或其他保留id。 5. 构建镜像 指定镜像的名称为customcontainerhttpexample,版本为latest,“.”指定Dockerfile所在目录,镜像构建命令将该路径下所有的内容打包给容器引擎帮助构建镜像。 docker build t customcontainerhttpexample:latest .
        来自:
        帮助文档
        函数工作流
        快速入门
        使用容器镜像部署函数
        开发HTTP函数示例
      • 步骤四:创建Schema
        当您关联MySQl实例后,还需要为DRDS实例创建Schema。 前提条件 DRDS实例已关联MySQL实例,且MySQL未处于只读状态。 注意事项 创建Schema时,DRDS将在关联的MySQL实例上新建数据库,该操作不会影响已有库表。 创建Schema时,一个DRDS实例可以创建多个Schema。 操作步骤 1. 进入Schema管理页面。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击实例名称或单击操作 列的管理 ,进入实例基本信息页面。 4. 单击Schema管理页签,进入Schema管理页面。 2. 单击创建Schema ,进入创建Schema页面。 3. 在基本信息设置 页面,根据实际情况配置如下参数,然后单击下一步。 参数 说明 Schema名称 请以小写字母开头,长度为350个字符。 Schema字符集 支持选择utf8或utf8mb4。 注意 创建后不支持修改。 Schema引擎 支持选择InnoDB或MyISAM。 注意 创建后不支持修改。 关联数据库设置 选中作为存储节点的MySQL实例,并设置对应MySQL实例的分片数量。 4. 在分片节点设置 页面,设置数据库名称,然后单击下一步。 据库名称默认为Schema名称 数字编号,数字编号从1开始递增。您也可以根据需求设置MySQL实例中数据库名称。 5. 在创建页面,开始创建Schema。 您可以单击Schema管理 ,跳转到Schema管理 页面,也可以等待一段时间,系统将自动跳转到Schema管理页面。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤四:创建Schema
      • 应用场景
        本页介绍了分布式融合数据库HTAP的应用场景,方便您的使用。 海量数据高并发OLTP系统 场景说明 海量数据高并发的核心数据系统,由于超过了单机容量及处理能力极限,传统采用数据库中间件加分库分表方案,牺牲了全局事务,唯一索引等关系型数据库重要功能。而分布式融合数据库 HTAP 既有水平弹性扩展的特性,能应对数据量和吞吐量的快速增长,也提供了高度兼容 MySQL 的协议接口和全局事务、唯一索引等关系型数据库的功能,相当于一个无限扩展的 MySQL 集群,是支撑海量数据高并发 OLTP 业务的理想数据库。 用户痛点 有较大的业务侵入性。 牺牲了全局事务,唯一索引等关系型数据库重要功能。 数据库规模大时扩容成本较高。 产品优势 支持海量数据存储与高并发访问。 高度兼容 MySQL。 水平弹性扩展。 金融级高可用。 数据强一致。 高性能实时 HTAP系统 场景说明 分布式融合数据库 HTAP 是一个有着优秀扩展性的一站式 HTAP 数据库,它具有高性能、可扩展的实时写入能力,同时拥有强大的分布式查询引擎,在保证数据一致性和读写实时性的基础上,分布式融合数据库 HTAP 可提供优秀的复杂查询性能,可用于各种实时分析场景。无需进行 ETL 和数据搬运,在分布式融合数据库 HTAP 平台上统一无延迟处理多种 Workload,让数据分析、推荐系统、报表等多种大数据 OLAP 场景和 OLTP 平台无缝结合,减轻数据运维的负担。
        来自:
        帮助文档
        分布式融合数据库HTAP
        产品介绍
        应用场景
      • 使用TPC-H样例模板开发并提交Spark SQL作业
        本章节主要介绍使用TPCH样例模板开发并提交Spark SQL作业。 为了便捷快速的执行SQL操作,DLI支持定制模板或将正在使用的SQL语句保存为模板。保存模板后,不需编写SQL语句,可通过模板直接执行SQL操作。 当前系统提供了多条标准的TPCH查询语句模板,可以根据当前需求选择使用。本样例演示通过一个TPCH样例模板开发并提交Spark SQL作业的基本流程: 操作步骤 1.登录DLI管理控制台。 2.在DLI管理控制台,选择“作业模板”>“SQL模板”>“样例模板”,在“tpchQuery”下找到“Q1价格摘要报告查询”样例模板,单击操作列的“执行”进入“SQL编辑器”。 3.在“SQL编辑器”页面右侧的编辑窗口上方,“执行引擎”选择“spark”,“队列”选择“default”,“数据库”选择“default”,单击“执行”。 4.SQL作业编辑窗口下方“查看结果”页签查看查询结果。 本示例使用系统预置的“default”队列和数据库进行演示,也可以在自建的队列和数据库下执行。 创建队列请参考《数据湖探索用户指南》>《创建队列》。创建数据库请参考《数据湖探索用户指南》下的“数据管理 > 库表管理 > 创建数据库和表”。
        来自:
        帮助文档
        数据湖探索
        快速入门
        使用TPC-H样例模板开发并提交Spark SQL作业
      • 回收站
        本章节会介绍回收站的功能和策略 操作场景 RDS支持将删除的主备或者单机实例,加入回收站管理。通过在回收站中重建实例,将数据恢复到新实例上。新实例数据库引擎、数据库版本、存储类型与原实例相同,其他参数可以重新配置。默认可以恢复1~7天内删除的实例。 约束限制 RDS不回收只读实例,只有主备或者单机实例才会进入回收站。 已停止的实例被删除后不会进入回收站。 回收站策略机制默认开启,且不可关闭。设置保留天数为1天,该功能免费。 设置回收站策略 注意 回收站保留天数默认7天。修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。 6、单击“确定”,完成设置。 重建实例 在回收站保留期限内的主实例可以通过重建实例恢复数据。 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 4、在左侧导航栏,单击“回收站”。 5、在“回收站”页面,在实例列表中找到需要恢复的目标实例,单击操作列的“重建”。 6、在“重建新实例”页面,选填配置后,提交重建任务。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        回收站
      • 升级RDS for MySQL内核小版本
        约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 升级主备实例时,升级顺序依次是备实例、主实例。 实例中存在异常节点,无法升级小版本。 云数据库RDS for MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击主实例名称。 步骤 5 在“基本信息”页面的“数据库引擎版本”处,单击“补丁升级”。 步骤 6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。 结束 后续操作 返回实例列表,在左侧导航栏,选择“任务中心”,查看版本升级任务的执行进度。 对于升级方式为“立即升级”的任务: 在“即时任务”页签,搜索“MySQL实例版本升级”任务,查看执行进度。即时任务不支持取消。 对于升级方式为“可维护时间段内升级”的任务: 在“定时任务”页签,搜索实例ID,查看该实例下版本升级的任务执行情况。 如果任务为“待执行”状态,单击“取消”,取消执行该升级任务。 更多操作,请参见查看任务。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        升级RDS for MySQL内核小版本
      • 添加服务域名
        本文主要简述如何通过控制台添加服务域名。 前提条件 已经订购WAF服务,并且套餐支持的域名数量未超过限制。 域名需要完成ICP备案,才可以接入WAF。 操作步骤说明 1、登录Web应用防火墙(边缘云版)控制台,选择【域名管理】【域名列表】,您可以在该页面查看已添加的域名信息,包括域名、CNAME、状态、创建时间、开启/关闭IPv6访问。单击左上角【新增域名】。 2、您需要填写网站信息、网站安全配置。 在网站信息页面,您需要完成基本信息、源站设置、Https配置及证书上传等,单击【下一步】。 配置项说明: 配置项 说明 域名 填写需要接入WAF的域名,包括精确域名(例如www.ctyun.cn)或者泛域名(例如.ctyun.cn1)。域名需要完成ICP备案并且域名需要进行域名归属权校验。 源站 支持IP或域名,支持配置多个源站地址。 IPv6开关 新增域名时,IPv6开关默认开启,如您不需要IPv6可选择关闭。开启IPv6后,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云边缘云节点,如果要解决IPv6天窗问题(提升二、三级链接IPv6支持度)需要订购基础版以上版本,通过提交工单,由天翼云客服人工配置。 请求协议 支持选择HTTP和HTTPS,如果是HTTPS协议,需要上传HTTPS证书。添加证书页面如下: 服务端口 http协议默认服务端口为80,https协议默认服务端口为443,专业版和旗舰版支持配置服务特殊端口。 回源协议 指边缘云节点回源站请求资源时使用的协议。配置该功能后,边缘云节点将根据指定的协议回源。 HTTP:边缘云节点以HTTP协议回源。 HTTPS:边缘云节点以HTTPS协议回源。 跟随协议:客户端以HTTP或HTTPS协议请求边缘云节点,边缘云节点跟随客户端的协议请求源站(源站需要同时支持HTTP协议和HTTPS协议,否则可能会造成回源失败)。 回源HOST 回源HOST决定了回源请求访问到源站的哪个站点,默认值为加速域名。自定义配置时,请确保您的源站有配置相应的HOST。 HTTP回源端口 当源站同时服务多个站点,且回源站点与服务域名不同时,您需要配置回源HOST,天翼云WAF产品在回源时会根据配置的回源HOST信息去访问对应站点。源站和回源HOST的区别: 源站:指您的业务所部署的服务器地址,回源时会访问该服务器地址获取资源。 回源HOST:指全站加速回源请求头携带的回源HOST信息,回源请求会访问回源HOST对应的具体站点。注意事项: 对于普通域名(精准域名),回源HOST默认为加速域名。 对于泛域名,回源HOST默认为实际访问的子域名。例如,泛域名是 .ctyunexample.com1,如果通过example.ctyunexample.com1访问时,回源HOST即为example.ctyunexample.com1。 跟随请求端口回源 如果跟随请求端口回源开关开启,则使用请求服务端口回源。 配置项 说明 3、填写完网站信息,您需要填写网站安全配置。 在网站安全配置页面,您可以根据您实际的业务情况选择问题答案,如果您不想选择,也可以选择单击【跳过】,系统将会默认为您域名开启监控模式。 配置项说明: 配置项 说明 网站防护模式 您可以设置域名全局防护模式。 拦截:仅当防护模式为拦截时,处理动作拦截才能生效。 告警:若防护模式为告警,处理动作拦截会采用告警处理。 漏洞防护配置 天翼云WAF内置多种规则引擎模板,您可以根据您业务情况选择合适的模板。 全量防护规则集:适用于重保等级高,且允许一定程度误报的业务场景。该漏洞规则集防护包含全量规则,绝大部分规则处理动作为拦截(网站防护模式为拦截时则直接进行拦截),容易出现误报,请谨慎选择;敏感防护规则集:适用于常规网站,且允许少量误报的业务场景。该漏洞规则集防护等级较为严格,容易误报的规则处理动作为告警,其他规则处理动作为拦截(网站防护模式为拦截时则直接进行拦截),存在一定误报可能性。 宽松防护规则集:适用于常规网站,允许存在一定漏报的业务场景。该漏洞规则集防护等级较为宽松,关闭容易产生误报的规则,则可能存在一定漏报,接入后请及时关注。 PHP防护规则集:适用于后台开发语言为PHP的网站业务。该漏洞规则集主要针对后台语言为PHP进行制定,关闭其他容易产生误报的规则,接入后请及时关注。 JAVA防护规则集:适用于后台开发语言为JAVA的网站业务。该漏洞规则集主要针对后台语言为JAVA进行制定,关闭其他容易产生误报的规则,接入后请及时关注。 非PHP和JAVA防护集:适用于后台开发语言明确非PHP和JAVA网站业务。该漏洞规则集主要针对后台语言为非PHP和JAVA进行制定,关闭其他容易产生误报的规则,接入后请及时关注。 下载类业务规则集:适用于下载类业务,即包含zip、rar、tar、gz等下载类后缀的业务网站。该漏洞规则集主要针对下载类业务进行设定规则,关闭其他容易产生误报的规则,接入后请及时关注。 填写完安全配置后,单击【提交】,出现添加完成页面。 4、完成新增域名操作后,可通过【域名列表】查看该域名配置是否完成,通过域名的状态字段判断: 当域名状态为“配置中”时,表示域名配置没有完成,正在配置流转中。 当域名状态为“已启用”时,表示域名配置已经完成,您可以通过域名列表获取CNAME,需要将指定域名的DNS解析指向我们提供的CNAME,以确保访问请求能够转发到边缘云节点上,操作步骤参考配置CNAME。 如果您需要需要设置回源白名单,请参考设置回源白名单
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        快速入门
        快速接入WAF
        添加服务域名
      • 天翼云AOne第三方信息共享清单及SDK目录(1)
        天翼云AOne 安卓版本 第三方信息共享清单及SDK目录 名称 使用场景 使用目的 信息名称 信息类型 共享方式 开发者/公司 第三方隐私和信息处理规则/开发者协议链接 企业微信登录SDK 关联账号登录 企业微信账号授权登录 无 无 无 深圳市腾讯计算机系统有限公司 腾讯企业微信SDK隐私和信息处理规则 飞书登录SDK 关联账号登录 飞书账户授权登录 设备信息与日志信息:操作系统版本号、服务日志 个人常用设备信息 SDK本机采集 北京飞书科技有限公司 飞书登录 SDK 隐私政策 钉钉登录SDK 关联账号登录 钉钉账户授权登录 无 无 无 钉钉科技有限公司 钉钉登录SDK隐私政策 AndroidX 核心库 Android 应用开发基础库 提供Kotlin扩展功能,简化Android API调用,支持如保存文件、支持表情输入的功能调用 正在运行的应用安装列表、外部存储目录 个人设备信息 SDK本机采集 谷歌科技有限公司 AndroidX SDK隐私政策 OpenIm IM/通知号 IM通信和服务号通知 正在运行的应用安装列表、存储外部存储目录、 读取外部存储目录、存储目录管理、发送语音、拍照 个人设备信息 SDK本机采集 社区开源项目 OpenIM隐私政策 淘宝weexSDK 渲染h5页面 渲染部分使用h5开发的功能 无 无 SDK本机采集 数字天堂(北京)网络技术有限公司 淘宝WeexSDK隐私政策 MMKVsdk 本地存储 以keyvalue方式存储数据 无 无 SDK本机采集 深圳市腾讯计算机系统有限公司 MMKV隐私政策 Dcloud开发通用工具库 渲染h5页面 排查在不同情况下的性能和故障 设备信息(设备品牌及型号、CPU类型、屏幕参数、操作系统名称及版本、网络类型、IP地址、User Agent信息、设备语言、时区、设备是否为模拟器或已经被root、匿名设备标识符),应用信息(应用名、应用包名、版本、AppId、包含的SDK信息),报错时的堆栈信息,引擎启动时间和内存消耗 个人设备信息 SDK本机采集 数字天堂(北京)网络技术有限公司 Dcloud隐私政策 OKHTTP框架 和后端的接口交互 进行接口的数据请求 无 无 SDK本机采集 社区开源项目 Okhttp隐私政策 org.chromium框架 渲染h5页面 渲染部分使用h5开发的功能 无 无 SDK本机采集 谷歌科技有限公司 chrome框架隐私政策 ipcinvoker框架 ipc调用 创建子进程 无 无 无 社区开源项目 ipcinvoke隐私政策 JavaMail API 电子邮件的收发 通过POP3和IMAP协议接收邮件,通过SMTP协议发送邮件 发送文字、图片、拍照、文件 无 无 社区开源项目 < androidsvgaar svg图片展示 显示svg图片 用于图片显示兼容svg格式 无 无 社区开源项目 androidsvg隐私政策
        来自:
      • 本地磁盘存储
        主机路径(HostPath)挂载 主机路径(HostPath)挂载表示将主机上的路径挂载到指定的容器路径。通常用于:“容器工作负载程序生成的日志文件需要永久保存”或者“需要访问宿主机上Docker引擎内部数据结构的容器工作负载”。 步骤 1 登录CCE控制台。 步骤 2 在创建工作负载时,在“容器配置”中找到“数据存储”,选择“本地存储”,单击。 步骤 3 设置添加本地磁盘参数。 表 卷类型选择主机路径挂载 参数 参数说明 :: 存储类型 主机路径(HostPath)。 主机路径 输入主机路径,如/etc/hosts。 说明 请注意“主机路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 添加容器挂载 配置如下参数: 子路径:请输入子路径,如:tmp。 使用子路径挂载本地磁盘,实现在单一Pod中重复使用同一个Volume。不填写时默认为根。 挂载路径:请输入挂载路径,如:/tmp。 数据存储挂载到容器上的路径。请不要挂载在系统目录下,如“/ ”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 注意 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 权限: 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。 单击“添加容器挂载”可增加多条设置,单击“确定”完成配置。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        本地磁盘存储
      • 1
      • ...
      • 57
      • 58
      • 59
      • 60
      • 61
      • ...
      • 498
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      模型推理服务

      应用托管

      智算一体机

      人脸检测

      人脸实名认证

      推荐文档

      如何申请发票?

      入驻条件

      产品版本

      添加伸缩策略

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号