活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云大数据saas服务_相关内容
      • 远程桌面链接Windows云主机报错:连接被拒绝未授权此用户
        本文主要介绍远程桌面链接Windows云主机报错:连接被拒绝未授权此用户如何吃处理。 问题描述 远程桌面链接Windows云主机报错:连接被拒绝,因为没有授权此用户账户进行远程登录。 图 连接被拒绝未授权此用户 可能原因 Windows远程桌面相关权限配置异常。 解决方法 步骤 1 检查云主机远程桌面权限配置。 1. 在运行窗口输入secpol.msc,打开组策略编辑器 2. 打开"本地策略 > 用户权限分配 > 允许通过远程桌面服务登录"。 图 本地策略 3. 包含已经被赋予远程登录服务器权限的用户组或单独的用户名。 如果缺少上述配置,请单击“添加用户或组”进行添加。 图 允许通过远程桌面服务登录 步骤 2 检查用户的用户组属性。 1. 在运行窗口输入lusrmgr.msc,打开"本地用户和组"配置管理单元。 2. 双击左侧功能树中的“用户”节点,切换到用户管理。 3. 双击出现访问异常的用户名。 4. 在弹出的用户属性对话框中,切换到“隶属于”选项卡,确保用户隶属于上述步骤2.2已经被赋予远程登录服务器权限的用户组。 图 检查用户的用户组属性
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Windows远程登录报错类
        远程桌面链接Windows云主机报错:连接被拒绝未授权此用户
      • 弹性IP概述
        本文带您了解什么是弹性IP产品。 弹性 IP(Elastic IP Address,简称EIP)是可以独立申请的公网 IP 地址,将弹性 IP 地址和子网中关联的各项云资源绑定和解绑,可以实现 VPC 中的云资源通过固定的公网 IP 地址与互联网互通。弹性IP产品既包含公网IP地址,也可以提供公网带宽服务,与其他带宽产品组合使用,可以达到访问公网与节省成本的目的。 弹性IP需与绑定的云资源在同一个区域(Region)进行使用,不允许跨区域(Region)使用弹性IP。 详细信息请参考:弹性IP。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        弹性IP
        弹性IP概述
      • 管理剧本
        本节将介绍如何执行查看已有剧本、导入剧本信息、导出剧本信息、禁用剧本、删除剧本等操作。 查看已有剧本 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 剧本编排”,默认进入剧本管理页面。 5. 在剧本管理页面,查看剧本的信息。 剧本列表上方,呈现当前 待审核 、 未启用 、已启用剧本的总数。 在剧本列表中查看已有剧本的信息。 当剧本较多时,可以通过搜索功能,选择剧本的“状态”、“名称”、“描述”或“数据类”,并在搜索框中输入关键词,单击,即可快速查询指定剧本。 参数名称 参数说明 名称 创建的剧本的名称。 数据类 剧本对应的数据类。 剧本状态 剧本当前状态。当前分为已启用和未启用两种状态。 当前版本 剧本当前版本。 运行监控 单击,查看剧本运行监控。 选择时间:选择查看的监控时间。支持最近24小时、最近3天、最近30天和最近90天的查询。 版本:选择查看的监控版本。支持全部、当前有效和已删除类型的查询。 运行次数:提供查看剧本的运行总次数、定时触发次数和事件触发次数。 平均运行时长:提供查看平均运行时长、最长运行时长和最短运行时长。其中,平均运行时长实例运行总时长/实例总个数。 实例状态统计:提供查看实例运行总个数、运行成功个数、运行中的实例个数、运行失败个数和终止个数。 创建人 创建该剧本的用户。 创建时间 剧本的创建时间。 修改人 最近一次修改该剧本的用户。 更新时间 剧本最近一次更新的时间。 描述 剧本的描述信息。 操作 用户可以在操作栏中,执行启用、删除等操作。 6. 如需查看某个剧本的详细信息,可单击待查看剧本的名称,进入剧本详情页面。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        剧本编排管理
        剧本
        管理剧本
      • 实例状态
        状态 说明 创建中 正在创建数据库实例。 运行中 数据库实例正常并且可用。 已暂停 数据库实例已暂停运行,实例暂停时长上限为15天,如果15天后您仍未启动实例,实例将自动启动,以便进行必要的维护。 重启中 实例重启中。 异常 数据库实例不可用。 规格变更中 数据库实例的CPU和内存规格变更中。 扩、缩容中 包括数据库实例的磁盘空间扩容、备份空间扩容和系列升级。 主备切换中 正在进行主实例和备实例的切换。 修改端口中 正在修改数据库实例的访问端口。 备份中 正在备份数据库实例。 恢复中 正在恢复备份到实例中。 恢复失败 数据库实例恢复失败。 磁盘满 数据库实例存储空间不足2%。 升级中 数据库实例正在升级中。 只读转单机中 只读实例升主实例转为单机实例,只读实例成为该状态。 修改参数中 修改数据库参数中,部分参数需要重启,会变为重启中。 应用参数模板中 将参数模板直接应用于某实例,会成为该状态。 重置密码中 当需要修改重置密码时,实例会成为该状态。 修改数据复制方式中 数据复制方式从同步、半同步状态切换,实例成为该状态。 迁移可用区中 多节点迁移节点可用区时,实例成为该状态。 只读实例同步中 订购有只读实例进行同步主实例的数据时,只读实例成为该状态。 修改高可用模式中 高可用,高可靠模式切换时,实例成为该状态。 切换VPC中 当实例切换VPC时,实例成为该状态。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        实例说明
        实例状态
      • 绑定企业项目
        本章节主要介绍如何绑定企业项目。 企业可以根据组织架构规划企业项目,将企业分布在不同区域的资源按照企业项目进行统一管理,同时可以为每个企业项目设置拥有不同权限的用户组和用户。本章节为您介绍ES中Logstash集群如何绑定、修改企业项目。 前提条件 在绑定企业项目前,您已在“企业项目管理控制台”创建企业项目。 绑定企业项目 在创建集群时,可以在“企业项目”绑定已创建的企业项目,也可以单击“查看项目管理”,前往企业项目管理控制台,新建企业项目和查看已有的企业项目。 修改企业项目 针对之前已创建的集群,其绑定的企业项目可根据实际情况进行修改。 1.登录云搜索服务管理控制台。 2.在左侧导航栏,选择“集群管理 > Logstash”,进入集群管理页面。 3.在集群列表中,单击集群名称进入集群“基本信息”页面。 4.在集群“基本信息”页面,单击“企业项目”右侧的企业项目名称,进入项目管理页面。 5.在“资源”页签下,“区域”选项中选择当前集群所在的区域,“服务”选项中选“云搜索服务 ES”。此时,资源列表将筛选出对应的ES集群。 6.勾选需要修改企业项目的集群,然后单击“迁出”。 7.在“迁出资源”页面,选择“迁出方式”,再选择“请选择要迁入的企业项目”,然后单击“确定”。 迁出资源 8.迁出完成后,可以在云搜索服务管理控制台集群管理页面,查看修改后的集群企业项目信息。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash
        管理Logstash集群
        绑定企业项目
      • CCE接入
        section573a750d001b9068)。 说明 1. 默认选择集群所在的主机组,您可以根据需要选择其他已创建的主机组。 2. 在“主机管理 > 主机组”页面对主机组和接入配置进行关联。 3. 主机组可以为空,但是会导致采集配置不生效,建议第一次接入时选择主机组。若不选择,可以在接入配置设置完成后对主机组进行设置。 4. 在接入配置详情中对主机组和接入配置进行关联。 2. 单击“下一步:采集配置”。 7. 采集配置。 设置具体的采集规则,具体可参考采集配置。 8. 结构化配置(可选项)。 结构化配置,具体请参考云端结构化解析。 说明 当所选日志流已配置结构化时,请谨慎执行删除操作。 9. 索引配置(可选项)。 索引配置,具体请参考索引配置。 10. 单击“提交”,完成CCE接入。 采集配置 在使用CCE接入完成日志接入时,在采集配置页面的具体配置如下: 1. 基本配置:自定义采集配置名称,长度范围为1到64个字符,只支持输入英文、数字、中文、中划线、下划线以及小数点,且不能以小数点、下划线开头或以小数点结尾。 2. 数据源配置:选择数据源类型,进行对应的数据源配置。 容器标准输出:采集集群内指定容器日志,仅支持Stderr和Stdout的日志。 说明 被匹配上的容器的标准输出会采集到指定的日志流,原先采集到的AOM的标准输出会停止采集。 容器标准输出不能重复配置,即使跨日志组和日志流,也只能配置一次。 容器文件路径:采集集群内指定容器内的文件路径日志。 节点文件路径:采集集群内指定节点路径的文件。 说明 采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 K8S事件:采集K8S集群内的事件日志。 说明 K8S事件不能重复配置,即一个K8S集群的K8S事件,只能配置接入到一个日志流。 表 1 采集配置参数表 类型 参数配置 容器标准输出 采集容器标准输出到AOM、采集容器标准输出(stdout)和采集容器标准错误(stderr)。 采集容器标准输出到AOM:默认集群下的主机已安装了ICAgent且采集日志到AOM,采集容器标准输出到AOM的开关处于开启状态。 开启后标准输出只会采集到AOM,不会采集到LTS,建议您手动关闭该开关。 采集容器标准输出(stdout)和采集容器标准错误(stderr)两者必须得有一个是开启状态。 容器文件路径 路径配置:添加您需要收集的日志路径,LTS将按照配置的路径进行日志采集。 当CCE集群的工作负载中,已配置容器的挂载路径时,此时路径配置里添加的路径将无效。 须将CCE集群页面中的挂载路径删除后,该配置才有效。采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 设置采集黑名单:LTS支持对日志进行过滤采集,即通过设置黑名单,在采集时过滤指定的目录或文件。 指定按目录过滤,可过滤掉该目录下的所有文件。 节点文件路径 路径配置:添加您需要收集的日志路径,LTS将按照配置的路径进行日志采集。 采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 设置采集黑名单:LTS支持对日志进行过滤采集,即通过设置黑名单,在采集时过滤指定的目录或文件。 指定按目录过滤,可过滤掉该目录下的所有文件。 K8S事件 无需设置参数。仅支持icagent 5.12.130及以上版本。 3. K8s匹配规则:当数据源类型选择容器标准输出和容器文件路径时,设置K8s匹配规则,非必选项。 说明 填写正则匹配规则后,单击校验按钮,支持校验确保正则表达式的正确性。 表 2 K8s匹配规则 参数名称 参数说明 K8s Namespace正则匹配 通过Namespace名称指定采集的容器,支持正则匹配。采集名称符合正则规则的Namespace的日志,为空时采集所有Namespace的日志。 K8s Pod正则匹配 通过Pod名称指定待采集的容器,支持正则匹配。 采集名称符合正则规则的Pod的日志,为空时采集所有Pod的日志。 K8s容器名称正则匹配 通过容器名称指定待采集的容器(Kubernetes容器名称是定义在spec.containers中),支持正则匹配。采集名称符合正则规则的容器的日志,为空时采集所有容器的日志。 K8s Label白名单 通过K8s Label白名单指定待采集的容器。 如果您要设置K8s Label白名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则K8S Label中包含LabelKey的容器都匹配; 若LabelValue不为空,则K8S Label中包含LabelKeyLabelValue的容器才匹配; LabelKey需要全匹配,LabelValue支持正则匹配;多个白名单之间为或关系,即只要K8S Label满足任一白名单即可被匹配。 K8s Label黑名单 通过K8s Label黑名单排除不采集的容器。如果您要设置K8s Label黑名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则K8S Label中包含LabelKey的容器都被排除; 若LabelValue不为空,则K8S Label中包含LabelKeyLabelValue的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要K8S Label满足任一黑名单即可被排除。 K8s Label日志标签 设置K8s Label日志标签后,日志服务将在日志中新增K8s Label相关字段。设置K8s Label日志标签后,lts将在日志中新增相关字段。 例如设置LabelKey为app,设置LabelValue为appalias,当容器中包含applts时,将在日志中添加内容{appalias:lts}。 容器Label白名单 通过容器Label白名单指定待采集的容器。 如果您要设置容器Label白名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则容器 Label中包含LabelKey的容器都匹配; 若LabelValue不为空,则容器 Label中包含LabelKeyLabelValue的容器才匹配; LabelKey需要全匹配,LabelValue支持正则匹配; 多个白名单之间为或关系,即只要容器 Label满足任一白名单即可被匹配。 容器Label黑名单 通过容器Label黑名单排除不采集的容器。 如果您要设置容器Label黑名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则容器 Label中包含LabelKey的容器都被排除; 若LabelValue不为空,则容器 Label中包含LabelKeyLabelValue的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要容器Label满足任一黑名单即可被排除。 容器Label日志标签 设置容器Label日志标签后,日志服务将在日志中新增容器Label相关字段。 设置容器 Label日志标签后,lts将在日志中新增相关字段。 例如设置LabelKey为app,设置LabelValue为appalias,当容器中包含applts时,将在日志中添加的内容{appalias:lts}。 环境变量白名单 用于指定待采集的容器。 如果您要设置环境变量白名单,那么Label Key必填,Label Value可选填。 如果环境变量Value为空,则容器环境变量中包含环境变量Key的容器都匹配; 如果环境变量Value不为空,则容器环境变量中包含环境变量Key环境变量Value的容器才被匹配; LabelKey需要全匹配,LabelValue支持正则匹配; 多个白名单之间为或关系,即只要容器的环境变量满足任一键值对即可被匹配。 环境变量黑名单 用于排除不采集的容器。 如果您要设置环境变量黑名单,那么Label Key必填,Label Value可选填。 如果环境变量Value为空,则容器环境变量中包含环境变量Key的容器都将被排除; 如果环境变量Value不为空,则容器环境变量中包含环境变量Key环境变量Value的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要容器的环境变量满足任一键值对即可被排除。 环境变量日志标签 设置环境变量日志标签后,日志服务将在日志中新增环境变量相关字段。 设置环境变量日志标签后,lts将在日志中新增相关字段,例如设置环境变量Key为app,设置环境变量Value为appalias,当容器中包含环境变量applts时,将在日志中添加的内容为{appalias:lts}。 4. 其他配置。 表 3 其他配置 名称 说明 日志拆分 云日志服务支持对日志进行拆分,默认为关闭状态。 当日志大小超过500KB时,开启日志拆分按钮,则单行日志会被拆分为多行采集。 例如:日志大小为600KB,被拆分为2行日志采集,第一行500KB,第二行100KB。 当日志大小超过500KB时,未开启日志拆分按钮,则单条日志大小限制不超过500KB,超过限制部分会被截断丢弃。 采集二进制文件 云日志服务支持采集二进制文件,默认为关闭状态。 您可以通过命令(file i 文件名 )查看文件类型,如果包含charsetbinary,那么该日志文件就是二进制文件。 当日志的文件类型为二进制时,开启采集二进制文件按钮,则对接入的二进制文件日志进行采集,但仅支持UTF8编码的字符串,非UFT8编码的字符在LTS控制台页面会显示乱码。 当日志的文件类型为二进制时,未开启采集二进制文件按钮,则对接入的二进制文件日志停止采集,开启后即可进行采集。 5. 日志格式、日志时间具体说明如下: 表 4 日志采集信息 名称 说明 日志格式 单行日志:采集的日志文件中,如果您希望每一行日志在LTS界面中都显示为一条单独的日志数据,则选择单行日志。 多行日志:采集的日志中包含像java异常的日志,如果您希望多行异常的日志显示为一条日志,正常的日志则每一行都显示为一条单独的日志数据,则选择多行日志,方便您查看日志并且定位问题。 日志时间 系统时间:表示系统当前时间,默认为日志采集时间,每条日志的行首显示日志的采集时间。 日志采集时间:ICAgent采集日志,并且发送到云日志服务的时间。 日志打印时间:系统产生并打印日志的时间。 ICAgent采集日志并发送日志到云日志平台的频率为1秒钟。 采集日志时间限制:系统时间的前后24小时内。 时间通配符 用日志打印时间来标识一条日志数据,通过时间通配符来匹配日志,每条日志的行首显示日志的打印时间。 如果日志中的时间格式为:20190101 23:59:59.011,时间通配符应该填写为:YYYYMMDD hh:mm:ss.SSS。 如果日志中的时间格式为:1911 23:59:59.011,时间通配符应该填写为:YYMD hh:mm:ss.SSS。 如果日志中不存在年份信息,则云日志会自动补齐年份数据为当前年份数据。 填写示例: YY year (19) YYYY year (2019) M month (1) MM month (01) D day (1) DD day (01) hh hours (23) mm minutes (59) ss seconds (59) SSS millisecond(999) hpm hours (03PM) h:mmpm hours:minutes (03:04PM) h:mm:sspm hours:minutes:seconds (03:04:05PM) hh:mm:ss ZZZZ (16:05:06 +0100) hh:mm:ss ZZZ (16:05:06 CET) hh:mm:ss ZZ (16:05:06 +01:00) 分行模式 日志格式选择多行日志时,需要选择分行模式,分行模式选择“日志时间”时,是以时间通配符来划分多行日志; 当选择“正则模式”时,则以正则表达式划分多行日志。 正则表达式 此配置是用来标识一条日志数据的正则表达式。 日志格式选择“多行日志”格式后且“分行模式”已选择“正则模式”后需要设置。 说明 时间通配和正则表达式均是从每行日志的开头进行严格匹配,如果匹配不上,则会默认使用系统时间上报,这样可能会和文件内容中的时间不一致。如果没有特殊需求,建议使用单行日志系统时间模式即可。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务接入
        CCE接入
      • 跨域恢复
        跨域恢复新实例。 SQL Server支持使用已有的备份集,跨域恢复至另一个资源池的新实例(即创建实例并恢复数据)。 注意事项 实现跨域恢复的前提是实例已经开启跨域备份,如何开启跨域备份请参考设置自动备份策略。 只有跨域备份状态为成功的备份,支持跨域恢复。同时,若备份为增量备份,则要求其前置的全量备份也必须是跨域备份成功,才允许恢复。 仅支持跨域恢复备份集,不支持按时间点跨域恢复。 其他限制及注意事项请参考按备份集恢复数据。 当前仅华东1、西南1支持开启跨域,其中华东1跨域到西南1,西南1跨域到华东1。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 选择【备份恢复】标签页,点击【跨域数据备份】,查看到跨域数据备份列表。 5. 选择待恢复的备份集,点击【恢复】,弹出恢复框,点击【确定】,会跳转到跨域恢复订购页,在订购页填入订购涉及的信息,最后完成实例创建下单。 6. 下单完成,等待实例创建成功,实例创建后会异步完成数据恢复,恢复时长取决于备份数据大小。同时在任务列表能查看恢复数据的记录,可以根据该记录判断跨域恢复新实例是否成功。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        恢复
        跨域恢复
      • 回源加密算法
        本文介绍回源加密算法的配置方法。 功能介绍 回源协议为HTTPS协议时,天翼云边缘安全加速平台安全与加速服务默认使用国际标准加密算法回源,也可以选择使用国密加密算法回源或者跟随客户端加密算法回源;未选择默认使用国际加密算法回源。 配置说明 1. 登录边缘安全加速平台控制台。 2. 进入安全与加速工作台域名基础配置页面,点击目标域名。。 3. 进入源站设置页面,单击“编辑配置”。 4. 当【回源协议】选择HTTPS回源或者协议跟随时,可选择【回源加密算法】,支持选择国密加密回源、国际加密回源、跟随客户端加密算法回源。 5. 单击【保存】,完成配置。 参数名 说明 国密加密回源 国密算法,即国家商用密码算法,是由国家密码管理局认定和公布的密码算法标准及其应用规范。国密加密回源,即回源时的HTTPS协议采用国密加密算法。 国际加密回源 国际加密回源,即采用国际标准的密码算法回源,如果没有特殊配置,我们通常回源时使用的加密算法都是国际加密算法。 跟随客户端加密算法回源 若客户端使用国际加密算法接入天翼云AOne安全与加速平台,则回源时也使用国际加密算法回源;若客户端使用国密加密算法接入天翼云AOne安全与加速平台,则回源时也使用国密加密算法回源。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源加密算法
      • 购买云主机的同时购买弹性 IP
        本文介绍如何在购买云主机的同时购买弹性 IP。 前提条件 弹性IP和弹性云主机分别有配额控制,搭配云主机购买之前需要确保弹性IP配额充足。 操作步骤 1. 进入云主机购买页,选择云主机规格。 2. 在“网络配置”阶段“弹性IP ” 选项中,选择“自动分配 ” 。 在“网络配置”阶段“弹性IP ” 选项中,选择“使用已有 ” ,则不会购买新的弹性IP,将使用已购买可绑定的弹性IP。 3. 点击“自动分配”后,出现带宽选择滑块,选择需要的带宽大小。 4. 带宽的价格会在右侧“配置费用”中体现。 5. 完成主机的其他购买选项,提交订单并支付,完成主机配置。 说明 如购买包年包月付费方式的云主机,此方法可以确保云主机和弹性IP到期时间保持一致,防止出现某一资源先到期从而影响整体服务的情况。购买包年包月主机且有公网需求的时候,建议使用此方法。
        来自:
        帮助文档
        弹性IP EIP
        快速入门
        购买云主机的同时购买弹性 IP
      • 计费方式
        本小节介绍日志审计(原生版)计费方式。 计费模式 日志审计(原生版)支持包年/包月(预付费)计费模式,购买时长越久越便宜。 计费项 日志审计(原生版)根据资产规格 、数据盘扩容量进行计费。 计费项 说明 资产规格 按购买资产规格和时长计费,包含5/10/15/20/50/100/200/500,共8种规格类型。 说明 资产规格表示日志审计(原生版)可以接入设备资产的数量。 数据盘扩容 按存储扩容大小和时长计费。 说明 仅“一类节点”区域的实例支持数据盘扩容。 日志审计(原生版)支持的区域请参见支持的区域。 产品价格 资产规格 注意 仅“一类节点”区域的实例支持标准版。 仅“二类节点”区域的实例支持基础版。如下基础版价格仅为日志审计(原生版)实例的价格,购买时实际结算会包含云主机的价格;根据您所选择的云主机规格,云主机价格有所不同,云主机规格价格可参考云主机价格。 针对一次性包年付费,日志审计(原生版)的优惠政策为:1年8.5折、2年7.5折、3、4、5年6.5折。 版本 资产规格 标准价格(元/月) 1年付价格(元/年) 2年付价格(元/2年) 3年付价格(元/3年) 标准版 5资产 1,600 16,320 28,800 37,440 标准版 10资产 1,750 17,850 31,500 40,950 标准版 15资产 2,000 20,400 36,000 46,800 标准版 20资产 3,400 34,680 61,200 79,560 标准版 50资产 4,600 46,920 82,800 107,640 标准版 100资产 6,100 62,200 109,800 142,740 标准版 200资产 9,100 92,820 163,800 212,940 标准版 500资产 18,100 184,620 325,800 423,540 基础版 5资产 1,000 10,200 18,000 23,400 基础版 10资产 1,200 12,240 21,600 28,080 基础版 15资产 1,400 14,280 25,200 32,760 基础版 20资产 1,600 16,320 28,800 37,440 基础版 50资产 3,200 32,650 57,600 74,880 基础版 100资产 4,265 43,503 76,770 99,801 基础版 200资产 6,395 65,229 115,110 149,643 基础版 500资产 12,785 130,407 230,130 299,169
        来自:
        帮助文档
        日志审计(原生版)
        计费说明
        计费方式
      • 权限管理
        系统角色/策略名称 描述 类别 依赖关系 DMS FullAccess 分布式消息服务管理员权限,拥有该权限的用户可以操作所有分布式消息服务的功能。 系统策略 无 DMS UserAccess 分布式消息服务普通用户权限(没有实例创建、修改、删除、扩容)。 系统策略 无 DMS ReadOnlyAccess 分布式消息服务的只读权限,拥有该权限的用户仅能查看分布式消息服务数据。 系统策略 无 DMS Administrator 分布式消息服务的管理员权限。 系统角色 依赖Tenant Guest和VPC Administrator。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        权限管理
      • 基线推送
        本章节介绍应用容灾多活的基线推送。 概述 应用容灾多活采用控制面和数据面分离的架构,当控制面上的资源管理数据发生变化时,需要通过基线推送将更新的数据同步至数据面。 如果变更涉及数据层和接入层配置调整,多活系统将自动编排数据检查和数据禁写等步骤,以确保数据一致性。 图 基线推送 前提条件 已创建应用系统。 已完成系统架构配置以及路由规则配置。 已完成接入层配置。 已完成数据层配置。 已完成服务层配置。 创建推送任务 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 在应用系统列表中找到需要配置的应用系统,单击应用系统名称 ,进入应用系统概览页面。 4. 在左侧导航栏选择容灾配置 ,在容灾配置菜单下单击总览 ,在总览 页面单击基础配置推送按钮进入基础配置推送列表页面。 5. 在基础配置推送列表 页面,点击左侧推送配置按钮,查看下方各个单元组配置变更。 6. 输入任务名称 ,单击确定按钮,自动跳转到基础配置推送任务列表页面。 7. 选择刚刚创建的任务,点击状态列,可以查看任务的各个步骤详情以及任务进度。 8. 在任务处理结果列,点击任务结果,可以查看任务详情信息。
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        多活容灾
        基线推送
      • 术语解释
        双因子认证 双因子认证是指结合密码以及验证码两种条件对用户登录行为进行认证的方法。 网页防篡改 网页防篡改为用户的文件提供保护功能,避免指定目录中的网页、电子文档、图片等类型的文件被黑客、病毒等非法篡改和破坏。 集群 集群是同一个子网中一个或多个弹性云主机(又称:节点)通过相关技术组合而成的计算机群体,为容器运行提供计算资源池。 节点 在容器中,每一个节点对应一台弹性云主机(Elastic Cloud Server,ECS),容器运行在节点上。 镜像 镜像(Image)是一个特殊的文件系统,除了提供容器运行时所需的程序、库、资源、配置等文件外,还包含了一些为运行时准备的配置参数。镜像不包含任何动态数据,其内容在构建之后也不会被改变。 容器 容器(Container)是镜像的实例,容器可以被创建、启动、停止、删除、暂停等。 安全策略 安全策略是指容器运行时需要遵循的安全规则,如果容器违反了安全策略,容器安全服务控制台的“运行时安全”页面会显示容器异常。 防护配额 目标主机开启检测防护需要绑定的对象,即防护配额。 在主机安全服务购买的不同版本的数量在控制台中是以防护配额的描述呈现。 示例: 购买了1个企业版,即企业版可用防护配额数量为1个,只能绑定任意1台主机; 购买了10个旗舰版,即旗舰版可用防护配额数量为10个,可分配至10台不同主机进行分别绑定;
        来自:
        帮助文档
        企业主机安全
        产品介绍
        术语解释
      • 修改伸缩策略
        创建完伸缩策略后,您还可以根据需要调整触发条件、策略名称、冷却时间等。 1. 登录天翼云控制中心,切换到需要修改伸缩策略的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击【伸缩策略】标签,进入【伸缩策略标签页】; 4. 在伸缩策略所在行的【操作】列下,单击【修改】; 5. 可修改策略名称、执行动作等,或者创建新告警规则并使用。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        修改伸缩策略
      • 支付
        本文主要介绍了在“我的订单”页面进行订单支付的操作步骤。 操作步骤 1. 登录天翼云官网,点击“管理中心”进入“费用中心”页面后,点击“订单管理>我的订单”,进入“我的订单”页面。 2. 可通过选择项目名称、输入订单号或设置订单创建时间筛选搜索待支付订单,也可通过订单类型、订单状态过滤筛选待支付订单。若支付云订单,选中“云订单”页签;若支付网订单,选中“网订单”页签。 3. 在订单页面找到待支付的订单,单击“支付”;也可以点击右上角“批量支付”,选择多个待支付订单,进行批量支付。 4. 选择优惠和支付方式,点击“立即支付”。 5. 前往支付平台,选择支付方式,点击“确认支付”。 说明 若客户当时没有立即支付,后期也可进入“待支付订单”支付订单,其他详细说明可参见“待支付订单>支付”。
        来自:
        帮助文档
        费用中心
        订单管理
        我的订单
        支付
      • 基本使用类
        修改表的自增AUTOINCREMENT值 AUTOINCREMENT修改时,遵循如下约束限制: 1. 当AUTOINCREMENT大于表中数据的最大值时,可以在取值范围内任意修改为更大的值。 set session autoincrementoffset10; set session autoincrementincrement2; show variables like 'autoinc%'; ++ Variablename Value ++ autoincrementincrement 2 autoincrementoffset 10 ++ create table autotest2(id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id)); Query OK, 0 rows affected (0.08 sec) show create table autotest2; CREATE TABLE autotest2 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB DEFAULT CHARSETutf8 1 row in set (0.01 sec) insert into autotest2 values(0), (0), (0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 select from autotest2; + id + 2 4 6 + 3 rows in set (0.01 sec) 2. 当AUTOINCREMENT大于表中数据的最大值时,如果修改后的指定值仍大于数据的最大值,则修改为指定值成功。否则,默认会修改为数据最大值+1。 mysql> select from animals; ++ id name ++ 50 middle 1 dog 2 cat 50 middle 100 rabbit ++ mysql> show create table animals; ++ Table Create Table ++ animals CREATE TABLE animals ( id mediumint NOT NULL AUTOINCREMENT, name char(30) NOT NULL, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT200 DEFAULT CHARSETutf8 ++ mysql> alter table animals AUTOINCREMENT150; Query OK, 0 rows affected (0.05 sec) Records: 0 Duplicates: 0 Warnings: 0 mysql> show create table animals; ++ Table Create Table ++ animals CREATE TABLE animals ( id mediumint NOT NULL AUTOINCREMENT, name char(30) NOT NULL, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT150 DEFAULT CHARSETutf8 ++ mysql> alter table animals AUTOINCREMENT50; Query OK, 0 rows affected (0.04 sec) Records: 0 Duplicates: 0 Warnings: 0 mysql> show create table animals; ++ Table Create Table ++ animals CREATE TABLE animals ( id mediumint NOT NULL AUTOINCREMENT, name char(30) NOT NULL, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT101 DEFAULT CHARSETutf8 ++ mysql> delete from animals where id100; Query OK, 1 row affected (0.00 sec) mysql> select from animals; ++ id name ++ 50 middle 1 dog 2 cat 50 middle ++ 10 rows in set (0.00 sec) mysql> alter table animals AUTOINCREMENT50; Query OK, 0 rows affected (0.04 sec) Records: 0 Duplicates: 0 Warnings: 0 mysql> show create table animals; ++ Table Create Table ++ animals CREATE TABLE animals ( id mediumint NOT NULL AUTOINCREMENT, name char(30) NOT NULL, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT51 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) 3. AUTOINCREMENT无法修改为负数。 alter table animals AUTOINCREMENT1; ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near '1' at line 1
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        基本使用类
      • 微隔离
        标签规则 标签规则是指对某一标签下的终端设置微隔离规则,包括微隔离规则、一键封锁IP以及一键关闭端口。关于标签的更多信息,请参考分组标签。 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“策略管理 > 微隔离 > 微隔离”,选择配置模式。 3. 选择“标签规则”页签,可执行以下操作。相关配置参数请参见终端规则。 选择标签(如Linux),点击“新增规则”,可对标签下的终端新增微隔离规则。 选择标签(如Linux),点击“一键封锁IP”,可对标签下的终端设置一键封锁IP。仅混合模式支持“一键封锁IP”。 选择标签(如Linux),点击“一键关闭端口”,可关闭标签下的终端的相应端口。仅混合模式支持“一键关闭端口”。 相关操作 登录大模型安全卫士实例,在菜单栏选择“策略管理 > 微隔离 > 微隔离”,可执行以下操作。 点击“导出”,可导出微隔离规则。 点击“导入”,选择微隔离规则文件(已导出的微隔离规则文件),即可导入微隔离规则。 勾选规则(可勾选多个),点击“启用”,在弹出的对话框中点击“确定”,可批量启用微隔离规则。 勾选规则(可勾选多个),点击“禁用”,在弹出的对话框中点击“确定”,可批量禁用微隔离规则。 勾选规则(可勾选多个),点击“删除”,在弹出的对话框中点击“确定”,可批量删除微隔离规则。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        策略管理
        微隔离
        微隔离
      • 测试方法
        本节主要介绍测试方法。 本章基于GeminiDB Influx实例,进行性能测试,具体包括测试环境,测试步骤,以及测试结果。 测试环境 区域:天翼云资源池 可用区:可用区一 弹性云主机(Elastic Cloud Server,简称ECS):规格选择内存优化型m6.2xlarge.8,8U64GB,操作系统镜像使用CentOS 7.6 64位版本。 被测试集群实例的配置:每个实例包含3个节点。 被测试集群实例的规格:4U16G、8U32G、16U64G、32U128G。 测试工具 本次测试采用了开源社区的Time Series Benchmark Suite (TSBS)。 测试指标 写入性能测试关注每秒写入点数(points/sec)。 查询性能测试关注时延和OPS(Operation Per Second)。 测试步骤 1. 执行如下命令,生成需要执行写入的数据。 tsbsgeneratedata usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:00Z" loginterval"10s" format"influx" gzip > /tmp/influxdata.gz 说明 scale:需要生成的时间线数量。 loginterval:数据采样间隔。 2. 执行如下命令,进行写入性能测试,获取写入性能数据。 NUMWORKERS${numWorkers} BATCHSIZE${batchSize} DATABASEHOST${influxIP} DATABASEPORT${influxPORT} BULKDATADIR/tmp scripts/loadinflux.sh 3. 执行如下命令,生成查询语句。 tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries20 querytype"highcpuall" format"influx" gzip > /tmp/influx20querieshighcpuall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries1000000 querytype"singlegroupby181" format"influx" gzip > /tmp/influx1000000queriessinglegroupby18112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"doublegroupby1" format"influx" gzip > /tmp/influx500queriesdoublegroupby112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries50 querytype"doublegroupbyall" format"influx" gzip > /tmp/influx50queriesdoublegroupbyall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries200 querytype"lastpoint" format"influx" gzip > /tmp/influx200querieslastpoint12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"groupbyorderbylimit" format"influx" gzip > /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz 说明 usecase, seed,scale,timestampstart 的值与上面步骤中生成写入数据时设置的值保持一致。 timestampend:数据生成结束后一秒。 queries:生成的查询数。 queriestype:生成的查询类型,具体模型含义参见下表。 4. 执行如下命令,查询性能,获取查询性能数据。 cat /tmp/influx20querieshighcpuall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx1000000queriessinglegroupby18112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10000 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesdoublegroupby112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx50queriesdoublegroupbyall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx200querieslastpoint12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT}
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        性能白皮书
        测试方法
      • 创建虚拟机配置模板
        参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 区域与默认迁移参数模板设置的区域相同,您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目。 虚拟私有云 选择“迁移时创建”是指在设置目的端时再进行配置。 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 子网 选择“迁移时创建”是指在设置目的端时再进行配置。子网网段与虚拟私有云网段相同。 安全组 选择“迁移时创建”是指在设置目的端时再进行配置。 Windows系统开放8899端口、8900端口和22端口。 Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 可用区 默认随机分配,也可手动选择。 数据盘 包括普通IO、高IO、超高IO可选。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        创建虚拟机配置模板
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 修改实例安全组
        本节主要介绍修改实例安全组。 操作场景 GeminiDB Influx支持修改安全组。 使用须知 对于进行节点扩容中的实例,不可修改安全组。 该功能目前处于公测阶段,如需使用,请您联系客服申请开通。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB Influx 接口”。 3. 在“实例管理”页面,选择指定的实例,单击实例名称。 4. 在左侧导航树,单击“连接管理”。 5. 在“内网安全组”区域,单击,选择实例所属安全组。 单击,提交修改。此过程约需1~3分钟。 单击,取消修改。 6. 稍后可在“安全组”区域,查看修改结果。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        连接管理
        修改实例安全组
      • 恢复备份到新实例
        恢复副本集备份到新实例 文档数据库服务支持使用已有的自动备份或手动备份恢复实例数据到新建实例,恢复后的数据与该备份生成时的实例数据一致。 选择通过备份文件恢复到实例上,会从OBS备份空间中将该备份文件下载到实例上进行全量恢复,恢复时长和实例的数据量有关,平均恢复速率为40MB/s。 使用须知 账户余额大于等于0元,才可恢复到新实例。新实例将作为用户新创建的实例进行收费。收费详情请参见计费说明。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的副本集实例,单击实例名称。在左侧导航树中选择“备份恢复”,选择需要恢复的备份,单击“恢复”。 恢复副本集备份 您也可以在“实例管理”页面,选择左侧导航树中的“备份管理”。在“备份管理”页面,选择“副本集”页签下需要恢复的备份,单击“恢复”。 恢复副本集备份 步骤 5 在恢复实例弹框中选择恢复到“新实例”,单击“确定”。 恢复副本集备份到新实例 步骤 6 跳转到“恢复到新实例”的服务选型页面,为用户重新创建一个和该备份数据相同的实例。恢复成功的新实例是一个独立的实例,与原有实例没有关联。 创建新实例时选择与原实例不同的可用区,保障应用程序不受单一位置故障的影响,提高数据的可靠性。 版本类型、实例类型、兼容MongoDB版本、存储引擎以及存储类型,与原实例相同,不可修改。 存储空间默认和原实例相同,可修改,但只可增加不可减小。 其他参数默认,用户需设置。 新实例创建成功后,系统会自动执行一次全量备份。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到新实例
      • 查看监控指标
        操作场景 监控管理控制台提供了对DRDS实例的监控管理,您可以根据实时监控监控反馈结果,对数据库进行调优。 前提条件 成功登录分布式关系型数据库服务控制台。 已创建DRDS实例、逻辑库。 操作步骤 1、 登录分布式关系型数据库控制台。 2、在“实例管理”页面,点击目标实例的“查看监控指标”,进入云监控服务页面。 3、选择目标实例,单击实例名称左侧的 ,单击操作列的“查看监控指标”。 查看监控指标 您可在云监控服务页面查看指标。 1. 在>“云服务监控”导航栏,获取云服务监控列表信息。 2. 选择您所需查看的实例名称,单击可展开当前实例下节点信息列表,并在目标实例节点右侧操作栏单击“查看监控指标”,进入该节点监控指标详情页面。 您可在监控指标信息页面,根据时间范围查看各项指标详细信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        监控管理
        查看监控指标
      • 切换可用性策略
        本章节介绍如何切换主备实例的可用性策略。 操作场景 关系型数据库服务支持切换主备实例的可用性策略,以满足不同业务需求。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的主备实例,单击主实例名称。 步骤 5 在“基本信息”,在“数据库信息”模块的“切换策略”处,单击“修改”,在弹出框中,选择策略,单击“确定”,完成修改。 可靠性优先(默认选择):数据库应该尽可能保障数据的可靠性,即数据丢失量最少。对于数据一致性要求较高的业务,建议选择该策略。 可用性优先:数据库应该可快恢复服务,即可用时间最长。对于数据库在线时间要求较高的业务,建议选择该策略。 步骤 6 在实例的“基本信息”页面,查看修改结果。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库实例
        切换可用性策略
      • 用量统计
        本章节为媒体存储用量统计概述。 使用场景 用户可以在控制台上数据统计菜单页面查看使用情况,并可指定查询的时间范围。目前支持对象存储与文件存储的使用情况查询。 对象存储可查看所有已开通的区域汇总情况、指定区域情况或单个Bucket使用情况,统计项包括: 存储空间:存储空间变化曲线/列表。 流量:公网下行流量、公网上行流量、内网下行流量、内网上行流量、CDN回源上行流量、CDN回源下行流量的变化曲线。 请求状态详情:总请求次数、有效请求次数、2XX、4XX、5XX请求次数以及占比情况。 请求次数:PUT、POST、GET、DELETED以及其他请求次数变化曲线/列表。此处请求次数仅统计返回状态码为2XX的请求。 文件存储可查看指定区域情况,统计项包括: 存储空间:存储空间变化曲线/列表。 使用说明 其中所有的列表数据均可导出。 按照时间段搜索时,起始时间与结束时间间隔时间最多支持31天。 请注意受采集时间及图表精度限制,所列数据仅供参考,不作为账目依据。 使用方式 操作途径 使用方法 控制台 可参考:用量统计。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        用量统计
      • 恢复集群版实例备份
        本页介绍了如何恢复集群版实例备份。 备份点恢复 恢复到已有实例 文档数据库服务产品支持对集群规格实例的备份数据集进行数据恢复到已有实例操作,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”的集群规格实例的实例名称,进入到该实例详情页。 4. 点击选择“备份恢复”页,或者点击左侧的“备份管理”菜单。 5. 进入到备份数据集列表,选择对应的备份数据集,在“操作”列,点击“恢复”按钮。 6. 在弹出的“备份点恢复”弹窗中,选择“已有实例”按钮,选择目标实例,点击“确定”按钮(部分资源池为“提交”按钮),等待数据恢复完成。 恢复到新实例 文档数据库服务产品支持对集群规格实例的备份数据集进行数据恢复到新实例操作,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”的集群规格实例的实例名称,进入到该实例详情页。 4. 点击选择“备份恢复”页,或者点击左侧的“备份管理”菜单。 5. 进入到备份数据集列表,选择对应的备份数据集,在“操作”列,点击“恢复”按钮。 6. 在弹出的“备份点恢复”弹窗中,选择“新实例”按钮,点击“确定”按钮,进入“文档数据库恢复”页面。 7. 填写好需要恢复的新实例的基础配置,实例规格, 网络配置等信息,即可完成恢复操作。 时间点恢复
        来自:
        帮助文档
        文档数据库服务
        用户指南
        恢复管理
        恢复集群版实例备份
      • 数据库实例类型
        本章介绍天翼云关系型数据库的产品类型有哪些。 数据库实例是关系型数据库的最小管理单元。一个实例代表了一个独立运行的关系型数据库。您可以在一个实例中创建和管理多个数据库,并且可以使用与独立访问数据库实例相同的工具和应用进行访问。使用管理控制台或API可以方便地创建或者修改数据库实例。关系型数据库服务对运行实例数量没有限制,但每个数据库实例都有唯一的标识符。 实例可进行如下分类: 表 实例类型 实例类型 简介 使用说明 ::: 单机实例 采用单个数据库节点部署架构。与主流的主备实例相比,它只包含一个节点,但具有高性价比。 单机版出现故障后,无法保障及时恢复。 主备实例 采用一主一备的经典高可用架构,主备实例的每个节点的规格保持一致。 备机提高了实例的可靠性,创建主机的过程中,会同步创建备机,备机创建成功后,用户不可见。 当主节点故障后,会自动发生主备切换,数据库客户端会发生短暂中断,数据库客户端需要支持重新连接。 只读实例 采用单个物理节点的架构(没有备节点)。 只读实例是单机版本,当物理机故障或者数据库复制异常后,需要较长时间重建和恢复(取决于数据量)。 集群版实例 采用微软AlwaysOn高可用架构,支持1主1备5只读集群模式,拥有更高可用性,可靠性,可拓展能力。 仅限 RDS for SQL Server使用。 RDS for SQL Server 2017企业版支持只读实例。 用户可以在关系型数据库系统中自助创建及管理各种数据库引擎的实例。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        数据库实例类型
      • 管理类
        CNAME记录多长时间可以生效? 这取决于您在当前的域名服务提供商设置的域名记录超时时间,以及当前域名服务提供商NS记录刷新的时间。一般情况,NS记录的刷新不会超过48小时。 CNAME解析变更提示冲突怎么办? 对于同一个主机记录,CNAME解析记录值只能填写一个。不同DNS解析记录类型间存在冲突。例如,对于同一个主机记录,CNAME记录与A记录、MX记录、TXT记录等其他记录互相冲突。在无法直接修改记录类型的情况下,您可以先删除存在冲突的其他记录,再添加一条新的CNAME记录。 修改CNAME后发现界面有拦截信息 根据拦截页面的联系方式联系电信724小时值班人员处理或者微信沟通群(提供拦截截图及相关ID信息)。 修改CNAME后发现访问变慢 需工程师抓包查看从发送请求到接收响应时间差;客户侧同时抓包查看接收请求到发送响应时间差,对比分析排查访问延迟出现的问题原因。 修改CNAME后发现网站无法访问 1. 域名解析有问题,访客清除DNS缓存或者修改DNS解决。 2. SYN重传或request重传,需确认Web应用防火墙发送的SYN客户侧是否有接收到。客户侧协助抓包定位是否接收到SYN并且响应SYN ACK。 源站服务器侧响应异常怎么办? 若是源站服务器侧直接响应回复的异常信息,云WAF拦截导致的访问异常是不会有服务器侧的响应的,类似“请勿重复提交”“上传失败”这样的弹窗应属于服务器响应,不是云WAF拦截导致的,如这样大规模的访问异常需要排查一下应用服务器的工作状态(例如进程、CPU、内存、Web日志等)是否存在异常并修复异常。
        来自:
        帮助文档
        Web应用防火墙
        常见问题
        管理类
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 标签管理
        本节主要介绍标签管理。 操作场景 标签管理服务(Tag Management Service,简称TMS)用于用户在云平台,通过统一的标签管理各种资源。标签管理服务与各服务共同实现标签管理能力,标签管理服务提供全局标签管理能力,各服务维护自身标签管理 。 为GeminiDB Redis实例添加标签,可以方便用户识别和管理拥有的GeminiDB Redis资源。您可以在创建实例时添加标签,也可以在实例创建完成后,在实例详情页添加标签。 标签添加成功后,您可以通过搜索标签键或值,快速查询关联的资源信息。 使用须知 建议您先在标签管理服务系统中设置预定义标签。 标签由“键”和“值”组成,每个标签中的一个“键”只能对应一个“值”。关于标签键和标签值的命名规则,请参见表234。 每个实例默认最多支持10个标签配额。 标签命名需要满足下表规则。 表 命名规则 参数 规则 示例 标签键 不能为空。 对于每个实例,每个标签的键唯一。 长度不超过36个字符。 只能包含数字、英文字母、下划线、中划线和中文。 Organization 标签值 可以为空。 长度不超过43个字符。 只能包含数字、英文字母、下划线、点、中划线和中文。 nosql01 添加标签 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,选择目标实例,单击实例名称,进入“基本信息”页面。 3、在左侧导航树,单击“标签”。 4、在“标签”页面,单击“添加标签”,在弹出框中,输入标签键和标签值,单击“确定”。 添加成功后,您可在当前实例的所有关联的标签集合中,查询并管理自己的标签。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        变更实例
        标签管理
      • Eureka FAQ
        问题现象 您已经试图将服务消费者和服务提供者注册到Eureka,但服务消费者获取不到提供者地址,报错Load balancer does not have available server for client: {yourservicename},如下图所示。 问题原因 服务名为{yourservicename}的服务在Eureka中不存在或健康状态不为健康。 解决方案 检查您服务名为{yourservicename}的服务注册情况。确保客户端成功注册,注册成功后,客户端将打印如下日志。 注册完成后,到Eureka控制台再次确认服务的注册情况,在服务管理服务列表可以看到注册的服务,点击服务详情,可以查看对应的ip端口信息。 当服务消费者和服务提供者均在Eureka注册成功,在控制台服务列表中显示时,服务调用才有可能成功。 如何解决消费者无法获取最新提供者信息的问题? 问题现象 您已经试图将服务消费者和服务提供者注册到Eureka,且在Eureka控制台已确保服务被成功注册,但仍报错Load balancer does not have available server for client: {yourservicename},如下图所示。 或是您的服务提供者信息(如:地址)发生了变化,但消费者从服务端获取到的仍为旧信息,导致服务调用失败。 问题原因 正常配置下,Eureka客户端会以一定的时间间隔定期向服务端获取服务的增量更新信息。当服务消费者端的数据获取间隔(eureka.client.registryfetchintervalseconds)设置过长时,消费者将无法及时感知到服务端最新数据的更新。
        来自:
        帮助文档
        微服务引擎
        常见问题
        注册配置中心
        Eureka FAQ
      • 设置高频爬虫限制
        本文将向您介绍如何使用边缘安全加速平台安全与加速服务提供的高频爬虫限制功能。 功能介绍 以 Cookie 为粒度进行统计,防止攻击者盗用合法 Cookie 进行大量请求,通过限制不同统计粒度下访问次数防护爬虫。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 购买Bot防护扩展服务,支持Bot防护相关功能。 操作步骤 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【Bot防护】菜单,并在左侧域名列表选择您要防护的域名。 3. 进入防护能力客户端风险识别【高频爬虫限制】详细设置页。 配置说明 支持配置多个防护条件,最多支持配置5条,多个条件为或关系。 处理动作:支持拦截、告警、关闭。 统计粒度:IP/跳转Cookie/静态Cookie。 触发条件:达到触发条件的请求将对其执行处理动作。在【统计周期】内,请求数超过【N】次,将执行处理动作。 处理时长:支持配置处理动作持续时长(触发规则后的惩罚时间),单位支持天、时、分。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        Bot防护
        设置高频爬虫限制
      • 1
      • ...
      • 285
      • 286
      • 287
      • 288
      • 289
      • ...
      • 721
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      应用托管

      动作活体识别

      通用型OCR

      身份证识别

      推荐文档

      mstsc 远程登录报错-要求的函数不受支持

      安全类问题

      JAVA API

      篡改告警分析

      产品定义

      邀请参会方

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号