云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      专属云容器引擎_相关内容
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 配置登录白名单
        本小节介绍配置登录白名单。 通过配置目标服务器IP、登录端IP以及登录端用户名完成登录白名单添加,添加后HSS对白名单内IP、用户名的登录、访问行为进行忽略。 注意 配置的目标服务器IP、登录端IP以及登录端用户名需同时满足白名单配置的信息,检测时才会忽略。 如果将已经产生告警的目标IP通过添加登录告警白名单方式加入白名单,加入白名单之后的检测会对目标IP进行忽略,但已经产生的告警不会自动放行,仍需对告警进行处理,处理详情请参见查看入侵告警事件。 您可以通过以下两种方式添加登录白名单: 处理告警事件时,将“帐户暴力破解”和“帐户异常登录”类型的告警事件加入到登录白名单,详细信息请参见入侵告警事件。 在“登录白名单”页面,添加登录白名单。 约束限制 需开启旗舰版、网页防篡改版、容器版任一防护版本。 添加登录告警白名单 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、选择“入侵检测 > 白名单管理 > 登录白名单”,进入“白名单管理”页面,单击“添加”。 4、在“添加登录安全白名单”对话框中,输入“服务器IP”、“登录IP”和“登录用户名”。 添加登录安全白名单 登录安全白名单参数说明 参数名称 参数说明 取值样例 服务器IP 支持IPv4地址。 支持单个IP、IP范围、IP掩码,以英文逗号分隔。 192.168.1.1 192.168.2.1192.168.6.1 192.168.7.0/24 登录IP 登录用户名 当前登录用户名。 hsstest 5、单击“确认”,完成登录白名单的添加。
        来自:
        帮助文档
        企业主机安全
        用户指南
        入侵检测
        白名单管理
        配置登录白名单
      • 操作系统类
        本章节主要介绍物理机的操作系统类的问题。 物理机操作系统是否有图形界面? 当前提供的Linux操作系统是命令行界面,用户如果需要可以自己设置图形管理。或者订制专属物理机镜像。 物理机操作系统自带上传工具吗? 物理机操作系统没有自带的上传工具,需要用户自行安装和配置,例如FTP。 如何设置物理机的静态主机名? 问题描述 Linux物理机的静态主机名来源于创建物理机时,通过控制台注入的用户自定义名称。可以使用控制台或hostname命令更改物理机的主机名,但如果重启物理机,将自动还原为控制台上注入的用户自定义名称。 使用hostname命令修改Linux物理机的主机名后,如果您希望修改后的主机名在物理机关机、重启后仍然生效,需要将其写入相应的配置文件中,使之永久生效。 假设使用hostname 命令修改后的主机名为 newhostname 。 步骤 1 修改配置文件“/etc/hostname”。 1.执行以下命令,编辑配置文件“/etc/hostname”。 sudo vim /etc/hostname 2.将配置文件中的主机名替换为修改后的主机名newhostname。 3.执行以下命令,保存并退出文件。 :wq 步骤 2 对于RHEL/CentOS/Fedora 6操作系统,需要修改配置文件“/etc/sysconfig/network”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network”。 sudo vim /etc/sysconfig/network 2.修改涉及“HOSTNAME”的参数值,将其设置为修改后的主机名newhostname。 HOSTNAMEnewhostname 3.执行以下命令,保存并退出文件。 :wq 步骤 3 修改配置文件“/etc/cloud/cloud.cfg”。 1.执行以下命令,编辑配置文件“/etc/cloud/cloud.cfg”。 sudo vim /etc/cloud/cloud.cfg 2.按需选择如下两种方法,修改配置文件。 方法一 :修改或添加“preservehostname”参数项。 如果文件“/etc/cloud/cloud.cfg”中已有参数项“preservehostname: false”,将其修改为“preservehostname: true”即可。 如果文件“/etc/cloud/cloud.cfg”中没有该参数项,需要在“cloudinitmodules”模块前,添加语句preservehostname: true。 方法二 :删除或者注释如下语句。 updatehostname 3.执行以下命令,保存并退出文件。 :wq 步骤 4 修改物理机网络配置脚本“bmsnetworkconfig.conf”。 “bmsnetworkconfig.conf”的配置参数“enablepreservehostname”默认为False,表示每次单板复位自动刷新主机名。将其修改为True即可关闭该功能。 1.编辑网络配置脚本“bmsnetworkconfig.conf”,将参数项“enablepreservehostname”设置为True。 首先进入配置文件目录: cd /opt/huaw/networkconfig sed i 's/enablepreservehostname./enablepreservehostname True/g' bmsnetworkconfig.conf 步骤 5 对于SUSE系列操作系统,还需要修改配置文件“/etc/sysconfig/network/dhcp”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network/dhcp”。 sudo vim /etc/sysconfig/network/dhcp 2.将参数项“DHCLIENTSETHOSTNAME”设置为no,保证每次dhcp服务不会自动分配主机名。 DHCLIENTSETHOSTNAME"no" 3.执行以下命令,保存并退出文件。 :wq 步骤 6 执行以下命令,重启物理机。 sudo reboot 步骤 7 执行以下命令,验证静态主机名的修改是否永久生效。 sudo hostname 如果回显的内容是修改后的主机名newhostname,表示主机名修改成功,永久生效。
        来自:
        帮助文档
        物理机 DPS
        常见问题
        操作系统类
      • 设置应用组件实例伸缩策略
        参数 参数说明 策略名称 请输入伸缩策略的名称。 策略类型 选择“告警策略”。 指标 选择“指标”。指标是对资源性能的数据描述或状态描述。 CPU使用率:该指标用于统计测量对象的CPU使用率。应用实际使用的与申请的CPU核数量比率。 物理内存使用率:该指标用于统计测量对象已使用内存占申请物理内存总量的百分比。 磁盘读取速率:该指标用于统计每秒从磁盘读出的数据量。 物理内存总量:该指标用于统计测量对象申请的物理内存总量。 数据接收速率:该指标用于统计测量对象每秒钟接收的数据量。 磁盘写入速率:该指标用于统计每秒写入磁盘的数据量。 物理内存使用量:该指标用于统计测量对象实际已经使用的物理内存。 CPU内核总量:该指标用于统计测量对象申请的CPU核总量。 数据发送速率:该指标用于统计测量对象每秒钟发送的数据量。 容器错包个数:该指标用于统计测量对象收到错误包的数量。 CPU内核占用:该指标用于统计测量对象已经使用的CPU核个数。 触发条件 设置“触发条件”,在对应条件下触发伸缩策略。 监控周期 设置“监控周期”,触发指标周期统计。 比如设置为20秒,表示每20秒统计一次。 连续周期 设置“连续周期”。连续周期是指监控周期内连续触发阈值的次数。 比如设置为3,则表示指标数据连续三个监控周期达到了设定的阈值,则触发策略动作。 执行操作 选择“增加”或“减少”实例数,设置策略触发后执行的动作。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        设置应用组件实例伸缩策略
      • WEB场景防护
        本章节介绍WEB场景防护功能 WEB场景防护 Web场景防护功能是一种用于保护提供Web服务的应用程序的防护机制,可以对访问请求中的参数项进行精细化的流量控制。该功能可以用于处理使用主流Web框架(如Servlet容器、Spring Web、SpringBoot)的应用程序,并配置了API粒度的请求参数解析,以便对请求中的IP地址、主机名、头部信息和URL参数等参数维度进行流量控制。通过这种控制,可以保护应用程序和系统的稳定性。 背景信息 在提供Web服务的场景中,除了API维度的限流降级防护,对于来源IP和访问参数等资源调用的限流防护可以更好地保证业务应用的正常运行。在一些大流量的Web业务场景下,可能需要对多个接口进行限制,以保证系统的稳定性。通过对当前访问频次最高的来源IP或访问频次最高的商品序号进行有针对性的限制,可以有效地保护系统。比如: 对于一段时间内最频繁购买的商品序号,可以进行限制以防止击穿缓存导致大量请求到数据库。 对于一段时间内频繁大量访问的来源IP,可以进行限制以防止利用虚假信息恶意刷单。这样可以保证系统的稳定性和可靠性。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择流量防护 WEB场景 WEB流控,单击新增WEB防护规则。 5. 在新增WEB防护规则对话框,配置规则信息: 在选择防护场景页面,修改接口名称,然后单击下一步。 在配置防护规则页面,配置防护规则,然后单击下一步。 在配置防护行为页面,然后单击下一步并单击新增。 在下面规则列表的页面,选择对应的规则并在状态栏下单击开启。
        来自:
      • 工作负载伸缩原理
        CCE支持HPA策略和CustomedHPA策略两种工作负载伸缩方式。两种策略的对比如下: HPA和CustomedHPA策略对比 伸缩策略 HPA策略 CustomedHPA策略 实现方式 Kubernetes中实现POD水平自动伸缩的功能,即Horizontal Pod Autoscaling 弹性伸缩增强能力 策略规则 基于指标(CPU利用率、内存利用率),对无状态工作负载进行弹性扩缩容。 基于指标(CPU利用率、内存利用率)或周期(每天、每周、每月或每年的具体时间点),对无状态工作负载进行弹性扩缩容。 主要功能 在kubernetes社区HPA功能的基础上,增加了应用级别的冷却时间窗和扩缩容阈值等功能。 指标触发 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 周期触发 支持选择天、周、月或年的具体时间点或周期作为触发时间 说明: 伸缩策略优先级:手动伸缩和自动伸缩同时配置的情况下,在不执行手动伸缩时,资源调度以自动伸缩为准,伸缩按照监控信息自动触发,如果使用手动伸缩,自动伸缩会暂时失效。 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。 想要做到自动弹性伸缩,先决条件就是能感知到各种运行数据,例如集群节点、Pod、容器的CPU、内存使用率等等。而这些数据的监控能力Kubernetes也没有自己实现,而是通过其他项目来扩展Kubernetes的能力,CCE提供如下两个插件来实现该能力: []( " ")Prometheus是一套开源的系统监控报警框架,能够采集丰富的Metrics(度量数据),目前已经基本是Kubernetes的标准监控方案。 []( " ")Metrics Server是Kubernetes集群范围资源使用数据的聚合器。Metrics Server从kubelet公开的Summary API中采集度量数据,能够收集包括了Pod、Node、容器、Service等主要Kubernetes核心资源的度量数据,且对外提供一套标准的API。 使用HPA(Horizontal Pod Autoscaler)配合Metrics Server可以实现基于CPU和内存的自动弹性伸缩,再配合Prometheus还可以实现自定义监控指标的自动弹性伸缩。 HPA主要流程如下图所示。 HPA 的核心有如下2 个部分: 监控数据来源 最早社区只提供基于CPU和Mem的HPA,随着应用越来越多搬迁到k8s上以及Prometheus的发展,开发者已经不满足于CPU和Memory,开发者需要应用自身的业务指标,或者是一些接入层的监控信息,例如:Load Balancer的QPS、网站的实时在线人数等。社区经过思考之后,定义了一套标准的Metrics API,通过聚合API对外提供服务。 − metrics.k8s.io: 主要提供Pod和Node的CPU和Memory相关的监控指标。 − custom.metrics.k8s.io: 主要提供Kubernetes Object相关的自定义监控指标。 − external.metrics.k8s.io:指标来源外部,与任何的Kubernetes资源的指标无关。 扩缩容决策算法 HPA controller跟据当前指标和期望指标来计算缩放比例,计算公式如下: desiredReplicas ceil[currentReplicas ( currentMetricValue / desiredMetricValue )] 例如当前的指标值是200m,目标值是100m,那么按照公式计算期望的实例数就会翻倍。那么在实际过程中,可能会遇到实例数值反复伸缩,导致集群震荡。为了保证稳定性,HPA controller从以下几个方面进行优化: − 冷却时间:在1.11版本以及之前的版本,社区引入了horizontalpodautoscalerdownscalestabilizationwindow和horizontalpodautoScalerupscalestabilizationwindow这两个启动参数代表扩容冷却时间和缩容冷却时间,这样保证在冷却时间内,跳过扩缩容。1.14版本之后引入延迟队列,保存一段时间内每一次检测的决策建议,然后根据当前所有有效的决策建议来进行决策,从而保证期望的副本数尽量小的发生变更,保证稳定性。 − 忍受度:可以看成一个缓冲区,当实例变化范围在忍受范围之内的话,保持原有的实例数不变。 首先定义ratio currentMetricValue / desiredMetricValue 当ratio – 1.0 tolerance时, 就会根据之前的公式计算期望值。 当前社区版本中默认值为0.1 由于当前冷却时间窗,忍受度都是全局的参数,对于用户来说,可能应用所需的忍受度和冷却时间窗都不一致,所以当前CCE在社区的基础上,提供应用级别的忍受度和冷却时间窗。 HPA是基于指标阈值进行伸缩的,常见的指标主要是 CPU、内存,当然也可以通过自定义指标,例如QPS、连接数等进行伸缩。但是存在一个问题:基于指标的伸缩存在一定的时延,这个时延主要包含:采集时延(分钟级) + 判断时延(分钟级) + 伸缩时延(分钟级)。这个分钟级的时延,可能会导致应用CPU飚高,相应时间变慢。为了解决这个问题,CCE提供了定时策略,对于一些有周期性变化的应用,提前扩容资源,而业务低谷时,定时回收资源。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        工作负载弹性伸缩
        工作负载伸缩原理
      • 为Pod配独占网卡和固定IP及独立子网、安全组
        可选步骤1:创建自定义资源EniCfg(可实现Namespace或Pod粒度子网和安全组配置) 通过创建EniCfg,可通过selector方式为某些Pod或某些Namespace下的Pod在新建时指定使用的子网和安全组。若无EniCfg,Pod将使用默认的子网和安全组。创建方式如下: 1. 登录容器服务管理控制台,在集群列表页面单击目标集群名称; 2. 在左侧导航栏,选择工作负载 > 自定义资源; 3. 在自定义资源页面,选择资源对象浏览器,API组选择network.ccse.ctyun.cn > v1 > ElasticNetworkInterfaceConfiguration,单击新增; 创建EniCfg的示例如下: plaintext apiVersion: network.ccse.ctyun.cn/v1 kind: ElasticNetworkInterfaceConfiguration metadata: name: elasticnetworkinterfaceconfigurationsample spec: type: binding idleTimeout: 600 cascadingDelete: false priority: selector: podSelector: matchLabels: foo: bar namespaceSelector: matchLabels: foo: bar subnets: ENI使用的子网列表 subnet1 subnet2 securityGroups: ENI使用的安全组列表 sg1 sg2 参数说明如下: 参数 说明 type 取值范围: binding:独占ENI策略,Pod删除后,ENI被释放 fixed:固定ENI(IP)策略,Pod删除后,ENI会保留一段时间,仅用于有状态集(StatefulSet) idleTimeout 空闲超时时间。当Pod删除后,对应ENI资源的保留时间,默认10h,当type为fixed时生效 cascadingDelete 是否级联删除。当Pod删除后,若对应有状态集已删除,是否级联删除对应ENI,默认为false,当type为fixed时生效 priority 优先级。若有多个EniCfg匹配同个Pod,值越小的EniCfg优先使用 selector 取值范围: podSelector:Pod选择器。用来匹配Pod的标签,匹配的Pod在创建时将使用该EniCfg,和namespaceSelector是“与”关系 namespaceSelector:Namespace选择器。用来匹配Namespace的标签,匹配的Namespace下,Pod创建时将使用该EniCfg,和podSelector是“与”关系 subnets 子网ID列表。用于配置Pod使用的子网,多个子网间是“或”的关系,此时Cubecni将选择一个符合条件的子网 securityGroups 安全组ID列表。可配置多个Pod ENI使用的安全组,最终生效的安全组数量小于等于5个 4. 点击创建EniCfg资源后,Cubecni会同步网络配置信息,当该自定义资源status为Ready后,才能对新建的Pod生效。 plaintext [root@test
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        为Pod配独占网卡和固定IP及独立子网、安全组
      • metrics-server
        从Kubernetes 1.8开始,Kubernetes通过Metrics API提供资源使用指标,例如容器CPU和内存使用率。这些度量可以由用户直接访问(例如,通过使用kubectl top命令),或者由集群中的控制器(例如,Horizontal Pod Autoscaler)使用来进行决策,具体的组件为MetricsServer,用来替换之前的heapster,heapster从1.11开始逐渐被废弃。 Metrics Server是集群核心资源监控数据的聚合器,您可以在CCE控制台中快速安装本插件。 社区官方项目及文档: 约束与限制 仅支持v1.13及以上版本的CCE集群安装本插件。 安装插件 安装本插件后,可在“弹性伸缩”页面的“工作负载伸缩”页签下,创建HPA策略,具体请参见创建工作负载弹性伸缩(HPA)。 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件市场”页签下,单击“metricsserver”下的“安装插件”按钮。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 该插件可配置“单实例”或“高可用”规格,选择后单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击“metricsserver”下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级“metricsserver”插件时,会替换原先节点上的旧版本的“metricsserver”插件,安装最新版本的“metricsserver”插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 参考安装插件中参数说明配置参数后,单击“升级”即可升级“metricsserver”插件。 卸载插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击“Metrics Server”下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        metrics-server
      • gpu-beta
        插件简介 gpubeta插件是支持在容器中使用GPU设备的管理插件,仅支持Nvidia驱动。 约束与限制 安装gpubeta插件的集群中必须包含GPU节点。 下载的驱动必须是后缀为“.run”的文件。 须知: 若下载链接为公网地址,如Nvidia官网,各GPU节点均需要绑定EIP。 若下载链接为对象存储上的链接,无需绑定EIP 。 请确保Nvidia驱动版本与GPU节点适配。 更改驱动版本后,需要重启节点才能生效。 获取驱动链接 步骤 1 登录到 安装插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”。在“插件市场”页签下,单击gpubeta插件下的“安装插件”。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 在规格配置页面,配置驱动链接地址。如何获取驱动链接,请参考获取驱动链接公网地址.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        gpu-beta
      • 节点亲和性
        通过控制台设置 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”或“工作负载 > 有状态负载 StatefulSet”。 步骤 2 在无状态工作负载或有状态工作负载列表中,单击工作负载名称进入详情页,在“调度策略”页签下,单击 “自定义调度策略”。 步骤 3 在节点亲和性设置中,依据节点中的标签进行业务需求的设置。 须知:节点亲和性调度支持必须满足和尽量满足(硬约束Required/软约束Preferred),以及可以设置相应的匹配关系(In, NotIn, Exists, DoesNotExist, Gt, and Lt): 必须满足:即硬约束,设置必须要满足的条件,对应于requiredDuringSchedulingIgnoredDuringExecution,您可以添加多条必须满足的规则,多条规则间是一种“或”的关系,即只需要满足一条规则即会进行调度。 尽量满足:即软约束,设置尽量满足的条件,对应于preferredDuringSchedulingIgnoredDuringExecution,您可以添加多条尽量满足的规则,无论是满足其中一条或者是都不满足都会进行调度。另外可以为规则设置权重值,权重值越高会被优先调度。 选择器:对应于matchExpressions,您可以添加多条选择器,多条选择器之间是一种“与”的关系,即需要满足全部选择器才能依据此条规则进行调度。 标签名:对应节点的标签,可以使用默认的标签也可以用户自定义标签。 匹配关系:即操作符,可以设置六种匹配关系(In, NotIn, Exists, DoesNotExist. Gt, and Lt)。In和NotIn操作符可以添加单个值或者多个value值(多值使用;进行划分),Exists和DoesNotExist判断某个label是否存在,不需设置value值。Gt和Lt判断label的值大于或者小于某个值(value值要求整数)。 通过kubectl命令行设置 本节以nginx为例,创建节点的亲和性。 前提条件 已有使用nginx容器的工作负载和节点。 操作步骤 使用内置节点标签kubernetes.io/hostname,并添加相应的节点,同时设置操作符为In,最后单击“确定”提交。 设置后的工作负载节点亲和性所得的yaml如下: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx namespace: default spec: replicas: 2 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: imagePullSecrets: name: defaultsecret affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: matchExpressions: key: kubernetes.io/hostname operator: In values: 192.168.6.174
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        亲和/反亲和性调度
        自定义调度策略
        节点亲和性
      • 使用Elasticsearch、Kibana实例以及Logstash搭建日志分析平台
        本文介绍如何使用云搜索Elasticsearch、Kibana、Logstash实例搭建日志分析平台。 使用ELK Stack(Elasticsearch、Logstash、Kibana、Beats)进行日志管理是一种流行的开源解决方案,用于集中式日志收集、存储、分析和可视化。ELK Stack可以从分布式系统中采集和聚合日志,帮助运维和开发人员更好地理解系统的运行状态、排查问题并监控关键业务指标。 本文将使用Filebeat、Logstash、Elasticsearch、Kibana搭建一个简单的日志分析平台,其中需要自行部署Filebeat并且打通和天翼云云搜索Elasticsearch、Kibana以及Logstash实例之间的网络。 ELK Stack组件 Elasticsearch 是一个分布式搜索引擎,作为ELK堆栈的核心,它负责存储和索引日志数据。Elasticsearch提供强大的全文搜索、过滤和分析功能,可以快速处理大规模数据并允许实时查询。 Logstash 是一个数据处理管道工具,负责从各种输入源收集数据,进行过滤、处理并将其输出到 Elasticsearch。Logstash 支持多种数据源(如文件、数据库、消息队列),并且能够通过过滤器对数据进行处理,比如解析、格式转换等。 Kibana 是一个数据可视化和分析工具,允许用户在浏览器中直观地查询和展示Elasticsearch 中存储的日志数据。Kibana提供多种图表、仪表盘和地图,可以帮助用户监控系统、分析日志、生成报表等。 Beats是一组轻量级数据收集器,用于将各种类型的数据发送到Elasticsearch或Logstash进行索引和分析。其中Filebeat是 ELK Stack 中的一个轻量级日志数据收集器,用于收集日志文件数据。它监视指定的日志文件或位置,并将其发送到Elasticsearch或Logstash以进行存储和分析。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        使用Elasticsearch、Kibana实例以及Logstash搭建日志分析平台
      • 容灾策略
        分布式缓存Redis实例存储着大量业务关键数据,在数据库前端缓存、数据存储引擎等各类场景下,数据的可靠性与服务的连续可用性是客户考虑的重要因素。根据对数据与服务的不同可靠性要求,您可以选择将缓存实例部署在单可用区内(单机房),或者跨可用区(同城灾备)。 单资源池单可用区高可用 单可用区灾备策略主要包括进程/服务高可用与数据持久化到磁盘两个方面进行。在单个可用区内,单机或集群单机实例通过进程守护的方式来确保服务的高可用性。当分布式缓存系统监测到Redis实例的进程出现故障时,它会立即启动一个新的进程,以继续提供服务 标准版主备配置包括数据持久化功能,该功能不仅将数据持久化到主节点的磁盘上,还会进行增量同步到备节点,并且备节点也会独立地持久化一份数据。主节点负责处理日常的服务请求,但如果主节点发生故障并满足切换条件,检测进程会进行主备自动切换,即将备节点提升为新的主节点,以实现故障转移并保证高可用性,确保业务的平稳运行。对于原本故障的主节点,在其恢复后,其状态将被更新为备节点。 集群主备实例与标准主备实例类似,其中每个分片节点都拥有持久化文件,并且集群中的每个分片都有自己的主节点和备节点。每个分片独立进行主节点状态检测,如果某个分片的主节点发生故障且满足切换条件,检测进程将把备节点提升为新的主节点,即进行主备切换操作。原本故障的主节点在恢复后,其状态将被更新为备节点。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        安全
        容灾策略
      • 慢SQL
        本节主要介绍慢SQL。 该模块提供指定时间段内的慢SQL分析功能。从用户、IP、SQL模板等进行多维统计,展示统计结果并支持指定排序,识别慢SQL的精准来源,方便用户快速优化业务。 查看慢日志 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“慢SQL”,进入慢日志页面。 选择需要查看的时间段,查看该时间段内慢日志趋势、慢日志统计和慢日志明细。 慢日志趋势 在慢日志趋势图中单击某个时间点,查看该时间点的慢日志。 慢日志明细 在慢SQL页面下方查看慢日志明细。慢日志明细提供了当前时间段的慢日志详情,包含执行时间、SQL语句、库名、客户端、用户、执行耗时、锁等待耗时、扫描行、返回行等信息。 单击导出,将慢日志明细导出到指定OBS进行存储。慢日志明细导出成功后,可以单击“查看导出列表”,查看慢日志明细导出记录,也可以通过下载将慢日志明细下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。 慢日志统计 单击SQL模板操作列的“样本”,查看当前SQL模板的样本信息 。 在慢日志统计页面,单击“导出”将慢日志导出到指定的OBS进行存储。慢日志导出成功后,可以单击“查看导出列表”,查看慢日志导出记录,也可以通过下载将慢日志下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        PostgreSQL
        慢SQL
      • 数据加工
        数据过滤高级设置 如果需要使用关联表查询,可以使用数据加工的高级设置功能。 步骤 1 在“数据加工”页面选择“数据过滤”。 步骤 2 在“对象选择”区域选择需要加工的表对象。 步骤 3 在过滤条件区域,填写联表查询过滤条件,例如:id1 in (select id from db1.tab1 where id >3 and id <10),单击“校验”。 说明 每张表仅支持添加一个校验规则。 数据过滤每次最多支持500张表。 过滤表达式不支持使用某种数据库引擎特有的package、函数、变量、常量等写法,须使用通用SQL标准。请直接输入SQL语句中WHERE之后的部分(不包含WHERE和分号,例如:sid 3 and sname like "G %"),最多支持输入512个字符。 不支持对LOB字段设置过滤条件,如CLOB、BLOB、BYTEA等大字段类型。 建议不要对非精确类型字段设置过滤条件,如FLOAT、DECIMAL、DOUBLE等。 建议不要对带有特殊字符的字段设置过滤条件。 不建议使用非幂等表达式或函数作为数据加工条件,如SYSTIMESTAMP,SYSDATE等,因其每次调用返回的结果可能会有差异,导致达不到预期。 步骤 4 校验通过后,单击“生成加工规则”,即可在加工规则表格中看到该规则。 步骤 5 在“高级设置”中设置关联表的“配置条件”和“配置规则”,辅助您进行数据过滤。 1. 在“配置条件”中,根据在步骤3输入的过滤条件,填写关联表的相关信息。 “库名”、“表名”、“列名”、“主键”、“索引”和“过滤条件”均为必填项。如果该表没有索引,则填写主键。 “过滤条件”即在步骤3输入的该关联表的过滤条件。 2. 填写完成,单击“校验规则”。 3. 校验成功后,单击“生成配置规则”。即可在配置规则表格中看到该规则。 如果需要进行多张关联表的数据过滤,重复执行步骤5即可。 说明 配置规则支持删除操作。 步骤 6 检查无误后,单击“下一步”,进入下一步操作。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        对象管理
        数据加工
      • 作业开发类
        Spark作业的Client模式和Cluster模式有什么区别? 理解YARNClient和YARNCluster深层次的区别之前先清楚一个概念:Application Master。 在YARN中,每个Application实例都有一个ApplicationMaster进程,它是Application启动的第一个容器。它负责和ResourceManager打交道并请求资源,获取资源之后告诉NodeManager为其启动Container。从深层次的含义讲YARNCluster和YARNClient模式的区别其实就是ApplicationMaster进程的区别。 YARNCluster模式下,Driver运行在AM(Application Master)中,它负责向YARN申请资源,并监督作业的运行状况。当用户提交了作业之后,就可以关掉Client,作业会继续在YARN上运行,因而YARNCluster模式不适合运行交互类型的作业。 YARNClient模式下,Application Master仅仅向YARN请求Executor,Client会和请求的Container通信来调度工作,也就是说Client不能离开。 如何查看MRS作业的日志? MRS Console页面作业管理,每一条作业支持查看日志,包含launcherJob日志和realJob日志。 launcherJob作业的日志,一般会在stderr和stdout中打印错误日志,如下图所示: realJob的日志,可以通过MRS Manager中Yarn服务提供的ResourceManager Web UI查看。 1.登录集群Master节点,可获取上述作业的日志文件 ,具体hdfs路径为“/tmp/logs/ {submituser} /logs/ {applicationid} ”。 2.提交作业后,在Yarn的WEB UI未找到对应作业的applicationid,说明该作业没有提交成功,可登录集群主Master节点,查看提交作业进程日志“/var/log/executor/logs/exe.log”。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        作业开发类
      • 配置加密
        配置加密 MSE注册配置中心的配置数据一般都是以明文的格式存储,但是对于部分敏感数据可能需要加密存储和传输,通过SPI插件机制实现配置加密和解密,从而减少数据泄露风险。 创建加密配置 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表,单击实例ID 或者"管理"按钮跳转至基础信息页面; 3. 在基础信息页面,左侧菜单点击配置管理> 配置列表,选择命名空间,点击创建配置; 4. 在创建配置面板,开启数据加密开关,选择加密算法,默认为AES256加密算法; 5. 选择配置格式,填写配置内容,然后点击发布; 6. 加密配置默认dataId增加cipheraes前缀,在MSE管理控制台查看加密配置时看到的是解密后的明文; 存储加密配置 加密配置一旦被创建,将在Nacos数据库中被加密存储。加密算法与在控制台创建该配置时所选用的加密算法相吻合。 传输加密配置 若要实现加密配置的加密传输,客户端需要同时满足如下几个条件: 1,选用Java客户端,且客户端Javasdk版本大于等于2.1.0; 2,下载天翼云MSE客户端配置加密插件(点击下载); 3,业务侧配置maven依赖,用户可将插件依赖包先安装到本地maven仓库,在业务工程maven依赖中引入nacosaesencryptionplugin和nacosencryptionplugin依赖; xml com.ctg.mse nacosencryptionplugin 1.0.0 com.ctg.mse nacosaesencryptionplugin 1.0.0 4,在nacosclient下排除依赖开源nacosencryptionplugin包 xml com.alibaba.nacos nacosclient 2.1.0 com.alibaba.nacos nacosencryptionplugin 注意 当您使用Javasdk1.x版本客户端时,加密配置将被以明文形式传输,无法实现传输加密;当您使用Javasdk2.x版本客户端,但未同时满足上述两个条件时,加密配置将被以密文形式传输,但客户端在得到密文时,将无法对加密内容进行解密。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        Nacos
        配置加密
      • 基本概念
        本文介绍DRDS使用过程的一些常用概念。 计算节点 计算节点是负责执行数据处理和查询计算的节点。计算节点通常负责解析查询请求,执行数据库操作,进行数据的聚合、过滤、排序等计算操作,并最终返回查询结果。计算节点是数据库系统中的核心部分,负责处理客户端的查询请求,执行查询操作,以及在分布式环境下协调不同存储节点的数据处理。 存储节点 存储节点是负责存储实际数据的节点。在分布式数据库中,数据通常被水平拆分成多个数据分片,然后存储在不同的存储节点上。每个存储节点承担一部分数据,以实现数据的水平扩展,提高系统的性能和可伸缩性。 分片 分片(又称Sharding)是一种在分布式数据库中水平划分数据的概念。它将数据库中的数据拆分成多个较小的逻辑片段(也称为分片或分区),然后将这些分片分散存储在不同的存储节点上,以实现水平扩展和分布式存储。 schema 概念 schema即逻辑库,在后续介绍中将统称为schema,它类似于传统单体数据库中的数据库,是一个逻辑上的数据库容器。schema是多个数据库分片的集合。 介绍 对实际应用来说,并不需要知道分布式数据库中间件的存在,应用开发人员只需要知道数据库的概念,所以分布式数据库中间件可以被看做是一个或多个数据库集群构成的逻辑库。 DRDS实例的schema,包括所有逻辑表、分片规则、全局序列等数据,schema切分后形成多个分片,分布在多个存储节点上。 逻辑表
        来自:
        帮助文档
        分布式关系型数据库
        产品介绍
        常用概念
        基本概念
      • 开通事件总线EventBridge并委托授权
        使用事件总线EventBridge前,您需在产品页开通该服务。本文介绍如何开通事件总线EventBridge。如果您的账号为子用户,必须让天翼云账号为子用户进行授权,才能通过控制台或API访问相应的事件总线EventBridge资源。 前提条件 注册天翼云账号。 步骤一:开通事件总线EventBridge并委托授权 1. 登录天翼云官网,选择产品 > 容器与中间件 > 应用集成 > 事件总线 EventBridge。 2. 在事件总线EventBridge产品页,单击开通。 3. 请仔细阅读事件总线 EventBridge(按量付费)服务协议,选中事件总线 EventBridge(按量付费)服务协议,然后单击立即开通。 4. 开通服务后,账号未委托相关必要权限给事件总线时,需要先进行委托权限,详见服务内联委托管理。 5. 委托成功后,进入事件总线EventBridge管理控制台进行操作。 步骤二:(子账号必选)为子账号授权 1. 使用天翼云账号登录IAM控制台。 2. 在左侧导航栏,选择用户组。 在用户组页面,单击目标子账号用户组授权列的添加权限,详见主子账号和IAM权限管理。 3. 选择权限策略。 权限策略包括系统策略和自定义策略两种,您可以根据需要选择对应的权限策略。 事件总线EventBridge提供以下系统策略,您可以根据权限范围为RAM用户授予相应权限。 权限策略名称 说明 EventBridge admin 管理员权限策略,拥有事件总线EventBridge所有资源的读写权限 EventBridge user 普通用户策略,拥有事件总线EventBridge除订单相关操作之外对其他资源拥有读写权限 EventBridge publisher 拥有事件总线EventBridge事件的发送权限。 EventBridge viewer 只读权限策略,拥有事件总线EventBridge所有资源的只读权限
        来自:
        帮助文档
        事件总线
        快速入门
        开通事件总线EventBridge并委托授权
      • 使用CDN加速对网站的SEO有何影响
        本文解答使用CDN加速后网站的SEO排名出现波动的问题原因。 问题现象 使用CDN加速后网站的SEO排名出现波动。 问题原因 常见的搜索引擎爬虫有: 百度爬虫:Baiduspider;谷歌爬虫:Googlebot;360爬虫:360Spider;搜狗爬虫:Sogou News Spider;SOSO爬虫:Sosospider;雅虎爬虫:Yahoo! Slurp China;有道爬虫:YoudaoBot或者YodaoBot;MSN爬虫:msnbotmedia;必应爬虫:bingbot;一搜爬虫:YisouSpider;Alexa爬虫:iaarchiver;宜搜爬虫:EasouSpider;即刻爬虫:JikeSpider。 此类搜索引擎爬虫对站点的抓取方式和普通用户访问一样,只要普通用户能访问到的内容,它就可以抓取到。 正常情况(SEO排名提升) 1. 使用CDN之后,访问速度更快,对爬虫更友好,相对更容易被收录,SEO排名会上升。 2. 使用CDN之后,用户体验提升,访问人数增加,搜索引擎也就会更积极的爬取,SEO排名会上升。 异常情况(SEO排名下降) 1. 在CDN节点不稳定、或者受到恶意DDOS攻击、CC攻击出现更换IP地址的情况下。 2. 解析变更,由于DNS缓存问题或者爬虫本身的缓存问题,导致爬虫的访问到异常的旧节点IP,影响访问效果。 以上因素对SEO会有一定的影响,SEO排名可能会下降。 解决方案 1. 如发现是CDN节点不稳定,频繁出现更换IP导致的SEO排名下滑,可通过提交工单给天翼云客服,由其人工调整为稳定的CDN节点IP进行覆盖。 2. 如果发现是受到恶意攻击,频繁出现更换IP导致的SEO排名下滑,可通过天翼云官网购买安全加速类产品来应对攻击,保障业务稳定性,以恢复网站的SEO权重排名。 3. 因常规资源调整,而DNS或者爬虫本身缓存未过期,等待过期更新即可,如果是长期未更新的可反馈DNS、爬虫所有方处理。
        来自:
        帮助文档
        CDN加速
        故障排查
        使用CDN加速对网站的SEO有何影响
      • 使用全站加速后对网站SEO是否存在影响
        本文解答使用全站加速后网站的SEO排名出现波动的原因及解决方案。 问题现象 使用全站加速后网站的SEO排名出现波动。 问题原因 常见的搜索引擎爬虫有: 百度爬虫:Baiduspider;谷歌爬虫:Googlebot;360爬虫:360Spider;搜狗爬虫:Sogou News Spider;SOSO爬虫:Sosospider;雅虎爬虫:Yahoo! Slurp China;有道爬虫:YoudaoBot或者YodaoBot;MSN爬虫:msnbotmedia;必应爬虫:bingbot;一搜爬虫:YisouSpider;Alexa爬虫:iaarchiver;宜搜爬虫:EasouSpider;即刻爬虫:JikeSpider。 此类搜索引擎爬虫对站点的抓取方式和普通用户访问一样,只要普通用户能访问到的内容,它就可以抓取到。 正常情况(SEO排名提升) 使用全站加速之后,访问速度更快,对爬虫更友好,相对更容易被收录,SEO排名会上升。 使用全站加速之后,用户体验提升,访问人数增加,搜索引擎也就会更积极的爬取,SEO排名会上升。 异常情况(SEO排名下降) 在节点不稳定、或者受到恶意DDOS攻击、CC攻击出现更换IP地址的情况下。 解析变更,由于DNS缓存问题或者爬虫本身的缓存问题,导致爬虫访问到异常的旧节点IP,影响访问效果。 以上因素对SEO会有一定的影响,SEO排名可能会下降。 解决方案 如发现是节点不稳定,频繁出现更换IP导致的SEO排名下滑,可通过提交工单给天翼云客服,由其人工调整为稳定的节点IP进行覆盖。 如果发现是受到恶意攻击,频繁出现更换IP导致的SEO排名下滑,可通过天翼云官网购买安全加速类产品来应对攻击,保障业务稳定性,以恢复网站的SEO权重排名。 因常规资源调整,而DNS或者爬虫本身缓存未过期,等待过期更新即可,如果是长期未更新的可反馈DNS、爬虫所有方处理。
        来自:
        帮助文档
        全站加速
        常见问题
        其他类
        使用全站加速后对网站SEO是否存在影响
      • 在天翼云使用Ollama运行DeepSeek的最佳实践-7B等版本
        make sure the NVIDIA modules are loaded on boot with nvidiapersistenced if available nvidiapersistenced; then $SUDO touch /etc/modulesload.d/nvidia.conf MODULES"nvidia nvidiauvm" for MODULE in $MODULES; do if ! grep qxF "$MODULE" /etc/modulesload.d/nvidia.conf; then echo "$MODULE" $SUDO tee a /etc/modulesload.d/nvidia.conf > /dev/null fi done fi status "NVIDIA GPU ready." installsuccess 2. 执行安装 plaintext bash installollama.sh 如下显示则为安装成功。 3. 测试ollama服务安装情况 plaintext ollama ps 2. 下载模型 天翼云镜像站也为常见镜像提供了加速能力,包括1.5B7B14B70B671B 等相关模型,可以通过如下手段体验其他模型,以14B 模型为例: plaintext mkdir deepseekr114b cd deepseekr114b wget wget ollama create deepseekr1:14b f ModelFile 如果你想体验其他模型,也可以直接通过ollama下载。 plaintext ollama pull deepseekr1:14b 3. 使用ollama运行模型 plaintext ollama run deepseekr1:14b 4. 通过web界面进行交互 1. 安装openwebui plaintext docker pull ghcr.io/openwebui/openwebui:main 2. 启动容器 plaintext docker run d nethost e PORT3000 e OLLAMABASEURL e ENABLESIGNUPtrue e ENABLEOPENAIAPIFalse v openwebui:/app/backend/data name openwebui restart always ghcr.io/openwebui/openwebui:main 后续请参考上文“快速体验DeepSeek——步骤二:使用deepseek模型” 。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        在天翼云使用Ollama运行DeepSeek的最佳实践-7B等版本
      • 卸载磁盘
        前提条件 对于Windows弹性云主机,在线卸载云硬盘前,请确保没有程序正在对该云硬盘进行读写操作。否则,将造成数据丢失。 对于Linux弹性云主机,在线卸载云硬盘前,客户需要先登录弹性云主机,执行umount命令,取消待卸载云硬盘与文件系统之间的关联,并确保没有程序正在对该云硬盘进行读写操作。否则,卸载云硬盘将失败。 卸载非共享云硬盘 1、登录管理控制台。 2、选择“存储 > 云硬盘”。 进入“云硬盘”页面。 3、卸载云硬盘之前是否要先查看云硬盘挂载的云主机信息。 1.是,执行以下操作。 a.在云硬盘列表中,单击待卸载的云硬盘名称。进入云硬盘详情页面。 b.在“云主机”页签下,您可以查看当前云硬盘挂载的云主机。 c.勾选选择云主机,单击“卸载”。弹出“卸载”对话框。 d.单击“确定”,卸载云硬盘。 2.否,执行以下操作。 a.在云硬盘列表中,单击待卸载云硬盘所在行“操作”列下的“更多卸载”。弹出“卸载”对话框。b. 单击“确定”,卸载云硬盘。 返回云硬盘列表,此时云硬盘状态为“正在卸载”,表示云硬盘处于正在从云主机卸载的过程中。 当云硬盘状态为“可用”时,表示卸载成功。
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        卸载磁盘
      • 功能加载说明
        本文介绍了不同资源池支持的功能。 因IaaS资源等原因,RDSPostgreSQL在不同资源池提供功能有较大差异,具体差异详见下表: 功能模块 产品功能 Ⅰ类资源池 Ⅱ类资源池 资源池 上海7、昆明2、重庆2、南京3、郴州2、北京5 华东1、青岛20、长沙42、南宁23、华北2、西南1、西南2贵州、上海36、南昌5、华南2、郑州5、 武汉41、西安7、广州4、芜湖4、呼和浩特3、杭州7、苏州、太原4、乌鲁木齐7、庆阳2 可订购实例 实例系列 单机版、一主一备版 单机版、一主一备版、一主两备版、只读实例 可订购实例 数据库版本 12 12、13、14、15、16、17 可订购实例 CPU架构 X86(Intel) X86(Intel、海光)、ARM(鲲鹏),目前国产化实例在部分资源池加载 可订购实例 备份存储类型 支持普通IO 支持普通IO、高IO、超高IO、对象存储,目前仅华东1、南昌5、长沙42、西南1、华北2支持对象存储 可订购实例 规格配置 CPU:最高32核 内存大小:最高128GB 数据盘:最高32000 GB CPU:最高192核 内存大小:最高1536 GB 数据盘:最高64 TB 计费模式 自助开通 支持 支持 计费模式 计费模式类型 包年/包月 按需、包年/包月 计费模式 按需、包年/包月互转 不支持 支持 实例操作 开通实例 支持 支持 实例操作 注销实例 支持 支持 实例操作 暂停 不支持 支持 实例操作 续期 支持 支持 实例操作 重启 支持 支持 实例操作 主备切换 支持 支持 实例操作 小版本升级 不支持 支持 实例操作 修改端口 不支持 支持 实例操作 系列升级 仅支持升级 仅支持升级 实例操作 配置变更 CPU和内存支持升规格 云盘仅支持扩容 CPU和内存支持升规格、降规格 云盘仅支持扩容 实例操作 存储自动扩容 不支持 支持 实例操作 性能自动扩缩容 支持 支持(目前仅华北2支持) 实例操作 实例回收站 不支持 支持 实例操作 可用区迁移 不支持 支持(目前仅华北2支持) 实例操作 标签设置 不支持 支持 实例设置 修改管理员密码 支持 支持 实例设置 内核参数 支持200多个内核参数修改 支持200多个内核参数修改 实例设置 空闲连接查杀 不支持 支持 实例设置 清理在线表 不支持 支持 实例设置 账号管理 不支持 支持 实例设置 插件管理 不支持 支持 实例设置 数据库管理 不支持 支持 数据库代理 数据库代理 不支持 支持,目前仅开放南昌5、华南2、华东1资源池 只读实例 只读实例 不支持 支持,单实例最多可订购5个只读实例 访问 安全组 支持 支持 访问 云主机访问 仅支持同一VPC访问 仅支持同一VPC访问 访问 公网访问(绑定与解绑弹性IP) 不支持 支持 备份 全量/增量备份 支持 支持 备份 自动/手动备份 支持 支持 备份 跨域备份 不支持 支持,目前仅开放华东1、西南1、华北2资源池 备份 数据同步方式修改 不支持 支持 备份 下载备份 不支持 支持,目前仅放开华北2资源池 恢复 备份集恢复 支持 支持 恢复 指定时间点恢复 支持 支持 恢复 跨域恢复 不支持 支持,目前仅开放华东1、西南1、华北2资源池 指标监控 实例监控 支持(名称为仪表盘) 支持 指标监控 资源监控 支持 支持 指标监控 引擎监控 支持部分数据库指标监控 支持 日志监控 慢日志 支持 支持 日志监控 错误日志 支持 支持 操作监控 操作监控 不支持 支持 告警 监控告警 不支持 支持 数据安全 白名单管理 不支持 支持 数据安全 SQL审计 不支持 支持 数据安全 SSL链路加密 不支持 支持 数据安全 TDE加密 不支持 支持,目前仅开放华东1资源池 数据安全 SQL拦截 不支持 支持,目前仅开放华北2、芜湖4、南昌5、青岛20、呼和浩特3资源池 参数模板 参数模板 支持 支持
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        功能加载说明
      • web容器监控
        针对tomcat进行监控。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「应用详情 」,您可以在应用详情页面切换至「web容器监控」页签,在左侧关键指标中选择不同的应用实例,可查看该应用实例相应的概览信息。 功能说明 Tomcat Tomcat线程 显示统计表信息,表头如下。 实例id:用于标识Tomcat线程的唯一标识符或ID。它可以用于区分不同的线程实例。 请求数:表示在某段时间内由Tomcat线程处理的总请求数量。每当Tomcat线程接收到一个请求并开始处理时,计数器就会增加。 错误数:在某段时间内由Tomcat线程处理的请求中发生错误的次数。错误可能包括HTTP错误状态(如404或500),处理异常或其他错误条件。 请求处理时间(ms):表示Tomcat线程处理单个请求的平均时间。它衡量了请求处理的效率和性能。 请求处理最大时间(ms):在某段时间内由Tomcat线程处理的请求中,处理时间最长的请求的时间。它反映了请求处理中的最大延迟或性能瓶颈。 请求吞吐量:表示Tomcat线程在某段时间内处理的请求数量。它衡量了Tomcat服务器的工作负载和处理能力。 活跃会话数:表示当前活动的会话(session)数量。会话是在用户与服务器之间建立的会话状态,用于跟踪用户的状态和信息。 当前线程数:表示当前正在运行的Tomcat线程数量。它反映了Tomcat服务器的并发处理能力和资源利用情况。 这些指标可以用于监控和评估Tomcat服务器的性能和健康状况。 统一交互操作说明: 将光标移到统计图上,可以查看光标所至时间点的数据详情。 单击图标,可以将当前图表放大显示。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用详情
        web容器监控
      • Kafka触发器
        Kafka触发器 Kafka触发器可以订阅天翼云提供的分布式消息队列Kafka实例,并根据消息触发关联的工作流,借此能力,使得工作流可以消费指定topic的消息,执行特定工作流处理逻辑。 注意事项 Kafka触发器订阅的Kafka实例必须和工作流在相同地域。 前提条件 已创建工作流。 已开通分布式消息Kafka实例(KAFKA引擎版),详情请参考创建分布式消息服务Kafka实例。 已创建Topic,创建GroupID(可选) 触发消息格式 Kafka触发器有两种消息格式:RawData和CloudEvent格式,可在触发器配置里选择。 CloudEvent格式: plaintext [ { "id": "eca534636baf4d568f86cbdb748208ed", "source": "ctyun.faas.trigger.kafka", "specversion": "1.0", "type": "kafka:topic:sendmessage", "datacontenttype": "application/json", "subject": "kafkatriggermqbjvsezbpdialtest:testforfaas", "time": "20250522T02:04:16Z", "data": { "headers": {}, "timestamp": 1747879456, "topic": "testforfaas", "partition": 0, "offset": 15280, "key": "", "value": "msg[9]: 154b2a0e2c3d4b03ae9ec225b5370c3b, ts20250522 02:04:16" } } ] 参数 类型 示例值 描述 id string eca534636baf4d568f86cbdb748208ed 事件ID。标识事件的唯一值。 source string ctyun.faas.trigger.kafka 事件源。Kafka触发器固定为ctyun.faas.trigger.kafka。 specversion string 1.0 CloudEvents协议版本。 type string kafka:topic:sendmessage 事件类型。 datacontenttype string application/json 参数data的内容形式。 subject string kafkatriggermqbjvsezbpdialtest:testforfaas 事件主体。格式为[SourceName]:[消息topic]。 time string 20250522T02:04:16Z 消息被触发的时间。 data object Kafka触发器独有消息格式,详细参见下文RawData描述。 RawData格式是CloudEvent格式的子集,只包含原始kafka消息的信息,消息结构相当于CloudEvent的data字段 plaintext [ { "offset" : 15280, "partition" : 0, "headers" : {}, "topic" : "testforfaas", "key" : "testkey", "timestamp" : 1747879456, "value" : "msg[9]: 154b2a0e2c3d4b03ae9ec225b5370c3b, ts20250522 02:04:16" } ] 参数 类型 示例值 描述 offset int 15280 消息偏移量。 partition int 0 分区信息。 headers map 消息携带的header。 topic string testforfaas topic的名称。 key string testkey 消息的key。 timestamp int 1747879456 Unix时间戳(秒)。 value string hello,kafka 消息的内容。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        Kafka触发器
      • 零信任网络服务概述
        终端管理 AOne零信任网络提供终端管理能力,通过整合防病毒、漏洞修复、软件与外设管控、上网行为规范、AI安全检测等能力,依托智能中台实现统一策略管理,精准解决资产不可视、风险难追溯、处置效率低等核心痛点,打破安全与业务效率的对立僵局,成为企业数字化转型的一站式终端安全防护与提效平台。 高效防护 病毒防护为基础,以主动实时防御为核心,联动漏洞自修复引擎自动闭环高危风险,形成‘监测阻断修复’的一体化防御链路,助力企业缩减终端暴露面,提升威胁响应速度。 全面管控 终端、软件、U盘等资产看得清,员工上网行为、AI使用行为可管控,限制员工主动退出客户端行为,确保安全管控策略持续生效,保障终端系统及数据安全。 智能安全 实时监测新安装AI 应用,多视图检视AI 漏洞分布,自动生成修复建议,形成“发现 定位 处置”高效闭环管理,让AI更安全。 办公组网 深度融合“零信任安全架构”与CDN全球化网络能力,依托中国电信优质的节点资源,为企业提供安全高效的组网及加速一体化解决方案,满足企业分支互访、多云互联等多种场景。 高性能网络连接构建:基于优质边缘网络资源和应用安全加速能力,提供安全高性能网络连接服务,支持 TCP/UDP 协议及私有协议加速,满足企业多样化业务传输需求。在零信任网络架构下,组网过程充分考虑用户和设备身份,通过智能路由和安全防护技术,实现数据跨地域高速、稳定、安全传输,保障跨国企业分支机构与总部数据传输的准确及时,同时确保只有授权的用户和设备能够通过组网连接访问资源。​ 智能路由与流量优化:运用智能路由技术,实时监测网络状态和流量负载,自动选择最优路径传输数据,合理分配流量。结合零信任网络的流量控制策略,实时监控分析网络流量,及时发现解决拥塞问题,确保企业多分支机构同时访问总部资源时,各分支机构流量能快速转发,避免延迟和中断。同时,对异常流量进行精准识别和阻断,保障网络安全。​
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        零信任网络服务概述
      • DRDS
        本节主要介绍DRDS 。 SQL 慢SQL 该模块提供指定时间段内的慢SQL分析功能。从用户、IP、SQL模板等进行多维统计,展示统计结果并支持指定排序,识别慢SQL的精准来源,方便用户快速优化业务。 查看慢日志 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“慢SQL”,进入慢日志页面。 选择需要查看的时间段,查看该时间段内慢日志趋势、慢日志统计和慢日志明细。 慢日志趋势 在慢日志趋势图中单击某个时间点,查看该时间点的慢日志。 慢日志明细 在慢SQL页面下方查看慢日志明细。慢日志明细提供了当前时间段的慢日志详情,包含执行时间、SQL语句、库名、客户端、用户、执行耗时、锁等待耗时、扫描行、返回行等信息。 单击导出,将慢日志明细导出到指定OBS进行存储。慢日志明细导出成功后,可以单击“查看导出列表”,查看慢日志明细导出记录,也可以通过下载将慢日志明细下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。 慢日志统计 单击SQL模板操作列的“样本”,查看当前SQL模板的样本信息 。 在慢日志统计页面,单击“导出”将慢日志导出到指定的OBS进行存储。慢日志导出成功后,可以单击“查看导出列表”,查看慢日志导出记录,也可以通过下载将慢日志下载到本地进行查看。 说明 导出及查看导出列表功能仅支持付费实例使用,免费实例暂不支持。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        DRDS
      • 表管理
        本章节主要介绍表管理 新建表 操作说明 MySQL数据表包含基本信息、字段/列信息、虚拟列、索引、外键5大组成部分,其中,虚拟列、索引、外键为可选项,作为表信息的补充,您可根据实际业务需要进行设置。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签下单击“新建表”。 2. 在新建表页面“基本信息”页签中填写表的基本信息,其中表名为必填项。填写完成后,在页面中下部单击“下一步”。 3. 在表字段信息设置页签,根据业务需要设置具体表字段信息:表列名、字段类型、长度、是否可空、是否为主键、备注,并可对扩展信息进行编辑。 说明 如无需添加虚拟列、索引、外键设置时,可直接单击页面下部中间的“立即创建”,在“SQL预览”弹出框中单击“执行脚本”,完成表的创建操作。 MySQL5.6.5及以上版本支持“datetime”类型数据的默认值。 MySQL5.6.5以下版本不支持“datetime”类型数据的默认值,可将默认值设置为空,否则将会执行出错。 如需要添加虚拟列、索引、外键设置时,单击页面下部中间的“下一步”,在虚拟列页签设置列名、类型、长度、可空、主键、表达式、存储类型、备注及扩展信息。若需继续设置表索引或外键,同理,设置完成后单击页签下方中部的“立即创建”,完成表的创建操作。 创建外键时,参考表中的列应与包含类的类型相同,且必须为主键或者存在唯一索引。 4. 在SQL预览弹出框中单击“执行脚本”,即可完成新建表的相关操作。 说明 列名只有长度限制,MySQL引擎最大值为64。 类型只能选择下拉列表中的参数。 长度有些类型会有默认值,部分支持变长度的类型可以改长度 设置成主键的不能设置为可空。 所有字段只能有一个设置为自动增长,设置为自动增长的字段必须设置主键,且无法设置默认值。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        库管理
        表管理
      • 开启/关闭审计规则
        您可以根据实际需要,开启或关闭DDL审计规则,本文为您介绍具体的操作步骤。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击数据库审计页签. 5. 单击DDL审计 页签,进入DML审计页面。 您可以在审计日志列表中查看审计信息,支持查看时间、表、语句和审计信息。 6. 在审计日志列表上方,单击查看或修改审计 规则,进入DDL审计规则面板。 7. 在DDL审计规则列表中,找到目标审计规则,在开启列打开或关闭该审计规则。 常见的DDL审计规则配置,如下表所示: 审计规则 默认处理 默认开关 自增列不为int,bigint 警告 开 自增列的名字不为ID 警告 开 自增列是不为无符号型 警告 开 列设置字符集 拒绝 开 列没有注释 警告 开 列使用enum,bit数据类型 警告 开 建表、修改列、新增列时无默认值 警告 开 创建或者新增列时列为NULL 拒绝 开 没有为timestamp类型列指定默认值 警告 开 使用外键 拒绝 开 一个索引的列的数量超过最大限制(默认5) 拒绝 开 表索引数量超过最大限制(默认16) 拒绝 开 索引名字前缀不为’idx‘,唯一索引名字前缀不为’uniq‘ 警告 开 table,column中存在除数字、字母、下划线之外的字符 拒绝 开 使用分区表 拒绝 开 建表时没有主键 拒绝 开 建表使用除utf8,utf8mb4之外的字符集 拒绝 开 建表时没有注释 警告 开 建表指定的存储引擎不为Innodb 拒绝 开
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        DDL审计
        开启/关闭审计规则
      • 重启实例
        当实例出现连接数满或者其他性能问题时,您可以在关系数据库MySQL控制台上手动重启数据库实例。本文为您介绍如何重启天翼云关系数据库MySQL版实例。 前提条件 实例状态为运行中 。如果实例处于异常状态,可能会重启失败,您需要提交工单进行处理。 影响 重启实例过程中,会重新启动数据库引擎服务导致服务中断。请确保业务具有自动重连机制或在数据库重启完成后进行手动连接,建议在实例重启前停止业务写入,谨慎操作。 注意 重启主备实例或一主两备实例时,对应的备实例也会被同步重启,导致业务中断。 如果主实例包含只读实例,重启实例不会重启只读实例,复制关系将在重启后自动恢复。 重启过程中,实例将存在不可用时间,时间为几秒至几十秒不等。重启后实例会自动释放内存中的缓存,请提前规划好业务,并在业务低峰期进行重启,避免对高峰期业务造成影响。 重启过程中,实例可能会发生主从切换;且可能会修改您的复制方式和切换策略,在重启完会恢复您之前的方式和策略。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,然后在操作 列选择更多 > 重启。可选择所需要的方式进行重启。 普通重启:会根据当前实例状态适配重启策略,重启期间可能闪断,请确保业务有重连机制。 强制重启:如存在大事务可以选择强制重启,强制重启可能会造成少量数据丢失,但重启速度更快。 4. 在重启实例 对话框中,确认待重启实例信息无误后,单击确定。 5. 重启过程中,实例状态变为重启中 。重启成功后,实例状态将变为运行中。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        重启实例
      • 查询实例列表
        参数 参数类型 说明 示例 下级对象 prodInstId String 实例id 091081efb5c34cb78a0fcbcd9e253515 billMode String 计费模式 1:包周期;2:按需 2 prodInstName String MQ实例名称 MQ2ok9xtk runningState String 实例运行状态 运行中 state Integer 实例状态编码 1.运行中 2.已过期 3.已注销 4.已退订 5.扩容中 6.开通中 7.已取消 8.缩容中 9.重启中 10.网络变更中 11.运维恢复 12.运维停止 13.异常中 15.已欠费 1.变更 101.开通失败 1 prodType String 产品类型 单节点、1M1S machineSpec String 机器规格名 rocketmq.2u4g.single、rocketmq.4u8g.cluster topicLimit String Topic数量限制 200 diskSpace String 磁盘空间大小 100G netName String 网络名称(VPC名称) vpc48fevictor、redis1 subnet String 子网名称 subnet913b、redissubnet01 securityGroup String 安全组ID 51170、44115 modTime String 最后修改时间(UTC格式) 20251031T18:28:14.000+00:00 deployType String 部署类型编码 1虚机部署 1 diskType String 磁盘类型 SSD diskIsEncrypt Boolean 磁盘是否加密 false fileReservedTime Integer 文件保留时间(单位:小时) 168 clusterProperties Object 集群配置属性 ClusterProperties engineType String 引擎类型 ctgmqadvance labels Array of Objects 标签列表 LabelInfo vip String 实例VIP地址 192.168.23.30、192.168.1.129 clusterType Integer 集群类型编码 1单机版 2集群版 1 version String 版本号 5.x、4.9.6 nodeSize Integer broker节点数量 1 outerProjectName String 企业项目名称 default vpcId String VPC ID 18414、17372 enableIpv6 Boolean 是否启用IPv6 false resources Array of Strings 资源列表 [] expandAccess Array of Strings 可扩展权限列表 MQ2INSTVMEXPAND规格扩容;MQ2INSTDISKEXPAND磁盘扩容;MQ2INSTNODEEXPAND节点扩容 ["MQ2INSTVMEXPAND", "MQ2INSTDISKEXPAND"] shrinkAccess Array of Strings 可缩容权限列表 MQ2INSTVMSHRINK规格缩容 当前只支持规格缩容 ["MQ2INSTVMSHRINK"] crtTime String 创建时间(UTC格式) 20251031T09:49:24.000+00:00 表 ClusterProperties
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        实例管理
        查询实例列表
      • 如何创建和管理集合
        本页介绍了如何创建文档数据库服务集合。 创建集合 在文档数据库服务中,创建集合的步骤如下: 1. 首先使用或者创建数据库。 use mydatabase 2. 创建集合使用 db.createCollection()方法。 db.createCollection("authors") 3. 也可以在插入文档时动态创建集合。 db.authors.insertOne({name: "John"}) 上述语句中,authors集合会在插入文档时自动创建。 4. 指定可选参数来创建集合。 db.createCollection( , { capped: ,//是否创建固定大小的集合,默认为false autoIndexId: ,//若指定为false,表示禁止自动在id字段创建索引 size: ,//如果创建的是固定大小的集合,指定集合的大小,单位为字节,默认为4096字节 max: ,//如果创建的是固定大小的集合,指定集合中文档的最大数量,默认为无限制 storageEngine: ,//指定集合的存储引擎,例如WiredTiger或MMAPv1等 validator: ,//指定集合的验证器,用于验证插入或修改的文档是否符合指定的规则 validationLevel: ,//validationLevel这个选项用于指定对集合文档的校验级别,默认值为off(关闭文档验证),还有moderate(基本文档结构验证)和strict(严格模式验证)可选值 validationAction: ,//用于指定文档验证失败时的行为,默认值为error(文档验证失败时报错,不允许写入)。还有一个warn(文档验证失败时发出警告,但仍允许写入) indexOptionDefaults: ,//指定集合中索引的默认选项,例如唯一性、稀疏性和过期时间等 viewOn: ,//如果创建的是视图集合,指定视图的来源集合 pipeline: ,//如果创建的是视图集合,指定视图的聚合管道,用于对来源集合进行聚合操作 collation: ,//用于指定集合的校对规则 writeConcern: //用于指定集合操作的写入关注级别 } ) 回显信息如下表示创建成功: { "ok" : 1 } 5. 查看当前数据库中的所有集合。 show collections 6. 删除集合使用 db.collection.drop()。 db.authors.drop() 7. 重命名集合使用 db.renameCollection()。 db.renameCollection("oldCollection", "newCollection") 创建集合时请留意: 集合名不能以 “system”、“.”或 “$”开始。 集合名不应超过128字节。 集合名不能包含“.”。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        数据库使用
        如何创建和管理集合
      • 1
      • ...
      • 96
      • 97
      • 98
      • 99
      • 100
      • ...
      • 445
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      训推服务

      AI Store

      应用托管

      智算一体机

      人脸检测

      推荐文档

      订购

      报账单据

      重置管理员密码

      产品版本

      获取机器码

      天翼云最佳实践⑦:Win Server php-asp 环境使用

      玩转天翼云⑥:Windows主机开启2个远程终端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号