活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云备份_相关内容
      • 创建终端节点服务
        本文将向您介绍创建终端节点服务的步骤,以便您根据实际需求进行操作。 操作场景 终端节点服务是将云服务或用户私有服务配置为VPC终端节点支持的服务。目前支持"接口"类型的终端节点服务的创建。 约束及限制 单个VPC可以创建终端节点服务实例数为20个。 单个终端节点服务可连接终端节点实例数为500个。 单个终端节点只能连接1个终端服务节点实例。 前提条件 在同一VPC内已创建了后端资源。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“网络>VPC终端节点”,进入“终端节点”页面。 4. 在左侧导航栏选择“终端节点服务”,点击“创建终端节点服务”。 5. 在“创建终端节点服务”页面根据“接口型”终端节点服务配置说明配置参数,点击“确定”完成创建。 “接口型”终端节点服务配置说明 参数 说明 地域 终端节点服务所在地域,页面左上角可切换地域。不同地域的资源之间内网不互通,为了最优化的性能,请选择靠近您的地域,以降低网络时延并提高访问速度。 名称 终端节点服务的名称。名称由数字、字母、中文、、组成,不能以数字、和开头。 VPC 终端节点服务所属虚拟私有云。 服务类型 终端节点服务的类型,当前支持“接口”类型终端节点服务。 IP地址类型 服务IP地址类型,IPV4:仅自持IPV4类型终端节点连接,实现IPV4地址私网访问服务,双栈:支持IPV4和IPV6类型终端节点连接,实现IPV4和IPV6地址的私网访问服务。选择双栈类型时,挂载的后端服务资源池必须也是双栈类型资源。 是否自动接收连接 是否自动接收终端节点与终端节点服务的连接,审核权由终端节点服务控制。 可选择“是”或“否”。选择“否”不自动接受连接,则创建的终端节点为“待审核”状态,需要终端节点服务审核后方可使用。 服务计费 是否开启服务计费,可选择“是”或“否”。 默认连接服务的终端节点费用有终端节点创建账户支付,如服务开启服务计费后,则连接服务的终端节点费用将由服务所在账户支付,功能仅创建时指定,服务创建后不可修改。 端口映射 终端节点服务与终端节点建立连接,支持通过TCP/UDP协议进行通信。 服务端口:终端节点服务绑定了后端资源,作为提供服务的端口。 终端端口:终端节点提供给用户,作为访问终端节点服务的端口。 服务端口和终端端口取值范围1~65535,单次操作最多可添加20条端口映射。 访问终端节点服务时,通过"终端端口 → 服务端口"的方式进行数据传输和通信。 后端资源类型 实际提供服务的后端资源。可创建为终端节点服务的后端资源包括: 云主机:作为服务器使用。 物理机:作为服务器使用。 虚拟IP:适用于需要主备高可靠的业务。 内网负载均衡:适用于高访问量业务和对可靠性和容灾性要求较高的业务。此处选择“内网负载均衡”。 说明:终端节点服务配置的后端资源所在安全组,安全组添加的规则是白名单,需要添加源地址为198.19.128.0/20的白名单入方向规则,详细操作请参考《虚拟私有云用户指南》中的添加安全组规则。 后端资源子网 选择后端资源所属的子网。 描述(可选) 可添加终端节点服务相关的描述。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        创建终端节点服务
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 集群创建
        本文介绍如何集群创建。 集群是计算资源的集合,包含一组节点资源,容器运行在节点上。在创建容器应用前,您需要存在一个可用集群。目前最多可以创建5个集群,请确保至少有一个可用的集群。如集群数量不够,可申请增加配额。 操作前提 能够确保账户中有充足的余额,否则将导致您的业务开通失败; 在【创建集群】之前,请确保已完成VPC、子网的创建及安全组的配置,若未创建可参考上一【环境设置】部分。 操作步骤 1. 登录天翼云; 2. 选择【控制台】>点击切换到具体资源池,如杭州2节点; 3. 在控制台中找到【容器服务】>点击【容器引擎】,进入容器服务界面; 4. 进入【总览】页面>单击【创建集群】按钮,进入集群创建界面; 5. 按照需要完成集群参数填写,集群创建参数详见下表,其中带“”的参数为必填参数。 参数 参数说明 基础配置 集群名称 新建集群的名称 Kubernetes版本 1.15/1.18 地域 根据最初选择的地域决定,集群创建过程中不可选 虚拟私有云 新建集群所在的虚拟私有云。若没有可选虚拟私有云,单击“创建虚拟私有云”进行创建 子网 节点虚拟机运行的子网环境。若没有可选子网,单击“创建子网”进行创建 系列 分为基础版、高级版(基础版集群将创建1个master节点和相应控制节点,worker节点配置由用户自由选择;高级版集群将创建3个master节点和相应控制节点,worker节点配置由用户自由选择。) 容器CIDR 默认是10.223.0.0/16,确定容器网段后,容器实例将在规划的网段内分配IP。不能与集群所选的VPC重复,当vpc和容器网段或者服务网段冲突提示:默认网段与所选虚拟私有云网段有冲突,请重新选择vpc 服务CIDR 默认是10.96.0.0/16,服务网段为kubernetes service ip网段,请根据业务需求选择该网段。不能与集群所选的VPC重复 企业项目 此项与主子账户权限有关,如果有主子账户权限分配要求,请提前规划企业项目 注: 如果您选择了IPv4/IPv6双栈的VPC和子网,那么要同时设置IPv4的容器CIDR和服务CIDR,以及IPv6的容器CIDR和服务CIDR,均不能与集群所选VPC重复。默认情况下,IPv6容器CIDR:fd03::/112;IPv6服务CIDR:fd05::/112。如有需要用户请根据个人需求进行修改。 worker 节点配置 规格 请根据业务需求选择相应的节点规格。 当前使用的是通用型S2类型云主机,可选规格以界面上显示为准 操作系统 请选择节点对应的操作系统 系统盘 默认为普通IO,50GB 数据盘 普通IO、高IO,规格为[50,2048]GB,默认50GB;范围502048GB;整数;填入小数自动四舍五入为整数,输入为空自动设置为50;步长为10 弹性IP 使用已有IP:使用已经创建出的弹性公网IP 创建后设置:不使用弹性公网IP(不使用弹性公网IP不能通过公网发送请求,可创建后绑定) 网络模型 容器隧道网络:基于底层 VPC 网络,构建独立的容器 VXLAN 隧道化的容器网络,与底层网络解耦,支持高扩展性,网络策略,多容器网络平面 worker节点数 默认最小值是1,只允许填入整数;步长为1;设置的节点数不能超过最大节点规模50;输入为空自动设置为1 购买时长 根据需求,设置购买时长 6. 确认右侧订单详情无误并确保已放开安全组6443、9080、9443、2379、2380端口后,单击【创建集群】,进入付费界面,完成费用支付; 7. 集群创建预计需要 610 分钟。请根据界面提示查看集群创建过程。创建完成后,点击【返回集群管理】链接; 8. 在导航栏单击【资源管理】>【集群管理】标签,进入集群列表界面,可查看创建的集群。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        集群
        集群创建
      • 节点启动或停止失败类问题
        本页介绍天翼云TeleDB数据库节点启动或停止失败类问题。 节点启动失败问题总体分析思路 问题描述 控制台页面上显示节点为停止/异常状态,手动启动失败。 可能影响 DN主节点启动失败,会导致访问到该DN的节点SQL报错,实例部分不可用; CN主节点启动失败,会导致流入该节点的SQL语句报错,流入其它CN主节点的DDL语句报错; GTM主节点启动失败,会导致整个实例不可用; GTM/CN/DN备节点失败失败,如果开启同步复制,同步复制节点数量不足且未启用退化策略时,会导致DDL、DML语句卡住; GTM/CN/DN备节点失败失败,可能会导致无可用备节点,主节点再次异常会导致实例不可用,有数据丢失风险。 解决步骤 1. 控制台页面启动节点会下发任务到节点所在的Agent服务,检查Agent服务运行是否正常,如果Agent未启动或启动失败,优先解决Agent服务问题,再尝试启动节点; > Agent服务运行情况检查: > > ps fu teledbxgrep teledbxossgrep ossservergrep v grep > 返回有一个进程存在,输出结果如: > > teledbx 16371 1 1 2023 ? 203:21:22 > /home/teledbx/install/teledbxoss/bin/ossserver conf > /home/teledbx/install/teledbxoss/config//teledbxossconf.ini log > /home/teledbx/install/teledbxoss/logs/ level 1 > Agent服务端口监听情况检查: > > netstat lntpgrep ossserver > 返回应包含至少两行记录,端口包含8118、8119,输出结果如: tcp 0 0 172.16.16.15:8118 0.0.0.0: LISTEN 16371/ossserver tcp 0 0 127.0.0.1:8119 0.0.0.0: LISTEN 16371/ossserver > Agent服务日志检查: > teledbx用户家目录下install/teledbxoss/logs/osslogxxx(pid),通常为/home/teledbx/install/teledbxoss/logs/osslogxxx(pid) > 查看最新的日志文件内容是否有FATAL错误。 > 如果进程不存在,则需要检查原因,因为Agent服务有crontab任务守护,会每分钟检测,异常时自动拉起。 > 如果进程在持续不断的重启,则需要根据日志检查具体原因。 > 如果进程运行正常,则继续分析节点启动日志和运行日志。 2. 节点启动日志有几个地方可以查看 > 1)Agent日志中节点启动日志 > 在Agent的osslogxxx(pid)中会打印节点启动日志和报错信息,可通过以下egrep命令搜索日志中启动信息和返回结果: egrep pgctl.start osslogxxx > 2)节点启动日志 > Agent日志目录log下有个节点启动停止目录clslog,该目录下记录了该服务器上部署所有实例、所有节点的启动停止日志,目录如: > /home/teledbx/install/teledbxoss/logs/clslog/实例id/节点名称节点id节点ip节点端口/pgctl.startyyyymmddhh24miss.log 或pgctl.stopyyyymmddhh24miss.log > 对于启动加载配置文件、控制文件、监听端口、分配内存等在节点启动前的异常报错,会在该日志中记录;这里没有报错,通常节点可以顺利启动成功; > 如果这里没有启动日志,或没有更新,则需要检查Agent服务。 > 如果这里有启动日志,但是在不断的启动、停止、启动...,则需要检查节点运行日志。 > 3)节点运行日志 > 在节点数据目录下的pglog目录,记录了节点启动后运行时的一些信息,默认为postgres星期(英文)小时.csv; > 如果这里没有日志更新,则需要检查节点启动日志和Agent服务。 > 如果这里日志有更新,则查看日志,根据日志提示进行处理。 3. 根据上述日志具体报错,做相应处理,如:磁盘空间%、操作系统内存不足导致启动节点时不能分配内存,节点数据目录部分文件权限不足、文件损坏、配置文件参数错误等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        节点启动或停止失败类问题
      • 设置应用组件实例伸缩策略
        手动伸缩 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入到应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页。 5、单击“伸缩”,在“手动伸缩”策略下: 单击,修改“实例数”。 单击,实例伸缩操作即可生效。 单击“查看组件详情”,可查看到实例在“升级/回滚”中。待状态为“运行中”时,表示已成功完成实例伸缩操作。 弹性伸缩 说明 CCE集群,1.15及以上版本不支持弹性伸缩。 虚机部署不支持弹性伸缩。 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页,单击“伸缩”。 5、在“弹性伸缩”下,单击“编辑伸缩规则”: 根据业务实际需要设置“冷却时间”、“最大实例数”、“最小实例数”。 单击“保存”。 6、在“弹性伸缩”下,单击“添加伸缩策略”。 当前支持三种弹性伸缩策略: 告警策略:支持根据CPU/内存的设置,进行应用组件的自动伸缩。应用组件部署后即可设置,在CPU/内存超过或少于一定值时,自动增减实例。 表 添加告警策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“告警策略”。 指标 选择“指标”。指标是对资源性能的数据描述或状态描述。 CPU使用率:该指标用于统计测量对象的CPU使用率。应用实际使用的与申请的CPU核数量比率。 物理内存使用率:该指标用于统计测量对象已使用内存占申请物理内存总量的百分比。 磁盘读取速率:该指标用于统计每秒从磁盘读出的数据量。 物理内存总量:该指标用于统计测量对象申请的物理内存总量。 数据接收速率:该指标用于统计测量对象每秒钟接收的数据量。 磁盘写入速率:该指标用于统计每秒写入磁盘的数据量。 物理内存使用量:该指标用于统计测量对象实际已经使用的物理内存。 CPU内核总量:该指标用于统计测量对象申请的CPU核总量。 数据发送速率:该指标用于统计测量对象每秒钟发送的数据量。 容器错包个数:该指标用于统计测量对象收到错误包的数量。 CPU内核占用:该指标用于统计测量对象已经使用的CPU核个数。 触发条件 设置“触发条件”,在对应条件下触发伸缩策略。 监控周期 设置“监控周期”,触发指标周期统计。 比如设置为20秒,表示每20秒统计一次。 连续周期 设置“连续周期”。连续周期是指监控周期内连续触发阈值的次数。 比如设置为3,则表示指标数据连续三个监控周期达到了设定的阈值,则触发策略动作。 执行操作 选择“增加”或“减少”实例数,设置策略触发后执行的动作。 单击“收起预览”,可设置“触发条件”、“监控周期”、“连续周期”、“执行操作”参数值。 定时策略:支持在特定时间点进行应用的自动伸缩。适用于秒杀周年庆等活动,例如在秒杀这个时间点增加一定数量的实例个数。 表 添加定时策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“定时策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 周期策略:支持以天、周、月为周期的伸缩策略。适用于周期性的流量变化。 表 添加周期策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“周期策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 7、单击“确定”。 在弹性伸缩下,可看到策略已启动。待到满足触发条件时,弹性伸缩即会生效。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        设置应用组件实例伸缩策略
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 系统盘扩展磁盘分区和文件系统
        本文将为您介绍系统盘扩展磁盘分区的两种方式,扩大原有MBR分区与新增MBR分区。 扩大原有MBR分区 本示例以“CentOS 7.6 64bit”为例,原有系统盘/dev/vda已有分区/dev/vda1,容量为40GB,已在控制台为其扩容10GB,下列步骤会将新增的10GB扩容至原有的/dev/vda1中。 1. 输入 growpart命令,检查此云主机是否已安装growpart扩容工具。若出现图中回显信息,则说明已经安装,无需手动安装。 注意 若没有图示信息,请执行命令“yum install cloudutilsgrowpart”手动安装growpart工具。 2. 执行 fdisk l命令,查看此台云主机系统盘/dev/vda的总容量。回显信息如图所示: 3. 执行命令 df TH,查看系统盘分区/dev/vda1的现有容量,回显信息如图所示: 从两个命令的回显信息可见,当前系统盘/dev/vda容量为50GB,但是分区/dev/vda1的容量仅有40GB,需要扩大分区/dev/vda1。 4. 执行命令 growpart /dev/vda 1扩大磁盘分区,指定系统盘/dev/vda,待扩容分区的编号为1,回显信息如图所示: 说明 如果出现报错“NOCHANGE:partition 1 is size xxxxxxx. it cannot be grown”,说明可能是云主机磁盘已满(占用率100%)导致的磁盘无法正常扩容,在此情况下请您做好数据备份后清理不必要的文件或程序来释放一部分磁盘空间。清理磁盘空间步骤可参见最佳实践“解决Linux云主机磁盘空间不足的问题”。 5. 执行命令 xfsgrowfs /dev/vda1,将原有分区/dev/vda1的文件系统进行扩充。回显信息如图所示: 说明 当磁盘分区文件系统为xfs格式时,请使用xfsgrowfs工具进行磁盘分区扩容。 当磁盘分区文件系统为ext格式时,请使用resize2fs工具进行磁盘分区扩容。 6. 执行命令 df TH,查看扩容后系统盘分区/dev/vda1的容量。回显信息如图所示: 从图中可以看到原有分区已经扩容至50GB。 若需要设置开机自动挂载磁盘分区,请参见设置开机自动挂载磁盘。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        Linux扩展磁盘分区和文件系统
        系统盘扩展磁盘分区和文件系统
      • 域名接入视频直播之后,如何绑定CNAME
        本文介绍如何绑定CNAME。 要启用视频直播服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到直播节点上,达到加速效果。 当您在天翼云直播控制台添加加速域名后,系统会为您分配一个天翼云CDN的CNAME域名,例如 .ctdns.cn。 您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctdns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云视频直播的节点,实现加速的目的。 具体操作步骤请参考:配置CNAME。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        域名接入视频直播之后,如何绑定CNAME
      • 创建主题和订阅组
        本文介绍分布式消息服务RocketMQ入门指引的创建主题和订阅组内容。 背景信息 在实例创建完成后,需要创建主题和订阅组来进行消息实例的日常功能运转。 主题:在RocketMQ中,主题(Topic)是消息发布的逻辑分组。它类似于一个消息的分类或者标签,帮助用户将不同类型的消息进行归类和管理。通常情况下,一个主题可以包含多个消息生产者和多个消息消费者。通过使用主题,RocketMQ能够实现高效的消息发布和订阅机制,帮助用户更好地管理和组织消息。 订阅组:订阅组是 RocketMQ 中的一个重要概念,用于实现消息的发布与订阅模式。一个订阅组可以包含多个消费者实例,这些实例共同消费同一个主题下的消息。当消息被发送到主题时,订阅组中的每个消费者实例会按照一定规则来均衡地接收消息,并进行相应的处理。订阅组是 RocketMQ 提供的一种灵活且可扩展的方式,用于实现消息的发布与订阅模式,并保证消息在消费者之间的均衡分配和可靠处理。 集群:RocketMQ集群是一种由多个节点(或者称为Broker)组成的分布式消息中间件系统。每个节点都具有相同的功能并且可以处理和存储消息。通过将消息分发到不同的节点,RocketMQ集群能够实现高可用性和可伸缩性。通过使用RocketMQ集群,可以实现消息传输的并行处理、容错性和高可用性,满足高并发场景下的消息传递需求。 创建主题 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【新建主题】按钮 5、 在弹出的新建主题页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择主题所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写主题名称,名字限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 4)按照实际需求填写主题备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个Broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择主题的读写权限,支持读写、只读、只写3类权限。 8) 完成主题信息填写后,保存确认即可新增主题。 9) 若希望批量创建主题,可点击【批量创建】按钮 批量创建 注意:输入的主题名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【主题模板】按钮下载。 主题模板 批量上传主题的模板,必须使用模板,才能够上传成功,模板格式如下:
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建主题和订阅组
      • 权限管理
        本节主要介绍OBS的权限管理。 如果您需要对OBS资源,为企业中的员工设置不同的用户访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云服务资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并授权控制他们对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有OBS的使用权限,但是不希望他们拥有删除OBS资源等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用OBS,但是不允许删除OBS资源的权限,控制他们对OBS资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用OBS的其它功能。 IAM是云平台提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见《天翼云统一身份认证服务用户指南》“产品介绍”章节。 OBS权限 默认情况下,新建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略,才能使得用户组中的用户获得策略定义的权限,这一过程称为授权。授权后,用户就可以基于策略对云服务进行操作。IAM系统预置了各服务的常用权限,例如完全控制权限、只读权限,您可以直接使用这些系统策略。 OBS部署时不区分物理区域,为全局级服务。授权时,在全局项目中设置策略,访问OBS时,不需要切换区域。 RBAC策略:RBAC策略是将服务作为一个整体进行授权,授权后,用户可以拥有这个服务的所有权限,如访问整个服务、管理整个服务,RBAC策略无法针对服务中的具体操作做权限控制。 说明 由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的RBAC策略后,大概需要等待10~15分钟策略才能生效。 下表为OBS的所有系统策略。 策略名称 描述 策略类别 Tenant Administrator 操作权限:对帐号拥有的所有云资源执行任意操作。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 Tenant Guest 操作权限:对帐号拥有的所有云资源的只读权限。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 用户拥有OBS资源权限后,对应在OBS上可以执行的具体操作下表所示。 操作名称 Tenant Administrator权限 Tenant Guest权限 列举桶 可以 可以 创建桶 可以 不可以 删除桶 可以 不可以 获取桶基本信息 可以 可以 管理桶访问权限 可以 不可以 管理桶策略 可以 不可以 修改桶存储类别 可以 不可以 列举对象 可以 可以 列举多版本对象 可以 可以 上传文件 可以 不可以 新建文件夹 可以 不可以 删除文件 可以 不可以 删除文件夹 可以 不可以 下载文件 可以 可以 删除多版本文件 可以 不可以 下载多版本文件 可以 可以 修改对象存储类别 可以 不可以 恢复文件 可以 不可以 取消删除文件 可以 不可以 删除碎片 可以 不可以 管理对象访问权限 可以 不可以 设置对象元数据 可以 不可以 获取对象元数据 可以 不可以 管理多版本控制 可以 不可以 管理日志记录 可以 不可以 管理标签 可以 不可以 管理生命周期规则 可以 不可以 管理静态网站托管 可以 不可以 管理CORS规则 可以 不可以 管理防盗链 可以 不可以 管理跨区域复制 可以 不可以 管理图片处理 可以 不可以 设置对象ACL 可以 不可以 设置指定版本对象ACL 可以 不可以 获取对象ACL 可以 可以 获取指定版本对象ACL 可以 可以 多段上传 可以 不可以 列举已上传段 可以 可以 取消多段上传任务 可以 不可以
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        权限管理
      • 测试方法
        本节主要介绍测试方法。 本章基于GeminiDB Influx实例,进行性能测试,具体包括测试环境,测试步骤,以及测试结果。 测试环境 区域:天翼云资源池 可用区:可用区一 弹性云主机(Elastic Cloud Server,简称ECS):规格选择内存优化型m6.2xlarge.8,8U64GB,操作系统镜像使用CentOS 7.6 64位版本。 被测试集群实例的配置:每个实例包含3个节点。 被测试集群实例的规格:4U16G、8U32G、16U64G、32U128G。 测试工具 本次测试采用了开源社区的Time Series Benchmark Suite (TSBS)。 测试指标 写入性能测试关注每秒写入点数(points/sec)。 查询性能测试关注时延和OPS(Operation Per Second)。 测试步骤 1. 执行如下命令,生成需要执行写入的数据。 tsbsgeneratedata usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:00Z" loginterval"10s" format"influx" gzip > /tmp/influxdata.gz 说明 scale:需要生成的时间线数量。 loginterval:数据采样间隔。 2. 执行如下命令,进行写入性能测试,获取写入性能数据。 NUMWORKERS${numWorkers} BATCHSIZE${batchSize} DATABASEHOST${influxIP} DATABASEPORT${influxPORT} BULKDATADIR/tmp scripts/loadinflux.sh 3. 执行如下命令,生成查询语句。 tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries20 querytype"highcpuall" format"influx" gzip > /tmp/influx20querieshighcpuall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries1000000 querytype"singlegroupby181" format"influx" gzip > /tmp/influx1000000queriessinglegroupby18112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"doublegroupby1" format"influx" gzip > /tmp/influx500queriesdoublegroupby112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries50 querytype"doublegroupbyall" format"influx" gzip > /tmp/influx50queriesdoublegroupbyall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries200 querytype"lastpoint" format"influx" gzip > /tmp/influx200querieslastpoint12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"groupbyorderbylimit" format"influx" gzip > /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz 说明 usecase, seed,scale,timestampstart 的值与上面步骤中生成写入数据时设置的值保持一致。 timestampend:数据生成结束后一秒。 queries:生成的查询数。 queriestype:生成的查询类型,具体模型含义参见下表。 4. 执行如下命令,查询性能,获取查询性能数据。 cat /tmp/influx20querieshighcpuall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx1000000queriessinglegroupby18112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10000 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesdoublegroupby112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx50queriesdoublegroupbyall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx200querieslastpoint12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT}
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        性能白皮书
        测试方法
      • 在CTS事件列表查看云审计事件
        本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 场景描述 云审计服务能够为您提供云服务资源的操作记录,记录的信息包括发起操作的用户身份、IP地址、具体的操作内容的信息,以及操作返回的响应信息。根据这些操作记录,您可以很方便地实现安全审计、问题跟踪、资源定位,帮助您更好地规划和利用已有资源、甄别违规或高危操作。 什么是事件 事件即云审计服务追踪并保存的云服务资源的操作日志,操作包括用户对云服务资源新增、修改、删除等操作。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 约束与限制 用户通过云审计控制台只能查询最近7天的操作记录,过期自动删除,不支持人工删除。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 用户对云服务资源做出创建、修改、删除等操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 在CTS查看审计事件 1. 登录控制台,单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 4. 事件列表支持通过筛选来查询对应的操作事件。 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 支持的资源类型请参见“支持云审计的CFW操作列表”。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 支持审计的操作事件的名称请参见“支持云审计的CFW操作列表”。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 5. 选择完查询条件后,单击“查询”。 6. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 7. 在需要查看的事件左侧,单击展开该记录的详细信息。 8. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        云防火墙
        用户指南
        使用CTS审计CFW
        在CTS事件列表查看云审计事件
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 产品功能
        模块 特性名称 详细说明 直播推流 场景 支持主播/客户采用推流工具将直播流推至视频直播边缘节点。 直播推流 协议 支持RTMP和RTMPS。 直播拉流 场景 支持用户通过播放器从视频直播边缘节点进行拉流播放直播流。 直播拉流 协议 支持RTMP、FLV和HLS。 协议转换 场景 支持将推流或回源协议通过视频直播产品转换成多种直播协议。 协议转换 协议 支持将RTMP、RTMPS、FLV协议转换成FLV、RTMP和HLS协议。 访问控制 Referer防盗链 基于HTTP请求头中Referer字段来设置访问控制规则,实现对访客的身份识别和过滤,防止资源被非法盗用。 访问控制 IP黑/白名单 通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 访问控制 UA防盗链 通过识别HTTP请求头中的UA字段,可以识别特定终端,从而限制用户行为,拦截或允许某一类用户的访问,实现防盗链、防盗刷、防攻击的目的。 访问控制 URL鉴权 通过对访问URL中的加密串及时间戳进行校验,从而有效地保护用户站点资源。 访问控制 远程鉴权 将请求转发回提前设定的鉴权源站,视频直播节点依据源站返回的鉴权结果应答用户请求,从而实现用户鉴权规则由源站全权定义。 访问控制 HTTPS HTTPS是HTTP的安全版,通过开启HTTPS协议,将实现客户端和天翼云直播加速节点之间请求的HTTPS加密。 访问控制 批量域名IP封禁 支持一次对多个域名批量进行IP黑名单配置。 媒体处理 直播转码 为适配不同用户终端或者不同网络环境,视频直播支持输出不同码率、帧率、分辨率等直播流,同时支持对原始流增加水印。 媒体处理 直播录制 支持将直播流录制为点播文件并存储在媒体存储中,实现直播转点播文件,便于客户进行二次传播。 媒体处理 直播时移 支持体育赛事/游戏赛事等直播场景下,通过时移回看精彩瞬间。 媒体处理 直播截图 支持对直播流进行截图,并将图片保存在媒体存储中。 流管理 禁推 当客户监控发现某主播推送非法内容,可通过禁推功能实时中止并封禁该直播,封禁时长支持自定义。 流管理 解禁 支持对封禁中的流进行解禁。 流管理 断流 支持通过自助操作断开正在推的直播流,但主播如果用相同流名再次推流时可以推流成功。 直播控制台 概览 展示今日或本月的流量/带宽、近七天流量/带宽趋势、证书统计、域名统计、信息中心。 直播控制台 域名管理 支持添加域名,并对域名进行编辑、停用、启用或删除等操作。 如果有开通全球(不含中国内地),支持变更加速区域。 支持HTTPS相关功能配置。 支持IP黑白名单、Referer防盗链和URL鉴权功能自助配置。 支持HLS切片配置。 直播控制台 证书管理 支持新增证书、查看证书、删除证书和替换过期证书等操作。 直播控制台 功能配置 支持自助创建转码、录制、截图和回调模板,并支持将模板绑定到域名上。 直播控制台 流管理 支持查询在线推流和历史推流。 支持禁推、解禁和断流自助操作。 直播控制台 统计分析 支持客户对日常关注的带宽流量、回源、请求数、状态码、地区运营商、在线人数等维度进行自定义查询,实时感知业务运营状态。 支持查看热门URL、域名排行、热门Referer、TOP客户端IP。 支持对转码、录制和截图使用量进行查询。 支持查看流粒度带宽、以及推流域名的平均码率和帧率。 直播控制台 日志下载 支持下载直播加速域名的访问日志。 直播控制台 计费详情 支持自助更新计费方式、查询资源包使用详情、查看历史记录和账单等相关信息。 直播控制台 地址生成器 支持自定义流名和发布点并生成URL示例;如果有配置URL鉴权,还可以生成鉴权URL示例。
        来自:
        帮助文档
        视频直播
        产品介绍
        产品功能
      • 开通物理机服务
        本章节主要介绍创建开通物理机。 1. 登录天翼云,进入控制中心。 2. 在系统首页,单击“计算 >物理机服务”。 3. 在“物理机”界面,单击“申请物理机”。 4. 选择“区域”。不同区域的云服务产品之间内网互不相通。建议您选择最靠近您业务的区域,这样可以减少网络时延、提高访问速度。 5. 选择“可用区”。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将物理机创建在不同的可用区。 如果您需要较低的网络时延,建议您将物理机创建在相同的可用区。 说明 物理机创建成功后,不可更改区域和可用区。 6. 选择“规格”。 包括规格名称、CPU、内存、本地磁盘和扩展配置。当您选择规格列表中的一个规格后,列表下方会展示该规格的名称、组网、用途等信息,以便您根据业务场景进行选择。 其中,扩展配置描述了所选机型的网卡信息。例如:2 x 210GE表示1块双网口的10GE网卡接入VPC网络,1块双网口的10GE扩展网卡支持物理机间的高速互联。 规格中的CPU、内存、本地磁盘等配置为固定值,不可更改。 不同规格的物理机带宽能力不同,请您根据实际业务慎重选择。 某些规格的物理机支持快速发放能力,选择后,界面会提供“系统盘”参数(在“磁盘”配置项中展示),物理机操作系统直接安装在云硬盘,实现快速发放。 7. 选择“镜像”。 公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用(SDI卡驱动、bmsnetworkconfig网络配置程序、cloudinit初始化工具等)。请根据您的实际需要自助配置应用环境或相关软件。 私有镜像 用户基于外部镜像文件或物理机创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私有应用。选择私有镜像创建物理机,可以节省您重复配置物理机的时间。 共享镜像 您将接受公有云其他用户共享的私有镜像,作为自己的镜像进行使用。 8. 选择“许可类型”。 在云平台上使用操作系统或软件的许可证类型。如果您选择的镜像为免费的,则系统不会展示该参数。如果您选择的镜像为计费镜像,此时系统会展示该参数。 使用平台许可证 使用云平台提供的许可证,申请许可证需要支付一定的费用。 使用自带许可证(BYOL) 使用用户已有操作系统的许可证,无需重新申请。 9. 设置“磁盘”。 有SDI卡的物理机可以使用云硬盘,云硬盘盘包括系统盘和数据盘。您可以为物理机添加多块数据盘,系统盘大小可以根据需要自定义。 是否能为物理机挂载云硬盘,由您所选的规格和镜像共同决定,以界面提示为准。 系统盘 如果选择支持快速发放的规格,界面会提供系统盘配置项,可以根据需要设置磁盘类型和大小。 数据盘 您可以为物理机添加多块数据盘,并设置数据盘的共享功能。 注意 物理机仅支持SCSI磁盘模式。 共享盘:勾选后,数据盘为共享云硬盘。该共享盘可以同时挂载给多台物理机使用。 10. 设置“网络”,包括“虚拟私有云”、“安全组”、“网卡”等信息。 第一次使用云服务时,系统将自动为您创建一个默认的虚拟私有云,包括安全组、网卡。其中,默认虚拟私有云支持的地址范围为192.168.1.0/24,子网网关为192.168.1.1,并为子网开启DHCP功能。 参数 解释 虚拟私有云 您可以选择使用已有的虚拟私有云,或者单击“查看虚拟私有云”创建新的虚拟私有云。 安全组 安全组用来实现安全组内和安全组间物理机的访问控制,加强物理机的安全保护。 用户可以在安全组中定义各种访问规则,当物理机加入该安全组后,即受到这些访问规则的保护。 创建物理机时,仅支持选择一个安全组。 但是物理机创建成功后,可以为物理机关联多个安全组。 说明 物理机初始化需要确保安全组出方向规则至少满足如下要求: 协议:TCP 端口范围:80 远端地址:169.254.0.0/16 如果您使用的是默认安全组出方向规则,则已经包括了如上要求,可以正常初始化。 默认安全组出方向规则为: 协议:Any 端口范围:Any 远端地址:0.0.0.0/16 网卡 包括主网卡和扩展网卡。您可以添加多张扩展网卡,并指定网卡(包括主网卡)的 IP 地址。 注意 主网卡用于系统的默认路由,不允许删除。 如果您选择自动分配 IP 地址,请不要在物理机发放完成后修改私有IP 地址,避免和其他物理机 IP 冲突。 为网卡分配固定 IP 地址后,不能批量创建物理机 高速网卡 物理机之间的高速互联网络,为物理机提供更高的带宽。 一台物理机最多有两块高速网卡,并且依赖于扩展网卡总带宽(可以在规格的“扩展配置”列查看)。 例如,扩展网卡总带宽为 2 10GE,如果第一块高速网卡的带宽为 2 10GE,那么您不能再添加第二块高速网卡。 说明 同一台物理机的多张高速网卡不能选择同一个高速网络 弹性 IP 弹性 IP 是指将公网 IP 地址和路由网络中关联的物理机绑定,以实现虚拟私有云内的物理机通过固定的公网 IP 地址对外提供访问服务。 您可以根据实际情况选择以下三种方式: 不使用:物理机不能与外部网络互通,仅可以在私有网络中部署业务或构建集群。 自动分配:自动为物理机分配独享带宽的弹性 IP,带宽值由您设定。 使用已有:为物理机分配已有弹性 IP。 说明 选择已有弹性 IP 后,不能批量创建物理机 规格 选择您需要的物理机规格 计费方式 弹性 IP 选择“自动分配”时,需配置该参数。 按带宽计费:指定带宽上限,按使用时间计费,与使用的流量无关。 按流量计费:按照实际使用的流量来计费。 带宽 弹性 IP 选择“自动分配”时,需配置该参数。 带宽大小,单位 Mbit/s。 11. 设置物理机登录方式。 “密钥对”方式创建的物理机安全性更高,建议选择“密钥对”方式。如果您习惯使用“密码”方式,请增强密码的复杂度,如下表所示,保证密码符合要求,防止被恶意攻击。 密钥对 指使用密钥对作为登录物理机的鉴权方式。您可以选择使用已有的密钥,或者单击“查看密钥对”创建新的密钥。 如果选择使用已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录物理机。 密码 指使用设置初始密码方式作为物理机的鉴权方式,此时,您可以通过用户名密码方式登录物理机。Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足要求。 注意 Windows操作系统不支持选择密码登录方式。 参数 规则 样例 : 密码 密码长度范围为8到26位。 密码至少包含以下4种字符中的3种: 大写字母小写字母数字特殊字符,包括!@%^+[]{}:,./? 密码不能包含用户名或用户名的逆序。 Windows系统的物理机,不能包含用户名中超过两个连续字符的部分。 Test12@ 12. 设置“物理机名称”。 名称可自定义,但需符合命名规则:只能由中文字符、英文字母、数字及“”、“”、“.”组成。 一次创建多台物理机,系统会自动按序增加后缀。例如:输入bms,服务器名称为bms0001,bms0002,……。再次购买多台服务器时,命名从上次最大值连续增加,例如:输入bms,已有服务器bms0010,新创服务器名称为bms0011、bms0012、……,命名达到9999时,从0001开始。 设置您创建的物理机数量,最多为24台。 设置完成后,您可以通过单击“价格计算器”,查询当前配置的费用。 说明 当配额充足时,一次最多可以创建24台物理机;若配额不足24台,一次最多可创建数量为配额余量。 在设置网络信息时,若您选择自定义网卡或高速网卡的IP地址,或者选择已有弹性IP,则一次只能创建一台物理机。 13. 单击“立即申请”。 14. 在确认规格页面,单击“提交”。 注意 开通需要拥有物理机自助开通权限,如没有自助开通权限可以联系天翼云客户经理协助开通。
        来自:
        帮助文档
        物理机 DPS
        快速入门
        开通物理机服务
      • 创建脚本
        本文为您介绍创建脚本的具体操作。 概述 脚本管理提供全生命周期脚本管控,涵盖脚本库的创建、验证、变更、停用、编辑、发布等,实现脚本标准化开发与版本控制;通过脚本黑名单机制拦截高风险脚本以强化安全,脚本历史支持操作追溯与审计。系统环境变量管理保障脚本跨环境兼容性,同时支持对云主机和数据库的自动化脚本执行,兼顾运维灵活性与安全性,降低人工干预风险,提升容灾场景下的操作效率和可靠性。 使用条件 多活容灾服务平台当前仅支持在平台侧执行脚本,不支持上传脚本文件到目标资源。 每种资源类型下同一种语言的脚本数量上限为50,若有扩展需要请联系管理员。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“脚本管理”“脚本库”,进入脚本库列表页。 5. 点击右上角“创建脚本”按钮,跳转至脚本创建页。 6. 创建脚本各配置项说明如下: 参数 是否必填 配置说明 脚本名称 √ 填写脚本名称,脚本名称需唯一。 长度为263字符。 脚本语言 √ 选择脚本语言,当前支持Shell、Python2、Python3。 脚本版本 √ 显示脚本版本,脚本创建时系统默认将脚本版本设置为v1.0。 适用资源类型 √ 选择适用资源类型,当前支持主机、数据库两类。 主机支持Linux/Windows;数据库支持MySQL/Redis/PostgreSQL/MongoDB。 脚本分组 × 选择脚本分组,默认无分组。 脚本来源 √ 选择脚本来源,支持本地脚本、手工录入、克隆、内置脚本。 本地脚本 √ 当脚本来源为本地脚本时显示,上传本地脚本文件。 文件类型限制为扩展名为.py或.sh两种。 源脚本 √ 当脚本来源为克隆时展示,选择源脚本,数据来自当前脚本库中所有脚本。 脚本模板 √ 当脚本来源为内置脚本时展示,选择脚本模板后,脚本内容展示相关脚本模板内容。 脚本内容 √ 当脚本来源为本地脚本时,展示本地上传脚本的内容,支持编辑。 当脚本来源为手工录入时,需用户手动录入脚本内容; 当脚本来源为克隆时,展示源脚本的脚本内容,支持编辑; 当脚本来源为内置脚本时,根据用户选择的脚本语言、适用类型和脚本模板展示脚本内容,支持编辑。 脚本内容长度上限为1000个字符。 脚本参数请求参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 选择参数是否必填,可选是、否。 填写参数描述。 脚本参数返回参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 填写参数描述。 成功标准判定方式 √ 选择成功标准判断方式,可选通过表达式判定、无条件成功。 成功标准表达式 √ 判定方式为表达式判定时展示,填写参数名,数据来源于脚本返回的参数名。 填写表达式符号,若参数类型为数值类型,可选等于/大于/小于/大于等于/小于等于;若参数类型为字符或字符串类型,可选等于/大于/小于/大于等于/小于等于/包含/不包含/以...开头/以...结尾;若参数类型为布尔型,可选等于。 填写表达式参数值,若参数类型为数值类型/字符型/字符串类型,需填写参数值;若参数类型为布尔型,可选择真/假。 成功标准表达式生效 √ 判定方式为表达式判定时展示,选择表达式生效方式,可选满足所有表达式、满足任一表达式。 脚本描述 × 填写脚本的描述。 长度为0100个字符。 7. 脚本信息填写完毕后,点击右下角“立即创建”按钮,完成创建脚本操作。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        脚本管理
        脚本库
        创建脚本
      • 弹性伸缩搭配GPU云主机水平扩展最佳实践
        对比传统部署模式,GPU云主机配合弹性伸缩使用,可以帮助您在推理任务高峰期自动扩容GPU节点减少卡顿,在任务请求低峰期减少GPU服务器规模节约成本,保障业务连续性的同时降低资源、运维成本。 操作步骤 1. 使用大模型镜像创建包年包月的云主机实例 创建一定数量的包年包月GPU实例,用于后续将实例添加到伸缩组,满足大模型业务模块的非高峰或低谷时间段要求。 1. 登录控制中心。 2. 根据业务部署需求选择弹性伸缩组及其管理的云主机实例所在地域。 3. 单击“计算>弹性云主机”,进入弹性云主机管理控制台。 4. 在右上角点击“创建云主机”按钮,进入到弹性云主机创建页面。 5. 在弹性云主机创建页面,完成云主机参数配置。创建成功之后如图: 说明 搭建DeepSeek等大模型云主机选型、部署等说明可参考GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南弹性云主机DeepSeek专题实践指南:DeepSeek驱动高效能云生态 天翼云。 2. 创建使用大模型镜像的伸缩配置 为业务创建可用于自动扩容的云主机模板,即弹性伸缩配置。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台并切换到伸缩配置页面。 3. 点击右上角“创建伸缩配置”,进入“创建伸缩”配置页面。使用步骤1中创建的实例作为模板创建伸缩配置。 4. 点击“确认”,即可创建伸缩配置成功,创建成功如图所示: 3. 创建伸缩组并添加云主机实例 为低成本、高稳定性业务集群创建弹性伸缩组,并将创建好的云主机实例添加至此伸缩组内,来满足日常业务的需求。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 3. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 4. 在“伸缩参数”页面完成基础配置,具体参数配置可参见创建伸缩组。 5. 在“配置来源”页面,选择已有配置,为伸缩组绑定一个或多个配置。 6. 点击“立即创建”伸缩组创建成功,如下图: 7. 伸缩组创建成功之后,进入到伸缩组详情页面,将步骤1中创建包年包月弹性云主机添加至伸缩组内并开启伸缩保护防止实例被移除,用于日常业务需求的满足。具体操作步骤请参见将实例移入伸缩组。添加成功之后如图: 4. 根据业务场景为伸缩组设置自动伸缩策略 为已创建好的伸缩组设置伸缩策略,来满足突发的业务流量变化,确保业务的稳定运行。 1. 进入弹性伸缩管理控制台,点击步骤3创建好的伸缩组名称,进入到伸缩组详情页面。 2. 单击“伸缩策略”进入伸缩策略页签,单击“创建策略”按钮,进入到“创建伸缩策略”页面。 3. 在“创建伸缩策略”页面中完成策略的配置。您可以根据使用场景选择告警、定时等自动伸缩策略,帮助伸缩组在业务高峰期自动扩容大模型实例、在业务低谷期自动释放实例,保证业务稳定的同时最大程度的优化资源使用成本。具体操作步骤可参见创建伸缩策略。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        弹性伸缩搭配GPU云主机水平扩展最佳实践
      • 应用服务网格
        本文主要介绍应用服务网格日志采集。 应用服务网格支持采集控制面(control plane)、数据面(sidecar)日志以及应用服务网格网关日志,您可以在控制台日志中心查看日志。 前提条件 1. 天翼云账号已经开通了云日志服务,如果没有开通可以通过服务网格控制台>网格实例>自定义配置>创建云日志服务。 2. 网格控制面和数据面集群已经安装了日志采集插件logoperator。可以通过ccse控制台>插件>插件市场安装。 启用服务网格日志采集 1. 登录服务网格控制台,在左侧的导航栏中选择网格实例>自定义配置。 2. 选择启用日志服务,可以选择已有的日志项目或者新建日志项目,支持为数据面、控制面和网关分别创建日志单元,您可以参考云日志服务管理日志项目查看已有的项目。如果需要新建项目,应用服务网格控制台会自动为您创建对应名称的项目。 日志中心日志查询 您可以在日志服务控制台查询服务网格控制面和数据面的日志,更多详情可参考云日志服务日志查询。 数据面日志输出格式 目前服务网格的数据面日志访问格式采用Envoy默认格式: plaintext [%STARTTIME%] "%REQ(:METHOD)% %REQ(XENVOYORIGINALPATH?:PATH)% %PROTOCOL%" %RESPONSECODE% %RESPONSEFLAGS% %BYTESRECEIVED% %BYTESSENT% %DURATION% %RESP(XENVOYUPSTREAMSERVICETIME)% "%REQ(XFORWARDEDFOR)%" "%REQ(USERAGENT)%" "%REQ(XREQUESTID)%" "%REQ(:AUTHORITY)%" "%UPSTREAMHOST%"n 以下是一个日志格式的例子: plaintext [20160415T20:17:00.310Z] "POST /api/v1/locations HTTP/2" 204 154 0 226 100 "10.0.35.28" "nsq2http" "cc21d9b0cf5c432b8c7e98aeb7988cd2" "locations" "tcp://10.0.2.1:80" 以下是日志样式字段的说明: 参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。 RESPONSEFLAGS说明: 完整名称 短名 说明 NoHealthyUpstream UH 没有健康的上游服务,返回503状态码。 UpstreamConnectionFailure UF 连接上游失败,返回503状态码。 UpstreamOverflow UO 上游服务被熔断,返回503状态码。 NoRouteFound NR 找不到路由或者找不到过滤器链,返回404状态码。 UpstreamRetryLimitExceeded URX 超过上游重试次数。 NoClusterFound NC 找不到上游集群。 DurationTimeout DT 请求超时。 DownstreamConnectionTermination DC 下游连接中断。 FailedLocalHealthCheck LH 集群健康检查失败,返回503状态码。 UpstreamRequestTimeout UT 上游服务超时,返回504状态码。 LocalReset LS 连接被本地重置,返回503状态码。 UpstreamRemoteReset UR 连接被上游重置,返回503状态码。 UpstreamConnectionTermination UC 上游连接中断,返回503状态码。 DelayInjected DI 请求被注入了延迟。 FaultInjected FI 请求被注入了错误。 RateLimited RL 请求被限流,返回429错误码。 UnauthorizedExternalService UAEX 请求被外部授权服务拒绝。 RateLimitServiceError RLSE 由于限流服务报错导致请求被拒绝。 InvalidEnvoyRequestHeaders IH 请求头部异常,返回400错误码。 StreamIdleTimeout SI 请求空闲超时,返回408或者504错误。 DownstreamProtocolError DPE 下游请求HTTP协议错误。 UpstreamProtocolError UPE 上游返回的HTTP协议错误。 UpstreamMaxStreamDurationReached UMSDR 请求上游超时。 ResponseFromCacheFilter RFCF 请求通过envoy缓存插件支撑。 NoFilterConfigFound NFCF 由于没有在时间期限内收到filter配置导致请求被中断。 OverloadManagerTerminated OM 请求被过载管理器中断。 DnsResolutionFailed DF DNS解析失败。 DropOverload DO 请求被上游过载保护机制中断,返回503状态码。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        应用服务网格
      • 安全与加速计费概述
        计费构成 计费方式 计费项 计费描述 参考链接 基础套餐 预付费包月 流量计费 流量和带宽计费方式二选一。 按照实际流量计费,按下行流量与上行流量相加。 仅对防护清洗后的干净流量计费,DDoS攻击产生的流量不计费。 基础套餐 预付费包月 月峰值带宽计费 流量和带宽计费方式二选一。 带宽计费暂不支持官网订购,如果您有需要,可通过 基础套餐 预付费包月 DDoS防护次数 在一个自然月内,如果您订购了高级版,则支持防护攻击带宽峰值不超过40Gbps的DDoS攻击2次。 发生DDoS攻击当天(自然天)的攻击算一次。 套餐外超量费用 预付费流量包 流量包 一次性付费,流量包有效期一年。 资费详见 套餐外超量费用 预付费请求数包 动态请求数包 一次性付费,动态请求数包,有效期一年。 您可以通过控制台开启动态能力,开启动态能力后付费 资费详见 套餐外超量费用 动态请求数按需 动态请求数 对所有的动态优化请求进行计费,包含http动态优化请求和https动态优化请求。 资费详见 套餐外超量费用 流量按需 流量计费 按照实际流量计费,按下行流量与上行流量相加。 仅对防护清洗后的干净流量计费,DDoS攻击产生的流量不计费。 资费详见 套餐外超量费用 带宽按需 月峰值带宽计费 在一个自然月内,对每日的峰值进行排序,最大的那个峰值作为计费值。 若未开通带宽按需,当实际使用带宽超过订购带宽峰值时,则触发限速,将导致超过带宽峰值部分的请求被拦截。 资费详见 扩展服务 预付费包月 域名扩展包、DDoS防护带宽、高级Bot管理、API安全、态势感知大屏、专家服务 如果扩展服务与套餐订购时间一致,到期时间与套餐一致;如果扩展服务订购时间晚于套餐服务,开始计费时间为扩展服务订购日期,到期时间与套餐一致。 扩展服务 按需 内容审核 内容审核按日收费。 扩展服务 按需 DDoS弹性防护 在订购扩展服务DDoS防护带宽的基础上,可开启DDoS弹性防护;未开启扩展服务DDoS防护带宽,不允许开启DDoS弹性防护。 弹性峰值攻击峰值DDoS防护带宽, 弹性防护根据弹性峰值进行阶梯计费,按日收费。
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        安全与加速计费模式
        安全与加速计费概述
      • 在CTS事件列表查看云审计事件
        本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 场景描述 云审计服务能够为您提供云服务资源的操作记录,记录的信息包括发起操作的用户身份、IP地址、具体的操作内容的信息,以及操作返回的响应信息。根据这些操作记录,您可以很方便地实现安全审计、问题跟踪、资源定位,帮助您更好地规划和利用已有资源、甄别违规或高危操作。 什么是事件 事件即云审计服务追踪并保存的云服务资源的操作日志,操作包括用户对云服务资源新增、修改、删除等操作。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 约束与限制 用户通过云审计控制台只能查询最近7天的操作记录,过期自动删除,不支持人工删除。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 用户对云服务资源做出创建、修改、删除等操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 在CTS查看审计事件 1. 登录控制台,单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 4. 事件列表支持通过筛选来查询对应的操作事件。 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 支持的资源类型请参见云审计服务支持的态势感知(专业版)操作列表。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 支持审计的操作事件的名称请参见云审计服务支持的态势感知(专业版)操作列表。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 5. 选择完查询条件后,单击“查询”。 6. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 7. 在需要查看的事件左侧,单击展开该记录的详细信息。 8. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        使用CTS审计态势感知(专业版)
        在CTS事件列表查看云审计事件
      • 产品规格
        一级功能 二级功能 功能描述 标准版 高级版 仪表盘 从全局视角统计重要资产、防护情况、告警趋势、及安全情况,便于用户更好的进行安全响应处置,提升运营效率。 ✓ ✓ 资产中心 查看集群资产、镜像资产、主机节点资产、应用服务资产、K8S配置详细信息。 ✓ ✓ 告警响应 运行态检测 查看所有容器、主机、K8S入侵告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 镜像告警 查看所有触发安全策略的镜像告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 IaC告警 查看存在未通过高危检查的文件。 × ✓ 告警响应 响应中心 查看告警处置记录,包括隔离Pod列表、暂停容器列表、重启Pod列表、镜像阻断列表,并进行白名单管理、一键封堵。 ✓ ✓ 安全合规 基线管理 对各版本的Linux系统按照等保、CIS的基线要求检测,覆盖主流操作系统的检测。 对各版本的kubernetes按照CIS基线要求检测。 对各个版本容器运行环境按照CIS基线要求检测。 ✓ ✓ 安全合规 基线配置 自定义配置基线扫描周期、安全合规达标率等。 ✓ ✓ 镜像安全 镜像管理 对业务环境主机中和镜像仓库中的镜像资产统一管理、安全扫描,并提供可写入dockerfile的修复建议。 ✓ ✓ 镜像安全 镜像策略 通过漏洞规则、文件规则、软件包规则、及其他规则设置来对风险制品镜像进行告警或阻断管控。 ✓ ✓ 镜像安全 镜像设置 配置节点镜像和仓库镜像扫描周期。 ✓ ✓ 容器安全 实时检测 从命名空间或节点的视角实时检测容器安全状态,对容器进行基线检查、容器审计等。 ✓ ✓ 容器安全 容器策略 创建并管理容器入侵检测策略及入侵检测规则。 ✓ ✓ 容器安全 文件防篡改 创建并管理容器防篡改策略。 × ✓ 容器安全 进程访问控制 创建并管理容器进程访问策略,支持进程阻断/放行。 × ✓ 容器安全 弱口令 弱口令字典管理及弱口令检测。 × ✓ 容器安全 容器设置 设置容器保留时长、容器审计信息保留时长,及容器扫描周期。 ✓ ✓ 节点安全 节点安全 查看节点信息、集群组件信息、防御容器健康状态,对节点实时入侵监测,扫描节点漏洞,开启节点debug日志。 ✓ ✓ 节点安全 节点设置 自定扫描新增节点,设置节点更新周期。 ✓ ✓ IaC安全 IaC检查 对于部署资源所编写的编排文件,支持扫描编写内容是否存在风险以及是否符合编写规范。 × ✓ IaC安全 规则管理 统一管理K8S manifests/helmchart文件规则、Dockerfile文件规则、ConfigMap文件规则等。 × ✓ IaC安全 IaC设置 配置自动扫描、周期扫描策略。 × ✓ 集群安全 组件漏洞 扫描Kubernetes 内的kubelet、calico、etcd等组件漏洞信息。 × ✓ 集群安全 安全检查 对集群进行安全检查,发现未通过检查项及影响范围,提供解决方案及参考链接。 × ✓ 集群安全 插件管理 可通过提供插件的形式,帮助用户验证1day漏洞信息。 × ✓ 集群安全 集群审计 记录了对APIServer的访问事件,通过查看、分析日志,可以了解集群的运行状况、排查异常,发现集群潜在的安全、性能等风险对异常事件支持报警。 × ✓ 集群安全 集群策略 配置集群审计策略,管理集群审计规则,管理集群告警规则。 × ✓ 集群安全 集群设置 配置自动扫描新增集群及集群扫描周期。 × ✓ 网络安全 网络策略 通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围。 × ✓ 网络雷达 对容器环境中网络流量进行绘图,打破网络黑洞,支持对命名空间、Pod、主机、集群、外网级别的网络监测。通过对单个业务之间、业务组之间以及多租户之间的网络访问策略配置,通过对业务之间的隔离,来减小被入侵之后的影响范围。通过网络拓扑图从网络层判断入侵的影响范围。 × ✓ 平台管理 日志审计 对系统操作日志进行统计及报表输出。 ✓ ✓ 安装配置 支持天翼云原生集群或非原生集群部署方式。 ✓ ✓ 订单中心 查看用户订单情况,可以进行退订、扩容、续订等操作。 ✓ ✓ 任务中心 查看任务执行情况,可以进行终止、删除、查看详情等操作。 ✓ ✓ 消息中心 查收系统内部消息。 ✓ ✓
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        产品规格
      • 常用数据库参数调优
        本页介绍天翼云TeleDB数据库常用的配置参数调优说明。 常用数据库性能相关参数 参数 类型 用途 默认值/最大值 生效方式 sharedbuffers integer 设置数据库服务器将使用的共享内存缓冲区大小,这个值一般建议1/4物理内存大小。由于进程之间需要同步共享内存信息、且PG还会使用操作系统缓存,因此不宜太大。需要根据内存命中率的情况适当调整该参数 资源模板的1/4 restart tempbuffers integer 连接本地内存,仅用于访问临时表,并不是设置多大就分配多大,而是分配一个buffer指针,按需扩展到tempbuffers。 8MB userset workmem integer 连接本地内存,用于连接的一些排序、hash table等操作,如果workmem不够,则会申请临时磁盘空间。 4MB userset maintenanceworkmem integer 维护操作能申请的最大内存,例如:VACUUM, CREATE INDEX,提高会加速这些操作,包括pgrestore操作。注意autovacuumworkmem如果没有设置,则会使用这个设置,最多能申请autovacuummaxworkersautovacuumworkmem大小内存。因此建议在做维护操作的连接单独设置,并给autovacuum进程单独设置autovacuumworkmem。 64MB userset vacuumcostlimit integer 累积的cost消耗到这个值后,vacuum休眠vacuumcostdelay(默认为0,不休眠)时间。 PG为200,TDSQLPG默认为10000 restart autovacuumvacuumcostdelay floating point 当前所有autovacuum进程积累的cost消耗到autovacuumvacuumcostlimit后休眠的时间。 PG为2ms,TDSQLPG默认为20ms restart walcompression boolean full page image 在写入到WAL中进行压缩,目前是gzip压缩方式,压缩比能到30%。对wal日志比较大系统有提升,但会消耗CPU,一般在5%左右,不同CPU影响程度不一样。 off restart checkpointtimeout integer 两次自动checkpoint间隔时间,设置越大故障时间越长,但IO可能会更平滑,但不能一味设置很大,要看系统的IO、业务压力情况而定。 PG为5min,TDSQLPG默认为10min restart checkpointcompletiontarget floating point checkpoint完成目标,尽量让checkpoint在checkpointcompletiontarget checkpointtimeout时间内完成。 如果checkpoint时间太短,会让checkpoint进入急速模式,IO压力骤增。 PG为0.5min,TDSQLPG默认为0.93 restart randompagecost integer 随机扫描一个块的代价基准值,建议值:SATA/SAS盘: 4SSD:2Nvme SSD:1 PG为4,TDSQLPG默认为2 restart effectivecachesize integer 生成执行计划时,评估数据库能用的缓冲内存大小(sharedbuffers+操作系统的文件系统缓存),不会实际占用。值越大更偏向于走索引扫描,一般可设置总内存 sharedbuffers 业务内存。 4GB restart logmindurationstatement integer 执行时间超过logmindurationstatement的SQL将记录到数据库运行日志中。 PG为1,TDSQLPG默认为10000 reload logstatement enum 设置数据库对那些类型SQL进行日志记录。推荐设置为DDL,加上logmindurationstatement针对慢SQL的设置即可。 PG为none,TDSQLPG默认为ddl reload autovacuumvacuumscalefactor integer 表中数据变化(inserted, updated or deleted tuples)超过表数据比例,之后才会触发autovacuum中的vacuum。 autovacuumanalyzescalefactor同理(PG为0.1,TDSQLPG默认为0.0001)。 PG为0.2,TDSQLPG默认为0.0002 库/表级参数,表级优先 reload fillfactor integer 表填充因子,数据块在插入多少比例数据之后不再插入,留下空间给update操作copy新行使用。在同一块中申请空间,将用到HOT update,对update性能提升很大。 默认为100 表级参数。更改参数需要重建表生效。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        性能优化最佳实践
        配置参数调优
        常用数据库参数调优
      • 透明存储加密
        本页介绍天翼云TeleDB数据库中透明存储加密。 透明存储加密方式(Transparent Data Encryption, TDE)是一种保护数据库中静态数据的加密技术,使数据在存储时自动加密,有助于防止未授权访问和数据泄露。透明存储加密的特点是数据在加密和解密过程对应用程序透明,该过程中应用程序无需进行任何修改,从而简化了实施流程。加密操作(函数调用)与业务侧解耦合,业务只负责传递原始数据到数据库内核,后续的加密计算在数据库内部完成,从而业务侧操作上无感知。 透明加密的方案 透明加密是由自动加密与解密和加密密钥管理两部分机制组成。 自动加密与解密:当数据写入磁盘,TDE会自动对数据进行加密。当数据从磁盘读取时, TDE会自动对数据进行解密。整个加密与解密过程,用户和应用程序将不会感知。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密密钥管理:TDE通常使用对称加密算法(如AES)。加密密钥被存储在数据库管理系统外部或安全位置,加密算法的由数据库维护,包括加密算法的选择、秘钥管理,都可以由安全员独立操作完成,以确保数据安全。 开启透明存储加密 TeleDB数据库支持提供TDE功能。当用户需要对磁盘上存储的数据进行加密和解密来实现对数据的保护时,可以对该功能进行开启。 注意 TDE功能仅能在实例开通时开启,且开启后无法关闭。 支持加密功能的内核版本为:5.1.5。 您可参考如下操作开启透明加密。 管控侧操作: 1. 以用户名和密码登录TeleDBDCP管理控制台。 2. 进入TeleDBDCP控制台管理页面,开通实例。您可参考《安装部署》中实例服务初始化及实例开通章节开通实例。 3. 在实例开通页面,填写基本信息页面,打开KMS开关,选择KMS机器。 说明 KMS开启后无法关闭,选择后无法更改。 数据库侧操作: 说明 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建⽴关联。同时⽀持,将已经绑定的算法从schema,表和列上解绑,从⽽取消加密算法和数据库对象之间的关联关系。 1. 创建加密算法 SELECT MLSTRANSPARENTCRYPTCREATEALGORITHM(algoname, password) 2. 注销加密算法 SELECT MLSTRANSPARENTCRYPTDROPALGORITHM(algoid) 3. 加密算法绑定 (1) 绑定到Schema SELECT MLSTRANSPARENTCRYPTALGORITHMBINDSCHEMA(schemaname, algoid) (2) 绑定到表 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, algoid) (3) 绑定到列 SELECT MLSTRANSPARENTCRYPTALGORITHMBINDTABLE(schemaname, tablename, attrname, algoid) 4. 加密算法解绑 SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDSCHEMA(schemaname) SELECT MLSTRANSPARENTCRYPTALGORITHMUNBINDTABLE(schemaname, tablename, needcascade) 使用示例 创建管理插件 CREATE EXTENSION teledbxmls; 切换为安全管理员⽤⼾ c mlsadmin 注册内置的加密算法和对应密钥(此处使⽤国测sm4加密算法进⾏注册),获得对应的algo id select MLSTRANSPARENTCRYPTCREATEALGORITHM('SM4','0123456789012345'); select MLSTRANSPARENTCRYPTCREATEALGORITHM('AES128','0123456789012345'); c xieyuecreate table t1(id int,content int); c mlsadmin 将加密算法绑定到表上 select MLSTRANSPARENTCRYPTALGORITHMBINDTABLE('public','t1',1); insert into t1 values(1,0), (2,0), (3,0); insert into t1 values(7, 0), (8,0), (9,0);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据加密
        透明存储加密
      • 轻量型云主机到期后忘记续费了,会出现什么后果?
        如果您忘记续费,到期当天您的云主机将无法操作,并进入保留期,到期十五天后,将会删除相关资源,建议您尽快进行手动续费。 若资源进入宽限期或保留期后续费,所有资源续费周期的开始时间为原资源的到期时间(不包括宽限期和保留期)。 例如,用户A于2020年4月1日订购包月云主机1个月,资源于2020年4月30日到期,用户A于2020年5月10日续订1个月,新的资源到期时间为5月30日。5月1日9日用户所订购资源处于欠费冻结状态,续订后将需扣除上述欠费时长,因此,建议您在资源到期冻结前及时续订。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        计费类
        轻量型云主机到期后忘记续费了,会出现什么后果?
      • HPFS-NFS客户端挂载
        您可以使用HPFSNFS客户端进行挂载,本文帮助您快速上手文件系统挂载。 操作场景 当创建文件系统后,如您需要使用云主机或CPU物理机来挂载该文件系统,实现多个客户端共享访问的场景。 前提条件 在需要操作的地域已创建虚拟私有云VPC,具体操作步骤参见创建虚拟私有云VPC。 已创建该VPC下的弹性云主机,操作系统为Linux,具体操作步骤参见创建弹性云主机。 已创建并行文件的文件系统,具体操作步骤参见创建文件系统。 文件系统配置了协议服务功能,具体操作步骤参见创建协议服务。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算”>“弹性云主机”,进入弹性云主机控制台页面,找到即将执行挂载操作的云主机。 3. 以root用户登录该弹性云主机。 4. 执行以下命令查询该云主机是否安装NFS客户端,若没有返回安装结果,执行第5步进行安装。 plaintext rpm qa grep nfsutils 5. 安装NFS客户端。安装时注意不同操作系统执行命令不同。 CentOS系统,执行以下命令: plaintext yum y install nfsutils Ubuntu系统,执行以下命令: plaintext sudo aptget install nfscommon 6. 执行如下命令创建本地挂载路径,例如“/mnt/hpfs”。 plaintext mkdir /mnt/hpfs 7. 执行如下命令挂载文件系统。 plaintext mount t nfs o vers3,prototcp,async,nolock,noatime,nodiratime,noresvport,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径 注意 文件系统详情页>协议服务列表:查看VPC挂载地址或VPCE挂载地址,可根据您客户端组网方式选择,具体操作步骤参见:查询协议服务。 挂载命令参数说明: 参数 说明 vers 文件系统版本,可选3或4。建议取值:3。 proto 客户端向服务器发起传输请求使用的协议,可以为udp或者tcp,建议取值:tcp。 async sync为同步写入,表示将写入文件的数据立即写入服务端;async为异步写入,表示将数据先写入缓存,再写入服务端。同步写入要求NFS服务器必须将每个数据都刷入服务端后,才可以返回成功,时延较高。建议取值:async。 nolock 选择是否使用NLM协议在服务端锁文件。当选择nolock选项时,不使用NLM锁,锁请求仅在本机进行,仅对本机有效,其他客户端不受锁的影响。如果不存在多客户端同时修改同一文件的场景,建议取值nolock以获取更好的性能。如不加此参数,则默认为lock。 noatime 如果不需要记录文件的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 nodiratime 如果不需要记录目录的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 noresvport 网络故障时自动切换端口,保障网络连接。手动挂载和自动挂载时均建议加入此参数。 wsize 每次向服务器写入文件的最大字节数,实际数据小于或等于此值。wsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 rsize 每次向服务器读取文件的最大字节数,实际数据小于或等于此值。rsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。建议取值:600。 挂载地址 挂载地址在文件系统详情页获取,在文件系统详情页>协议服务列表,选择VPC挂载地址或VPCE挂载地址,点击复制即可。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,例如上一步创建的“/mnt/hpfs”。 8. 建议使用NFSv3协议挂载,如需使用NFSv4协议挂载,请在每个NFS客户端按以下步骤配置nfs4uniqueid。 plaintext
        来自:
        帮助文档
        并行文件服务 HPFS
        快速入门
        挂载文件系统
        HPFS-NFS客户端挂载
      • 迁移数据库
        本章节介绍了如何创建DRS实例,并将本地Oracle上的testinfo数据库迁移到云数据库GaussDB 实例中testdatabaseinfo数据库中。 迁移前检查 在创建任务前,需要针对迁移条件进行手工自检,以确保您的迁移任务更加顺畅。 在迁移前,您需要参考入云使用须知获取迁移相关说明。 创建迁移任务 1. 登录天翼云控制台。 2. 单击管理控制台左上角的,选择区域。选择目标实例所在的区域。 3. 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据复制”。 4. 左侧导航栏选择“实时同步管理”,单击“创建同步任务”。 5. 配置同步实例信息。 a) 选择区域,项目,填写任务名称。 b) 配置迁移任务的类型,选择目标实例和子网等。 c) 单击“开始创建”。 6. 配置源库及目标库信息。 a) 填写源库的IP、端口、用户、密码等信息。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 b) 填写目标库的账户和密码。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 c) 单击“下一步”,仔细阅读提示内容后,单击“同意,并继续”。 7. 设置同步。 a) 在源库选择需要迁移的数据库和表。本次实践中选择“ testinfo” 中的 “DATATYPELIST” 表。 b) 选择完成后,可以设置迁移后是否重新命名库名和表名。 c) 本次实践将表名重新命名为“ DATATYPELISTAfter ”。 注意重新命名时不要使用特殊符号,否则会导致迁移后执行SQL语句报错。 d) 确认重命名设置内容,单击“下一步”。 8. 高级设置。 本页面内容仅做确认,无法修改,确认完成后单击“下一步”。 9. 数据加工。 在该页面可以对迁移的表进行加工。包括选择迁移的列,重新命名迁移后的列名,本次实践将“ COL01CHARE ”重新命名为“ newline ”。 a) 选择需要加工的表。 b) 编辑“COL01CHARE”列。 c) 将“COL01CHARE”重新命名为“newline”,单击“确定”。 d) 单击“下一步”。 10. 预检查。 a) 所有配置完成后,进行预检查,确保迁移成功。 b) 对于未通过的项目,根据检查结果中的提示信息修复,修复完成后,单击“重新校验”,直到预检查通过率为100%。 c) 预检查全部通过后,单击“下一步”。 11. 任务确定。 a) 检查所有配置项是否正确。 b) 单击“启动任务”,仔细阅读提示后,勾选“我已阅读启动前须知”。 c) 单击“启动任务”,完成任务创建。 12. 任务创建成功。 任务创建成功后,返回任务列表查看创建的任务状态。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移数据库
      • 产品优势
        本文介绍云容器引擎的产品优势。 云容器引擎是基于业界主流的Docker和Kubernetes开源技术构建的容器服务,提供众多契合企业大规模容器集群场景的功能,在系统可靠性、高性能、开源社区兼容性等多个方面具有独特的优势,满足企业在构建容器云方面的各种需求。云容器引擎的优点有:大幅提高线上业务的运维、弹性伸缩能力;大幅提高资源、设备及人力的利用率,降低成本;大幅提升产品、业务应用的研发效率。 管理简单 帮助用户屏蔽了底层技术架构,云容器引擎具有强大的集群管理功能,简单的操作流程。用户可自定义集群应用,只需进行简单的单击操作,即可完成业务部署,无需参与底层网络、存储等的技术设计,无需手动搭建docker及kubernetes集群,并进行证书、密钥等配置,减少技术人员的投入,节约人力成本。 云容器引擎平台为集群、应用、容器、网络、配置项、命名空间等丰富的集群资源提供了直观的界面化管理,简化了用户操作。用户可随时随地登陆,进行应用容器的生命周期管理,灵活的安排运行的应用业务,浏览当前具备的资源及业务运行状态,大幅降低了用户的管理成本、运维成本。 安全稳定 云容器引擎服务提供3个master主节点的高可用集群,去中心化式的集群架构,确保当单个主控节点出现问题时,集群也能够无中断的继续运行。相比用户自建的单主控节集群,业务稳定性与连续性大大提高。 云容器服务基于天翼云优秀的IAAS层基础架构搭建,成熟的虚拟化技术、优质的网络架构,以及多层次的安全防护能力,从底层确保了上层容器服务的稳定可靠性。用户可自定义安全组规则,进一步提高隔离水平。 伴随业务版本的快速迭代,云容器引擎服务提供了渐进式的滚动升级策略,搭配容器镜像服务,通过web界面一键完成应用版本升级,无忧实现业务平滑替换,提高业务连续性,保障优质的用户体验感。 云容器引擎提供集群、节点、容器多层面的状态监控,支持全时段的事件监控,应用日志查看,容器健康检查等功能,用户只需登陆容器引擎平台总览页面,即可将集群、网络、CPU、内存资源等信息尽收眼底,时刻把握集群情况,并快速定位故障发生原因,减少运维人力,提高运维效率。 轻松应对 云容器引擎提供了应用层级别的水平伸缩能力,即Horizontal Pod Autoscaling(HPA),支持用户自定义Pod伸缩策略,根据容器资源使用情况,自动快速调整Pod数量,及时应对用户业务流量变化,保障业务对外能力可用。 云容器引擎支持应用与节点、应用间的亲和、反亲和性质的调度策略配置,帮助用户实现节点负载的合理安排和组织,提高系统的稳定性、扩展性。提高各节点的资源利用效率。支持Pod级别迁移策略配置,当节点出现故障时可快速迁移应用。 开放兼容 云容器引擎服务深度整合了天翼云平台成熟的计算、存储、网络、安全等云产品功能,提高了系统的可扩展性。用户可集合平台提供的其它云产品能力,如云主机监控、存储管理等,进一步构建完善云上业务系统。 云容器引擎在Docker技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性。云容器引擎基于业界主流Kubernetes实现,完全兼容Kubernetes/Docker社区原生版本,与社区最新版本保持紧密同步,完全兼容Kubernetes API和Kubectl。 特色功能 镜像仓库:容器引擎为用户提供了配套的镜像仓库管理服务,支持创建仓库及镜像管理等基础功能,并为用户提供了丰富的官方镜像资源,覆盖面广,满足用户不同的业务需求,保障了镜像的可靠性与安全性。用户无需自行搭建和运维仓库,即可一键快速完成业务容器化部署,提高业务容器化效率。 天翼云平台为用户提供了专业的售后运营团队,全天候724小时服务。用户可通过工单、电话等渠道,对产品故障进行反应。团队将及时响应,并快速定位问题,解决客户的疑难杂症。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        产品优势
      • 流式文件处理
        本章节主要介绍如何使用函数流实现流式大文件处理。 背景与价值 Serverless Workflow由于自身可编排、有状态、持久化、可视化监控、异常处理、云服务集成等特性,适用于很多应用场景,比如: 复杂度高需要抽象的业务(订单管理,CRM 等) 业务需要自动中断 / 恢复能力,如多个任务之间需要人工干预的场景(人工审批,部署流水线等) 业务需要手动中断 / 恢复(数据备份 / 恢复等) 需要详细监控任务执行状态的场景 流式处理(日志分析,图片 / 视频处理等)当前大部分 Serverless Workflow 平台更多关注控制流程的编排,忽视了工作流中数据流的编排和高效传输,上述场景创建函数流触发器中,由于数据流相对简单,所以各大平台支持都比较好,但是对于文件转码等存在超大数据流的场景,当前各大平台没有给出很好的解决方案。FunctionGraph函数工作流针对该场景,提出了 Serverless Streaming 的流式处理方案,支持毫秒级响应文件处理。 技术原理 FunctionGraph函数工作流提出 Serverless Streaming 的流式可编排的文件处理解决方案,步骤与步骤之间通过数据流驱动,更易于用户理解。本章通过图片处理的例子解释该方案的实现机制。 如果需要驱动一个工作流执行,工作流系统需要处理两个部分: 控制流:控制工作流的步骤间流转,以及步骤对应的 Serverless 函数的执行。确保步骤与步骤之间有序执行。 数据流:控制整个工作流的数据流转,通常来说上一个步骤的输出是下一个步骤的输入,比如上述图片处理工作流中,图片压缩的结果是打水印步骤的输入数据。 在普通的服务编排中,由于需要精准控制各个服务的执行顺序,所以控制流是工作流的核心部分。然而在文件处理等流式处理场景中,对控制流的要求并不高,以上述图片处理场景举例,可以对大图片进行分块处理,图片压缩和加水印的任务不需要严格的先后顺序,图片压缩处理完一个分块可以直接流转到下一个步骤,而不需要等待图片压缩把所有分块处理完再开始加水印的任务。 基于上述理解,FunctionGraph工作流的 Serverless Streaming 方案架构设计如下图所示: 在 Serverless Streaming 的流程中,弱化控制流中步骤之间的先后执行顺序,允许异步同时执行,步骤与步骤之间的交互通过数据流驱动。其中数据流的控制通过 Stream Bridge 组件来实现。同时函数 SDK 增加流式数据返回接口,用户不需要将整个文件内容返回,而是通过 gRPC Stream 的方式将数据写入到 Stream Bridge,Stream Bridge 用来分发数据流到下一个步骤的函数 Pod 中。
        来自:
        帮助文档
        函数工作流
        用户指南
        函数流管理
        流式文件处理
      • 创建Topic
        场景描述 RocketMQ的Topic是消息的逻辑分类单位,用于将消息进行分组和管理。创建Topic的场景可以根据具体业务需求来确定,以下是一些常见的场景描述: 消息发布与订阅:当需要实现消息发布与订阅模式时,可以创建一个主题来管理相关的消息。发布者可以将消息发送到该主题,而订阅者可以订阅该主题以接收感兴趣的消息。 事件驱动架构:在事件驱动的架构中,不同的模块之间通过事件进行通信。每个事件可以对应一个主题,模块可以将事件发送到相应的主题,其他模块可以订阅该主题以接收事件通知。 日志收集与分析:当需要收集大量的日志数据并进行分析时,可以创建一个主题来管理日志消息。日志产生者可以将日志消息发送到该主题,而日志消费者可以订阅该主题以进行实时分析或存储。 异步处理:当需要将某些操作异步处理时,可以创建一个主题来管理相关的异步消息。操作发起者可以将异步消息发送到该主题,而异步处理器可以订阅该主题以进行后续的异步处理。 分布式事务消息:在分布式系统中,当需要实现分布式事务消息时,可以创建一个主题来管理相关的事务消息。事务发起者可以将事务消息发送到该主题,而事务消费者可以订阅该主题以进行事务的处理和确认。 总的来说,创建主题的场景可以根据具体的业务需求来确定。主题可以帮助将消息进行逻辑分类和管理,实现不同的消息传递模式和业务场景。 新建Topic 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【创建Topic】按钮 5、 在弹出的创建Topic页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择Topic所在的Broker,按照实例创建时候选择的主备节点对数列出每个Broker,可复选。 3)填写Topic名称,名字限制2到64个字符,超过限制会导致创建Topic失败,用户创建Topic只能包含大小写字母数字以及和符号。 4)按照实际需求填写Topic备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个Broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择Topic的读写权限,支持读写、只读、只写3类权限。 8)完成Topic信息填写后,保存确认即可新增主题。 9)若希望批量创建Topic,可点击【导入Topic】按钮。 导入Topic 注意:输入的Topic名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【下载模板】按钮下载。 Topic模板 批量上传Topic的模板,必须使用模板,才能够上传成功,模板格式如下: TopicName QueueNums Perm MessageType Topic1 4 6 NORMAL Topic2 1 6 FIFO Topic3 4 6 DELAY Topic4 4 6 TRANSACTION
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        创建Topic
      • 自定义防护规则组
        本文为您介绍Web基础防护模块中,自定义防护规则组的配置方式。 云WAF的防护规则引擎支持用户自定义搭建防护规则组,为具体的防护场景创建有针对性的防护策略。在设置网站防护功能时,如果默认的防护规则组不能满足您的需求,建议您自定义防护规则组。 前提条件 已开通了Web应用防火墙,且实例版本为标准版及以上版本。 已完成网站接入。具体操作,请参见添加域名。 使用限制 基础版不支持自定义防护规则组,请升级到更高版本使用。 使用流程 防护规则组应用流程如下: 1. 新建规则组:为具体防护功能创建自定义防护规则组,形成有针对性的防护策略。 2. 应用规则组:添加自定义防护规则组后,您可以为网站域名应用自定义防护规则组。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“Web基础防护”模块,在防护规则组后方点击“前去配置”。 7. 进入“规则组配置”页面,可以看到当前的规则组列表。规则组列表展示了系统默认防护规则组及自定义防护规则组。 8. 在规则组列表上方,点击“新建规则组”,进入新建规则组页面,完成以下信息配置。 配置项 说明 规则组名称 设置规则组的名称。规则组名称用于标识当前规则组,建议您使用有明确含义的名称。 规则组模板 选择要应用的规则组模板。可选项: 严格规则组 中等规则组 宽松规则组 其他自定义规则组 规则组模板可以多选,系统会将所选的规则组最大集作为模板,下一步基于该集合进行规则配置。 规则组描述 输入规则组的描述信息。 规则配置 选择当前规则组要应用的防护规则。当前规则列表默认展示您所选的规则组模板集合中的所有规则,您需要从中勾选适用的规则,将不适用或者可能造成误拦截的规则取消勾选。 您可以使用筛选和搜索功能查询规则,例如通过危险等级、防护类型筛选规则,或者输入规则名称、CVE编号、规则ID搜索规则。 危险等级:表示规则防御的Web攻击的危险等级,包括高危、中危、低危。 防护类型:表示规则防御的Web攻击类型,包括SQL注入、XSS、目录穿越、Java代码执行、PHP代码执行、ASP代码执行、通用代码执行、Java反序列化、PHP反序列化、本地文件包含、远程文件包含、文件上传、CSRF、SSRF、命令注入、信息泄露、模板注入、XML实体注入、Xpath注入、LDAP注入、自定义精准攻击、未知攻击。 9. 如您暂时无需应用新建的规则组,可以在完成以上配置后,点击“保存”,完成配置向导。后续需要应用该规则组的时候再配置即可。 10. (可选)点击“下一步,应用到防护对象”将规则组应用到域名。从“待接入防护对象”列表中选择要应用当前规则组的域名,添加到“已接入防护对象”列表,单击“保存”。 注意 每个防护对象只能应用一个防护规则组。 11. 完成操作后,您可以在规则组列表中查看新建的规则组,包括规则组的更新时间以及应用域名的情况。 12. 您可以根据需要调整应用防护规则组的域名,通过点击“应用到防护对象”进行操作即可。 13. 创建规则组后,您可以在防护规则组列表中查看规则组内置规则情况,点击“内置规则数”列的数字进入规则列表。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        Web核心防护
        自定义防护规则组
      • 签名&鉴权
        一、获取ak、sk 1.登录天翼云CDN+IAM 。 2.在个人中心AccessKey管理页面,点击新增按钮。 3.选择对应的工作区并确定,此时你可以查看到AccessKey已生成。 4.选中密钥,点击查看。为保障安全,需要填写手机验证码。验证通过后,点击显示SK,即可查看详情,并支持复制和发送邮箱操作。 二、鉴权方式 在httpclient的请求头增加3个字段,分别是eopdate、ctyuneoprequestid、EopAuthorization。 1.构造eopdate 。该字段的格式是“yyyymmddTHHMMSSZ”,言简意赅就是“年月日T时分秒Z”,示例“eopdate:20211221T163614Z”。 2.构造ctyuneoprequestid 。该字段是uuid,32位随机数。 3.构造EopAuthorization 。按以下步骤进行: 3.1构造代签字符串sigture 。sigture 需要进行签名的Header排序后的组合列表+ " n " + 排序的query + " n " +toHex(sha256(原封的body))。 步骤 构造请求头的方法 需要进行签名的Header排序后的组合列表 将ctyuneoprequestid、eopdate以 “headername:headervalue”的形式、以“n ”作为每个header的结尾符、以英文字母表作为headername的排序依据将它们拼接起来。 注意:EOP强制要求ctyuneoprequestid、eopdate必须进行签名。其他字段是否需要签名看自身需求。 例子(假设你需要将ctyuneoprequestid、eopdate、host都要签名): ctyuneoprequestid:123456789neopdate:20210531T100101Zn 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制 sigture 示例1 (假设query 为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Z n”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Z nnne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 sigture 示例2 (假设query 不为空 、需要进行签名的Header排序后的组合列表为“ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160752Z n”、body参数做sha256摘要后转十六进制为e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855): ctyuneoprequestid:27cfe4dce64045f692ca492ca73e8680n eopdate:20220525T160930Z nnaa1&bb2ne3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 3.2构造动态秘钥kdate 。 3.2.1使用eopdate作为数据,sk作为密钥,算出ktime。 3.2.2使用ak作为数据,ktime作为密钥,算出kAk。 3.2.3使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 步骤 构造动态密钥的方法 : eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) Ktime 使用eopdate作为数据,sk作为密钥,算出ktime。 Ktime hmacSha256(eopdate,sk) kAk 使用ak作为数据,ktime作为密钥,算出kAk。 kAk hmacsha256(ak,ktime) kdate 使用eopdate的年月日值作为数据,kAk作为密钥,算出kdate。 kdate hmacsha256(eopdate,kAk) 3.3构造Signature 。使用kdate作为密钥、sigture作为数据,将其得到的结果进行base64编码得出Signature。 步骤 构造签名的方法 Signature 1)hmacsha256(sigture,kdate) 2)将上一步的结果进行base64加密得出Signature 3.4构造EopAuthorization 。 3.4.1构造Headers。 3.4.2得到EopAuthorization。 EopAuthorization:ak Headersxxx Signaturexxx。 步骤 构造EopAuthorization的方法 : Headers 将需要进行签名的请求头字段以 “headername”的形式、以“;”作为间隔符、以英文字母表作为headername的排序依据将它们拼接起来。 例子(假设你需要将ctyuneoprequestid、eopdate都要签名):Headers ctyuneoprequestid;eopdate EopAuthorization EopAuthorization:ak Headersxxx Signaturexxx。注意,ak、Headers、Signature之间以空格隔开。 例如:EopAuthorization:ak Headersctyuneoprequestid;eopdate SignatureNlMHOhk5bVfZ9MwDSSJydcZjjENmDtpNYigJGVb 注意:如果你需要进行签名的Header不止默认的ctyuneoprequestid和eopdate,那么你需要在httpclient的请求头部中加上,并且EopAuthorization中也需要增加 三、 签名示例
        来自:
        帮助文档
        全站加速
        API参考
        如何调用API
        签名&鉴权
      • 1
      • ...
      • 285
      • 286
      • 287
      • 288
      • 289
      • ...
      • 307
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      弹性伸缩服务 AS

      AI Store

      模型推理服务

      应用托管

      人脸检测

      人脸比对

      身份证识别

      推荐文档

      免费注册

      消费重置

      大事记

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号