云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      时序数据库Influx版_相关内容
      • SQL查询优秀实践
        本章节主要介绍SQL查询优秀的最佳实践。 根据数据库的SQL执行机制以及大量的实践总结发现:通过一定的规则调整SQL语句,在保证结果正确的基础上,能够提高SQL执行效率。 使用union all代替union union在合并两个集合时会执行去重操作,而union all则直接将两个结果集合并、不执行去重。执行去重会消耗大量的时间,因此,在一些实际应用场景中,如果通过业务逻辑已确认两个集合不存在重叠,可用union all替代union以便提升性能。 join列增加非空过滤条件 若join列上的NULL值较多,则可以加上is not null过滤条件,以实现数据的提前过滤,提高join效率。 not in转not exists not in语句需要使用nestloop anti join来实现,而not exists则可以通过hash anti join来实现。在join列不存在null值的情况下,not exists和not in等价。因此在确保没有null值时,可以通过将not in转换为not exists,通过生成hash join来提升查询效率。 如下所示,如果t2.d2字段中没有null值(t2.d2字段在表定义中not null)查询可以修改为 SELECT FROM t1 WHERE NOT EXISTS (SELECT FROM t2 WHERE t1.c1t2.d2); 产生的计划如下: not exists执行计划 选择hashagg 。 查询中GROUP BY语句如果生成了groupagg+sort的plan性能会比较差,可以通过加大workmem的方法生成hashagg的plan,因为不用排序而提高性能。 尝试将函数替换为case语句。 DWS函数调用性能较低,如果出现过多的函数调用导致性能下降很多,可以根据情况把可下推函数的函数改成CASE表达式。 避免对索引使用函数或表达式运算。 对索引使用函数或表达式运算会停止使用索引转而执行全表扫描。 尽量避免在where 子句中使用! 或<> 操作符、null值判断、or连接、参数隐式转换。 对复杂SQL语句进行拆分。 对于过于复杂并且不易通过以上方法调整性能的SQL可以考虑拆分的方法,把SQL中某一部分拆分成独立的SQL并把执行结果存入临时表,拆分常见的场景包括但不限于: −作业中多个SQL有同样的子查询,并且子查询数据量较大。 −Plan cost计算不准,导致子查询hash bucket太小,比如实际数据1000W行,hash bucket只有1000。 −函数(如substr,tonumber)导致大数据量子查询选择度计算不准。 −多DN环境下对大表做broadcast的子查询。 其他更多调优点,请参考《开发指南》中的“典型SQL调优点”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        SQL查询优秀实践
      • 使用Redis实现排行榜功能
        本节基于天翼云分布式缓存服务实践所编写,用于指导您在以下场景使用DCS实现排行榜功能。 场景介绍 在网页和APP中常常需要用到榜单的功能,对某个keyvalue的列表进行降序显示。当操作和查询并发大的时候,使用传统数据库就会遇到性能瓶颈,造成较大的时延。 使用分布式缓存服务(DCS)的Redis版本,可以实现一个商品热销排行榜的功能。它的优势在于: 数据保存在缓存中,读写速度非常快。 提供字符串(String)、链表(List)、集合(Set)、哈希(Hash)等多种数据结构类型的存储。 实践指导 1. 准备一台弹性云主机(ECS),选择Windows系统类型。 2. 在ECS上安装JDK1.8以上版本和Eclipse,下载jedis客户端(点此处直接下载jar包)。 3. 在天翼云控制台购买DCS缓存实例。注意和ECS选择相同虚拟私有云、子网以及安全组。 4. 在ECS上运行Eclipse,创建一个java工程,为示例代码创建一个productSalesRankDemo.java文件,并将jedis客户端作为library引用到工程中。 5. 将DCS缓存实例的连接地址、端口以及连接密码配置到示例代码文件中。 6. 编译并运行得到结果。 代码示例 package dcsDemo02; import java.util.ArrayList; import java.util.List; import java.util.Set; import java.util.UUID; import redis.clients.jedis.Jedis; import redis.clients.jedis.Tuple; public class productSalesRankDemo { static final int PRODUCTKINDS 30; public static void main(String[] args) { //实例连接地址,从控制台获取 String host "192.168.0.246"; //Redis端口 int port 6379; Jedis jedisClient new Jedis(host, port); try { //实例密码 String authMsg jedisClient.auth(""); if (!authMsg.equals("OK")) { System.out.println("AUTH FAILED: " + authMsg); } //键 String key "商品热销排行榜"; jedisClient.del(key); //随机生成产品数据 List productList new ArrayList<>(); for(int i 0; i sortedProductList jedisClient.zrevrangeWithScores(key, 0, 1); for(Tuple product : sortedProductList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } System.out.println(); System.out.println(" "+key); System.out.println(" 前五大热销产品"); //获取销量前五列表并输出 Set sortedTopList jedisClient.zrevrangeWithScores(key, 0, 4); for(Tuple product : sortedTopList) { System.out.println("产品ID: " + product.getElement() + ", 销量: " Double.valueOf(product.getScore()).intValue()); } } catch (Exception e) { e.printStackTrace(); } finally { jedisClient.quit(); jedisClient.close(); } } }
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        使用Redis实现排行榜功能
      • X实例
        本文主要介绍X实例详细内容。 概述 X实例弹性云主机搭载英特尔® 至强® 可扩展处理器,配套25GE智能高速网卡,提供较高网络带宽和PPS收发包能力,提供更高性价比。技术上采用非绑定CPU共享调度模式,vCPU会根据系统负载被随机分配到空闲的CPU超线程上。在主机负载较轻时,可以提供较高的计算能力,但是在主机负载较重时,可能由于不同实例vCPU争抢物理CPU资源而导致计算性能波动不稳定。 规格名称 计算 磁盘类型 网络 X实例 CPU/内存配比:1:1/1:2/1:4 vCPU数量范围:116 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 高IO 超高IO 通用型SSD 极速型SSD 支持IPv6 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:100万PPS 最大内网带宽:12Gbps 类型 CPU基频/睿频 CPU型号 X实例 2.6GHz/3.5GHz 6278C(104HT) 使用场景 对网络收发包性能有较高要求的网站和Web应用 轻量级数据库及缓存服务器 中轻载企业应用 规格 表 X实例弹性云主机规格 规格名称 vCPU 内存(GiB) 基准带宽/最大带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 x1.2u.2g 2 2 0.2/2 30 2 2 KVM x1.2u.4g 2 4 0.2/2 30 2 2 KVM x1.2u.8g 2 8 0.2/2 30 2 2 KVM x1.4u.4g 4 4 0.4/3 50 2 2 KVM x1.4u.8g 4 8 0.4/3 50 2 2 KVM x1.4u.16g 4 16 0.4/3 50 2 2 KVM x1.8u.8g 8 8 0.8/6 80 2 2 KVM x1.8u.16g 8 16 0.8/6 80 2 2 KVM x1.8u.32g 8 32 0.8/6 80 2 2 KVM x1.12u.12g 12 12 1.2/8 90 4 3 KVM x1.12u.24g 12 24 1.2/8 90 4 3 KVM x1.12u.48g 12 48 1.2/8 90 4 3 KVM x1.16u.16g 16 16 1.6/12 100 4 3 KVM x1.16u.32g 16 32 1.6/12 100 4 3 KVM x1.16u.64g 16 64 1.6/12 100 4 3 KVM
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        X实例
      • 配置加密
        配置加密 MSE注册配置中心的配置数据一般都是以明文的格式存储,但是对于部分敏感数据可能需要加密存储和传输,通过SPI插件机制实现配置加密和解密,从而减少数据泄露风险。 创建加密配置 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池; 2. 在左侧导航栏,选择注册配置中心 > 实例列表,单击实例ID 或者"管理"按钮跳转至基础信息页面; 3. 在基础信息页面,左侧菜单点击配置管理> 配置列表,选择命名空间,点击创建配置; 4. 在创建配置面板,开启数据加密开关,选择加密算法,默认为AES256加密算法; 5. 选择配置格式,填写配置内容,然后点击发布; 6. 加密配置默认dataId增加cipheraes前缀,在MSE管理控制台查看加密配置时看到的是解密后的明文; 存储加密配置 加密配置一旦被创建,将在Nacos数据库中被加密存储。加密算法与在控制台创建该配置时所选用的加密算法相吻合。 传输加密配置 若要实现加密配置的加密传输,客户端需要同时满足如下几个条件: 1,选用Java客户端,且客户端Javasdk版本大于等于2.1.0; 2,下载天翼云MSE客户端配置加密插件(点击下载); 3,业务侧配置maven依赖,用户可将插件依赖包先安装到本地maven仓库,在业务工程maven依赖中引入nacosaesencryptionplugin和nacosencryptionplugin依赖; xml com.ctg.mse nacosencryptionplugin 1.0.0 com.ctg.mse nacosaesencryptionplugin 1.0.0 4,在nacosclient下排除依赖开源nacosencryptionplugin包 xml com.alibaba.nacos nacosclient 2.1.0 com.alibaba.nacos nacosencryptionplugin 注意 当您使用Javasdk1.x版本客户端时,加密配置将被以明文形式传输,无法实现传输加密;当您使用Javasdk2.x版本客户端,但未同时满足上述两个条件时,加密配置将被以密文形式传输,但客户端在得到密文时,将无法对加密内容进行解密。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        Nacos
        配置加密
      • 云容器集群Pod网络包损坏(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包损坏动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包损坏百分比:数据包被损坏的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被损坏。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 工作说明书
        第6章 服务地点 远程运维服务为远程交付,购买现场服务的客户需提供现场服务地址。 第7章 服务内容 服务内容 服务描述 交付物 运维群 为客户提供微信、企业微信或钉钉群中的一种,远程运维服务响应时间小于10分钟 《运维服务群》 日常巡检 每天执行日常巡检,提前发现问题,按需提供巡检报告。5 8规格每工作日巡检一次,7 24规格每天巡检一次 《巡检报告》 风险处理 对巡检发现的容量、性能、安全、稳定性等风险,给出风险修复方案并通知客户执行实施优化 《风险处理清单》 故障处理 协调各方资源,快速进行故障定位并按需输出故障报告 《故障报告》 技术支持 提供云产品的使用支持,包括配置、问题处理以及协助资源开通等 《常见问题列表》 监控告警 帮助客户监控云上资源,设置告警阈值,及时了解告警事件,快速处理告警事件 《告警事件清单》 备份管理 帮助客户按需设计备份方案,定期备份和检查备份可用性 《备份方案》 成本优化 分析客户资源使用率并给出优化建议,降低客户成本 《成本优化》 运维月报 每月输出平台运维月报,汇报当月运维情况和优化建议 《运维月报》 服务说明: 天翼云为客户提供远程运维服务群,可按客户习惯提供微信群、企业微信群或钉钉群中的一种,并承诺响应时间SLA。 定期向客户负责人汇报云上资源运行情况、风险修复情况、问题处理进展、资源使用情况等,并给出相应的优化建议。 故障处理,包括故障上报、资源协调、汇报进展、输出故障报告等,原则上只对重大级别的故障(影响关键业务运行)输出《故障处理报告》,其他情况由客户和运维专家协商是否输出《故障处理报告》。 天翼云不负责非天翼云平台(如第三方软件、应用)的运维工作。 因客户自身原因导致的故障(例如删除数据库、删除磁盘数据),不属于天翼云远程运维服务范围。 使用远程运维服务的客户若有现场服务需求,可按天购买运维专家现场服务。购买后,运维专家可到现场向客户提供疑难问题处理、故障处理、运维培训等服务。
        来自:
        帮助文档
        专家技术服务
        远程运维服务
        工作说明书
      • Flink Jar作业相关问题
        Flink Jar作业是否支持上传配置文件,要如何操作? 自定义(JAR)作业支持上传配置文件。 1.将配置文件通过程序包管理上传到DLI; 2.在Flink jar作业的其他依赖文件参数中,选择创建的DLI程序包; 3.在代码中通过ClassName.class.getClassLoader().getResource("userData/fileName")加载该文件(其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名)。 Flink Jar 包冲突,导致提交失败 问题描述 用户Flink程序的依赖包与DLI Flink平台的内置依赖包冲突,导致提交失败。 解决方案 查看是否已包含DLI Flink运行平台中已经存在的包,如果存在,则需要将自己的Jar包删除。 Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 问题描述 提交Flink Jar作业访问DWS数据仓库服务时,提示启动失败,作业日志报如下错误信息。 FATAL: Already too many clients, active/nonactive/reserved: 5/508/3 原因分析 当前访问的DWS数据库连接已经超过了最大连接数。错误信息中,nonactive的个数表示空闲连接数,例如,nonactive为508,说明当前有大量的空闲连接。 解决方案 出现该问题时建议通过以下操作步骤解决。 1.登录DWS命令执行窗口,执行以下SQL命令,临时将所有nonactive的连接释放掉。 SELECT PGTERMINATEBACKEND(pid) from pgstatactivity WHERE state'idle'; 2.检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。 3.在GaussDB(DWS) 控制台设置会话闲置超时时长sessiontimeout,在闲置会话超过所设定的时间后服务端将主动关闭连接。 sessiontimeout默认值为600秒,设置为0表示关闭超时限制,一般不建议设置为0。 sessiontimeout设置方法如下: a.登录GaussDB(DWS) 管理控制台。 b.在左侧导航栏中,单击“集群管理”。 c.在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。 d.单击“参数修改”页签,修改参数“sessiontimeout”,然后单击“保存”。 e.在“修改预览”窗口,确认修改无误后,单击“保存”。 Flink Jar作业运行报错,报错信息为Authentication failed
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink Jar作业相关问题
      • 备份集管理
        本文为您介绍新增备份集管理的具体操作。 备份集是一次备份数据的集合,它包含本次备份的所有备份片,记录了备份数据的相关信息,备份集根据备份的类型不同,通常可分为全量备份集,增量备份,差异备份集,备份集管理页面包含了所有备份和复制任务产生的备份集相关信息,恢复时支持按条件搜索特定的备份集实现恢复。不同备份的相关解释如下: 全量备份:针对备份对象的完整的备份,数据恢复不依赖于任何其他备份集。 增量备份:是指相较于前一个备份(全量/增量/差异)差异增量的备份。 差异备份:是指相较于前一个全量备份的差异增量的备份。 备份集管理 备份集管理分为主副本和全副本视图两个页面。 主副本视图 主副本视图具体页面及相关操作如下: 备份集搜索栏:备份集支持按备份ID、备份源、备份规则名称、备份时间范围、备份规则类型、备份服务器、目标存储单元(组)等条件进行相关备份集的搜索。 右上角显示当前页备份集数据大小及所有备份集总数据大小。 1. 备份集管理列表说明如下: 备份ID:显示该备份集对应的备份ID。 备份源:显示该备份集对应的备份源,通常为客户端节点名称。 实例名:显示该备份集对应的实例名字,仅数据库才显示。 对象:作为数据源备份集管理预留字段使用。 表空间:显示备份集对应的表空间名称,仅数据库才显示。 备份时间:显示该备份集的备份时间。 过期时间:显示该备份集过期时间(备份时间+保留时间)。 状态:显示当前备份集的状态。 正常:该备份集未过期,数据可用且没有被使用。 过期:该备份集已经过期,未启动清理。 清理:该备份集已过期,正在清理底层备份集数据。 正忙:该备份集副本正在被使用,不能删除。 无效:底层访问备份集数据时访问失败,此时,调度服务器将该备份集设置为“无效”状态。访问备份集时机为:备份集复制和恢复、界面发起备份集验证、备份集过期时删除备份集。 文件数量:显示当前备份集的文件数量。 大小:显示备份集的大小。 磁盘池:显示备份集所属的磁盘池名称。 磁带池:显示备份集所属的磁带池名称。 备份规则:现在该备份集对应的备份规则名称。 副本数:显示该备份集的副本数量。 主副本:显示该备份集是否为主副本,即第一次产生的备份副本。 备份类型:显示该备份集对应的备份类型。 备份计划:现在该备份集对应的备份计划名称。 备份服务器:显示该备份集所属的备份服务器。 存储介质:显示该备份集对应的存储介质。 磁带条形码:显示该备份集对应的磁带条形码 备份集清理次数:显示备份集过期清理的次数。 平台名称:显示备份集对应的平台名称,一般用于虚拟化备份场景。 平台类型:显示备份集对应的平台类型,一般用于虚拟化备份场景。 2. 备份集管理操作列表说明如下: 查看:查看该备份集详细信息。 恢复:恢复该备份集。 验证:通过“验证”操作,可以验证备份集是否可以访问,如果能成功访问,调度服务器会将该备份集设置为“正常/过期”状态。 强制删除:当备份集过期清理次数>备份集清理失败重试次数后,操作栏将显示“强制删除”操作,此时可强制删除清理失败的备份集,备份集清理正常情况下,不显示。 3. 操作栏说明如下: 延长期限:可以手动延长备份集的过期时间,从而设置新的备份集过期时间。 单选或者多选备份集时,不能对状态为“过期”和“清理”的备份集延长保留期限; 立即过期:将该备份集的过期时间设置为当前时间。 复制:即备份集手动复制,支持将源备份集手动复制到目标存储单元(组)并设置目标备份集保留期限。 创建手动复制任务时需要关联备份集复制规则,同时可查看备份集复制规则详细信息。 若备份集复制规则已开启传输压缩、传输加密、带宽控制等选项,则手动复制将继承其特性。 验证:通过“验证”操作,可以验证备份集是否可以访问,如果能成功访问,调度服务器会将该备份集设置为“正常/过期”状态。每一个备份集“验证”都会生成一个单独的备份集验证任务,如果一次验证包含多个备份集,则将发起多个备份集验证任务,验证任务可在“总览”>“定时任务”查看。 强制删除:可强制删除对应的备份集。 只能删除操作栏带有“强制删除”按钮的备份集,其他备份集不允许删除。 如果批量选择备份集,执行强制删除操作,将自动过滤掉不允许强制删除的备份集。 强制删除后的备份集,将进入已过期备份集记录中。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        备份集
        备份集管理
      • 安装部署
        本文为您介绍对象存储数据灾备安装部署的相关操作。 概要 对象存储数据灾备主要解决对象存储相关的数据同步场景。帮助用户将海量非结构化数据同步至对象存储中,进而提高非结构化数据的检索与访问性能。既降低了运营的成本,又提高了数据的安全性。文件归档功能使得数据归档管理更加灵活方便,能够及时将本地存储符合归档条件的数据同步至对象存储中,从而释放本地存储资源;所有归档记录可以通过管理界面快速查询和恢复,十分适合有海量数据存储的场景。 对象存储数据灾备的使用场景主要有: 本地/NAS存储上的数据同步至对象存储,详情见本地到对象存储规则、文件比较与同步规则两章节; 对象存储上的数据同步至本地/NAS存储,详情见对象存储到本地规则章节; 对象存储到对象存储之间的数据同步,详情见文件比较与同步规则章节。 针对以上场景:对象存储数据灾备可以实现间隔为秒级的数据定期同步。 操作步骤 一、购买许可 持续数据保护/主机高可用/数据定时灾备/文件存储数据灾备/对象存储数据灾备/数据库双活的购买许可步骤类似。下面以持续数据保护为例,介绍购买许可步骤。 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步”“资源同步管理”,进入资源管理模块页面。 5. 点击左侧菜单栏“对象存储数据灾备”,点击“许可”,进入许可页面。 6. 点击右上角“购买对象存储数据灾备许可”按钮,弹出购买许可弹窗。按需购买许可。 7. 填写购买数量和时长,勾选已阅读并同意相关协议后,点击“购买”按钮,完成许可支付。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        安装部署
      • 创建事件订阅
        本文为您介绍创建事件订阅任务的操作场景、前提条件和操作步骤。 操作场景 场景一:事件通知 使用云监控事件订阅功能,可以及时通过短信、邮件等通知渠道,实时感知云资源异常事件。 场景二:事件数据存储及分析 使用云监控事件订阅功能,您可将资源监控的事件数据,实时地推送到归档数据库或数据仓库。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 注意 事件订阅任务,如选择“配置事件订阅”,需提前创建订阅渠道。(入口:云监控服务>数据订阅>订阅渠道) 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击左侧“事件监控”>"事件订阅"菜单,进入事件订阅任务列表。 5. 单击“创建事件订阅”功能,进入事件订阅创建二级页面。 6. 创建订阅任务参数配置如下: 模块 参数 参数说明 配置示例 备注 选择订阅事件 服务维度 选择需要订阅数据的服务维度信息,支持多选 云主机云主机 选择订阅事件 监控对象类型 具体实例 选择订阅事件 监控对象 选择资源实例对象 具体实例 选择订阅事件 监控事件 选择监控事件,支持多选 选择订阅事件 策略 发生即触发/X分钟内,累计发送N次 发生即触发 选择订阅事件 沉默时间 选择通知沉默时间 5分钟 表示同一类事件重复发生,事件通知后进入某段时间(默认5分钟)的沉默期,沉默期内不再重复通知 通知方式 通知联系人组 配置事件通知 接收对象 选择通知对象联系组 配置事件通知 触发场景 事件发生 配置事件通知 通知渠道 选择事件通知渠道,包括:邮箱、短信、语音(需订购语音资源包) 短信 配置事件通知 接口URL 填写回调webhook地址,最多支持填写5个地址 配置事件通知 推动渠道 选择已创建的订阅渠道 订阅信息 名称 填写自定义事件订阅任务名称 testtask 订阅信息 描述 填写事件订阅任务描述信息 说明 1、事件订阅任务下事件通知、事件订阅至少需填写一项。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        创建事件订阅
      • 云容器集群Pod网络丢包
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络丢包动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 丢包百分比:数据包被丢弃的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被丢弃。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 云容器集群Pod网络包损坏
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包损坏动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包损坏百分比:数据包被损坏的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被损坏。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod网络包损坏
      • 云容器集群Pod网络丢包(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络丢包动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 丢包百分比:数据包被丢弃的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被丢弃。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 控制台首页
        云日志服务控制台首页提供资源统计、我的收藏/我的收藏(本地缓存)、最近访问等信息。 资源统计 资源统计展示帐号下所有日志前一天的读写流量、索引流量和存储量,以及这些指标的日环比数据。 如需查看资源明细,您可以单击相关明细。 详细信息,请参见资源统计。 我的收藏/我的收藏(本地缓存) 我的收藏展示您收藏的日志流,有两种收藏方式:我的收藏和我的收藏(本地缓存)。 我的收藏:将日志流保存至数据库中,默认为关闭状态。当您的帐号开通写权限时,可显示该功能和我的收藏(本地缓存)。 我的收藏(本地缓存):将日志流保存至浏览器本地缓存,默认为关闭状态。所有帐号均显示我的收藏(本地缓存)。 说明: 当您的帐号开通写权限时,我的收藏/我的收藏(本地缓存)至少有一个是开启状态,否则无法收藏日志流。 您可以通过云日志服务提供的收藏功能个性化定制属于自己的收藏日志流列表,方便您直接、快速的定位到常用的日志流。 以日志组ltstest为例,收藏日志组ltstest下某个日志流的操作步骤如下: 步骤 1 登录云服务日志控制台 步骤 2 在日志组列表区域,单击日志组ltstest对应的 按钮,选择待收藏的日志流。 步骤 3 单击日志流右侧 图标,编辑收藏,选择收藏方式,即可收藏日志流。 在日志流列表中,单击待取消收藏的日志流对应的 ,即可取消收藏。 在我的收藏中,鼠标悬浮待取消收藏的日志流,单击 ,即可取消收藏。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志管理
        控制台首页
      • 新建数据标准
        本章节主要介绍新建数据标准。 数据标准是用于描述公司层面需共同遵守的数据含义和业务规则,它描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 数据标准,也称数据元,由一组属性规定其定义、标识、表示和允许值的数据单元,是不可再分的最小数据单元。您可以将数据标准关联到各个业务上的数据库中。其中,标识符、数据类型、表示格式、值域是数据交换的基础,它们用于描述表的字段元信息,规范字段所存储的数据信息。 本章节介绍如何创建数据标准,创建好的数据标准,可用于在关系建模中新建业务表时与业务表中的字段相关联,从而约束业务表中的字段遵从指定的数据标准。 新建数据标准目录 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2.在数据架构控制台,单击左侧导航树中的“数据标准”。 3.首次进入数据治理中心的数据标准页面,会显示制定数据标准模板的页面,在“可选项”中勾选所需要的选项,添加自定义项,完成后单击“确定”。 保存模板后,如需修改,您也可以进入“配置中心 > 标准模板管理”页面修改模板,详情请参见管理配置中心章节中的“标准模板管理”。在新建数据标准时,将需要设置此处模板中选中的选项。 4.在“数据标准”页面,在目录树上,单击一个目录,然后单击加号按钮在该目录下新建一个目录。首次新建目录时选择在根目录下新建目录。 5.在弹出窗口中配置如下参数,然后单击“确定”。 下表为参数描述 参数名称 说明 目录名称 只能包含中文、英文字母、数字和下划线。 选择目录 在已有的目录中选择一个目录,新建的目录将创建在所选择的目录中。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        标准设计
        新建数据标准
      • 重分布
        本章节主要介绍重分布 。 重分布 集群重分布是集群扩容后的一项重要且耗时的任务,集群扩容前,业务数据都集中分布在老节点上,扩容之后新增空的可用节点,此时将老节点的数据均匀分布到新扩节点的过程称为数据“重分布”,数据“重分布”后将大大提升业务响应速率。 默认情况下,在扩容之后将自动调起重分布任务,为了增强扩容重分布整个流程的可靠性,可以选择在扩容时关闭自动重分布功能,在扩容成功之后再手动使用重分布功能执行重分布任务,在这种分段模式下,扩容和重分布都可以做到失败重试。 当前重分布支持离线重分布。 在重分布开始前或重分布暂停过程中,支持对未重分布的表按照schema、表维度设置重分布优先级。 说明 重分布功能8.1.1.200及以上集群版本支持。 只有在扩容之后,集群任务信息为“待重分布”状态时才能手动使用“重分布”功能,其他时段该功能不可使用。 在扩容阶段也可以选择重分布模式的高级配置,详情参见设置高级配置。 重分布队列的排序依据表的relpage大小进行,为确保relpage大小正确,建议在重分布之前对需要重分布的表执行analyze操作。 离线重分布 注意 离线重分布模式下数据库不支持DDL和DCL操作,正在重分布的表只支持简单的DQL操作。 表重分布期间会对表加共享锁,所有插入、更新、删除操作和表DDL操作都会长时间阻塞,会出现等锁超时情况。在重分布执行过程中,用户应当避免执行超过20分钟的查询(在重分布执行时申请写锁的默认时间为20分钟)。否则可能导致重分布出现等待加锁超时失败的问题。 操作步骤 1. 登录DWS管理控制台。 2. 选择“集群 > 专属集群”。默认显示用户所有的集群列表。 3. 集群列表中,在指定集群所在行的“操作”列,选择“更多 > 节点变更 > 重分布”。 系统将显示“重分布”页面。 4. 在“重分布”页面选择默认的离线模式,单击“下一步:确认”提交重分布任务。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        变配与扩容
        节点变更
        集群重分布
        重分布
      • 应用一致性Agent脚本无法下载或安装失败
        本章节介绍当使用数据库服务器备份, 应用一致性Agent脚本无法下载或安装失败, 可能造成的原因和解决方案。 现象描述 系统提示无法下载脚本或使用Linux系统方式二安装Agent时失败。 可能原因 原因1:DNS无法正常解析OBS的域名。 原因2:目标云服务器openssl版本过低。 原因1解决方法 原因1:DNS无法正常解析安装域名。 需要手动修改DNS服务器IP地址,IP地址请从技术工程师处获取。若修改DNS后仍无法正常解析,请稍候重试或使用Linux系统方式一进行安装。 Linux 系统操作步骤 步骤1、以root用户登录云服务器。 步骤2、执行vi /etc/resolv.conf命令编辑“/etc/resolv.conf”文件。在已有的nameserver配置前写入DNS服务器的IP地址,如下图所示。 配置DNS 格式如下: nameserver DNS服务器IP地址 步骤3、单击“Esc”,并输入 :wq ,保存退出。 步骤4、执行以下命令,查看IP地址是否写入成功。完成修改DNS。 cat /etc/resolv.conf Windows 系统操作步骤 步骤1、进入弹性云服务器界面,登录已创建好的Windows 2012版本的弹性云服务器。 步骤2、单击左下角“这台电脑”,弹出“这台电脑”界面。 步骤3、右键单击“网络”,选择“属性”。弹出“网络和共享中心”,如下图所示。选择“本地连接”。 网络和共享中心 步骤4、在“活动”区域,选择“属性”。如下图所示。 本地连接活动 步骤5、弹出“本地连接属性”对话框,选择“Internet 协议版本 4 (TCP/IPv4)”,单击“属性”。如下图所示。 本地连接属性 步骤6、在弹出的“Internet 协议版本 4(TCP/IPv4)属性”对话框中,选择“使用下面的DNS服务器地址”,如图138所示,根据需要配置DNS。需要手动修改DNS服务器IP地址,IP地址请从技术工程师处获取。配置完成后,单击“确定”,完成配置。 配置DNS
        来自:
        帮助文档
        云服务备份
        故障案例
        应用一致性Agent脚本无法下载或安装失败
      • 配置审计日志导出参数
        本章节主要介绍翼MapReduce服务配置审计日志导出参数。 操作场景 MRS的审计日志长期保留在系统中,可能引起数据目录的磁盘空间不足问题,故通过设置导出参数及时将审计日志自动导出到OBS服务器的指定目录下,便于管理审计日志信息。 说明 审计日志导出到OBS服务器的内容包含两部分,服务审计日志和管理审计日志。 服务审计日志每天凌晨3点自动压缩存储到主管理节点“/var/log/Bigdata/audit/bk/”,保存的文件名格式为.tar.gz。默认情况下,保存的文件个数为7份(即7天的日志),超过7份文件时会自动删除7天前的文件。 管理审计日志每次导出到OBS的数据范围是从最近一次成功导出到OBS的日期至本次执行任务的日期。管理审计日志每达到10万条时,系统自动将前9万条审计日志转储保存到本地文件中,数据库中保留1万条。转储的日志文件保存路径为主管理节点“${BIGDATADATAHOME}/dbdataom/dumpData/iam/operatelog”,保存的文件名格式为“OperateLogstoreYYMMDDHHMMSS.csv”,保存的审计日志历史文件数最大为50个。 前提条件 用户已经获取帐号对应的Access Key ID(AK)和Secret Access Key(SK)。 用户已经在帐号的对象存储服务(OBS)中创建了并行文件系统。 操作步骤 在MRS Manager,单击“系统设置”。 1.在“维护”下单击“审计日志导出”。 审计日志导出参数 参数名 参数值 参数解释 开始时间 07/24/2017 09:00:00(举例) 必选参数,指定审计日志导出的开始时间。 周期 1天(举例) 必选参数,指定审计日志转导出的时间间隔,间隔周期范围为(1~5天)。 桶名 mrsbucket(举例) 必选参数,指定审计日志导出到OBS的文件系统名。 OBS路径 opt/omm/oms/auditLog(举例) 必选参数,指定审计日志导出到OBS的路径。 AK XXX(举例) 必选参数,用户的Access Key ID。 SK XXX(举例) 必选参数,用户的Secret Access Key。 说明 审计日志在OBS的存储路径细分为serviceauditlog和managerauditlog,分别用于存储服务审计日志和管理审计日志。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        日志管理
        配置审计日志导出参数
      • 备份集管理(1)
        本文为您介绍新增备份集管理的具体操作。 备份集是一次备份数据的集合,它包含本次备份的所有备份片,记录了备份数据的相关信息,备份集根据备份的类型不同,通常可分为全量备份集,增量备份,差异备份集,备份集管理页面包含了所有备份和复制任务产生的备份集相关信息,恢复时支持按条件搜索特定的备份集实现恢复。不同备份的相关解释如下: 全量备份:针对备份对象的完整的备份,数据恢复不依赖于任何其他备份集。 增量备份:是指相较于前一个备份(全量/增量/差异)差异增量的备份。 差异备份:是指相较于前一个全量备份的差异增量的备份。 备份集管理 备份集管理分为主副本和全副本视图两个页面。 主副本视图 主副本视图具体页面及相关操作如下: 备份集搜索栏:备份集支持按备份ID、备份源、备份规则名称、备份时间范围、备份规则类型、备份服务器、目标存储单元(组)等条件进行相关备份集的搜索。 右上角显示当前页备份集数据大小及所有备份集总数据大小。 1. 备份集管理列表说明如下: 备份ID:显示该备份集对应的备份ID。 备份源:显示该备份集对应的备份源,通常为客户端节点名称。 实例名:显示该备份集对应的实例名字,仅数据库才显示。 对象:作为数据源备份集管理预留字段使用。 表空间:显示备份集对应的表空间名称,仅数据库才显示。 备份时间:显示该备份集的备份时间。 过期时间:显示该备份集过期时间(备份时间+保留时间)。 状态:显示当前备份集的状态。 正常:该备份集未过期,数据可用且没有被使用。 过期:该备份集已经过期,未启动清理。 清理:该备份集已过期,正在清理底层备份集数据。 正忙:该备份集副本正在被使用,不能删除。 无效:底层访问备份集数据时访问失败,此时,调度服务器将该备份集设置为“无效”状态。访问备份集时机为:备份集复制和恢复、界面发起备份集验证、备份集过期时删除备份集。 文件数量:显示当前备份集的文件数量。 大小:显示备份集的大小。 磁盘池:显示备份集所属的磁盘池名称。 磁带池:显示备份集所属的磁带池名称。 备份规则:现在该备份集对应的备份规则名称。 副本数:显示该备份集的副本数量。 主副本:显示该备份集是否为主副本,即第一次产生的备份副本。 备份类型:显示该备份集对应的备份类型。 备份计划:现在该备份集对应的备份计划名称。 备份服务器:显示该备份集所属的备份服务器。 存储介质:显示该备份集对应的存储介质。 磁带条形码:显示该备份集对应的磁带条形码 备份集清理次数:显示备份集过期清理的次数。 平台名称:显示备份集对应的平台名称,一般用于虚拟化备份场景。 平台类型:显示备份集对应的平台类型,一般用于虚拟化备份场景。 2. 备份集管理操作列表说明如下: 查看:查看该备份集详细信息。 恢复:恢复该备份集。 验证:通过“验证”操作,可以验证备份集是否可以访问,如果能成功访问,调度服务器会将该备份集设置为“正常/过期”状态。 强制删除:当备份集过期清理次数>备份集清理失败重试次数后,操作栏将显示“强制删除”操作,此时可强制删除清理失败的备份集,备份集清理正常情况下,不显示。 3. 操作栏说明如下: 延长期限:可以手动延长备份集的过期时间,从而设置新的备份集过期时间。 单选或者多选备份集时,不能对状态为“过期”和“清理”的备份集延长保留期限; 立即过期:将该备份集的过期时间设置为当前时间。 复制:即备份集手动复制,支持将源备份集手动复制到目标存储单元(组)并设置目标备份集保留期限。 创建手动复制任务时需要关联备份集复制规则,同时可查看备份集复制规则详细信息。 若备份集复制规则已开启传输压缩、传输加密、带宽控制等选项,则手动复制将继承其特性。 验证:通过“验证”操作,可以验证备份集是否可以访问,如果能成功访问,调度服务器会将该备份集设置为“正常/过期”状态。每一个备份集“验证”都会生成一个单独的备份集验证任务,如果一次验证包含多个备份集,则将发起多个备份集验证任务,验证任务可在“总览”>“定时任务”查看。 强制删除:可强制删除对应的备份集。 只能删除操作栏带有“强制删除”按钮的备份集,其他备份集不允许删除。 如果批量选择备份集,执行强制删除操作,将自动过滤掉不允许强制删除的备份集。 强制删除后的备份集,将进入已过期备份集记录中。
        来自:
      • 关联质量规则
        本章节主要介绍关联质量规则操作。 当您完成表的新建和发布后,您可以在表中关联质量规则。在“配置中心 > 功能配置”页面中的“模型设计业务流程步骤 > 创建质量作业”勾选的情况下,完成质量规则的关联后,表发布后就会在DataArts Studio数据质量中自动创建质量作业,如果当前表已经发布,则系统会自动更新质量作业。 关联质量规则并查看质量作业 1.在DataArts Studio数据架构控制台,单击左侧导航栏的“关系建模”进入关系建模页面。 2.在页面选择所需要的模型单击进入,在右侧的列表中将显示该模型下面所有的表。您也可以展开主题结构,选中一个对象,右侧的列表中将显示该对象下所有的表。 3.在列表中,找到所需要的表,单击表名称进入表详情页面。 4.在详情页的表字段区域,选中需要关联质量规则的的字段,然后单击“关联质量规则”按钮。 异常数据输出配置:勾选此项,并勾选生成异常数据,表示异常数据将按照配置的参数存储到规定的库中。 5.在弹出的“关联质量规则”对话框中,单击“添加规则”。 此时,系统将弹出“添加规则”对话框,在规则列表中将显示DataArts Studio数据质量中默认的质量规则,选中所需要的规则,然后单击“确定”。如果列表中的规则不满足业务需求,您也可以创建自定义规则,单击“新建规则”可以跳转到DataArts Studio数据质量页面,请参考新建规则模板新建规则。 添加规则完成后,将返回“关联质量规则”对话框,在“规则名称”列表中,选中一条规则,然后设置告警条件,设置完所有规则的告警条件后单击“确定”。 在“告警条件”输入框中,请输入告警条件表达式,在质量作业运行时,系统将计算出告警条件表达式的结果,并根据表达式的结果是否为真来判断是否触发告警。如果表达式的结果为真则触发质量告警,结果为假则不触发质量告警。 告警条件表达式由告警参数和逻辑运算符组成。 每个规则的告警参数会在“告警参数”中以按钮形式列出。单击这些按钮,在“告警条件”中将按告警参数的排列顺序显示为{1}、{2}、{3}等变量名称,以此类推,变量名即代表告警参数。也就是说,在设置“告警条件”时,使用变量{1}代表第一个告警参数,${2}代表第二个告警参数,以此类推。 6.(可选)如需要将质量作业中不符合设定规则的异常数据存储在异常表中,可以打开“异常数据输出配置”开关。 点击开关,并打开“生成异常数据”按钮,表示异常数据将按照配置的参数存储到规定的库中。 各参数具体含义如下: 数据库或Schema:表示存储异常数据的数据库或Schema。 表前缀:表示存储异常数据的表的前缀。 表后缀:表示存储异常数据的表的后缀。 配置完成后点击保存配置。 7.(可选)质量规则的检查范围默认是全表,如需要精确定位分区查询数据,请填写where条件。 8.查看关联质量规则的结果,如果显示成功,单击“确定”。如果显示失败,请查看失败原因,等问题处理后,再重新关联质量规则。 9.返回关系模型列表页面,找到已关联质量规则的表,在“同步状态”列中,鼠标移至创建质量作业的图标上,单击“查看”进入质量作业页面查看已添加的质量规则。 10.进入质量作业的“规则配置”页面,可以查看刚才添加的质量规则。 此外,在建表时已关联的数据标准,在表发布后也会在上图中生成相应的质量规则,您可以在质量作业中进行查看。 字段关联的数据标准生成的质量规则,示例如下: 字段关联了数据标准,数据标准关联的码表生成的质量规则,示例如下:
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        关联质量规则
      • 云日志服务C SDK
        本文主要介绍云日志服务C SDK接入指南。 1. 前言 安装使用C SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能,目前支持日志同步上传。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装C 运行环境。 2.2. 下载及安装 下载ctyunltscsdk.zip压缩包,放到相应位置后并解压。“ctyunltscsdk”目录中sampleputlogs.c为SDK的使用示例代码。 2.2.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel(7.6.1) openssldevel (1.1.1k) protobufc(1.3.06.el8) lz4(v1.8.3) jsonc(0.13.12.el8) 对于 CentOS 安装,可用如下命令搭建依赖环境。 plaintext yum install gccc++ yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufcdevel.x8664 yum install jsoncdevel.x8664 2.2.2. 编译使用 1、进入ctyunltscsdk目录下,里面有CMakelists.txt文件。 2、执行build.sh,其包含以下命令。 plaintext !bin/bash generate .pbc.c .pbc.h from .proto protocc protopath./protoc cout./ common.proto resource.proto logs.proto echo "generate 6 file (commonresourcelogs).(pbc.cpbc.h)" mkdir build cd build cmake install location is .. cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pbc.c、.pbc.h,以及动态链接构建出库文件libltssdk.a,存放在lib目录下。 3、将ctyunltscsdk目录下的头文件,全部移动到您项目的对应目录下,(如果直接使用SDK 则可以不用移动)。 4、之后你就可以在你的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件, 如sampleputlogs.c。 plaintext gcc sampleputlogs.c o sampleputlogs I./ L./lib/ lltssdk lssl llz4 lcurl lprotobufc lcrypto ljsonc 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行你的可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • 约束与限制
        本章节主要介绍翼MapReduce的约束与限制。 使用MRS前,您需要认真阅读并了解以下使用限制。 MRS集群必须创建在VPC子网内。 建议使用支持的浏览器登录MRS。 Google Chrome:36.0及更高版本。 Internet Explorer:9.0及更高版本。 当使用Internet Explorer 9.0时可能无法登录MRS管理控制台,原因是某些Windows系统例如Win7旗舰版,默认禁止Administrator用户,Internet Explorer在安装时自动选择其他用户如System用户安装,从而导致Internet Explorer无法打开登录页面。请使用管理员身份重新安装Internet Explorer 9.0或更高版本(建议),或尝试使用管理员身份运行Internet Explorer 9.0。 创建MRS集群时,支持自动创建安全组,也可从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组。否则可以能导致集群异常,影响MRS集群的使用。 MRS集群使用的安全组请勿随意放开权限,避免被恶意访问。 请勿随意执行如下操作,避免集群进入异常状态,影响MRS集群的使用。 −在ECS中对MRS集群的节点进行关机、重启、删除、变更OS、重装OS和修改规格等操作。 −删除集群节点上已有的进程、安装的应用程序和文件。 集群处于非人为异常状态时,可以联系技术支持人员,技术支持人员征得您同意后会请您提供相关信息,登录MRS集群进行问题排查。 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间。以防止存储空间不足影响节点正常运行。 集群节点仅用于存储用户业务数据,非业务数据建议保存在对象存储服务或其他弹性云服务器中。 集群节点仅用于运行MRS集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。 MRS集群的节点(包含Master,Core和Task节点)扩充存储容量时,不建议通过扩容原有磁盘的方式实现。建议通过创建磁盘再挂载的方式实现。 MRS集群扩容(包含存储能力和计算能力)时,可以通过增加Core节点或者Task节点的方式实现。 当关闭集群中的某一个Master节点后仍然使用集群执行任务或修改配置,且任务执行或配置修改后未启动被关闭的Master节点就关闭集群中其他Master节点时,存在由于主备倒换导致的数据丢失风险。在该场景下,请在任务执行或配置修改后先启动被关闭的Master节点,再关闭全部节点。若集群中节点已经被全部关闭,请按照节点关机顺序的倒序启动集群节点。 当使用MRS集群过程中进行Capacity和Superior调度器切换时只完成调度器的切换,不保证配置同步。如果您需要配置同步,请基于新的调度器重新配置。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        约束与限制
      • 云容器集群Pod网络延迟
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络延迟动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 延迟时间(毫秒):为每个数据包增加的固定延迟时长。 延迟浮动值(毫秒):在固定延迟时长上的随机浮动范围。最终延迟为延迟时间 ± 延迟浮动值,用于模拟更真实的网络抖动。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod网络延迟
      • 云容器集群Pod网络包重复(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包重复动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包重复百分比:数据包被复制的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被复制并重复发送一次。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 云容器集群Pod网络延迟(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络延迟动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 延迟时间(毫秒):为每个数据包增加的固定延迟时长。 延迟浮动值(毫秒):在固定延迟时长上的随机浮动范围。最终延迟为延迟时间 ± 延迟浮动值,用于模拟更真实的网络抖动。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 应用场景
        本文带您了解AI Store四大类服务的应用场景。 算力服务 智能算力 聚焦人工智能、大模型训练、科研仿真等“高并发、高浮点、高宽带”的需求,提供GPU/TPU/NPU等异构加速资源,助力AI创新从“可用”走向“好用”。 主要面向客户:大模型预训练、AIGC、多模态理解等AI企业与算法公司,高校与科研院所,自动驾驶团队以及医疗影像AI厂商等客户。 通用算力 面向Web服务、ERP、数据库、开发测试、办公协同等常规业务,以“按需付费、秒级开通”模式提供高性价比的基础算力。 主要面向客户:中小企业、初创团队、政府及事业单位(如一网通办、公共数据平台、政务云开发测试环境)等客户。 模型服务 模型推理 提供高性能的模型调用服务,可以通过标准的API接口将平台提供的大模型服务集成到自己的业务系统中,提供模型推理一站式部署服务。 主要面向用户:各种软件开发商,特别是行业软件开发商,以及科研院所、大专院校和教育机构、政府、金融机构、工业企业、科技单位、医院等行业客户。 模型应用 大模型与插件工具的结合能够有效拓展其在复杂任务中的实用性,支持接入私有知识库增强领域应答,集成联网搜索获取实时信息。 主要面向用户:需要组合模型和工具提供智能办公、智能客服、智能运维能力以及业务主要为知识密集型场景和特定内容生成的企业。 AI应用服务 搭建专属的智能体应用:基于应用广场筛选快速定位所需行业应用,一键部署,简化传统应用安装与配置的复杂流程。实现应用部署、运维和治理的全生命周期管理能力。 主要面向客户:需要快速集成AI能力形成垂直SaaS服务的行业服务集成商,电商/新媒体运营团队,初创公司与个人开发者等客户。 MCP服务 MCP(Model Context Protocol)即模型上下文协议,它为应用程序与大语言模型(LLM)之间的数据、工具和上下文交互提供了统一的接口和标准。 AI Store的MCP市场涵盖内容生成、网页搜索、效率工具等多种类型,全面支撑企业各类智能应用场景。以网页搜索为例,智能体可借助MCP网页搜索功能,通过自然语言提问,就能获取最新的网络信息。 主要面向客户:AI开发者、企业用户、科研人员和普通个人用户等,更有效的利用AI大模型完成各种任务。
        来自:
        帮助文档
        AI Store
        产品介绍
        应用场景
      • 步骤五:构建应用
        构建步骤 说明 制作Vote镜像并推送到SWR仓库 通过工作目录“./vote”及Dockerfile路径“./Dockerfile”找到“Dockerfile”文件,依据“Dockerfile”文件制作Vote功能镜像,并将镜像推送到容器镜像服务。 制作Result镜像并推送到SWR仓库 通过工作目录“./result”及Dockerfile路径“./Dockerfile”找到“Dockerfile”文件,依据“Dockerfile”文件制作并推送Result功能镜像,并将镜像推送到容器镜像服务。 使用Maven安装Worker依赖包 使用Maven安装Worker功能所需的依赖。 制作Worker镜像并推送到SWR仓库 通过工作目录“./worker”及Dockerfile路径“Dockerfile.j2”找到“Dockerfile”文件,依据“Dockerfile”文件制作并推送Worker功能镜像,并将镜像推送到容器镜像服务。 生成Postgres and Redis Dockerfile 通过shell命令生成制作Postgres(数据库)和Redis(缓存)镜像的Dockerfile文件。 制作Postgres镜像并推送到SWR仓库 依据“生成Postgres and Redis Dockerfile”所生成的Dockerfile文件制作并推送Postgres镜像,并将镜像推送到容器镜像服务。 制作Redis镜像并推送到SWR仓库 依据“生成Postgres and Redis Dockerfile”所生成的Dockerfile文件制作并推送Redis镜像,并将镜像推送到容器镜像服务。 替换DockerCompose部署文件镜像版本 为了将镜像部署到ECS时,能够可以拉取到正确的镜像,使用shell命令进行完成以下操作。首先,使用sed命令,依次将文件“dockercomposestandalone.yml”中的参数替换为构建任务的参数“dockerServer”、“dockerOrg”、“BUILDNUMBER”进行替换。然后,使用tar命令,将文件“dockercomposestandalone.yml”压缩为“dockerstack.tar.gz”,将部署所需文件进行打包,以便于后续步骤将该文件上传归档。 替换Kubernetes部署文件镜像版本 为了将镜像部署到CCE时,能够可以拉取到正确的镜像,使用shell命令进行完成以下操作。首先,使用sed命令,将目录“kompose”下所有以“deployment”结尾的文件中的参数“dockerserver”、“dockerorg”,替换为构建任务的参数“dockerServer”、“dockerOrg”。然后,使用sed命令,将“resultdeployment.yaml”、“votedeployment.yaml”、“workerdeployment.yaml”三个文件中的参数“imageversion”用构建任务参数“BUILDNUMBER”进行替换。 上传Kubernetes部署文件到软件发布库 将所有“.yaml”文件上传到软件发布库中归档。 上传dockercompose部署文件到软件发布库 将压缩好的“dockerstack.tar.gz”(构建包路径)上传到软件发布库中归档,包名命名为“dockerstack”,实现软件包的版本管理。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤五:构建应用
      • 集群绑定和解绑ELB
        约束与限制 绑定ELB时,需创建和DWS集群相同的区域、VPC以及企业项目的ELB进行绑定。 DWS的ELB功能仅支持独享型ELB规格,不支持共享型ELB绑定操作。 须知 部分Region因为独享型ELB规格没有上线,所以不支持负载均衡能力。 绑定ELB时,需创建TCP网络型且有内网IP的ELB进行绑定。 创建ELB时,ELB规格需要用户按本身业务访问流量评估,建议选取最大规格。DWS侧仅是绑定关联ELB,并不改变ELB规格。 创建ELB时,仅需创建ELB,无需创建ELB服务的监听器与后端服务器组,DWS会自动创建所需要的ELB监听器与后端服务器组。 创建ELB时,不能存在与数据库相同端口的监听器,否则会导致ELB绑定失败。 绑定ELB时,DWS侧默认为ELB服务配置“ROUNDROBIN”转发策略,并设置10秒的健康检查间隔,50秒超时时间以及3次重试次数。用户如果需要修改此ELB默认参数时,请充分评估影响。 解绑ELB时,DWS侧会清除ELB中集群相关信息,但并不会删除用户ELB,请注意ELB本身的计费影响,防止不必要的成本支出。 如需要公网IP或者域名访问ELB集群时,请通过ELB服务管理页面进行EIP绑定或者域名操作。 绑定ELB 1.登录DWS 管理控制台。 2.单击“集群管理”。默认显示用户所有的集群列表。 3.在集群列表中,单击指定集群名称进入“集群详情”页面。 4.单击“绑定弹性负载均衡”,选择需要绑定到此集群的ELB,若不存在ELB,则可在ELB服务页面创建完成后,在DWS侧刷新进行重新绑定即可。 5.绑定命令下发成功后,返回集群管理页面,集群列表将显示“弹性负载均衡绑定中”任务信息,绑定需要一定时间,请耐心等待。 6.进入负载均衡服务控制台,单击绑定的ELB名称,切换到“后端服务器组”页签,检查集群CN节点是否被正确绑定到ELB中。 7.绑定成功后,进入“集群详情”页面中的“连接信息”区域,可以查看ELB对外服务提供的IP地址,后续连接DWS集群使用此地址。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群高可用
        集群绑定和解绑ELB
      • 高效的并行计算能力
        本页介绍天翼云TeleDB数据库高效的并行计算能力。 TeleDB支持两级并行,从而实现高效的并行计算能力。两级并行分别为多节点之间的并行和节点内的并行。 多节点之间并行执行:分布式事务需要多节点一起完成。多个节点之间是并行的,例如:所有DDL语句,涉及元数据变更,需在所有CN、DN节点上执行。批量INSERT语句、不带分布键的SELECT、UPDATE、DELETE语句,需在所有DN节点上执行。 节点内基于数据页的并行计算:对于大表查询,为充分利用服务器多核处理能力,在节点内同时启动多个进程并行计算,协同完成一个任务。 说明 TeleDB支持设置参数,通过参数来显示表的大小。当表的数据量超过一定阈值时,会启用并行。当需要并行计算的时候,优化器会根据表大小得出并行度,启动多个进程并行执行。如果有更多的资源,执行速度可以根据并行度实现线性扩展。 实际使用中常见的是join关联,和aggregate数据汇聚(也就是group by),下面以hash join和aggreagte为例,介绍TeleDB的并行计算能力。 hash join 仍以TBLA关联TBLB表查询为例,两表大小相当时,优化器会优先选择hash join方式关联,流程如下: 1. 获取TBLB表所有数据。 2. TBLB表的每一行计算哈希值,构建一张哈希表。 3. 访问TBLA表每一行数据。 4. TBLA表每一行计算哈希值。 5. TBLA表每一行哈希值,匹配哈希表,得到匹配结果。 并行hash join 对于大表关联,优化器根据资源估算,可以启动多个进程,并行扫描数据,然后并行hash join,流程如下: 1. 多个进程并行访问TBLB表的一部分数据。 2. 每个进程各自构建一张哈希表。 3. 合并所有进程的哈希表,构建出一张共享哈希表。 4. 多个进程并行访问TBLA表的一部分数据。 5. 多个进程并行计算出TBLA表每一行的哈希值。 6. 多个进程并行匹配共享哈希表,得到匹配结果。 相比没有开启并行hash join的查询,并行hash join的性能提升,主要有并行扫描和并行hash join,而在构建哈希表和哈希表匹配部分的并行计算能力,可以让查询性能随着并行度的提升而提升。 aggregate汇聚计算 例如:TBLA表的简单sum、avg等汇聚计算。 左图为没有开启并行时的执行流程,只需要查询、汇聚两步。 并行aggregate汇聚计算 右图为开启并行后的执行流程,流程如下: 1. 多个进程并行访问TBLA表的一部分数据。 2. 多个进程并行计算aggregate,得到一个中间结果。 3. 所有中间结果进行一次数据重分布,将相同group by汇聚列的数据分布在同一个进程中。 4. 多个进程并行再做一次最终的aggregate,然后汇总,得到汇聚结果。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的并行计算能力
      • 漏洞扫描
        本文将介绍如何使用边缘安全加速平台安全与加速服务的漏洞扫描功能。 功能介绍 通过天翼云监测系统平台,在无需用户采购任何Web应用扫描产品前提下,即可获得网站的漏洞态势,以及每个漏洞的详情介绍和修补建议,方便及时作出处置。 支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 开通套餐为免费版及以上版本。 说明 默认脱敏显示您的联系方式等敏感信息,点击明文显示时,请您注意保护数据安全! 新增漏洞扫描任务 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【网站风险监测】菜单,并在左侧域名列表选择您要扫描的域名。 3. 支持两种配置扫描任务方式。 4. 如果您需要快速复制其他域名的扫描任务,可单击【域名资产概况】中的【快速配置监测任务】。 5. 如果您需要新增扫描任务,单击【新增】按钮。 配置项说明: 配置项 说明 任务名称 用户可自定义任务名称,支持中文、英文、数字、下划线,最长30个字符。 任务开关 用户开启或者关闭任务。 监测任务等级 扫描漏洞范围: 高危:监测站点是否有命令执行,SQL注入,XML注入,目录遍历与目录穿越,跨站脚本漏洞,反序列化漏洞等。 中危:监测站点是否有敏感数据泄漏,用户凭证明文传输,错误的安全配置等。 低危:监测站点有无TLS传输防护,cookie未受httponly保护等。 监测URL 扫描任务开始扫描的url,从该url开始访问,逐层扫描。 比如:起始url: 则: 一级链接表示: 等; 二级链接表示: 等; 三级链接表示: 等。 监测排除URL 设置不需要扫描的URL,如 http(s)://www.ctyun.cn/xxx 不进行漏洞检测。 定义HTTP头部 如果扫描域名需要登录,需要设置可获取登录凭证Header以自定义设置登录凭据。 接口扫描 如果包含API接口需要上传扫描对应的api接口文件。 监测计划 立即检测:任务创建完立即进行漏洞检测,不再重复执行检测 ; 单次:任务创建完在指定时间进行漏洞检测,检测完成即任务结束,不再重复执行检测 每天:任务创建完任务在每天指定时间进行检测 每周:任务创建完任务在指定周几的指定时间进行检测 每月:任务创建完任务在指定日期的指定时间进行检测 通知方式 支持邮件和短信通知。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        网站风险监测
        漏洞扫描
      • 1
      • ...
      • 245
      • 246
      • 247
      • 248
      • 249
      • ...
      • 319
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      人脸实名认证

      人脸活体检测

      动作活体识别

      身份证识别

      行驶证识别

      语音合成

      推荐文档

      篡改告警分析

      实例管理

      常见问题

      退订

      新品上线

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号