活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼备份_相关内容
      • 异常行为智能识别
        本文介绍如何使用异常行为智能识别。 功能介绍 基于智能算法和大数据行为分析,分析客户业务流量的特征,智能识别攻击和误拦截请求。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 开通套餐为旗舰版及以上版本。 设置异常行为智能识别模型 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【智能防护】菜单,选择【异常行为智能识别】模块。 3. 选择业务适合的【分析模型】,模型配置说明如下: 配置说明 配置项 说明 开关 分析模型开关。 开关开启,模型运行; 开关关闭,模型停止运行。 分析域名 选择需要分析的对象,选择已经完成接入服务的域名。 异常判断条件 不同分析模型的分析条件不同,您可以根据实际的业务场景选择适合的模型。 异常客户端IP识别多UA:适用于单客户端IP有多UA的攻击特征; 异常客户端IP识别扫描大量URL:适用于单客户端IP扫描大量URL的攻击特征; 异常客户端IP识别攻击集中少量URL:适用于单客户端IP集中攻击少量URL的攻击特征; 异常客户端IP识别反复触发策略:适用于单客户端IP反复触发访问控制/频率控制/CC防护策略的攻击特征; 异常客户端IP+UA识别反复攻击少量URL:适用于单客户端(IP+UA),反复攻击少量的URL的攻击特征; 异常UA识别识别单客户端IP变更UA扫描:适用于单客户端IP变更UA扫描的攻击特征。 分析频率 分析频率为分析任务执行频率;统计周期超过12小时,建议分析频率设置大于等于5分钟;统计周期达到24小时,建议分析频率设置大于等于10分钟。 URL是否统计问号后参数 统计URL的范围是否包含问号后参数。 注意 如果我们开放的分析模型不能满足您的需求,请通过
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        智能防护
        异常行为智能识别
      • 系统工单
        后续管理 运维用户提交工单后,相关管理员即可在“消息中心”收到提醒,查看详细工单内容。并可在工单审批页面收到工单,可对工单进行批准或驳回操作。 相关管理员审批工单通过后,运维用户权限立刻生效,即可在授权范围和时间段拥有命令操作权限。 相关管理员撤销工单权限后,运维用户权限立刻失效,操作命令会再次被拦截。 数据库授权工单 云堡垒机支持对数据库操作进行“动态授权”管理,加强对数据库关键操作的限制管理。 当运维用户登录数据库进行运维操作时,触发“动态授权”数据库控制策略的操作命令,系统会自动拦截操作命令,生成数据库授权工单。管理员将会收到工单审批申请。当管理员用户批准工单后,运维用户才有执行该数据库“动态授权”操作命令的权限。 本小节主要介绍如何管理数据库授权工单。 约束限制 仅专业版实例支持数据库运维操作审计。 仅针对MySQL和Oracle类型数据库,支持拦截敏感操作生成工单。 数据库授权工单由运维用户触发命令策略,自动创建,不能手动创建。 前提条件 已获取“数据库授权工单”模块管理权限。 已触发操作拦截,生成数据库授权工单。 操作步骤 1 登录云堡垒机系统。 2 选择“工单 > 数据库授权工单”,进入数据库授权工单页面。 数据库授权工单列表 3 提交工单。 单击指定工单“操作”列的“提交”,手动提交工单给管理员审批。 若工单被管理员驳回,可修改工单信息后再次提交工单。 4 撤回工单。 单击指定工单“操作”列的“撤回”,即可取消已提交的工单申请,工单状态变为“已撤回”。 5 修改工单信息。 单击“管理”,进入工单详情页面,即可查看工单基本信息。 单击工单详情页面编辑,即可修改工单授权运维时间。 “审批中”状态的工单仅能查看工单详情信息,不能修改工单内容。“已撤回”和“待提交”状态的工单才能被修改。 6 删除工单。 单击指定工单“操作”列的“删除”,可以删除该工单。 同时勾选多个工单,单击列表下方的“删除”,批量删除多个工单。 删除后工单信息不能找回,请谨慎操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统工单
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        本教程将详细介绍如何借助天翼云 SDWAN 实现 DeepSeek 访问海外资源时,进行定向加速。 应用场景 企业在云上部署私有化DeepSeek平台,进行企业知识库、智能问答等大模型开发工作,在此过程中会使用到ollama、huggingface、github等境外开发工具或平台实现大模型高效迭代优化。 天翼云SDWAN通过优化对合规境外网站的访问过程,可以为客户提供更加流畅的海外资源访问体验。用户只需在云上DeepSeek主机业务环境中部署SDWAN软件CPE(vCPE),即实现可对定向海外资源的加速访问。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建了云主机用于部署DeepSeek服务,并通过网络配置将其加入到VPC子网中。 操作步骤 本教程的配置流程如下: 步骤一:部署 vCPE 1. 创建并配置云主机 :在天翼云控制台创建一台用于部署天翼云 SDWAN vCPE 的云主机,为其创建和绑定弹性公网 IP(EIP),并通过网络配置将其加入到创建的VPC子网中,请参考创建弹性云主机。 2. 创建vCPE资源,并部署到云主机中:您可通过以下两种方式开通 vCPE 资源。 天翼云官网自助开通:若选择通过天翼云官网自行下单,具体操作步骤如下: 1. 登录天翼云 SDWAN 控制台,在界面中选择“智能网关”选项,随后在“智能网关”页面点击“创建智能网关”按钮。 2. 按照页面给出的提示,选择“软件版”vCPE和接入带宽等关键业务配置。 3. 参数配置完毕后,点击“提交订单”。在确认订单信息准确无误后,勾选产品服务协议,接着点击“确认下单”。 4. 完成订单支付,支付成功即完成 vCPE 资源的购买。 客户经理协助开通:您也可以直接联系客户经理,由其协助完成 vCPE 资源的开通。 购买完成后,及时联系 SDWAN 客户经理进行交付。届时,天翼云 SDWAN 交付团队会协助您将创建好的 vCPE 实例资源部署到云主机上,并接入天翼云 SDWAN 网络。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 路由设置
        本文向您介绍企业版VPN中路由设置的常见问题。 如何理解VPN连接中的对端网关和对端子网? 对端网关和对端子网是两个相对的概念,在建立VPN连接时,从云的角度出发,VPC网络就是本地子网,创建的VPN网关就是本地网关,与之对接的用户侧网络就是对端子网,用户侧的网关就是对端网关。 对端网关IP就是用户侧网关的公网IP,对端子网指需要和VPC子网互联的子网。 Console界面在哪添加VPN远端路由? 云端在VPN连接创建时会自动下发到达远端子网的路由,无需手动配置。 ECS主机多网卡是否需要添加去往线下网络的路由? 如果客户使用主网卡与线下网络建立了VPN,不需要添加路由。 如果客户使用非主网卡与线下网络建立了VPN,需要添加去往线下网段的路由指向非主网卡的网关。 什么是NQA 什么是NQA 网络质量分析(Network Quality Analysis,NQA)是一种实时的网络性能探测和统计技术,可以对响应时间、网络抖动、丢包率等网络指标进行统计。NQA能够实时监视网络服务质量,在网络发生故障时进行有效的故障诊断和定位。 为什么需要NQA 随着运营商增值业务的开展,用户和运营商对QoS(Quality of Service)的相关要求越来越高,特别是在传统的IP网络承载语音和视频业务后,运营商与客户之间签订SLA(Service Level Agreement)成为普遍现象。 为了让用户看到承诺的带宽是否达到需求,运营商需要提供相关的时延、抖动、丢包率等相关的统计参数,以及时了解网络的性能状况。传统的网络性能分析方法(如Ping、Tracert等)已经不能满足用户对业务多样性和监测实时性的要求。NQA可以实现对网络运行状况的准确测试,输出统计信息。NQA可以监测网络上运行的多种协议的性能,使网络运营商能够实时采集到各种网络运行指标,例如:HTTP的总时延、TCP连接时延、DNS解析时延、文件传输速率、FTP连接时延、DNS解析错误率等。通过对这些指标进行控制,网络运营商可以为用户提供不同等级的网络服务。同时,NQA也是网络故障诊断和定位的有效工具。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        路由设置
      • 备案退回处理
        备案过程中系统会智能校验,协助您提前检测问题、及时修改,以便提升效率,下面常见的报错提醒: 1.域名信息核验不符合要求: 处理办法: 登录域名注册商网站或联系您的域名注册商,变更域名实名认证信息。具体域名要求请参考:< 2.网站名称不符合要求: 处理办法: 个人备案网站名称建议: 1)个人网站名称要尽量体现个人网站的主要内容; 2)使用3个或3个以上汉字。不涉及到行业、企业、产品等信息。不使用个人姓名、地名、成语命名。不使用纯数字、纯英文命名,不能包含特殊符号。不能使用敏感词语(如反腐、赌博、廉政、色情等)命名; 3)网站服务名称不涉及到 “某公司”、“某俱乐部”、“某团体”、“某社区” 等明显非个人性质的网站服务名称,不涉及经营性内容,如 “购买”、“买卖”、“交易”、“优惠券”、“电子商务” 等; 4)个人网站服务名称不包含地名。 企业备案网站名称建议: 1)推荐使用公司全称或简称作为网站服务名称,允许多个网站的服务名称相同; 2)主办单位不是国家级单位,其网站不能以 “中国”、“国家” 等关键词命名,如果含有必须提供相关职能部门的审批文件; 3)网站服务名称应与前置审批或专项审批的取得情况相对应。无新闻、出版、药监、文化、广电等前置审批或专项审批的网站,不能以相关领域关键词命名; 4)若网站服务名称或服务内容涉及到金融类,如确实涉及,建议先到本省金融办进行办理专项审批。提交时,同时上传审批文件电子版,否则有被退回的风险; 5)如使用与企业经营范围完全不相关的产品来命名,一般都比较难通过。可在备注增加相关说明并上传商标或专利文件,以增加通过的可能性。 3.未备案网站开启访问: 处理办法:未备案的域名不能开放访问,在审核期间需要您将域名停止解析或关闭网站,待备案成功以后即可解析并开放访问。 4.已备案网站未开站或网站内容不合格: 处理办法 :已备案网站提供对外访问,在网站底部添加服务备案号并链接工信部[ICP/IP地址/域名信息备案管理系统](
        来自:
        帮助文档
        备案指引
        备案进行中
        备案退回处理
      • 权限管理
        本节主要介绍权限管理。 创建并授权使用性能测试 如果您需要对您所拥有的云性能测试服务进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的帐号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用性能测试资源。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将性能测试资源委托给更专业、高效的其他帐号或者云服务,这些帐号或者云服务可以根据权限进行代运维。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用性能测试服务的其它功能。 默认情况下,新建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 性能测试服务部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问性能测试服务时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略,策略是角色的升级版。当前性能测试服务仅支持通过系统角色授权。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各云服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        权限管理
      • 如何对主机进行授权?
        本节介绍如何对主机进行授权。 操作场景 该任务指导用户通过漏洞扫描服务对已添加的Linux主机进行扫描授权。 前提条件 已获取管理控制台的登录账号与密码。 已添加Linux主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 批量选择需要配置的主机,单击“批量操作 > 编辑”,进入批量授权入口,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“编辑”。 5. 在主机授权页面,批量选择需要授权的主机,单击“批量配置授权信息”,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“配置授权信息”。 如果需要修改主机名称,单击编辑按钮,在弹出的对话框中,进行修改。 6. 选择SSH授权方式进行主机授权。 说明 如果需要修改已有SSH授权,单击“编辑”,进行修改。 如果需要删除已有SSH授权,单击“删除”,进行删除。 选择已有SSH授权,或者单击“创建SSH授权”创建SSH授权,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 SSH授权别称 自定义SSH授权名称。 登录端口 SSH授权登录的端口号。 请确保安全组已添加该端口,以便主机可通过该端口访问VSS。 选择登录方式 “密码登录” “密钥登录” 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 Root权限是否加固 打开该权限后,不可以用root账号直接登录,而只能通过普通用户登录,然后才能切换到root用户。 sudo用户名 默认为root。 sudo密码 设置sudo用户对应的密码,为了您的账号安全,您的密码会加密保存。 7. 单击“确认”,完成Linux主机授权。 8. 单击“确定”,Linux主机授权成功。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        主机扫描类
        如何对主机进行授权?
      • 通过添加防护规则拦截/放行流量
        开启防护后,云防火墙默认放行所有流量,您可以配置防护规则,实现流量的拦截/放行。 防护规则支持防护以下几种场景: 防护互联网边界中公网资产的流量,请参见“互联网边界防护规则”。 防护互联网边界中私网资产的场景,请参见“NAT流量防护规则”。 防护VPC与VPC之间、VPC与线下IDC之间的访问流量,请参见“VPC边界防护规则”。 注意 如果IP为Web应用防火墙(WAF)的回源IP,建议配置放行的防护规则或白名单,请谨慎配置阻断的防护规则,否则可能会影响您的业务。 回源IP的相关信息请参见《Web应用防火墙用户指南》中《放行WAF回源IP》。 配置白名单请参见“通过添加黑白名单拦截/放行流量”。 规格限制 仅“专业版”支持VPC边界防护和NAT流量(私网IP)防护。 约束条件 CFW不支持应用层网关(Application Level Gateway,ALG)。ALG能够对应用层数据载荷中的字段进行分析,并针对在载荷中会包含端口和IP地址的多通道协议(例如FTP、SIP等)动态调整策略。但CFW的防护策略仅支持对端口设置静态策略。如果需要允许多通道协议通信,建议配置一条放通所有端口的规则。 CFW长连接业务场景限制,配置策略的时候需要同时开启双向放通的安全策略,如果只开启单向策略,部分场景(开启和关闭防护)需要客户端重新发起连接。 配额限制: 最多添加20000条防护规则。 单条防护规则最大限制如下: 最多添加20条IP地址(源和目的各20条)。 最多关联2条“IP地址组”(源和目的各2条)。 最多关联5条服务组。 域名防护限制: 域名防护时不支持添加中文域名格式。 网络型域名组最多只能保存1000个地址解析结果,超出时,可能导致无法正常访问对应的域名;对于解析结果较多或变化频繁的域名,如果防护流量是HTTP、HTTPS协议,建议优先使用应用型域名组添加策略。 域名防护依赖于用户配置的域名服务器。默认域名服务器可能存在域名解析对应的IP地址不全,建议有访问自身业务相关域名场景时配置“DNS服务器配置”。 仅入方向规则(“方向”配置为“外内”)的“源”地址支持配置“预定义地址组”。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过配置防护规则拦截/放行流量
        通过添加防护规则拦截/放行流量
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        本教程将详细介绍如何借助天翼云 SDWAN 实现对 DeepSeek 的定向加速,以访问海外资源。 应用场景 企业在云上部署私有化DeepSeek平台,进行企业知识库、智能问答等大模型开发工作,在此过程中会使用到ollama、huggingface、github等境外开发工具或平台实现大模型高效迭代优化。 天翼云SDWAN通过优化对合规境外网站的访问过程,可以为客户提供更加流畅的海外资源访问体验。用户只需在云上DeepSeek主机业务环境中部署SDWAN软件CPE(vCPE),即实现可对定向海外资源的加速访问。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建了云主机用于部署DeepSeek服务,并通过网络配置将其加入到VPC子网中。 操作步骤 本教程的配置流程如下: 步骤一:部署 vCPE 1. 创建并配置云主机 :在天翼云控制台创建一台用于部署天翼云 SDWAN vCPE 的云主机,为其创建和绑定弹性公网 IP(EIP),并通过网络配置将其加入到创建的VPC子网中,请参考创建弹性云主机。 2. 创建vCPE资源,并部署到云主机中:您可通过以下两种方式开通 vCPE 资源。 天翼云官网自助开通:若选择通过天翼云官网自行下单,具体操作步骤如下: 1. 登录天翼云 SDWAN 控制台,在界面中选择“智能网关”选项,随后在“智能网关”页面点击“创建智能网关”按钮。 2. 按照页面给出的提示,选择“软件版”vCPE和接入带宽等关键业务配置。 3. 参数配置完毕后,点击“提交订单”。在确认订单信息准确无误后,勾选产品服务协议,接着点击“确认下单”。 4. 完成订单支付,支付成功即完成 vCPE 资源的购买。 客户经理协助开通:您也可以直接联系客户经理,由其协助完成 vCPE 资源的开通。 购买完成后,及时联系 SDWAN 客户经理进行交付。届时,天翼云 SDWAN 交付团队会协助您将创建好的 vCPE 实例资源部署到云主机上,并接入天翼云 SDWAN 网络。
        来自:
        帮助文档
        天翼云SD-WAN
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 创建证书
        本文为您介绍如何通过密钥管理控制台创建证书并导入控制台实现托管。 支持数字证书和Ukey证书,关于两种证书的区别,请参见证书管理概述。 创建数字证书 1. 登录密钥管理服务控制台。 2. 在页面最上方的导航栏的资源池下拉列表,选择服务所在的区域。 3. 在左侧导航栏,点击证书管理, 进入数字证书管理页,点击创建证书。 4. 在弹出的创建证书对话框,根据页面提示进行配置信息填写。 配置项说明: 配置项 说明 主体名称(CN) 证书使用的主体名称。 国家/地区(C) 使用ISO 31661的二位国家代码,例如:CN代表中国。 省/市(ST) 省、直辖市、自治区或特别行政区名称。 城市(L) 城市名称。 公司名称(O) 企业、单位、组织或机构的法定名称。 部门名称(OU) 部门名称。 单击右侧加号,可以添加多个部门名称,最多可添加5个。 邮箱(E) 证书持有者或管理者邮箱。 主体别名 当证书为DV证书时,可使用主体别名生成多域名证书请求。最多可添加10个。 密钥类型 取值:RSA2048、SM2(企业版支持) 私钥可否导出 证书私钥是否需要导出使用。取值: 是:证书私钥需要导出使用。 否:证书私钥不需要导出使用。 建议选择否,以便使用更高安全级别的密钥保护。 企业项目 选择证书归属的企业项目,默认为default。 5. 证书信息填写完成后,点击 创建证书 ,系统会返回证书ID及证书请求,点击 下载证书请求 ,下载完成点击 确定 。 6. 下载csr格式的证书请求文件后,将其提交给CA机构,获取正式的证书和证书链。 7. 将证书和证书链导入证书管理服务,在证书列表页面,找到目标证书,点击 更多导入证书。 8. 在导入证书对话框,输入或上传CA机构颁发的证书和证书链,点击 确定 。 9. 导入证书成功后,证书状态为 启用中 ,您可以使用证书进行签名验签等操作。
        来自:
        帮助文档
        密钥管理
        用户指南
        证书管理
        创建证书
      • 安装Cloud-Init工具
        采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具 以cloudinit0.7.9版本为例,CloudInit工具的安装步骤如下。 1. 下载cloudinit0.7.9.tar.gz源码包(推荐优先选用0.7.9版本),上传到云主机指定目录“/home/”下。 cloudinit0.7.9.tar.gz源码包下载地址: 说明: 编辑内容中 部分可以选择公网PyPI源或教育网PyPI源进行替换。 公网PyPI源: 教育网PyPI源: 3. 执行以下命令,安装本地下载的CloudInit源码包,安装过程中根据需要选择upgrade参数。 pip install [upgrade] /home/cloudinit0.7.9.tar.gz 4. 执行命令cloudinit v,如回显如下类似信息表示安装CloudInit成功。 cloudinit 0.7.9 5. 设置CloudInit相关服务为开机自启动。 − 若操作系统是sysvinit自启动管理服务,则执行以下命令进行设置。 chkconfig add cloudinitlocal; chkconfig add cloudinit; chkconfig add cloudconfig; chkconfig add cloudfinal chkconfig cloudinitlocal on; chkconfig cloudinit on; chkconfig cloudconfig on; chkconfig cloudfinal on service cloudinitlocal status; service cloudinit status; service cloudconfig status; service cloudfinal status − 若操作系统是systemd自启动管理服务,则执行以下命令进行设置。 systemctl enable cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service systemctl status cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service 注意: 采用官方提供的CloudInit源码包通过pip方式进行安装时要注意以下两点。 1. CloudInit安装时需要添加syslog用户到adm组。存在syslog用户时直接添加syslog用户到adm组。不存在syslog用户时(如CentOS和SUSE),执行下列命令创建syslog用户,添加到adm组: useradd syslog groupadd adm usermod g adm syslog 2. 在“/etc/cloud/cloud.cfg”中systeminfo部分的distro要根据具体操作系统发行版本做相应修改(如根据具体操作系统发行版相应修改为:distro: ubuntu,distro: sles,distro: debian,distro: fedora)。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        安装Cloud-Init工具
      • 服务器(单机版适用)
        本节主要介绍服务器监控信息。 在“监控”页面点击“服务器”,可以查看服务器上HBlock指定时间内的监控信息:数据目录使用率、容量配额使用率、CPU使用率、内存使用量、内存总量、数据目录使用量、数据目录总容量、配额使用量、配额、读带宽、写带宽、总带宽、读IOPS、写IOPS、总IOPS、读时延、写时延、总时延、上云上传带宽、上云下载带宽、上云总带宽。 图1 服务器监控(单机版) 项目 描述 时间范围 可以选择相对时间: 近2小时 近6小时 近1天 近7天 近1年 自定义时间段,选择开始日期和结束日期,精确到天。 注意 起始时间必须早于结束时间,且起始时间不能早于服务器当前时间一年。 数据目录使用率 所有数据目录所在磁盘使用率的平均值。 容量配额使用率 HBlock所有数据目录容量配额使用率的平均值。 HBlock服务器 HBlock服务器的性能。 CPU使用率 服务器CPU使用率。 内存使用量 服务器内存使用量。 内存总量 服务器内存总量。 数据目录使用量 数据目录所在磁盘使用量的总和。 数据目录总容量 数据目录所在磁盘容量的总和。 配额使用量 HBlock已使用容量配额。 配额 HBlock容量配额总和。 客户端 HBlock 当前服务器上,客户端与HBlock之间的数据传输情况。 读带宽 客户端从HBlock服务器读取数据的带宽。 写带宽 客户端向HBlock服务器写入数据的带宽。 总带宽 客户端与HBlock服务器之间的总带宽。 读IOPS 客户端从HBlock服务器读取数据的IOPS。 写IOPS 客户端向HBlock服务器写入数据的IOPS。 总IOPS 客户端与HBlock服务器之间的总IOPS。 读时延 客户端从HBlock服务器读取数据的时延。采集周期内,服务器关联卷的读时延平均值。 写时延 客户端向HBlock服务器写入数据的时延。采集周期内,服务器关联卷的写时延平均值。 总时延 客户端与HBlock服务器之间的总时延。采集周期内,服务器关联卷的读写时延平均值。 HBlock Cloud 当前服务器上,HBlock与云之间的数据传输情况。 上云上传带宽 HBlock服务器器向云上传数据的带宽。 上云下载带宽 HBlock服务器从云下载数据的带宽。 上云总带宽 HBlock服务器与云之间的总带宽。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        服务器(单机版适用)
      • 安装Cloud-Init工具
        采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具 以cloudinit0.7.9版本为例,CloudInit工具的安装步骤如下。 1.下载cloudinit0.7.9.tar.gz源码包(推荐优先选用0.7.9版本),上传到云主机指定目录“/home/”下。 cloudinit0.7.9.tar.gz源码包下载地址: 2.在“~/.pip/”目录下新建pip.conf文件,编辑内容如下。 说明: “~/.pip/”若不存在,可使用命令mkdir ~/.pip命令新建。 [global] indexurl trustedhost 说明: 编辑内容中 部分可以选择公网PyPI源或教育网PyPI源进行替换。 公网PyPI源: 教育网PyPI源: 3.执行以下命令,安装本地下载的CloudInit源码包,安装过程中根据需要选择upgrade参数。 pip install [upgrade] /home/cloudinit0.7.9.tar.gz 4.执行命令cloudinit v,如回显如下类似信息表示安装CloudInit成功。 cloudinit 0.7.9 5.设置CloudInit相关服务为开机自启动。 −若操作系统是sysvinit自启动管理服务,则执行以下命令进行设置。 chkconfig add cloudinitlocal; chkconfig add cloudinit; chkconfig add cloudconfig; chkconfig add cloudfinal chkconfig cloudinitlocal on; chkconfig cloudinit on; chkconfig cloudconfig on; chkconfig cloudfinal on service cloudinitlocal status; service cloudinit status; service cloudconfig status; service cloudfinal status −若操作系统是systemd自启动管理服务,则执行以下命令进行设置。 systemctl enable cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service systemctl status cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service 注意: 采用官方提供的CloudInit源码包通过pip方式进行安装时要注意以下两点。 1.CloudInit安装时需要添加syslog用户到adm组。存在syslog用户时直接添加syslog用户到adm组。不存在syslog用户时(如CentOS和SUSE),执行下列命令创建syslog用户,添加到adm组: useradd syslog groupadd adm usermod g adm syslog 2.在“/etc/cloud/cloud.cfg”中systeminfo部分的distro要根据具体操作系统发行版本做相应修改(如根据具体操作系统发行版相应修改为:distro: ubuntu,distro: sles,distro: debian,distro: fedora)。
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        基于VirtualBox使用ISO创建Linux镜像
        配置虚拟机
        安装Cloud-Init工具
      • 云日志服务C++ SDK
        本文主要介绍 云日志服务C++ SDK接入指南。 1. 前言 安装使用C++ SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C++版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装c++ 运行环境,推荐安装c++11或以上版本。 2.2. 下载及安装 从官方渠道下载ctyunltscppsdk.zip压缩包,放到相应位置后并解压。“ctyunltscppsdk”目录中sampleputlogs.cpp为SDK的使用示例代码。 2.1.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel (7.6.1) openssldevel (1.1.1) protobuf (3.5.0) lz4 (v1.8.3) boost (1.66.0) 对于 CentOS 安装,可用如下命令搭建依赖环境 plaintext yum install gcc gccc++     yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufdevel.x8664 yum install boostdevel.x8664 2.1.2. 编译使用 1、进入ctyunltscppsdk目录下,里面有CMakelists.txt文件。 2、执行以下命令: plaintext mkdir build cd build cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pb.cc、.pb.h,以及编译出静态库文件libltssdk.a。 3、将ctyunltscppsdk的include目录下的头文件,全部移动到您项目的include目录下,(如果直接使用SDK 则可以不用移动)。 4、之后就可以在您的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件。 如sampleputlogs.cpp: plaintext g++ sampleputlogs.cpp I./include L./lib/ lcurl lcrypto llz4 lprotobuf lltssdk 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C++ SDK
      • 查看任务详情
        该任务指导用户通过漏洞扫描服务查看任务详情。 前提条件 已获取管理控制台的登录帐号与密码。 已开启了资产的监测任务。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”。 3. 在左侧导航树中,选择“安全监测”,进入“安全监测”界面。 4. 在目标监测任务所在行的“最近一次扫描情况”列,单击分数或者“查看详情”,进入“任务详情”界面,可以查看相应任务的“扫描项总览”。 说明 扫描任务详情界面默认显示最近一次的扫描情况,如果您需要查看其他时间的扫描情况,在“历史扫描报告”下拉框中,选择扫描时间点。 单击“重新扫描”,可以重新执行扫描任务。 如果需要修改扫描任务名称或者检测项,单击“编辑”,完成相关配置。 当扫描任务成功完成后,单击右上角的“生成报告”,生成网站扫描报告后,单击右上角的下载报告按钮,可以下载任务报告,目前只支持PDF格式。 5. 选择“扫描项总览”页签,查看扫描项的检测结果。 说明 如果检测结果存在漏洞或者风险,可在“检测结果”列,单击“查看详情”了解漏洞或者风险的详细情况。 6. 选择“漏洞列表”页签,查看漏洞信息。 说明 单击“查看更多”,可以查看详细的漏洞分析。 单击漏洞名称可以查看相应漏洞的“漏洞详情”、“漏洞简介”、“修复建议”。 如果您确认扫描出的漏洞不会对网站造成危害,请在目标漏洞所在行的“操作”列,单击“忽略”,忽略该漏洞,后续执行扫描任务会扫描出该漏洞,但扫描结果将不会统计忽略的漏洞。例如,如果您对2个低危漏洞执行了“忽略”操作,则再次执行扫描任务,扫描结果显示的低危漏洞个数将减少2。 如果想对已忽略的漏洞恢复为风险类型,在目标漏洞所在行的“操作”列,单击“取消忽略”,恢复检测此漏洞。 7. 选择“业务风险列表”页签,查看业务风险信息。 8. 选择“端口列表”页签,查看目标网站的端口信息。 9. 选择“站点结构”页签,查看目标网站的站点结构信息。 说明 站点结构显示的是目标任务的漏洞的具体站点位置,如果任务暂未扫描出漏洞,站点结构无数据显示。 显示目标网站的基本信息,包括: IP地址:目标网站的IP地址。 服务器:目标网站部署所使用的服务器名称(例如:Tomcat 、Apache httpd、 IIS等)。 语言:目标网站所使用的开发语言(例如:PHP、JAVA、C
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        安全监测
        查看任务详情
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 创建只读实例
        本章节会介绍如何创建只读实例 操作场景 只读实例用于增强主实例的读能力,减轻主实例负载。 关系型数据库实例创建成功后,可根据业务需要创建只读实例。 说明 一个主实例中,最多可以增加5个只读实例。 目前,云数据库Microsoft SQL Server仅2017企业版及以上版本的实例支持新增只读实例。 操作步骤 步骤1:登录管理控制台。 步骤2:单击管理控制台左上角的,选择区域和项目。 步骤3:选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 步骤4:在“实例管理”页面,选择指定的实例,单击“创建只读”,进入“服务选型”页面。 您也可在实例的“基本信息”页面,单击实例拓扑图中,主实例下方的添加按钮,创建只读实例。 步骤5:在“服务选型”页面,填选实例相关信息后,单击“立即创建”。 基本信息 参数 描述 当前区域 只读实例默认与主实例在同一区域。 实例名称 实例名称长度最小为4字符,最大为64个字符,如果名称包含中文,则不超过64字节(注意:一个中文字符占用3个字节),必须以字母或中文开头,区分大小写,可以包含字母、数字、中划线、下划线或中文,不能包含其他特殊字符。 数据库引擎 默认与主实例的数据库引擎一致,不可更改。 数据库版本 默认与主实例的数据库版本一致,不可更改。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 可用区 关系型数据库服务支持在同一个可用区内,或者跨可用区部署数据库主实例和只读实例,以提高可靠性。 规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。只读实例的存储空间大小默认与主实例一致。 网络 参数 描述 虚拟私有云 和主实例相同。 子网 和主实例相同,创建只读实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址暂不可修改。 安全组 和主实例相同。 步骤6:在“规格确认”页面,进行信息确认。 如果需要重新选择,单击“上一步”,回到服务选型页面修改基本信息。 信息确认无误后,单击“提交”,下发新增只读实例请求。 步骤7:只读实例创建成功后,用户可以在“实例管理”页面,选择只读实例所对应的实例,单击对其进行查看和管理。 您也可以在基本信息页面的“实例拓扑图”中,单击只读实例的名称,进入该只读实例的“基本信息”页面,对其进行查看和管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        只读实例
        创建只读实例
      • 修改已创建的VPN连接
        本文向您介绍如何修改已创建的企业版VPN连接。 场景描述 VPN连接是建立VPN网关和外部数据中心对端网关之间的加密通道。当VPN连接的网络参数变化时,可以修改VPN连接。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”界面,选择目标VPN连接所在行,单击“修改连接信息”或“修改策略配置”。 4. 根据界面提示修改VPN连接的配置参数。 5. 单击“确定”。 注意 修改预共享密钥和IKE/IPsec策略场景下,请确保VPN连接和对端网关配置的信息一致,否则会导致VPN连接中断。 不同参数修改后的生效机制不同,生效机制说明如下表。 表修改连接参数的生效机制说明 场景 参数 生效机制 操作方法 预共享密钥 IKE策略为v1时:修改后下个协商周期生效。 IKE策略为v2时:重建VPN连接后生效。 说明 国密型VPN连接无“预共享密钥”参数。 IKE策略为v1时在需要修改的VPN连接所在行,选择“更多 > 重置密钥”,修改VPN连接的预共享密钥。 IKE策略为v2时 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v1) 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) DH算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 协商模式 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 本端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 对端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 版本 修改后立即生效。 说明 国密型VPN连接不支持修改“版本”参数。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 加密算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 认证算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) DH算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 生命周期 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 版本 修改后立即生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 本端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v2) 对端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IPsec策略 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 PFS 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 传输协议 暂不支持控制台修改。 在需要修改的VPN连接所在行,单击“修改策略配置”。
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        修改已创建的VPN连接
      • 备案基础知识
        1 、备案的目的 根据《互联网信息服务管理办法》规定,在中华人民共和国境内从事互联网信息服务活动,需要先进行备案并获取通信管理局下发的ICP备案号,才允许对外提供互联网信息服务。 备案成功后,通信管理局会分配主体备案号给备案主体(个人或单位均可称为主体),同时也会给此次备案的网站分配网站备案号。 主体备案号格式为:(省简写)ICP备+主体序列号(8位数字) 网站备案号格式为:(省简写)ICP备+主体序列号(8位数字)网站序列号 举例: 天翼云官网(域名ctyun.cn)的网站备案号为:京ICP备 2021034386号34  公司主体备案号为:京ICP备2021034386号。 2 、如何备案 1) 登录天翼云官网备案我的备案 2) 输入本次备案的单位信息和域名(或APP)信息创建备案订单 3) 完善备案信息 4) 上传资料,建议选择“通过微信小程序采集图片”,此步骤会通过手机进行网站负责人的活体验证,方便快捷 5) 提交管局审核 6) 备案完成 3 、域名:非gov.cn的域名备案只能备案一级域名 非gov.cn的域名备案只需备案一级域名,一级域名备案后对应的二级域名、三级域名可以正常使用。 举例:天翼云官网的一级域名为:ctyun.cn,备案完成后对应的二级域名:.ctyun.cn均可正常使用。 境外注册域名不可进行备案。 4 、备案需要多久 1) 天翼云1个工作日内对您的备案信息进行初审。 2) 备案信息提交至通信管理局后,各省管局审核时间不一,管局按照各接入商提交单据的顺序进行审核,审核时间不超过20个工作日。 5 、备案类型 根据主体和域名是否第一次做备案,可以分为不同的备案类型,不同的备案类型填写的信息略有差异。 1) 增加备案信息的类型有: 首次备案(新增备案):主体和域名均为第一次做备案。 新增互联网信息服务:该主体已备案过其他网站(APP),此次填写的域名(APP)是第一次做备案。 接入备案:主体和域名均已备案,此次备案是办理接入商的变更。 2) 删除备案信息的类型有: 注销主体:删除该主体下的所有备案信息,包括主体信息和网站信息 注销网站:删除主体下的某个网站,主体信息仍然保留 取消接入:删除备案信息和接入商的关联,建议在新的接入商处完成接入备案后再取消接入,否则备案信息可能会被通信管理局注销 3) 修改备案信息的类型有: 变更主体:变更主体信息,如修改公司通信地址等 变更互联网信息服务:变更网站(APP)信息,如删除域名、修改网站负责人、变更IP等 只有在天翼云完成备案的网站,才可以提交变更。 6 、备案需要准备什么材料 个人备案 A. 二代身份证扫描件或拍照件 B. 《ICP备案信息真实性核验单》:去下载。 C. 电子版域名证书: 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 D. 电子版信息需提供原件: 根据管局规定,证件类的材料必须为原件扫描件或拍照,不可使用彩色复印件。 单位备案 A. 单位证件: 企业需提供营业执照(副本)扫描件/拍照件、机关提供统一社会信用代码证,事业单位提供事业单位法人证书 B. 负责人身份证扫描件/拍照件(外国人可提供护照等其他证件) C. 《ICP备案信息真实性核验单》:去下载。 D. 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 E. 网站负责人法人授权书(可选): 如果网站负责人填写的不是法人,还需额外提供授权书,去下载。 7 、接入备案 为什么要办理接入备案?根据国家相关要求,如果您已在A接入商购买服务器并成功办理了ICP备案,当您计划将网站搭建到B接入商平台时(或网站同时在多家接入商平台上运营时),需到B接入商处办理备案,备案信息接入B接入商的过程称为“接入备案”。 另外,如果不办理接入备案即开通网站,您的网站将有可能被阻断无法访问 8 、使用海外服务器不需要备案 购买中国香港或海外服务器无需备案,备案仅针对国内(港澳台地区除外)节点服务器。 9 、境外企业如何备案 目前境外企业无法备案,需要在国内(港澳台地区除外)设立分公司持有国家认可的单位证件才能进行备案。(建议境外企业考虑使用中国香港服务器,使用中国香港服务器无需备案) 10 、备案专有名词 一级域名:一级域名也叫顶级域名,abc.com为一级域名,a.abc.com为二级域名;abc.edu.cn也是一级域名,因为edu.cn本身也是一个域名后缀。 主体:办理备案的个人或者单位均称为备案主体 接入商:提供网站搭建平台并协助您办理备案的即为接入商 主体负责人:单位办理备案时填写的主办单位负责人,一般建议填写公司法人 网站负责人:单位办理备案时填写的网站负责人,负责网站建设等工作,可以填写法人也可以根据实际情况填写相关负责人
        来自:
        帮助文档
        ICP备案
        备案介绍
        备案基础知识
      • 应用SQL审核
        SQL审核功能够对提交的SQL语句进行规范审查,并提供针对性的优化建议。这一功能有助于防止使用未建立索引或格式不规范的SQL语句,从而有效减少SQL注入的安全风险。 前提条件 组织版本为企业版。 目前仅支持MySQL、PostgreSQL、DRDS、Oracle数据库。 功能介绍 在项目开发阶段,业务逻辑和数据显示依赖于数据库的SQL操作。上线前,必须对所有SQL进行严格审核,以防不规范语句影响生产环境。为避免人工审核的低效和资源浪费,DMS提供了SQL审核功能,依据自定义安全规则提出优化建议,如设定表需有主键、主键类型限制等,以提高研发效率和保障数据库规范。SQL相关规则详细配置请参考SQL规范。 操作步骤 创建SQL审核工单 1. 登录DMS控制台。 2. 在左侧导航栏,选择SQL治理 > SQL审核 ,进入SQL审核管理页面。 3. 单击SQL审核按钮,弹出SQL审核工单填写界面,工单需要输入的内容说明见下表1。 4. 填写完SQL审核工单后,单击提交按钮,即完成工单的提交,进入SQL规范检查。 5. SQL审核工单检查通过之后,会自动进入审批流程。管理员将再次确认SQL,审批完成则工单流程结束。 表1 SQL审核工单输入内容说明 输入内容 说明 : 目标实例 必填项,选择执行SQL语句的目标实例,目前支持MySQL,PostgreSQL,DRDS,Oracle数据源。 目标数据库 选填项,选择执行SQL语句的目标数据库。如果未选中目标数据库,则会只检查“离线规则”,“在线规则”和“离线规则”详见 SQL规范。 关联人 选填项,选择需要看到此工单的用户名,关联人可在工单列表页面查看到此工单。 审核内容 必填项,上传或编辑审核内容。 注意 支持单个SQL文件、MyBatis框架XML文件或多文件打包成ZIP。单SQL/XML文件最大2M。ZIP不可超过20M,路径深度最大5层,最多包含200个文件。 如果上传文件为单文件,上传的文件内容将自动解析至输入框中,覆盖输入框内原有内容;如果上传文件为ZIP,上传的文件目录、文件名将自动展示到页面。 工单说明 描述工单备注内容。 说明 检查结果中如果有强制改进项,用户需要改进该项命中的SQL并重新检查通过之后,才能进入审批流程。 如果有建议改进项,不会阻断任务流程,但会出现改进建议。 强制改进和建议改进的定义,详见
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL治理
        应用SQL审核
      • 运维任务
        此小节介绍云堡垒机的运维任务。 支持分步骤同时对多个SSH协议资源批量执行多种运维操作,可同时运维操作包括执行命令、执行脚本、传输文件。 新建运维任务 云堡垒机支持自动运维任务功能,用户可按步骤自动执行命令和脚本方式运维多个目标资源,并可设置自动执行步骤将系统磁盘文件或本地文件快速上传到多个目标主机路径。此外,可设置执行周期和时间定期执行任务,并可同时执行多种任务步骤类型,实现多台资源设备自动化运维,提高运维效率。 运维任务执行后,按照步骤顺序依次自动执行操作,并返回执行结果。 约束限制 仅专业版云堡垒机支持快速运维功能。 仅支持对Linux主机(SSH协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 运维任务仅能由个人帐户管理,不能被系统内其他用户管理。 前提条件 已获取“运维任务”模块管理权限。 已获取资源访问控制权限,即已配置访问控制策略或访问授权工单已审批通过。 资源主机网络连接正常。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 运维任务 > 任务列表”,进入运维任务列表页面。 3 单击“新建”,弹出新建运维任务窗口。 4 配置任务基本信息。 运维任务基本信息参数说明 参数 说明 :: 任务名称 自定义的运维任务名称,系统内“任务名称”不能重复。 执行方式 选择运维任务执行的方式,包括“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 手动执行:手动触发执行任务。 定时执行:定期自动触发执行任务。仅执行一次。 周期执行:周期自动触发执行任务。可按周期执行多次。 执行时间 定期执行任务的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入任务执行周期。 可选择每分钟、每小时、每天、每周、每月。 需同时选择“结束时间”,否则将无限期按周期执行任务。 更多选项 (可选)用户对资源账户执行任务权限不够时,需勾选上“提权执行”,用户需在该主机资源的Sudoers文件下执行任务。 任务描述 简要描述运维任务信息。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建的SSH协议类型资源账户或帐户组。 配置执行资源账户 6 单击“下一步”,配置任务步骤。 单击“添加任务步骤”,选择添加任务类型“执行命令”、“执行脚本”或“传输文件”。 选择一个或多个任务类型,并配置任务参数。 运维任务步骤数不限制,一个任务可添加多个执行步骤。 7 单击“确定”,返回任务列表页面,查看新建的运维任务。 任务执行完成后,可以下载执行日志,获取任务执行结果。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        运维任务
      • (停止维护)CCE发布Kubernetes 1.19版本说明
        社区1.18 ReleaseNotes kubeapiserver apps/v1beta1 and apps/v1beta2下所有资源不再提供服务,使用apps/v1替代。 extensions/v1beta1下daemonsets,deployments,replicasets不再提供服务,使用apps/v1替代。 extensions/v1beta1下networkpolicies不再提供服务,使用networking.k8s.io/v1替代。 extensions/v1beta1下podsecuritypolicies不再提供服务,使用policy/v1beta1替代。 kubelet redirectcontainerstreaming不推荐使用,v1.20会正式废弃。 资源度量端点/metrics/resource/v1alpha1以及此端点下的所有度量标准均已弃用。请转换为端点 /metrics/resource下的度量标准: scrapeerror > scrapeerror nodecpuusagesecondstotal > nodecpuusageseconds nodememoryworkingsetbytes > nodememoryworkingsetbytes containercpuusagesecondstotal > containercpuusageseconds containermemoryworkingsetbytes > containermemoryworkingsetbytes scrapeerror > scrapeerror 在将来的发行版中,kubelet将不再根据CSI规范创建CSI NodePublishVolume目标目录。可能需要相应地更新CSI驱动程序,以正确创建和处理目标路径。 kubeproxy healthzport和metricsport参数不建议使用,请使用healthzbindaddress和metricsbindaddress。 增加EndpointSliceProxying功能选项以控制kubeproxy中EndpointSlices的使用,默认情况下已禁用此功能。 kubeadm kubeadm upgrade node的kubeletversion参数已弃用,将在后续版本中删除。 kubeadm alpha certs renew命令中useapi参数已弃用。 kubedns已弃用,在将来的版本中将不再受支持。 kubeadmconfig ConfigMap中存在的ClusterStatus结构体已废弃,将在后续版本中删除。 kubectl dryrun不建议使用boolean和unset values,新版本中serverclientnone会被使用。 kubectl apply serverdryrun已弃用,替换为dryrunserver。 addons 删除clustermonitoring插件。 kubescheduler schedulingdurationseconds指标已弃用。 schedulingalgorithmpredicateevaluationseconds和schedulingalgorithmpriorityevaluationseconds指标已弃用,使用frameworkextensionpointdurationseconds[extensionpoint"Filter"]和frameworkextensionpointdurationseconds[extensionpoint"Score"]替代。 调度器策略AlwaysCheckAllPredicates已弃用。 其他变化 k8s.io/nodeapi组件不再更新。作为替代,可以使用位于k8s.io/api中的RuntimeClass类型和位于k8s.io/clientgo中的generated clients。 已从apiserverrequesttotal中删除“client”标签。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.19版本说明
      • 通过应用市场部署OpenClaw(原Clawdbot)
        使用前准备 1.天翼云账号注册:使用应用托管平台须具备天翼云官网账号。已有天翼云账号的直接登录即可,如无天翼云账号需先注册,注册流程可参考:注册账号。 2. 使用前提 (1)如需使用服务请先完成实名认证,请参考账号中心实名认证。 (2)如需使用按需服务,请确认账号余额≥100 元。 部署OpenClaw应用 步骤一:获取大模型API Key OpenClaw需要调用大模型能力,这里使用天翼云息壤模型推理服务。 1.访问天翼云息壤模型推理服务。 2.点击左侧菜单【服务接入】进入服务接入页面,点击【创建服务组】按钮,在创建服务组页面中选择“DeepSeekV3.2(正式版)”,提交表单。(新用户免费额度为2500万tokens,体验时间为2周) 3. 回到【服务接入】页面,复制您的 APP Key 以供使用。 步骤二:订购并部署 OpenClaw 应用 1. 登录应用托管控制台,选择左侧菜单【应用市场】,点击进入对应页面。 2. 在应用市场页面,选择目标应用,点击【开启应用】,进入应用部署页面。 3. 填写获取的天翼云息壤模型推理服务APP KEY(填入息壤APIKEY),设置OpenClaw的网关密码(用于连接OpenClaw网关),选择访问策略,勾选同意用户协议,点击【部署应用】,即可完成OpenClaw应用服务部署。 访问策略:访问策略为服务的公网访问提供安全防护。应用需选择配置白名单访问策略(不支持黑名单访问策略),且白名单内IP数不超过10个,如没有可用的策略请新建。 白名单配置:点击【访问策略】注释行【去新建】,或直接在【应用访问策略】选择策略信息进行操作,编辑白名单配置,将您的IP地址添加到IP地址/网段,并点击确认即可(见下图)。 获取出口 IP 操作指引:可在官网文档【用户指南应用访问策略访问策略管理】中查看。 重要:建议开启白名单策略防护,避免公网全面暴露带来安全风险。 4.提交表单后进入应用实例列表页面,点击操作栏【访问】按钮,点击下拉访问链接,进入OpenClaw使用界面。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        通过应用市场部署OpenClaw(原Clawdbot)
      • HTTP3.0(QUIC)协议
        本文介绍HTTP3.0的工作原理和使用说明。 功能介绍 QUIC全称:Quick UDP Internet Connections,是一种实验性传输层网络协议,提供与TLS/SSL相当的安全性,同时具有更低的连接和传输延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 1. 传输层使用UDP,减少1个RTT三次握手的延迟。 2. 加密协议采用TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流的数据传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现瞬间卡顿。这是因为,TCP采用四元组(包括源站IP、源站端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态地增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTP3.0(QUIC)协议
      • QUIC在短视频场景下的最佳实践
        本文简述QUIC协议在短视频场景下的最佳实践。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC协议的优势 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用:QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移:什么是连接迁移?举个例子,当您用手机使用蜂窝网络参加远程会议,当您把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源地址、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制:QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC):QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 云日志服务C SDK
        本文主要介绍云日志服务C SDK接入指南。 1. 前言 安装使用C SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能,目前支持日志同步上传。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装C 运行环境。 2.2. 下载及安装 下载ctyunltscsdk.zip压缩包,放到相应位置后并解压。“ctyunltscsdk”目录中sampleputlogs.c为SDK的使用示例代码。 2.2.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel(7.6.1) openssldevel (1.1.1k) protobufc(1.3.06.el8) lz4(v1.8.3) jsonc(0.13.12.el8) 对于 CentOS 安装,可用如下命令搭建依赖环境。 plaintext yum install gccc++ yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufcdevel.x8664 yum install jsoncdevel.x8664 2.2.2. 编译使用 1、进入ctyunltscsdk目录下,里面有CMakelists.txt文件。 2、执行build.sh,其包含以下命令。 plaintext !bin/bash generate .pbc.c .pbc.h from .proto protocc protopath./protoc cout./ common.proto resource.proto logs.proto echo "generate 6 file (commonresourcelogs).(pbc.cpbc.h)" mkdir build cd build cmake install location is .. cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pbc.c、.pbc.h,以及动态链接构建出库文件libltssdk.a,存放在lib目录下。 3、将ctyunltscsdk目录下的头文件,全部移动到您项目的对应目录下,(如果直接使用SDK 则可以不用移动)。 4、之后你就可以在你的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件, 如sampleputlogs.c。 plaintext gcc sampleputlogs.c o sampleputlogs I./ L./lib/ lltssdk lssl llz4 lcurl lprotobufc lcrypto ljsonc 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行你的可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 什么是QUIC协议
        本文简述什么是QUIC协议。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 优势1:握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 优势2:避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 优势3:支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 优势4:可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 优势5:前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        QUIC协议
        什么是QUIC协议
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • QUIC协议
        本文介绍QUIC协议的工作原理、应用场景、支持的QUIC类型、注意事项及配置说明等。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        QUIC协议
      • 操作类
        扩大带宽是否会对DRS正在进行中的任务产生影响 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。 为什么MariaDB和 SysDB下的数据不迁移 由于某些MariaDB的版本把SysDB库作为其系统库(类似于MySQL官方版5.7的sys库),所以DRS默认也将SysDB作为所有MariaDB的系统库来处理(等同于MySQL、informationschema、performanceschema等库)。如果SysDB确实是业务库,您可以通过工单申请处理。 多对一的场景约束及操作建议 因业务需要,不同实例、不同表的数据需要进行合并时,数据复制服务提供的数据迁移支持多对一的场景。 操作建议 为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。 每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • 监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率。 (0,60) 节点 60秒 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率。 (0,60) 节点 60秒 rds003bytesin 数据写入量 该指标用于统计测量对象对应VM的网络发送字节数,取时间段的平均值 暂无 节点 60秒 rds004bytesout 数据传出量 该指标用于统计测量对象对应VM的网络接受字节数,取时间段的平均值 暂无 节点 60秒 rds014iops 数据磁盘每秒读写次数 该指标用于统计测量对象的节点数据磁盘每秒读写次数,该值为实时值。 暂无 节点 60秒 rds016diskwritethroughput 数据磁盘写吞吐量 该指标用于统计测量对象的节点数据磁盘每秒写吞吐量,该值为实时值。 暂无 节点 60秒 rds017diskreadthroughput 数据磁盘读吞吐量 该指标用于统计测量对象的节点数据磁盘每秒读吞吐量,该值为实时值。 暂无 节点 60秒 rds020avgdiskmsperwrite 数据磁盘单次写入花费的时间 该指标用于统计测量对象的节点数据磁盘单次写入花费的时间,取时间段的平均值。 暂无 节点 60秒 rds021avgdiskmsperread 数据磁盘单次读取花费的时间 该指标用于统计测量对象的节点数据磁盘单次读取花费的时间,取时间段的平均值。 暂无 节点 60秒 iobandwidthusage 磁盘io 带宽占用率 当前磁盘io带宽与磁盘最大带宽比值 NA 节点 60秒 iopsusage IOPS 使用率 当前iops与磁盘最大iops比值 NA 节点 60秒 rds005instancediskusedsize 实例数据磁盘已使用大小 该指标用于统计测量对象的实例数据磁盘已使用大小,该值为实时值。 暂无 实例 60秒 rds006instancedisktotalsize 实例数据磁盘总大小 该指标用于统计测量对象的实例数据磁盘总大小,该值为实时值。 暂无 实例 60秒 rds007instancediskusage 实例数据磁盘已使用百分比 该指标用于统计测量对象的实例数据磁盘使用率,该值为实时值。 (0, 60%) 实例 60秒 rds035bufferhitratio buffer 命中率 该指标用于统计数据库buffer命中率。 (95,100) 实例 60秒 rds036deadlocks 死锁次数 该指标用于统计数据库发生事务死锁的次数,取该时间段的增量值。 (0,1) 实例 60秒 rds048P80 80% SQL的响应时间 该指标用于统计数据库80% SQL的响应时间,该值为实时值。 (0,150000) 实例 60秒 rds049P95 95% SQL的响应时间 该指标用于统计数据库95% SQL的响应时间,该值为实时值。 (0,200000) 实例 60秒 rds008diskusedsize 磁盘已使用大小 该指标用于统计测量对象的节点数据磁盘使用值,该值为实时值。 NA 组件 60秒 rds009disktotalsize 磁盘总大小 该指标用于统计测量对象的节点数据磁盘总大小,该值为实时值。 NA 组件 60秒 rds010diskusage 磁盘已使用百分比 该指标用于统计测量对象的节点数据磁盘使用率,该值为实时值。 80 组件 60秒 rds024currentsleeptime 主机流控时间 该指标用于统计测量对象的主机流控时间,该值为实时值。 1 组件 60秒 rds025currentrto 备机RTO时间 该指标用于统计测量对象的主备复制的RTO,该值为实时值。 60 组件 60秒 rds026logincounter 用户登入次数/秒 该指标用于统计CN节点上每秒的登入次数,取时间段的平均值。 1000 组件 60秒 rds027logoutcounter 用户登出次数/秒 该指标用于统计CN节点上每秒的登出次数,取时间段的平均值。 1000 组件 60秒 rds028standbydelay 备机redo进度 该指标用于统计分片内备机redo进度,表示备机和主机的差距,该值为实时值。 200MB 组件 60秒 rds030waitratio 锁等待状态会话比率 该指标用于统计当前处于锁等待状态会话占活跃工作状态下会话比率,该值为实时值。 50 组件 60秒 rds031activeratio 活跃会话率 该指标用于统计当前处于活跃工作状态会话占总会话数比率,该值为实时值。 20 组件 60秒 rds034inusecounter CN连接数 该指标用于统计CN连接池中正在使用的连接数,该值为实时值。 80 组件 60秒 rds037commitcounter 用户提交事务数/秒 该指标用于统计用户每秒提交的事务数,取时间段的平均值。 50000 组件 60秒 rds038rollbackcounter 用户回滚事务数/秒 该指标用于统计用户每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds039bgcommitcounter 后台提交事务数/秒 该指标用于统计后台每秒提交的事务数,取时间段的平均值。 5000 组件 60秒 rds040bgrollbackcounter 后台回滚事务数/秒 该指标用于统计后台每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds041respavg 用户事务平均响应时间 该指标用于统计用户事务的平均响应时间。 10ms 组件 60秒 rds042rollbackratio 用户事务回滚率 该指标用于统计用户事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds043bgrollbackratio 后台事务回滚率 该指标用于统计后台事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds044ddlcount data definition language 该指标用于统计用户负载在query层的DDL数量,取时间段的平均值。 10 组件 60秒 rds045dmlcount data manipulation language/min 该指标用于统计用户负载在query层的DML数量,取时间段的平均值。 50000 组件 60秒 rds046dclcount data Control Language/min 该指标用于统计用户负载在query层的DCL数量,取时间段的平均值。 10 组件 60秒 rds047ddldclratio DDL+DCL比率 该指标用于统计用户负载在query层的DDL+DCL占DDL+DCL+DML的比率,取时间段的平均值。 5 组件 60秒 rds050ckptdelay 待落盘的数据量 该指标用于统计信息同步到磁盘过程中待落盘的数据量,该值为实时值。 200MB/s 组件 60秒 rds051phyrds 读物理文件的IO次数/秒 该指标用于统计数据库每秒读物理物件的IO次数,取时间段的平均值。 20000 组件 60秒 rds052phywrts 写物理文件的IO次数/秒 该指标用于统计数据库每秒写物理物件的IO次数,取时间段的平均值。 10000 组件 60秒 rds053onlinesession 在线会话数量 该指标用于统计当前在线的session个数,该值为实时值。 NA 组件 60秒 rds054activesession 活跃会话数量 该指标用于统计当前所有活跃工作状态下会话个数,该值为实时值。 NA 组件 60秒 rds055onlineratio 在线会话率 该指标用于统计CN(分布式)/主DN(主备版)上的在线会话比例,该值为实时值 NA 组件 60秒 rds060longrunningtransactionexectime 数据库最长事务的执行时长 该指标用于统计测量对象的数据库最长事务的执行时长, 该值为实时值。 NA 组件 60秒 rds066replicationslotwallogsize 复制槽保留的WAL日志大小 该指标用于统计主DN上复制槽中保留的WAL日志的大小, 该值为实时值。 NA 组件 60秒 rds067xloglsn xlog速率 该指标用于统计CN或者DN上xlog的速率, 该值为实时值。 NA 组件 60秒 rds068swapusedratio 交换内存使用率 该指标用于描述操作系统交换内存使用率,该值为实时值。 NA 节点 60秒 rds069swaptotalsize 交换内存总大小 该指标用于描述操作系统交换内存总大小,该值为实时值。 NA 节点 60秒
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        监控与告警
        监控指标
      • 1
      • ...
      • 203
      • 204
      • 205
      • 206
      • 207
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      推荐文档

      如何创建RDS数据库

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      创建消费者

      导入数据

      客户端下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号