云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      消息队列RocketMQ版_相关内容
      • 安装Cloud-Init工具
        采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具 以cloudinit0.7.9版本为例,CloudInit工具的安装步骤如下。 1.下载cloudinit0.7.9.tar.gz源码包(推荐优先选用0.7.9版本),上传到云主机指定目录“/home/”下。 cloudinit0.7.9.tar.gz源码包下载地址: 2.在“~/.pip/”目录下新建pip.conf文件,编辑内容如下。 说明: “~/.pip/”若不存在,可使用命令mkdir ~/.pip命令新建。 [global] indexurl trustedhost 说明: 编辑内容中 部分可以选择公网PyPI源或教育网PyPI源进行替换。 公网PyPI源: 教育网PyPI源: 3.执行以下命令,安装本地下载的CloudInit源码包,安装过程中根据需要选择upgrade参数。 pip install [upgrade] /home/cloudinit0.7.9.tar.gz 4.执行命令cloudinit v,如回显如下类似信息表示安装CloudInit成功。 cloudinit 0.7.9 5.设置CloudInit相关服务为开机自启动。 −若操作系统是sysvinit自启动管理服务,则执行以下命令进行设置。 chkconfig add cloudinitlocal; chkconfig add cloudinit; chkconfig add cloudconfig; chkconfig add cloudfinal chkconfig cloudinitlocal on; chkconfig cloudinit on; chkconfig cloudconfig on; chkconfig cloudfinal on service cloudinitlocal status; service cloudinit status; service cloudconfig status; service cloudfinal status −若操作系统是systemd自启动管理服务,则执行以下命令进行设置。 systemctl enable cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service systemctl status cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service 注意: 采用官方提供的CloudInit源码包通过pip方式进行安装时要注意以下两点。 1.CloudInit安装时需要添加syslog用户到adm组。存在syslog用户时直接添加syslog用户到adm组。不存在syslog用户时(如CentOS和SUSE),执行下列命令创建syslog用户,添加到adm组: useradd syslog groupadd adm usermod g adm syslog 2.在“/etc/cloud/cloud.cfg”中systeminfo部分的distro要根据具体操作系统发行版本做相应修改(如根据具体操作系统发行版相应修改为:distro: ubuntu,distro: sles,distro: debian,distro: fedora)。
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        基于VirtualBox使用ISO创建Linux镜像
        配置虚拟机
        安装Cloud-Init工具
      • 云日志服务C++ SDK
        本文主要介绍 云日志服务C++ SDK接入指南。 1. 前言 安装使用C++ SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C++版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装c++ 运行环境,推荐安装c++11或以上版本。 2.2. 下载及安装 从官方渠道下载ctyunltscppsdk.zip压缩包,放到相应位置后并解压。“ctyunltscppsdk”目录中sampleputlogs.cpp为SDK的使用示例代码。 2.1.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel (7.6.1) openssldevel (1.1.1) protobuf (3.5.0) lz4 (v1.8.3) boost (1.66.0) 对于 CentOS 安装,可用如下命令搭建依赖环境 plaintext yum install gcc gccc++     yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufdevel.x8664 yum install boostdevel.x8664 2.1.2. 编译使用 1、进入ctyunltscppsdk目录下,里面有CMakelists.txt文件。 2、执行以下命令: plaintext mkdir build cd build cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pb.cc、.pb.h,以及编译出静态库文件libltssdk.a。 3、将ctyunltscppsdk的include目录下的头文件,全部移动到您项目的include目录下,(如果直接使用SDK 则可以不用移动)。 4、之后就可以在您的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件。 如sampleputlogs.cpp: plaintext g++ sampleputlogs.cpp I./include L./lib/ lcurl lcrypto llz4 lprotobuf lltssdk 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C++ SDK
      • 查看任务详情
        该任务指导用户通过漏洞扫描服务查看任务详情。 前提条件 已获取管理控制台的登录帐号与密码。 已开启了资产的监测任务。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”。 3. 在左侧导航树中,选择“安全监测”,进入“安全监测”界面。 4. 在目标监测任务所在行的“最近一次扫描情况”列,单击分数或者“查看详情”,进入“任务详情”界面,可以查看相应任务的“扫描项总览”。 说明 扫描任务详情界面默认显示最近一次的扫描情况,如果您需要查看其他时间的扫描情况,在“历史扫描报告”下拉框中,选择扫描时间点。 单击“重新扫描”,可以重新执行扫描任务。 如果需要修改扫描任务名称或者检测项,单击“编辑”,完成相关配置。 当扫描任务成功完成后,单击右上角的“生成报告”,生成网站扫描报告后,单击右上角的下载报告按钮,可以下载任务报告,目前只支持PDF格式。 5. 选择“扫描项总览”页签,查看扫描项的检测结果。 说明 如果检测结果存在漏洞或者风险,可在“检测结果”列,单击“查看详情”了解漏洞或者风险的详细情况。 6. 选择“漏洞列表”页签,查看漏洞信息。 说明 单击“查看更多”,可以查看详细的漏洞分析。 单击漏洞名称可以查看相应漏洞的“漏洞详情”、“漏洞简介”、“修复建议”。 如果您确认扫描出的漏洞不会对网站造成危害,请在目标漏洞所在行的“操作”列,单击“忽略”,忽略该漏洞,后续执行扫描任务会扫描出该漏洞,但扫描结果将不会统计忽略的漏洞。例如,如果您对2个低危漏洞执行了“忽略”操作,则再次执行扫描任务,扫描结果显示的低危漏洞个数将减少2。 如果想对已忽略的漏洞恢复为风险类型,在目标漏洞所在行的“操作”列,单击“取消忽略”,恢复检测此漏洞。 7. 选择“业务风险列表”页签,查看业务风险信息。 8. 选择“端口列表”页签,查看目标网站的端口信息。 9. 选择“站点结构”页签,查看目标网站的站点结构信息。 说明 站点结构显示的是目标任务的漏洞的具体站点位置,如果任务暂未扫描出漏洞,站点结构无数据显示。 显示目标网站的基本信息,包括: IP地址:目标网站的IP地址。 服务器:目标网站部署所使用的服务器名称(例如:Tomcat 、Apache httpd、 IIS等)。 语言:目标网站所使用的开发语言(例如:PHP、JAVA、C
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        安全监测
        查看任务详情
      • 修改已创建的VPN连接
        本文向您介绍如何修改已创建的企业版VPN连接。 场景描述 VPN连接是建立VPN网关和外部数据中心对端网关之间的加密通道。当VPN连接的网络参数变化时,可以修改VPN连接。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”界面,选择目标VPN连接所在行,单击“修改连接信息”或“修改策略配置”。 4. 根据界面提示修改VPN连接的配置参数。 5. 单击“确定”。 注意 修改预共享密钥和IKE/IPsec策略场景下,请确保VPN连接和对端网关配置的信息一致,否则会导致VPN连接中断。 不同参数修改后的生效机制不同,生效机制说明如下表。 表修改连接参数的生效机制说明 场景 参数 生效机制 操作方法 预共享密钥 IKE策略为v1时:修改后下个协商周期生效。 IKE策略为v2时:重建VPN连接后生效。 说明 国密型VPN连接无“预共享密钥”参数。 IKE策略为v1时在需要修改的VPN连接所在行,选择“更多 > 重置密钥”,修改VPN连接的预共享密钥。 IKE策略为v2时 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v1) 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) DH算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 协商模式 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 本端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 对端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 版本 修改后立即生效。 说明 国密型VPN连接不支持修改“版本”参数。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 加密算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 认证算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) DH算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 生命周期 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 版本 修改后立即生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 本端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v2) 对端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IPsec策略 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 PFS 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 传输协议 暂不支持控制台修改。 在需要修改的VPN连接所在行,单击“修改策略配置”。
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        修改已创建的VPN连接
      • 备案基础知识
        1 、备案的目的 根据《互联网信息服务管理办法》规定,在中华人民共和国境内从事互联网信息服务活动,需要先进行备案并获取通信管理局下发的ICP备案号,才允许对外提供互联网信息服务。 备案成功后,通信管理局会分配主体备案号给备案主体(个人或单位均可称为主体),同时也会给此次备案的网站分配网站备案号。 主体备案号格式为:(省简写)ICP备+主体序列号(8位数字) 网站备案号格式为:(省简写)ICP备+主体序列号(8位数字)网站序列号 举例: 天翼云官网(域名ctyun.cn)的网站备案号为:京ICP备 2021034386号34  公司主体备案号为:京ICP备2021034386号。 2 、如何备案 1) 登录天翼云官网备案我的备案 2) 输入本次备案的单位信息和域名(或APP)信息创建备案订单 3) 完善备案信息 4) 上传资料,建议选择“通过微信小程序采集图片”,此步骤会通过手机进行网站负责人的活体验证,方便快捷 5) 提交管局审核 6) 备案完成 3 、域名:非gov.cn的域名备案只能备案一级域名 非gov.cn的域名备案只需备案一级域名,一级域名备案后对应的二级域名、三级域名可以正常使用。 举例:天翼云官网的一级域名为:ctyun.cn,备案完成后对应的二级域名:.ctyun.cn均可正常使用。 境外注册域名不可进行备案。 4 、备案需要多久 1) 天翼云1个工作日内对您的备案信息进行初审。 2) 备案信息提交至通信管理局后,各省管局审核时间不一,管局按照各接入商提交单据的顺序进行审核,审核时间不超过20个工作日。 5 、备案类型 根据主体和域名是否第一次做备案,可以分为不同的备案类型,不同的备案类型填写的信息略有差异。 1) 增加备案信息的类型有: 首次备案(新增备案):主体和域名均为第一次做备案。 新增互联网信息服务:该主体已备案过其他网站(APP),此次填写的域名(APP)是第一次做备案。 接入备案:主体和域名均已备案,此次备案是办理接入商的变更。 2) 删除备案信息的类型有: 注销主体:删除该主体下的所有备案信息,包括主体信息和网站信息 注销网站:删除主体下的某个网站,主体信息仍然保留 取消接入:删除备案信息和接入商的关联,建议在新的接入商处完成接入备案后再取消接入,否则备案信息可能会被通信管理局注销 3) 修改备案信息的类型有: 变更主体:变更主体信息,如修改公司通信地址等 变更互联网信息服务:变更网站(APP)信息,如删除域名、修改网站负责人、变更IP等 只有在天翼云完成备案的网站,才可以提交变更。 6 、备案需要准备什么材料 个人备案 A. 二代身份证扫描件或拍照件 B. 《ICP备案信息真实性核验单》:去下载。 C. 电子版域名证书: 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 D. 电子版信息需提供原件: 根据管局规定,证件类的材料必须为原件扫描件或拍照,不可使用彩色复印件。 单位备案 A. 单位证件: 企业需提供营业执照(副本)扫描件/拍照件、机关提供统一社会信用代码证,事业单位提供事业单位法人证书 B. 负责人身份证扫描件/拍照件(外国人可提供护照等其他证件) C. 《ICP备案信息真实性核验单》:去下载。 D. 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 E. 网站负责人法人授权书(可选): 如果网站负责人填写的不是法人,还需额外提供授权书,去下载。 7 、接入备案 为什么要办理接入备案?根据国家相关要求,如果您已在A接入商购买服务器并成功办理了ICP备案,当您计划将网站搭建到B接入商平台时(或网站同时在多家接入商平台上运营时),需到B接入商处办理备案,备案信息接入B接入商的过程称为“接入备案”。 另外,如果不办理接入备案即开通网站,您的网站将有可能被阻断无法访问 8 、使用海外服务器不需要备案 购买中国香港或海外服务器无需备案,备案仅针对国内(港澳台地区除外)节点服务器。 9 、境外企业如何备案 目前境外企业无法备案,需要在国内(港澳台地区除外)设立分公司持有国家认可的单位证件才能进行备案。(建议境外企业考虑使用中国香港服务器,使用中国香港服务器无需备案) 10 、备案专有名词 一级域名:一级域名也叫顶级域名,abc.com为一级域名,a.abc.com为二级域名;abc.edu.cn也是一级域名,因为edu.cn本身也是一个域名后缀。 主体:办理备案的个人或者单位均称为备案主体 接入商:提供网站搭建平台并协助您办理备案的即为接入商 主体负责人:单位办理备案时填写的主办单位负责人,一般建议填写公司法人 网站负责人:单位办理备案时填写的网站负责人,负责网站建设等工作,可以填写法人也可以根据实际情况填写相关负责人
        来自:
        帮助文档
        ICP备案
        备案介绍
        备案基础知识
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 通过应用托管部署OpenClaw(原Clawdbot)
        使用前准备 1.天翼云账号注册:使用应用托管平台须具备天翼云官网账号。已有天翼云账号的直接登录即可,如无天翼云账号需先注册,注册流程可参考:注册账号。 2. 使用前提 (1)如需使用服务请先完成实名认证,请参考账号中心实名认证。 (2)如需使用按需服务,请确认账号余额≥100 元。 部署OpenClaw应用 步骤一:获取大模型API Key OpenClaw需要调用大模型能力,这里使用天翼云息壤模型推理服务。 1.访问天翼云息壤模型推理服务。 2.点击左侧菜单【服务接入】进入服务接入页面,点击【创建服务组】按钮,在创建服务组页面中选择“DeepSeekV3.2(正式版)”,提交表单。(新用户免费额度为2500万tokens,体验时间为2周) 3. 回到【服务接入】页面,复制您的 APP Key 以供使用。 步骤二:订购并部署 OpenClaw 应用 1. 登录应用托管控制台,选择左侧菜单【应用市场】,点击进入对应页面。 2. 在应用市场页面,选择目标应用,点击【开启应用】,进入应用部署页面。 3. 填写获取的天翼云息壤模型推理服务APP KEY(填入息壤APIKEY),设置OpenClaw的网关密码(用于连接OpenClaw网关),选择访问策略,勾选同意用户协议,点击【部署应用】,即可完成OpenClaw应用服务部署。 访问策略:访问策略为服务的公网访问提供安全防护。应用需选择配置白名单访问策略(不支持黑名单访问策略),且白名单内IP数不超过10个,如没有可用的策略请新建。 白名单配置:点击【访问策略】注释行【去新建】,或直接在【应用访问策略】选择策略信息进行操作,编辑白名单配置,将您的IP地址添加到IP地址/网段,并点击确认即可(见下图)。 获取出口 IP 操作指引:可在官网文档【用户指南应用访问策略访问策略管理】中查看。 重要:建议开启白名单策略防护,避免公网全面暴露带来安全风险。 4.提交表单后进入应用实例列表页面,点击操作栏【访问】按钮,点击下拉访问链接,进入OpenClaw使用界面。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        通过应用托管部署OpenClaw(原Clawdbot)
      • 应用SQL审核
        SQL审核功能够对提交的SQL语句进行规范审查,并提供针对性的优化建议。这一功能有助于防止使用未建立索引或格式不规范的SQL语句,从而有效减少SQL注入的安全风险。 前提条件 组织版本为企业版。 目前仅支持MySQL、PostgreSQL、DRDS、Oracle数据库。 功能介绍 在项目开发阶段,业务逻辑和数据显示依赖于数据库的SQL操作。上线前,必须对所有SQL进行严格审核,以防不规范语句影响生产环境。为避免人工审核的低效和资源浪费,DMS提供了SQL审核功能,依据自定义安全规则提出优化建议,如设定表需有主键、主键类型限制等,以提高研发效率和保障数据库规范。SQL相关规则详细配置请参考SQL规范。 操作步骤 创建SQL审核工单 1. 登录DMS控制台。 2. 在左侧导航栏,选择SQL治理 > SQL审核 ,进入SQL审核管理页面。 3. 单击SQL审核按钮,弹出SQL审核工单填写界面,工单需要输入的内容说明见下表1。 4. 填写完SQL审核工单后,单击提交按钮,即完成工单的提交,进入SQL规范检查。 5. SQL审核工单检查通过之后,会自动进入审批流程。管理员将再次确认SQL,审批完成则工单流程结束。 表1 SQL审核工单输入内容说明 输入内容 说明 : 目标实例 必填项,选择执行SQL语句的目标实例,目前支持MySQL,PostgreSQL,DRDS,Oracle数据源。 目标数据库 选填项,选择执行SQL语句的目标数据库。如果未选中目标数据库,则会只检查“离线规则”,“在线规则”和“离线规则”详见 SQL规范。 关联人 选填项,选择需要看到此工单的用户名,关联人可在工单列表页面查看到此工单。 审核内容 必填项,上传或编辑审核内容。 注意 支持单个SQL文件、MyBatis框架XML文件或多文件打包成ZIP。单SQL/XML文件最大2M。ZIP不可超过20M,路径深度最大5层,最多包含200个文件。 如果上传文件为单文件,上传的文件内容将自动解析至输入框中,覆盖输入框内原有内容;如果上传文件为ZIP,上传的文件目录、文件名将自动展示到页面。 工单说明 描述工单备注内容。 说明 检查结果中如果有强制改进项,用户需要改进该项命中的SQL并重新检查通过之后,才能进入审批流程。 如果有建议改进项,不会阻断任务流程,但会出现改进建议。 强制改进和建议改进的定义,详见
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL治理
        应用SQL审核
      • 运维任务
        此小节介绍云堡垒机的运维任务。 支持分步骤同时对多个SSH协议资源批量执行多种运维操作,可同时运维操作包括执行命令、执行脚本、传输文件。 新建运维任务 云堡垒机支持自动运维任务功能,用户可按步骤自动执行命令和脚本方式运维多个目标资源,并可设置自动执行步骤将系统磁盘文件或本地文件快速上传到多个目标主机路径。此外,可设置执行周期和时间定期执行任务,并可同时执行多种任务步骤类型,实现多台资源设备自动化运维,提高运维效率。 运维任务执行后,按照步骤顺序依次自动执行操作,并返回执行结果。 约束限制 仅专业版云堡垒机支持快速运维功能。 仅支持对Linux主机(SSH协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 运维任务仅能由个人帐户管理,不能被系统内其他用户管理。 前提条件 已获取“运维任务”模块管理权限。 已获取资源访问控制权限,即已配置访问控制策略或访问授权工单已审批通过。 资源主机网络连接正常。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 运维任务 > 任务列表”,进入运维任务列表页面。 3 单击“新建”,弹出新建运维任务窗口。 4 配置任务基本信息。 运维任务基本信息参数说明 参数 说明 :: 任务名称 自定义的运维任务名称,系统内“任务名称”不能重复。 执行方式 选择运维任务执行的方式,包括“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 手动执行:手动触发执行任务。 定时执行:定期自动触发执行任务。仅执行一次。 周期执行:周期自动触发执行任务。可按周期执行多次。 执行时间 定期执行任务的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入任务执行周期。 可选择每分钟、每小时、每天、每周、每月。 需同时选择“结束时间”,否则将无限期按周期执行任务。 更多选项 (可选)用户对资源账户执行任务权限不够时,需勾选上“提权执行”,用户需在该主机资源的Sudoers文件下执行任务。 任务描述 简要描述运维任务信息。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建的SSH协议类型资源账户或帐户组。 配置执行资源账户 6 单击“下一步”,配置任务步骤。 单击“添加任务步骤”,选择添加任务类型“执行命令”、“执行脚本”或“传输文件”。 选择一个或多个任务类型,并配置任务参数。 运维任务步骤数不限制,一个任务可添加多个执行步骤。 7 单击“确定”,返回任务列表页面,查看新建的运维任务。 任务执行完成后,可以下载执行日志,获取任务执行结果。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        运维任务
      • (停止维护)CCE发布Kubernetes 1.19版本说明
        社区1.18 ReleaseNotes kubeapiserver apps/v1beta1 and apps/v1beta2下所有资源不再提供服务,使用apps/v1替代。 extensions/v1beta1下daemonsets,deployments,replicasets不再提供服务,使用apps/v1替代。 extensions/v1beta1下networkpolicies不再提供服务,使用networking.k8s.io/v1替代。 extensions/v1beta1下podsecuritypolicies不再提供服务,使用policy/v1beta1替代。 kubelet redirectcontainerstreaming不推荐使用,v1.20会正式废弃。 资源度量端点/metrics/resource/v1alpha1以及此端点下的所有度量标准均已弃用。请转换为端点 /metrics/resource下的度量标准: scrapeerror > scrapeerror nodecpuusagesecondstotal > nodecpuusageseconds nodememoryworkingsetbytes > nodememoryworkingsetbytes containercpuusagesecondstotal > containercpuusageseconds containermemoryworkingsetbytes > containermemoryworkingsetbytes scrapeerror > scrapeerror 在将来的发行版中,kubelet将不再根据CSI规范创建CSI NodePublishVolume目标目录。可能需要相应地更新CSI驱动程序,以正确创建和处理目标路径。 kubeproxy healthzport和metricsport参数不建议使用,请使用healthzbindaddress和metricsbindaddress。 增加EndpointSliceProxying功能选项以控制kubeproxy中EndpointSlices的使用,默认情况下已禁用此功能。 kubeadm kubeadm upgrade node的kubeletversion参数已弃用,将在后续版本中删除。 kubeadm alpha certs renew命令中useapi参数已弃用。 kubedns已弃用,在将来的版本中将不再受支持。 kubeadmconfig ConfigMap中存在的ClusterStatus结构体已废弃,将在后续版本中删除。 kubectl dryrun不建议使用boolean和unset values,新版本中serverclientnone会被使用。 kubectl apply serverdryrun已弃用,替换为dryrunserver。 addons 删除clustermonitoring插件。 kubescheduler schedulingdurationseconds指标已弃用。 schedulingalgorithmpredicateevaluationseconds和schedulingalgorithmpriorityevaluationseconds指标已弃用,使用frameworkextensionpointdurationseconds[extensionpoint"Filter"]和frameworkextensionpointdurationseconds[extensionpoint"Score"]替代。 调度器策略AlwaysCheckAllPredicates已弃用。 其他变化 k8s.io/nodeapi组件不再更新。作为替代,可以使用位于k8s.io/api中的RuntimeClass类型和位于k8s.io/clientgo中的generated clients。 已从apiserverrequesttotal中删除“client”标签。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.19版本说明
      • 安全运营中心
        SOC和SIEM 如果没有SIEM,SOC将很难完成其任务。新式SIEM提供: 日志聚合:SIEM会收集日志数据并关联警报,分析人员可使用这些信息来检测和搜寻威胁。 上下文:SIEM跨组织中的所有技术收集数据,所以它帮助将单个事件之间的点连接起来,识别复杂的攻击。 减少警报数:SIEM使用分析和AI来关联警报并识别最严重的事件,从而减少用户需要审查和分析的事件数。 自动响应:内置规则使SIEM能够识别和阻止可能的威胁,无需人员交互。 说明 另请务必注意,单靠SIEM不足以保护组织。用户需要将SIEM与其他系统集成,为基于规则的检测定义参数,并评估警报。正因为如此,定义SOC策略和聘用适当的员工至关重要。 SOC解决方案 有多种解决方案可用来帮助SOC保护组织。最佳解决方案协同工作,跨本地和多个云提供完整覆盖范围。云安全提供全面的解决方案,来帮助SOC消除覆盖范围方面的差距,并获得其环境的360度视图。态势感知(专业版)检测和响应解决方案集成,为分析师和威胁搜寻者提供查找和遏止网络攻击所需的数据。 常见问题 1. 安全运营中心团队要做什么? SOC团队监视服务器、设备、数据库、网络应用程序、网站和其他系统,以实时发现潜在威胁。及时了解最新威胁并在攻击者利用系统或进程漏洞之前发现和解决这些漏洞,以执行主动安全工作。如果企业/组织已然遭受到攻击,SOC 团队负责根据需要去除威胁以及还原系统和备份。 2. 安全运营中心的关键组件是什么? SOC由有助于保护组织免受网络攻击的人员、工具和流程组成。为了实现其目标,它执行以下功能:清点所有资产和技术、日常维护和准备、持续监视、威胁检测、威胁情报、日志管理、事件响应、恢复和修正、根本原因调查、安全优化和合规性管理。 3. 为什么企业/组织需要强大的SOC? 强大的SOC通过统一防御、威胁检测工具和安全流程来帮助企业/组织更高效和有效地管理安全性。与没有SOC的公司相比,具有SOC的企业/组织能够改进其安全流程、更快地应对威胁以及更好地管理合规性。 4. SIEM和SOC有什么区别? SOC是负责保护企业/组织免受网络攻击的人员、流程和工具。SIEM是SOC用于保持可见性和响应攻击的众多工具之一。SIEM汇总日志文件,并使用分析和自动化向决定响应方式的SOC成员揭示可信威胁。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全运营中心
      • 创建只读实例
        本章节会介绍如何创建只读实例 操作场景 只读实例用于增强主实例的读能力,减轻主实例负载。 关系型数据库实例创建成功后,可根据业务需要创建只读实例。 说明 一个主实例中,最多可以增加5个只读实例。 目前,云数据库Microsoft SQL Server仅2017企业版及以上版本的实例支持新增只读实例。 操作步骤 步骤1:登录管理控制台。 步骤2:单击管理控制台左上角的,选择区域和项目。 步骤3:选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 步骤4:在“实例管理”页面,选择指定的实例,单击“创建只读”,进入“服务选型”页面。 您也可在实例的“基本信息”页面,单击实例拓扑图中,主实例下方的添加按钮,创建只读实例。 步骤5:在“服务选型”页面,填选实例相关信息后,单击“立即创建”。 基本信息 参数 描述 当前区域 只读实例默认与主实例在同一区域。 实例名称 实例名称长度最小为4字符,最大为64个字符,如果名称包含中文,则不超过64字节(注意:一个中文字符占用3个字节),必须以字母或中文开头,区分大小写,可以包含字母、数字、中划线、下划线或中文,不能包含其他特殊字符。 数据库引擎 默认与主实例的数据库引擎一致,不可更改。 数据库版本 默认与主实例的数据库版本一致,不可更改。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 可用区 关系型数据库服务支持在同一个可用区内,或者跨可用区部署数据库主实例和只读实例,以提高可靠性。 规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。只读实例的存储空间大小默认与主实例一致。 网络 参数 描述 虚拟私有云 和主实例相同。 子网 和主实例相同,创建只读实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址暂不可修改。 安全组 和主实例相同。 步骤6:在“规格确认”页面,进行信息确认。 如果需要重新选择,单击“上一步”,回到服务选型页面修改基本信息。 信息确认无误后,单击“提交”,下发新增只读实例请求。 步骤7:只读实例创建成功后,用户可以在“实例管理”页面,选择只读实例所对应的实例,单击对其进行查看和管理。 您也可以在基本信息页面的“实例拓扑图”中,单击只读实例的名称,进入该只读实例的“基本信息”页面,对其进行查看和管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        只读实例
        创建只读实例
      • HTTP3.0(QUIC)协议
        本文介绍HTTP3.0的工作原理和使用说明。 功能介绍 QUIC全称:Quick UDP Internet Connections,是一种实验性传输层网络协议,提供与TLS/SSL相当的安全性,同时具有更低的连接和传输延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 1. 传输层使用UDP,减少1个RTT三次握手的延迟。 2. 加密协议采用TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流的数据传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现瞬间卡顿。这是因为,TCP采用四元组(包括源站IP、源站端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态地增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTP3.0(QUIC)协议
      • QUIC在短视频场景下的最佳实践
        本文简述QUIC协议在短视频场景下的最佳实践。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC协议的优势 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用:QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移:什么是连接迁移?举个例子,当您用手机使用蜂窝网络参加远程会议,当您把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源地址、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制:QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC):QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率。 (0,60) 节点 60秒 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率。 (0,60) 节点 60秒 rds003bytesin 数据写入量 该指标用于统计测量对象对应VM的网络发送字节数,取时间段的平均值 暂无 节点 60秒 rds004bytesout 数据传出量 该指标用于统计测量对象对应VM的网络接受字节数,取时间段的平均值 暂无 节点 60秒 rds014iops 数据磁盘每秒读写次数 该指标用于统计测量对象的节点数据磁盘每秒读写次数,该值为实时值。 暂无 节点 60秒 rds016diskwritethroughput 数据磁盘写吞吐量 该指标用于统计测量对象的节点数据磁盘每秒写吞吐量,该值为实时值。 暂无 节点 60秒 rds017diskreadthroughput 数据磁盘读吞吐量 该指标用于统计测量对象的节点数据磁盘每秒读吞吐量,该值为实时值。 暂无 节点 60秒 rds020avgdiskmsperwrite 数据磁盘单次写入花费的时间 该指标用于统计测量对象的节点数据磁盘单次写入花费的时间,取时间段的平均值。 暂无 节点 60秒 rds021avgdiskmsperread 数据磁盘单次读取花费的时间 该指标用于统计测量对象的节点数据磁盘单次读取花费的时间,取时间段的平均值。 暂无 节点 60秒 iobandwidthusage 磁盘io 带宽占用率 当前磁盘io带宽与磁盘最大带宽比值 NA 节点 60秒 iopsusage IOPS 使用率 当前iops与磁盘最大iops比值 NA 节点 60秒 rds005instancediskusedsize 实例数据磁盘已使用大小 该指标用于统计测量对象的实例数据磁盘已使用大小,该值为实时值。 暂无 实例 60秒 rds006instancedisktotalsize 实例数据磁盘总大小 该指标用于统计测量对象的实例数据磁盘总大小,该值为实时值。 暂无 实例 60秒 rds007instancediskusage 实例数据磁盘已使用百分比 该指标用于统计测量对象的实例数据磁盘使用率,该值为实时值。 (0, 60%) 实例 60秒 rds035bufferhitratio buffer 命中率 该指标用于统计数据库buffer命中率。 (95,100) 实例 60秒 rds036deadlocks 死锁次数 该指标用于统计数据库发生事务死锁的次数,取该时间段的增量值。 (0,1) 实例 60秒 rds048P80 80% SQL的响应时间 该指标用于统计数据库80% SQL的响应时间,该值为实时值。 (0,150000) 实例 60秒 rds049P95 95% SQL的响应时间 该指标用于统计数据库95% SQL的响应时间,该值为实时值。 (0,200000) 实例 60秒 rds008diskusedsize 磁盘已使用大小 该指标用于统计测量对象的节点数据磁盘使用值,该值为实时值。 NA 组件 60秒 rds009disktotalsize 磁盘总大小 该指标用于统计测量对象的节点数据磁盘总大小,该值为实时值。 NA 组件 60秒 rds010diskusage 磁盘已使用百分比 该指标用于统计测量对象的节点数据磁盘使用率,该值为实时值。 80 组件 60秒 rds024currentsleeptime 主机流控时间 该指标用于统计测量对象的主机流控时间,该值为实时值。 1 组件 60秒 rds025currentrto 备机RTO时间 该指标用于统计测量对象的主备复制的RTO,该值为实时值。 60 组件 60秒 rds026logincounter 用户登入次数/秒 该指标用于统计CN节点上每秒的登入次数,取时间段的平均值。 1000 组件 60秒 rds027logoutcounter 用户登出次数/秒 该指标用于统计CN节点上每秒的登出次数,取时间段的平均值。 1000 组件 60秒 rds028standbydelay 备机redo进度 该指标用于统计分片内备机redo进度,表示备机和主机的差距,该值为实时值。 200MB 组件 60秒 rds030waitratio 锁等待状态会话比率 该指标用于统计当前处于锁等待状态会话占活跃工作状态下会话比率,该值为实时值。 50 组件 60秒 rds031activeratio 活跃会话率 该指标用于统计当前处于活跃工作状态会话占总会话数比率,该值为实时值。 20 组件 60秒 rds034inusecounter CN连接数 该指标用于统计CN连接池中正在使用的连接数,该值为实时值。 80 组件 60秒 rds037commitcounter 用户提交事务数/秒 该指标用于统计用户每秒提交的事务数,取时间段的平均值。 50000 组件 60秒 rds038rollbackcounter 用户回滚事务数/秒 该指标用于统计用户每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds039bgcommitcounter 后台提交事务数/秒 该指标用于统计后台每秒提交的事务数,取时间段的平均值。 5000 组件 60秒 rds040bgrollbackcounter 后台回滚事务数/秒 该指标用于统计后台每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds041respavg 用户事务平均响应时间 该指标用于统计用户事务的平均响应时间。 10ms 组件 60秒 rds042rollbackratio 用户事务回滚率 该指标用于统计用户事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds043bgrollbackratio 后台事务回滚率 该指标用于统计后台事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds044ddlcount data definition language 该指标用于统计用户负载在query层的DDL数量,取时间段的平均值。 10 组件 60秒 rds045dmlcount data manipulation language/min 该指标用于统计用户负载在query层的DML数量,取时间段的平均值。 50000 组件 60秒 rds046dclcount data Control Language/min 该指标用于统计用户负载在query层的DCL数量,取时间段的平均值。 10 组件 60秒 rds047ddldclratio DDL+DCL比率 该指标用于统计用户负载在query层的DDL+DCL占DDL+DCL+DML的比率,取时间段的平均值。 5 组件 60秒 rds050ckptdelay 待落盘的数据量 该指标用于统计信息同步到磁盘过程中待落盘的数据量,该值为实时值。 200MB/s 组件 60秒 rds051phyrds 读物理文件的IO次数/秒 该指标用于统计数据库每秒读物理物件的IO次数,取时间段的平均值。 20000 组件 60秒 rds052phywrts 写物理文件的IO次数/秒 该指标用于统计数据库每秒写物理物件的IO次数,取时间段的平均值。 10000 组件 60秒 rds053onlinesession 在线会话数量 该指标用于统计当前在线的session个数,该值为实时值。 NA 组件 60秒 rds054activesession 活跃会话数量 该指标用于统计当前所有活跃工作状态下会话个数,该值为实时值。 NA 组件 60秒 rds055onlineratio 在线会话率 该指标用于统计CN(分布式)/主DN(主备版)上的在线会话比例,该值为实时值 NA 组件 60秒 rds060longrunningtransactionexectime 数据库最长事务的执行时长 该指标用于统计测量对象的数据库最长事务的执行时长, 该值为实时值。 NA 组件 60秒 rds066replicationslotwallogsize 复制槽保留的WAL日志大小 该指标用于统计主DN上复制槽中保留的WAL日志的大小, 该值为实时值。 NA 组件 60秒 rds067xloglsn xlog速率 该指标用于统计CN或者DN上xlog的速率, 该值为实时值。 NA 组件 60秒 rds068swapusedratio 交换内存使用率 该指标用于描述操作系统交换内存使用率,该值为实时值。 NA 节点 60秒 rds069swaptotalsize 交换内存总大小 该指标用于描述操作系统交换内存总大小,该值为实时值。 NA 节点 60秒
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        监控与告警
        监控指标
      • 云日志服务C SDK
        本文主要介绍云日志服务C SDK接入指南。 1. 前言 安装使用C SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能,目前支持日志同步上传。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装C 运行环境。 2.2. 下载及安装 下载ctyunltscsdk.zip压缩包,放到相应位置后并解压。“ctyunltscsdk”目录中sampleputlogs.c为SDK的使用示例代码。 2.2.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel(7.6.1) openssldevel (1.1.1k) protobufc(1.3.06.el8) lz4(v1.8.3) jsonc(0.13.12.el8) 对于 CentOS 安装,可用如下命令搭建依赖环境。 plaintext yum install gccc++ yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufcdevel.x8664 yum install jsoncdevel.x8664 2.2.2. 编译使用 1、进入ctyunltscsdk目录下,里面有CMakelists.txt文件。 2、执行build.sh,其包含以下命令。 plaintext !bin/bash generate .pbc.c .pbc.h from .proto protocc protopath./protoc cout./ common.proto resource.proto logs.proto echo "generate 6 file (commonresourcelogs).(pbc.cpbc.h)" mkdir build cd build cmake install location is .. cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pbc.c、.pbc.h,以及动态链接构建出库文件libltssdk.a,存放在lib目录下。 3、将ctyunltscsdk目录下的头文件,全部移动到您项目的对应目录下,(如果直接使用SDK 则可以不用移动)。 4、之后你就可以在你的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件, 如sampleputlogs.c。 plaintext gcc sampleputlogs.c o sampleputlogs I./ L./lib/ lltssdk lssl llz4 lcurl lprotobufc lcrypto ljsonc 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行你的可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 什么是QUIC协议
        本文简述什么是QUIC协议。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 优势1:握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 优势2:避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 优势3:支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 优势4:可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 优势5:前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        QUIC协议
        什么是QUIC协议
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • QUIC协议
        本文介绍QUIC协议的工作原理、应用场景、支持的QUIC类型、注意事项及配置说明等。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        QUIC协议
      • 操作类
        扩大带宽是否会对DRS正在进行中的任务产生影响 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。 为什么MariaDB和 SysDB下的数据不迁移 由于某些MariaDB的版本把SysDB库作为其系统库(类似于MySQL官方版5.7的sys库),所以DRS默认也将SysDB作为所有MariaDB的系统库来处理(等同于MySQL、informationschema、performanceschema等库)。如果SysDB确实是业务库,您可以通过工单申请处理。 多对一的场景约束及操作建议 因业务需要,不同实例、不同表的数据需要进行合并时,数据复制服务提供的数据迁移支持多对一的场景。 操作建议 为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。 每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • 约束与限制
        本章节主要介绍翼MapReduce的约束与限制。 使用MRS前,您需要认真阅读并了解以下使用限制。 MRS集群必须创建在VPC子网内。 建议使用支持的浏览器登录MRS。 Google Chrome:36.0及更高版本。 Internet Explorer:9.0及更高版本。 当使用Internet Explorer 9.0时可能无法登录MRS管理控制台,原因是某些Windows系统例如Win7旗舰版,默认禁止Administrator用户,Internet Explorer在安装时自动选择其他用户如System用户安装,从而导致Internet Explorer无法打开登录页面。请使用管理员身份重新安装Internet Explorer 9.0或更高版本(建议),或尝试使用管理员身份运行Internet Explorer 9.0。 创建MRS集群时,支持自动创建安全组,也可从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组。否则可以能导致集群异常,影响MRS集群的使用。 MRS集群使用的安全组请勿随意放开权限,避免被恶意访问。 请勿随意执行如下操作,避免集群进入异常状态,影响MRS集群的使用。 −在ECS中对MRS集群的节点进行关机、重启、删除、变更OS、重装OS和修改规格等操作。 −删除集群节点上已有的进程、安装的应用程序和文件。 集群处于非人为异常状态时,可以联系技术支持人员,技术支持人员征得您同意后会请您提供相关信息,登录MRS集群进行问题排查。 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间。以防止存储空间不足影响节点正常运行。 集群节点仅用于存储用户业务数据,非业务数据建议保存在对象存储服务或其他弹性云服务器中。 集群节点仅用于运行MRS集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。 MRS集群的节点(包含Master,Core和Task节点)扩充存储容量时,不建议通过扩容原有磁盘的方式实现。建议通过创建磁盘再挂载的方式实现。 MRS集群扩容(包含存储能力和计算能力)时,可以通过增加Core节点或者Task节点的方式实现。 当关闭集群中的某一个Master节点后仍然使用集群执行任务或修改配置,且任务执行或配置修改后未启动被关闭的Master节点就关闭集群中其他Master节点时,存在由于主备倒换导致的数据丢失风险。在该场景下,请在任务执行或配置修改后先启动被关闭的Master节点,再关闭全部节点。若集群中节点已经被全部关闭,请按照节点关机顺序的倒序启动集群节点。 当使用MRS集群过程中进行Capacity和Superior调度器切换时只完成调度器的切换,不保证配置同步。如果您需要配置同步,请基于新的调度器重新配置。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        约束与限制
      • 漏洞扫描
        本文将介绍如何使用边缘安全加速平台安全与加速服务的漏洞扫描功能。 功能介绍 通过天翼云监测系统平台,在无需用户采购任何Web应用扫描产品前提下,即可获得网站的漏洞态势,以及每个漏洞的详情介绍和修补建议,方便及时作出处置。 支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 开通套餐为免费版及以上版本。 说明 默认脱敏显示您的联系方式等敏感信息,点击明文显示时,请您注意保护数据安全! 新增漏洞扫描任务 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【网站风险监测】菜单,并在左侧域名列表选择您要扫描的域名。 3. 支持两种配置扫描任务方式。 4. 如果您需要快速复制其他域名的扫描任务,可单击【域名资产概况】中的【快速配置监测任务】。 5. 如果您需要新增扫描任务,单击【新增】按钮。 配置项说明: 配置项 说明 任务名称 用户可自定义任务名称,支持中文、英文、数字、下划线,最长30个字符。 任务开关 用户开启或者关闭任务。 监测任务等级 扫描漏洞范围: 高危:监测站点是否有命令执行,SQL注入,XML注入,目录遍历与目录穿越,跨站脚本漏洞,反序列化漏洞等。 中危:监测站点是否有敏感数据泄漏,用户凭证明文传输,错误的安全配置等。 低危:监测站点有无TLS传输防护,cookie未受httponly保护等。 监测URL 扫描任务开始扫描的url,从该url开始访问,逐层扫描。 比如:起始url: 则: 一级链接表示: 等; 二级链接表示: 等; 三级链接表示: 等。 监测排除URL 设置不需要扫描的URL,如 http(s)://www.ctyun.cn/xxx 不进行漏洞检测。 定义HTTP头部 如果扫描域名需要登录,需要设置可获取登录凭证Header以自定义设置登录凭据。 接口扫描 如果包含API接口需要上传扫描对应的api接口文件。 监测计划 立即检测:任务创建完立即进行漏洞检测,不再重复执行检测 ; 单次:任务创建完在指定时间进行漏洞检测,检测完成即任务结束,不再重复执行检测 每天:任务创建完任务在每天指定时间进行检测 每周:任务创建完任务在指定周几的指定时间进行检测 每月:任务创建完任务在指定日期的指定时间进行检测 通知方式 支持邮件和短信通知。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        网站风险监测
        漏洞扫描
      • 安装与配置
        配置SSH登录IP白名单 SSH登录IP白名单功能是防护帐户爆破的一个重要方式,主要是限制需要通过SSH登录的服务器。 单一账号最多可添加10个SSH登录IP白名单。配置了白名单的服务器,只允许白名单内的IP通过SSH登录到服务器,拒绝白名单以外的IP。 启用该功能时请确保将所有需要发起SSH登录的IP地址都加入白名单中,否则您将无法SSH远程登录您的服务器。若您的业务需要访问主机,但不需要SSH登录,则可以不用添加到白名单。 IP加入白名单后,帐户破解防护功能将不再对来自白名单中的IP登录行为进行拦截,该IP对您加入白名单的服务器登录访问将不受任何限制,请谨慎操作。 1、选择“安装与配置 > 安全配置 > SSH登录IP白名单”,单击“添加白名单IP”。 2、在弹出的对话框中输入“白名单IP”,勾选需要生效的云服务器,可勾选多个服务器,确认无误单击“确认”,添加操作完成。 说明 “常用登录IP”必须填写公网IP或者IP段。如果设置的非公网IP地址,您将无法SSH远程登录您的服务器 单次只能添加一个IP,若需添加多个IP,需重复操作添加动作,直至全部IP添加完成。 3、返回“安装与配置 > 安全配置 > 常用登录IP”页面查看是否已新增,出现新增表示添加成功。 开启恶意程序隔离查杀 开启恶意程序隔离查杀后,HSS对识别出的后门、木马、蠕虫等恶意程序,提供自动隔离查杀功能,帮助您自动识别处理系统存在的安全风险。 1、选择“安装与配置 > 安全配置 > 恶意程序隔离查杀”,分别单击“恶意程序隔离查杀”和“恶意软件云查杀”的开关,开启“恶意程序隔离查杀”和“恶意软件云查杀”。 开启后将应用至企业主机安全全局服务器,但部分检测能力受主机安全配额版本的限制无法运行,若需正常使用,建议您开启企业版及以上版本更好的体验隔离查杀功能。 2、在弹出的对话框中单击“确认”,开启“恶意程序隔离查杀”和“恶意软件云查杀”。 自动隔离查杀有可能发生误报。您可以在企业主机安全控制台“入侵检测”页面中,选择“事件管理”页签,查看被隔离的恶意程序。在此您可以对指定的恶意程序执行取消隔离、忽略等操作。 程序被隔离查杀时,该程序的进程将被立即终止,为避免影响业务,请及时确认检测结果,若隔离查杀有误报,您可以执行取消隔离/忽略操作。 在“恶意程序隔离查杀”界面,如果不开启“恶意程序隔离查杀”功能,当HSS检测到恶意程序时,将会触发告警。 您可以在“入侵检测”的“安全告警事件”中,查看“恶意程序”中的告警信息,并对恶意程序进行隔离查杀。
        来自:
        帮助文档
        企业主机安全
        快速入门
        开启HSS防护
        安装与配置
      • 短视频场景下的QUIC实践
        本文介绍QUIC协议在短视频加速的应用实践。 背景信息 QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。Google推出的QUIC被称为GQUIC,IETF制定的QUIC称为IQUIC。 QUIC的主要优势如下: 1. 握手建连更快。 2. 避免队首阻塞的多路复用。 3. 支持连接迁移。 4. 可插拔的拥塞控制。 5. 前向纠错(FEC)。 协议详细介绍,详情请见:HTTP3.0(QUIC)协议。 适用场景 1. 图片业务:可降低图片加载时间。 2. 短视频业务:可提升视频秒开率,并且降低弱网环境卡顿率。 3. 直播业务:可提升播放稳定性,降低因网络波动带来的卡顿率。 如何验证CDN已开启QUIC功能 QUIC协议暂不支持客户自助开启,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 QUIC属于双边协议,需要客户端同步支持。如您已开通QUIC功能,可以使用Chrome浏览器或者基于Chrome内核的浏览器来访问对应网站域名,并在浏览器开启开发者工具进行抓包验证。目前较新版本的Chrome浏览器已默认开启QUIC。 一般情况下,Chrome浏览器和服务器端协商使用QUIC协议要经过如下步骤: 1. 首次访问,客户端会先发起正常的TCP请求。 2. 服务端如果支持QUIC,会通过响应头部返回altsvc信息告知客户端自己支持QUIC及对应版本(如下图),其含义是服务器在443端口开启QUIC,最大缓存时间是2592000秒(30天),支持的QUIC版本IQUIC。 3. 下次访问,客户端会同时发起TCP连接和QUIC连接进行竞速。 4. 一旦QUIC竞速连接获胜,则后续会采用QUIC协议发送请求,如果在浏览器进行抓包(快捷键F12打开开发者工具),可在Protocol列查看其具体的协议,如下图所示,这里显示的h3即表示采用的是IQUIC。 注意 如果没有Protocol列,右键点击Header Options,勾选Protocol列即可。 5. 如遇网络或服务器不支持QUIC,客户端标记QUIC为broken。 6. 传输中的QUIC请求立即用TCP进行重发。 7. 5min后尝试重试QUIC,下一次尝试增大到10min。 8. 一旦再次成功采用QUIC,会把broken标记取消。
        来自:
        帮助文档
        CDN加速
        最佳实践
        短视频场景下的QUIC实践
      • Windows 客户端–单机版
        本节主要介绍Windlow客户端挂载HBlock单机版的卷。 1. 准备客户端操作系统 推荐使用win10、windows server 2012R2、windows server 2016R2等高版本的Windows操作系统,这些系统中自带了“iSCSI发起程序”,无需单独安装组件。 不同版本的客户端支持单卷容量不同,请参考下表: Windows版本 Block Size 单卷最大容量 Windows Server 2008R2 512 bytes / 4KiB 256 TiB Windows Server 2012R2 512 bytes / 4KiB 256 TiB Windows Server 2016 512 bytes / 4KiB 256 TiB Windows 10 512 bytes / 4KiB 1 PiB 2. 运行iSCSI发起程序 Windows客户端运行iSCSI发起程序,在“开始”>“搜寻程序和文件”输入“iSCSI”打开iSCSI发起程序,如下图所示: 1. 配置iSCSI发起程序 在“发现”>“发现门户”中输入服务器IP和端口,如下图所示: 在“目标”>“已发现目标”中搜索到HBlock发布的iSCSI target,查看到状态是“不活动”,点击“连接”,如下图所示: 2. 启用CHAP认证 若您的iSCSI target有开启CHAP认证,在弹出的连接到目标的对话框中,选择“高级”,如下图所示(没有开启请忽略此步骤直接连接即可): 勾选“启用CHAP登录”,在“名称”中输入在HBlock系统中设置的iSCSI认证的用户名,在“目标机密”中输入设置的iSCSI认证的密码,然后点“确定”。如下图所示: 3. 客户端使用iSCSI共享磁盘 打开“服务器管理器”>“存储”>“磁盘管理”,将刚刚连接成功的状态是“脱机”的磁盘“联机”。 然后“初始化”,再“新建卷”,指定盘符并格式化,如下图所示。 注意 如果卷容量小于等于2TiB时,可以使用MBR和GPT中的任意一种进行分区;如果卷容量大于2TiB,只能使用GPT分区。 打开“计算机”,可以看到新增的磁盘的盘符和容量,此时可以按使用本地磁盘的习惯使用HBlock发布的iSCSI磁盘了。如下图所示: 注意 如果客户端需要断开连接或者删除磁盘,需要先打开“服务器管理器”>“存储”>“磁盘管理”,点击磁盘右键进行“脱机”,然后在“iSCSI发起程序”中“断开iSCSI连接”。 如果客户端需要断开连接后再次接入,无需进行初始化、新建卷操作,重新连接后即可看到磁盘。 如果想查询HBlock卷对应的磁盘,可以在客户端输入下列命令行查询。 plaintext wmic diskdrive get Name, Manufacturer, Model, InterfaceType, MediaType, SerialNumber 如下例所示,查询信息Name列对应的盘符号,对应“磁盘”上的“数目”列。SerialName对应HBlock的卷名称和uuid。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        客户端操作
        Windows 客户端–单机版
      • 网站登录设置
        本节介绍网站登录设置方法。 操作场景 该任务指导用户通过漏洞扫描服务进行网站登录设置,修改网站信息。 如果您的网站页面需要登录才能访问,必须进行网站登录设置,以便VSS能为您发现更多安全问题。VSS提供了两种登录方式,请您根据您的网站访问限制条件选择登录方式: 方式一:账号密码登录。 如果您的网站仅需要账号密码就可以登录访问,设置方式一即可。 方式二:cookie登录。 如果您的网站除了需要账号密码登录,还有其他的访问限制,如需要输入“动态验证码”,必须选择方式二,设置cookie登录。 注意 若没有cookie,请在“高级配置”中,通过添加自定义Header的方式进行登录扫描。 若没有cookie,也没有自定义Header,则VSS不支持扫描该网站。 以上登录方式根据网站访问情况可二选一。 前提条件 已获取管理控制台的登录帐号与密码。 已添加域名。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描服(专业版)”,进入漏洞扫描服务页面。 3. 在“资产列表 > 网站”页签,单击对应的网站信息“操作”列的“编辑”。 4. 进入网站登录设置入口,如下图所示。 5. 在域名编辑页面,根据需要修改“网站信息”和“网站登录设置”,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 网站信息修改 域名/IP地址 未认证的域名可修改。 说明 VSS不支持修改已认证域名的“域名/IP地址”,如需修改,请删除域名后,重新创建新的域名。 域名别称 自定义的域名名称,可修改。 网站登录设置 如果您的网站页面需要登录才能访问,请您进行登录设置,以便VSS能为您发现更多安全问题。 如果您的网站仅需要账号密码就可以登录访问,设置方式一即可。 如果您的网站除了需要账号密码登录,还有其他的访问限制,如需要输入动态验证码,必须设置方式二。 “登录方式一:账号密码登录” 登录页面 网站登录页面的地址。 用户名 登录网站的用户名。 密码 用户名的密码。 确认密码 再次输入用户名的密码。 “登录方式二:cookie登录” cookie值 输入登录网站的cookie值。 说明 若使用cookie登录时,没有获取到cookie值,您可以在“高级配置”中通过添加自定义Header的方式进行登录。 添加自定义Header时,请获取会话相关的HTTP请求头。常见的如:带有Token或Session字样的HTTP请求头。 验证登录网址 登录成功后才能访问的网址,便于VSS快速判断您的登录信息是否有效。 “高级配置” 自定义Header 配置HTTP请求头部。最多可添加5个自定义HTTP请求头。 当待扫描的网站需要请求中附带特殊的HTTP请求头时,可以通过自定义Header进行设置。 6. 单击“确认”。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        网站漏洞扫描
        网站登录设置
      • 资源管理
        本节介绍态势感知提供资源管理功能。 态势感知提供资源管理功能。在“资源管理”页面,您可以查看当前帐号中所有资源的安全状态统计信息,包括资源的名称、所属服务、安全状况等,帮助您快速定位安全风险问题并提供解决方案。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“资源管理”,进入资源管理页面。 4. 查看全部资源安全状态,相关说明如下表所示。 参数名称 参数说明 名称 呈现资源的名称。 服务 呈现资源所属的服务。 资源类型 呈现资源所属的类型。例如:云服务器、磁盘、实例等。 安全状况 呈现资源的安全风险等级。 风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”和“无风险”。 呈现当前资源风险的最高等级。例如,ECS中有高危、低危和提示级别的风险,则此处取最高值,显示为高危。 单击排序图标,可按风险等级排序资源列表。 IP地址 呈现资源的IP地址。 防护状态 呈现资源是否开启安全防护。如果未开启防护,可单击“去开启”进行设置。 威胁 呈现资源近7天内存在的威胁告警总数。 单击告警数量可跳转“检测结果”页面,查看更多的威胁告警信息,并可自定义过滤条件查询告警信息。 漏洞 呈现资源近24小时内未修复的漏洞总数。 单击漏洞数量可跳转“检测结果”页面,查看更多的漏洞信息,并可自定义过滤条件查询漏洞信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 基线 呈现资源近30天内存在的基线风险总数。 单击基线检查异常数量可跳转“检测结果”页面,查看更多的基线异常信息,并可自定义过滤条件查询基线检查信息。 “资源管理”页面中显示的数据为最近/最新检测后的数据结果,“检测结果”页面显示的是所有检测时间的各类数据详情,因此,资源管理页面的数据总数≤检测结果页面的数据总数。 企业项目 呈现资源所属的企业项目。 标签 呈现资源已有的标签。 如果资源当天添加了标签,则在SA资源管理中第二天才会同步显示。 5. 根据资源信息,筛选查看相关资源安全状态。 单击“服务”、“区域”或“安全状况”后的选项,将呈现符合过滤条件的资源列表。 服务 :筛选资源所属的服务。选择服务后,还可以根据“资源类型”来查看选择指定资源类型的安全状态。 区域 :筛选资源所在的区域。 安全状况 :筛选资源的安全风险等级。 可选择风险等级包括“致命”、“高危”、“中危”、“低危”、“提示”或“无风险”。 6. 当资源列表较多时,可以通过搜索功能,快速精准查询指定资源。 在搜索框中输入资源的“弹性公网IP”、“名称”或“私有IP”,单击,即可查看目标资源的安全状态。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        资源管理
      • 快速构建FTP站点(Windows)
        本文介绍了如何使用天翼云弹性云主机的Windows实例搭建FTP站点。该指导具体操作以Windows 2012 Standard R2 64位中文版为例。 Windows实例搭建FTP站点具体操作步骤 1. 添加IIS的角色和功能。 2. 创建FTP服务用户名及密码。 3. 设置共享文件权限。 4. 配置FTP站点。 5. 配置FTP防火墙。 6. 配置安全组规则及防火墙策略。 7. 客户端进行连接测试。 示例环境 实例类型:s3.large.2 2核 4G 通用型云主机 所在区域:山西 系统盘:40GB 操作系统:Windows 2012 Standard R2 64位中文版 公网弹性IP带宽:1Mbps 操作步骤 1. 添加IIS的角色和功能。 1. 登录弹性云主机。 2. 选择“开始 > 服务器管理器”。 3. 单击“添加角色和功能”。 4. 在弹出的“开始之前”对话框中,单击“下一步”。 5. 选择“基于角色或基于功能的安装”,单击“下一步”。 6. 选择需要部署FTP的服务器,单击“下一步”。 7. 选择“Web服务器(IIS)”,并在弹出的对话框中单击“添加功能”,然后单击“下一步”。 8. 连续单击“下一步”,到“角色服务”页面。 9. 选择“FTP服务器”以及“IIS管理控制台”,单击“下一步”。 10. 单击“安装”,开始部署服务角色。 11. 安装完成后,单击“关闭”。 1. 添加IIS的角色和功能 2. 添加IIS的角色和功能 3. 添加IIS的角色和功能 4. 添加IIS的角色和功能 2. 创建FTP服务用户名及密码。 1. 在“服务器管理器”中,选择“仪表板 > 工具 > 计算机管理”。 2. 选择“系统工具 > 本地用户和组 >用户”,在右侧空白处右击,并选择“新用户”。 3. 设置“用户名”和“密码”,此处用户名以“ftp”为例。 3. 设置共享文件权限。 需要在FTP站点为共享给用户的文件夹设置访问及修改等权限。 1. 在服务器上创建一个供FTP使用的文件夹,选择文件夹,并单击右键选择“属性”。此处以“share”文件夹为例。 2. 在“安全”页签,选择 “Everyone”,单击“编辑”。如果没有“Everyone”用户可以直接选择,需要先进行添加。 3. 选择“Everyone”,然后根据需要,选择“Everyone”的权限,并单击“确定”。此处以允许所有权限为例。 4. 配置FTP站点。 1. 在“服务器管理器”中,选择“仪表板 > 工具 >Internet Information Services (IIS)管理器 ”。 2. 选择“网站”并单击右键,然后选择“添加FTP站点”。 3. 在弹出的窗口中,填写FTP站点名称及共享文件夹的物理路径,然后单击“下一步”。此处站点名称以“ftp”为例。 4. 输入该弹性云主机的公网IP地址以及端口号,并设置SSL,单击“下一步”。 端口号默认为21,也可自行设置。 SSL根据需要进行设置。 无: 不需要SSL加密。 允许:允许FTP服务器与客户端的非SSL和SSL连接。 需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 5. 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous” 或 “ftp” 的用户访问内容。 基本:需要用户提供有效用户名和密码才能访问内容。但是基本身份验证通过网络传输密码时不加密,因此建议在确认客户端和FTP服务器之间的网络连接安全时使用此身份验证方法。 授权 允许访问 所有用户:所有用户均可访问相应内容。 匿名用户:匿名用户可访问相应内容。 指定角色或用户组:仅指定的角色或用户组的成员才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的角色或用户组。 指定用户:仅指定的用户才能访问相应内容。如果选择此项,需要在下面输入框中输入指定的用户。 权限:选择经过授权的用户的“读取”和“写入”权限。 6. 绑定弹性云主机的公网IP。 选择“网站”,选中创建的FTP站点,单击“绑定”;在弹出的“网站绑定”窗口单击“添加”,然后在弹出的窗口中添加弹性云主机的私网IP地址,并单击“确定。 5. 配置FTP防火墙支持。 如果需要使用FTP服务器的被动模式,则需要配置FTP防火墙支持。 如果天翼云上的服务器需要通过公网IP地址访问天翼云上的实例搭建的FTP服务器时,需要配置FTP服务器的被动模式。 双击“FTP防火墙支持”,打开FTP防火墙支持的配置界面。 配置相关参数,数据通道端口范围:指定用于被动连接的端口范围。可指定的有效端口范围为102565535,请根据实际需求进行设置,此处配置50006000,防火墙的外部IP地址:输入该弹性云主机的公网IP地址,并单击“应用”。 重启云主机使防火墙配置生效。 6. 配置安全组规则及防火墙策略。 搭建好FTP站点后,需要在弹性云主机安全组的入方向添加一条放行FTP端口的规则,如果配置了“FTP防火墙支持”,需要在安全组中同时放行FTP站点使用的端口和FTP防火墙使用的数据通道端口。 服务器防火墙默认放行TCP的21端口用于FTP服务。如果选用其他端口,需要在防火墙中添加一条放行此端口的入站规则。 FTP模式 方向 协议 端口 源地址 主动模式 入方向 TCP 20端口和21端口 0.0.0.0/0 被动模式 入方向 TCP 21端口和1024~65535间的端口(根据上文配置,此处50006000) 0.0.0.0/0 7. 客户端进行连接测试。 打开客户端的计算机,在路径栏输入“ftp://FTP服务器IP 地址 :FTP 端口 ”(如果不填端口则默认访问21端口)。弹出输入用户名和密码的对话框表示配置成功,正确的输入用户名和密码后,即可对FTP文件进行相应权限的操作,share文件夹下创建工作事项.txt文件,在本地访问共享文件夹可以查看并下载。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        快速构建FTP站点(Windows)
      • 动态获取IPv6地址
        Linux操作系统(自动配置启用IPv6) ipv6setupxxx工具能为开启IPv6协议栈的Linux操作系统自动配置动态获取IPv6地址。其中,xxx表示工具系列:rhel或debian。 您也可以参考Linux操作系统(手动配置启用IPv6)手动配置启用IPv6。 注意: ipv6setupxxx工具运行时会自动重启网络服务,导致网络短暂不可用。 CentOS 6.x和Debian操作系统的云主机内部配置IPv6自动获取功能之后,将该云主机制作为私有镜像,使用该镜像在非IPv6网络环境中创建云主机时,由于等待获取IPv6地址超时,导致云主机启动较慢,您可以参考设置云主机获取IPv6地址超时时间设置获取IPv6地址超时时间为30s,然后再重新制作私有镜像。 步骤 1执行如下命令,查看当前云主机是否启用IPv6。 ip addr 如果没有开启IPv6协议栈,则只能看到IPv4地址,如下图所示,请参考步骤2先开启IPv6协议栈。 云主机未开启IPv6协议栈 如果已开启IPv6协议栈,则可以看到LLA地址(fe80开头)。 云主机已开启IPv6协议栈 如果已开启IPv6协议栈并且已获取到IPv6地址,则会看到如下地址: 云主机已开启IPv6协议栈并且已获取到IPv6地址 说明: Linux公共镜像均已开启IPv6协议栈(即情况二);Ubuntu 16公共镜像不仅已开启IPv6协议栈,而且可以获取到IPv6地址(即情况三),无需特殊配置。 步骤 2 开启Linux云主机IPv6协议栈。 1. 执行如下命令,确认内核是否支持IPv6协议栈。 sysctl a grep ipv6 − 如果有输出信息,表示内核支持IPv6协议栈。 − 如果没有任何输出,说明内核不支持IPv6协议栈,需要执行步骤2.2加载IPv6模块。 2. 执行以下命令,加载IPv6模块。 modprobe ipv6 3. 修改“/etc/sysctl.conf”配置文件,增加如下配置: net.ipv6.conf.all.disableipv60 4. 保存配置并退出,然后执行如下命令,加载配置。 sysctl p 步骤 3自动配置启用IPv6。 下载对应系统版本的工具ipv6setuprhel或ipv6setupdebian,并上传至待操作的云主机。 ipv6setupxxx工具会添加或者修改网卡设备的配置文件,添加IPv6动态获取的配置信息,然后重启网卡或者网络服务。ipv6setuprhel和ipv6setupdebian的工具下载地址如表 90所示。 表 工具下载地址 系列 发行版 下载地址 RHEL CentOS 6/7 EulerOS 2.2/2.3 Fedora 25 Debian Ubuntu 16/18 Debian 8/9 2. 执行以下命令,添加执行权限。 chmod +x ipv6setupxxx 3. 执行以下命令,指定一个网卡设备,配置动态获取IPv6地址。 ./ipv6setupxxx dev [dev] 示例: ./ipv6setupxxx dev eth0 说明: 如需对所有网卡配置动态获取IPv6地址,命令为./ipv6setupxxx,即不带参数。 如需查询工具的用法,请执行命令./ipv6setupxxx help。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        动态获取IPv6地址
      • 物理服务器可以使用漏洞扫描服务吗?
        本节介绍物理服务器是否可以使用漏洞扫描服务。 当您的物理服务器为Linux操作系统,且满足以下版本要求时,如果您的物理服务器可以远程登录,则可以通过添加跳板机的方式使用漏洞扫描服务。 EulerOS:支持的最低系统版本为EulerOS 2.2。 CentOS:支持的最低系统版本为CentOS 6.5。 RedHat:支持的最低系统版本为Red Hat Enterprise Linux 6.10。 Ubuntu:支持的最低系统版本为Ubuntu 16.04 server。 SUSE:支持的最低系统版本为SUSE Enterprise 11 SP4。 OpenSUSE:支持的最低系统版本为OpenSUSE 13.2。 Debian:支持的最低系统版本为Debian 8.2.0。 Kylin OS:支持的系统版本为Kylin OS V10 SP1。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 在“添加主机”页面,单击“添加主机”,参数说明如下表所示。 参数说明: 参数名称 参数说明 配置示例 主机名称 用户需要添加的主机名称。 vsstest IP地址 添加主机的公网IP地址。 192.168.2.3 是否使用跳板机 选择“是”。 是 跳板机 可在下拉框中选择已有跳板机,或者单击“新增跳板机”,添加跳板机。 5. 新增跳板机。 1. 单击“新增跳板机”。 2. 在弹出的对话框中,设置跳板机参数,如下图所示,相关参数说明如下表所示。 跳板机配置参数说明: 参数名称 参数说明 主机名称 添加的跳板机的主机名称。 公网IP 添加的跳板机的公网IP。 登录端口 添加的跳板机的登录端口。 选择登录方式 “密码登录”和“密钥登录”。 选择密码登录时,需要添加跳板机的用户名和密码。 选择密钥登录时,需要添加跳板机的用户名、私钥和私钥密码。 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 3. 单击“确认”。 6. 单击“下一步”,添加主机完成。 7. 在添加的主机所在行的“操作”列,单击“配置授权信息”。 8. 选择SSH授权方式进行主机授权。 说明 如果需要修改已有SSH授权,单击“编辑”,进行修改。 如果需要删除已有SSH授权,单击“删除”,进行删除。 选择已有SSH授权,或者单击“创建SSH授权”创建SSH授权,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 SSH授权别称 自定义SSH授权名称。 登录端口 SSH授权登录的端口号。 请确保安全组已添加该端口,以便主机可通过该端口访问VSS。 选择登录方式 “密码登录” “密钥登录” 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 Root权限是否加固 打开该权限后,不可以用root账号直接登录,而只能通过普通用户登录,然后才能切换到root用户。 sudo用户名 默认为root。 sudo密码 设置sudo用户对应的密码,为了您的账号安全,您的密码会加密保存。 9. 单击“确定”,完成主机授权。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        主机扫描类
        物理服务器可以使用漏洞扫描服务吗?
      • 添加数据库
        数据库安全审计支持对云上的RDS关系型数据库、ECS/BMS自建数据库进行审计。 购买数据库安全审计实例后,您需要将待审计的数据库添加至数据库安全审计实例中。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 添加数据库 1. 登录管理控制台。 2. 单击右上角的,选择区域。 3. 选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 4. 在左侧导航树中,选择“数据库安全审计 > 数据库列表”,进入数据库列表界面。 5. 在“选择实例”下拉列表框中,选择需要添加数据库的实例。 6. 在数据库列表框左上方,单击“添加数据库”。 7. 在弹出的对话框中,设置数据库的信息,如图所示,相关数据库参数说明所示,添加数据库对话框。 8. 单击“确定”,数据库列表中将新增一条“审计状态”为“已关闭”的数据库。 注意 数据库添加完成后,请您确认添加的数据库信息正确。如果数据库信息不正确,请您在数据库所在行单击“删除”,删除数据库后,再重新添加数据库。 数据库参数说明 参数名称 说明 取值样例 数据库名称 您可以自定义添加的数据库的名称。 test1 IP地址 添加的数据库的IP地址。IP必须为内网IP地址,支持IPv4和IPv6格式。 IPv4:192.168.1.1 IPv6:fe80:0000:0000:0000:0000:0000:0000:0000 数据库类型 支持的数据库类型,您可以选择以下类型: MYSQL ORACEL POSTGRESQL SQLSERVER DWS TAURUS GaussDB DAMENG KINGBASE MongoDB Hbase SHENTONG GBase 8a GBase XDM Custer Greenpum HighGo Mariadb说明当数据库类型选择ORACE时,待审计的应用程序需重启,重新登录数据库。 MySQL 端口 添加的数据库的端口。 3306 数据库版本 支持的数据库版本。 当“数据库类型”选择“MYSQL”时,您可以选择以下版本: 当“数据库类型”选择“ORACEL”时,您可以选择以下版本:− 11g − 12c − 19c 当“数据库类型”选择“POSTGRESQL”时,您可以选择以下版本:− 7.4 − 8.0 8.0、8.1、8.2、8.3、8.4 − 9.0 9.0、9.1、9.2、9.3、9.4、9.5、9.6 − 10.0 10.0、10.1、10.2、10.3、10.4、10.5 − 11.0 − 12.0 − 13.0 当“数据库类型”选择“SQLSERVER”时,您可以选择以下版本:− 2008 − 2012 − 2014 − 2016 − 2017
        版本:− 1.5 当“数据库类型”选择“TAURUS”时,您可以选择以下版本:− MySQL 8.0 当“数据库类型”选择“GaussDB”时,您可以选择以下版本:− 1.4企业版 当“数据库类型”选择“DAMENG”时,您可以选择以下版本:− DM8 当“数据库类型”选择“KINGBASE”时,您可以选择以下版本:− V8 5.0 实例名 您可以指定需要审计的数据库的实例名称。说明 如果实例名为空,数据库安全审计将审计数据库中所有的实例。 如果填写实例名,数据库安全审计将审计填写的实例,最多可填写5个实例名,且实例名以“;”分隔。 选择字符集 支持的数据库字符集的编码格式,您可以选择以下编码格式: UTF8 GBK UTF8 操作系统 添加的数据库运行的操作系统,您可以选择以下操作系统: INUX64 WINDOWS64 INUX64 数据库类别 选择添加的数据库类别,“RDS数据库”或“自建数据库”。 RDS数据库
        来自:
        帮助文档
        数据库安全
        快速入门
        添加数据库
      • 1
      • ...
      • 167
      • 168
      • 169
      • 170
      • 171
      • ...
      • 241
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      训推服务

      模型推理服务

      科研助手

      一站式智算服务平台

      知识库问答

      人脸实名认证

      人脸属性识别

      车牌识别

      推荐文档

      产品类

      变更实例的CPU和内存规格

      天翼云进阶之路⑧:sql server内存暴涨如何解决

      迁移准备

      查询日志

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号