云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 使用备份创建新文件系统
        当发生病毒入侵、人为误删除、数据丢失等事件时,可以使用SFS Turbo备份数据创建新的文件系统,创建后的文件系统原始数据将会和SFS Turbo备份状态的数据内容相同。 当发生病毒入侵、人为误删除、数据丢失等事件时,可以使用SFS Turbo备份数据创建新的文件系统,创建后的文件系统原始数据将会和SFS Turbo备份状态的数据内容相同。 操作步骤 1. 登录云服务备份管理控制台。 a. 登录管理控制台。 b. 单击管理控制台左上角的,选择区域。 c. 单击“”,选择“存储 > 云服务备份”。选择对应的备份目录。 2. 选择“备份副本”页签,找到存储库和文件系统所对应的备份。 3. 目标SFS Turbo备份所在行的“状态”栏为“可用”时,单击“操作”列下单击。 说明 创建备份请参考 4. 配置文件系统相关数据。如下图所示。 图 创建文件系统 说明 要了解这些参数的详细说明,请参见《弹性文件服务用户指南》里章节“创建文件系统”中“创建SFS Turbo文件系统”相关参数解释。 可以修改文件系统的类型,但只能进行同类型文件系统之间的修改。例如:标准型文件系统可以修改为性能型文件系统,但不能修改为标准型增强版文件系统。 创建的SFS Turbo文件系统只能为按需计费模式。 5. 单击“立即购买”。 6. 核对文件系统信息,单击“去支付”。 7. 根据界面提示付款,单击“确认付款”。 8. 返回弹性文件服务界面,确认创建新文件系统是否成功。 文件系统状态要经过“正在创建”、“可用”、“正在恢复”和“可用”四个状态。支持即时恢复特性的情况下由于速度很快,可能无法看到“正在恢复”状态。当状态从“正在创建”变更为“可用”时表示文件系统创建成功。当状态从“正在恢复”变更为“可用”时表示备份数据已成功恢复到创建的文件系统中。
        来自:
        帮助文档
        云服务备份
        操作指导
        备份管理
        使用备份创建新文件系统
      • 通过自定义脚本实现MySQL一致性备份
        本文主要介绍通过自定义脚本实现MySQL一致性备份。 准备工作 本章节以SuSE 11 SP3操作系统下MySQL 5.5单机版为例,介绍如何通过自定义脚本来冻结、解冻MySQL数据库,以实现对于MySQL数据库的应用一致性备份。 场景介绍 某企业购买了云主机,并在云主机中安装了MySQL 5.5数据库用于存放业务数据。随着数据量的增加,之前的崩溃一致性保护已经满足不了RTO、RPO的要求,决定采用应用一致性备份,减小RTO与RPO。 数据准备 数据准备 准备项 说明 示例 MySQL用户名 连接MySQL数据库时使用的用户名 root MySQL密码 连接MySQL数据库时使用的密码 Example@123 详细步骤 步骤1、加密MySQL密码,供自定义脚本使用 登录MySQL服务器,输入cd /home/rdadmin/Agent/bin/ ,进入Agent目录。 执行 /home/rdadmin/Agent/bin/agentcli encpwd ,回显如下: Enter password: 输入MySQL密码,并按“Enter”,屏幕上就会打印出加密后的密码,将其拷贝到剪贴板中。 步骤2、执行cd /home/rdadmin/Agent/bin/thirdparty/ebkuser ,进入自定义脚本目录,然后执行 vi mysqlfreeze.sh, 打开MySQL示例冻结脚本。 步骤3、将下图所示的MYSQLUSER 与MYSQLPASSWORD 修改为实际值,其中MYSQLPASSWORD为步骤1的屏幕输出。 也可以使用sed命令来直接进行修改: sed i 's/^MYSQLPASSWORD./MYSQLPASSWORD" XXX "/' mysqlfreeze.sh mysqlunfreeze.sh ,其中XXX为步骤1中打印出的密码。 此操作会同时修改冻结解冻脚本,所以无需再执行步骤3。 步骤4、执行 vi mysqlunfreeze.sh ,打开MySQL示例解冻脚本,修改此脚本中的用户名和密码。 mysqlunfreeze.sh 与mysqlfreeze.sh脚本实现了基本的数据库冻结与解冻操作,如果你在冻结、解冻时有其它额外步骤需要执行,可以自行在其中进行修改。 注意 MySQL的冻结是通过FLUSH TABLES WITH READ LOCK指令来实现的,此指令不会触发bin log刷盘操作,如果开启了bin log,且syncbinlog参数不为1,则可能出现保存的备份映像中部分SQL操作未记录到bin log的情况,如果bin log也需要完整保护,请设置syncbinlog1。
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        通过自定义脚本实现数据库备份
        通过自定义脚本实现MySQL一致性备份
      • 安装Cloud-Init工具
        采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具 以cloudinit0.7.9版本为例,CloudInit工具的安装步骤如下。 1. 下载cloudinit0.7.9.tar.gz源码包(推荐优先选用0.7.9版本),上传到云主机指定目录“/home/”下。 cloudinit0.7.9.tar.gz源码包下载地址: 说明: 编辑内容中 部分可以选择公网PyPI源或教育网PyPI源进行替换。 公网PyPI源: 教育网PyPI源: 3. 执行以下命令,安装本地下载的CloudInit源码包,安装过程中根据需要选择upgrade参数。 pip install [upgrade] /home/cloudinit0.7.9.tar.gz 4. 执行命令cloudinit v,如回显如下类似信息表示安装CloudInit成功。 cloudinit 0.7.9 5. 设置CloudInit相关服务为开机自启动。 − 若操作系统是sysvinit自启动管理服务,则执行以下命令进行设置。 chkconfig add cloudinitlocal; chkconfig add cloudinit; chkconfig add cloudconfig; chkconfig add cloudfinal chkconfig cloudinitlocal on; chkconfig cloudinit on; chkconfig cloudconfig on; chkconfig cloudfinal on service cloudinitlocal status; service cloudinit status; service cloudconfig status; service cloudfinal status − 若操作系统是systemd自启动管理服务,则执行以下命令进行设置。 systemctl enable cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service systemctl status cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service 注意: 采用官方提供的CloudInit源码包通过pip方式进行安装时要注意以下两点。 1. CloudInit安装时需要添加syslog用户到adm组。存在syslog用户时直接添加syslog用户到adm组。不存在syslog用户时(如CentOS和SUSE),执行下列命令创建syslog用户,添加到adm组: useradd syslog groupadd adm usermod g adm syslog 2. 在“/etc/cloud/cloud.cfg”中systeminfo部分的distro要根据具体操作系统发行版本做相应修改(如根据具体操作系统发行版相应修改为:distro: ubuntu,distro: sles,distro: debian,distro: fedora)。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        安装Cloud-Init工具
      • Windows事件日志采集
        事件ID 对应事件 35 更改时间源 36 时间同步失败 37 时间同步正常 41 表示系统在未先正常关机的情况下重新启动。当出现意外断电关机、系统崩溃时出现此事件ID。 134 当出现时间同步源DNS解析失败时会出现此事件ID。 512 Windows启动事件 513 Windows关机事件 515 受信任的登录过程已经在本地安全机构注册 516 审核失败事件 517 清除安全事件日志事件 518 安全帐户管理器已加载通知数据包 519 进程正在使用无效的本地过程调用(LPC)端口试图伪装客户端并向客户端地址空间答复读取或写入 520 更改系统时间事件 521 无法记录事件 528 登录成功事件 529 登录失败事件用户名未知或密码错误 530 登录失败事件时间限制 531 登录失败事件帐户当前已禁用 532 登录失败事件指定用户帐户已过期 533 登录失败事件不允许用户由此计算机登录 534 登录失败事件不允许该登录类型 535 登录失败事件指定帐户的密码已过期 536 登录失败事件NetLogon组件未激活 537 登录失败由于其他原因登录尝试失败 538 用户注销事件 539 登录失败试图登录时该帐户已锁定 540 登录成功事件 553 检测到重放攻击事件 560 准许对现有对象的访问 560 拒绝对现有对象的访问事件 562 指向对象的句柄已关闭 563 试图打开一个对象并打算将其删除 564 受保护对象已删除 565 访问权限已授予现有的对象类型 566 发生了一般对象操作 567 与使用的句柄关联的权限 568 尝试创建已审核文件的硬链接事件 574 对象权限被修改 576 对新登录指派特殊特权 592 创建新进程事件 592 创建新流程事件 600 对进程指派了主令牌事件 601 用户尝试安装服务事件 602 创建计划的作业事件 608 指派了用户帐户特权 609 移除了用户帐户特权 610 创建删除或修改了与另一域的信任关系 611 创建删除或修改了与另一域的信任关系 612 更改审核策略事件 613 更改IPsec策略事件 614 更改IPsec策略事件 615 更改IPsec策略事件 620 创建删除或修改了与另一域的信任关系 621 对帐户授予了系统访问权 622 从系统移除了系统访问权 623 更改审核策略事件 624 创建用户帐户事件 625 按用户刷新审核策略 626 启用了用户帐户 627 更改密码尝试事件 628 用户帐户密码设置或重置事件 630 删除用户帐户事件 631 启用了安全性的全局组更改事件 632 启用了安全性的全局组更改事件 633 启用了安全性的全局组更改事件 634 启用了安全性的全局组更改事件 635 启用了安全性的全局组更改事件 636 启用了安全性的全局组更改事件 637 启用了安全性的全局组更改事件 638 启用了安全性的全局组更改事件 639 启用了安全性的组更改事件 641 启用了安全性的组更改事件 642 更改用户帐户事件 643 更改域安全策略事件 644 帐户锁定尝试事件 644 用户帐户自动锁定事件 645 帐号及安全组策略更改事件 659 启用了安全性的通用组更改事件 660 启用了安全性的通用组更改事件 661 启用了安全性的通用组更改事件 662 启用了安全性的通用组更改事件 666 帐号及安全组策略更改事件 668 启用了安全性的组更改事件 672 已成功颁发和验证身份验证服务(AS)票证 675 预验证失败事件 680 帐户登录事件 681 登录失败尝试进行域帐户登录事件 682 用户已重新连接至已断开的终端服务器会话 683 用户未注销就断开终端服务器会话 685 更改用户帐户名称事件 698 更改目录服务还原模式密码事件 1074 查看计算机的开机、关机、重启的时间以及原因和注释。 1100 事件记录服务已关闭 1101 审计事件已被运输中断。 1102 审核日志已清除 1102 日志清除 1104 安全日志现已满 1105 事件日志自动备份 1108 事件日志记录服务遇到错误 4199 当发生TCP/IP地址冲突的时候出现此事件ID,用来排查用户IP网络的问题。 4608 Windows正在启动 4608 Windows启动事件 4609 Windows正在关闭 4609 Windows关机事件 4610 本地安全机构已加载身份验证包 4611 已向本地安全机构注册了受信任的登录进程 4611 受信任的登录过程已经在本地安全机构注册 4612 为审计消息排队分配的内部资源已经用尽,导致一些审计丢失。 4612 审核失败事件 4613 清除安全事件日志事件 4614 安全帐户管理器已加载通知包。 4614 安全帐户管理器已加载通知数据包 4615 LPC端口使用无效 4615 进程正在使用无效的本地过程调用(LPC)端口试图伪装客户端并向客户端地址空间答复读取或写入 4616 系统时间已更改。 4616 更改系统时间事件 4617 无法记录事件 4618 已发生受监视的安全事件模式 4621 管理员从CrashOnAuditFail恢复了系统 4622 本地安全机构已加载安全包。 4624 帐户已成功登录 4624 登录成功事件 4625 帐户无法登录 4625 登录失败事件用户名未知或密码错误 4626 用户/设备声明信息 4626 登录失败事件时间限制 4627 集团会员信息。 4628 登录失败事件指定用户帐户已过期 4629 登录失败事件不允许用户由此计算机登录 4630 登录失败事件不允许该登录类型 4631 登录失败事件指定帐户的密码已过期 4632 登录失败事件NetLogon组件未激活 4633 登录失败由于其他原因登录尝试失败 4634 帐户已注销 4634 用户注销事件 4635 登录失败试图登录时该帐户已锁定 4636 登录成功事件 4646 IKE DoS防护模式已启动 4647 用户启动了注销 4648 使用显式凭据尝试登录 4649 检测到重播 4649 检测到重放攻击事件 4650 建立了IPsec主模式安全关联 4651 建立了IPsec主模式安全关联 4652 IPsec主模式协商失败 4653 IPsec主模式协商失败 4654 IPsec快速模式协商失败 4655 IPsec主模式安全关联已结束 4656 请求了对象的句柄 4656 准许对现有对象的访问 4656 拒绝对现有对象的访问事件 4657 注册表值已修改 4658 对象的句柄已关闭 4658 指向对象的句柄已关闭 4659 请求删除对象的句柄 4659 试图打开一个对象并打算将其删除 4660 对象已删除 4660 受保护对象已删除 4661 请求了对象的句柄 4661 访问权限已授予现有的对象类型 4662 对对象执行了操作 4662 发生了一般对象操作 4663 尝试访问对象 4663 与使用的句柄关联的权限 4664 试图创建一个硬链接 4664 尝试创建已审核文件的硬链接事件 4665 尝试创建应用程序客户端上下文。 4666 应用程序尝试了一个操作 4667 应用程序客户端上下文已删除 4668 应用程序已初始化 4670 对象的权限已更改 4670 对象权限被修改 4671 应用程序试图通过TBS访问被阻止的序号 4672 分配给新登录的特权 4672 对新登录指派特殊特权 4673 特权服务被召唤 4674 尝试对特权对象执行操作 4675 SID被过滤掉了 4688 已经创建了一个新流程 4688 创建新进程事件 4688 创建新流程事件 4689 一个过程已经退出 4690 尝试复制对象的句柄 4691 请求间接访问对象 4692 尝试备份数据保护主密钥 4693 尝试恢复数据保护主密钥 4694 试图保护可审计的受保护数据 4695 尝试不受保护的可审计受保护数据 4696 主要令牌已分配给进程 4696 对进程指派了主令牌事件 4697 系统中安装了一项服务 4697 用户尝试安装服务事件 4698 已创建计划任务 4698 创建计划的作业事件 4699 计划任务已删除 4700 已启用计划任务 4701 计划任务已禁用 4702 计划任务已更新 4703 令牌权已经调整 4704 已分配用户权限 4704 指派了用户帐户特权 4705 用户权限已被删除 4705 移除了用户帐户特权 4706 为域创建了新的信任 4706 创建删除或修改了与另一域的信任关系 4707 已删除对域的信任 4707 创建删除或修改了与另一域的信任关系 4708 更改审核策略事件 4709 IPsec服务已启动 4709 更改IPsec策略事件 4710 IPsec服务已禁用 4710 更改IPsec策略事件 4711 PAStore引擎(1%) 4711 更改IPsec策略事件 4712 IPsec服务遇到了潜在的严重故障 4713 Kerberos策略已更改 4714 加密数据恢复策略已更改 4715 对象的审核策略(SACL)已更改 4716 可信域信息已被修改 4716 创建删除或修改了与另一域的信任关系 4717 系统安全访问权限已授予帐户 4717 对帐户授予了系统访问权 4718 系统安全访问已从帐户中删除 4718 从系统移除了系统访问权 4719 系统审核策略已更改 4719 更改审核策略事件 4720 已创建用户帐户 4720 创建用户帐户事件 4721 按用户刷新审核策略 4722 用户帐户已启用 4722 启用了用户帐户 4723 尝试更改帐户的密码 4723 更改密码尝试事件 4724 尝试重置帐户密码 4724 用户帐户密码设置或重置事件 4725 用户帐户已被禁用 4725 帐户当前已禁用 4726 用户帐户已删除 4726 删除用户帐户事件 4727 已创建启用安全性的全局组 4727 启用了安全性的全局组更改事件 4728 已将成员添加到启用安全性的全局组中 4728 启用了安全性的全局组更改事件 4729 成员已从启用安全性的全局组中删除 4729 启用了安全性的全局组更改事件 4730 已删除启用安全性的全局组 4730 启用了安全性的全局组更改事件 4731 已创建启用安全性的本地组 4731 启用了安全性的全局组更改事件 4732 已将成员添加到启用安全性的本地组 4732 启用了安全性的全局组更改事件 4733 成员已从启用安全性的本地组中删除 4733 启用了安全性的全局组更改事件 4734 已删除已启用安全性的本地组 4734 启用了安全性的全局组更改事件 4735 已启用安全性的本地组已更改 4735 启用了安全性的组更改事件 4737 启用安全性的全局组已更改 4737 启用了安全性的组更改事件 4738 用户帐户已更改 4738 更改用户帐户事件 4739 域策略已更改 4739 更改域安全策略事件 4740 用户帐户已被锁定 4740 帐户锁定尝试事件 4740 用户帐户自动锁定事件 4741 已创建计算机帐户 4741 帐号及安全组策略更改事件 4742 计算机帐户已更改 4743 计算机帐户已删除 4744 已创建禁用安全性的本地组 4745 已禁用安全性的本地组已更改 4746 已将成员添加到已禁用安全性的本地组 4747 已从安全性已禁用的本地组中删除成员 4748 已删除安全性已禁用的本地组 4749 已创建一个禁用安全性的全局组 4750 已禁用安全性的全局组已更改 4751 已将成员添加到已禁用安全性的全局组中 4752 成员已从禁用安全性的全局组中删除 4753 已删除安全性已禁用的全局组 4754 已创建启用安全性的通用组 4755 启用安全性的通用组已更改 4755 启用了安全性的通用组更改事件 4756 已将成员添加到启用安全性的通用组中 4756 启用了安全性的通用组更改事件 4757 成员已从启用安全性的通用组中删除 4757 启用了安全性的通用组更改事件 4758 已删除启用安全性的通用组 4758 启用了安全性的通用组更改事件 4759 创建了一个安全禁用的通用组 4760 安全性已禁用的通用组已更改 4761 已将成员添加到已禁用安全性的通用组中 4762 成员已从禁用安全性的通用组中删除 4762 帐号及安全组策略更改事件 4763 已删除安全性已禁用的通用组 4764 组类型已更改 4764 启用了安全性的组更改事件 4765 SID历史记录已添加到帐户中 4766 尝试将SID历史记录添加到帐户失败 4767 用户帐户已解锁 4768 请求了Kerberos身份验证票证(TGT) 4768 已成功颁发和验证身份验证服务(AS)票证 4769 请求了Kerberos服务票证 4770 更新了Kerberos服务票证 4771 Kerberos预身份验证失败 4771 预验证失败事件 4772 Kerberos身份验证票证请求失败 4773 Kerberos服务票证请求失败 4774 已映射帐户以进行登录 4775 无法映射帐户以进行登录 4776 域控制器尝试验证帐户的凭据 4776 帐户登录事件 4777 域控制器无法验证帐户的凭据 4777 登录失败尝试进行域帐户登录事件 4778 会话重新连接到Window Station 4778 用户已重新连接至已断开的终端服务器会话 4779 会话已与Window Station断开连接 4779 用户未注销就断开终端服务器会话 4780 ACL是在作为管理员组成员的帐户上设置的 4781 帐户名称已更改 4781 更改用户帐户名称事件 4782 密码哈希帐户被访问 4783 创建了一个基本应用程序组 4784 基本应用程序组已更改 4785 成员已添加到基本应用程序组 4786 成员已从基本应用程序组中删除 4787 非成员已添加到基本应用程序组 4788 从基本应用程序组中删除了非成员。 4789 基本应用程序组已删除 4790 已创建LDAP查询组 4791 基本应用程序组已更改 4792 LDAP查询组已删除 4793 密码策略检查API已被调用 4794 尝试设置目录服务还原模式管理员密码 4794 更改目录服务还原模式密码事件 4797 试图查询帐户是否存在空白密码 4798 枚举了用户的本地组成员身份。 4799 已枚举启用安全性的本地组成员身份 4800 工作站已锁定 4801 工作站已解锁 4802 屏幕保护程序被调用 4803 屏幕保护程序被解雇了 4816 RPC在解密传入消息时检测到完整性违规 4817 对象的审核设置已更改。 4818 建议的中央访问策略不授予与当前中央访问策略相同的访问权限 4819 计算机上的中央访问策略已更改 4820 Kerberos票证授予票证(TGT)被拒绝,因为该设备不符合访问控制限制 4821 Kerberos服务票证被拒绝,因为用户,设备或两者都不符合访问控制限制 4822 NTLM身份验证失败,因为该帐户是受保护用户组的成员 4823 NTLM身份验证失败,因为需要访问控制限制 4824 使用DES或RC4进行Kerberos预身份验证失败,因为该帐户是受保护用户组的成员 4825 用户被拒绝访问远程桌面。默认情况下,仅当用户是Remote Desktop Users组或Administrators组的成员时才允许用户进行连接 4826 加载引导配置数据 4830 SID历史记录已从帐户中删除 4864 检测到名称空间冲突 4865 添加了受信任的林信息条目 4866 已删除受信任的林信息条目 4867 已修改受信任的林信息条目 4868 证书管理器拒绝了挂起的证书请求 4869 证书服务收到重新提交的证书请求 4870 证书服务撤销了证书 4871 证书服务收到发布证书吊销列表(CRL)的请求 4872 证书服务发布证书吊销列表(CRL) 4873 证书申请延期已更改 4874 一个或多个证书请求属性已更改。 4875 证书服务收到关闭请求 4876 证书服务备份已启动 4877 证书服务备份已完成 4878 证书服务还原已开始 4879 证书服务恢复已完成 4880 证书服务已启动 4881 证书服务已停止 4882 证书服务的安全权限已更改 4883 证书服务检索到存档密钥 4884 证书服务将证书导入其数据库 4885 证书服务的审核筛选器已更改 4886 证书服务收到证书请求 4887 证书服务批准了证书请求并颁发了证书 4888 证书服务拒绝了证书请求 4889 证书服务将证书请求的状态设置为挂起 4890 证书服务的证书管理器设置已更改。 4891 证书服务中的配置条目已更改 4892 证书服务的属性已更改 4893 证书服务存档密钥 4894 证书服务导入并存档了一个密钥 4895 证书服务将CA证书发布到Active Directory域服务 4896 已从证书数据库中删除一行或多行 4897 启用角色分离 4898 证书服务加载了一个模板 4899 证书服务模板已更新 4900 证书服务模板安全性已更新 4902 已创建每用户审核策略表 4904 尝试注册安全事件源 4905 尝试取消注册安全事件源 4906 CrashOnAuditFail值已更改 4907 对象的审核设置已更改 4908 特殊组登录表已修改 4909 TBS的本地策略设置已更改 4910 TBS的组策略设置已更改 4911 对象的资源属性已更改 4912 每用户审核策略已更改 4913 对象的中央访问策略已更改 4928 建立了Active Directory副本源命名上下文 4929 已删除Active Directory副本源命名上下文 4930 已修改Active Directory副本源命名上下文 4931 已修改Active Directory副本目标命名上下文 4932 已开始同步Active Directory命名上下文的副本 4933 Active Directory命名上下文的副本的同步已结束 4934 已复制Active Directory对象的属性 4935 复制失败开始 4936 复制失败结束 4937 从副本中删除了一个延迟对象 4944 Windows防火墙启动时,以下策略处于活动状态 4945 Windows防火墙启动时列出了规则 4946 已对Windows防火墙例外列表进行了更改。增加了一条规则 4947 已对Windows防火墙例外列表进行了更改。规则被修改了 4948 已对Windows防火墙例外列表进行了更改。规则已删除 4949 Windows防火墙设置已恢复为默认值 4950 Windows防火墙设置已更改 4951 规则已被忽略,因为Windows防火墙无法识别其主要版本号 4952 已忽略规则的某些部分,因为Windows防火墙无法识别其次要版本号 4953 Windows防火墙已忽略规则,因为它无法解析规则 4954 Windows防火墙组策略设置已更改。已应用新设置 4956 Windows防火墙已更改活动配置文件 4957 Windows防火墙未应用以下规则 4958 Windows防火墙未应用以下规则,因为该规则引用了此计算机上未配置的项目 4960 IPsec丢弃了未通过完整性检查的入站数据包 4961 IPsec丢弃了重放检查失败的入站数据包 4962 IPsec丢弃了重放检查失败的入站数据包 4963 IPsec丢弃了应该受到保护的入站明文数据包 4964 特殊组已分配给新登录 4965 IPsec从远程计算机收到一个包含不正确的安全参数索引(SPI)的数据包。 4976 在主模式协商期间,IPsec收到无效的协商数据包。 4977 在快速模式协商期间,IPsec收到无效的协商数据包。 4978 在扩展模式协商期间,IPsec收到无效的协商数据包。 4979 建立了IPsec主模式和扩展模式安全关联。 4980 建立了IPsec主模式和扩展模式安全关联 4981 建立了IPsec主模式和扩展模式安全关联 4982 建立了IPsec主模式和扩展模式安全关联 4983 IPsec扩展模式协商失败 4984 IPsec扩展模式协商失败 4985 交易状态已发生变化 5024 Windows防火墙服务已成功启动 5025 Windows防火墙服务已停止 5027 Windows防火墙服务无法从本地存储中检索安全策略 5028 Windows防火墙服务无法解析新的安全策略。 5029 Windows防火墙服务无法初始化驱动程序 5030 Windows防火墙服务无法启动 5031 Windows防火墙服务阻止应用程序接受网络上的传入连接。 5032 Windows防火墙无法通知用户它阻止应用程序接受网络上的传入连接 5033 Windows防火墙驱动程序已成功启动 5034 Windows防火墙驱动程序已停止 5035 Windows防火墙驱动程序无法启动 5037 Windows防火墙驱动程序检测到严重的运行时错 终止 5038 代码完整性确定文件的图像哈希无效 5039 注册表项已虚拟化。 5040 已对IPsec设置进行了更改。添加了身份验证集。 5041 已对IPsec设置进行了更改。身份验证集已修改 5042 已对IPsec设置进行了更改。身份验证集已删除 5043 已对IPsec设置进行了更改。添加了连接安全规则 5044 已对IPsec设置进行了更改。连接安全规则已修改 5045 已对IPsec设置进行了更改。连接安全规则已删除 5046 已对IPsec设置进行了更改。添加了加密集 5047 已对IPsec设置进行了更改。加密集已被修改 5048 已对IPsec设置进行了更改。加密集已删除 5049 IPsec安全关联已删除 5050 尝试使用对INetFwProfile.FirewallEnabled的调用以编程方式禁用Windows防火墙(FALSE 5051 文件已虚拟化 5056 进行了密码自检 5057 加密原语操作失败 5058 密钥文件操作 5059 密钥迁移操作 5060 验证操作失败 5061 加密操作 5062 进行了内核模式加密自检 5063 尝试了加密提供程序操作 5064 尝试了加密上下文操作 5065 尝试了加密上下文修改 5066 尝试了加密功能操作 5067 尝试了加密功能修改 5068 尝试了加密函数提供程序操作 5069 尝试了加密函数属性操作 5070 尝试了加密函数属性操作 5071 Microsoft密钥分发服务拒绝密钥访问 5120 OCSP响应程序服务已启动 5121 OCSP响应程序服务已停止 5122 OCSP响应程序服务中的配置条目已更改 5123 OCSP响应程序服务中的配置条目已更改 5124 在OCSP Responder Service上更新了安全设置 5125 请求已提交给OCSP Responder Service 5126 签名证书由OCSP Responder Service自动更新 5127 OCSP吊销提供商成功更新了吊销信息 5136 目录服务对象已修改 5137 已创建目录服务对象 5138 目录服务对象已取消删除 5139 已移动目录服务对象 5140 访问了网络共享对象 5141 目录服务对象已删除 5142 添加了网络共享对象。 5143 网络共享对象已被修改
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        Windows事件日志采集
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 服务器(单机版适用)
        本节主要介绍服务器监控信息。 在“监控”页面点击“服务器”,可以查看服务器上HBlock指定时间内的监控信息:数据目录使用率、容量配额使用率、CPU使用率、内存使用量、内存总量、数据目录使用量、数据目录总容量、配额使用量、配额、读带宽、写带宽、总带宽、读IOPS、写IOPS、总IOPS、读时延、写时延、总时延、上云上传带宽、上云下载带宽、上云总带宽。 图1 服务器监控(单机版) 项目 描述 时间范围 可以选择相对时间: 近2小时 近6小时 近1天 近7天 近1年 自定义时间段,选择开始日期和结束日期,精确到天。 注意 起始时间必须早于结束时间,且起始时间不能早于服务器当前时间一年。 数据目录使用率 所有数据目录所在磁盘使用率的平均值。 容量配额使用率 HBlock所有数据目录容量配额使用率的平均值。 HBlock服务器 HBlock服务器的性能。 CPU使用率 服务器CPU使用率。 内存使用量 服务器内存使用量。 内存总量 服务器内存总量。 数据目录使用量 数据目录所在磁盘使用量的总和。 数据目录总容量 数据目录所在磁盘容量的总和。 配额使用量 HBlock已使用容量配额。 配额 HBlock容量配额总和。 客户端 HBlock 当前服务器上,客户端与HBlock之间的数据传输情况。 读带宽 客户端从HBlock服务器读取数据的带宽。 写带宽 客户端向HBlock服务器写入数据的带宽。 总带宽 客户端与HBlock服务器之间的总带宽。 读IOPS 客户端从HBlock服务器读取数据的IOPS。 写IOPS 客户端向HBlock服务器写入数据的IOPS。 总IOPS 客户端与HBlock服务器之间的总IOPS。 读时延 客户端从HBlock服务器读取数据的时延。采集周期内,服务器关联卷的读时延平均值。 写时延 客户端向HBlock服务器写入数据的时延。采集周期内,服务器关联卷的写时延平均值。 总时延 客户端与HBlock服务器之间的总时延。采集周期内,服务器关联卷的读写时延平均值。 HBlock Cloud 当前服务器上,HBlock与云之间的数据传输情况。 上云上传带宽 HBlock服务器器向云上传数据的带宽。 上云下载带宽 HBlock服务器从云下载数据的带宽。 上云总带宽 HBlock服务器与云之间的总带宽。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        服务器(单机版适用)
      • 安装Cloud-Init工具
        采用官方提供的CloudInit源码包通过pip方式安装CloudInit工具 以cloudinit0.7.9版本为例,CloudInit工具的安装步骤如下。 1.下载cloudinit0.7.9.tar.gz源码包(推荐优先选用0.7.9版本),上传到云主机指定目录“/home/”下。 cloudinit0.7.9.tar.gz源码包下载地址: 2.在“~/.pip/”目录下新建pip.conf文件,编辑内容如下。 说明: “~/.pip/”若不存在,可使用命令mkdir ~/.pip命令新建。 [global] indexurl trustedhost 说明: 编辑内容中 部分可以选择公网PyPI源或教育网PyPI源进行替换。 公网PyPI源: 教育网PyPI源: 3.执行以下命令,安装本地下载的CloudInit源码包,安装过程中根据需要选择upgrade参数。 pip install [upgrade] /home/cloudinit0.7.9.tar.gz 4.执行命令cloudinit v,如回显如下类似信息表示安装CloudInit成功。 cloudinit 0.7.9 5.设置CloudInit相关服务为开机自启动。 −若操作系统是sysvinit自启动管理服务,则执行以下命令进行设置。 chkconfig add cloudinitlocal; chkconfig add cloudinit; chkconfig add cloudconfig; chkconfig add cloudfinal chkconfig cloudinitlocal on; chkconfig cloudinit on; chkconfig cloudconfig on; chkconfig cloudfinal on service cloudinitlocal status; service cloudinit status; service cloudconfig status; service cloudfinal status −若操作系统是systemd自启动管理服务,则执行以下命令进行设置。 systemctl enable cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service systemctl status cloudinitlocal.service cloudinit.service cloudconfig.service cloudfinal.service 注意: 采用官方提供的CloudInit源码包通过pip方式进行安装时要注意以下两点。 1.CloudInit安装时需要添加syslog用户到adm组。存在syslog用户时直接添加syslog用户到adm组。不存在syslog用户时(如CentOS和SUSE),执行下列命令创建syslog用户,添加到adm组: useradd syslog groupadd adm usermod g adm syslog 2.在“/etc/cloud/cloud.cfg”中systeminfo部分的distro要根据具体操作系统发行版本做相应修改(如根据具体操作系统发行版相应修改为:distro: ubuntu,distro: sles,distro: debian,distro: fedora)。
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        基于VirtualBox使用ISO创建Linux镜像
        配置虚拟机
        安装Cloud-Init工具
      • 云日志服务C++ SDK
        本文主要介绍 云日志服务C++ SDK接入指南。 1. 前言 安装使用C++ SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C++版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装c++ 运行环境,推荐安装c++11或以上版本。 2.2. 下载及安装 从官方渠道下载ctyunltscppsdk.zip压缩包,放到相应位置后并解压。“ctyunltscppsdk”目录中sampleputlogs.cpp为SDK的使用示例代码。 2.1.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel (7.6.1) openssldevel (1.1.1) protobuf (3.5.0) lz4 (v1.8.3) boost (1.66.0) 对于 CentOS 安装,可用如下命令搭建依赖环境 plaintext yum install gcc gccc++     yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufdevel.x8664 yum install boostdevel.x8664 2.1.2. 编译使用 1、进入ctyunltscppsdk目录下,里面有CMakelists.txt文件。 2、执行以下命令: plaintext mkdir build cd build cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pb.cc、.pb.h,以及编译出静态库文件libltssdk.a。 3、将ctyunltscppsdk的include目录下的头文件,全部移动到您项目的include目录下,(如果直接使用SDK 则可以不用移动)。 4、之后就可以在您的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件。 如sampleputlogs.cpp: plaintext g++ sampleputlogs.cpp I./include L./lib/ lcurl lcrypto llz4 lprotobuf lltssdk 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C++ SDK
      • 查看任务详情
        该任务指导用户通过漏洞扫描服务查看任务详情。 前提条件 已获取管理控制台的登录帐号与密码。 已开启了资产的监测任务。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”。 3. 在左侧导航树中,选择“安全监测”,进入“安全监测”界面。 4. 在目标监测任务所在行的“最近一次扫描情况”列,单击分数或者“查看详情”,进入“任务详情”界面,可以查看相应任务的“扫描项总览”。 说明 扫描任务详情界面默认显示最近一次的扫描情况,如果您需要查看其他时间的扫描情况,在“历史扫描报告”下拉框中,选择扫描时间点。 单击“重新扫描”,可以重新执行扫描任务。 如果需要修改扫描任务名称或者检测项,单击“编辑”,完成相关配置。 当扫描任务成功完成后,单击右上角的“生成报告”,生成网站扫描报告后,单击右上角的下载报告按钮,可以下载任务报告,目前只支持PDF格式。 5. 选择“扫描项总览”页签,查看扫描项的检测结果。 说明 如果检测结果存在漏洞或者风险,可在“检测结果”列,单击“查看详情”了解漏洞或者风险的详细情况。 6. 选择“漏洞列表”页签,查看漏洞信息。 说明 单击“查看更多”,可以查看详细的漏洞分析。 单击漏洞名称可以查看相应漏洞的“漏洞详情”、“漏洞简介”、“修复建议”。 如果您确认扫描出的漏洞不会对网站造成危害,请在目标漏洞所在行的“操作”列,单击“忽略”,忽略该漏洞,后续执行扫描任务会扫描出该漏洞,但扫描结果将不会统计忽略的漏洞。例如,如果您对2个低危漏洞执行了“忽略”操作,则再次执行扫描任务,扫描结果显示的低危漏洞个数将减少2。 如果想对已忽略的漏洞恢复为风险类型,在目标漏洞所在行的“操作”列,单击“取消忽略”,恢复检测此漏洞。 7. 选择“业务风险列表”页签,查看业务风险信息。 8. 选择“端口列表”页签,查看目标网站的端口信息。 9. 选择“站点结构”页签,查看目标网站的站点结构信息。 说明 站点结构显示的是目标任务的漏洞的具体站点位置,如果任务暂未扫描出漏洞,站点结构无数据显示。 显示目标网站的基本信息,包括: IP地址:目标网站的IP地址。 服务器:目标网站部署所使用的服务器名称(例如:Tomcat 、Apache httpd、 IIS等)。 语言:目标网站所使用的开发语言(例如:PHP、JAVA、C
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        安全监测
        查看任务详情
      • 创建只读实例
        本章节会介绍如何创建只读实例 操作场景 只读实例用于增强主实例的读能力,减轻主实例负载。 关系型数据库实例创建成功后,可根据业务需要创建只读实例。 说明 一个主实例中,最多可以增加5个只读实例。 目前,云数据库Microsoft SQL Server仅2017企业版及以上版本的实例支持新增只读实例。 操作步骤 步骤1:登录管理控制台。 步骤2:单击管理控制台左上角的,选择区域和项目。 步骤3:选择“数据库> 关系型数据库”。进入关系型数据库信息页面。 步骤4:在“实例管理”页面,选择指定的实例,单击“创建只读”,进入“服务选型”页面。 您也可在实例的“基本信息”页面,单击实例拓扑图中,主实例下方的添加按钮,创建只读实例。 步骤5:在“服务选型”页面,填选实例相关信息后,单击“立即创建”。 基本信息 参数 描述 当前区域 只读实例默认与主实例在同一区域。 实例名称 实例名称长度最小为4字符,最大为64个字符,如果名称包含中文,则不超过64字节(注意:一个中文字符占用3个字节),必须以字母或中文开头,区分大小写,可以包含字母、数字、中划线、下划线或中文,不能包含其他特殊字符。 数据库引擎 默认与主实例的数据库引擎一致,不可更改。 数据库版本 默认与主实例的数据库版本一致,不可更改。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 可用区 关系型数据库服务支持在同一个可用区内,或者跨可用区部署数据库主实例和只读实例,以提高可靠性。 规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。只读实例的存储空间大小默认与主实例一致。 网络 参数 描述 虚拟私有云 和主实例相同。 子网 和主实例相同,创建只读实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址暂不可修改。 安全组 和主实例相同。 步骤6:在“规格确认”页面,进行信息确认。 如果需要重新选择,单击“上一步”,回到服务选型页面修改基本信息。 信息确认无误后,单击“提交”,下发新增只读实例请求。 步骤7:只读实例创建成功后,用户可以在“实例管理”页面,选择只读实例所对应的实例,单击对其进行查看和管理。 您也可以在基本信息页面的“实例拓扑图”中,单击只读实例的名称,进入该只读实例的“基本信息”页面,对其进行查看和管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        只读实例
        创建只读实例
      • 修改已创建的VPN连接
        本文向您介绍如何修改已创建的企业版VPN连接。 场景描述 VPN连接是建立VPN网关和外部数据中心对端网关之间的加密通道。当VPN连接的网络参数变化时,可以修改VPN连接。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”界面,选择目标VPN连接所在行,单击“修改连接信息”或“修改策略配置”。 4. 根据界面提示修改VPN连接的配置参数。 5. 单击“确定”。 注意 修改预共享密钥和IKE/IPsec策略场景下,请确保VPN连接和对端网关配置的信息一致,否则会导致VPN连接中断。 不同参数修改后的生效机制不同,生效机制说明如下表。 表修改连接参数的生效机制说明 场景 参数 生效机制 操作方法 预共享密钥 IKE策略为v1时:修改后下个协商周期生效。 IKE策略为v2时:重建VPN连接后生效。 说明 国密型VPN连接无“预共享密钥”参数。 IKE策略为v1时在需要修改的VPN连接所在行,选择“更多 > 重置密钥”,修改VPN连接的预共享密钥。 IKE策略为v2时 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v1) 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) DH算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 协商模式 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 本端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 对端标识 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:“加密算法”、“认证算法”、“协商模式”。 国密型VPN连接无以下参数:“DH算法”、“本端标识”、“对端标识”。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v1) 版本 修改后立即生效。 说明 国密型VPN连接不支持修改“版本”参数。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 加密算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 认证算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) DH算法 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 生命周期 修改后下个协商周期生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 版本 修改后立即生效。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IKE策略(版本为v2) 本端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IKE策略(版本为v2) 对端标识 重建VPN连接后生效。 1. 删除当前VPN连接。 2. 重新创建VPN连接。 IPsec策略 加密算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 认证算法 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 PFS 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 生命周期 修改后下个协商周期生效。 说明 国密型VPN连接不支持修改以下参数:加密算法、认证算法。 国密型VPN连接不包含以下参数:PFS。 在需要修改的VPN连接所在行,单击“修改策略配置”。 IPsec策略 传输协议 暂不支持控制台修改。 在需要修改的VPN连接所在行,单击“修改策略配置”。
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        修改已创建的VPN连接
      • 备案基础知识
        1 、备案的目的 根据《互联网信息服务管理办法》规定,在中华人民共和国境内从事互联网信息服务活动,需要先进行备案并获取通信管理局下发的ICP备案号,才允许对外提供互联网信息服务。 备案成功后,通信管理局会分配主体备案号给备案主体(个人或单位均可称为主体),同时也会给此次备案的网站分配网站备案号。 主体备案号格式为:(省简写)ICP备+主体序列号(8位数字) 网站备案号格式为:(省简写)ICP备+主体序列号(8位数字)网站序列号 举例: 天翼云官网(域名ctyun.cn)的网站备案号为:京ICP备 2021034386号34  公司主体备案号为:京ICP备2021034386号。 2 、如何备案 1) 登录天翼云官网备案我的备案 2) 输入本次备案的单位信息和域名(或APP)信息创建备案订单 3) 完善备案信息 4) 上传资料,建议选择“通过微信小程序采集图片”,此步骤会通过手机进行网站负责人的活体验证,方便快捷 5) 提交管局审核 6) 备案完成 3 、域名:非gov.cn的域名备案只能备案一级域名 非gov.cn的域名备案只需备案一级域名,一级域名备案后对应的二级域名、三级域名可以正常使用。 举例:天翼云官网的一级域名为:ctyun.cn,备案完成后对应的二级域名:.ctyun.cn均可正常使用。 境外注册域名不可进行备案。 4 、备案需要多久 1) 天翼云1个工作日内对您的备案信息进行初审。 2) 备案信息提交至通信管理局后,各省管局审核时间不一,管局按照各接入商提交单据的顺序进行审核,审核时间不超过20个工作日。 5 、备案类型 根据主体和域名是否第一次做备案,可以分为不同的备案类型,不同的备案类型填写的信息略有差异。 1) 增加备案信息的类型有: 首次备案(新增备案):主体和域名均为第一次做备案。 新增互联网信息服务:该主体已备案过其他网站(APP),此次填写的域名(APP)是第一次做备案。 接入备案:主体和域名均已备案,此次备案是办理接入商的变更。 2) 删除备案信息的类型有: 注销主体:删除该主体下的所有备案信息,包括主体信息和网站信息 注销网站:删除主体下的某个网站,主体信息仍然保留 取消接入:删除备案信息和接入商的关联,建议在新的接入商处完成接入备案后再取消接入,否则备案信息可能会被通信管理局注销 3) 修改备案信息的类型有: 变更主体:变更主体信息,如修改公司通信地址等 变更互联网信息服务:变更网站(APP)信息,如删除域名、修改网站负责人、变更IP等 只有在天翼云完成备案的网站,才可以提交变更。 6 、备案需要准备什么材料 个人备案 A. 二代身份证扫描件或拍照件 B. 《ICP备案信息真实性核验单》:去下载。 C. 电子版域名证书: 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 D. 电子版信息需提供原件: 根据管局规定,证件类的材料必须为原件扫描件或拍照,不可使用彩色复印件。 单位备案 A. 单位证件: 企业需提供营业执照(副本)扫描件/拍照件、机关提供统一社会信用代码证,事业单位提供事业单位法人证书 B. 负责人身份证扫描件/拍照件(外国人可提供护照等其他证件) C. 《ICP备案信息真实性核验单》:去下载。 D. 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 E. 网站负责人法人授权书(可选): 如果网站负责人填写的不是法人,还需额外提供授权书,去下载。 7 、接入备案 为什么要办理接入备案?根据国家相关要求,如果您已在A接入商购买服务器并成功办理了ICP备案,当您计划将网站搭建到B接入商平台时(或网站同时在多家接入商平台上运营时),需到B接入商处办理备案,备案信息接入B接入商的过程称为“接入备案”。 另外,如果不办理接入备案即开通网站,您的网站将有可能被阻断无法访问 8 、使用海外服务器不需要备案 购买中国香港或海外服务器无需备案,备案仅针对国内(港澳台地区除外)节点服务器。 9 、境外企业如何备案 目前境外企业无法备案,需要在国内(港澳台地区除外)设立分公司持有国家认可的单位证件才能进行备案。(建议境外企业考虑使用中国香港服务器,使用中国香港服务器无需备案) 10 、备案专有名词 一级域名:一级域名也叫顶级域名,abc.com为一级域名,a.abc.com为二级域名;abc.edu.cn也是一级域名,因为edu.cn本身也是一个域名后缀。 主体:办理备案的个人或者单位均称为备案主体 接入商:提供网站搭建平台并协助您办理备案的即为接入商 主体负责人:单位办理备案时填写的主办单位负责人,一般建议填写公司法人 网站负责人:单位办理备案时填写的网站负责人,负责网站建设等工作,可以填写法人也可以根据实际情况填写相关负责人
        来自:
        帮助文档
        ICP备案
        备案介绍
        备案基础知识
      • 通过应用托管部署OpenClaw(原Clawdbot)
        使用前准备 1.天翼云账号注册:使用应用托管平台须具备天翼云官网账号。已有天翼云账号的直接登录即可,如无天翼云账号需先注册,注册流程可参考:注册账号。 2. 使用前提 (1)如需使用服务请先完成实名认证,请参考账号中心实名认证。 (2)如需使用按需服务,请确认账号余额≥100 元。 部署OpenClaw应用 步骤一:获取大模型API Key OpenClaw需要调用大模型能力,这里使用天翼云息壤模型推理服务。 1.访问天翼云息壤模型推理服务。 2.点击左侧菜单【服务接入】进入服务接入页面,点击【创建服务组】按钮,在创建服务组页面中选择“DeepSeekV3.2(正式版)”,提交表单。(新用户免费额度为2500万tokens,体验时间为2周) 3. 回到【服务接入】页面,复制您的 APP Key 以供使用。 步骤二:订购并部署 OpenClaw 应用 1. 登录应用托管控制台,选择左侧菜单【应用市场】,点击进入对应页面。 2. 在应用市场页面,选择目标应用,点击【开启应用】,进入应用部署页面。 3. 填写获取的天翼云息壤模型推理服务APP KEY(填入息壤APIKEY),设置OpenClaw的网关密码(用于连接OpenClaw网关),选择访问策略,勾选同意用户协议,点击【部署应用】,即可完成OpenClaw应用服务部署。 访问策略:访问策略为服务的公网访问提供安全防护。应用需选择配置白名单访问策略(不支持黑名单访问策略),且白名单内IP数不超过10个,如没有可用的策略请新建。 白名单配置:点击【访问策略】注释行【去新建】,或直接在【应用访问策略】选择策略信息进行操作,编辑白名单配置,将您的IP地址添加到IP地址/网段,并点击确认即可(见下图)。 获取出口 IP 操作指引:可在官网文档【用户指南应用访问策略访问策略管理】中查看。 重要:建议开启白名单策略防护,避免公网全面暴露带来安全风险。 4.提交表单后进入应用实例列表页面,点击操作栏【访问】按钮,点击下拉访问链接,进入OpenClaw使用界面。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        通过应用托管部署OpenClaw(原Clawdbot)
      • 应用SQL审核
        SQL审核功能够对提交的SQL语句进行规范审查,并提供针对性的优化建议。这一功能有助于防止使用未建立索引或格式不规范的SQL语句,从而有效减少SQL注入的安全风险。 前提条件 组织版本为企业版。 目前仅支持MySQL、PostgreSQL、DRDS、Oracle数据库。 功能介绍 在项目开发阶段,业务逻辑和数据显示依赖于数据库的SQL操作。上线前,必须对所有SQL进行严格审核,以防不规范语句影响生产环境。为避免人工审核的低效和资源浪费,DMS提供了SQL审核功能,依据自定义安全规则提出优化建议,如设定表需有主键、主键类型限制等,以提高研发效率和保障数据库规范。SQL相关规则详细配置请参考SQL规范。 操作步骤 创建SQL审核工单 1. 登录DMS控制台。 2. 在左侧导航栏,选择SQL治理 > SQL审核 ,进入SQL审核管理页面。 3. 单击SQL审核按钮,弹出SQL审核工单填写界面,工单需要输入的内容说明见下表1。 4. 填写完SQL审核工单后,单击提交按钮,即完成工单的提交,进入SQL规范检查。 5. SQL审核工单检查通过之后,会自动进入审批流程。管理员将再次确认SQL,审批完成则工单流程结束。 表1 SQL审核工单输入内容说明 输入内容 说明 : 目标实例 必填项,选择执行SQL语句的目标实例,目前支持MySQL,PostgreSQL,DRDS,Oracle数据源。 目标数据库 选填项,选择执行SQL语句的目标数据库。如果未选中目标数据库,则会只检查“离线规则”,“在线规则”和“离线规则”详见 SQL规范。 关联人 选填项,选择需要看到此工单的用户名,关联人可在工单列表页面查看到此工单。 审核内容 必填项,上传或编辑审核内容。 注意 支持单个SQL文件、MyBatis框架XML文件或多文件打包成ZIP。单SQL/XML文件最大2M。ZIP不可超过20M,路径深度最大5层,最多包含200个文件。 如果上传文件为单文件,上传的文件内容将自动解析至输入框中,覆盖输入框内原有内容;如果上传文件为ZIP,上传的文件目录、文件名将自动展示到页面。 工单说明 描述工单备注内容。 说明 检查结果中如果有强制改进项,用户需要改进该项命中的SQL并重新检查通过之后,才能进入审批流程。 如果有建议改进项,不会阻断任务流程,但会出现改进建议。 强制改进和建议改进的定义,详见
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL治理
        应用SQL审核
      • 运维任务
        此小节介绍云堡垒机的运维任务。 支持分步骤同时对多个SSH协议资源批量执行多种运维操作,可同时运维操作包括执行命令、执行脚本、传输文件。 新建运维任务 云堡垒机支持自动运维任务功能,用户可按步骤自动执行命令和脚本方式运维多个目标资源,并可设置自动执行步骤将系统磁盘文件或本地文件快速上传到多个目标主机路径。此外,可设置执行周期和时间定期执行任务,并可同时执行多种任务步骤类型,实现多台资源设备自动化运维,提高运维效率。 运维任务执行后,按照步骤顺序依次自动执行操作,并返回执行结果。 约束限制 仅专业版云堡垒机支持快速运维功能。 仅支持对Linux主机(SSH协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 运维任务仅能由个人帐户管理,不能被系统内其他用户管理。 前提条件 已获取“运维任务”模块管理权限。 已获取资源访问控制权限,即已配置访问控制策略或访问授权工单已审批通过。 资源主机网络连接正常。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 运维任务 > 任务列表”,进入运维任务列表页面。 3 单击“新建”,弹出新建运维任务窗口。 4 配置任务基本信息。 运维任务基本信息参数说明 参数 说明 :: 任务名称 自定义的运维任务名称,系统内“任务名称”不能重复。 执行方式 选择运维任务执行的方式,包括“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 手动执行:手动触发执行任务。 定时执行:定期自动触发执行任务。仅执行一次。 周期执行:周期自动触发执行任务。可按周期执行多次。 执行时间 定期执行任务的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入任务执行周期。 可选择每分钟、每小时、每天、每周、每月。 需同时选择“结束时间”,否则将无限期按周期执行任务。 更多选项 (可选)用户对资源账户执行任务权限不够时,需勾选上“提权执行”,用户需在该主机资源的Sudoers文件下执行任务。 任务描述 简要描述运维任务信息。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建的SSH协议类型资源账户或帐户组。 配置执行资源账户 6 单击“下一步”,配置任务步骤。 单击“添加任务步骤”,选择添加任务类型“执行命令”、“执行脚本”或“传输文件”。 选择一个或多个任务类型,并配置任务参数。 运维任务步骤数不限制,一个任务可添加多个执行步骤。 7 单击“确定”,返回任务列表页面,查看新建的运维任务。 任务执行完成后,可以下载执行日志,获取任务执行结果。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        运维任务
      • (停止维护)CCE发布Kubernetes 1.19版本说明
        社区1.18 ReleaseNotes kubeapiserver apps/v1beta1 and apps/v1beta2下所有资源不再提供服务,使用apps/v1替代。 extensions/v1beta1下daemonsets,deployments,replicasets不再提供服务,使用apps/v1替代。 extensions/v1beta1下networkpolicies不再提供服务,使用networking.k8s.io/v1替代。 extensions/v1beta1下podsecuritypolicies不再提供服务,使用policy/v1beta1替代。 kubelet redirectcontainerstreaming不推荐使用,v1.20会正式废弃。 资源度量端点/metrics/resource/v1alpha1以及此端点下的所有度量标准均已弃用。请转换为端点 /metrics/resource下的度量标准: scrapeerror > scrapeerror nodecpuusagesecondstotal > nodecpuusageseconds nodememoryworkingsetbytes > nodememoryworkingsetbytes containercpuusagesecondstotal > containercpuusageseconds containermemoryworkingsetbytes > containermemoryworkingsetbytes scrapeerror > scrapeerror 在将来的发行版中,kubelet将不再根据CSI规范创建CSI NodePublishVolume目标目录。可能需要相应地更新CSI驱动程序,以正确创建和处理目标路径。 kubeproxy healthzport和metricsport参数不建议使用,请使用healthzbindaddress和metricsbindaddress。 增加EndpointSliceProxying功能选项以控制kubeproxy中EndpointSlices的使用,默认情况下已禁用此功能。 kubeadm kubeadm upgrade node的kubeletversion参数已弃用,将在后续版本中删除。 kubeadm alpha certs renew命令中useapi参数已弃用。 kubedns已弃用,在将来的版本中将不再受支持。 kubeadmconfig ConfigMap中存在的ClusterStatus结构体已废弃,将在后续版本中删除。 kubectl dryrun不建议使用boolean和unset values,新版本中serverclientnone会被使用。 kubectl apply serverdryrun已弃用,替换为dryrunserver。 addons 删除clustermonitoring插件。 kubescheduler schedulingdurationseconds指标已弃用。 schedulingalgorithmpredicateevaluationseconds和schedulingalgorithmpriorityevaluationseconds指标已弃用,使用frameworkextensionpointdurationseconds[extensionpoint"Filter"]和frameworkextensionpointdurationseconds[extensionpoint"Score"]替代。 调度器策略AlwaysCheckAllPredicates已弃用。 其他变化 k8s.io/nodeapi组件不再更新。作为替代,可以使用位于k8s.io/api中的RuntimeClass类型和位于k8s.io/clientgo中的generated clients。 已从apiserverrequesttotal中删除“client”标签。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.19版本说明
      • 安全运营中心
        SOC和SIEM 如果没有SIEM,SOC将很难完成其任务。新式SIEM提供: 日志聚合:SIEM会收集日志数据并关联警报,分析人员可使用这些信息来检测和搜寻威胁。 上下文:SIEM跨组织中的所有技术收集数据,所以它帮助将单个事件之间的点连接起来,识别复杂的攻击。 减少警报数:SIEM使用分析和AI来关联警报并识别最严重的事件,从而减少用户需要审查和分析的事件数。 自动响应:内置规则使SIEM能够识别和阻止可能的威胁,无需人员交互。 说明 另请务必注意,单靠SIEM不足以保护组织。用户需要将SIEM与其他系统集成,为基于规则的检测定义参数,并评估警报。正因为如此,定义SOC策略和聘用适当的员工至关重要。 SOC解决方案 有多种解决方案可用来帮助SOC保护组织。最佳解决方案协同工作,跨本地和多个云提供完整覆盖范围。云安全提供全面的解决方案,来帮助SOC消除覆盖范围方面的差距,并获得其环境的360度视图。态势感知(专业版)检测和响应解决方案集成,为分析师和威胁搜寻者提供查找和遏止网络攻击所需的数据。 常见问题 1. 安全运营中心团队要做什么? SOC团队监视服务器、设备、数据库、网络应用程序、网站和其他系统,以实时发现潜在威胁。及时了解最新威胁并在攻击者利用系统或进程漏洞之前发现和解决这些漏洞,以执行主动安全工作。如果企业/组织已然遭受到攻击,SOC 团队负责根据需要去除威胁以及还原系统和备份。 2. 安全运营中心的关键组件是什么? SOC由有助于保护组织免受网络攻击的人员、工具和流程组成。为了实现其目标,它执行以下功能:清点所有资产和技术、日常维护和准备、持续监视、威胁检测、威胁情报、日志管理、事件响应、恢复和修正、根本原因调查、安全优化和合规性管理。 3. 为什么企业/组织需要强大的SOC? 强大的SOC通过统一防御、威胁检测工具和安全流程来帮助企业/组织更高效和有效地管理安全性。与没有SOC的公司相比,具有SOC的企业/组织能够改进其安全流程、更快地应对威胁以及更好地管理合规性。 4. SIEM和SOC有什么区别? SOC是负责保护企业/组织免受网络攻击的人员、流程和工具。SIEM是SOC用于保持可见性和响应攻击的众多工具之一。SIEM汇总日志文件,并使用分析和自动化向决定响应方式的SOC成员揭示可信威胁。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全运营中心
      • HTTP3.0(QUIC)协议
        本文介绍HTTP3.0的工作原理和使用说明。 功能介绍 QUIC全称:Quick UDP Internet Connections,是一种实验性传输层网络协议,提供与TLS/SSL相当的安全性,同时具有更低的连接和传输延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 1. 传输层使用UDP,减少1个RTT三次握手的延迟。 2. 加密协议采用TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流的数据传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现瞬间卡顿。这是因为,TCP采用四元组(包括源站IP、源站端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态地增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTP3.0(QUIC)协议
      • QUIC在短视频场景下的最佳实践
        本文简述QUIC协议在短视频场景下的最佳实践。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC协议的优势 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用:QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移:什么是连接迁移?举个例子,当您用手机使用蜂窝网络参加远程会议,当您把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源地址、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制:QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC):QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率。 (0,60) 节点 60秒 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率。 (0,60) 节点 60秒 rds003bytesin 数据写入量 该指标用于统计测量对象对应VM的网络发送字节数,取时间段的平均值 暂无 节点 60秒 rds004bytesout 数据传出量 该指标用于统计测量对象对应VM的网络接受字节数,取时间段的平均值 暂无 节点 60秒 rds014iops 数据磁盘每秒读写次数 该指标用于统计测量对象的节点数据磁盘每秒读写次数,该值为实时值。 暂无 节点 60秒 rds016diskwritethroughput 数据磁盘写吞吐量 该指标用于统计测量对象的节点数据磁盘每秒写吞吐量,该值为实时值。 暂无 节点 60秒 rds017diskreadthroughput 数据磁盘读吞吐量 该指标用于统计测量对象的节点数据磁盘每秒读吞吐量,该值为实时值。 暂无 节点 60秒 rds020avgdiskmsperwrite 数据磁盘单次写入花费的时间 该指标用于统计测量对象的节点数据磁盘单次写入花费的时间,取时间段的平均值。 暂无 节点 60秒 rds021avgdiskmsperread 数据磁盘单次读取花费的时间 该指标用于统计测量对象的节点数据磁盘单次读取花费的时间,取时间段的平均值。 暂无 节点 60秒 iobandwidthusage 磁盘io 带宽占用率 当前磁盘io带宽与磁盘最大带宽比值 NA 节点 60秒 iopsusage IOPS 使用率 当前iops与磁盘最大iops比值 NA 节点 60秒 rds005instancediskusedsize 实例数据磁盘已使用大小 该指标用于统计测量对象的实例数据磁盘已使用大小,该值为实时值。 暂无 实例 60秒 rds006instancedisktotalsize 实例数据磁盘总大小 该指标用于统计测量对象的实例数据磁盘总大小,该值为实时值。 暂无 实例 60秒 rds007instancediskusage 实例数据磁盘已使用百分比 该指标用于统计测量对象的实例数据磁盘使用率,该值为实时值。 (0, 60%) 实例 60秒 rds035bufferhitratio buffer 命中率 该指标用于统计数据库buffer命中率。 (95,100) 实例 60秒 rds036deadlocks 死锁次数 该指标用于统计数据库发生事务死锁的次数,取该时间段的增量值。 (0,1) 实例 60秒 rds048P80 80% SQL的响应时间 该指标用于统计数据库80% SQL的响应时间,该值为实时值。 (0,150000) 实例 60秒 rds049P95 95% SQL的响应时间 该指标用于统计数据库95% SQL的响应时间,该值为实时值。 (0,200000) 实例 60秒 rds008diskusedsize 磁盘已使用大小 该指标用于统计测量对象的节点数据磁盘使用值,该值为实时值。 NA 组件 60秒 rds009disktotalsize 磁盘总大小 该指标用于统计测量对象的节点数据磁盘总大小,该值为实时值。 NA 组件 60秒 rds010diskusage 磁盘已使用百分比 该指标用于统计测量对象的节点数据磁盘使用率,该值为实时值。 80 组件 60秒 rds024currentsleeptime 主机流控时间 该指标用于统计测量对象的主机流控时间,该值为实时值。 1 组件 60秒 rds025currentrto 备机RTO时间 该指标用于统计测量对象的主备复制的RTO,该值为实时值。 60 组件 60秒 rds026logincounter 用户登入次数/秒 该指标用于统计CN节点上每秒的登入次数,取时间段的平均值。 1000 组件 60秒 rds027logoutcounter 用户登出次数/秒 该指标用于统计CN节点上每秒的登出次数,取时间段的平均值。 1000 组件 60秒 rds028standbydelay 备机redo进度 该指标用于统计分片内备机redo进度,表示备机和主机的差距,该值为实时值。 200MB 组件 60秒 rds030waitratio 锁等待状态会话比率 该指标用于统计当前处于锁等待状态会话占活跃工作状态下会话比率,该值为实时值。 50 组件 60秒 rds031activeratio 活跃会话率 该指标用于统计当前处于活跃工作状态会话占总会话数比率,该值为实时值。 20 组件 60秒 rds034inusecounter CN连接数 该指标用于统计CN连接池中正在使用的连接数,该值为实时值。 80 组件 60秒 rds037commitcounter 用户提交事务数/秒 该指标用于统计用户每秒提交的事务数,取时间段的平均值。 50000 组件 60秒 rds038rollbackcounter 用户回滚事务数/秒 该指标用于统计用户每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds039bgcommitcounter 后台提交事务数/秒 该指标用于统计后台每秒提交的事务数,取时间段的平均值。 5000 组件 60秒 rds040bgrollbackcounter 后台回滚事务数/秒 该指标用于统计后台每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds041respavg 用户事务平均响应时间 该指标用于统计用户事务的平均响应时间。 10ms 组件 60秒 rds042rollbackratio 用户事务回滚率 该指标用于统计用户事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds043bgrollbackratio 后台事务回滚率 该指标用于统计后台事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds044ddlcount data definition language 该指标用于统计用户负载在query层的DDL数量,取时间段的平均值。 10 组件 60秒 rds045dmlcount data manipulation language/min 该指标用于统计用户负载在query层的DML数量,取时间段的平均值。 50000 组件 60秒 rds046dclcount data Control Language/min 该指标用于统计用户负载在query层的DCL数量,取时间段的平均值。 10 组件 60秒 rds047ddldclratio DDL+DCL比率 该指标用于统计用户负载在query层的DDL+DCL占DDL+DCL+DML的比率,取时间段的平均值。 5 组件 60秒 rds050ckptdelay 待落盘的数据量 该指标用于统计信息同步到磁盘过程中待落盘的数据量,该值为实时值。 200MB/s 组件 60秒 rds051phyrds 读物理文件的IO次数/秒 该指标用于统计数据库每秒读物理物件的IO次数,取时间段的平均值。 20000 组件 60秒 rds052phywrts 写物理文件的IO次数/秒 该指标用于统计数据库每秒写物理物件的IO次数,取时间段的平均值。 10000 组件 60秒 rds053onlinesession 在线会话数量 该指标用于统计当前在线的session个数,该值为实时值。 NA 组件 60秒 rds054activesession 活跃会话数量 该指标用于统计当前所有活跃工作状态下会话个数,该值为实时值。 NA 组件 60秒 rds055onlineratio 在线会话率 该指标用于统计CN(分布式)/主DN(主备版)上的在线会话比例,该值为实时值 NA 组件 60秒 rds060longrunningtransactionexectime 数据库最长事务的执行时长 该指标用于统计测量对象的数据库最长事务的执行时长, 该值为实时值。 NA 组件 60秒 rds066replicationslotwallogsize 复制槽保留的WAL日志大小 该指标用于统计主DN上复制槽中保留的WAL日志的大小, 该值为实时值。 NA 组件 60秒 rds067xloglsn xlog速率 该指标用于统计CN或者DN上xlog的速率, 该值为实时值。 NA 组件 60秒 rds068swapusedratio 交换内存使用率 该指标用于描述操作系统交换内存使用率,该值为实时值。 NA 节点 60秒 rds069swaptotalsize 交换内存总大小 该指标用于描述操作系统交换内存总大小,该值为实时值。 NA 节点 60秒
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        监控与告警
        监控指标
      • 云日志服务C SDK
        本文主要介绍云日志服务C SDK接入指南。 1. 前言 安装使用C SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能,目前支持日志同步上传。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装C 运行环境。 2.2. 下载及安装 下载ctyunltscsdk.zip压缩包,放到相应位置后并解压。“ctyunltscsdk”目录中sampleputlogs.c为SDK的使用示例代码。 2.2.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel(7.6.1) openssldevel (1.1.1k) protobufc(1.3.06.el8) lz4(v1.8.3) jsonc(0.13.12.el8) 对于 CentOS 安装,可用如下命令搭建依赖环境。 plaintext yum install gccc++ yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufcdevel.x8664 yum install jsoncdevel.x8664 2.2.2. 编译使用 1、进入ctyunltscsdk目录下,里面有CMakelists.txt文件。 2、执行build.sh,其包含以下命令。 plaintext !bin/bash generate .pbc.c .pbc.h from .proto protocc protopath./protoc cout./ common.proto resource.proto logs.proto echo "generate 6 file (commonresourcelogs).(pbc.cpbc.h)" mkdir build cd build cmake install location is .. cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pbc.c、.pbc.h,以及动态链接构建出库文件libltssdk.a,存放在lib目录下。 3、将ctyunltscsdk目录下的头文件,全部移动到您项目的对应目录下,(如果直接使用SDK 则可以不用移动)。 4、之后你就可以在你的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件, 如sampleputlogs.c。 plaintext gcc sampleputlogs.c o sampleputlogs I./ L./lib/ lltssdk lssl llz4 lcurl lprotobufc lcrypto ljsonc 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行你的可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 什么是QUIC协议
        本文简述什么是QUIC协议。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 优势1:握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 优势2:避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 优势3:支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 优势4:可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 优势5:前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        QUIC协议
        什么是QUIC协议
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • QUIC协议
        本文介绍QUIC协议的工作原理、应用场景、支持的QUIC类型、注意事项及配置说明等。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于HTTP协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 握手建连更快:QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        QUIC协议
      • 操作类
        扩大带宽是否会对DRS正在进行中的任务产生影响 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。 为什么MariaDB和 SysDB下的数据不迁移 由于某些MariaDB的版本把SysDB库作为其系统库(类似于MySQL官方版5.7的sys库),所以DRS默认也将SysDB作为所有MariaDB的系统库来处理(等同于MySQL、informationschema、performanceschema等库)。如果SysDB确实是业务库,您可以通过工单申请处理。 多对一的场景约束及操作建议 因业务需要,不同实例、不同表的数据需要进行合并时,数据复制服务提供的数据迁移支持多对一的场景。 操作建议 为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。 每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • 约束与限制
        本章节主要介绍翼MapReduce的约束与限制。 使用MRS前,您需要认真阅读并了解以下使用限制。 MRS集群必须创建在VPC子网内。 建议使用支持的浏览器登录MRS。 Google Chrome:36.0及更高版本。 Internet Explorer:9.0及更高版本。 当使用Internet Explorer 9.0时可能无法登录MRS管理控制台,原因是某些Windows系统例如Win7旗舰版,默认禁止Administrator用户,Internet Explorer在安装时自动选择其他用户如System用户安装,从而导致Internet Explorer无法打开登录页面。请使用管理员身份重新安装Internet Explorer 9.0或更高版本(建议),或尝试使用管理员身份运行Internet Explorer 9.0。 创建MRS集群时,支持自动创建安全组,也可从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组。否则可以能导致集群异常,影响MRS集群的使用。 MRS集群使用的安全组请勿随意放开权限,避免被恶意访问。 请勿随意执行如下操作,避免集群进入异常状态,影响MRS集群的使用。 −在ECS中对MRS集群的节点进行关机、重启、删除、变更OS、重装OS和修改规格等操作。 −删除集群节点上已有的进程、安装的应用程序和文件。 集群处于非人为异常状态时,可以联系技术支持人员,技术支持人员征得您同意后会请您提供相关信息,登录MRS集群进行问题排查。 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间。以防止存储空间不足影响节点正常运行。 集群节点仅用于存储用户业务数据,非业务数据建议保存在对象存储服务或其他弹性云服务器中。 集群节点仅用于运行MRS集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。 MRS集群的节点(包含Master,Core和Task节点)扩充存储容量时,不建议通过扩容原有磁盘的方式实现。建议通过创建磁盘再挂载的方式实现。 MRS集群扩容(包含存储能力和计算能力)时,可以通过增加Core节点或者Task节点的方式实现。 当关闭集群中的某一个Master节点后仍然使用集群执行任务或修改配置,且任务执行或配置修改后未启动被关闭的Master节点就关闭集群中其他Master节点时,存在由于主备倒换导致的数据丢失风险。在该场景下,请在任务执行或配置修改后先启动被关闭的Master节点,再关闭全部节点。若集群中节点已经被全部关闭,请按照节点关机顺序的倒序启动集群节点。 当使用MRS集群过程中进行Capacity和Superior调度器切换时只完成调度器的切换,不保证配置同步。如果您需要配置同步,请基于新的调度器重新配置。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        约束与限制
      • 漏洞扫描
        本文将介绍如何使用边缘安全加速平台安全与加速服务的漏洞扫描功能。 功能介绍 通过天翼云监测系统平台,在无需用户采购任何Web应用扫描产品前提下,即可获得网站的漏洞态势,以及每个漏洞的详情介绍和修补建议,方便及时作出处置。 支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 开通套餐为免费版及以上版本。 说明 默认脱敏显示您的联系方式等敏感信息,点击明文显示时,请您注意保护数据安全! 新增漏洞扫描任务 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【网站风险监测】菜单,并在左侧域名列表选择您要扫描的域名。 3. 支持两种配置扫描任务方式。 4. 如果您需要快速复制其他域名的扫描任务,可单击【域名资产概况】中的【快速配置监测任务】。 5. 如果您需要新增扫描任务,单击【新增】按钮。 配置项说明: 配置项 说明 任务名称 用户可自定义任务名称,支持中文、英文、数字、下划线,最长30个字符。 任务开关 用户开启或者关闭任务。 监测任务等级 扫描漏洞范围: 高危:监测站点是否有命令执行,SQL注入,XML注入,目录遍历与目录穿越,跨站脚本漏洞,反序列化漏洞等。 中危:监测站点是否有敏感数据泄漏,用户凭证明文传输,错误的安全配置等。 低危:监测站点有无TLS传输防护,cookie未受httponly保护等。 监测URL 扫描任务开始扫描的url,从该url开始访问,逐层扫描。 比如:起始url: 则: 一级链接表示: 等; 二级链接表示: 等; 三级链接表示: 等。 监测排除URL 设置不需要扫描的URL,如 http(s)://www.ctyun.cn/xxx 不进行漏洞检测。 定义HTTP头部 如果扫描域名需要登录,需要设置可获取登录凭证Header以自定义设置登录凭据。 接口扫描 如果包含API接口需要上传扫描对应的api接口文件。 监测计划 立即检测:任务创建完立即进行漏洞检测,不再重复执行检测 ; 单次:任务创建完在指定时间进行漏洞检测,检测完成即任务结束,不再重复执行检测 每天:任务创建完任务在每天指定时间进行检测 每周:任务创建完任务在指定周几的指定时间进行检测 每月:任务创建完任务在指定日期的指定时间进行检测 通知方式 支持邮件和短信通知。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        网站风险监测
        漏洞扫描
      • 安装与配置
        配置SSH登录IP白名单 SSH登录IP白名单功能是防护帐户爆破的一个重要方式,主要是限制需要通过SSH登录的服务器。 单一账号最多可添加10个SSH登录IP白名单。配置了白名单的服务器,只允许白名单内的IP通过SSH登录到服务器,拒绝白名单以外的IP。 启用该功能时请确保将所有需要发起SSH登录的IP地址都加入白名单中,否则您将无法SSH远程登录您的服务器。若您的业务需要访问主机,但不需要SSH登录,则可以不用添加到白名单。 IP加入白名单后,帐户破解防护功能将不再对来自白名单中的IP登录行为进行拦截,该IP对您加入白名单的服务器登录访问将不受任何限制,请谨慎操作。 1、选择“安装与配置 > 安全配置 > SSH登录IP白名单”,单击“添加白名单IP”。 2、在弹出的对话框中输入“白名单IP”,勾选需要生效的云服务器,可勾选多个服务器,确认无误单击“确认”,添加操作完成。 说明 “常用登录IP”必须填写公网IP或者IP段。如果设置的非公网IP地址,您将无法SSH远程登录您的服务器 单次只能添加一个IP,若需添加多个IP,需重复操作添加动作,直至全部IP添加完成。 3、返回“安装与配置 > 安全配置 > 常用登录IP”页面查看是否已新增,出现新增表示添加成功。 开启恶意程序隔离查杀 开启恶意程序隔离查杀后,HSS对识别出的后门、木马、蠕虫等恶意程序,提供自动隔离查杀功能,帮助您自动识别处理系统存在的安全风险。 1、选择“安装与配置 > 安全配置 > 恶意程序隔离查杀”,分别单击“恶意程序隔离查杀”和“恶意软件云查杀”的开关,开启“恶意程序隔离查杀”和“恶意软件云查杀”。 开启后将应用至企业主机安全全局服务器,但部分检测能力受主机安全配额版本的限制无法运行,若需正常使用,建议您开启企业版及以上版本更好的体验隔离查杀功能。 2、在弹出的对话框中单击“确认”,开启“恶意程序隔离查杀”和“恶意软件云查杀”。 自动隔离查杀有可能发生误报。您可以在企业主机安全控制台“入侵检测”页面中,选择“事件管理”页签,查看被隔离的恶意程序。在此您可以对指定的恶意程序执行取消隔离、忽略等操作。 程序被隔离查杀时,该程序的进程将被立即终止,为避免影响业务,请及时确认检测结果,若隔离查杀有误报,您可以执行取消隔离/忽略操作。 在“恶意程序隔离查杀”界面,如果不开启“恶意程序隔离查杀”功能,当HSS检测到恶意程序时,将会触发告警。 您可以在“入侵检测”的“安全告警事件”中,查看“恶意程序”中的告警信息,并对恶意程序进行隔离查杀。
        来自:
        帮助文档
        企业主机安全
        快速入门
        开启HSS防护
        安装与配置
      • 短视频场景下的QUIC实践
        本文介绍QUIC协议在短视频加速的应用实践。 背景信息 QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。Google推出的QUIC被称为GQUIC,IETF制定的QUIC称为IQUIC。 QUIC的主要优势如下: 1. 握手建连更快。 2. 避免队首阻塞的多路复用。 3. 支持连接迁移。 4. 可插拔的拥塞控制。 5. 前向纠错(FEC)。 协议详细介绍,详情请见:HTTP3.0(QUIC)协议。 适用场景 1. 图片业务:可降低图片加载时间。 2. 短视频业务:可提升视频秒开率,并且降低弱网环境卡顿率。 3. 直播业务:可提升播放稳定性,降低因网络波动带来的卡顿率。 如何验证CDN已开启QUIC功能 QUIC协议暂不支持客户自助开启,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 QUIC属于双边协议,需要客户端同步支持。如您已开通QUIC功能,可以使用Chrome浏览器或者基于Chrome内核的浏览器来访问对应网站域名,并在浏览器开启开发者工具进行抓包验证。目前较新版本的Chrome浏览器已默认开启QUIC。 一般情况下,Chrome浏览器和服务器端协商使用QUIC协议要经过如下步骤: 1. 首次访问,客户端会先发起正常的TCP请求。 2. 服务端如果支持QUIC,会通过响应头部返回altsvc信息告知客户端自己支持QUIC及对应版本(如下图),其含义是服务器在443端口开启QUIC,最大缓存时间是2592000秒(30天),支持的QUIC版本IQUIC。 3. 下次访问,客户端会同时发起TCP连接和QUIC连接进行竞速。 4. 一旦QUIC竞速连接获胜,则后续会采用QUIC协议发送请求,如果在浏览器进行抓包(快捷键F12打开开发者工具),可在Protocol列查看其具体的协议,如下图所示,这里显示的h3即表示采用的是IQUIC。 注意 如果没有Protocol列,右键点击Header Options,勾选Protocol列即可。 5. 如遇网络或服务器不支持QUIC,客户端标记QUIC为broken。 6. 传输中的QUIC请求立即用TCP进行重发。 7. 5min后尝试重试QUIC,下一次尝试增大到10min。 8. 一旦再次成功采用QUIC,会把broken标记取消。
        来自:
        帮助文档
        CDN加速
        最佳实践
        短视频场景下的QUIC实践
      • Windows 客户端–单机版
        本节主要介绍Windlow客户端挂载HBlock单机版的卷。 1. 准备客户端操作系统 推荐使用win10、windows server 2012R2、windows server 2016R2等高版本的Windows操作系统,这些系统中自带了“iSCSI发起程序”,无需单独安装组件。 不同版本的客户端支持单卷容量不同,请参考下表: Windows版本 Block Size 单卷最大容量 Windows Server 2008R2 512 bytes / 4KiB 256 TiB Windows Server 2012R2 512 bytes / 4KiB 256 TiB Windows Server 2016 512 bytes / 4KiB 256 TiB Windows 10 512 bytes / 4KiB 1 PiB 2. 运行iSCSI发起程序 Windows客户端运行iSCSI发起程序,在“开始”>“搜寻程序和文件”输入“iSCSI”打开iSCSI发起程序,如下图所示: 1. 配置iSCSI发起程序 在“发现”>“发现门户”中输入服务器IP和端口,如下图所示: 在“目标”>“已发现目标”中搜索到HBlock发布的iSCSI target,查看到状态是“不活动”,点击“连接”,如下图所示: 2. 启用CHAP认证 若您的iSCSI target有开启CHAP认证,在弹出的连接到目标的对话框中,选择“高级”,如下图所示(没有开启请忽略此步骤直接连接即可): 勾选“启用CHAP登录”,在“名称”中输入在HBlock系统中设置的iSCSI认证的用户名,在“目标机密”中输入设置的iSCSI认证的密码,然后点“确定”。如下图所示: 3. 客户端使用iSCSI共享磁盘 打开“服务器管理器”>“存储”>“磁盘管理”,将刚刚连接成功的状态是“脱机”的磁盘“联机”。 然后“初始化”,再“新建卷”,指定盘符并格式化,如下图所示。 注意 如果卷容量小于等于2TiB时,可以使用MBR和GPT中的任意一种进行分区;如果卷容量大于2TiB,只能使用GPT分区。 打开“计算机”,可以看到新增的磁盘的盘符和容量,此时可以按使用本地磁盘的习惯使用HBlock发布的iSCSI磁盘了。如下图所示: 注意 如果客户端需要断开连接或者删除磁盘,需要先打开“服务器管理器”>“存储”>“磁盘管理”,点击磁盘右键进行“脱机”,然后在“iSCSI发起程序”中“断开iSCSI连接”。 如果客户端需要断开连接后再次接入,无需进行初始化、新建卷操作,重新连接后即可看到磁盘。 如果想查询HBlock卷对应的磁盘,可以在客户端输入下列命令行查询。 plaintext wmic diskdrive get Name, Manufacturer, Model, InterfaceType, MediaType, SerialNumber 如下例所示,查询信息Name列对应的盘符号,对应“磁盘”上的“数目”列。SerialName对应HBlock的卷名称和uuid。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        客户端操作
        Windows 客户端–单机版
      • 网站登录设置
        本节介绍网站登录设置方法。 操作场景 该任务指导用户通过漏洞扫描服务进行网站登录设置,修改网站信息。 如果您的网站页面需要登录才能访问,必须进行网站登录设置,以便VSS能为您发现更多安全问题。VSS提供了两种登录方式,请您根据您的网站访问限制条件选择登录方式: 方式一:账号密码登录。 如果您的网站仅需要账号密码就可以登录访问,设置方式一即可。 方式二:cookie登录。 如果您的网站除了需要账号密码登录,还有其他的访问限制,如需要输入“动态验证码”,必须选择方式二,设置cookie登录。 注意 若没有cookie,请在“高级配置”中,通过添加自定义Header的方式进行登录扫描。 若没有cookie,也没有自定义Header,则VSS不支持扫描该网站。 以上登录方式根据网站访问情况可二选一。 前提条件 已获取管理控制台的登录帐号与密码。 已添加域名。 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描服(专业版)”,进入漏洞扫描服务页面。 3. 在“资产列表 > 网站”页签,单击对应的网站信息“操作”列的“编辑”。 4. 进入网站登录设置入口,如下图所示。 5. 在域名编辑页面,根据需要修改“网站信息”和“网站登录设置”,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 网站信息修改 域名/IP地址 未认证的域名可修改。 说明 VSS不支持修改已认证域名的“域名/IP地址”,如需修改,请删除域名后,重新创建新的域名。 域名别称 自定义的域名名称,可修改。 网站登录设置 如果您的网站页面需要登录才能访问,请您进行登录设置,以便VSS能为您发现更多安全问题。 如果您的网站仅需要账号密码就可以登录访问,设置方式一即可。 如果您的网站除了需要账号密码登录,还有其他的访问限制,如需要输入动态验证码,必须设置方式二。 “登录方式一:账号密码登录” 登录页面 网站登录页面的地址。 用户名 登录网站的用户名。 密码 用户名的密码。 确认密码 再次输入用户名的密码。 “登录方式二:cookie登录” cookie值 输入登录网站的cookie值。 说明 若使用cookie登录时,没有获取到cookie值,您可以在“高级配置”中通过添加自定义Header的方式进行登录。 添加自定义Header时,请获取会话相关的HTTP请求头。常见的如:带有Token或Session字样的HTTP请求头。 验证登录网址 登录成功后才能访问的网址,便于VSS快速判断您的登录信息是否有效。 “高级配置” 自定义Header 配置HTTP请求头部。最多可添加5个自定义HTTP请求头。 当待扫描的网站需要请求中附带特殊的HTTP请求头时,可以通过自定义Header进行设置。 6. 单击“确认”。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        网站漏洞扫描
        网站登录设置
      • 1
      • ...
      • 180
      • 181
      • 182
      • 183
      • 184
      • ...
      • 255
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      训推服务

      公共算力服务

      科研助手

      一站式智算服务平台

      推荐文档

      全面了解天翼云⑤:勒索病毒尝试处理方案

      产品定义

      变更规格通用操作

      错误日志

      云课堂 第十五课:解析天翼云IPsec VPN和SSL VPN的

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号