活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云下一代防火墙_相关内容
      • 创建虚拟私有云VPC
        参数 说明 取值样例 资源类型 创建VPC支持两种资源类型: (1)VPC:包含VPC、子网、网关等基本网络要素配置 (2)VPC和扩展选项:除了VPC基本网络要素配置之外还可以创建ZOS终端节点、关联DHCP选项集。通过ZOS终端节点可以实现内网对ZOS的便捷访问。 VPC 名称 VPC名称 VPC001 VPC网段(IPv4) VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。建议使用网段:10.0.0.0/828、172.16.0.0/1228、192.168.0.0/1628。如果要使用其他网段,请参考 192.168.0.0/16 VPC网段(IPv6) 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见 开启 IPv6地址类型 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线。 中国电信单线 VPC IPv6地址段 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 可以为VPC实例关联企业项目 project1 VPC描述 备注信息 测试VPC 子网配置 子网类型 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见 普通子网 子网名称 子网的名称 Subnet001 子网网段(IPv4) 子网的地址范围,需要在VPC的地址范围内 192.168.0.0/24 网关(IPv4) 子网的网关,默认为子网内第一个可用IP。 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见 192.168.0.1 DHCP(IPv4) 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见 192.168.0.2 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,但您不能选择IPv6地址范围 开启 子网IPv6地址段 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见 自动分配 DNS服务器地址 部分可用区资源池默认值为100.95.0.1,该地址为天翼云DNS服务的地址,支持解析内网域名和公网域名;其他资源池默认值为114.114.114.114、8.8.8.8 100.95.0.1 子网描述 备注信息 测试子网
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟私有云VPC管理
        创建虚拟私有云VPC
      • 同账号不同资源池文件系统之间的迁移
        本文主要介绍基于天翼云弹性文件服务,如何在同账号不同资源池之间实现弹性文件系统之间的数据迁移。 应用场景 本文适用于同账号不同资源池文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。本文以北京5资源池和上海7资源池钟Linux云主机为背景,提供操作指导。 前提条件 已拥有两个NFS协议的弹性文件系统; 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 两个资源池的文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备工作 北京5资源池和上海7资源池分别创建一个文件系统和一台弹性云主机,具体操作请参考创建文件系统、创建弹性云主机。 将不同资源池中的文件系统分别挂载至对应资源池的弹性云主机上,具体操作请参考挂载NFS文件系统到弹性云主机 (Linux)。 操作步骤 不同资源池的两个弹性文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的弹性文件系统分别挂载到对应云主机 将弹性文件系统挂载至云主机中,这里设定上海7为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,北京5为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据 执行以下命令,将上海7弹性文件系统中的数据迁移到北京5中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在上海7中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至北京5的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        同账号不同资源池文件系统之间的迁移
      • 迁移方案说明
        迁移工具说明 工具/命令/服务 特点 说明 DCS控制台数据迁移功能 操作简单,同时支持全量同步+增量同步 数据迁移涉及到SYNC/PSYNC命令,当源Redis实例开放了SYNC/PSYNC命令时, 支持全量同步+增量同步,否则仅支持全量同步 Rediscli Redis自带命令行工具,支持将RDB文件、AOF文件整库导入 RedisShake 在线迁移和离线迁移均支持的一款开源工具。 自行开发迁移脚本 灵活,可根据实际场景进行定制化适配 迁移方案 说明 自建Redis,指的是在天翼云以外的服务器搭建的Redis实例。 在线迁移能力目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 迁移场景 工具 方案 迁移说明 自建Redis迁移至DCS DCS控制台数据迁移功能 使用在线迁移自建Redis 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(AOF文件) 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(RDB文件) 自建Redis迁移至DCS RedisShake 使用RedisShake工具迁移自建Redis Cluster集群 其他云厂商Redis服务迁移至DCS DCS控制台数据迁移功能 使用在线迁移其他云厂商Redis 其他云厂商Redis服务迁移至DCS RedisShake 使用RedisShake工具离线迁移其他云厂商Redis Cluster集群 DCS实例间迁移 DCS控制台数据迁移功能 低版本Redis迁移至高版本Redis实例。 如网络互通,建议使用在线迁移功能迁移Redis实例数据 如网络不通,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同Region的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同账号的Redis实例迁移,建议使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 同Region不同VPC下的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例迁移下云 DCS控制台数据迁移功能 DCS实例迁移下云 建议打通网络后,使用线迁移功能进行数据迁移
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 查看总览
        参数名称 参数说明 威胁告警 呈现近7天内本账号所有工作空间内未处理威胁告警,可快速了解资产遭受的威胁告警类型和数量,呈现威胁告警的统计结果。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了入侵事件,建议您立即查看告警事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常事件,建议您立即查看告警事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该告警事件的详情。 单击威胁告警模块,系统将列表实时呈现近7天内TOP5的威胁告警事件,可快速查看威胁告警详情,监控威胁告警状况。 列表呈现近7天TOP5的威胁告警事件的信息,包括威胁告警名称、告警等级、资产名称、告警发现时间。 若列表显示内容为空,表示近7天无威胁告警事件。 漏洞 展示您本账号所有工作空间内资产中TOP5漏洞类型,以及近7天内还未修复的漏洞总数和不同漏洞风险等级对应的数量。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 高危:即高危风险,表示资产中检测到了漏洞事件,建议您立即查看漏洞事件的详情并及时进行处理。 中危:即中危风险,表示资产中检测到了可疑的异常事件,建议您立即查看漏洞事件的详情并及时进行处理。 其他:即其他类型(低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该漏洞的详情。 单击漏洞模块中的“漏洞类型Top5”栏,系统将列表呈现TOP5(根据某个漏洞影响的主机数量进行排序)的漏洞类型。 此处的TOP等级是根据某个漏洞影响的主机数量进行排序,受影响主机数量越多排名越靠前。 仅当主机中Agent版本为2.0时,才会在“漏洞类型Top5”中显示对应数据。如未显示数据或需要查看TOP5漏洞类型,请将主机将Agent1.0升级至Agent2.0。 单击漏洞模块中的“实时监控最新漏洞风险事件 Top5”栏,系统将列表实时呈现近7天内TOP5的漏洞事件,可快速查看漏洞详情。 列表呈现当日最新TOP5漏洞事件详情,包括漏洞名称、漏洞等级、资产名称、漏洞发现时间。 若列表显示内容为空,表示当日无漏洞事件。 合规检查 展示您本账号所有工作空间内资产中存在的合规风险总数量和不同危险等级的合规检查风险对应的数量。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了不合规配置,建议您立即查看合规异常事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常配置,建议您立即查看合规检查事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常配置,建议您及时查看该合规检查项目的详情。 单击合规检查异常模块,系统将列表实时呈现TOP5的合规检查异常事件,可快速查看合规检查详情。 列表呈现最近一次合规检查中TOP的合规异常事件详情,包括合规检查项目名称、等级、受影响资产数量、发现时间。 若列表显示内容为空,表示近30天无合规异常事件。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        查看总览
      • 通过Annotation配置负载均衡类型的服务
        本文介绍如何通过Annotation配置负载均衡类型的服务。 通过在Service的Yaml文件中配置注解Annotation,您可以对天翼云负载均衡、监听转发等进行配置,本文介绍LoadBalancer类型Service支持配置的Annotation。 注解说明 注解名称 描述 示例 支持的CCM版本 ervice.beta.kubernetes.io/ctyunloadbalanceraddresstype 指定新建负载均衡的公网私网类型,取值: intranet:负载均衡地址类型为私网,intranet为默认值 internet:负载均衡地址类型为公网 internet v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerbandwidth 计费类型为“bandwidth”时,可指定带宽的大小,值为数字类型,默认为1 Mbps 5 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerchargetype 指定创建公网负载均衡时,公网的计费类型,取值: bandwidth:按带宽计费 traffic:按流量计费,traffic为默认值 traffic v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancercyclecount 指定负载均衡的计费周期,值为数字类型,表示购买月数,默认为1个月 1 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancereipid 指定新建公网负载均衡时,可指定绑定已有的弹性IP,取值为弹性IP的ID,可在网络控制台的弹性IP详情页面查看ID v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerenableipv6 指定新建负载均衡时,可指定开启负载均衡的ipv6 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerenablelistenernat64 指定支持ipv6的负载均衡时,可指定开启监听器的nat64,支持负载均衡将ipv6流量转发到ipv4的后端 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerid 指定已有负载均衡,取值为负载均衡实例的ID。删除service时该 ELB不会被删除 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6address 指定新建支持ipv6的负载均衡时,可指定负载均衡的ipv6地址(该地址为负载均衡所在子网的ipv6地址段中未被分配的ip),未指定则由系统随机分配 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6bandwidthid 指定新建支持ipv6的公网负载均衡时,需指定IPv6带宽ID,可在网络控制台的IPv6带宽详情页面查看ID。如果没有IPv6带宽,请先创建一个 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners 指定已有负载均衡时,可指定是否强制覆盖已有监听 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprojectid 指定新建负载均衡所属的企业项目,取值为企业项目ID,可在IAM控制台中企业项目详情查看ID 0 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprotocolport 指定负载均衡监听HTTP协议或HTTPS协议,可指定多个监听,多个监听之间以逗号“,”分割 https:443,http:80 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerspec 指定新建负载均衡的规格,如elb.s2.small elb.s2.small v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancersslcert 指定SSL证书,取值为SSL证书ID,可在负载均衡控制台的证书管理页面查看证书ID。 仅监听协议为HTTPS协议时需要指定 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerxforwardedfor 指定负载均衡监听器附加XForwardedFor头字段,通过开启该参数,后端服务可获取客户端源IP。取值为“true”或“false” 仅支持监听协议为HTTP和HTTPS协议 "true" v1.1.1及以上
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        通过Annotation配置负载均衡类型的服务
      • 添加日志转储
        本节主要介绍添加日志转储 AOM支持将日志转储到对象存储服务(Object Storage Service,简称OBS)的OBS桶中,以便进行长期存储。如果您有更长时间的日志存储需求,可添加日志转储。 AOM提供周期性转储和一次性转储两种转储方式,供您选择使用。 周期性转储 :将当前日志实时转储到OBS桶中,且以转储周期为粒度对1天的日志进行分割,同一时间段的日志将转储到其对应的日志文件中。例如,您需长久存储固定维度的日志,就可以选择周期性转储,操作详见添加周期性转储。 一次性转储 :将历史日志一次性转储到OBS桶的同一个.log日志文件中。 一次性转储类似于“日志搜索”界面的导出功能,“日志搜索”界面最多可导出5000条日志,当日志数量比较多导出功能无法满足需求时,可对指定日志进行一次性转储,操作详见添加一次性转储。 添加周期性转储 下面以组件为例对其日志进行周期性转储:需实时将组件当前新产生的日志实时转储到OBS桶obsstoretest的/home/Periodical Dump目录下,且将每3个小时的日志转储到其对应的日志文件中,可参考如下操作。 步骤 1 登录AOM控制台,在左侧导航栏中选择“日志 > 日志转储”。 步骤 2 单击右上角的“添加日志转储”,参考下表设置相关参数后,单击“确认”。 添加成功后,指定资源当前新产生的日志将会实时转储到OBS桶中。 组件当前新产生的日志会实时转储到OBS桶obsstoretest的/home/Periodical Dump目录下,且每3个小时的日志转储到其对应的日志文件中。 说明 周期性转储属于近实时转储,存在分钟级转储时延,时延与日志条数和日志大小有关,具体规格如下: 5分钟内累计日志条数大于1000条或日志大小超过2MB时,实时转储。 5分钟内累计日志条数小于1000条或日志大小不足2MB时,每5分钟转储。 步骤 3 将存储在OBS中的日志文件下载到本地,以供定位问题使用。 1. 在周期性转储列表中,单击待操作的OBS桶名称,进入OBS服务的“概览”页面。 2. 在左侧导航栏中单击“对象”,在“对象”页签中,找到存储在OBS中的日志文件,例如,192.168.0.74varpaassyslogapmcountwarn.log、192.168.0.74varpaassyslogapmdebugerro.trace。 转储到OBS桶中的日志文件路径: 日志文件路径与选择的“日志类型”有关,如下表所示。 转储到OBS桶中的日志文件路径 日志类型 日志文件存储路径 :: 组件 所属桶目录 > 日志分组名称 > 集群名称 > 组件名称 > 日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 例如,obsstoretest > home > Periodical Dump > loggroup1 > zhqtest0112n > als0320a > 20190322> 03。 主机 所属桶目录 > 日志分组名称 > CONFIGFILE > defaultappname >日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 系统 所属桶目录 > 日志分组名称 > 集群名称 > 日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 转储到OBS桶中的日志文件名称 :主机IPV4日志文件来源(将“/”替换为“”)日志文件名称,例如,192.168.0.74varpaassyslogapmcountwarn.log、192.168.0.74varpaassyslogapmdebugerro.trace。 3. 选中待下载的日志文件,单击右侧的“下载”,日志文件将下载到浏览器默认下载路径,如需要将日志文件保存到自定义路径下,请单击右侧的“下载为”。
        来自:
        帮助文档
        应用运维管理
        用户指南
        日志管理
        添加日志转储
      • 设置迁移目的端
        本章介绍如何设置迁移目的端。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。具体操作参见调整磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务,仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。具体规则请参见卷组和磁盘分区大小调整规则。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”并参见购买弹性云主机创建满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        设置迁移目的端
      • 计费类问题
        如何让云主机备份服务不再扣费? 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份策略。当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。后续将再无扣费产生。 如何停用云主机备份? 如您希望停用云服务器备份可前往云服务器备份界面进行如下操作: 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份/复制策略。 云主机备份无法直接关闭,可以通过上面的方法停用云主机备份。 为什么备份删除后还有扣费? 当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。云主机备份无法直接关闭,如您希望停用云主机备份,请参考如何停用云主机备份进行操作。 云主机备份后会同步云硬盘备份产生对应服务器的云硬盘备份,这个备份是怎么计算的? 如果备份的来源是云主机备份,就不收费。单独的云硬盘备份是收费的。 显示在云硬盘备份界面的云服务器备份是否会重复计费吗? 不会重复计费,云主机创建的云服务器备份也会出现在云硬盘备份界面,可以在备份详情的“来源”中识别云服务器备份。 云服务器备份实际上是对其中的每一个磁盘进行备份,这些磁盘的备份会同时在VBS备份列表展示,您可以直接在VBS使用这些备份恢复磁盘。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        计费类问题
      • 私网NAT网关
        私网NAT网关支持SNAT规则和DNAT规则共用一个中转IP吗? 支持,SNAT规则、DNAT规则可以共用同一个中转IP,实现服务开放和主动访问使用同一私网地址。 私网NAT网关是否支持网络ACL? 私网NAT网关本身不支持ACL,可以通过配置私网NAT后端的主机安全组和ACL来进行访问控制。 网络ACL:可以通过网络ACL来配置子网出入流量的规则,限制特定协议、端口或IP地址的访问,具体操作步骤请参见创建ACL。 安全组:安全组是一种虚拟防火墙,可以在弹性云主机中配置。通过安全组,可以定义允许和拒绝的流量规则,限制特定协议、端口或IP地址的访问,具体操作步骤请参见创建安全组。 私网NAT网关配置完成后,网络不通如何处理? 私网NAT网关配置完成后,网络不通可以通过以下步骤进行处理: 1. 检查私网NAT网关状态是否处于运行中,如果不是运行中,可以通过以下方法解除异常。 1. 私网NAT网关到期,显示已到期,可以点击续订,让私网NAT网关恢复正常。再次进行连接测试。 2. 私网NAT网关按需欠费后,会处于冻结状态,可以进行续费处理,让私网NAT网关恢复正常。再次进行连接测试。 2. 检查SNAT规则和DNAT规则配置是否正确。 1. 在SNAT规则配置页面确认SNAT规则是否已经配置生效,且确认弹性云主机在SNAT规则子网内,或源访问地址在SNAT规则的源地址段内。如果SNAT规则未配置正确则无法访问公网。如何配置SNAT规则,具体操作步骤请参见管理SNAT规则。 2. 在DNAT规则配置页面确认DNAT规则已经配置生效,DNAT规则配置未生效会访问不通。关于如何配置DNAT规则,具体操作步骤请参见管理DNAT规则。 3. 检查是否由于VPC路由表配置错误引起的,可以通过以下方法重新配置VPC路由表。 1. 找到VPC对应的子网关联的路由表。 2. 查看路由表是否有到私网NAT网关的路由,如果不包含,请添加对应的路由。具体操作步骤请参见管理私网NAT网关,再次进行连接测试。 4. 检查云主机安全组配置,如果安全组没有放通弹性云主机访问和对外提供服务使用的端口,需要在对应的安全组中添加放行该端口。 1. 点击云主机名称,进入云主机详情页,选择安全组页签,展开安全组规则。 2. 出方向放通所有端口,地址为0.0.0.0/0,入方向端口放通DNAT绑定的应用端口,具体操作步骤请参加添加安全组规则。再次进行连接测试。 5. 检查网络ACL设置,如果VPC的业务子网关联了网络ACL,可能导致网络不同。 1. 点击子网名称,进入子网详情页,选择ACL页签,查看是否有绑定网络ACL,检查入方向规则和出方向规则是否添加了放通子网流量的规则。 2. 如果未添加放通子网流量的规则,请添加入方向、出方向规则放通子网流量或者将网络ACL与子网取消关联。再次进行连接测试。 6. 检查私网NAT网关业务量是否超过规格上限。 1. 在云监控云服务监控中找到私网NAT网关名称,点击查看监控指标,查看私网NAT网关业务指标情况。 2. 如果超过上限,可以点击私网NAT网关操作栏的“变配”,变更私网NAT网关的规格。再次进行连接测试。 7. 检查弹性云主机端口,以CentOS为例可使用以下命令行查看端口监听是否正常。 1. netstat ntulp grep 云主机端口。 2. 如果端口没有被正常监听,请重新开启弹性云主机端口。 8. 如果上述排查后,网络依然不通,可以提交工单,联系技术支持人员帮助解决。
        来自:
        帮助文档
        NAT网关
        常见问题
        私网NAT网关
      • 部署HBlock
        本节主要介绍部署单机版HBlock。 部署HBlock的主要步骤为: 1. 安装前准备:准备一个或多个目录作为HBlock数据目录,安装HBlock的用户对这些目录有读写权限,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器或者龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock。 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { s server } { SERVERIP [:PORT ]:PATH & } [ { P publicnetwork } CIDR ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport6 MANAGEMENTPORT6 ] 说明 可以通过web、命令行和API进行初始化HBlock。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号。 ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] 说明 如果允许 iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询卷 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] [ { { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-单机版
        部署HBlock
      • 索引存储设置
        您可以根据实际情况,配置索引的存储节点信息,支持设置为Redis或MySQL类型。 注意事项 修改存储设置后,需要重新启动GiServer服务并重建索引。 启动GiServer也将重启该节点的DBProxy服务,启动期间该节点不可用,可能影响查询效率,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 在GiServer设置区域,根据实际情况,配置如下存储节点信息。 存储类型 设置为redis: 参数 描述 redis类型 Redis类型,取值范围: 单机版 集群版 host IP地址。 说明 单机版只能输入一个IP地址。 集群版可以输入多个IP地址,使用英文逗号(,)分隔,例如127.0.0.1,127.0.0.2。 port 端口号。 说明 只需输入一个端口号即可。 password 密码。 说明 只需输入一个密码即可。 minIdle 最小空闲连接数。 maxIdle 最大空闲连接数。 maxTotal 最大连接数。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 存储类型 设置为mysql: 参数 描述 使用已开通的RDS 是否使用已开通的MySQL实例。 如果您使用已开通的MySQL实例,则只需打开该开关,在选择MySQL 中配置目标MySQL实例,即可自动获取该MySQL实例的数据库IP 和数据库端口。 数据库IP 已部署MySQL数据库的机器IP地址。 注意 只有从Giserver能连接到MySQL数据库的机器IP地址才有效,建议输入与Giserver相同VPC下的IP地址。 数据库端口 MySQL数据库的访问端口。 数据库用户 MySQL数据库用户。 数据库密码 MySQL数据库的密码。 初始连接数 Giserver初始化时创建的数据库连接数(数据库连接池参数)。 最小空闲连接数 连接池里始终保持的最小空闲连接数。 说明 即使Giserver性能压力很小,连接池仍会保证至少可用的数据库连接数,以快速响应新请求。 最大活跃连接数 连接池里允许的最大并发连接数。 说明 通过限制连接池最多可以支持同时建立的数据库连接数,可以防止Giserver性能压力较大时,MySQL数据库因数据库资源耗尽或过载出现的异常。 获取链接超时时间(毫秒) Giserver从连接池中获取的MySQL数据库连接的最大等待时间。当超过等待时间,Giserver与MySQL数据库还未建立连接,则会报错。 索引查询超时时间(秒) DBProxy执行SQL查询时,使用全局索引的最大允许时间。当超过最大允许时间,DBProxy会跳过索引,使用广播查询。 元数据库名 MySQL数据库的元数据库名称。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 6. 单击检测,并等待检测通过。 注意 存储类型 设置为redis时,无法检测redis,请自行确保redis信息填写正确。 存储类型 设置为mysql 时,必须检测通过后,才能单击保存。 7. 单击保存。 8. 在确认启动GiServer节点 对话框中,确认启动的GiSever节点信息无误后,单击确认启动。 启动成功后,您可以在索引服务管理 页签下,查看已启动的GiServer节点信息,其中,节点初始化状态 为已初始化 、节点状态 为运行中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引存储设置
      • 创建终端节点服务
        本文将向您介绍创建终端节点服务的步骤,以便您根据实际需求进行操作。 操作场景 终端节点服务是将云服务或用户私有服务配置为VPC终端节点支持的服务。目前支持"接口"类型的终端节点服务的创建。 约束及限制 单个VPC可以创建终端节点服务实例数为20个。 单个终端节点服务可连接终端节点实例数为500个。 单个终端节点只能连接1个终端服务节点实例。 前提条件 在同一VPC内已创建了后端资源。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“网络>VPC终端节点”,进入“终端节点”页面。 4. 在左侧导航栏选择“终端节点服务”,点击“创建终端节点服务”。 5. 在“创建终端节点服务”页面根据“接口型”终端节点服务配置说明配置参数,点击“确定”完成创建。 “接口型”终端节点服务配置说明 参数 说明 地域 终端节点服务所在地域,页面左上角可切换地域。不同地域的资源之间内网不互通,为了最优化的性能,请选择靠近您的地域,以降低网络时延并提高访问速度。 名称 终端节点服务的名称。名称由数字、字母、中文、、组成,不能以数字、和开头。 VPC 终端节点服务所属虚拟私有云。 服务类型 终端节点服务的类型,当前支持“接口”类型终端节点服务。 IP地址类型 服务IP地址类型,IPV4:仅自持IPV4类型终端节点连接,实现IPV4地址私网访问服务,双栈:支持IPV4和IPV6类型终端节点连接,实现IPV4和IPV6地址的私网访问服务。选择双栈类型时,挂载的后端服务资源池必须也是双栈类型资源。 是否自动接收连接 是否自动接收终端节点与终端节点服务的连接,审核权由终端节点服务控制。 可选择“是”或“否”。选择“否”不自动接受连接,则创建的终端节点为“待审核”状态,需要终端节点服务审核后方可使用。 服务计费 是否开启服务计费,可选择“是”或“否”。 默认连接服务的终端节点费用有终端节点创建账户支付,如服务开启服务计费后,则连接服务的终端节点费用将由服务所在账户支付,功能仅创建时指定,服务创建后不可修改。 端口映射 终端节点服务与终端节点建立连接,支持通过TCP/UDP协议进行通信。 服务端口:终端节点服务绑定了后端资源,作为提供服务的端口。 终端端口:终端节点提供给用户,作为访问终端节点服务的端口。 服务端口和终端端口取值范围1~65535,单次操作最多可添加20条端口映射。 访问终端节点服务时,通过"终端端口 → 服务端口"的方式进行数据传输和通信。 后端资源类型 实际提供服务的后端资源。可创建为终端节点服务的后端资源包括: 云主机:作为服务器使用。 物理机:作为服务器使用。 虚拟IP:适用于需要主备高可靠的业务。 内网负载均衡:适用于高访问量业务和对可靠性和容灾性要求较高的业务。此处选择“内网负载均衡”。 说明:终端节点服务配置的后端资源所在安全组,安全组添加的规则是白名单,需要添加源地址为198.19.128.0/20的白名单入方向规则,详细操作请参考《虚拟私有云用户指南》中的添加安全组规则。 后端资源子网 选择后端资源所属的子网。 描述(可选) 可添加终端节点服务相关的描述。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        创建终端节点服务
      • 资产指纹
        功能项 功能描述 检测周期 帐号 检测主机系统中的帐号,列出当前系统的帐号信息,帮助用户进行帐户安全性管理。根据帐号的实时信息和历史变动,您可以快速排查主机中的可疑帐号。 帐号的实时信息包括帐号的“帐号名称”、“服务器数”以及具体帐号对应的“服务器名称/IP”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 帐号的历史变动记录包括“服务器名称/IP”、“变动状态”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 实时检测 开放端口 检测主机系统中的端口,列出当前系统开放的端口列表,帮助用户识别出其中的危险端口和未知端口。 根据“本地端口”、“协议类型”以及具体端口对应的“服务器名称/IP”、“状态”、“进程PID”、“程序文件”,您能够快速排查主机中含有风险的端口。 手动关闭风险端口 如果检测到开放了危险端口或者开放了不必要的端口,需要排查这些端口是否是正常业务使用,如果不是正常业务端口,建议关闭端口。对于危险端口建议进一步检查程序文件,如果存在风险建议删除或者隔离源文件。 建议您及时优先处理危险程度为“危险”的端口,根据业务实际情况处理危险程度为“未知”的端口。 忽略风险:如果检测出的危险端口是业务正在使用的正常端口,您可以忽略该条告警。忽略之后将不再作为危险项进行记录,也不再发送告警。 实时检测 进程 检测主机系统中运行的进程,对运行中的进程进行收集及呈现,便于自主清点合法进程发现异常进程。 根据主机中“进程路径”以及具体进程对应的“服务器名称/IP”、“启动参数”、“启动时间”、“运行用户”、“文件权限”、“进程PID”以及“文件HASH”,您能够快速排查主机中的异常进程。 进程信息管理检测的机制是30天检测不到进程后,自动清除进程信息管理列表中的进程信息。 实时检测 软件 检测并列出当前系统安装的软件信息,帮助用户清点软件资产,识别不安全的软件版本。 根据软件的实时信息和历史变动,您能够快速排查主机中含有风险的软件。 软件的实时信息包括“软件名称”、“服务器数”以及具体软件对应的安装该软件的“服务器名称/IP”和“版本”、“软件更新时间”和“最近扫描时间”。 软件的历史变动记录包括软件的“服务器名称/IP”、“变动状态”、“版本”、“软件更新时间”和“最近扫描时间”。 每日自动检测 自启动项 检测并列出当前所有主机系统中的自启动项,帮助用户及时发现异常自启动项,快速定位木马程序的问题。 自启动项的实时信息包括“名称”、“类型”(自启动服务、开机启动文件夹、预加载动态库、Run注册表键或者定时任务)、“服务器数”以及类型对应的“服务器名称/IP”、“路径”、“文件HASH”、“运行用户”、以及“最近扫描时间”。 自启动项的历史变动记录包括“服务器名称/IP”、“变动状态”、“路径”、“文件HASH”、“运行用户”和“最近扫描时间”。 实时检测 Web站点 统计、展示存放Web内容的目录及对外提供访问的站点信息,您可以查看所有目录及权限、以及和站点所关联访问路径、对外端口、证书信息(后续提供)、关键进程等信息。 1次/周(每周一凌晨06:00) Web框架 统计、展示Web内容对外呈现时所使用框架的详细信息,您可查看所有框架的版本、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 中间件 统计、展示所使用到的所有软件信息,您可查看所有中间件所关联的服务器、版本号、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 内核模块 统计、展示运行在内核层的全量程序模块文件,您可查看所有模块所关联的服务器、版本号、模块描述、驱动文件路径、文件权限、文件哈希等信息。 1次/周(每周一凌晨06:00)
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        资产指纹
      • CSI插件
        本节介绍了:CSI的常见问题。 存储FAQCSI 本文主要介绍天翼云存储插件cstorcsi,其安装及使用过程中常见的问题及分析流程。 安装失败 失败原因查看 在“插件”——“插件市场”——选择“cstorcsi”插件安装,完成相关参数配置后点击“安装”;安装详情可以在“插件”——“插件实例”中看到cstorcsi实例,在状态栏查看实例运行状态,如果实例安装失败,可以通过查看状态栏的日志获取部署失败详情。 常见问题 查阅日志报 “no matches for kind “PodSecurityPolicy” in version“policy/v1beta1” 该报错见于在kubernetes v1.25集群上安装cstorcsi v3.1.0版本报错,报错原因是cstorcsi插件安装会部署PodSecurityPolicy资源,但该资源在k8s v1.25中被移除。该问题解决方案为: 1、将cstorcsi升级至3.2.0,按原参数安装即可; 2、如不希望进行组件升级,可以将cstorcsi v3.1.0 value.yaml中,将参数podSecurityPolicy.enabled配置为false,卸载后重新安装即可。 使用cstorcsi创建存储卷错误 通用分析流程 1、在“插件”——“插件实例”查看cstorcsi实例,运行是否异常; 2、进入“工作负载”——“无状态”,切换命名空间为“cstor”,查看名称为“cstorcsiprovisioner”的pod日志,切换容器名称为“csiprovisioner”和“cstorcsiplugin”,查看是否有错误日志输出。 常见问题 1、Can not get AK 该报错是由于cstorcsi安装过程中,未进行AK、SK配置。解决方案为:在”账号中心”——”安全设置”——”用户AccessKey”中查看AK、SK。 卸载cstorcsi后,选择重新安装该插件,在安装配置窗口中根据获得的 AK、SK值,分别填入AuthConfig.AK和AuthConfig.SK字段中,点击安装即可完成插件部署。 2、用户不允许订购按需类订单。 该报错是由于cstorcsi插件开通的云硬盘为按需付费方式,需要账户余额在100元以上才可正常开通。 解决方案:请检查天翼云“账户余额”是否在100元以上。 2、can not support RWX in filesystem mode for disk 当使用cstorcsi安装生成的storageclass,创建持久卷声明(PVC)。正常情况下,创建持久卷声明后,在“存储”——”持久卷”,列表栏会看到相应持久卷(PV)创建,并且状态为“已绑定”。 如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为 can not support RWX in filesystem mode for disk,表示当前创建的持久卷声明,不支持访问模式为多机读写。 目前,cstorcsi插件安装,默认创建的云硬盘类型的storageclass,其访问模式与是否是共享盘有关,只有在使用共享盘的情况下,支持多机读写,其他情况仅支持单机读写。 解决方案:修改持久卷声明访问模式为“单机读写”。 3、failed to create disk volume, message: disk size should be in range [10G ,32T] 目前,当使用cstorcsi插件安装的storageclass,云硬盘类型要求容量为 [10G ,32T],文件存储要求容量500G以上。如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为: failed to create disk volume, message: disk size should be in range [10G ,32T],表示当前创建的存储卷声明,其容量需要调整为合理范围大小。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        存储管理
        CSI插件
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 注意 在进行数据迁移前,请确保所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据将无法完成迁移。 1. 选择数据迁移 页签,单击 创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入 任务名称 、 源节点 、目标节点 和 迁移类型 。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务 ,出现创建清理任务对话框。 2. 选择 源节点 、清理开始时间 和清理结束时间 ,单击确定 。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务对话框。 2. 选择回收节点 、设置回收开始时间 和 回收结束时间 ,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务 页签,单击 创建任务 ,出现创建数据重平衡任务对话框。 2. 输入任务名称 ,选择节点组 ,单击确定 ,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 , 并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1. 不能以pg开头。 2. 只支持大小写字母、数字和下划线。 3. 只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 产品功能
        一级分类 二级分类 功能点 功能点描述 核心功能 集群 一键快速部署 支持界面化订购,自动开通Kubernetes集群,兼容原生Kubernetes 核心功能 集群 节点管理 支持界面化进行扩缩容,支持节点标签、调度设置 核心功能 集群 命名空间 支持资源配额设置、支持网络隔离设置 核心功能 集群 运行时 支持Docker、Containerd 核心功能 工作负载 生命周期管理 支持应用创建、启停、扩缩容、注销等生命周期操作 核心功能 工作负载 工作负载 支持界面化发布有状态、无状态、守护进程、任务、定时任务等工作负载 核心功能 工作负载 多容器 支持一个Pod中发布多个容器,支持设置特权级容器 核心功能 工作负载 探针 支持界面化自定义策略检测应用的可用性 核心功能 工作负载 滚动升级 支持业务不中断平滑升级 核心功能 工作负载 亲和性/反亲和 支持主机及应用的亲和性与反亲和性调度 核心功能 工作负载 资源管控 支持容器级别的资源需求和限额设置,防止资源的浪费 核心功能 弹性调度 Pod弹性伸缩 支持自动伸缩规则设置,基于CPU/内存等资源自动伸缩应用,支持HPA、CronHPA和基于事件的弹性策略 核心功能 弹性调度 节点弹性伸缩 支持节点弹性伸缩 核心功能 弹性调度 负载感知调度 支持调度Pod时考虑节点的实际负载 核心功能 路由 多协议支持 支持TCP、UDP、HTTP以及HTTPS等协议 核心功能 路由 Service支持 支持NodePort、ClusterIP,LB等对外提供访问、支持无头服务 核心功能 路由 Ingress支持 支持Nginx Ingress 核心功能 路由 灰度/蓝绿发布 支持支持灰度/蓝绿发布,支持应用的多个版本在线运行 核心功能 配置管理 配置项 支持配置项 核心功能 配置管理 Secret 支持保密字典、凭证等 核心功能 网络 网络插件 支持高性能网络插件Calico 核心功能 网络 网络插件 支持自研网络插件CubeCNI实现容器与虚拟机网络直通 核心功能 网络 网络策略 支持容器访问策略和流控限制 核心功能 存储 多类型存储 支持Local、NFS、Ceph常见持久存储类;支持csi驱动程序,集成天翼云的云硬盘、弹性文件、对象存储等云存储 核心功能 存储 持久卷声明 支持界面化创建持久卷声明,支持监控存储使用量 核心功能 存储 持久卷 支持界面化创建持久卷,支持持久卷的动态生成 核心功能 日志管理 日志中心 支持容器日志的采集、存储和检索,支持集成三方开源日志解决方案 核心功能 监控与告警 监控中心 支持集群、节点、容器多级别的监控与告警配置,支持审计日志,支持集成三方开源监控解决方案 核心功能 系统管理 接入平台 作为平台组件对外提供服务,支持订单方式进行集群的开通、扩缩容、删除等 核心功能 系统管理 权限管理 多租户支持,租户资源隔离,用户角色授权,支持集群和命名空间的授权 高级功能 应用 插件市场 支持通过Chart对插件打包发布到插件市场,界面化一键部署监控等插件,通过插件与其他产品集成 高级功能 应用 模板市场 支持通过Chart对应用打包发布到模板市场,界面化安装部署等 高级功能 应用 有状态应用 支持挂载持久化存储,实现有状态应用容器化部署 高级功能 能力开放 OpenAPI 支持开放API,对接持续集成和私有部署系统 高级功能 高可用部署 Kubernetes高可用 支持Kubernetes高可用部署 容器镜像服务 镜像 镜像仓库 支持对接多镜像中心,支持界面化创建仓库 容器镜像服务 镜像 租户隔离 支持公开仓库的可见性及私有仓库的不可见性 容器镜像服务 镜像 镜像管理 支持管理海量镜像,支持多版本镜像 容器镜像服务 镜像 镜像收藏 支持快速检索镜像并收藏 容器安全 授权 权限管理 支持基于k8s RBAC授权 容器安全 配置安全 容器安全策略 支持SecurityContext配置
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        产品功能
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 集群创建
        本文介绍如何集群创建。 集群是计算资源的集合,包含一组节点资源,容器运行在节点上。在创建容器应用前,您需要存在一个可用集群。目前最多可以创建5个集群,请确保至少有一个可用的集群。如集群数量不够,可申请增加配额。 操作前提 能够确保账户中有充足的余额,否则将导致您的业务开通失败; 在【创建集群】之前,请确保已完成VPC、子网的创建及安全组的配置,若未创建可参考上一【环境设置】部分。 操作步骤 1. 登录天翼云; 2. 选择【控制台】>点击切换到具体资源池,如杭州2节点; 3. 在控制台中找到【容器服务】>点击【容器引擎】,进入容器服务界面; 4. 进入【总览】页面>单击【创建集群】按钮,进入集群创建界面; 5. 按照需要完成集群参数填写,集群创建参数详见下表,其中带“”的参数为必填参数。 参数 参数说明 基础配置 集群名称 新建集群的名称 Kubernetes版本 1.15/1.18 地域 根据最初选择的地域决定,集群创建过程中不可选 虚拟私有云 新建集群所在的虚拟私有云。若没有可选虚拟私有云,单击“创建虚拟私有云”进行创建 子网 节点虚拟机运行的子网环境。若没有可选子网,单击“创建子网”进行创建 系列 分为基础版、高级版(基础版集群将创建1个master节点和相应控制节点,worker节点配置由用户自由选择;高级版集群将创建3个master节点和相应控制节点,worker节点配置由用户自由选择。) 容器CIDR 默认是10.223.0.0/16,确定容器网段后,容器实例将在规划的网段内分配IP。不能与集群所选的VPC重复,当vpc和容器网段或者服务网段冲突提示:默认网段与所选虚拟私有云网段有冲突,请重新选择vpc 服务CIDR 默认是10.96.0.0/16,服务网段为kubernetes service ip网段,请根据业务需求选择该网段。不能与集群所选的VPC重复 企业项目 此项与主子账户权限有关,如果有主子账户权限分配要求,请提前规划企业项目 注: 如果您选择了IPv4/IPv6双栈的VPC和子网,那么要同时设置IPv4的容器CIDR和服务CIDR,以及IPv6的容器CIDR和服务CIDR,均不能与集群所选VPC重复。默认情况下,IPv6容器CIDR:fd03::/112;IPv6服务CIDR:fd05::/112。如有需要用户请根据个人需求进行修改。 worker 节点配置 规格 请根据业务需求选择相应的节点规格。 当前使用的是通用型S2类型云主机,可选规格以界面上显示为准 操作系统 请选择节点对应的操作系统 系统盘 默认为普通IO,50GB 数据盘 普通IO、高IO,规格为[50,2048]GB,默认50GB;范围502048GB;整数;填入小数自动四舍五入为整数,输入为空自动设置为50;步长为10 弹性IP 使用已有IP:使用已经创建出的弹性公网IP 创建后设置:不使用弹性公网IP(不使用弹性公网IP不能通过公网发送请求,可创建后绑定) 网络模型 容器隧道网络:基于底层 VPC 网络,构建独立的容器 VXLAN 隧道化的容器网络,与底层网络解耦,支持高扩展性,网络策略,多容器网络平面 worker节点数 默认最小值是1,只允许填入整数;步长为1;设置的节点数不能超过最大节点规模50;输入为空自动设置为1 购买时长 根据需求,设置购买时长 6. 确认右侧订单详情无误并确保已放开安全组6443、9080、9443、2379、2380端口后,单击【创建集群】,进入付费界面,完成费用支付; 7. 集群创建预计需要 610 分钟。请根据界面提示查看集群创建过程。创建完成后,点击【返回集群管理】链接; 8. 在导航栏单击【资源管理】>【集群管理】标签,进入集群列表界面,可查看创建的集群。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        集群
        集群创建
      • xlog(WAL)堆积类问题
        本页介绍天翼云TeleDB数据库xlog(WAL)堆积类问题。 xlog(WAL)堆积问题总体排查思路 问题描述 xlog(WAL)堆积,明显超过预期大小,导致磁盘空间使用率上涨,甚至打满磁盘,影响实例运行。 可能影响 占用更多的磁盘空间; 可能会打满磁盘,影响实例运行。 解决步骤 1. 首先检查WAL和归档相关参数,核实参数是否符合预期; > 连接到WAL日志堆积的节点,执行以下SQL: > > select currentsetting('walkeepsegments') as walkeepsegments,(select count(1) > from pglsdir('./pgwal/')) as walcount; > WAL相关参数中,walkeepsegments为保留WAL日志文件的数量,通常实际统计的WAL日志文件数量比walkeepsegments稍多,相差几百内都属于正常范围,明显超出则确定WAL日志有堆积; 2. 检查WAL日志增长量是否符合预期; > 登录WAL日志堆积的节点所在服务器,进入pgwal目录,执行以下shell命令,按纬度统计WAL数量; > 统计每小时日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7" "$8}'awk F: '{print $1}'sort uniq c > 统计每天日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7}'awk F: '{print $1}'sort uniq c 3. 检查复制槽状态,是否有activefalse的复制槽; > 连接到WAL日志堆积的节点,执行以下SQL: > > select from pgreplicationslots where activefalse; > 如果有activefalse的复制槽,那么就会导致WAL堆积,需要核实并解决复制槽问题; 4. 如果不是复制槽问题,可以继续检查归档配置是否正确; > 连接到WAL日志堆积的节点,执行以下SQL: > > show archivestatuscontrol; > 如果参数查询结果为break,那么WAL日志文件不会被正常删除,需要核实并更正参数为continue; 5. 检查归档执行状态是否正常; > 登录WAL日志堆积的节点所在服务器,检查archiver进程状态是否正常,进程显示的last 归档的文件是否在更新。 > > ps fegrep archiver > 查询结果显示为archiver process failed on xxx,则说明归档败了,需要进一步排查归档失败原因; > 也可以执行以下SQL查询归档执行状: > > select from pgstatgetarchiver(); > 其中failedcount>0表示有归档失败。 6. 检查归档速度是否正常; > 如果归档正常,那需要检查归档速度是否正常,归档速度是否能赶上WAL日志生成的速度,如果归档速度比生成的慢,那么WAL日志会逐渐堆积起来,可以从减少WAL日志生成量和加快WAL日志文件归档两个方面入手进行优化; 7. 检查是否有长事务/长时间执行未结束的SQL; > 连接到WAL日志堆积的节点,执行以下SQL: > > select pid,clientaddr,statechange,querystart,statechange,EXTRACT(EPOCH FROM > (now()querystart)),query,state,usename,applicationname from pgstatactivity where > EXTRACT(EPOCH FROM (now()querystart))>600 and state!'idle'; > 如果有长时间执行未结束的SQL或事务,需要核实后清理掉,避免影响WAL日志文件的清理。 8. 如果影响业务,需要快速恢复,可以先手动清理,再定位原因; > 登录WAL日志堆积的节点所在服务器,进入pgwal/archivestatus目录,执行以下shell命令,修改.ready 的扩展名称.done > > find .ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done > 或 > > ls lrt grep .ready awk F' ' '{print $NF}' xargs i rename ready done ./{} > 如果提示有太多的bash: /usr/bin/find: Argument list too long,则需要分批修改,具体前缀可以 top看一下 Arichve 进程当前在处理哪个WAL,然后取其前缀就行,例如: find 00000001000005[19].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done find 00000001000005[AF].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        xlog(WAL)堆积类问题
      • 节点启动或停止失败类问题
        本页介绍天翼云TeleDB数据库节点启动或停止失败类问题。 节点启动失败问题总体分析思路 问题描述 控制台页面上显示节点为停止/异常状态,手动启动失败。 可能影响 DN主节点启动失败,会导致访问到该DN的节点SQL报错,实例部分不可用; CN主节点启动失败,会导致流入该节点的SQL语句报错,流入其它CN主节点的DDL语句报错; GTM主节点启动失败,会导致整个实例不可用; GTM/CN/DN备节点失败失败,如果开启同步复制,同步复制节点数量不足且未启用退化策略时,会导致DDL、DML语句卡住; GTM/CN/DN备节点失败失败,可能会导致无可用备节点,主节点再次异常会导致实例不可用,有数据丢失风险。 解决步骤 1. 控制台页面启动节点会下发任务到节点所在的Agent服务,检查Agent服务运行是否正常,如果Agent未启动或启动失败,优先解决Agent服务问题,再尝试启动节点; > Agent服务运行情况检查: > > ps fu teledbxgrep teledbxossgrep ossservergrep v grep > 返回有一个进程存在,输出结果如: > > teledbx 16371 1 1 2023 ? 203:21:22 > /home/teledbx/install/teledbxoss/bin/ossserver conf > /home/teledbx/install/teledbxoss/config//teledbxossconf.ini log > /home/teledbx/install/teledbxoss/logs/ level 1 > Agent服务端口监听情况检查: > > netstat lntpgrep ossserver > 返回应包含至少两行记录,端口包含8118、8119,输出结果如: tcp 0 0 172.16.16.15:8118 0.0.0.0: LISTEN 16371/ossserver tcp 0 0 127.0.0.1:8119 0.0.0.0: LISTEN 16371/ossserver > Agent服务日志检查: > teledbx用户家目录下install/teledbxoss/logs/osslogxxx(pid),通常为/home/teledbx/install/teledbxoss/logs/osslogxxx(pid) > 查看最新的日志文件内容是否有FATAL错误。 > 如果进程不存在,则需要检查原因,因为Agent服务有crontab任务守护,会每分钟检测,异常时自动拉起。 > 如果进程在持续不断的重启,则需要根据日志检查具体原因。 > 如果进程运行正常,则继续分析节点启动日志和运行日志。 2. 节点启动日志有几个地方可以查看 > 1)Agent日志中节点启动日志 > 在Agent的osslogxxx(pid)中会打印节点启动日志和报错信息,可通过以下egrep命令搜索日志中启动信息和返回结果: egrep pgctl.start osslogxxx > 2)节点启动日志 > Agent日志目录log下有个节点启动停止目录clslog,该目录下记录了该服务器上部署所有实例、所有节点的启动停止日志,目录如: > /home/teledbx/install/teledbxoss/logs/clslog/实例id/节点名称节点id节点ip节点端口/pgctl.startyyyymmddhh24miss.log 或pgctl.stopyyyymmddhh24miss.log > 对于启动加载配置文件、控制文件、监听端口、分配内存等在节点启动前的异常报错,会在该日志中记录;这里没有报错,通常节点可以顺利启动成功; > 如果这里没有启动日志,或没有更新,则需要检查Agent服务。 > 如果这里有启动日志,但是在不断的启动、停止、启动...,则需要检查节点运行日志。 > 3)节点运行日志 > 在节点数据目录下的pglog目录,记录了节点启动后运行时的一些信息,默认为postgres星期(英文)小时.csv; > 如果这里没有日志更新,则需要检查节点启动日志和Agent服务。 > 如果这里日志有更新,则查看日志,根据日志提示进行处理。 3. 根据上述日志具体报错,做相应处理,如:磁盘空间%、操作系统内存不足导致启动节点时不能分配内存,节点数据目录部分文件权限不足、文件损坏、配置文件参数错误等。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        节点启动或停止失败类问题
      • 设置应用组件实例伸缩策略
        手动伸缩 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入到应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页。 5、单击“伸缩”,在“手动伸缩”策略下: 单击,修改“实例数”。 单击,实例伸缩操作即可生效。 单击“查看组件详情”,可查看到实例在“升级/回滚”中。待状态为“运行中”时,表示已成功完成实例伸缩操作。 弹性伸缩 说明 CCE集群,1.15及以上版本不支持弹性伸缩。 虚机部署不支持弹性伸缩。 1、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 2、单击应用名称,进入应用“概览”页。 3、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 4、单击应用组件名称,进入应用组件实例“概览”页,单击“伸缩”。 5、在“弹性伸缩”下,单击“编辑伸缩规则”: 根据业务实际需要设置“冷却时间”、“最大实例数”、“最小实例数”。 单击“保存”。 6、在“弹性伸缩”下,单击“添加伸缩策略”。 当前支持三种弹性伸缩策略: 告警策略:支持根据CPU/内存的设置,进行应用组件的自动伸缩。应用组件部署后即可设置,在CPU/内存超过或少于一定值时,自动增减实例。 表 添加告警策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“告警策略”。 指标 选择“指标”。指标是对资源性能的数据描述或状态描述。 CPU使用率:该指标用于统计测量对象的CPU使用率。应用实际使用的与申请的CPU核数量比率。 物理内存使用率:该指标用于统计测量对象已使用内存占申请物理内存总量的百分比。 磁盘读取速率:该指标用于统计每秒从磁盘读出的数据量。 物理内存总量:该指标用于统计测量对象申请的物理内存总量。 数据接收速率:该指标用于统计测量对象每秒钟接收的数据量。 磁盘写入速率:该指标用于统计每秒写入磁盘的数据量。 物理内存使用量:该指标用于统计测量对象实际已经使用的物理内存。 CPU内核总量:该指标用于统计测量对象申请的CPU核总量。 数据发送速率:该指标用于统计测量对象每秒钟发送的数据量。 容器错包个数:该指标用于统计测量对象收到错误包的数量。 CPU内核占用:该指标用于统计测量对象已经使用的CPU核个数。 触发条件 设置“触发条件”,在对应条件下触发伸缩策略。 监控周期 设置“监控周期”,触发指标周期统计。 比如设置为20秒,表示每20秒统计一次。 连续周期 设置“连续周期”。连续周期是指监控周期内连续触发阈值的次数。 比如设置为3,则表示指标数据连续三个监控周期达到了设定的阈值,则触发策略动作。 执行操作 选择“增加”或“减少”实例数,设置策略触发后执行的动作。 单击“收起预览”,可设置“触发条件”、“监控周期”、“连续周期”、“执行操作”参数值。 定时策略:支持在特定时间点进行应用的自动伸缩。适用于秒杀周年庆等活动,例如在秒杀这个时间点增加一定数量的实例个数。 表 添加定时策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“定时策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 周期策略:支持以天、周、月为周期的伸缩策略。适用于周期性的流量变化。 表 添加周期策略 参数 参数说明 :: 策略名称 请输入伸缩策略的名称。 策略类型 选择“周期策略”。 触发时间 设置策略触发时间。 执行操作 选择“增加”、“减少”或“设置”实例数,设置策略触发后执行的动作。 7、单击“确定”。 在弹性伸缩下,可看到策略已启动。待到满足触发条件时,弹性伸缩即会生效。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        设置应用组件实例伸缩策略
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建扫描任务
        本节介绍如何创建扫描任务。 操作场景 该任务指导用户通过漏洞扫描服务创建扫描任务。 前提条件 已获取管理控制台的登录帐号与密码。 域名的“认证状态”为“已认证”。 如果您的网站设置了防火墙或其他安全策略,将导致VSS的扫描IP被当成恶意攻击者而误拦截。因此,在使用VSS前,请您将以下VSS的扫描IP添加至网站访问的白名单中:114.217.39.79,222.93.127.109 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务页面。 3. 在“资产列表 > 网站”页签,单击对应的网站信息“操作”列的“扫描”。 4. 进入创建扫描任务入口,如下图所示。 5. 在“创建任务”界面,请根据下表进行扫描设置,设置后如下图所示。 扫描设置参数说明: 参数 参数说明 任务名称 用户自定义。 目标网址 待扫描的网站地址或IP地址。 通过下拉框选择已认证通过的域名。 开始时间 可选参数,设置开始扫描的时间,不设置默认立即扫描。 扫描策略 三种扫描策略: 极速策略:扫描耗时最少,能检测到的漏洞相对较少。 标准策略:扫描耗时适中,能检测到的漏洞相对较多。 深度策略:扫描耗时最长,能检测到最深处的漏洞。 有些接口只能在登录后才能访问,建议用户配置对应接口的用户名和密码,VSS才能进行深度扫描。 说明 “极速策略”:扫描的网站URL数量有限且VSS会开启耗时较短的扫描插件进行扫描。 “深度策略”:扫描的网站URL数量不限且VSS会开启所有的扫描插件进行耗时较长的遍历扫描。 “标准策略”:扫描的网站URL数量和耗时都介于“极速策略”和“深度策略”两者之间。 是否扫描登录URL 默认不扫描登录URL,开启扫描登录URL前请先评估业务影响。 是否将本次扫描升级为专业版规格 基础版用户开启此功能后,扫描过程中会按需扣费: 鼠标移动至“?”了解升级后影响。 打开此功能时,扫描时会自动升级为专业版按需扣费,关闭该功能时,扫描时不会升级。 扫描项设置 VSS支持的扫描功能参照下表。 :开启。 :关闭。 扫描项设置: 扫描项名称 说明 Web常规漏洞扫描(包括XSS、SQL注入等30多种常见漏洞) 提供了常规的30多种常见漏洞的扫描,如XSS、SQL等漏洞的扫描。默认为开启状态,不支持关闭。 端口扫描 检测主机打开的所有端口。 弱密码扫描 对网站的弱密码进行扫描检测。 CVE漏洞扫描 CVE,即公共暴露漏洞库。VSS可以快速更新漏洞规则,扫描最新漏洞。 网页内容合规检测(文字) 对网站文字的合规性进行检测。 网页内容合规检测(图片) 对网站图片的合规性进行检测。 网站挂马检测 挂马:上传木马到网站上,使得网站在运行的时候执行木马程序,被黑客控制,遭受损失。VSS可以检测网站是否存在挂马。 链接健康检测(死链、暗链、恶意外链) 对网站的链接地址进行健康性检测,避免您的网站出现死链、暗链、恶意链接。 说明 如果您当前的服务版本已经为专业版,不会提示升级。 基础版支持常见漏洞检测、端口扫描,每日扫描任务上限5个,单个扫描任务时长限制2小时。 专业版支持常见漏洞检测、端口扫描、弱密码扫描,每日扫描任务上限多达60次。 高级版支持常见漏洞检测、端口扫描、弱密码扫描,每日扫描任务上限多达60次。 企业版支持常见网站漏洞扫描、基线合规检测、弱密码、端口检测、紧急漏洞扫描、周期性检测,每日扫描任务上限多达60次。 6. 设置完成后,单击“开始扫描”。 说明 如果没有设置开始扫描时间,且此时服务器没有被占用,则创建的任务可立即开始扫描,任务状态为“进行中”;否则进入等待队列中等待,任务状态为“等待中”。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        网站漏洞扫描
        创建扫描任务
      • 域名接入视频直播之后,如何绑定CNAME
        本文介绍如何绑定CNAME。 要启用视频直播服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到直播节点上,达到加速效果。 当您在天翼云直播控制台添加加速域名后,系统会为您分配一个天翼云CDN的CNAME域名,例如 .ctdns.cn。 您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctdns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云视频直播的节点,实现加速的目的。 具体操作步骤请参考:配置CNAME。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        域名接入视频直播之后,如何绑定CNAME
      • 创建主题和订阅组
        本文介绍分布式消息服务RocketMQ入门指引的创建主题和订阅组内容。 背景信息 在实例创建完成后,需要创建主题和订阅组来进行消息实例的日常功能运转。 主题:在RocketMQ中,主题(Topic)是消息发布的逻辑分组。它类似于一个消息的分类或者标签,帮助用户将不同类型的消息进行归类和管理。通常情况下,一个主题可以包含多个消息生产者和多个消息消费者。通过使用主题,RocketMQ能够实现高效的消息发布和订阅机制,帮助用户更好地管理和组织消息。 订阅组:订阅组是 RocketMQ 中的一个重要概念,用于实现消息的发布与订阅模式。一个订阅组可以包含多个消费者实例,这些实例共同消费同一个主题下的消息。当消息被发送到主题时,订阅组中的每个消费者实例会按照一定规则来均衡地接收消息,并进行相应的处理。订阅组是 RocketMQ 提供的一种灵活且可扩展的方式,用于实现消息的发布与订阅模式,并保证消息在消费者之间的均衡分配和可靠处理。 集群:RocketMQ集群是一种由多个节点(或者称为Broker)组成的分布式消息中间件系统。每个节点都具有相同的功能并且可以处理和存储消息。通过将消息分发到不同的节点,RocketMQ集群能够实现高可用性和可伸缩性。通过使用RocketMQ集群,可以实现消息传输的并行处理、容错性和高可用性,满足高并发场景下的消息传递需求。 创建主题 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【新建主题】按钮 5、 在弹出的新建主题页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择主题所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写主题名称,名字限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 4)按照实际需求填写主题备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个Broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择主题的读写权限,支持读写、只读、只写3类权限。 8) 完成主题信息填写后,保存确认即可新增主题。 9) 若希望批量创建主题,可点击【批量创建】按钮 批量创建 注意:输入的主题名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【主题模板】按钮下载。 主题模板 批量上传主题的模板,必须使用模板,才能够上传成功,模板格式如下:
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建主题和订阅组
      • 权限管理
        本节主要介绍OBS的权限管理。 如果您需要对OBS资源,为企业中的员工设置不同的用户访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云服务资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并授权控制他们对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有OBS的使用权限,但是不希望他们拥有删除OBS资源等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用OBS,但是不允许删除OBS资源的权限,控制他们对OBS资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用OBS的其它功能。 IAM是云平台提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见《天翼云统一身份认证服务用户指南》“产品介绍”章节。 OBS权限 默认情况下,新建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略,才能使得用户组中的用户获得策略定义的权限,这一过程称为授权。授权后,用户就可以基于策略对云服务进行操作。IAM系统预置了各服务的常用权限,例如完全控制权限、只读权限,您可以直接使用这些系统策略。 OBS部署时不区分物理区域,为全局级服务。授权时,在全局项目中设置策略,访问OBS时,不需要切换区域。 RBAC策略:RBAC策略是将服务作为一个整体进行授权,授权后,用户可以拥有这个服务的所有权限,如访问整个服务、管理整个服务,RBAC策略无法针对服务中的具体操作做权限控制。 说明 由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的RBAC策略后,大概需要等待10~15分钟策略才能生效。 下表为OBS的所有系统策略。 策略名称 描述 策略类别 Tenant Administrator 操作权限:对帐号拥有的所有云资源执行任意操作。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 Tenant Guest 操作权限:对帐号拥有的所有云资源的只读权限。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 用户拥有OBS资源权限后,对应在OBS上可以执行的具体操作下表所示。 操作名称 Tenant Administrator权限 Tenant Guest权限 列举桶 可以 可以 创建桶 可以 不可以 删除桶 可以 不可以 获取桶基本信息 可以 可以 管理桶访问权限 可以 不可以 管理桶策略 可以 不可以 修改桶存储类别 可以 不可以 列举对象 可以 可以 列举多版本对象 可以 可以 上传文件 可以 不可以 新建文件夹 可以 不可以 删除文件 可以 不可以 删除文件夹 可以 不可以 下载文件 可以 可以 删除多版本文件 可以 不可以 下载多版本文件 可以 可以 修改对象存储类别 可以 不可以 恢复文件 可以 不可以 取消删除文件 可以 不可以 删除碎片 可以 不可以 管理对象访问权限 可以 不可以 设置对象元数据 可以 不可以 获取对象元数据 可以 不可以 管理多版本控制 可以 不可以 管理日志记录 可以 不可以 管理标签 可以 不可以 管理生命周期规则 可以 不可以 管理静态网站托管 可以 不可以 管理CORS规则 可以 不可以 管理防盗链 可以 不可以 管理跨区域复制 可以 不可以 管理图片处理 可以 不可以 设置对象ACL 可以 不可以 设置指定版本对象ACL 可以 不可以 获取对象ACL 可以 可以 获取指定版本对象ACL 可以 可以 多段上传 可以 不可以 列举已上传段 可以 可以 取消多段上传任务 可以 不可以
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        权限管理
      • 管理自动备份
        本节主要介绍管理自动备份。 GeminiDB Influx支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 GeminiDB Influx自动备份时,不会对 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 图1 开启备份策略 1.保留天数: 自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。对于系统中最近一个全量备份文件,如果在新的全量备份未超过保留天数前系统会一直保留,直至新的全量备份超过保留天数后才会删除。 增加保留天数,可提升数据可靠性,请根据需要设置。 减少保留天数,会针对已有的备份文件生效,即超出备份保留天数的已有备份文件(包括全量备份和增量备份)会被自动删除,但手动备份不会自动删除,请您谨慎选择。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如12:00~13:00 。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 假如保留天数设置为“2”,表示超过两天的全量备份和增量备份会被自动删除。即周一产生的备份会在周三删除,同理,周二产生的备份会在周四删除。 全量备份文件自动删除策略: 已有备份文件超出备份天数后会自动删除,考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 2.备份周期: 默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 增备周期:系统默认自动将每隔15分钟的离散时间点上的增量数据进行备份。您也可以根据需要设置增量备份周期,目前支持设置为5分钟,10分钟,15分钟。增备周期目前为公测阶段,如需使用,请联系客服申请开通相应的操作权限。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据备份
        管理自动备份
      • 测试方法
        本节主要介绍测试方法。 本章基于GeminiDB Influx实例,进行性能测试,具体包括测试环境,测试步骤,以及测试结果。 测试环境 区域:天翼云资源池 可用区:可用区一 弹性云主机(Elastic Cloud Server,简称ECS):规格选择内存优化型m6.2xlarge.8,8U64GB,操作系统镜像使用CentOS 7.6 64位版本。 被测试集群实例的配置:每个实例包含3个节点。 被测试集群实例的规格:4U16G、8U32G、16U64G、32U128G。 测试工具 本次测试采用了开源社区的Time Series Benchmark Suite (TSBS)。 测试指标 写入性能测试关注每秒写入点数(points/sec)。 查询性能测试关注时延和OPS(Operation Per Second)。 测试步骤 1. 执行如下命令,生成需要执行写入的数据。 tsbsgeneratedata usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:00Z" loginterval"10s" format"influx" gzip > /tmp/influxdata.gz 说明 scale:需要生成的时间线数量。 loginterval:数据采样间隔。 2. 执行如下命令,进行写入性能测试,获取写入性能数据。 NUMWORKERS${numWorkers} BATCHSIZE${batchSize} DATABASEHOST${influxIP} DATABASEPORT${influxPORT} BULKDATADIR/tmp scripts/loadinflux.sh 3. 执行如下命令,生成查询语句。 tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries20 querytype"highcpuall" format"influx" gzip > /tmp/influx20querieshighcpuall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries1000000 querytype"singlegroupby181" format"influx" gzip > /tmp/influx1000000queriessinglegroupby18112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"doublegroupby1" format"influx" gzip > /tmp/influx500queriesdoublegroupby112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries50 querytype"doublegroupbyall" format"influx" gzip > /tmp/influx50queriesdoublegroupbyall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries200 querytype"lastpoint" format"influx" gzip > /tmp/influx200querieslastpoint12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"groupbyorderbylimit" format"influx" gzip > /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz 说明 usecase, seed,scale,timestampstart 的值与上面步骤中生成写入数据时设置的值保持一致。 timestampend:数据生成结束后一秒。 queries:生成的查询数。 queriestype:生成的查询类型,具体模型含义参见下表。 4. 执行如下命令,查询性能,获取查询性能数据。 cat /tmp/influx20querieshighcpuall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx1000000queriessinglegroupby18112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10000 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesdoublegroupby112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx50queriesdoublegroupbyall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx200querieslastpoint12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT}
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        性能白皮书
        测试方法
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 产品功能
        模块 特性名称 详细说明 直播推流 场景 支持主播/客户采用推流工具将直播流推至视频直播边缘节点。 直播推流 协议 支持RTMP和RTMPS。 直播拉流 场景 支持用户通过播放器从视频直播边缘节点进行拉流播放直播流。 直播拉流 协议 支持RTMP、FLV和HLS。 协议转换 场景 支持将推流或回源协议通过视频直播产品转换成多种直播协议。 协议转换 协议 支持将RTMP、RTMPS、FLV协议转换成FLV、RTMP和HLS协议。 访问控制 Referer防盗链 基于HTTP请求头中Referer字段来设置访问控制规则,实现对访客的身份识别和过滤,防止资源被非法盗用。 访问控制 IP黑/白名单 通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 访问控制 UA防盗链 通过识别HTTP请求头中的UA字段,可以识别特定终端,从而限制用户行为,拦截或允许某一类用户的访问,实现防盗链、防盗刷、防攻击的目的。 访问控制 URL鉴权 通过对访问URL中的加密串及时间戳进行校验,从而有效地保护用户站点资源。 访问控制 远程鉴权 将请求转发回提前设定的鉴权源站,视频直播节点依据源站返回的鉴权结果应答用户请求,从而实现用户鉴权规则由源站全权定义。 访问控制 HTTPS HTTPS是HTTP的安全版,通过开启HTTPS协议,将实现客户端和天翼云直播加速节点之间请求的HTTPS加密。 访问控制 批量域名IP封禁 支持一次对多个域名批量进行IP黑名单配置。 媒体处理 直播转码 为适配不同用户终端或者不同网络环境,视频直播支持输出不同码率、帧率、分辨率等直播流,同时支持对原始流增加水印。 媒体处理 直播录制 支持将直播流录制为点播文件并存储在媒体存储中,实现直播转点播文件,便于客户进行二次传播。 媒体处理 直播时移 支持体育赛事/游戏赛事等直播场景下,通过时移回看精彩瞬间。 媒体处理 直播截图 支持对直播流进行截图,并将图片保存在媒体存储中。 流管理 禁推 当客户监控发现某主播推送非法内容,可通过禁推功能实时中止并封禁该直播,封禁时长支持自定义。 流管理 解禁 支持对封禁中的流进行解禁。 流管理 断流 支持通过自助操作断开正在推的直播流,但主播如果用相同流名再次推流时可以推流成功。 直播控制台 概览 展示今日或本月的流量/带宽、近七天流量/带宽趋势、证书统计、域名统计、信息中心。 直播控制台 域名管理 支持添加域名,并对域名进行编辑、停用、启用或删除等操作。 如果有开通全球(不含中国内地),支持变更加速区域。 支持HTTPS相关功能配置。 支持IP黑白名单、Referer防盗链和URL鉴权功能自助配置。 支持HLS切片配置。 直播控制台 证书管理 支持新增证书、查看证书、删除证书和替换过期证书等操作。 直播控制台 功能配置 支持自助创建转码、录制、截图和回调模板,并支持将模板绑定到域名上。 直播控制台 流管理 支持查询在线推流和历史推流。 支持禁推、解禁和断流自助操作。 直播控制台 统计分析 支持客户对日常关注的带宽流量、回源、请求数、状态码、地区运营商、在线人数等维度进行自定义查询,实时感知业务运营状态。 支持查看热门URL、域名排行、热门Referer、TOP客户端IP。 支持对转码、录制和截图使用量进行查询。 支持查看流粒度带宽、以及推流域名的平均码率和帧率。 直播控制台 日志下载 支持下载直播加速域名的访问日志。 直播控制台 计费详情 支持自助更新计费方式、查询资源包使用详情、查看历史记录和账单等相关信息。 直播控制台 地址生成器 支持自定义流名和发布点并生成URL示例;如果有配置URL鉴权,还可以生成鉴权URL示例。
        来自:
        帮助文档
        视频直播
        产品介绍
        产品功能
      • 开通物理机服务
        本章节主要介绍创建开通物理机。 1. 登录天翼云,进入控制中心。 2. 在系统首页,单击“计算 >物理机服务”。 3. 在“物理机”界面,单击“申请物理机”。 4. 选择“区域”。不同区域的云服务产品之间内网互不相通。建议您选择最靠近您业务的区域,这样可以减少网络时延、提高访问速度。 5. 选择“可用区”。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将物理机创建在不同的可用区。 如果您需要较低的网络时延,建议您将物理机创建在相同的可用区。 说明 物理机创建成功后,不可更改区域和可用区。 6. 选择“规格”。 包括规格名称、CPU、内存、本地磁盘和扩展配置。当您选择规格列表中的一个规格后,列表下方会展示该规格的名称、组网、用途等信息,以便您根据业务场景进行选择。 其中,扩展配置描述了所选机型的网卡信息。例如:2 x 210GE表示1块双网口的10GE网卡接入VPC网络,1块双网口的10GE扩展网卡支持物理机间的高速互联。 规格中的CPU、内存、本地磁盘等配置为固定值,不可更改。 不同规格的物理机带宽能力不同,请您根据实际业务慎重选择。 某些规格的物理机支持快速发放能力,选择后,界面会提供“系统盘”参数(在“磁盘”配置项中展示),物理机操作系统直接安装在云硬盘,实现快速发放。 7. 选择“镜像”。 公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用(SDI卡驱动、bmsnetworkconfig网络配置程序、cloudinit初始化工具等)。请根据您的实际需要自助配置应用环境或相关软件。 私有镜像 用户基于外部镜像文件或物理机创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私有应用。选择私有镜像创建物理机,可以节省您重复配置物理机的时间。 共享镜像 您将接受公有云其他用户共享的私有镜像,作为自己的镜像进行使用。 8. 选择“许可类型”。 在云平台上使用操作系统或软件的许可证类型。如果您选择的镜像为免费的,则系统不会展示该参数。如果您选择的镜像为计费镜像,此时系统会展示该参数。 使用平台许可证 使用云平台提供的许可证,申请许可证需要支付一定的费用。 使用自带许可证(BYOL) 使用用户已有操作系统的许可证,无需重新申请。 9. 设置“磁盘”。 有SDI卡的物理机可以使用云硬盘,云硬盘盘包括系统盘和数据盘。您可以为物理机添加多块数据盘,系统盘大小可以根据需要自定义。 是否能为物理机挂载云硬盘,由您所选的规格和镜像共同决定,以界面提示为准。 系统盘 如果选择支持快速发放的规格,界面会提供系统盘配置项,可以根据需要设置磁盘类型和大小。 数据盘 您可以为物理机添加多块数据盘,并设置数据盘的共享功能。 注意 物理机仅支持SCSI磁盘模式。 共享盘:勾选后,数据盘为共享云硬盘。该共享盘可以同时挂载给多台物理机使用。 10. 设置“网络”,包括“虚拟私有云”、“安全组”、“网卡”等信息。 第一次使用云服务时,系统将自动为您创建一个默认的虚拟私有云,包括安全组、网卡。其中,默认虚拟私有云支持的地址范围为192.168.1.0/24,子网网关为192.168.1.1,并为子网开启DHCP功能。 参数 解释 虚拟私有云 您可以选择使用已有的虚拟私有云,或者单击“查看虚拟私有云”创建新的虚拟私有云。 安全组 安全组用来实现安全组内和安全组间物理机的访问控制,加强物理机的安全保护。 用户可以在安全组中定义各种访问规则,当物理机加入该安全组后,即受到这些访问规则的保护。 创建物理机时,仅支持选择一个安全组。 但是物理机创建成功后,可以为物理机关联多个安全组。 说明 物理机初始化需要确保安全组出方向规则至少满足如下要求: 协议:TCP 端口范围:80 远端地址:169.254.0.0/16 如果您使用的是默认安全组出方向规则,则已经包括了如上要求,可以正常初始化。 默认安全组出方向规则为: 协议:Any 端口范围:Any 远端地址:0.0.0.0/16 网卡 包括主网卡和扩展网卡。您可以添加多张扩展网卡,并指定网卡(包括主网卡)的 IP 地址。 注意 主网卡用于系统的默认路由,不允许删除。 如果您选择自动分配 IP 地址,请不要在物理机发放完成后修改私有IP 地址,避免和其他物理机 IP 冲突。 为网卡分配固定 IP 地址后,不能批量创建物理机 高速网卡 物理机之间的高速互联网络,为物理机提供更高的带宽。 一台物理机最多有两块高速网卡,并且依赖于扩展网卡总带宽(可以在规格的“扩展配置”列查看)。 例如,扩展网卡总带宽为 2 10GE,如果第一块高速网卡的带宽为 2 10GE,那么您不能再添加第二块高速网卡。 说明 同一台物理机的多张高速网卡不能选择同一个高速网络 弹性 IP 弹性 IP 是指将公网 IP 地址和路由网络中关联的物理机绑定,以实现虚拟私有云内的物理机通过固定的公网 IP 地址对外提供访问服务。 您可以根据实际情况选择以下三种方式: 不使用:物理机不能与外部网络互通,仅可以在私有网络中部署业务或构建集群。 自动分配:自动为物理机分配独享带宽的弹性 IP,带宽值由您设定。 使用已有:为物理机分配已有弹性 IP。 说明 选择已有弹性 IP 后,不能批量创建物理机 规格 选择您需要的物理机规格 计费方式 弹性 IP 选择“自动分配”时,需配置该参数。 按带宽计费:指定带宽上限,按使用时间计费,与使用的流量无关。 按流量计费:按照实际使用的流量来计费。 带宽 弹性 IP 选择“自动分配”时,需配置该参数。 带宽大小,单位 Mbit/s。 11. 设置物理机登录方式。 “密钥对”方式创建的物理机安全性更高,建议选择“密钥对”方式。如果您习惯使用“密码”方式,请增强密码的复杂度,如下表所示,保证密码符合要求,防止被恶意攻击。 密钥对 指使用密钥对作为登录物理机的鉴权方式。您可以选择使用已有的密钥,或者单击“查看密钥对”创建新的密钥。 如果选择使用已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录物理机。 密码 指使用设置初始密码方式作为物理机的鉴权方式,此时,您可以通过用户名密码方式登录物理机。Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足要求。 注意 Windows操作系统不支持选择密码登录方式。 参数 规则 样例 : 密码 密码长度范围为8到26位。 密码至少包含以下4种字符中的3种: 大写字母小写字母数字特殊字符,包括!@%^+[]{}:,./? 密码不能包含用户名或用户名的逆序。 Windows系统的物理机,不能包含用户名中超过两个连续字符的部分。 Test12@ 12. 设置“物理机名称”。 名称可自定义,但需符合命名规则:只能由中文字符、英文字母、数字及“”、“”、“.”组成。 一次创建多台物理机,系统会自动按序增加后缀。例如:输入bms,服务器名称为bms0001,bms0002,……。再次购买多台服务器时,命名从上次最大值连续增加,例如:输入bms,已有服务器bms0010,新创服务器名称为bms0011、bms0012、……,命名达到9999时,从0001开始。 设置您创建的物理机数量,最多为24台。 设置完成后,您可以通过单击“价格计算器”,查询当前配置的费用。 说明 当配额充足时,一次最多可以创建24台物理机;若配额不足24台,一次最多可创建数量为配额余量。 在设置网络信息时,若您选择自定义网卡或高速网卡的IP地址,或者选择已有弹性IP,则一次只能创建一台物理机。 13. 单击“立即申请”。 14. 在确认规格页面,单击“提交”。 注意 开通需要拥有物理机自助开通权限,如没有自助开通权限可以联系天翼云客户经理协助开通。
        来自:
        帮助文档
        物理机 DPS
        快速入门
        开通物理机服务
      • 1
      • ...
      • 256
      • 257
      • 258
      • 259
      • 260
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      常见问题

      MySQL

      导出数据

      性能瓶颈定界

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号