活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云弹性ip_相关内容
      • DDoS防护
        本文介绍边缘接入服务IP应用加速的DDoS攻击防护能力及配置。 功能介绍 边缘接入服务的DDoS防护可有效防御SYN Flood、ACK Flood、UDP Flood、ICMP Flood等网络层攻击以及SSL攻击。 前提条件 已经订购边缘安全加速平台边缘接入服务,若未订购,请参见服务开通。 在控制台新增域名/实例,请参见添加域名/实例。 注意事项 1. 需要开启对应区域的DDoS防护开关,才会进行对应区域的DDoS防护。 2. 超量处置仅对DDoS防护中国内地生效。 配置说明 新增接入时开启DDoS防护 1. 登录边缘安全加速控制台,选择【边缘接入】控制台。 2. 进入【域名】【IP应用加速接入】页面。 3. 点击左上角【新增接入】,完成加速配置后,点击右下角【下一步】进入【安全防护配置】页面。 4. 按需开启DDoS防护中国内地、DDoS防护全球(不含中国内地)开关。 修改DDoS防护 1. 登录边缘安全加速控制台,选择【边缘接入】控制台。 2. 进入【域名】【IP应用加速接入】页面。 3. 找到您要防护的域名/实例,点击操作列的安全防护,进入【安全防护配置】页面。 4. 按需开启DDoS防护中国内地、DDoS防护全球(不含中国内地)开关。 5. 【安全防护配置】页面还可修改DDoS攻击峰值超出订购规格后的超量处置规则,用户可选择将业务解析回源站或者解析至黑洞地址。默认解析至源站地址。 配置界面 1. 新增接入时,DDoS防护配置界面: 2. 修改安全防护时,DDoS防护配置和超量处置配置界面:
        来自:
        帮助文档
        边缘安全加速平台
        边缘接入
        域名
        IP应用加速配置
        DDoS防护
      • 修改pg_hba配置
        参数 取值示例 说明 优先级 0 表示该条记录的优先级,0优先级最高,表示配置优先级最高。 TYPE host 支持配置以下取值: host:该条记录验证TCP/IP连接,包括SSL连接和非SSL连接。 hostssl:该条记录只验证通过SSL建立的TCP/IP连接。 hostnossl:该条记录只验证通过非SSL建立的TCP/IP连接。 DATABASE all 允许用户访问的数据库,all表示允许用户访问所有数据库。如果配置多个,可通过逗号(,)分隔,配置的数据库必须是已存在的且不能是template0,template1这两个数据库。 USER user0 允许哪些用户访问数据库,填写创建数据库账号中创建的用户名。如果配置多个,可通过逗号(,)分隔。必须是已创建的用户且不能配置成内置用户,如:rdsAdmin, rdsMetric, rdsBackup, rdsRepl, rdsProxy。 ADDRESS 0.0.0.0/0 ::0/0 允许用户从哪个或哪些IP访问数据库,0.0.0.0/0(IPv4地址)和::0/0(IPv6地址)表示允许用户从任意IP地址访问数据库。 说明 修改后不在该网段的IP将会连接不上,请谨慎修改。 MASK 空 掩码。如果ADDRESS为IP地址,可以通过此参数指定IP地址的掩码。 METHOD md5 认证方法,支持: reject scramsha256 md5
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        使用数据库
        账号管理(非管理员权限)
        修改pg_hba配置
      • 删除服务器属性
        本节主要介绍如何使用API删除服务器属性。 此操作用来删除服务器targetPortalIP配置。 请求语法 plaintext DELETE /rest/v1/system/server/serverId/targetportalIP HTTP/1.1 Date:date Host: ip:port Authorization:authorization 请求参数 参数 类型 描述 是否必须 serverId String 要删除targetPortalIP配置的服务器ID 是 请求示例 删除hblock1的iSCSI目标门户IP。 plaintext DELETE /rest/v1/system/server/hblock1/targetportalIP HTTP/1.1 Date: Thu, 17 Mar 2022 01:01:08 GMT Authorization: HBlock userName:signature Host: 192.168.0.121:1443 响应示例 plaintext HTTP/1.1 204 No Content xhblockrequestid: 821c5921163f47d292aa281887c551f3 Connection: keepalive Date: Thu, 17 Mar 2022 01:01:09 GMT Server: HBlock
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        删除服务器属性
      • 删除虚拟节点
        本文介绍如何删除虚拟节点。 1. 在弹性容器实例控制台左侧导航栏中选择“虚拟节点”,进入虚拟节点列表页。 2. 选择需要删除的虚拟节点,点击右侧“删除”开关进行删除。 注意 需要删除的虚拟节点上必须无Pod,若有Pod,则节点删除失败。
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        虚拟节点
        删除虚拟节点
      • 告警管理
        威胁告警 广义的威胁告警是指由于自然因素、人为因素或软硬件本身的原因,对信息系统造成危害的事件,或对社会造成负面影响的威胁。对于态势感知(专业版)来讲,威胁告警泛指根据大数据分析检测出的,对用户资产产生威胁的安全事件。 事件 事件是一个广泛的概念,可以包括告警,但不限于此,它可以是系统正常操作的一部分,也可以是异常或错误。在运维和安全领域,事件通常指的是已经发生并需要被关注、调查和处理的问题或故障。事件可能由一条或多条告警触发,也可能由其他因素(如用户操作、系统日志等)引发。 事件的目的是为了记录、分析、报告或审计,通常用于记录和报告系统的历史行为,以便于分析和审计。 告警 告警是运维中的一种异常信号的通知,通常是由监控系统或安全设备在检测到系统或网络中的异常情况时自动生成的。例如,当服务器的CPU使用率超过90%时,系统可能会发出告警。这些异常情况可能包括系统故障、安全威胁或性能瓶颈等。 告警通常有明确的指示性,能够明确指出异常发生的位置、类型和影响。同时,告警可以按照严重程度来进行分类,如紧急、重要、一般等,以便运维人员根据告警的严重程度来决定哪些需要优先处理。 告警的目的是及时通知相关人员,以便能够迅速响应并采取措施解决问题。 当态势感知(专业版)检测到的云资源中存在的异常情况(例如,某个恶意IP对资产攻击、资产已被入侵等)时,将以告警的形式将威胁信息展示在态势感知(专业版)告警管理界面中。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        告警管理
      • “自动封禁/解封攻击者”配置实践
        步骤四:手动为封禁IP解封 说明 当IP解封后,访问频率未超过设定阈值时,不会被封禁。 解除BOT防护动态拦截 1. 在“防护配置 > 对象防护配置”页面,选择“安全防护”页签,定位到“BOT防护”模块。 2. 单击拦截列表右侧的“解除拦截”,进入动态拦截页面。 3. 对于正在拦截中的对象,单击操作列的“解除拦截”可放开拦截。 解除攻击惩罚 1. 在“防护配置 > 对象防护配置”页面,选择“系统配置”页签,定位到“攻击惩罚”模块。 2. 单击惩罚列表右侧的“前去查看”,进入惩罚列表页面。 3. 对于正在惩罚中的拦截对象,单击操作列的“解除惩罚”可放开惩罚对象封禁。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        最佳实践
        “自动封禁/解封攻击者”配置实践
      • 清空白名单
        本页介绍RDSPostgreSQL如何清空白名单。 通过“清空白名单”操作,只允许本地访问实例,即白名单ip列表被设置成了“127.0.0.1;0:0:0:0:0:0:0:1”。 操作场景 “清空白名单”操作仅作用于当前分组,若不允许外部ip访问实例,可以使用该操作。 注意 清空白名单不会影响实例的正常运行。 清空白名单仅作用当前分组,若有其他分组,则白名单ip列表为所有分组的并集。 清空白名单不会删除白名单分组,只会将分组内的白名单列表设置为127.0.0.1;0:0:0:0:0:0:0:1。 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见 操作方式 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 点击白名单管理,进入到白名单管理页面。 7. 选择需要操作的白名单组操作列的“清空”按钮。 8. 点击“确定”,清空白名单,点击“取消”,放弃操作。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据安全
        白名单管理
        清空白名单
      • 客户端安装
        本小节介绍安全专区云数据库审计客户端安装方法。 下载客户端 下载客户端,选择对应的客户端进行下载。 安装步骤 1.下载安装包,根据包中的Agent安装手册提示完成安装及连接配置。 2.填写信息,进行客户端与云数据库审计的连接。 3.在Windows上安装Agent客户端,默认安装即可。 4.执行Agent,选择接收、发送数据包的网卡,并填写相应的信息。 IP地址:云数据库审计管理口地址192.168.0.225; 抓包端口:本地数据库端口,如默认ORACLE端口1521,MSSQL默认1433,MYSQL默认3306,如需添加多个端口,请使用逗号进行分隔; 服务端口:默认云数据库审计设备服务端口,默认9999,请使用默认配置; 缓冲队列个数:缓冲队列大小,使用默认配置即可; 收发网卡:请根据实际情况进行选择,程序支持自动发现功能。 注意 Agent必须要保证始终运行,才能将本地数据库连接信息发送给审计设备,一旦关闭,将不会向审计系统发送本地审计数据,因此请将Agent设置为服务。 5.运行后,如出现如下内容,表示工作,并正常发送数据包。 6.连接成功后,可到【部署方式】,查看已连接到的客户端。 完成以上操作部署后,可在安全专区平台进行日常运营。
        来自:
        帮助文档
        安全专区
        快速入门
        云数据库审计
        客户端安装
      • 创建用户
        本章节介绍了如何创建分布式消息服务RocketMQ实例的用户。 操作场景 RocketMQ实例支持ACL权限控制功能,通过创建多个用户并为其赋予不同的Topic和消费组权限,以达到用户之间的权限隔离。 前提条件 已购买RocketMQ实例。 步骤一:开启ACL访问控制 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在“连接信息”区域,单击“ACL访问控制”后的,开启ACL访问控制。 图1 开启ACL访问控制 须知: 仅2021年8月21号后购买的实例,支持设置ACL访问控制。 开启ACL访问控制会导致没有配置认证信息的客户端连接中断。 步骤二:创建用户 1. 在左侧导航栏,单击“用户管理”,进入“用户管理”页面。 2. 单击“创建用户”,弹出“创建用户”对话框。 3. 参考表1,填写用户名称和配置信息。 表1 用户参数说明 参数 说明 名称 自定义用户名称,用于识别不同的用户。 用户名创建成功后,不可修改。 IP白名单 如果请求的来源IP为IP白名单中的地址,不需要校验用户密钥是否正确,且具有所有Topic和消费组的发布+订阅权限。 IP白名单可以配置为具体的IP地址,如:192.168.1.2,192.168.2.3。也可以配置为网段,如192...。 说明 这里网段的写法,需要以192...方式写,暂不支持 192.168.0.0/24的写法。 管理员 开启管理员时,具有所有Topic和消费组的发布+订阅权限。 默认Topic权限 默认的Topic权限。 如果为指定Topic设置特殊权限,特殊权限会覆盖默认权限,此Topic的实际权限为特殊权限。例如:默认权限为订阅,指定Topic的特殊权限为发布+订阅,则此Topic实际权限为发布+订阅。 默认消费组权限 默认的消费组权限。 如果为指定消费组设置特殊权限,特殊权限会覆盖默认权限,此消费组的实际权限为特殊权限。例如:默认权限为订阅,指定消费组的权限为发布+订阅,则此消费组实际权限为发布+订阅。 密钥 设置用户的密钥。 4. 单击“确定”,完成用户的创建。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        用户管理
        创建用户
      • 实时同步
        本节主要介绍实时同步 DRS支持直接同步不同schema的表到同一个schema吗 DRS支持直接同步不同schema的表到同一个schema,表不可以冲突。 DRS实时同步支持使用Online DDL工具吗 DRS MySQL到MySQL的表级增量同步支持使用Online DDL工具进行加减列的操作,需注意以下几点: 因为DRS同步机制和工具的冲突,在同步任务的“设置同步”页面,选择对象同步范围时,不能勾选“增量DDL”项。 使用Online DDL工具进行加列操作时,需先在目标库执行,然后在源库执行。 使用Online DDL工具进行减列操作时,需先在源库执行,再在目标库执行。 常见Online DDL工具: ptonlineschemachange ghost 源库Oracle为RAC集群时,为什么建议使用SCAN IP连接 源库Oracle为RAC集群时,建议使用SCAN IP+ SERVICENAMES方式创建任务,因为SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 如果需要使用SCAN IP,需要保证SCAN IP与源库的所有VIP互通,否则无法通过测试连接检查。 若不使用SCAN IP,可以使用某一节点的VIP,其他节点异常不影响同步。 关于SCAN IP的说明,可参考Oracle官网文档。 源库Oracle补全日志检查方法 Oracle数据库在Physical Standby模式下,日志会从主库直接复制,而自身不产生任何日志。针对Oracle为源的增量同步链路,DRS需要用户提前手动在主库检查补全日志是否符合要求,以保证任务的正常运行。以下检查和设置方法中, 表级:针对指定表的设置。 库级:指整个数据库级别的设置。 PK/UI:每一行日志中除了记录变更的列以外,还额外记录了该行中主键和唯一键的值。 ALL:每一行日志中记录了该行所有列的值。 以下三项检查,满足其中一项即可符合DRS增量同步的基本要求。 表级补全日志PK/UI检查(最低要求) 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 1 在源库中执行以下sql语句。 select from ALLLOGGROUPS where (LOGGROUPTYPE'UNIQUE KEY LOGGING' or LOGGROUPTYPE'PRIMARY KEY LOGGING') and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中能同时对应到LOGGROUPTYPE值为UNIQUE KEY LOGGING和PRIMARY KEY LOGGING的两条记录,即可满足DRS增量同步要求。 步骤 1 如果不满足要求,可执行以下sql语句开启表级PK/UI级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(primary key,unique) columns; 表级补全日志ALL检查 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 2 在源库中执行以下sql语句。 select from ALLLOGGROUPS where LOGGROUPTYPE'ALL COLUMN LOGGING' and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中有记录,即可满足DRS增量同步要求。 步骤 2 如果不满足要求,可执行以下sql语句开启表级ALL级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(all) columns; 库级补全日志检查 针对待同步的库级对象,检查补全日志是否满足要求。 步骤 3 在源库执行以下sql语句。 select SUPPLEMENTALLOGDATAMIN MIN, SUPPLEMENTALLOGDATAPK PK, SUPPLEMENTALLOGDATAUI UI, SUPPLEMENTALLOGDATAALL ALLLOG from v$database; 步骤 3 满足以下其中一项要求即可。 PK和UI同时为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级PK/UI级别补全日志。 alter database add supplemental log data(primary key, unique) columns; ALLLOG为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级ALL级别补全日志。 alter database add supplemental log data(all) columns;
        来自:
        帮助文档
        数据库复制
        常见问题
        实时同步
      • 配置HBase连接
        本章节主要介绍数据治理中心的配置HBase连接功能。 目前CDM支持连接的HBase数据源有以下几种: MRS HBase FusionInsight HBase Apache HBase MRS HBase 连接MRS上的HBase数据源时,相关参数如下表所示。 说明 新建MRS连接前,需在MRS中添加一个kerberos认证用户并登录MRS管理页面更新其初始密码,然后使用该新建用户创建MRS连接。 如需连接MRS 2.x版本的集群,请先创建2.x版本的CDM集群。CDM 1.8.x版本的集群无法连接MRS 2.x版本的集群。 需确保MRS集群和DataArts Studio实例之间网络互通,网络互通需满足如下条件: DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,MRS集群可以访问公网且防火墙规则已开放连接端口。 DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见 Type Ⅰ)> 添加路由信息”章节,配置安全组规则请参见《虚拟 > 添加安全组规则”章节。 此外,还需确保该MRS集群与DataArts Studio工作空间所属的企业项目相同,如果不同,您需要修改工作空间的企业项目。 详见下表:MRS上的HBase连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mrshbaselink Manager IP MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 127.0.0.1 用户名 选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”和“密码”填写为新建的MRS用户及其密码。 说明 如果CDM集群为2.9.0版本及之后版本,且MRS集群为3.1.0及之后版本,则所创建的用户至少需具备Managerviewer的角色权限才能在CDM创建连接;如果需要对MRS组件的库、表、列进行操作,还需要参考MRS文档添加对应组件的库、表、列操作权限。 如果CDM集群为2.9.0之前的版本,或MRS集群为3.1.0之前的版本,则所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在CDM创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 cdm 密码 访问MRS Manager的用户密码。 认证类型 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 SIMPLE HBase版本 HBase版本。 HBASE2X 运行模式 “HBASE2X”版本支持该参数。选择HBase连接的运行模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 说明 :STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 STANDALONE 是否使用集群配置 您可以通过使用集群配置,简化Hadoop连接参数配置。 否 集群配置名 仅当“是否使用集群配置”为“是”时,此参数有效。此参数用于选择用户已经创建好的集群配置。 hbase01 单击“显示高级属性”,然后单击“添加”,您可以添加客户端的配置属性。所添加的每个属性需配置属性名称和值。对于不再需要的属性,可单击属性后的“删除”按钮进行删除。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置HBase连接
      • 管理组件和主机监控
        管理角色实例监控 说明 针对MRS 3.x之前版本,请参考 1.在MRS集群详情页面,单击“组件管理”,在组件列表中单击服务指定名称。 2.单击“实例”,查看角色状态。 角色实例列表中包含实例信息的 角色、主机名 、管理 IP 、业务 IP 、 机架 、运行状态及 配置状态 。 角色实例的运行状态如下表所示。 角色实例运行状态 状态 描述 良好 表示实例当前运行正常。 故障 表示实例当前无法正常工作。 已退服 表示实例处于退服状态。 未启动 表示实例已停止。 未知 表示实例的初始状态信息无法检测。 正在启动 表示实例正在执行启动过程。 正在停止 表示实例正在执行停止过程。 正在恢复 表示实例可能存在异常正在自动修复。 正在退服 表示实例正在执行退服过程。 正在入服 表示实例正在执行入服过程。 启动失败 表示实例启动操作失败。 停止失败 表示实例停止操作失败。 角色实例的配置状态如下表所示。 角色实例配置状态 状态 描述 已同步 系统中最新的配置信息已生效。 配置超期 参数修改后,最新的配置未生效。需重启相应服务生效最新配置信息。 配置失败 参数配置过程中出现通信或读写异常。尝试使用“同步配置”恢复。 配置中 参数配置进行中。 未知 无法获取当前配置状态。 默认以“角色”列按升序排列,单击角色、主机名、管理 IP 、业务IP 、机架 、运行状态或配置状态可修改排列方式。 支持在“角色”筛选相同角色的全部实例。 单击“高级搜索”,在角色搜索区域中设置搜索条件,单击“搜索”,查看指定的角色信息。单击“重置”清除输入的搜索条件。支持模糊搜索条件的部分字符。 3.单击列表中指定角色实例名称,查看角色实例状态及指标信息。 4.定制、查看监控图表。 a.在“图表”区域框中,单击“定制”自定义服务监控指标。 b.在“时间区间”选择查询时间,单击“查看”显示该时间段内的监控数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        管理组件和主机监控
      • 查看实例详情
        本页介绍天翼云TeleDB数据库查看实例详情。 实例详情页面向我们展示了目标实例的基本信息、高可用管理、定时任务和节点组管理。 基本信息:包括实例信息、GTM节点信息、协调节点信息、数据节点信息和冷数据归档信息。 高可用管理:您可参考《高可用管理》章节。 定时任务:您可参考《定时任务管理》章节。 节点组管理:您可参考《节点组管理》章节。 操作步骤 1. 切换至TeleDB控制台。 2. 在左侧导航树中,单击实例列表,进入实例列表页面。 3. 您可通过以下两种方式查看实例详情页面。 在实例列表页面,单击目标实例的实例名称可跳转至实例详情页面。 在实例列表页面,单击目标实例所在行的详情可进入实例详情页面。 4. 在实例详请页面,您可查看实例基本信息。 实例信息:实例ID、实例名称、账户、字符集、创建日期、SSL加密、内部通信加密和KMS。 说明 您可单击复制图标复制实例ID和实例名称,单击修改来修改实例名称,单击重置密码修改root用户密码。 单击打开按钮,开启SSL加密或内部通信加密。修改内部通信加密参数设置,需等待重启生效。 GTM节点信息:规格、节点名称/iP/端口、角色、同步类型、日志同步状态、状态、操作状态、更新时间、版本号和操作。 数据节点信息:规格、节点名称/iP/端口、角色、同步类型、日志同步状态、状态、回放延迟、操作状态、更新时间、版本号和操作。 协调节点信息:规格、节点名称/iP/端口、角色、同步类型、日志同步状态、状态、回放延迟、操作状态、更新时间、版本号、VIP和操作。 冷数据归档信息:endpoint、SERVERNAME、桶名。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        维护管理实例
        查看实例详情
      • 添加CNAME记录
        本小节介绍云解析添加CNAME记录操作方法。 使用场景 用来创建域名的别名。如果需要将域名指向另一个域名,再由另一个域名提供IP地址,就需要添加CNAME记录。 操作方法 1. 登录控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 单击页面上方的“添加记录”按钮,系统将自动生成一条空白记录。 4. 填写以下信息。 主机记录:一般是指子域名的前缀。 如需实现www.ctyun.cn,主机记录输入“ www”。 如需实现ctyun.cn,主机记录输入“@”。 记录类型:选CNAME记录 线路类型:通常选择默认(默认为必填项,否则会导致部分用户无法解析)。 记录值:输入指定域名。 TTL:缓存时间,默认为3600秒。 5. 单击“√”完成记录添加。
        来自:
        帮助文档
        云解析
        用户指南
        解析记录管理
        添加解析记录
        添加CNAME记录
      • 数据传输服务模块安装部署
        本页介绍天翼云TeleDB数据库数据传输服务模块的安装部署操作。 前提条件 本服务部署需要的全部组件按安装顺序排列如下: MySQL Zookeeper Docker 部署规划 本产品采用一键安装包的部署方式,安装包包含了后端运行所需的java应用。安装前需要检查、配置好安装所需的环境。安装后配置前端即可访问。 操作步骤 1. 查看操作系统版本 cat /etc/osrelease; 2. 查看系统架构 uname a; 3. 创建目录并挂载磁盘 sudo mkdir p /dts; 创建目录 sudo fdisk l 查看磁盘,选一块未挂载的/dev/xxx sudo mkdir /dts 创建挂载目录 sudo mkfs.xfs f /dev/sde 创建文件系统,例如选了sde这块盘 /dev/sde /dts xfs defaults 0 0 打开 /etc/fstab 文件末尾添加这一行 sudo mount a 挂载 df h 查看挂载结果 4. 创建用户 1. 执行以下命令,创建用户 sudo useradd dts; 2. 执行以下命令,为用户设置密码 sudo passwd dts; 3. 执行以下命令,修改目录权限 sudo chown R dts:dts /dts; 4. 执行以下命令,为用户添加sudoers权限,并设置免密登录 sudo vi /etc/sudoers; 打开该文件,添加以下行: dts ALL(ALL) NOPASSWD: ALL 保存退出。 5. 为用户开放更多系统资源,打开/etc/security/limits.conf sudo vi /etc/security/limits.conf 在文件末尾添加如下行: dts soft nofile 65535 dts hard nofile 65535 dts soft nproc 65535 dts hard nproc 65535 dts soft stack unlimited dts hard stack unlimited dts soft as unlimited dts hard as unlimited 保存并退出。 6. 执行以下命令,将dts用户加入root用户组 sudo usermod a G root dts; 5. 解压安装包 1. 将部署包拷贝到/dts目录下 sudo cp ctgpaasdts2.8.5P9.tar.gz /dts; 2. 修改压缩包权限 sudo chown dts:dts /dts/ctgpaasdts2.8.5P9.tar.gz; 3. 切换用户 sudo su dts; 4. 进入主目录 cd /dts; 5. 解压并进入解压后的目录内 tar zxvf ctgpaasdts2.8.5P9.tar.gz && cd ctgpaasdts2.8.5P9; 6. 查看主目录结构 ls l; 7. 查看依赖包目录 ls l ./pkg 6. 安装jdk 说明 dts基于java 11运行,因此要先安装jdk。 1. 进入pkg目录 cd ./pkg; 2. 如果是arm架构(鲲鹏机器),则执行如下命令解压 tar zxvf microsoftjdk11.0.12.7.1linuxaarch64.tar.gz 3. 如果x86架构(海光机器),则执行如下命令解压 tar zxvf openjdk11.0.18+10.tar.gz 4. 重命名解压后的目录 mv jdk11.0.12+7 jdk11 5. 配置java环境变量 vi ~/.bashrc 在文件末尾添加以下几行,保存并退出 export JAVAHOME/dts/jdk11 export CLASSPATH.:$JAVAHOME/lib/dt.jar:$JAVAHOME/lib/tools.jar export PATH$JAVAHOME/bin:$PATH 让环境变量生效: source ~/.bashrc; 查看java版本: java version; 7. 安装telnet dts的一键部署包,会用telnet命令检查程序是否安装成功,因此需要这个包。 先查看telnet是否有安装: rpm qa grep telnet; 如果有输出,则不用再安装,否则执行以下安装命令,(以x86架构为例) sudo rpm ivh xinetd2.3.1514.el7.x8664.rpm; sudo rpm ivh telnet0.1765.el78.x8664.rpm; sudo rpm ivh telnetserver0.1765.el78.x8664.rpm; 8. 安装openssl10 sudo rpm ivh compatopenssl101.0.2o3.el8.x8664.rpm; 9. 后端部署 10. 部署包目录架构 下面为执行tree命令输出: ctgpaasdts2.8.5P9arrch64 ├── api │ └── V280001BASEINIT.sql ├── arm64 │ └── install ├── config │ ├── application.yml │ ├── mysqlport.cnf │ ├── otter.properties │ └── start.sh ├── install ├── install.cfg ├── pkg │ ├── compatopenssl101.0.2o3.el8.aarch64.rpm │ ├── docker24.0.5.arrch64.tgz │ ├── manager.web.deploy2.8.5P9.tar.gz │ ├── microsoftjdk11.0.12.7.1linuxaarch64.tar.gz │ ├── mysql5.7.492023.q3.2.aarch64.tar.gz │ ├── ora2pgty4.tar.gz │ ├── telnet0.1776.el8.aarch64.rpm │ ├── telnetserver0.1776.el8.aarch64.rpm │ ├── xinetd2.3.1524.el8.aarch64.rpm │ └── zookeeper3.4.13.tar.gz ├── start ├── stop ├── tools │ ├── aarch64 │ │ ├── go │ │ ├── jdk │ │ │ ├── copyjdkconfigs3.73.ky10.noarch.rpm │ │ │ ├── giflib5.2.11.ky10.aarch64.rpm │ │ │ ├── java11openjdk11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkdevel11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── java11openjdkheadless11.0.6.104.ky10.ky10.aarch64.rpm │ │ │ ├── javapackagesfilesystem5.3.02.ky10.noarch.rpm │ │ │ ├── lksctptools1.0.1611.ky10.aarch64.rpm │ │ │ ├── luaposix33.3.112.ky10.aarch64.rpm │ │ │ ├── tzdatajava2020a1.p01.ky10.noarch.rpm │ │ │ ├── xorgx11fontsothers7.524.ky10.noarch.rpm │ │ │ └── xorgx11fontutils7.542.ky10.aarch64.rpm │ │ ├── mysql │ │ └── net │ │ └── telnet0.1776.ky10.aarch64.rpm │ ├── ELF │ │ └── mysql │ └── secureHandler └── uninstall 11. 填写配置文件 配置文件install.cfg模板如下 { "version": "DTS版本号", "deployPath": "DTS统一部署路径, 需确保目录已经存在且具备正常的读写权限", "db": { "mode": "common", "machine": [ { "username": "DTS管理库所在机器对应登录账号", "password": "DTS管理库所在机器对应登录账号, 明文", "ip": "DTS管理库所在机器对应IP", "port": "DTS管理库所在机器ssh端口" } ], "deploy": "是否部署新的管理库,int类型.如果复用已有库填0, 否则填1. 当取值0时, 上述username, password, port可不填", "auth": { "dbPort": "DTS管理库服务端口, int类型", "superPassword": "DTS管理库root账号对应初始密码, 明文. 如上述deploy取值0, 则可不填", "dbUser": "DTS管理库初始账号, 如上述deploy取值0, 则必须确保该账号已经存在", "dbPassword": "DTS管理库初始账号对应密码, 明文", "dbName": "DTS管理库初始schema" } }, "manager": { "mode": "common", "machine": [ { "username": "DTS控制台所在机器对应登录账号", "password": "DTS控制台所在机器对应登录账号, 明文", "ip": "DTS控制台所在机器对应IP", "port": "DTS控制台所在机器ssh端口" } ], "deploy": 1, "httpPort": "DTS控制台http服务端口, int类型", "httpsPort": "DTS控制台https服务端口, int类型", "conPort": "DTS控制台rpc服务端口, int类型", "specification": "DTS控制台规格信息, 可取值范围micro,min,standard,medium,large.注意:不同的规格在部署时需分配不同的内存,可提供不同的性能参数,具体规格说明见下面附录.一般情况下建议取值min", "prodInstId": "", "allowWebDomain": "" }, "zookeeper": { "mode": "common", "machine": [ { "username": "DTS调度节点(zookeeper)1所在机器对应登录账号", "password": "DTS调度节点(zookeeper)1所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)1所在机器对应IP", "port": "DTS调度节点(zookeeper)1所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)2所在机器对应登录账号", "password": "DTS调度节点(zookeeper)2所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)2所在机器对应IP", "port": "DTS调度节点(zookeeper)2所在机器ssh端口" }, { "username": "DTS调度节点(zookeeper)3所在机器对应登录账号", "password": "DTS调度节点(zookeeper)3所在机器对应登录账号, 明文", "ip": "DTS调度节点(zookeeper)3所在机器对应IP", "port": "DTS调度节点(zookeeper)3所在机器ssh端口" } ], "deploy": "是否部署新的zookeeper,int类型. 如复用已有zookeeper则填0, 否则填1. 当取值0时, 上述username, password, port可不填", "zkPort": "zookeeper对应服务端口,int类型", "zkElection": "zookeeper对应选举端口,int类型", "zkCommunication": "zookeeper对应通信端口,int类型" }, "scene": "standalone" } 先备份一下: cp install.cfg install.cfg.sample; 填写配置文件。 arm架构额外操作:如果是arm架构,则将arm64目录下的install文件拷贝到当前目录(x86不做此步骤) cp ./arm64/install ./ 12. 执行一键部署脚本 ./install 如果部署失败,则执行 chmod +x uninstall; ./uninstall; 解决问题后,重新执行一键部署。 13. 对接dcp 修改application.yml配置,注意需要修改的配置项如下,其他不用管 配置项 描述 填写示例 server.servlet.contextpath 后端服务路径,和dcp约定,必须填写为/dts /dts spring.applicaton.name 在dcp中的组件标识,必须填写为dts dts spring.cloud.inetutils.preferrednetworks 让dcp进行服务发现后的ip地址,如果dts所属服务器是多ip,要注意哪个ip是和dcp通的,这里就填写那个ip地址 182.42.233.200 spring.cloud.zookeeper.enabled 表示会去连zk,必须填写true true spring.cloud.zookeeper.connectstring dcp给出的zk的连接地址 182.42.233.200:2181 spring.cloud.zookeeper.discovery.root dcp给出的组件的注册路径 /services/gctest spring.cloud.zookeeper.maxretries 连接zk的重试次数,不配置默认为10 建议填写300 spring.cloud.zookeeper.maxsleepms 每次重试的等待时间,默认为500 建议填写1000 iam.server.responseApiUrl dcp给出的回单地址 示例如下: server: servlet: contextpath: /dts https: ssl: enabled: false port: 17971 keystoretype: PKCS12 keystore: keystore/dtsserver.p12 keystorepassword: keyalias: dtsserver enabledprotocols: TLSv1,TLSv1.1,TLSv1.2 ciphers: TLSECDHERSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA,TLSECDHERSAWITHAES256CBCSHA384,TLSECDHERSAWITHAES256CBCSHA,TLSECDHERSAWITHRC4128SHA,TLSRSAWITHAES128CBCSHA256,TLSRSAWITHAES128CBCSHA,TLSRSAWITHAES256CBCSHA256,TLSRSAWITHAES256CBCSHA,SSLRSAWITHRC4128SHA mybatis: typealiasespackage: com.chinatelecom.dts.shared.common.model mapperlocations: classpath:dao/.xml configuration: mapunderscoretocamelcase: true spring: application: name: dts cloud: inetutils: preferrednetworks: 182.42.233.200 loadbalancer: ribbon: enabled: false compatibilityverifier: enabled: false zookeeper: enabled: true connectstring: 182.42.233.200:2181 maxretries: 300 maxsleepms: 1000 discovery: preferipaddress: true root: /services/gctest iam.server.url: iam.server.syncApi: /openapi/v1/users/ctyun/sync iam.server.tenants: /openapi/v1/tenants iam.server.versionAgentUrl: /openapi/v1/versions/projectVersion iam.server.logUrl: iam.server.responseApiUrl: api: server: disable: true cluster: xxx:8901 key: TestApiServer digest: 45783632523044543459453955776E704767676F47773D3D 修改otter.properties配置中,otter.run.modeprivatedcp,表示私有云dcp运行环境,示例如下 otter.manager.monitor.email.host smtp.chinatelecom.cn otter.manager.monitor.email.password otter.manager.monitor.email.receiver rc@wq.com otter.manager.monitor.email.security tls otter.manager.monitor.email.stmp.port 465 otter.manager.monitor.email.switch off otter.manager.monitor.email.username otter.run.mode privatedcp otter.zookeeper.aclEnable true otter.zookeeper.authConfig dts:6f562b63312b6b5a6c4f38304c75436d4576693679413d3d otter.zookeeper.cluster.default 182.42.233.200:17973 otter.zookeeper.sessionTimeout 90000 停止manager服务 ./stop.sh 启动manager服务 ./start.sh 14. 前端部署 dcp会给一个前端部署目录,只要把前端文件拷贝到该目录下即可。例如dcp给出的目录为/dcp/teledbdcpfordms/teledbdts,那么 cd /dcp/teledbdcpfordms/teledbdts; 拷贝前端压缩包到console目录 cp teledbdts.zip /dcp/teledbdcpfordms/teledbdts; 解压teledbdts.zip,解压后的文件目录名为teledbdts unzip teledbdtszip; 重命名teledbdts mv teledbdts console; 15. 导入ADAM镜像 前提是部署好docker服务,然后导入ADAM镜像,注意要在DTS工作节点运行的那台机器上导入 docker load input ora2pgty4.tar latest 16. 添加开机启动 1. 给与可执行权限 sudo chmod +x autorestart.sh; 2. 打开/etc/cron.allow文件,在末尾添加上dts,允许dts用户执行crontab命令,保存退出 sudo vi /etc/cron.allow; 3. 编辑crontab crontab e; 4. 在末尾添加上自启命令,保存退出 @reboot /dts/dtsinstall/2.8.5/autorestart.sh /dts/dtsinstall/2.8.5/manager > /dts/dtsinstall/2.8.5/restart.log 2>&1
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        数据传输服务模块安装部署
      • 创建站点监控
        3、创建页面性能类型拨测任务参数配置 “任务类型”模块参数配置如下: 参数 模块 参数说明 是否必填 取值样例 任务名称 该站点监控的自定义名称 是 类型 公网拨测 是 场景 选择站点监控任务使用场景,支持端口性能、页面性能 是 页面性能 监控频率 执行一次站点监控探测任务的时间间隔。 是 1分钟 站点地址 请输入待探测的目标公网地址。注意:选择类型为“http”时,请填写协议头 是 拨测点选择 选择公网拨测源,支持多选 是 北京、成都 “拨测参数定义”模块参数配置如下(可选): 参数 模块 参数说明 是否必填 取值样例 拨测参数定义 拨测元素 1、设备类型 模拟不同类型终端设备访问站点监控任务,默认PC 2、浏览器设备 模拟不同浏览器访问站点监控任务,默认Chrome 是 1、PC 2、Chrome 断言配置 定义拨测任务执行期间要检查的规则或条件。如果拨测节点拨测的响应结果满足了断言配置中定义的所有条件,则任务被视为成功;否则,任务被视为失败,最多支持配置5个 1、首屏用时 首屏用时是否符合预期条件 2、总耗时 总耗时是否符合预期 否 首屏用时:大于100ms 总耗时:大于200ms 高级配置 1、超时时间 定义等待服务器返回响应数据的最长时间,单位ms 2、拨测周期 站点拨测任务执行的每日时段 3、拨测时段 站点拨测任务执行的每日时段 是 1、1000ms 2、星期天、星期一、星期二、星期三、星期四、星期五 星期六 3、00:00:0023:59:59 说明 页面性能拨测任务通过模拟用户在不同环境下访问 Web 页面的场景,获取全面的 Web 页面体验数据,包括页面整体加载耗时、页面加载平均速率、首屏用时等。适合于需要监控网站性能和用户体验的情况,如电子商务网站、新闻门户或任何需要确保快速加载和高可用性的 Web 服务。 注意 云监控站点拨测功能拨测源为公网地址,如果您的网络限制只允许特定的IP地址或IP地址范围通过访问控制。为保证拨测任务正常运行,需要将拨测源IP添加到白名单内。以下为拨测源IP信息: 北京:49.7.181.220 成都:203.25.214.97 广州:14.18.126.255 南京:117.88.94.181 贵阳:10.50.63.188 辽阳:123.245.187.56 拉萨:113.62.168.11 武汉:119.96.23.216
        来自:
        帮助文档
        云监控服务
        用户指南
        站点监控
        创建站点监控
      • 查询消费组信息
        查看消费进度(Kafka客户端) 未开启SASL的Kafka实例,在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令查询消费进度。 ./kafkaconsumergroups.sh bootstrapserver {brokerip}:{port} offsets describe allgroups 已开启SASL的Kafka实例,通过以下步骤查询消费进度。 (可选)如果已经设置了SSL证书配置,请跳过此步骤。否则请执行以下操作。在Kafka客户端的“/config”目录中创建“ssluserconfig.properties”文件,参考步骤3增加SSL证书配置。 在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过以下命令查询消费进度。 ./kafkaconsumergroups.sh bootstrapserver {brokerip}:{port} offsets describe allgroups commandconfig ./config/ssluserconfig.properties
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        查询消费组信息
      • 接口滥用拦截
        新增检测项 配置项 说明 检测项 支持快捷选择系统内置的检测项(包括暴力破解、批量注册、批量导出),或选择自定义接口滥用。 若选择系统内置的检测项,则防护对象会自动填充。 检测项名称 当“检测项”选择“自定义接口滥用”,需要设置检测项名称。 检测项名称不允许重复。 防护开关 拦截:当客户端请求行为匹配检测规则,则拦截客户端请求。 关闭:该检测项不生效。 告警:当客户端请求行为匹配检测规则,不会拦截客户端请求,但会产生攻击日志。 拦截时间 客户端触发检测规则的处置时长。 防护对象 设置需要防护的API资产对象。支持从三个维度设置API防护对象: API:从API资产中选择防护对象。 标签:关联标签的API资产。如:敏感信息包含银行卡号和手机号的API资产。 URI:API资产中,满足正则规则的API资产。 统计周期 设置统计周期。 统计阈值 设置统计阈值。 检测粒度 设置检测粒度,支持设置IP、IP+UA。 举例: 配置自定义接口滥用规则,防护开关为拦截,拦截时间为30分钟,防护对象为GET /aaa,统计周期为10分钟,统计阈值为100,检测粒度的IP。 当在10分钟内统计到某个IP对于GET /aaa的请求次数达到100次,则对该IP后续针对GET /aaa的请求继续拦截,拦截时间为30分钟。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        API安全
        安全防护
        接口滥用拦截
      • API使用说明
        OpenAPI门户提供了产品的API 文档、API调试、SDK中心等。 关于用户如何使用天翼云弹性高性能计算产品API的详细介绍,请参见使用API。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        API参考
        API使用说明
      • 查看HBlock事件
        示例2 查询最近发生的5条用户事件。 plaintext [root@hblockserver CTYUNHBlockPlus3.10.0x64] ./stor event ls type user num 5 +++++++ Event Time Event ID Requester IP Module Event Name Status Error Code +++++++ 20240123 14:07:06 f0ffa38c7a8e42539352b19eb4af906c 192.168.0.110 Server RemoveServer 202 20240123 13:55:09 1f312b1949e5440fa132e1fe2cf99385 1.202.233.200 System Login 200 20240123 11:10:46 26f47555b9e64a76bdfecbd4a459b4aa 192.168.0.110 Server SetPath 204 20240123 11:07:09 a97ae9e89d92429fa947c36ccf43fac8 192.168.0.110 Server AddPath 200 20240123 11:01:08 69f5f9f057a7487db4950391d4da8856 192.168.0.110 Server SetServer 204 +++++++ 用户事件描述 项目 描述 Event Time HBlock接收到用户事件请求的时间。 Event ID 用户事件ID。 Requester IP 发起请求的源IP地址。 Moudle 用户事件所属模块。 Event Name 用户事件名称。 说明 用户事件名称描述详见用户事件列表。 Status 响应状态码。 Error Code 错误码。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        事件和日志管理
        查看HBlock事件
      • 查看基本信息
        参数名称 参数说明 域名 防护的域名或IP。 部署模式 防护网站的部署模式,仅支持“独享模式”。 源站IP/端口 客户端访问的网站服务器的公网IP地址和WAF转发客户端请求到服务器的业务端口。 证书 绑定该域名的证书,单击证书名称,可跳转到“证书管理”页面。 近3天威胁 该域名3天内的防护情况。 工作模式 防护模式。点击切换,可选择以下两种防护模式: “开启防护”:开启状态。 “暂停防护”:关闭状态。如果大量的正常业务被拦截,比如大量返回418返回码,可以将“工作模式”切换为“暂停防护”。该模式下,WAF对所有的流量请求只转发不检测。该模式存在风险,建议您优先选择全局白名单(原误报屏蔽)规则处理正常业务拦截问题。 防护策略 显示通过WAF配置的防护策略总数。单击数字可跳转到规则配置页面。 域名接入进度 网站接入WAF未完成的步骤或者接入状态。 创建时间 该域名添加到WAF的时间。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        网站设置
        基本信息维护
        查看基本信息
      • 信任规则
        配置项 说明 客户端来源 访问业务类型的客户端IP或IP组。可填写多个,以逗号“,”分隔。 客户端端口 可配置多个值或区间,多个值间以逗号“,”分隔,例如:1015,20,25,3040。 客户端工具名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。选择字符串,可配多个客户端工具名,使用逗号“,”分隔。 例:db2bp.exe,javaw.exe,plsqldev.exe。 操作系统用户 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。 客户端主机名 支持字符串匹配、正则表达式匹配、分组选择方式匹配。 选择字符串,可填多值,多个值间以逗号“,”分隔。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        规则配置
        信任规则
      • 实例服务器初始化及实例开通
        步骤4:添加主机管理 说明 每台待添加的主机需安装JDK环境。 每台待添加的主机需创建好用户,如teledb。 每台待添加的主机需对环境进行初始化。可参考准备工作章节对环境进行初始化。 1. 在左侧导航树中选择资源管理 > 主机管理,进入主机管理页面。 2. 单击添加主机 ,出现添加主机弹框。 3. 填写IP地址 、 SSH端口 、 SSH用户名 、 SSH用户密码 、 监控插件端口 、 监控插件部署目录 ,CPU类型 和操作系统等必填信息。 IP地址:部署规划的实例主机ip。 SSH端口:填写SSH端口。 SSH用户名:根据您创建的用户名填写。填写机器的用户名 不要用root账号,需使用有sudo权限的账号。 SSH密码:根据您设置的密码填写。 监控插件端口:端口不能被占用,如占用需更换端口。 监控插件部署目录:系统默认自动填写,无需修改。 CPU类型:请选择您的实际使用的类型。 操作系统类型:请选择您实际使用的类型。 4. 单击测试联通及硬件检测 ,出现绿色标识,单击确定,完成主机的添加。 步骤5:添加VIP 1. 在左侧导航树选择 资源管理> VIP管理 ,进入VIP管理页面。 2. 单击添加VIP ,弹出添加VIP弹框。 3. 填写IP类型 、IP地址 ,单击确定,完成VIP的添加。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        实例服务器初始化及实例开通
      • 如何弹性扩展函数的执行?
        函数计算服务具备自动伸缩的能力,它可以根据您函数的请求量动态地调整函数的实例数量,以承载不同流量的请求。 这种弹性伸缩机制让您无需手动管理服务器或担心资源不足,从而可以专注于开发和优化您的函数代码。
        来自:
        帮助文档
        函数计算
        常见问题
        函数实例
        如何弹性扩展函数的执行?
      • 重置节点
        本文主要介绍重置节点。 操作场景 您可以通过重置节点修改节点的配置,比如修改节点操作系统、登录方式等。 重置节点会重装节点操作系统,并重新安装节点上Kubernetes软件。如果您在使用过程中修改了节点上的配置等操作导致节点不可用,可以通过重置节点进行修复。 约束与限制 v1.13及以上版本的CCE集群支持重置节点。 注意事项 重置节点功能不会重置控制节点,仅能对工作节点进行重置操作,如果重置后节点仍然不可用,请删除该节点重新创建。 重置节点将对节点操作系统进行重置安装,节点上已运行的工作负载业务将会中断,请在业务低峰期操作。 节点重置后系统盘和docker数据盘将会被清空,重置前请事先备份重要数据。 用户节点如果有自行挂载了数据盘,重置完后会清除挂载信息,请事先备份重要数据,重置完成后请重新执行挂载行为,数据不会丢失。 节点上的工作负载实例的IP会发生变化,但是不影响容器网络通信。 云硬盘必须有剩余配额。 操作过程中,后台会把当前节点设置为不可调度状态。 重置节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。重置节点时使用了本地持久存储卷的Pod会从重置的节点上驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。节点重置完成后,Pod可能调度到重置好的节点上,此时Pod会一直处于creating状态,因为PVC对应的底层逻辑卷已经不存在了。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        重置节点
      • 全部扫描
        总览界面可对主机发起各类型风险的扫描。本小节介绍服务器安全卫士的风险发现。 提供以下几类扫描方式:全部扫描、按业务组扫描、按主机IP扫描。 1.点击“全部扫描”按钮,可对全部主机进行全部风险的扫描。 2.点击“全部扫描”按钮旁的下拉按钮,选择“按业务组扫描”,可对选择的业务组进行全部风险的扫描。 3.点击“全部扫描”按钮旁的下拉按钮,选择“按主机IP扫描”,可对选择的主机进行全部风险的扫描。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        风险发现
        风险总览
        全部扫描
      • 术语解释
        安全体检相关术语解释,帮助您更好的理解产品能力。 CVE CVE(Common Vulnerabilities and Exposures)的全称是公共漏洞和暴露,是公开披露的网络安全漏洞列表。 CNVD 国家信息安全漏洞共享平台,简称CNVD,国家计算机网络应急技术处理协调中心联合建立的信息安全漏洞信息共享知识库。 CNNVD 中国国家信息安全漏洞库(英文简称:CNNVD)是中国信息安全测评中心为切实履行漏洞分析和风险评估的职能,负责建设运维的国家信息安全漏洞库,为我国信息安全保障提供基础服务。 连通性检测 检测体检出口IP到目标IP的网络连通性,减少因防火墙、黑白名单等导致的网络不通,造成体检失败。
        来自:
        帮助文档
        安全体检
        产品介绍
        术语解释
      • 收到主机登录成功的告警,怎么处理?
        本章介绍收到主机登录成功的告警的处理方法。 若您在“实时告警通知”项目中勾选了“登录成功通知”选项,则任何帐户登录成功的事件都会向您实时发送告警信息。 若您所有ECS上的帐户都由个别管理员负责管理,通过该功能可以对系统帐户进行严格的监控。 若系统帐户由多人管理,或者不同主机由不同管理员负责管理,那么运维人员可能会因为频繁收到不相关的告警而对运维工作造成困扰,此时建议您登录主机安全服务控制台关闭该告警项。 登录成功并不代表发生了攻击,需要您确认登录IP是否是已知的合法IP。
        来自:
        帮助文档
        企业主机安全
        常见问题
        异地登录问题
        收到主机登录成功的告警,怎么处理?
      • 运行Hue任务
        本章节主要介绍翼MapReduce运行Hue任务。 前提条件 1. 使用Hue WebUI编辑器前,请前往翼MR Manager集群服务Hue连接器管理页面,选择需要启用的连接器,启用成功后,请在页面右上角的运维操作中重启Hue集群服务。重启后,即可前往Hue WebUI页面进行使用。 2. 当前版本支持使用LDAP账号访问Hue。若使用admin、hdfs或hive等已有权限的用户登录Hue,无需进行Ranger授权,可以跳过此步骤;如果新建LDAP用户,需要通过Ranger授予Hive与HDFS权限,操作步骤如下: 1)前往翼MR Manager集群服务中点击Ranger插件启用启用Hive与HDFS,并重启Hive与HDFS服务; 2)登录Ranger WebUI界面给需要登录的用户授权HADOOP SQL/HDFS等权限。 注意 如果没有给登录用户授权,查询hive可能报错Error, Permission denied: usertest, accessWRITE等问题。 3. 修改coresite.xml文件,为Hue用户配置代理权限。在HDFS配置管理中修改coresite.xml文件配置,新增 hadoop.proxyuser.hue.hosts与hadoop.proxyuser.hue.groups配置项,配置值可按需设置为,保存并同步配置后,请重启HDFS与Hivehiveserver2。 注意 如果没有为Hue用户配置代理权限,可能会报错Failed to validate proxy privilege of hue for test(登录用户)。 4. 若通过公网访问Hue WebUI,需保障网络畅通,您可前往控制台节点管理,为Hue所在的master节点绑定弹性IP,为安全组配置入方向访问规则后,点击访问链接与端口页面中的链接,前往Hue WebUI页面。 5. Hue通过JDBC连接Trino 查询引擎。Trino支持多个Catalog(如 hive、mysql等),但Hue默认连接Trino自带system的系统Catalog ,仅用于监控和元数据查询,无法访问Hive表等业务数据。如何查询Hive或其他业务数据?您有两种方式: 方式一:修改Hue默认连接的Catalog(推荐) 编辑Hue配置文件hue.ini,将Trino URL中的system替换为您实际使用的Catalog名称(例如hive) plaintext [[[trino]]] nameTrino JDBC interfacejdbc options'{"url":"jdbc:trino://yourtrinohost:9808/hive", "driver": "io.trino.jdbc.TrinoDriver", "user": "trino", "passwordscript": "/path/to/passwordscript.sh"}' 保存后重启Hue,即可在查询编辑器中直接使用SQL plaintext SELECT FROM default.users 方式二:在SQL中显式指定Catalog(无需改配置) 即使默认Catalog是system,您仍可通过完整表名查询任意Catalog中的数据。 使用SQL查询Hive 中的表 plaintext SELECT FROM hive.default.users 注意 请确保Trino服务端已正确配置对应的Catalog(如 hive.properties)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Hue任务
      • 使用Hive加载HDFS数据并分析图书评分情况
        创建Hive表 1. 下载并安装集群全量客户端,例如在主Master节点上安装,客户端安装目录为“/opt/client”,相关操作可参考用户操作指南安装客户端。 也可直接使用Master节点中自带的集群客户端,安装目录为“/opt/Bigdata/client”。 2. 为主Master节点绑定一个弹性IP并在安全组中放通22端口,然后使用root用户登录主Master节点,进入客户端所在目录并加载变量。 cd /opt/client source bigdataenv 3. 执行 beeline n 'hdfs' 命令进入Hive Beeline命令行界面。 执行以下命令创建一个与原始数据字段匹配的Hive表: create table bookscore (userid int,bookid int,score int,remarks string) row format delimited fields terminated by ','stored as textfile; 4. 查看表是否创建成功: show tables; + tabname + bookscore + 将原始数据导入Hive并进行分析 1. 继续在Hive Beeline命令行中执行以下命令,将已导入HDFS的原始数据导入Hive表中。 load data inpath '/tmp/test/bookscore.txt' into table bookscore; 2. 数据导入完成后,执行如下命令,查看Hive表内容。 select from bookscore; ++++ bookscore.userid bookscore.bookid bookscore.score bookscore.remarks ++++ 202001 242 3 Good! 202002 302 3 Test. 202003 377 1 Bad! 220204 51 2 Bad! 202005 346 1 aaa 202006 474 4 None 202007 265 2 Bad! 202008 465 5 Good! 202009 451 3 Bad! 202010 86 3 Bad! 202011 257 2 Bad! 202012 465 4 Good! 202013 465 4 Good! 202014 465 4 Good! 202015 302 5 Good! 202016 302 3 Good! ... 执行以下命令统计表行数: select count() from bookscore; + c0 + 32 + 3. 执行以下命令,等待MapReduce任务完成后,筛选原始数据中累计评分最高的图书top3。 select bookid,sum(score) as summarize from bookscore group by bookid order by summarize desc limit 3; 例如最终显示内容如下: ... INFO : 20211014 19:53:42,427 Stage2 map 0%, reduce 0% INFO : 20211014 19:53:49,572 Stage2 map 100%, reduce 0%, Cumulative CPU 2.15 sec INFO : 20211014 19:53:56,713 Stage2 map 100%, reduce 100%, Cumulative CPU 4.19 sec INFO : MapReduce Total cumulative CPU time: 4 seconds 190 msec INFO : Ended Job job16341972076820025 INFO : MapReduce Jobs Launched: INFO : StageStage1: Map: 1 Reduce: 1 Cumulative CPU: 4.24 sec HDFS Read: 7872 HDFS Write: 322 SUCCESS INFO : StageStage2: Map: 1 Reduce: 1 Cumulative CPU: 4.19 sec HDFS Read: 5965 HDFS Write: 143 SUCCESS INFO : Total MapReduce CPU Time Spent: 8 seconds 430 msec INFO : Completed executing command(queryIdomm20211014195310cf6696335b584bd5983773286ea83409); Time taken: 47.388 seconds INFO : OK INFO : Concurrency mode is disabled, not creating a lock manager ++ bookid summarize ++ 465 170 302 110 474 88 ++ 3 rows selected (47.469 seconds) 以上内容表示,ID为465、302、474的3本书籍,为累计评分最高的Top3图书。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        使用Hive加载HDFS数据并分析图书评分情况
      • 配置内网互访规则
        本节介绍如何配置VPC边界防护的内网互访规则。 添加内网互访规则 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“访问控制 > VPC边界规则”,进入VPC边界规则页面。 3. 选择“内网互访规则”页签,单击“添加规则”,在弹出的添加规则页面中,填写防护规则信息。 规则参数说明如下: 参数名称 参数说明 名称 自定义防护规则名称。名称长度不能超过100个字符。 源IP地址 支持输入IPv4地址或使用已添加的地址簿: 输入IPv4:使用“/”隔开掩码,例如192.168.2.0/24,0.0.0.0/0表示任意地址。 地址簿选择:通过下拉框选择已添加的IP地址簿,添加IP地址簿请参见添加IP地址簿。 源端口 支持输入端口号或使用已添加的地址簿: 输入端口:输入单个端口号或连续的端口号,例如10或110,0表示任意端口。 地址簿选择:通过下拉框选择已添加的端口地址簿,添加端口地址簿请参见添加端口地址簿。 目的IP地址 支持输入IPv4地址或使用已添加的地址簿: 输入IPv4:使用“/”隔开掩码,如192.168.2.0/24,0.0.0.0/0表示任意地址。 地址簿选择:通过下拉框选择已添加的IP地址簿,添加IP地址簿请参见[添加IP地址簿](
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        访问控制
        配置VPC边界防护规则
        配置内网互访规则
      • 自建PostgreSQL迁移至自建人大金仓
        本节为您介绍自建PostgreSQL迁移至自建人大金仓任务配置。 前提条件 自建人大金仓目标端版本为KingbaseESV7、V8版本 目标端权限要求 迁移模式 所需权限 全量迁移 数据库模式的owner角色 结构迁移 数据库模式的owner角色 增量迁移 用户为超级用户或者复制角色 稽核修复 数据库模式的owner角色 目标端配置 数据源类型 选定为KingbaseES,可将源端迁移至版本范围内的KingbaseES数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称 模式 目标端用于接收源端数据的模式(schema)名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建PostgreSQL为源的迁移任务配置
        自建PostgreSQL迁移至自建人大金仓
      • 1
      • ...
      • 166
      • 167
      • 168
      • 169
      • 170
      • ...
      • 476
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      应用

      文档下载

      购买License

      产品变更

      首次使用——开通账号

      登录

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号