活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云创校园_相关内容
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 拨测
        场景描述 在进行消息发送与接收验证的过程中,我们需要确保RocketMQ的生产者能够将消息成功发送到指定的Topic,同时消费者能够接收到这些消息。通过验证,可以确认生产者发送的消息能够准确无误地到达消费者,这是消息队列最基本也是最重要的功能要求。在开发和测试阶段,通过消息发送与接收验证可以及时发现并修复可能存在的问题,避免在实际应用中出现故障。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和Topic。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息Topic,若无选项,请新增Topic,详见上文创建Topic和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        拨测
      • 工作空间角色权限
        管理员权限:由ctiam定义,除租户主账户外可定义多个管理员,通过给用户组授权【智算服务平台管理员权限】,可以读写所有工作空间下所有用户所有功能的数据。 工作空间管理员:在工作空间定义,创建者+创建的时候可以把别人添加成管理员角色,可以读写自己工作空间里面的所有用户的数据 算法开发:在工作空间内定义的,只能读写工作空间内自己的数据,无法读写其他账号创建的数据,但是可以读取其他账号分享给自己的基础数据集和标注数据集。 算法运维:在工作空间内定义的。可以管理(包括停止和删除,不允许创建)工作空间内所有用户的任务类数据(包括开发机、训练任务)用于进行实例任务的运维和异常排查,但是不能管理其他用户的资产。 权限点名称 工作空间角色(IAM管理员和工作空间管理员) 工作空间角色(算法开发:+自己创建的数据) 工作空间(算法运维+自己创建的数据) 工作空间角色(算法运维+他人创建数据) 工作空间用户添加 允许 不允许 不允许 不允许 工作空间用户列表 允许 允许 允许 允许 工作空间用户编辑 允许 不允许 不允许 不允许 工作空间用户删除 允许 不允许 不允许 不允许 工作空间配置菜单 允许 不允许 不允许 不允许 工作空间配置按钮 允许 不允许 不允许 不允许 数据集创建 允许 允许 允许 不允许 数据集删除 允许 允许 允许 不允许 数据集查看 允许 允许 允许 不允许 数据集导入 允许 允许 允许 不允许 数据集重命名 允许 允许 允许 不允许 数据集普通加速 允许 允许 允许 不允许 数据集发布 允许 允许 允许 不允许 数据集导出 允许 允许 允许 不允许 数据集下载 允许 允许 允许 不允许 数据集标注 允许 允许 允许 不允许 数据集清洗 允许 允许 允许 不允许 数据集推送到高速缓存 允许 允许 允许 不允许 数据集制作副本 允许 允许 允许 不允许 数据集分享或取消分享 允许 允许 允许 不允许 基础数据集创建 允许 允许 允许 不允许 基础数据集查看 允许 允许 允许 不允许 基础数据集修改可见范围 允许 允许 允许 不允许 基础数据集重命名 允许 允许 允许 不允许 基础数据集修改挂载路径 允许 允许 允许 不允许 基础数据集删除 允许 允许 允许 不允许 基础数据集查看文件 允许 允许 允许 不允许 基础数据集加速到智算存储 允许 允许 允许 不允许 基础数据集备份到普通存储 允许 允许 允许 不允许 我的模型新增模型外壳 允许 允许 允许 不允许 我的模型新增模型版本 允许 允许 允许 不允许 我的模型模型外壳名称去重校验 允许 允许 允许 不允许 我的模型更新模型外壳(编辑名称和描述) 允许 允许 允许 不允许 我的模型模型外壳列表分页查询 允许 允许 允许 不允许 我的模型根据id查询模型外壳单条信息 允许 允许 允许 不允许 我的模型分页查询模型版本 允许 允许 允许 不允许 我的模型分页查询模型详情页 允许 允许 允许 不允许 我的模型获取所有模型外壳的所有版本号 (模型部署用) 允许 允许 允许 不允许 我的模型模型文件上传 允许 允许 允许 不允许 我的模型下载模型文件 允许 允许 允许 不允许 我的模型导出到本地 允许 允许 允许 不允许 我的模型导出到天翼云媒体存储 允许 允许 允许 不允许 我的模型模型外壳删除 允许 允许 允许 不允许 我的模型模型版本删除 允许 允许 允许 不允许 我的模型模型文件删除 允许 允许 允许 不允许 我的模型外壳获取口令 允许 允许 允许 不允许 我的模型获取口令 允许 允许 允许 不允许 我的模型根据口令获取模型名称与id 允许 允许 允许 不允许 我的模型获取可压缩的模型外壳及版本详情 允许 允许 允许 不允许 我的镜像自定义镜像查看 允许 允许 允许 不允许 我的镜像自定义镜像制作镜像 允许 允许 允许 不允许 我的镜像自定义镜像取消制作 允许 允许 允许 不允许 我的镜像自定义镜像分享 允许 允许 允许 不允许 我的镜像自定义镜像取消分享 允许 允许 允许 不允许 我的代码包分页查询 允许 允许 允许 不允许 我的代码包导入代码包 允许 允许 允许 无 我的代码包重新上传 允许 允许 允许 不允许 我的代码包删除 允许 允许 允许 不允许 我的代码包查看 允许 允许 允许 不允许 我的代码包开始训练 允许 允许 允许 不允许 我的代码包在线编码 允许 允许 允许 不允许 我的代码包下载 允许 允许 允许 不允许 训练任务新建 允许 允许 允许 无 训练任务复制 允许 允许 允许 不允许 训练任务启动 允许 允许 允许 允许 训练任务停止 允许 允许 允许 允许 训练任务删除 允许 允许 允许 允许 训练任务分页查询 允许 允许 允许 允许 训练任务查看详情 允许 允许 允许 允许 开发机新建 允许 允许 允许 无 开发机启动 允许 允许 允许 允许 开发机停止 允许 允许 允许 允许 开发机删除 允许 允许 允许 允许 开发机分页查询 允许 允许 允许 允许 开发机查看详情 允许 允许 允许 允许 开发机保存至代码包 允许 允许 允许 不允许 开发机制作镜像 允许 允许 允许 不允许 开发机开始训练 允许 允许 允许 不允许 公共服务事件 允许 允许 允许 允许 公共服务日志 允许 允许 允许 允许 公共服务监控 允许 允许 允许 允许 公共服务保存至模型管理 允许 允许 允许 不允许
        来自:
        帮助文档
        训推服务
        用户指南
        管理中心
        工作空间管理
        工作空间角色权限
      • 工作空间角色权限
        管理员权限:由ctiam定义,除租户主账户外可定义多个管理员,通过给用户组授权【智算服务平台管理员权限】,可以读写所有工作空间下所有用户所有功能的数据。 工作空间管理员:在工作空间定义,创建者+创建的时候可以把别人添加成管理员角色,可以读写自己工作空间里面的所有用户的数据 算法开发:在工作空间内定义的,只能读写工作空间内自己的数据,无法读写其他账号创建的数据,但是可以读取其他账号分享给自己的基础数据集和标注数据集。 算法运维:在工作空间内定义的。可以管理(包括停止和删除,不允许创建)工作空间内所有用户的任务类数据(包括开发机、训练任务)用于进行实例任务的运维和异常排查,但是不能管理其他用户的资产。 权限点名称 工作空间角色(IAM管理员和工作空间管理员) 工作空间角色(算法开发:+自己创建的数据) 工作空间(算法运维+自己创建的数据) 工作空间角色(算法运维+他人创建数据) 工作空间用户添加 允许 不允许 不允许 不允许 工作空间用户列表 允许 允许 允许 允许 工作空间用户编辑 允许 不允许 不允许 不允许 工作空间用户删除 允许 不允许 不允许 不允许 工作空间配置菜单 允许 不允许 不允许 不允许 工作空间配置按钮 允许 不允许 不允许 不允许 数据集创建 允许 允许 允许 不允许 数据集删除 允许 允许 允许 不允许 数据集查看 允许 允许 允许 不允许 数据集导入 允许 允许 允许 不允许 数据集重命名 允许 允许 允许 不允许 数据集普通加速 允许 允许 允许 不允许 数据集发布 允许 允许 允许 不允许 数据集导出 允许 允许 允许 不允许 数据集下载 允许 允许 允许 不允许 数据集标注 允许 允许 允许 不允许 数据集清洗 允许 允许 允许 不允许 数据集推送到高速缓存 允许 允许 允许 不允许 数据集制作副本 允许 允许 允许 不允许 数据集分享或取消分享 允许 允许 允许 不允许 基础数据集创建 允许 允许 允许 不允许 基础数据集查看 允许 允许 允许 不允许 基础数据集修改可见范围 允许 允许 允许 不允许 基础数据集重命名 允许 允许 允许 不允许 基础数据集修改挂载路径 允许 允许 允许 不允许 基础数据集删除 允许 允许 允许 不允许 基础数据集查看文件 允许 允许 允许 不允许 基础数据集加速到智算存储 允许 允许 允许 不允许 基础数据集备份到普通存储 允许 允许 允许 不允许 我的模型新增模型外壳 允许 允许 允许 不允许 我的模型新增模型版本 允许 允许 允许 不允许 我的模型模型外壳名称去重校验 允许 允许 允许 不允许 我的模型更新模型外壳(编辑名称和描述) 允许 允许 允许 不允许 我的模型模型外壳列表分页查询 允许 允许 允许 不允许 我的模型根据id查询模型外壳单条信息 允许 允许 允许 不允许 我的模型分页查询模型版本 允许 允许 允许 不允许 我的模型分页查询模型详情页 允许 允许 允许 不允许 我的模型获取所有模型外壳的所有版本号 (模型部署用) 允许 允许 允许 不允许 我的模型模型文件上传 允许 允许 允许 不允许 我的模型下载模型文件 允许 允许 允许 不允许 我的模型导出到本地 允许 允许 允许 不允许 我的模型导出到天翼云媒体存储 允许 允许 允许 不允许 我的模型模型外壳删除 允许 允许 允许 不允许 我的模型模型版本删除 允许 允许 允许 不允许 我的模型模型文件删除 允许 允许 允许 不允许 我的模型外壳获取口令 允许 允许 允许 不允许 我的模型获取口令 允许 允许 允许 不允许 我的模型根据口令获取模型名称与id 允许 允许 允许 不允许 我的模型获取可压缩的模型外壳及版本详情 允许 允许 允许 不允许 我的镜像自定义镜像查看 允许 允许 允许 不允许 我的镜像自定义镜像制作镜像 允许 允许 允许 不允许 我的镜像自定义镜像取消制作 允许 允许 允许 不允许 我的镜像自定义镜像分享 允许 允许 允许 不允许 我的镜像自定义镜像取消分享 允许 允许 允许 不允许 我的代码包分页查询 允许 允许 允许 不允许 我的代码包导入代码包 允许 允许 允许 无 我的代码包重新上传 允许 允许 允许 不允许 我的代码包删除 允许 允许 允许 不允许 我的代码包查看 允许 允许 允许 不允许 我的代码包开始训练 允许 允许 允许 不允许 我的代码包在线编码 允许 允许 允许 不允许 我的代码包下载 允许 允许 允许 不允许 训练任务新建 允许 允许 允许 无 训练任务复制 允许 允许 允许 不允许 训练任务启动 允许 允许 允许 允许 训练任务停止 允许 允许 允许 允许 训练任务删除 允许 允许 允许 允许 训练任务分页查询 允许 允许 允许 允许 训练任务查看详情 允许 允许 允许 允许 开发机新建 允许 允许 允许 无 开发机启动 允许 允许 允许 允许 开发机停止 允许 允许 允许 允许 开发机删除 允许 允许 允许 允许 开发机分页查询 允许 允许 允许 允许 开发机查看详情 允许 允许 允许 允许 开发机保存至代码包 允许 允许 允许 不允许 开发机制作镜像 允许 允许 允许 不允许 开发机开始训练 允许 允许 允许 不允许 公共服务事件 允许 允许 允许 允许 公共服务日志 允许 允许 允许 允许 公共服务监控 允许 允许 允许 允许 公共服务保存至模型管理 允许 允许 允许 不允许
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        管理中心
        工作空间管理
        工作空间角色权限
      • 实例概述
        本章节主要介绍物理机实例概述。 实例概述 物理机实例即您创建的一台物理机服务器。不同实例类型提供不同的计算能力、存储空间、网络性能,您可以基于业务需求选择不同类型的实例。当天翼云向您交付一个实例时,您将获得这台服务器完整的控制权限,包括开机、关机、带内管理等。 实例类型 目前天翼云提供的物理机CPU,均为x86架构,根据业务需求选购不同配置的物理机服务器。 x86 V4实例(CPU采用Intel Broadwell架构) x86 V5实例(CPU采用Intel Skylake架构) x86 V6实例(CPU采用Intel Cascade Lake架构) 其他说明 基于本地盘的物理机服务器,系统盘默认RAID 1,数据盘默认直通盘。如果需要更改数据盘RAID配置,可以联系管理员变更。系统盘RAID不支持变配。 常用的RAID级别 RAID 0 RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。 图1 RAID 0数据存储原理 RAID 1 RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半以下,因此常用于对容错要求较高的应用场合,如财政、金融等领域。 图2 RAID 1数据存储原理 RAID 5 RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。 图3 RAID 5数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 6 在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。 图4 RAID 6数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。 RAID 10 RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 0+RAID 1的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。 图5 RAID 10数据存储原理 RAID 50 RAID 50被称为镜像阵列条带,即RAID 5 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图6 RAID 50数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 60 RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图7 RAID 60数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        实例概述
      • 云审计服务支持的关键操作
        操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 事件名称 从主机组移除主机(批量) 给日志资源创建或更新标签 为指定的资源解绑标签 为指定日志单元创建索引 编辑ZOS对象存储导入任务 删除导入任务 删除采集规则 定时SQL任务关闭 创建定时SQL任务 启用告警规则 删除仪表盘订阅 更新加工任务 重命名项目 创建过滤器 重命名仪表盘 日志单元更新 创建采集规则 创建模拟接入任务 更新告警规则 更新消费组 启动加工任务 日志告警规则另存为模板 停止kafka投递任务 仪表盘订阅启用 为日志资源绑定标签 修改采集规则 定时SQL运行实例 重试 专属日志单元取消关联日志服务 删除重建索引任务 投递任务停止 创建主机组 创建分布式消费服务Kafka导入任务 停用采集规则 批量停止告警规则 删除主机组 创建关注 启动模拟接入任务 删除终端节点 更新日志单元索引 将日志采集规则应用于目标主机组 更新某个指定日志项目的描述信息 删除过滤器 更新采集规则 更新Processors 新增消费组关联日志单元 加工任务启动 自动生成行首正则 创建或者修改数据加工任务 删除数据导入任务 给日志资源创建或更新标签 删除检索历史记录 删除模拟接入任务 批量启动告警规则 更新仪表盘描述 匹配的容器信息预览 停用告警规则 停用采集规则 批量删除接口 导入数据预览 修改仪表盘订阅 重命名快速查询 批量停用接口 删除仪表盘订阅 升级agent 删除加工任务 取消关注 主机组解绑采集规则 删除下载任务 创建ZOS对象存储导入任务 删除消费组关联日志单元 删除仪表盘 修改过滤器 更新日志单元配置 删除采集规则 删除日志单元 删除主机组 停用重建索引任务 更新定时SQL任务 创建产品委托授权 从指定主机组中移除主机 创建项目 卸载agent 修改项目标签 创建下载任务 重新生成下载任务 加工任务重新执行 删除目标日志项目 编辑主机组基础信息(名称、备注) 删除消费组关联日志单元 创建一个快速查询 创建仪表盘 加工任务删除 删除消费组 更新主机组描述 更新主机组 停止加工任务 创建主机组 创建或者更新数据投递任务 创建仪表盘订阅 创建vpce 新增消费组关联日志单元 重命名告警规则 创建快速查询 更新主机组 全量容器信息预览 加工任务重新执行 添加主机到主机组 删除kafka投递任务 批量删除告警规则 删除项目 删除日志单元 删除告警规则 创建/更新日志单元索引字段 修改仪表盘 删除主机组 更新告警规则 更新日志单元描述 批量启动接口 停止模拟接入任务 创建日志项目 添加主机到指定主机组 修改仪表盘 编辑日志单元 创建对象存储投递任务 编辑分布式消费服务Kafka导入任务 创建仪表盘 创建下载任务 创建告警规则 更新模拟接入任务 更新日志告警规则模板 创建专属日志单元 删除定时SQL任务 更新检索条件 启动kafka投递任务 删除日志告警规则模板 创建日志单元 删除快速查询 安装插件 更新消费组 新增主机到主机组 创建采集规则 更新对象存储投递任务 编辑项目 启用采集规则 从目标主机组中移除关联的日志采集规则 采集配置解除关联主机组 采集规则启停 更新日志单元存储时长 更新数据导入任务 投递任务启动 停止对象存储投递任务 更新一个快速查询 删除一个快速查询 更新触发条件 删除仪表盘模板 定时SQL任务启动 创建产品委托授权 划词生成正则 更新检查频率 重命名日志单元 创建加工任务 创建消费组 删除对象存储投递任务 启动对象存储投递任务 开启或者关闭服务日志 删除仪表盘 更新项目描述 创建Ingress仪表盘 更新通知策略 创建消费组 创建日志投递Kafka任务 更新仪表盘订阅名称 新建数据导入任务 创建重建索引任务 投递任务删除 创建告警规则 启用采集规则 删除下载任务 移除主机组中主机 新增仪表盘模板 主机组绑定采集规则 创建日志单元 创建主机组
        来自:
        帮助文档
        云日志服务
        用户指南
        云审计服务支持的关键操作
      • 审计
        本页介绍天翼云TeleDB数据库中审计。 数据库安全审计是企业级数据库必须提供的一个基础能力,有助于事后对访问合规性进行追溯。结合业界通用的做法,TeleDB从多个维度来提供全方位的审计能力,同时TeleDB审计通过旁路检测方式,对数据库运行效率的影响极小。 TeleDB审计主要包括粗粒度审计(audit)和细粒度审计(fga)。 粗粒度审计日志主要存储在cn的audit.log:主要针对语句级别、用户级别、对象级别,对象操作级别,主要在sql语法解析层面进行捕捉。 细粒度粒度审计日志存储在dn的audit.fga:主要是针对某个表的列属性、列的值进行审计,在sql执行器进行捕捉。 说明 两套审计规则都依赖auditadmin的审计管理员用户。 审计管理员auditadmin、安全管理员mlsadmin、数据库管理员三权分立,审计用户命名必须以audit开头。 audit和fga使用兼容:相互独立,可只用audit;可只用fga;可用audit和fga。 粗粒度audit操作步骤: 以auditadmin用户进行连接,执行审计规则audit all,会将后续的语句审计记录在$DATADIR/pglog/audit/audit.log $ ./psql h 127.0.0.1 p11111 d postgres W U auditadmin Password for user auditadmin: psql (PostgreSQL 10.0 TeleDBX V6) Type "help" for help. postgres> audit all; WARNING: AuditDefine Rcv: audit all; WARNING: AuditDefine Snd: AUDIT ALL ;AUDIT 细粒度fga操作步骤: 在每1个cn和dn都会开启1个audit logger process和1个后台进程bgworker:audit fga worker tangyujie是初始化的超级用户 $ ./psql h 127.0.0.1 p11111 d postgres W U tangyujie 步骤1: 创建插件&查看参数 create extension pgfga;show enablefga; 1.创建用户和数据库CREATE USER auditfgauser WITH SUPERUSER CREATEDB LOGIN ENCRYPTED PASSWORD 'auditfgauser';CREATE DATABASE auditfgadatabase; 2切换到auditfgadatabase数据库 c auditfgadatabase auditfgauser;create extension pgfga; 3.切换到auditfgauser用户,建表插入数据 c auditfgadatabase auditfgausercreate table foo(idx bigint, str text);insert into foo values(1, 'a'); 3.3 验证insert into foo values(2, 'b');insert into foo values(3, 'c');insert into foo values(4, 'd');select from foo; 步骤2: 制定审计规则 4.切换到 auditadmin审计管理员用户 c auditfgadatabase auditadmin 4.1 增加审计规则addpolicy(指定模式、表名、规则名, 列名、审计条件,模式,存储过程、是否开启审计,语句类型)addpolicy(objectschema,objectname,policyname,auditcolumns,auditcondition,handlerschema,handlermodule,auditenable,statementtypes,auditcolumnopts),其中auditenable必须为true才能生效,默认为true。select addpolicy(objectschema:'public', objectname:'foo',auditcolumns:'idx',policyname:'poli', auditcondition:'idx > 1');select addpolicy('public', 'foo', 'poli1','idx','idx >1','public','helloworld','true','select'); 4.2 查询pgfga插件的视图 select from pgauditfgaconf;select from pgauditfgaconfdetail ;select from pgauditfgapolicycolumnsdetail; 步骤3: 生效审计规则 4.3开启审计规则 enablepolicy(指定模式、表名、规则名),使得auditenable为trueselect enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli');select enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 其他函数 4.4 删除审计规则droppolicy(指定模式、表名、规则名)。 select droppolicy(objectschema:'public', objectname:'bar',policyname:'poli'); 4.5 禁用审计规则 disablepolicy(指定模式、表名、规则名),使得auditenable为false select disablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 审计日志管理 1. 设置设计规则 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计设置 ,出现审计设置弹框。 ② 在审计设置 弹框中,选择 是否开启审计 、 审计粒度 ,单击确定完成审计设置。 当审计粒度为 全局级 ,您可对需要进行审计和告警的动作进行选择。 当审计粒度为 对象级 ,您需设置对象审计规则同时使用。 2. 审计规则管理 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计规则管理 ,进入审计规则管理页面。 ② 新增审计规则 1. 在审计规则管理 页面,单击 新增审计规则 ,出现新增审计规则弹框。 2. 在新增审计规则 弹框中,输入 规则名称 、选择 审计对象名称 、勾选 审计操作类型 、输入审计对象和选择 是否开启 , 是否触发告警 ,单击确定完成新增审计规则。 ③ 编辑审计规则 单击已创建审计规则所在行的 编辑 ,可修改审计规则。 ④ 删除审计规则 单击已创建审计规则所在行的 删除 ,可删除审计规则。 3. 查看审计日志 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框 选择查询条件 ,单击 查询 。 查询条件可选择 节点名称 、 审计类型 、 SQL语句 、数据库名称 和 用户名 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        审计
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 计费模式变更
        前提条件 预付费用户须保证账户余额大于100元才能进行转按需操作,后付费用户无此余额限制。 注意 该操作按钮名称为“到期转按需”,即需要等文件系统到期时才会转为按量付费,不会立刻转为按量付费。 “到期转按需”在到期当天不可操作,例如某资源到期时间为2023年11月15日 10:23 ,则在11月15日00:00之后不可进行转按需操作。 “到期转按需”的时刻为到期第二天凌晨,非到期时刻。资源在到期当天为全天可用状态,可放心使用。如资源到期时间为2023年11月15日 10:23,若已设置到期转按需,则11月15日当天(到期当天),资源全天为“可用”状态,业务正常进行。在11月16日凌晨,系统将自动进行转按需操作。 操作步骤 1. 在弹性文件服务控制台列表页面,点击包周期文件系统的“更多”>“到期转按需”。 2. 进入资源信息确认页面,确认无误后点击“转按需”,弹出转换成功的提示框中点击“确定”即完成转换。 3. 在“费用中心续订管理到期转按需”页签下可以查看已设置到期转按需的资源。 取消到期转按需 资源到期前可取消“转按需”设置,操作入口在“费用中心>订单管理>续订管理”下的“到期转按需”标签页面进行操作。
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        计费方式
        计费模式变更
      • 购买
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 购买操作步骤: 步骤一:登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二:进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三:点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 • 当实例的“状态”变为“运行中”时,说明实例创建成功。 • 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        购买
      • 公有云数据库产品价格
        本章会按照数据库实例规格大小介绍公有云收费模式。 按照版本不同分为MySQL、PostgreSQL、SQL Server。基于云计算平台,稳定可靠、可弹性伸缩、即开即用的在线数据库服务,实现数据库数据备份、智能监控、便捷迁移。资费包括主备实例、主实例、只读实例、存储和备份租用费。 收费标准(根据天翼云价格调整策略,2021年6月1日零点采用新的资费标准) 包年预付费优惠政策:一年85折,2年7折,3年享受5折优惠。 1、MySQL主备实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.96 462 2 8 1.4 672 2 16 1.8 860 4 8 1.9 910 4 16 2.58 1239 4 32 3.6 1720 8 16 3.79 1820 8 32 5.12 2457 8 64 7.2 3440 16 32 7.58 3640 16 64 10.15 4872 16 128 14.4 6880 32 64 15.16 7278 32 128 20.26 9723 60 128 30.24 14556 60 256 40.52 19446 60 512 56 27000 64 128 30.24 14556 64 256 40.52 19446 64 512 56 27000 2、MySQL单机实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.48 231 2 8 0.88 422 2 16 1.24 598 4 8 0.95 455 4 16 1.29 620 4 32 2.49 1,195 8 16 1.89 910 8 32 2.56 1,229 8 64 4.97 2,390 16 32 3.78 1,820 16 64 5.08 2,436 16 128 9.95 4,780 32 64 7.56 3,639 32 128 10.13 4,862 60 128 15.12 7,278 60 256 20.26 9,724 60 512 39.8 19,120 64 128 15.12 7278 64 256 20.26 9724 64 512 39.8 19120 3、MySQL只读实例 产品名称 核数/核 内存/GB 标准资费 :::: 包月(元/月) 按需(元/小时) MySQL只读节点 2 4GB 231 0.48 MySQL只读节点 2 8GB 422 0.88 MySQL只读节点 2 16GB 598 1.24 MySQL只读节点 4 8GB 455 0.95 MySQL只读节点 4 16GB 620 1.29 MySQL只读节点 4 32GB 1,195 2.49 MySQL只读节点 8 16GB 910 1.89 MySQL只读节点 8 32GB 1,229 2.56 MySQL只读节点 8 64GB 2,390 4.97 MySQL只读节点 16 32GB 1,820 3.78 MySQL只读节点 16 64GB 2,436 5.08 MySQL只读节点 16 128GB 4,780 9.95 MySQL只读节点 32 64GB 3,639 7.56 MySQL只读节点 32 128GB 4,862 10.13 MySQL只读节点 64 128GB 7,278 15.12 MySQL只读节点 64 256GB 9,724 20.26 MySQL只读节点 64 512GB 19,120 39.80 4、Mysql proxy CPU(核) 内存(GB) 标准资费(元/小时) 2 4 1.13 4 8 2.26 8 16 4.52 目前支持mysql proxy能力的资源池包括西安2、苏州、广州4、杭州、福州、石家庄。 5、MySQL鲲鹏规格 (1)主备实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.76 364 2 8GB 1.38 664 4 8GB 1.48 712 4 16GB 2.09 1,004 8 16GB 2.97 1,424 8 32GB 4.18 2,008 12 24GB 4.96 2,381 12 48GB 7.92 3,802 16 32GB 6.95 3,336 16 64GB 9.18 4,404 24 48GB 8.52 4,090 24 96GB 15.84 7,603 32 64GB 13.88 6,664 32 128GB 18.34 8,804 48 96GB 16.96 8,141 48 192GB 33 15,840 60 120GB 27.75 13,320 (2)单机实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 (3)只读实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 6、其他收费项目 6.1 存储 产品规格 包月标准价格(元/月) 按需标准价格(元/小时) 主备实例 SATA 0.5 0.0009 主备实例 SAS 0.7 0.0015 主备实例 SSD 2 0.0028 主备实例 ESSD 3.2 0.0068 主实例 SATA 0.3 0.0005 主实例 SAS 0.4 0.0009 主实例 SSD 1.2 0.0017 主实例 ESSD 2 0.0042 只读实例 SATA 0.3 0.0005 只读实例 SAS 0.4 0.0009 只读实例 SSD 1.2 0.0017 只读实例 ESSD 2 0.0042 6.2 备份 同区域备份——若合营MySQL 数据库备份存储用量超过主数据库存储空间的100%,按需收取对象存储空间费用,标准资费为 0.000139 元/GB/小时。 跨区域备份——标准资费为 0.001 元/GB/小时。 6.3 秒级监控 计费方式为按需付费,0.048元/小时。
        来自:
        帮助文档
        关系数据库MySQL版
        计费说明
        公有云数据库产品价格
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • 通过自定义域名访问集群
        本节介绍了通过自定义域名访问集群的用户指南。 前提条件 已经创建了一个天翼云账号,并且有一个已经创建好的云容器引擎集群。 集群中已经部署了应用服务,并且可以通过Cluster IP或NodePort进行访问。 已经拥有一个域名,并可以对其进行DNS配置。 创建Ingress Controller 登录云容器引擎控制台,单击集群名称进入集群。 在左侧导航栏中找到网络,下拉找到路由,点击路由,点击左上角创建路由。 创建Ingress Controller。 安装完成后,可以使用kubectl命令查看Ingress Controller的服务: plaintext kubectl get services n ingressnginx 确保ingressnginxcontroller服务已经创建并在运行。 创建Ingress资源 编写Ingress资源配置文件 创建一个新的YAML文件,例如myingress.yaml,内容如下: plaintext apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: myingress namespace: default spec: rules: host: http: paths: path: / pathType: Prefix backend: service: name: port: number: 替换 为您的自定义域名, 为您的Kubernetes服务名称, 为服务的端口号。 应用Ingress资源 使用kubectl应用刚才创建的Ingress资源文件: plaintext kubectl apply f myingress.yaml 验证Ingress资源是否已创建: plaintext kubectl get ingress 配置自定义域名的DNS记录 获取Ingress Controller的外部IP 使用以下命令获取Ingress Controller的外部IP: plaintext kubectl get services n ingressnginx 记录ingressnginxcontroller服务的EXTERNALIP。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过自定义域名访问集群
      • 查看安全报告
        此小节介绍企业主机安全查看安全报告。 主机安全支持订阅日报、周报、月报和自定义,展现不同周期主机安全趋势以及关键安全事件与风险,订阅报告将为您保存6个月,以满足等保测评以及审计的需要。 注意 勾选订阅报告后,第二天即可查看、下载。 约束限制 未开启企业版、旗舰版、网页防篡改版、容器版防护不支持安全报告相关操作。 安全报告概览 1、登录管理控制台。 2、在页面左上角单击选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。。 4、左侧选择“安全报告”进入安全报告概览页面。服务预设了按月(default monthly security report)和按周(default weekly security report)统计的两个安全报告模板,可直接使用。 5、单击目标报告的“获取报告”,跳转至报告预览页,可查看报告信息、下载、发送报告。 查看报告发送记录 发送记录存储了邮件发送报告的发送详情。 1、单击安全报告概览页右上角的“报告发送记录”查看报告发送记录。 2、在弹窗中查看报告发送记录,参数说明如表所示。 报告发送详情 报告发送记录参数 参数名称 参数说明 报告名称 已发送报告的名称。 统计周期 目标发送报告内容的统计周期。 报告类型 目标发送报告的统计周期类型。 安全周报 安全月报 安全日报 自定义报告 邮件发送时间 目标报告发送的时间。 3、单击“操作”列的“获取报告”可查看历史发送的报告信息,同时可预览和下载报告。
        来自:
        帮助文档
        企业主机安全
        用户指南
        安全报告
        查看安全报告
      • 基本概念
        本文介绍视频直播相关的基本概念。 边缘节点 边缘节点是离终端用户最近的一个节点,经过视频直播加速的客户,其用户访问无论推流还是拉流均经过边缘节点接入。 源站 源站指客户的直播源,通常由客户运营维护,为视频直播加速提供原始内容。 DNS DNS,即Domain Name System,指域名解析服务。它的作用是把域名转换成网络可以识别的IP地址。人们习惯记忆域名,但机器间互相只认IP地址,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的www.baidu.com会自动转换成220.181.112.143。常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 CNAME域名 客户接入直播时,在天翼云直播控制台完成加速域名添加后,系统会为您分配一个天翼云的CNAME域名,例如 .ctadns.cn,您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctadns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云直播的节点,实现加速的目的。 CNAME记录 CNAME记录是指域名解析中的别名记录(Canonical Name),用来把一个域名解析到另一个域名(CNAME域名),再由CNAME域名来解析到需要访问的服务器IP地址。 DNS解析时间 DNS解析时间是指通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。
        来自:
        帮助文档
        视频直播
        产品介绍
        基本概念
      • 查询指定卷
        名称 类型 描述 lunName String 卷名称。 targetName String target名称。 status String 卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Recovering:卷正在还原中。 RecoverFailed:卷还原失败。 Rollbacking:卷正在回滚。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Suspended:卷挂起。 Suspending:卷正在挂起。 SuspendFailed:卷挂起失败。 progress Double 卷还原进度百分比。 仅卷状态为Recovering时显示。 recoverFailedReason String 卷还原失败的原因。 仅卷状态为RecoverFailed时显示。 deleteFailedReason String 卷云上数据删除失败的原因。 仅卷状态为DeleteFailed时显示。 wipeFailedReason String 卷清空失败的原因。 仅卷状态为WipeFailed时显示。 waitUploadBytes String 待上传数据量,单位是bytes。 仅卷状态为Suspending时显示。 SuspendFailedReason String 卷挂起失败的原因。 仅卷状态为SuspendFailed时显示。 capacity Integer 卷容量,单位是GiB。 storageMode String 卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 createTime Long 卷创建时间。unix时间戳(UTC),精确到毫秒。 iSCSITargets Array of iSCSITarget iSCSI target属性集合,详见“ 表1 响应参数iSCSITarget说明 ”。 cloud.bucketName String 存储桶的名称(仅上云卷支持)。 cloud.prefix String 对象存储中的前缀名称(仅上云卷支持)。 如果未设置,则不返回此项。 cloud.accessKey String 对象存储服务的Access Key(仅上云卷支持)。 cloud.endpoint String 对象存储Endpoint(仅上云卷支持)。 cloud.objectSize Integer 数据存储在对象存储的大小(仅上云卷支持)。 cloud.storageClass String 数据在对象存储的存储类型(仅上云卷支持): STANDARD:标准存储。 STANDARDIA:低频访问存储。 cloud.compression String 是否压缩数据上传至对象存储(仅上云卷支持): Enabled:压缩数据上传至对象存储。 Disabled:不压缩数据上传至对象存储。 cloud.signVersion String 上云签名认证的类型(仅上云卷支持): v2:V2签名认证。 v4:V4签名认证。 cloud.region String Endpoint资源池所在区域(仅上云卷支持)。 cloud.provider String 对象存储服务名称: OOS : 天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 config.localStorageClass String 卷冗余模式(仅集群版支持): singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M 。 config.minReplica Integer 卷的最小副本数(仅集群版支持)。 config.ECfragmentSize Integer 分片大小(仅集群版支持)。如果冗余模式为EC N+M ,则会返回此项。 config.sectorSize Long 扇区大小,单位是bytes。 config.highAvailability String 高可用模式类型(仅集群版支持): ActiveStandby:主备,该卷关联对应target下的所有IQN。 Disabled:禁用,该卷关联对应target下的1个IQN。 config.writePolicy String 卷的写策略: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。 config.cachePool String 缓存存储池(仅集群版支持)。 config.pool String 存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。 config.redundancyOverlap Integer 卷的折叠副本数(仅集群版支持)。 config.serverAffinity Object 卷主备分布优先级设置,详见“ 表5 响应参数config.serverAffinity说明 ”。 config.qosPolicy Object 卷关联的QoS策略信息,详见 表“6 响应参数config.qosPolicy说明 ”。 config.qosPolicyforLUN Object 卷所在存储池中卷的默认QoS策略信息(仅集群版支持),详见“ 表7 响应参数config.qosPolicyforLUN ”。 说明 如果卷的缓存存储池和存储池同时存在时,展示缓存存储池的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 如果卷只有存储池:展示存储池的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 config.path String 数据目录(仅单机版支持)。 dataHealth.normal Double 卷正常数据的百分比。 dataHealth.lowRedundancy Double 卷降级数据的百分比。 dataHealth.error Double 卷错误数据的百分比。 dataHealth.reconstructionProgress Double 如果卷存在降级状态的数据,数据重建进度的百分比。 dataHealth.ETR Long 卷如果存在降级数据,预计剩余的数据重建时间。单位为秒。如果返回值为负数,说明数据无法重建,需用户尽快修复。 number Long 卷编号。LUN在target下的编号,由存储系统分配,对应客户端挂载存储设备时设备地址中的LUN ID。如果target下只有一个LUN,LUN的编号一般为0。 uuid String 卷的唯一识别码。 isClone Boolean 是否是克隆卷: true:是克隆卷。 false:不是克隆卷。 sourceSnapshotName String 对应的快照名称(仅克隆卷支持)。 snapshots.snapshotNumbers Integer 卷的快照个数(仅本地卷支持)。 snapshots.basisofCurData Boolean 当前的读写是否是基于卷的初始状态: true:是。 false:否。 snapshots.lunSnapshots Array of lunSnapshot 卷的快照信息集合(仅本地卷支持),详见“ 表8 响应参数lunSnapshot/Children说明 ”。 snapshots.snapshotSize Long 卷关联的快照大小的总和(仅本地卷支持),即快照记录的数据量。单位是bytes。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 WWID String 卷的唯一标识符。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        查询指定卷
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 以Jeager方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍采用Jaeger SDK方式上报c应用的链路数据,具体如下。 前提条件 完成vpce接入。 背景信息 Jaeger是Uber推出的一款开源分布式追踪系统,兼容OpenTracing API,已在Uber大规模使用,且已加入CNCF开源组织。其主要功能是聚合来自各个异构系统的实时监控数据。 接入步骤 1、安装依赖包 plaintext dotnet add  package Jaeger dotnet add  package OpenTracing dotnet add  package OpenTracing.Contrib.NetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 新建文件JaegerServiceCollectionExtensions.cs,代码如下 plaintext using System; using System.Reflection; using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Jaeger.Senders.Thrift; using Microsoft.Extensions.Logging; using OpenTracing; using OpenTracing.Contrib.NetCore.Configuration; using OpenTracing.Util; namespace Microsoft.Extensions.DependencyInjection {     public static class JaegerServiceCollectionExtensions     {         private static readonly Uri jaegerUri  new Uri("endpoint"); //替换为上报数据的Endpoint         public static IServiceCollection AddJaeger(this IServiceCollection services)         {             if (services  null)                 throw new ArgumentNullException(nameof(services));             services.AddSingleton (serviceProvider >             {                 var serviceName  "";    //修改为自定义的服务名                 //ILoggerFactory loggerFactory  serviceProvider.GetRequiredService ();                 var loggerFactory  LoggerFactory.Create(builder >                   {                       // 添加控制台日志提供程序                       builder.AddConsole();                       // (可选)其他配置,例如设置日志级别                       // builder.SetMinimumLevel(LogLevel.Debug);                   });                 ISampler sampler  new ConstSampler(sample: true);                                  //将token替换为自己的鉴权token                 IReporter reporter  new RemoteReporter.Builder()                     .WithSender(new HttpSender.Builder(jaegerUri.ToString()).WithAuth("token").Build())                     .Build();                                 //IReporter reporter  new LoggingReporter(loggerFactory);                                 ITracer tracer  new Tracer.Builder(serviceName)                     .WithLoggerFactory(loggerFactory)                     .WithSampler(sampler)                     .WithReporter(reporter)                     .Build();                 GlobalTracer.Register(tracer);                 return tracer;             });             // Prevent endless loops when OpenTracing is tracking HTTP requests to Jaeger.             services.Configure (options >             {                 options.IgnorePatterns.Add(request > jaegerUri.IsBaseOf(request.RequestUri));             });                         return services;         }     } } 4、开启链路跟踪 plaintext using Jaeger; using Jaeger.Reporters; using Jaeger.Samplers; using Microsoft.Extensions.Logging; var builder  WebApplication.CreateBuilder(args); builder.Services.AddJaeger();        //ITracer对象的初始化和注册 builder.Services.AddOpenTracing();   //开启Http链路 builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以Jeager方式接入
      • 购买GeminiDB Influx实例
        本章节主要介绍了如何在云数据库GeminiDB管理控制台购买InfluxDB数据库实例。 前提条件 注册天翼云账号并开通云服务。 账户余额大于或等于0元。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,单击“购买数据库实例”,进入“服务选型”页面。 4. 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 图1 计费模式和基本信息 表1 计费模式 参数 描述 :: 计费模式 选择“包年包月”或“按需计费”。 包年包月 用户选购完服务配置后,可以根据需要设置购买时长,系统会一次性按照购买价格对账户余额进行扣费。 创建成功后,如果包周期实例到期后不再长期使用资源,可将“包年/包月”实例转为“按需计费”,到期后将转为按需计费实例。具体请参见包周期实例转按需。 说明 “包年/包月”方式购买的实例不能直接删除,仅支持资源退订操作,如何退订资源请参见退订包周期实例 按需计费 用户选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 创建成功后,如果需要长期使用资源,可将“按需计费”实例转为“包年/包月”,继续使用这些资源的同时,享受包周期的低资费。具体请参见按需计费实例转包周期。 表2 基本信息 参数 描述 :: 区域 租户所在的区域,也可在页面左上角切换。 注意 请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 实例名称 设置实例名称时,需要满足如下规则。 实例名称允许和已有名称重复。 实例名称长度在4个到64个字节之间,必须以字母或中文字开头,区分大小写,可以包含字母、数字、中划线、下划线或中文(一个中文字符占用3个字节),不能包含其他特殊字符。 创建成功后,可修改实例名称,请参见修改实例名称。 兼容接口 InfluxDB 实例类型 集群 版本 1.7 可用区 指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 目前支持将实例部署在单可用区或3可用区。 若实例只需要部署在单可用区,请选择1个可用区。 若实例需要实现跨可用区容灾部署时,请选择3可用区,此时实例下的节点Hash均衡部署在3个可用区内。 图2 规格与存储 表3 规格与存储 参数 描述 :: 数据节点性能规格 数据节点提供对时序数据库的读写能力。根据DFV共享资源池和内存的配置不同分为多种实例规格,您可以根据业务场景选择符合业务类型的性能规格。 GeminiDB Influx支持的实例规格详情,请参见数数据库实例规格。 数据节点数量 数据节点数量请根据实际需要进行选取。创建成功后可以添加节点,请参见添加节点。 存储空间 存储空间最小100GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 是否选购冷存储 冷存储主要用于存储一些查询频率较低的历史数据。您可以在购买GeminiDB Influx实例时,选购冷存储,并通过配置冷热数据分离,来指定热数据的保存时长,这样热数据超过保存时长后将被自动归档到冷存储中,从而降低存储成本。 是 请根据业务需要设置冷存储空间容量大小。 否 不选购冷存储。 如果您在创建实例时未开启冷存储,后期根据业务需要,也可以为已有实例创建冷存储,具体操作请参考开启冷存储 说明 冷存储开启后暂不支持关闭。 冷存储空间 冷存储空间最小500GB,最大100,000GB,用户选择存储大小必须为整数,且每次至少可选择1GB的存储容量。 实例创建成功后可以扩容冷存储,详情请参见 扩容冷存储。 负载均衡地址 系统默认勾选负载均衡地址,不支持修改。 待实例创建成功后,您可以通过该负载均衡地址连接实例,具体操作请参见通过通过负载均衡地址连接实例。 图3 网络和数据库配置 表4 网络 参数 描述 :: 虚拟私有云 实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您可根据需要创建或选择所需的虚拟私有云。 如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可用的VPC,系统自动为您分配资源。 说明 目前GeminiDB Influx实例创建完成后不支持切换虚拟私有云VPC,请谨慎选择所属虚拟私有云。 如需与ECS进行内网通信,GeminiDB Influx实例与需要通信的ECS需要处于同一个虚拟私有云下,或者不同虚拟私有云之间配置对等连接。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 内网安全组 安全组限制安全访问规则,加强GeminiDB Influx实例与其他服务间的安全访问。请确保所选取的安全组允许客户端访问数据库实例。 如果没有可用的安全组,系统自动为您分配资源。 表5 数据库配置 参数 描述 :: 管理员账户名 管理员账户名默认为rwuser。 管理员密码 用户设置的密码。 长度为8~32个字符。 必须是大写字母、小写字母、数字、特殊字符的组合,其中可输入~!@
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        快速入门
        购买实例
        购买GeminiDB Influx实例
      • 购买
        本章节主要介绍数据治理中心DataArts Studio的购买流程。 只有拥有天翼云帐号,以及DAYU Administrator或Tenant Administrator权限的用户才可以购买DataArts Studio实例或DataArts Studio增量包。如需购买,您需要给用户授予所需的权限。 说明 Tenant Administrator策略具有所有云服务的管理员权限(除IAM管理权限之外),为安全起见,一般不建议给IAM用户授予该权限,请谨慎操作 。 前提条件 已申请VPC、子网和安全组,您也可以在购买DataArts Studio实例过程中申请VPC、子网和安全组。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 购买“数据治理中心 DataArts Studio(基础包)” 1.在数据治理中心控制台页面,进行“云资源访问授权”后,单击“购买实例”,进入购买DataArts Studio实例界面。 数据治理中心与这些云服务之间存在业务交互关系,需要与这些云服务协同工作,因此需要您创建云服务委托,将操作权限委托给数据治理中心,让数据治理中心以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 云服务委托包含DWS、MRS、RDS、OBS、SMN、KMS等服务的相关权限,作用范围可以访问IAM的委托界面查看。 另外子账号以主账号的委托为准,不需要额外申请委托。 勾选所有服务并单击“同意授权”,系统会自动创建委托。 完成了委托授权后,下次再进入数据治理中心控制台首页时,系统不会再弹出访问授权的对话框。 如果您只勾选了其中的某几个服务进行委托授权,下次进入数据治理中心控制台首页时,系统仍会弹出访问授权的对话框,提示您对未授权的云服务进行访问授权。 2.选择版本,点击“立即购买”,在订购页面设置DataArts Studio实例参数,各参数说明如下表所示。 DataArts Studio实例参数 参数名称 样例 说明 ::: 区域 选择实例的区域,不同区域的资源之间内网不互通。 选择区域时,您需要考虑以下几个因素: 地理位置一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。不过,在基础设施、BGP网络品质、资源的操作与配置等方面,中国大陆各个区域间区别不大,如果您或者您的目标用户在中国大陆,可以不用考虑不同区域造成的网络时延问题。曼谷等其他地区和国家提供国际带宽,主要面向非中国大陆地区的用户。如果您或者您的目标用户在中国大陆,使用这些区域会有较长的访问时延,不建议使用。 云服务之间的关系如果多个云服务一起搭配使用,需要注意不同区域的云服务内网不互通。例如数据治理中心(包括管理中心、CDM等组件)需要与MRS、OBS等服务互通时,如果数据治理中心与其他云服务处于不同区域的情况下,需要通过公网或者专线打通网络;而在同区域情况下,同子网、同安全组的不同实例默认网络互通。 资源的价格不同区域的资源价格可能有差异,请参见天翼云服务价格详情。 企业项目 default DataArts Studio实例关联的企业项目。企业项目管理是一种按企业项目管理云资源的方式,具体请参见《企业项目管理用户指南》。 如果已经创建了企业项目,这里才可以选择。 当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio实例企业项目与该云服务实例的企业项目相同。 一个企业项目下只能购买一个DataArts Studio实例。 需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 版本 初级版 选择需要购买的数据治理中心版本,版本差异请参见产品规格。 实例名称 数据治理中心test 自定义DataArts Studio实例名称。 可用区 可用区1 第一次购买DataArts Studio实例或批增量包时,可用区无要求。 再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的批量数据迁移CDM集群所属的VPC、子网、安全组。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS、DIS等),则您需要确保CDM集群与该云服务网络互通。 同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 subnet1 安全组 sg1 续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。 3.查看当前配置,并确认购买时长,确认无误后单击“立即购买”。 4.单击“去支付”,按提示付款成功即可在首页看到已开通的实例。 5.返回数据治理中心控制台首页时,如您此前未进行“云资源访问授权”,系统会再次自动弹出“云资源访问授权”的对话框,提示您对所列出的服务进行委托授权。 6.在已购买的实例中单击“进入控制台”,进入数据治理中心控制台。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        购买
      • 查看告警发送历史
        告警详情 告警详情页面显示了告警等级、发送信息、状态,以及告警基本信息、关联事件和活动记录。 在告警详情页面,您可以执行以下操作: 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。 在详情、事件和活动页签可以分别查看以下信息: 详情页签显示了告警创建时间、告警内容、通知策略。 事件页签显示了告警关联事件、事件创建时间和事件状态。单击事件名称,可以查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 行动页签显示了告警触发行动集成的记录。 活动页签显示了告警的活动记录。 事件详情 事件详情面板显示了事件的基本信息和扩展字段。 处理告警 在控制台中,对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。 1. 在告警页面单击右上角的关联操作人。 说明 操作人的名称为通知对象中的联系人名称。 由于一个天翼云账号可能存在多人同时使用的情况,所以需要通过关联操作人来区分实际每次操作告警的人员。 2. 在目标告警右侧的操作列,或者单击目标告警,在告警详情页面: 单击认领,可以将自己设置为当前告警的处理人。 单击解决,可以关闭目标告警。 单机屏蔽,可以屏蔽目标告警的通知。 单击更多图标,然后单击指定告警处理人,可以指定钉钉群里的联系人为告警处理人。 单击更多图标,然后单击修改告警等级,可以修改告警等级。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        告警管理(新版)
        查看告警发送历史
      • 查看告警发送历史(1)
        告警详情 告警详情页面显示了告警等级、发送信息、状态,以及告警基本信息、关联事件和活动记录。 在告警详情页面,您可以执行以下操作: 对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。具体操作,请参见下方【处理告警】。 在详情、事件和活动页签可以分别查看以下信息: 详情页签显示了告警创建时间、告警内容、通知策略。 事件页签显示了告警关联事件、事件创建时间和事件状态。单击事件名称,可以查看目标事件的详细信息。更多信息,请参见下方【事件详情】。 行动页签显示了告警触发行动集成的记录。 活动页签显示了告警的活动记录。 事件详情 事件详情面板显示了事件的基本信息和扩展字段。 处理告警 在控制台中,对于未解决的告警,可以认领、解决、指定告警处理人或修改告警等级。 1. 在告警页面单击右上角的关联操作人。 说明 操作人的名称为通知对象中的联系人名称。 由于一个天翼云账号可能存在多人同时使用的情况,所以需要通过关联操作人来区分实际每次操作告警的人员。 2. 在目标告警右侧的操作列,或者单击目标告警,在告警详情页面: 单击认领,可以将自己设置为当前告警的处理人。 单击解决,可以关闭目标告警。 单机屏蔽,可以屏蔽目标告警的通知。 单击更多图标,然后单击指定告警处理人,可以指定钉钉群里的联系人为告警处理人。 单击更多图标,然后单击修改告警等级,可以修改告警等级。
        来自:
      • 通过Annotation配置负载均衡类型的服务
        本节介绍网络的用户指南:通过Annotation配置负载均衡类型的服务。 通过在Service的Yaml文件中配置注解Annotation,您可以对天翼云负载均衡、监听转发等进行配置,本文介绍负载均衡类型Service支持配置的Annotation。 注解说明 注解名称 描述 示例 支持的CCM版本 service.beta.kubernetes.io/ctyunloadbalancerid 指定已有负载均衡,取值为负载均衡实例的ID。删除service时该 ELB不会被删除 lb v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerspec 指定新建负载均衡的规格,如elb.s2.small elb.s2.small v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalanceraddresstype 指定新建负载均衡的公网私网类型,取值: intranet:负载均衡地址类型为私网,intranet为默认值 internet:负载均衡地址类型为公网 internet v1.0.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprotocolport 指定负载均衡监听HTTP协议或HTTPS协议,可指定多个监听,多个监听之间以逗号“,”分割 https:443,http:80 v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancersslcert 指定SSL证书,取值为SSL证书ID,可在负载均衡控制台的证书管理页面查看证书ID。 仅监听协议为HTTPS协议时需要指定 cert v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerxforwardedfor 指定负载均衡监听器附加XForwardedFor头字段,通过开启该参数,后端服务可获取客户端源IP。取值为“true”或“false” 仅支持监听协议为HTTP和HTTPS协议 "true" v1.0.4及以上 service.beta.kubernetes.io/ctyunloadbalancerchargetype 指定创建公网负载均衡时,公网的计费类型,取值: bandwidth:按带宽计费 traffic:按流量计费,traffic为默认值 traffic v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerbandwidth 计费类型为“bandwidth”时,可指定带宽的大小,值为数字类型,默认为1 Mbps 5 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancercyclecount 指定负载均衡的计费周期,值为数字类型,表示购买月数,默认为1个月 1 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancereipid 指定新建公网负载均衡时,可指定绑定已有的弹性IP,取值为弹性IP的ID,可在网络控制台的弹性IP详情页面查看ID eip v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerprojectid 指定新建负载均衡所属的企业项目,取值为企业项目ID,可在IAM控制台中企业项目详情查看ID 0 v1.0.5及以上 service.beta.kubernetes.io/ctyunloadbalancerenableipv6 指定新建负载均衡时,可指定开启负载均衡的ipv6 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6bandwidthid 指定新建支持ipv6的公网负载均衡时,需指定IPv6带宽ID,可在网络控制台的IPv6带宽详情页面查看ID。如果没有IPv6带宽,请先创建一个 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerenablelistenernat64 指定支持ipv6的负载均衡时,可指定开启监听器的nat64,支持负载均衡将ipv6流量转发到ipv4的后端 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6address 指定新建支持ipv6的负载均衡时,可指定负载均衡的ipv6地址(该地址为负载均衡所在子网的ipv6地址段中未被分配的ip),未指定则由系统随机分配 v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners 指定已有负载均衡时,可指定是否强制覆盖已有监听 "true" v1.0.7及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckflag 健康检查开关,取值off或on。off:不启用;on:启用 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption 配置全局健康检查的选项,对service下所有端口配置起作用。内容为json类型数据,数据结构见下表“健康检查字段数据结构说明” 注意 使用该字段,需确保service下端口配置的protocol协议一致 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoptions 配置健康检查的选项,支持为service下单个端口或部分端口配置健康检查。内容为数组形式的json数据,数据结构参考表“健康检查字段数据结构说明” 注意 该字段不能与“service.beta.kubernetes.io/ctyunloadbalancerhealthcheckoption”同时使用 v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclflag 指定访问控制的类型,取值: inherit:继承已有ELB配置; all:允许所有IP访问; white:白名单; black:黑名单 white v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclstatus 访问控制开关,值为on或off,只有为on时,黑/白名单才会生效 on v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceraclid 指定访问策略组的ID,可在负载均衡控制台的访问策略组页面查看策略ID ac v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerestablishtimeout 指定建立连接超时时间,只用于TCP监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalanceridletimeout 指定空闲超时时间,只作用于HTTP/HTTPS监听 "30" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerresponsetimeout 指定响应超时时间,只作用于HTTP/HTTPS监听 "5" v1.0.8及以上 service.beta.kubernetes.io/ctyunloadbalancerproxyprotocolflag 指定是否开启后端主机组的Proxy Protocol,ProxyProtocol协议会携带客户端源地址到后端服务器。取值: on:开启 off:关闭 注意 该功能不支持在线平滑开启,切换到ProxyProtocol需要业务停服升级,请谨慎配置。 on v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripmode 指定Service的External IP模式,值为 vip 或 proxy vip:集群内访问Service不会经过ELB,直接经由ipvs/iptables转发到Service对应的后端Pod proxy:集群内访问Service会先经过ELB,最终再转发到对应后端Pod 注意 该特性要求Kubernetes集群版本大于v1.29 proxy v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalanceriptype 指定Service的External IP地址类型,值为 private 或 public private:设置ELB的私网IP为Service的External IP public:设置ELB的公网IP为Service的External IP public v1.2.0及以上 service.beta.kubernetes.io/ctyunloadbalancerpreservesourceip 指定是否开启客户端源地址保持,值为 true 或 false true:开启 false:关闭 注意 客户端源地址保持要求Service的ExternalTrafficPolicy必须为Local。开启该特性,需确保集群节点的弹性网卡对应的安全组已放通客户端源IP,避免影响网络连通 true v1.5.0及以上
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        Service管理
        通过Annotation配置负载均衡类型的服务
      • 功能特性
        服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        功能特性
      • 将MySQL同步到MySQL
        类型名称 使用和操作限制 数据库权限设置 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 提供的目标数据库账号必须拥有如下权限: SELECT、CREATE、INDEX、DROP、DELETE、INSERT、UPDATE、ALTER、CREATE VIEW、CREATE ROUTINE、REFERENCES。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 同步对象约束 支持表、主键索引、唯一索引、普通索引、存储过程、视图、函数的同步,不支持事件、触发器的同步。 库映射时源库中不允许存在存储过程、视图、函数对象。 映射的库中不允许存在除表外的对象且在同步过程中不允许创建这些对象,否则会导致同步任务失败。 不支持非MyISAM和非InnoDB表的同步。 已选择的表与未选择的表之间互相rename的DDL操作,在任务同步中会被过滤掉,可能会导致任务失败或数据不一致。 − 对于一个DDL中存在一个rename的情况(例如:rename A TO B),只支持rename前后库表都在已选择库表中的rename操作(A和B都在已选择库表中),其他情况的rename DDL会被过滤; − 对于一个DDL中存在多个rename的情况(例如:rename A TO B, B TO C),只支持rename前后库表都在已选择库表中的部分rename操作 ,其他情况的rename DDL会被过滤(A和B在已选择库表中,C不在,仅执行rename A TO B)。 − 不建议在多对一同步场景下的进行rename操作,可能会导致任务失败或数据不一致。 源数据库要求 源数据库中的库名不能包含:'<>/"以及非ASCII字符。 源数据库中的表名、视图名不能包含:'<>/"以及非ASCII字符。 源数据库中的库名和库映射的名称不允许为iblogfile。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 目标数据库要求 不支持从高版本同步到低版本。 目标数据库必须有足够的磁盘空间。 目标数据库的字符集必须与源数据库一致。 目标数据库的时区设置必须与源数据库一致。 除了MySQL系统数据库之外,当目标库和源库同名时,目标数据库中若存在与源库同名的表,则表结构必须与源库保持一致。 DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 同步的对象中包含引擎为MyISAM的表,则目标数据库sqlmode不能包含noenginesubstitution参数,否则可能会导致同步失败。 映射到目标库中的库名不能包含:“.”、 “<”、“>”、“”、和“'”。 操作须知 相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 当前仅MySQL>MySQL的同步支持多对一任务同步,进行表级多对一同步时,源库不允许存在无主键表。 源库和目标库是相同的RDS实例时,不支持没有库映射的实时同步。 源库不允许存在与目标库同名的无主键表。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 如果目标库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.75.7.28之间),需提交运维申请才能使用SSL测试连接。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 不支持源数据库恢复到之前时间点的操作(PITR)。 不支持目标数据库恢复到全量同步时间段范围内的PITR操作。 不支持外键级联操作。 不支持强制清理binlog,否则会导致同步任务失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 创建同步任务时,不允许将目标库设为只读。 实时同步过程中,如果修改了源库或者目标库的用户名、密码,会导致同步任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行实时同步。一般情况下不建议在同步过程中修改上述信息。 实时同步过程中,如果修改了源库或者目标库端口,会导致同步任务失败。针对该情况,数据复制服务提供不同的处理机制。 − 对于源库端口,需要在数据复制服务控制台修改为正确的端口,然后重试任务可继续进行实时同步。 − 对于目标库端口,系统自动更新为正确的端口,需要重试任务即可进行同步。 一般情况下不建议在同步过程中修改端口。 为了保持数据一致性,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 当在全量同步过程中,对MyISAM表执行修改操作时,可能造成数据不一致。 增量同步支持表的重命名,源表和目标表必须都在对象选择里。 增量同步支持任务再编辑追加同步对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • Linux主机挂载
        介绍Linux主机挂载块存储的最佳实践。 实践背景 块空间使用的是iSCSI协议,因此在新建块空间后需要使用iSCSI客户端来连接块空间。 本实践是在centos 7上,具有免密sudo权限的普通用户使用iSCSI客户端连接天翼云媒体存储块空间,并且对其进行格式化的过程。 操作步骤 1.执行以下命令,安装iSCSI客户端。 sudo yum install y iscsiinitiatorutils sudo yum install y devicemappermultipath 当系统出现如下所示的更新完毕作为依赖被升级完毕的提示时,说明软件安装完成。 若已安装过所需软件,系统会提示对应的软件包已安装并且是最新版本无须任何处理。 2.配置iSCSI多路径,具体步骤如下: (1) 执行以下命令,生成配置文件/etc/multipath.conf。 mpathconf enable withmultipathd y (2)执行以下命令,修改多路径配置。 sudo vi /etc/multipath.conf (3)添加如下内容。 defaults { userfriendlynames yes pathgroupingpolicy failover failback immediate nopathretry fail } devices { device { vendor "LIOORG" hardwarehandler "1 alua" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prio alua prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } device { vendor "CTyun" pathgroupingpolicy "failover" pathselector "queuelength 0" failback 60 pathchecker tur prioargs exclusiveprefbit fastiofailtmo 25 nopathretry queue } } (4)执行以下命令,进行服务重启。 sudo systemctl restart multipathd 3.修改iSCSI Client的InitiatorName,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/initiatorname.iscsi (2)将InitiatorName(下图红框内内容)修改为创建块空间时填写的CHAP iqn;具体可参考操作步骤【块空间管理】查看所需挂载块空间的CHAP iqn信息(图中的例子为iqn.209901.com.client.cicdtestcy:230323)。 4.修改CHAP权限,具体步骤如下: (1)运行以下命令。 sudo vi /etc/iscsi/iscsid.conf (2)找到以下内容: 修改为下图中内容,其中红框内的username的等号后面填写创建块空间时设定的CHAP用户(图中的例子为testblockzd),password的等号后面填写创建块空间时设定的CHAP密钥(图中的例子为111111111111)。 5.连接块空间,具体步骤如下: (1)为确保连接顺利,先执行 setenforce 0 命令临时禁用防火墙。 (2)执行以下命令,重启相关组件。 sudo systemctl restart iscsid (3)执行以下命令增加iSCSI连接target,具体的targetname参数与portal参见块空间信息中的targetIqn、网关地址与数据端口,具体查看步骤可见操作步骤【块空间管理】。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opnew sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opnew (4)执行以下命令,进行登入操作。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw l 说明 对于步骤5(3)、5(4),可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考: (5)若系统出现以下提示表示登录成功。 (6)可通过以下命令查看新增磁盘。 sudo lsscsi sudo fdisk l sudo lsblk sudo multipath l 注意: 执行后会发现除了机器的原有磁盘外,还挂载了三个新的磁盘,一个是以/dev/mapper/开头的磁盘,另外两个是以/dev/sd开头的磁盘,我们挂载的是前者,即是以/dev/mapper/的磁盘。 每次挂载,该磁盘后面的名字都可能不一样。 如果你有多个块空间使用了同一个iqn,每个块在查看磁盘时均会看到一个以/dev/mapper/开头的磁盘以及两个以/dev/sd开头的磁盘,请总是使用以/dev/mapper/开头的磁盘来进行挂载。 (7)根据系统协议执行以下命令,进行磁盘格式化: xfs文件系统: sudo mkfs.xfs /dev/mapper/mpatha ext4文件系统: sudo mkfs.ext4 /dev/mapper/mpatha 注意 :可以根据实际需求选择命令,将命令中“/dev/mapper/mpatha”部分改为步骤(6)中查找到的新增磁盘地址。 (8)执行以下命令,挂载到本地目录。 sudo mount /dev/mapper/mpatha /mnt/iscsiMnt 注意: mount后第一部分为新增磁盘的实际地址。 mount后第二部分为进行挂载的本地目录地址。 可以通过mount l命令查看是否挂载成功,若显示信息中包含挂载信息则挂载成功,以上样例对应的挂载信息如下,该样例已成功挂载。 (9)执行以下命令,查看已连接的目标。 sudo iscsiadm m session 6.如需断开连接,则执行以下命令。 sudo iscsiadm m node T iqn.201810.com.redhat.iscsigw:iscsiigw u 7.执行以下命令,删除所有记录。 sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:13260 opdelete sudo iscsiadm m node targetnameiqn.201810.com.redhat.iscsigw:iscsiigw portal14.215.109.226:23260 opdelete 说明 对于步骤6、7,可直接通过块空间详情复制对应的操作命令,具体界面如图所示: 更多块空间管理操作可参考:
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Linux主机挂载
      • 备份/变更规格/升级
        FTP/SFTP远程备份失败怎么办? 问题现象 云堡垒机配置了FTP/SFTP远程备份,报“请检查服务器密码或网络连接情况”错误,不能启动远程备份。 选择备份具体某一天日志,提示“备份正在执行”,但远程服务器未接收到该备份文件。 可能原因 原因一:云堡垒机配置的FTP/SFTP服务器账户或密码错误,导致远程备份失败。 原因二:云堡垒机与FTP/SFTP服务器的网络连接不通,导致远程备份失败。 原因三:FTP/SFTP服务器用户目录限制文件上传,导致远程备份失败。 原因四:被选择日期当天的运维日志量大,备份传输速率慢,长时间未备份完成,导致在远程服务器不能及时查看备份文件。 解决办法 原因一: 登录ECS管理控制台,VNC方式登录一台Linux主机,通过Linux主机登录FTP/SFTP服务器,验证服务器账户和密码。验证成功后,重新配置FTP/SFTP服务器远程备份账户和密码,尝试备份。 原因二: 登录云堡垒机系统,通过网络诊断,检查与FTP/SFTP服务器之间网络连接情况。 网络连接正常,请排查其他可能原因。 网络连接异常,请参考CBH安全组规则,检查云堡垒机和FTP/SFTP服务器主机安全组是否放开22端口;检查FTP/SFTP服务器主机的ACL是否放开22端口,并添加云堡垒机公网IP(即弹性IP)为允许。 原因三: 开启用户目录上传权限。 登录云堡垒机系统,选择“系统 > 数据维护 > 日志备份”,重新正确配置FTP/SFTP服务器的“存储路径”。 说明 “存储路径”置空表示备份内容存放到FTP/SFTP服务器用户的主目录下,例如绝对路径/home/用户名;配置的路径需以英文句号开头,例如配置路径为 ./test/abc,则其绝对路径为/home/用户名/test/abc。 原因四: 请您耐心等待,建议备份启动后的第二天再查看服务器上备份文件。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        备份/变更规格/升级
      • 迁移前构造数据
        本节介绍了如何在迁移前构造数据。 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 DRS支持的数据类型如下所示: 源库数据类型 目标库数据类型 源库数据类型做主键,同步能力 源库数据类型做非主键, 同步能力 源库数据类型做主键, 对比能力 源库数据类型做非主键, 对比能力 备注 CHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 VARCHAR character varying 支持 支持 支持 支持 源目标库数据表示范围不同,存在精度损失。 VARCHAR2 character varying 支持 支持 支持 支持 NCHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 NVARCHAR2 nvarchar2 支持 支持 支持 支持 NUMBER numeric 支持 支持 支持 支持 NUMBER (6,3) numeric(6,3) 支持 支持 支持 支持 NUMBER (6,0) Integer 支持 支持 支持 支持 NUMBER (3) smallint 支持 支持 支持 支持 NUMBER (6,2) integer 支持 支持 支持 支持 BINARYFLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 BINARYDOUBLE double precision 不支持(目标库不支持做主键建表) 支持 不支持 支持 FLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 INT numeric 支持 支持 支持 支持 INTEGER numeric 支持 支持 支持 支持 DATE date 支持 支持 不支持 支持 DRS在目标库建表时类型为date,此时源目标库数据表示范围不同, 存在精度损失,不支持对比。 TIMESTAMP timestamp(6) without time zone 支持 支持 不支持 校验到小数点后6位 源库使用限制:支持的最大精度是6。 TIMESTAMPTZ timestamp(6) with time zone 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 TIMESTAMPLTZ timestamp(6) with time zone 不支持(目标库不支持做主键建表) 支持 不支持 过滤该列 INTERVALYM interval year to month 支持 支持 不支持 不支持 增量同步不支持该类型。 INTERVALDS interval day to second 支持 支持 不支持 不支持 增量同步不支持该类型。源库使用限制:支持的最大精度是6。 BLOB bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 CLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 NCLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONG text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONGRAW bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 RAW bytea 不支持(目标库不支持做主键建表) 支持 不支持 支持 RowID character varying(18) 支持 支持 支持 支持 BFILE 不支持 不支持 不支持 不支持 源库使用限制:不支持bfile类型。 XMLTYPE 不支持 不支持 不支持 不支持 源库使用限制:不支持xmltype类型。 UROWID 不支持 不支持 不支持 不支持 全量增量都不支持同步。 sdogeometry 不支持 不支持 不支持 不支持 源库使用限制:不支持sdogeometry类型。 NUMBER(,0) numeric 支持 支持 支持 支持 执行如下步骤在源库构造数据: 1. 根据本地的Oracle数据库的IP地址,通过数据库连接工具连接数据库。 2. 根据支持的数据类型,在源库执行语句构造数据。 a) 创建一个测试用的用户。 create user testinfo identified by xxx ; testinfo为本次实践创建的用户,xxx为用户的密码,请根据实际情况替换。 b) 给用户赋权。 grant dba to testinfo ; c) 在当前用户下创建一个数据表。 CREATE TABLE testinfo . DATATYPELIST (ID INT,COL01CHARE CHAR(100),COL02NCHARE NCHAR(100),COL03VARCHARE VARCHAR(1000),COL04VARCHAR2E VARCHAR2(1000),COL05NVARCHAR2E NVARCHAR2(1000),COL06NUMBERE NUMBER(38,0),COL07FLOATE FLOAT(126),COL08BFLOATE BINARYFLOAT,COL09BDOUBLEE BINARYDOUBLE,COL10DATEE DATE DEFAULT SYSTIMESTAMP,COL11TSE TIMESTAMP(6),COL12TSTZE TIMESTAMP(6) WITH TIME ZONE,COL13TSLTZE TIMESTAMP(6) WITH LOCAL TIME ZONE,COL14CLOBE CLOB DEFAULT EMPTYCLOB(),COL15BLOBE BLOB DEFAULT EMPTYBLOB(),COL16NCLOBE NCLOB DEFAULT EMPTYCLOB(),COL17RAWE RAW(1000),COL19LONGRAWE LONG RAW,COL24ROWIDE ROWID,PRIMARY KEY(ID)); d) 插入两行数据。 insert into testinfo.DATATYPELIST values(4,'huawei','xian','shanxi','zhongguo','shijie', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); insert into testinfo.DATATYPELIST values(2,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); e) 使语句生效。 commit; 3. 在目标端创建库。 a) 登录天翼云控制台。 b) 单击管理控制台左上角的,选择区域。 c) 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据管理服务”。 d) 在数据管理服务DAS左侧导航栏,单击“开发工具”,进入开发工具数据库登录列表页面。 e) 单击“新增数据库登录”,打开新增数据库登录窗口。 f) 选择“数据库引擎”、“数据库来源”、目标实例,填写登录用户名、密码以及描述(非必填项)信息,开启定时采集、SQL执行记录功能。 g) 您可根据需要选择“测试连接”(必选操作步骤)。 如测试连接成功,将提示“连接成功”,您可继续新增操作。如测试连接失败,将提示连接失败原因,您需根据提示信息进行修改,以便新增数据库登录成功。 h) 设置完登录信息,单击“立即新增”。 i) 新增完成后,单击新增登录的“登录”,登录当前数据库。 j) 进入SQL查询页面。 k) 执行如下语句创建兼容Oracle的数据库。 此例中为:testdatabaseinfo,请根据实际情况选择。 CREATE DATABASE testdatabaseinfo DBCOMPATIBILITY 'ORA';
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移前构造数据
      • 管理分组参数
        您可以根据实际应用需求修改分组的参数配置(属性设置),包括最大并发执行请求数、是否自动启动分布式事务、SQL连接超时时间等配置。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击参数管理 ,然后单击分组参数页签,进入分组参数管理页面。 5. 在参数列表上方,选中目标分组,单击查询。 您也可以根据实际情况,配置属性分组(分为server 、transaction 、monitor 或者overload分组),或输入目标属性名称,快速搜索目标参数。 说明 将鼠标放在属性编码列可以显示对应属性的提示信息,大部分情况下按默认设置即可。 6. 在参数列表中,找到查看并修改目标参数的当前值。 您也可以根据实际情况,单击操作 列的重置,将参数值重置为默认值。 属性分组 server分组 属性编码 属性名称 允许值 默认值 支持在线加载 zkUrl 向LVS注册的ZooKeeper地址,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 无 否 clientFoundRows 控制当执行UPDATE语句时,MySQL服务器与DBProxy接收和处理受影响的行数的行为。 true为匹配行数,而不是被修改的行数。 true/false true 否 clientIgnoreSigpipe 阻止MySQL客户端安装SIGPIPE信号处理器,主要用于当应用程序已经安装该处理器的时候,由DBProxy屏蔽相关信号,避免相关信号与整体系统的冲突。 true/false true 否 clientInteractive MySQL服务器与DBProxy关闭不活动连接时,采用交互超时参数或等待超时参数行为。 true为采用交互超时参数。 true/false true 否 clientNoSchema 不允许数据库名.表名.列名这样的语法。 true/false false 否 clientIgnoreSpace MySQL服务器与DBProxy之间交互是否忽略函数名后的空格,true为忽略函数名后的空格。 true/false false 否 frontWriteQueueSize 数据汇集时的应用系统到DBProxy写队列大小。 12147483647 32 是 enableDataMergeLimit 开启数据归并排序限制。 true/false true 是 dataMergeLimit 数据归并排序限制行数。 12147483647 10000 是 frontConnectionIdleCheckThreshold 应用侧与DBProxy连接空闲检测阈值(个),默认值为0,此时,只要有应用系统到DBProxy连接超时,就将其杀死。 02147483647 0 是 writeQueueLimit DBProxy返回数据给应用侧写队列的限制。 true/false true 是 writeQueueStop DBProxy返回数据给应用侧写队列的最大长度。 12147483647 4096 是 writeQueueRecover 恢复写队列阈值。 12147483647 256 是 enableClusterStatusCollector 是否开启DBProxy集群状态信息采集。 true/false false 是 clusterStatusCollectPeriod 集群状态信息采集间隔,单位:毫秒。 10002147483647 5000 否 clusterStatusHistoryKeptDays 集群历史状态信息保留天数。 1365 1 是 sslEnable SSL功能开关: true:启用。 false:禁用。 true/false false 否 zkPath 负载均衡SLB的ZooKeeper的路径,用于组件之间通讯。 说明 该参数暂未开放使用。 字符串 否 vip 负载均衡SLB的虚拟IP,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 否 sqlProtectorHandle SQL黑名单处理方式,需要为2.4.1以上版本生效: Ignore:不记录不处理。 Reject:记录且拒绝。 Audit:记录且不处理。 ignore/reject/audit ignore 是 autoAddSqlProtectorBlacklist 发现过载语句(由参数topWindowExecuteTimeThreshold、runningSlowSqlThreshold两个参数定义的语句)时,是否自动加入黑名单。 true/false false 是 enableRunningSlowSqlDetect 开启超慢SQL探测,开启后runningSlowSqlThreshold、runningSlowSqlDetectInterval才生效。 true/false true 是 runningSlowSqlThreshold 正在执行的语句执行超过此时间算超慢SQL,单位:秒。 12147483647 15 是 runningSlowSqlDetectInterval 正在执行的超慢语句探测间隔,单位:秒。 12147483647 5 是 maxSqlProtectorBlacklist 过载保护SQL黑名单最大数量。 12147483647 10 是 topWindowCycle TOP高危(耗时较高)语句探测周期,单位:毫秒。 12147483647 60000 否 topWindowExecuteTimeThreshold SQL执行超过此时间,进入高危语句计数,单位:毫秒。 12147483647 500 是 insertHint DBProxy到存储节点发送SQL语句时,附加指纹Hint。 true/false false 是 killSelect 当应用侧异常关闭时,如果最后一次执行的是select语句,该变量控制是否发送kill语句杀掉MySQL连接。 true/false true 是 enableEncrypt 是否开启字段加解密。 true/false false 是 enableProxyRWSplit 是否开启DBProxy组件侧读写分离。 true/false false 是 enableDdlEngine 是否开启DDL统一执行框架: true:启用统一执行框架执行DDL。 false:采用旧执行模式执行DDL。 true/false true 是 useIndex 是否使用全局索引功能,需先开启Giserver服务,否则开启后无效。 true/false false 是 autoIndex 是否使用全局索引透明化功能。 true/false false 是 optimizeTransactionSelect 事务中select语句数据库连接释放优化。 true/false true 是 one2manyIndexThreshold 一对多索引阈值。 建议不超过分片数量,超过分片数量时,有概率会退化到广播。 5 是 processors 多路I/O复用反应器个数。DBProxy可以通过轮询检测哪些频道有就绪的I/0事件,然后集中处理这些事件,以减少线程数量、处理大并发连接,减少阻塞等。 建议设置为CPU核心数 4 是 processorExecutor 应用系统到DBProxy逻辑处理线程池大小,单位:个。 建议设置为CPU核心数的四倍 32 是 idleTimeout 应用系统到DBProxy连接空闲超时时间,单位:毫秒。 17200000 1800000 是 bindIp DBProxy服务监听运行时端口暴露监控的主机对应网卡IP地址。0.0.0.0默认代表监听所有网卡,建议采用默认值。 默认0.0.0.0 0.0.0.0 是 zkDigest 负载均衡SLB的zookeeper的digest模式设置,用于组件之间通讯。 说明 该参数暂未开放使用。 SLB的zk digest dataNodeIdleCheckPeriod DBProxy到存储节点MySQL连接池清理时间间隔,单位:毫秒。 17200000 300000 是 processorBufferChunk DBProxy的BufferPool中chunk大小,单位:Byte。 processorBufferChunk乘processorBufferPool应小于服务启动内存 4096 是 processorBufferPool DBProxy的BufferPool中chunk个数。 processorBufferChunk乘processorBufferPool应小于服务启动内存 16384000 是 maxPacketSize DBProxy与MySQL通讯数据包最大长度,单位:M。 不超过16 16 是 charset DBProxy与应用系统、后端MySQL的连接初始化字符集。 utf8,utf8mb4 utf8 是 sqlExecuteTimeout DBProxy的SQL执行超时的时间,与MySQL的maxexecutiontime参数功能相同,单位:毫秒。 17200000 300000 是 processorCheckPeriod DBProxy到存储节点MySQL连接状态检查间隔时间,单位:毫秒。 17200000 1000 是 dataNodeHeartbeatPeriod DBProxy到存储节点MySQL心跳间隔时间,单位:毫秒。 17200000 10000 是 enableLargeDataMerge 开启大数据流式汇聚功能。 true/false false 是 enableOperationRecord 是否开启运维日志。 true/false false 是 frontendConnPrintInterval 应用系统到DBProxy连接数打印间隔,单位:毫秒。 17200000 60000 否 backendConnPrintInterval DBProxy到存储节点连接数打印间隔,单位:毫秒。 17200000 60000 否 useStatementConditionExtract DBProxy使用statement方案解释去做条件抽取,用于快速进行SQL解析。 true/false true 是 maxExecutionTime SELECT最大执行时间,单位:毫秒。 07200000 设置为0,表示不限制 0 是 enablePrepareStatement DBProxy支持PrepareStatement预编译SQL语句接口。 true/false true 是
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理分组参数
      • 1
      • ...
      • 249
      • 250
      • 251
      • 252
      • 253
      • ...
      • 268
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      人脸属性识别

      通用型OCR

      车牌识别

      iBox边缘盒子

      对象存储 ZOS

      推荐文档

      产品功能

      应用监控指标总览

      产品规格

      删除云安备

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号