活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼来单_相关内容
      • 按需计费模式-Tokens
        一站式智算服务平台支持包周期和卡时/Token按需计费三种计费模式。本节为您详细介绍Token按需计费模式。 Token 概念 在模型服务中,一个核心概念是“token”。当您调用模型进行推理服务时,输入内容会首先经过分词处理,转换成模型能够识别的token形式。随后,这些token经过模型的处理,再以token的形式输出,并最终转化为您所需的文本。 模型服务费用 token 使用数量 token 单价 说明 不同的模型可能采用不同的分词策略,同一段文本在不同模型上的 tokens 计量会存在差异。 产品价格 按 token 使用量付费 出账时间:每小时出账。 付款类型:按量后付费。 免费额度:使用模型时,将优先消耗免费额度,免费额度耗尽后,调用将会失败;如需继续使用,需要手动开通对应的模型付费服务。 模型单价(刊例价):如下表,实际购买价格以下单页面为准。 模型名称 服务类型 计费单位 (元/百万tokens) 免费额度(tokens) DeepSeek系列 DeepSeekR1 输入 4 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekR1 输出 16 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekV3 输入 2 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekV3 输出 8 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekR1DistillLlama70B 输入 4.1 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekR1DistillLlama70B 输出 4.1 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekR1DistillQwen32B 输入 1.3 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 DeepSeek系列 DeepSeekR1DistillQwen32B 输出 1.3 每个模型可免费使用2500万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen2.572Binstruct 输入 4.13 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen2.572Binstruct 输出 4.13 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 QwenVLChat 输入 0.8 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 QwenVLChat 输出 1.6 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen2.5VL72BInstruct 输入 4.13 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen2.5VL72BInstruct 输出 4.13 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen314B 输入 0.8 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 Qwen系列 Qwen314B 输出 1.6 每个模型可免费使用100万tokens,从第一次使用开始限期两周。免费额度用完或到期后,可以付费开通服务。 其他系列 每个模型可免费使用100万tokens,用尽后不支持tokens计费模式,可以通过按卡时计费模式下单。
        来自:
        帮助文档
        一站式智算服务平台
        计费说明
        按需计费模式-Tokens
      • 产品功能
        混合云一体机集成天翼云平台,提供计算、存储、网络、监控、管理等全栈云服务。 计算 弹性云主机:由CPU、内存、镜像、云硬盘组成,是一种可随时获取、即开即用、可弹性扩展的计算服务器。一体机支持创建通用型、计算增强型、内存优化型多种云主机类型,同时支持云主机组、云主机快照等功能。 GPU云主机:结合了GPU计算力与CPU计算力,满足客户在人工智能、高性能计算、专业图形图像处理等场景中的需求。一体机通过扩展GPU服务器的方式支持GPU云主机,GPU云主机支持虚拟化、直通技术。 标准裸金属:具有物理资源独享、高性能的特点,适合部署核心数据库等关键系统。一体机通过虚拟裸金属网关实现对物理服务器的统一纳管。 镜像服务:是弹性云主机实例可选择的运行环境模板,一般包括操作系统和预装软件。云镜像服务包括公共镜像、私有镜像及共享镜像。 弹性伸缩服务:通过策略自动调整计算资源的管理服务。用户通过管理控制台设定弹性伸缩组策略,弹性伸缩服务将根据预设规则自动调整伸缩组内的云主机数量,降低人为反复调整资源以应对业务变化和高峰压力的工作量,帮助用户节约资源和人力成本。 存储 云硬盘:基于分布式架构的、可弹性扩展的数据块级存储设备。可为云主机提供系统盘和数据盘,满足文件系统、数据库或者其他应用等的存储。 云硬盘备份:针对云主机的系统盘、数据盘提供的备份服务。用户可对存储重要数据的磁盘进行备份,并在云主机磁盘故障、用户误删数据、遭到黑客攻击等情况下将备份数据快速恢复到源盘,有效保证用户数据的安全性。 云主机备份:支持多云硬盘一致性快照技术的备份服务,支持利用备份数据恢复弹性云主机数据,提供数据备份和操作恢复的整体方案,具备实时增量备份、快速数据恢复能力,有效保障用户数据的安全性和正确性,确保业务安全。 文件存储:提供按需扩展的高性能文件存储,可为多个弹性云主机、标准裸金属提供共享访问,具备高可用性和高数据持久性。 对象存储:存储非结构化数据(图片、音视频、文本等格式文件),根据客户需求空间确定存储容量。 网络 扁平网络:可与物理机网络直通,也可通过物理网络设置网关和路由直接访问互联网的网络。 虚拟私有云:为云主机等云上资源提供可配置、可管理的虚拟网络环境,不同虚拟私有云之间二层逻辑隔离。 弹性IP:将弹性IP地址和子网中关联的弹性云主机绑定和解绑,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 负载均衡:通过将访问流量自动分发到多台云主机,扩展对外的服务能力,解决大量并发访问服务器的问题,实现更高水平的应用程序容错性能。 对等连接:是指两个VPC之间的网络连接。用户可以使用私有IP地址在两个VPC之间进行通信,就像两个VPC在同一个网络中一样。用户可以在自己租户的VPC之间创建对等连接,也可以在自己租户的VPC与其他租户的VPC之间创建对等连接。 安全组:是云主机级别的流量防护规则,默认安全组default放通全部协议全部端口的流出。 ACL:是一个子网级别的流量防护规则,用户可以自定义设置网络ACL规则,并将网络ACL与子网绑定,实现对子网中云主机实例流量的访问控制。通过与子网关联的出方向/入方向规则控制出入子网的流量数据。 NAT网关:能够为虚拟私有云内的弹性云主机提供网络地址转换服务,使多个弹性云主机可以共享使用弹性IP访问Internet。 VPN连接(选配):基于Internet、通过IPSec加密通道连接用户的企业数据中心和一体机的虚拟私有云(VPC),实现两侧资源的内网互通,帮助用户轻松实现混合云环境的部署。 监控 云主机监控:包括CPU使用率、网络流入流出流量的速率、内存使用率、磁盘分配率、磁盘使用率、磁盘剩余存储量等图表数据。 云硬盘监控:包括磁盘读速率、磁盘读请求速率、磁盘写速率、磁盘写请求速率。 弹性IP监控:包括流入流出带宽、网络流入流出速率。 负载均衡监控:包括入网流量、出网流量、出网带宽、活跃连接数、新建连接数、并发连接数等。 管理 云服务:为用户提供资源创建、管理能力,比如创建云主机、管理VPC等。 运维监控:支持通过拓扑、大屏、仪表盘等形式提供告警、性能监控、日志等基础运维服务。 运营管理:匹配组织架构,提供用户管理、配额管理、角色管理等管理能力。
        来自:
        帮助文档
        混合云一体机
        产品简介
        产品功能
      • 将MySQL迁移到MySQL
        操作须知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保同步各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 如迁移对象为表级别,则单次迁移任务仅支持迁移最多10000张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,支持无主键表的数据增量迁移。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x迁移到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在迁移数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在迁移时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到MySQL
      • 资源池区别
        本文为您介绍使用虚拟私有云产品时的资源池区别,请您务必仔细阅读后使用。 虚拟私有云VPC在不同资源池有不同的能力,具体可以分为地域资源池、可用区资源池。 地域资源池是没有可用区概念的资源池,您的所有资源都在地域下的一个数据中心中。 可用区资源池分单可用区资源池和多可用区资源池。可用区资源池和地域资源池网络架构类似,但是能力有区别,具体见下表。多可用区资源池下,vpc产品可以助您实现多地容灾、多活等业务模式。 地域资源池包含以下资源池: 华东地区: 上海7/杭州2/合肥2/芜湖2/南京2/南京3/南京4/南京5/九江 华南地区: 福州3/福州4/福州25/厦门3/佛山3/广州6/南宁2/郴州2/长沙3/海口2/武汉3/武汉4 西北地区: 西安3/西安4/西安5/西宁2/兰州2/乌鲁木齐27/中卫5 西南地区: 贵州3/重庆2/成都4/昆明2/拉萨3 北方地区: 北京5/晋中/石家庄20/内蒙6/辽阳1 可用区资源池包含以下资源池: 华东地区: 上海36/华东1/杭州7/南昌5/芜湖4 华南地区: 南宁23/武汉41/长沙42/华南2 西南地区: 西南1/西南2贵州 北方地区: 青岛20/华北2/郑州5/太原4/呼和浩特3 西北地区: 庆阳2/西安7/乌鲁木齐7 具体区别如下: 产品模块 地域资源池 可用区资源池 重要差异 VPC 支持 支持 子网 支持 支持 安全组 支持 支持 可用区资源池:安全组具有VPC属性,创建时需指定某一VPC,且每一个VPC系统都会创建一个默认安全组。地域资源池:安全组不具备VPC属性,创建时无需指定所属VPC,每个资源池会存在一个默认安全组。 ACL 支持 支持 可用区资源池:ACL创建时无需指定子网,一个ACL支持绑定多个子网。每个ACL都会存在默认规则,不支持修改、删除、停用。地域资源池:ACL创建时需指定子网,一个ACL支持绑定一个子网。无默认规则。 虚拟IP 支持 支持 可用区资源池:部分多可用区资源池虚拟IP解绑服务器时需先解绑备服务器,再解绑主服务器。实际资源池情况以控制台为准。地域资源池:虚拟IP解绑服务器时支持无序解绑,即无“先备后主”的顺序。 路由表 支持 支持 地域资源池不支持VPC默认路由表;访问专线、VPN、对等连接不需要在路由表中配置路由。 弹性网卡 不支持 支持 可用区资源池:仅多可用区支持此功能,实际情况以控制台为准。 IPv4网关 不支持 支持 可用区资源池:云主机通过公网IP访问公网时需要配置指向IPv4网关的路由地域资源池:云主机绑定公网IP后即可访问公网。 IPv6网关 不支持 支持 可用区资源池:通过IPv6访问公网时,需要先开通IPv6网关,然后开通IPv6带宽。地域资源池:双栈网卡开通IPv6带宽即可访问公网。 NAT网关 支持 支持 可用区资源池下的云主机通过NAT网关访问公网需要配置指向NAT网关的路由,然后配置NAT规则。地域资源池下的云主机配置NAT规则后即可访问公网。 网卡 支持 支持 可用区资源池:支持弹性网卡,网卡创建后可以和云主机解绑/绑定。地域资源池:创建网卡时必须关联到云主机上,网卡可以随时从云主机删除。 流量镜像 不支持 支持 可用区资源池:仅多可用区支持此功能,实际情况以控制台为准。 组播 不支持 支持 可用区资源池:仅多可用区支持此功能,实际情况以控制台为准。 VPC终端节点 不支持 支持 可用区资源池:仅多可用区支持此功能,实际情况以控制台为准。 实际产品功能以控制台可见性为准。
        来自:
        帮助文档
        虚拟私有云 VPC
        产品简介
        资源池区别
      • 创建独享型负载均衡器
        参数 说明 取值样例 实例规格类型 负载均衡的实例类型。 独享型 计费模式 按需计费。 按需计费 区域 不同区域的资源之间内网不互通。请选择靠近业务的区域,可以降低网络时延、提高访问速度。 可用区 可以选择在多个可用区创建负载均衡实例,提高服务的可用性。如业务需考虑容灾能力,建议选择多个可用区。当某一可用区出现故障时,业务可以快速切换到另一个可用区的负载均衡继续提供服务。 此外,选择多个可用区之后,对应的性能规格(新建连接数/并发连接数等)会加倍。例如:单实例最大支持2kw并发,那么双AZ就支持4kw并发。 说明: 对于 公网访问 ,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 对于 内网访问 : 当从 创建ELB的AZ 访问时,流量将被分配到本AZ中的ELB上,当本AZ的ELB不可用时,容灾到创建的其他AZ的ELB上; 当从 未创建ELB的AZ 访问时,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 说明: 针对已有实例,如果修改可用区配置,可能会导致该实例的业务闪断数秒,请在购买时做好规划,确实要修改的话建议选择闲时操作。 跨VPC后端 开启后,用户可以为负载均衡器添加当前VPC以外的后端,跨VPC后端通过IP地址形式添加。 说明: 若要使用该功能,请先正确配置VPC路由,确保后端可达。 开启跨VPC后端,需要占用后端子网下的IP地址,请确保预留足够的IP地址。 网络类型 可以单独选择一个网络类型,也可以同时选择多个。 IPv4公网:负载均衡器通过IPv4公网IP对外提供服务。 IPv4私网:负载均衡器通过IPv4私网IP对外提供服务。 IPv6:系统会为实例分配一个IPv6地址,转发来自IPv6客户端的请求。 说明: 如果公网或私网IP均未选择,则ELB实例创建完成后无法与客户端通信。 IPv4公网 所属VPC 所属虚拟私有云。无论选择哪种网络类型,均需配置此项。 您可以选择使用已有的虚拟私有云网络,或者单击“查看虚拟私有云”创建新的虚拟私有云。 vpc4536 子网 选择创建负载均衡实例的子网。 无论选择哪种网络类型,均需配置此项。 当网络类型选择“IPv6”,且所选的VPC下无支持IPv6的子网时,请为已有子网开启IPv6或创建支持IPv6的子网。 subnet4536 IPv4公网配置 弹性IP 当网络类型勾选“IPv4公网”时,需要指定弹性IP。 新创建 公网带宽 弹性IP使用的带宽类型。 加入共享带宽 IPv4私网配置 IPv4地址 选择IPv4地址的分配方式。 自动分配IP地址 IPv6网络配置 IPv6地址 选择IPv6的IP地址的分配方式。 说明: 负载均衡器的IP地址不受所在VPC子网ACL配置的限制,所以能够被客户端直接访问。建议您使用监听器的访问控制功能限制客户端访问负载均衡器。 自动分配IP地址 公网带宽 选择IPv6的共享带宽。可以选择暂不设置共享带宽或选择已有的共享带宽或新建共享带宽。 暂不设置 规格 “应用型(HTTP/HTTPS)”和“网络型(TCP/UDP)”请至少勾选一种,勾选后可选择相应能力的规格。 应用型(HTTP/HTTPS)的不同规格所需的子网的IP地址不同。 不同的实例规格在性能上存在差异。 中型 II 名称 负载均衡器的名称。 elb93wd 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 default 高级配置 描述 可添加负载均衡器相关描述。 标签 标签用于标识云资源,可对云资源进行分类和搜索。标签由标签“键”和标签“值”组成,标签键用于标记标签,标签值用于表示具体的标签内容。 键:elbkey1 值:elb01
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        负载均衡器
        创建独享型负载均衡器
      • SWR企业版镜像
        本小节介绍SWR企业版镜像管理。 SWR企业版镜像源于容器镜像服务(SWR)的企业版镜像,企业主机安全支持对这些企业版镜像手动执行漏洞、恶意文件、软件信息、文件信息、基线检查、敏感信息、软件合规和基础镜像信息的扫描并提供扫描报告。本章节介绍如何对SWR企业版镜像进行安全扫描和如何查看安全扫描报告。 约束限制 仅HSS容器版支持该功能。 仅支持对Linux镜像执行安全扫描。 查看SWR企业版镜像 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在左侧导航栏选择“资产管理 > 容器管理”,进入容器管理界面。 说明 如果您的服务器已通过企业项目的模式进行管理,您可选择目标“企业项目”后查看或操作目标企业项目内的资产和检测信息。 4、选择“容器镜像 > 企业版镜像(SWR)”,查看企业版镜像信息。 您可以查看企业版镜像的版本、大小、所属组织、安全风险、拥有者等相关信息。 更新企业版镜像:单击“从SWR更新企业版镜像”,更新企业版镜像列表信息。 筛选最新版本的镜像:勾选“仅关注最新版本的镜像”,可筛选所有不同镜像的最新版本镜像。 SWR企业版镜像安全扫描 您可以手动执行全量、批量或单镜像的安全扫描。安全扫描的时长主要取决于镜像的大小。一般情况下扫描一个镜像可以在三分钟之内完成,扫描完成后,单击“安全报告”查看安全报告。 SWR企业版镜像支持的安全扫描项如下: 扫描项 说明 漏洞 检测镜像中存在系统漏洞、应用漏洞。 恶意文件 检测镜像中存在的恶意文件。 软件信息 统计镜像中的软件信息。 文件信息 统计镜像中的文件信息。 基线检查 配置检查:检测CentOS 7、Debian 10、EulerOS和Ubuntu16镜像的系统配置项、检测SSH应用配置项。 弱口令检查:检测镜像中存在的弱口令。 口令复杂度检查:检测镜像中不安全的口令复杂度策略。 敏感信息 检测镜像中含有敏感信息的文件。 默认不检测的路径如下: /usr/ /lib/ /lib32/ /bin/ /sbin/ /var/lib/ /var/log/ 任意路径/nodemodules/ 任意路径/任意名称.md 任意路径/nodemodules/ 任意路径/test/任意路径 /service/iam/examplestest.go 任意路径/grafana/public/build/任意名称.js 说明 任意路径:指当前路径为自定义值,可以是系统中任意名称的路径。 任意名称:指当前路径的文件名称为自定义值,可以是系统中以.md或.js后缀结束的任意名称。 可在安全报告 > 敏感信息页面,单击“敏感文件过滤路径管理”,设置不需要检测的Linux路径,最多可添加20个路径。 不检测的场景如下: 文件大于20MB。 文件类型为二进制、常用进程和自动生成类型。 软件合规 检测不允许使用的软件和工具。 基础镜像信息 检测未使用基础镜像构建的业务镜像。 1、登录管理控制台,进入企业主机安全页面。 2、在左侧导航栏选择“资产管理 > 容器管理”,进入容器管理界面。 3、选择“容器镜像 > 企业版镜像(SWR)”。 4、为单个镜像或多个镜像执行安全扫描。 说明 多架构镜像不支持批量扫描、全量扫描操作。 全量扫描时间较长,且开始全量扫描后无法中断扫描,请谨慎操作! 单个镜像安全扫描:在目标镜像所在行的“操作”列,单击“安全扫描”,为单个目标镜像执行安全扫描。 批量镜像安全扫描:勾选所有目标镜像并单击镜像列表上方的“批量扫描”,为多个目标镜像执行安全扫描。 全量镜像安全扫描:单击镜像列表上方的全量扫描,为所有镜像执行安全扫描。 5、在弹出的提示框中,单击“确定”,启动扫描任务。 全量扫描任务启动后,您可将鼠标悬停在置灰的全量扫描按钮上查看扫描进度。 6、当镜像“扫描状态”更新为“扫描完成”,且“最近一次扫描完成时间”更新为最近任务执行时间,表示镜像安全扫描完成。
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        容器管理
        容器镜像
        SWR企业版镜像
      • 配置备份驱动文件
        本节主要介绍配置备份驱动文件。 前置条件:HBlock集群版已经正确配置,且可以正常启动。 注意 仅HBlock集群版支持配置备份驱动,且仅能配置一个集群。 仅支持本地模式的HBlock卷备份。 配置步骤 1. 在cinder.conf中修改添加备份的配置文件:找到默认的backupdriver([default] 标签下),然后修改并扩充配置。 plaintext backupdriverstordriver.backupdriver.driverstor.StorBackupDriver backupstorstorprovider HBlock backupstorstorapiuser storuser backupstorstorapipassword password backupstorstorapiendpoint backupstorpool default backupstormaxclonedepth 5 backupstorlocalstorageclass localstorageclass backupstorminreplica minreplica backupstorecfragmentsize ecfragmentsize backupstormaxsessions maxsessions 参数说明 参数 描述 是否必填 backupdriver HBlock备份驱动所在路径。 取值: 如果驱动作为独立Python包进行安装,取值为stordriver.backupdriver.driverstor.StorBackupDriver。 如果复制stordriver到Cinder驱动目录的方式安装驱动,取值为cinder.backup.drivers.stordriver.backupdriver.driverstor.StorBackupDriver。 是 backupstorstorprovider 产品名称。 取值:HBlock。 是 backupstorstorapiuser HBlock的管理员用户名。 说明 HBlock初始化时,默认用户名为storuser。 是 backupstorstorapipassword HBlock的管理员密码。 是 backupstorstorapiendpoint 配置HBlock RESTful API地址和端口。 说明 安装HBlock时,默认API端口为1443。 是 backupstorpool 备份存储池,对应HBlock集群中的存储池名称。 注意 一旦备份存储池配置完成并存储了备份数据,则不允许进行任何更改,否则将导致业务异常。 只支持同存储池增量备份卷,暂不支持跨存储池增量备份卷。 是 backupstormaxclonedepth 备份驱动的最大克隆长度。 整数形式,取值为[1, 15]。默认值为5。 否 backupstorlocalstorageclass 备份卷的冗余模。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 ECN+M:纠删码模式。其中N、M为正整数,N>M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 backupstorminreplica 备份卷的最小副本数。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 backupstorecfragmentsize 备份卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 backupstormaxsessions 备份卷iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[0, 1024],默认值为0,表示不允许客户端连接。 否 2. 重启Cinder服务。 如果使用DevStack方式安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart devstack@c 如果使用Packstack安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart openstackcinder
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        OpenStack Cinder驱动插件
        配置备份业务
        配置备份驱动文件
      • 新增/编辑策略
        本节介绍如何新增/编辑策略。 操作场景 策略作为告警一键阻断的止血手段,可根据告警来源选择相应的类型对攻击者进行阻断。 约束与限制 将IP或IP地址段配置为黑名单后,来自该IP或IP地址段的访问,CFW/WAF/VPC将不会做任何检测,直接拦截。 为确保系统稳定性,同时执行的任务数量必须小于等于5个,若检测到已有5个任务正在执行,系统将禁止继续新增、重试或编辑操作。 策略新增成功后,不支持修改阻断对象(即新增时设置的IP地址或IP地址段)。 新增成功后,不支持修改策略对象、策略类型、对象类型、和已经勾选的操作连接。 新增策略 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“风险预防 > 策略管理”,进入策略管理页面后选择“策略视图”页签,进入应急策略策略管理页面。 5. 在策略管理页面中,单击“新增策略”,右侧弹出新增策略页面。 6. 在新增策略页面中,配置策略信息。 参数名称 参数说明 策略类型 根据需要选择策略类型:“阻断”或“加白名单”。 当选择“阻断”:阻断的策略对象将被禁止访问。 当选择“加白名单”:加入白名单的策略对象访问请求将被放行。 对象类型 当“策略类型”选择“阻断”时,对象类型可选范围有“IP”、“账号”、“域名”。 当“策略类型”选择“加白名单”时,对象类型可选范围有“IP”、“域名”。 请根据需要选择对象类型。 当选择“IP”:策略的操作对象是IP地址或IP地址段。 当选择“域名”:策略的操作对象是域名。 当选择“账号”:策略的操作对象是云服务账号(IAM用户名)。 策略对象 请输入策略对象。 当“对象类型”选择“IP”时:策略对象请输入IP地址或IP地址段。请输入单个或多个IP地址或IP地址段,如有多个IP地址或IP地址段,请用英文逗号隔开。 填写示例:IPV4:192.168.0.0或192.168.0.0/12,IPV6:0:0:0:0:0:0:0:0或0:0:0:0:0:0:0:0/128。 当“对象类型”选择“域名”时:策略对象请输入域名。请输入单个或多个域名,如有多个域名,请用英文逗号隔开。域名只能由字母、数字、、和.组成,单段不能超过63个字符长度。 当“策略类型”选择“阻断”且“对象类型”选择“账号”时:策略对象请输入云服务账号(IAM用户名)。请输入单个或多个云服务账号(IAM用户名),如有多个云服务账号(IAM用户名),请用英文逗号隔开。 策略生效范围 请根据需求选择“当前区域和企业项目”或“所有区域和企业项目”。 操作连接 应急策略的流程所绑定的操作连接。请根据需要选择该策略的操作连接。 当“策略类型”选择“阻断”且“对象类型”选择“IP”时:可选择防线类型为CFW、VPC、WAF对应的操作连接。 当“策略类型”选择“阻断”且“对象类型”选择“域名”时:可选择防线类型为CFW对应的操作连接。 当“策略类型”选择“加白名单”且“对象类型”选择“IP”时:可选择防线类型为WAF对应的操作连接。 当“策略类型”选择“加白名单”且“对象类型”选择“域名”时:可选择防线类型为CFW对应的操作连接。 当“策略类型”选择“阻断”且“对象类型”选择“IP”时:可选择防线类型为VPC、WAF对应的操作连接。 当“策略类型”选择“加白名单”且“对象类型”选择“IP”时:可选择防线类型为WAF对应的操作连接。 自动过期 确认新增的应急策略是否自动过期。 如果选择是,请设置策略过期时间。 如果选择否,则该策略将一直有效。 标签(可选) 自定义应急策略的标签。 策略描述(可选) 自定义该策略的描述信息。 7. 配置完成后,单击“确定”。 8. 新增策略配置完成后,返回策略管理页面,可查看新增的策略信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        策略管理
        新增/编辑策略
      • Agent管理
        监控Agent状态 在“Agent管理”页面,在已安装Agent列表的操作列下点击“监控”进入“Agent监控信息”页面,用户可以根据需要设置监控的时段,或者选择不同的监控指标(CPU占用、内存占用、转发速率、丢包数量、磁盘读写)。 修改Agent配置 1. 在“Agent管理”页面,选择需要修改配置的Agent,在列表中单击“操作”列中的“配置”。 2. 弹出修改配置对话框,可根据需要修改相关参数,修改完成后单击“确定”。 各配置项参数请参见下表。 配置项 配置项说明 CPU亲和性 启用后,Agent将仅在单颗CPU核心上工作。 CPU亲和性指的是进程在指定的CPU上尽量长时间运行而不被迁移到其他处理器,也称为CPU关联性。在多核运行的机器上,每个CPU会有缓存,缓存着进程使用信息,如果进程被调度到其他CPU上,CPU缓存命中率会降低,导致处理性能降低。 一旦修改配置,Agent会自动重启生效。 CPU使用上限 默认值为100%,取值范围:0%~100%,填0表示不限制。 内存使用上限 Agent缓存数据包所用的内存,默认值200MB,不能超过设备的最大内存。 系统CPU使用阈值 默认值100%,取值范围:0%~100%,填0表示不限制。 系统内存使用阈值 默认值100%,取值范围:0%~100%,填0表示不限制。 系统磁盘读IO阈值 默认值0,表示不限制。不能超过系统磁盘的最大读速率。 系统磁盘写IO阈值 默认值0,表示不限制。不能超过系统磁盘的最大写速率。 抓包网口 配置后将只抓取指定网口上的流量,为空时抓取全部网口上的流量,多个网口请用空格分隔。 抓包过滤串 配置后,抓包网口将只抓取匹配该过滤串(通常设置为指定主机的指定端口流量,例如:host 192.168.0.1 and port 3306)的流量。一旦配置,将不再根据配置的资产自动抓包。 按工具过滤 填写后将不再转发指定客户端工具的流量,可填写多个,多个值请用逗号分隔。 按账号过滤 填写后将不再转发指定数据库账号的流量,可填写多个,多个值请用逗号分隔。 本地回环配置 系统支持本地回环审计功能,此功能可以实现不通过TCP/IP连接的本地数据库访问审计。 本地回环审计是指Agent为客户端工具注入.so程序,客户端工具与服务端的通信流量客户端工具会复制一份发送给Agent,Agent转发给天翼云数据库审计。 Agent安装成功后,需要在Web界面开启“本地审计”功能。 回环网口 回环网口的名称,为空时会自动识别,不建议配置此项。 回环抓包过滤串 配置后回环网口将只抓取匹配该过滤串的流量。一旦配置,将不再根据配置的资产自动抓包。 回环网口替换IP(v4/v6) 将流量中本地回环的IPv4或IPv6地址改为设置的值,为空则不替换。 远程登录审计 默认关闭。 启用后,本地流量中的IP端口会被远程连接的IP端口所替换。需要在资产界面添加被远程连接的服务器IP地址,若没有远程连接,则不做替换。 一旦开启,性能会明显下降。 本地审计 支持审计非网络形式(进程间通信等)的数据库通信数据,目前仅支持Oracle,PostgreSQL,MySQL,SQL Server ,DB2的特定版本。 调试模式 默认关闭。开启后会记录下更详细的调试日志。 数据传输加密 默认关闭。开启后会对Agent转发的数据进行加密。 CPU异常保护阈值 当Agent的CPU使用超过该值时,Agent将自动修复异常。 正常情况下,Agent的CPU使用不会超出所配的上限,该配置可作为兜底保护,防止特殊情况发生。默认值100%,填0表示关闭CPU异常保护功能。 内存异常保护阈值 当Agent的内存使用超过该值时,Agent将自动修复异常。该配置可作为兜底保护,防止特殊情况发生。默认值300M,填0表示关闭内存异常保护功能。
        来自:
        帮助文档
        数据库审计
        用户指南
        Agent管理
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 云数据库GaussDB支持的事件列表
        事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 进程状态告警 ProcessStatusAlarm 重要 GaussDB关键进程退出,包括:CMS/CMA、ETCD、GTM、CN、DN。 等待进程自动恢复或者自动主备切换,观察业务是否恢复。 如果业务未恢复,联系SRE。 主机进程故障,在主机上进行的业务将中断回滚。 备机进程故障不影响业务。 组件状态告警 ComponentStatusAlarm 重要 GaussDB关键组件无响应,包括:CMA、ETCD、GTM、CN、DN。 等待进程自动恢复或者自动主备切换,观察业务是否恢复。 如果业务未恢复,联系SRE。 主机进程无响应,在主机上进行的业务将无响应。 备机进程故障不影响业务。 集群状态告警 ClusterStatusAlarm 重要 集群状态异常,包括:集群只读、ETCD多数派故障、集群分布不均衡。 联系SRE。 集群只读:业务只读。 ETCD多数派故障:集群不可用。集群分布不均衡:集群性能/可靠性降低。 硬件资源告警 HardwareResourceAlarm 重要 集群中出现严重的硬件故障,包括:磁盘损坏、GTM网络通信故障。 联系SRE。 业务部分/全部受损。 状态转换告警 StateTransitionAlarm 重要 集群出现如下重要事件: DN build/build失败、DN强切、DN主备切换/failover、GTM主备切换/failover。 等待自动恢复,观察业务是否恢复。如果业务未恢复,联系SRE。 部分业务受损。 其他异常告警 OtherAbnormalAlarm 重要 磁盘使用阈值告警等。 关注业务变化,及时计划扩容。 超过使用阈值,将无法扩容。 实例运行状态异常 TaurusInstanceRunningStatusAbnormal 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 TaurusInstanceRunningStatusRecovered 重要 针对灾难性的故障,GaussDB有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 节点运行状态异常 TaurusNodeRunningStatusAbnormal 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 节点运行状态异常已恢复 TaurusNodeRunningStatusRecovered 重要 针对灾难性的故障,GaussDB有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 创建实例业务失败 GaussDBV5CreateInstanceFailed 重要 创建实例失败产生的事件,一般是配额大小不足,底层资源耗尽导致。 先释放不再使用的实例再尝试重新发放,或者提交工单调整配额上限。 无法创建数据库实例。 添加节点失败 GaussDBV5ExpandClusterFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,删除添加失败的节点,重新尝试添加新节点。 无 存储扩容失败 GaussDBV5EnlargeVolumeFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试扩容操作。 如果磁盘满,会导致业务中断。 重启失败 GaussDBV5RestartInstanceFailed 重要 一般是由于网络问题等原因导致 重试重启操作或提交工单让运维处理。 可能导致数据库服务不可用。 全量备份失败 GaussDBV5FullBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 差量备份失败 GaussDBV5DifferentialBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 删除备份失败 GaussDBV5DeleteBackupFailed 重要 无需实现。 绑定EIP失败 GaussDBV5BindEIPFailed 重要 弹性公网IP已被占用或IP资源等原因导致。 提交工单让运维处理。 导致实例无法使用公网链接或访问 解绑EIP失败 GaussDBV5UnbindEIPFailed 重要 网络故障或公网EIP服务故障等原因导致。 重新解绑Ip或提交工单让运维处理。 可能导致IP资源残留 参数组应用失败 GaussDBV5ApplyParamFailed 重要 一般是由于修改参数组命令超时导致。 重新尝试修改参数组操作。 无 参数修改失败 GaussDBV5UpdateInstanceParamGroupFailed 重要 一般是由于修改参数组命令超时导致。 重新尝试修改参数组操作。 无 备份恢复失败 GaussDBV5RestoreFromBcakupFailed 重要 一般是由底层资源不足或备份文件下载失败等原因导致 提交工单。 可能导致在恢复失败期间数据库服务不可用
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        云数据库GaussDB支持的事件列表
      • 错误码列表
        本节主要介绍卷管理的错误码。 HTTP status 错误码 错误信息 描述 400 AccessCloudFailed Failed to access cloud. Please check your network or contact your software vendor. 无法连接至云,请检查网络后重试或联系软件供应商。 400 BucketEnableLifecycle Can not use this bucket because the life cycle was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了生命周期。 400 BucketEnableObjectLock Can not use this bucket because the object lock configuration was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了合规保留。 400 CanNotDeleteCloudData The cloud data for LUN lunName can not be deleted. The LUN has been recoverd. 无法删除云上数据,该卷已经被其他集群还原。 400 CanNotModifyEndpoint Can not modify endpoint for LUN lunname. 无法修改卷的Endpoint。 400 ExceedMaxCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be less than value. 存储容量非法。 400 ExceedThreshold The item of operation cannot exceed value. 超出了系统允许的最大个数,无法执行该操作。 400 FailedOperateLUN Failed to operation LUN, reason 卷操作执行失败。 400 HighAvailabilityNotAllowed The 'high availability' is invalid for standalone mode of HBlock. 单机版本HBlock不支持设置卷的高可用模式。 400 InvalidBucketName The bucket name bucketName is invalid. Bucket名称无效。 400 InvalidDiskPath The disk paths do not exist: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The available disk space must be greater than or equal to 1 GiB for each disk path: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths can not access: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths must be directory: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths include incompatible data: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths include unsupported symbols: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths is already on the server and the status is removing: serverIP :diskPaths [,diskPaths...] 因数据目录有问题导致操作失败。 400 InvalidEndpoint The endpoint endpoint is invalid. Endpoint无效。 400 InvalidEnumValue Value value at 'argument ' failed to satisfy constraint: Argument must satisfy enum value set: [value1, value2... ] 枚举参数不合法。 400 InvalidFilterEnum Value value at 'filter' failed to satisfy constraint: Argument can only contain: [lunName, status, capacity, targetName]. Filter参数不正确。 400 InvalidHighAvailability Value value at 'high availability' failed to satisfy constraint: Argument must satisfy enum value set: [Disabled, ActiveStandby]. 高可用模式取值无效。 400 InvalidLUNName Value value at 'lun name' failed to satisfy constraint: Argument must contain only letters, digits, or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. 卷名称不正确。 400 InvalidMinReplicaNumber Argument 'min replica' failed to satisfy constraint: argument range is [1, copy number] for replica mode and [N, N+M] for EC N+M mode. 最小副本数取值范围为:副本卷为[1, 副本数],EC卷为[N, N+M]。 400 InvalidPathStatus The path path status is 'status', the request is invalid. 数据目录状态不正确,无法执行操作。 400 InvalidPositiveInteger Value value at 'number' failed to satisfy constraint: Argument must be positive integer. 值必须为正整数。 400 InvalidPrefix Value value at 'prefix' failed to satisfy constraint: Argument must not exceed 256 characters. prefix无效。 400 InvalidRange Value value at 'range' failed to satisfy constraint: Argument must satisfy pattern 'ij', where i, j are positive integers, i is less than j, and ji M and N + M < 128. 副本模式与当前实际不匹配,服务器个数不够。 400 InvalidStorageMode Value valueat 'storage mode' failed to satisfy constraint: Argument must satisfy enum value set: [Local, Cache, Storage]. 存储模式无效。 400 InvalidTargetName Value value at 'target name' failed to satisfy constraint: Argument must contain only lowercase letters, digits, dots (.) or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. target名称不正确。 400 InvalidWritePolicy Value value at 'write policy' failed to satisfy constraint: Argument must satisfy enum value set: [WriteBack, WriteThrough, WriteAround]. 写策略非法。 400 LessThanCurrentCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than value. 扩容卷时新容量必须大于当前容量。 400 LessThanMinCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than or equal to 1 GiB. 容量不能小于1 GiB。 400 LUNDuplicatedCatalog Duplicated with the existing LUN catalog. 与已有卷的数据目录重复。 400 MissingRelevantArgument Value null at 'argument1' failed to satisfy constraint: Argument must not be null when 'argument2' has value. 参数1和参数2必须同时设置。 400 NoSuchStoragePool The storage pool with name poolName does not exist. 存储池不存在。 400 OnlyHALUNAllowed 'operation' is not supported for LUN luname which is not configured for high availability. 单控卷不支持该操作。 400 SamePool Cannot use the same storage pool poolName. 不能使用名字相同的存储池。 400 ServerNotMatchTarget The server serverid does not match the location of target targetname. 服务器ID和target名称不对应。 400 SingleLUNforAffinityPriority Only one LUN is supported for allocation when a specific server list is designated as the affinity priority. 仅支持针对单个LUN设置主备优先级列表。 400 SignVersionNotAllowed The sign version 'signVersion ' is not supported by provider 'provider'. 该对象存储服务不支持这种类型的签名,请重新选择。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版本HBlock不支持该操作。 400 StorageClassNotAllowed The 'local storage class' is invalid for standalone mode of HBlock. 单机版HBlock不支持设置副本模式。 400 SwitchLUNNotAllowed Failed to switch LUN. The LUN does not support high availability. 单控卷不支持卷的主备切换。 400 TooManyLUNs The number of LUNs in a target cannot exceed 256. 单个target中的卷不能超过256个。 403 CloudAccessDenied Failed to authenticate because of the privilege of access key and secret key. Please use another one. 密钥权限不足,请重新输入Accesskey和SecretKey。 403 CloudAccountAbnormal Your cloud account has been frozen due to arrears or violations, please resolve it and try again. 云账户状态异常,可能由于欠费或违规被冻结,请解决后重试。 403 CloudRequestTimeTooSkewed The difference between the server's time and cloud time is too large. 服务器时间和云的时间相差较大。请同步HBlock服务器与云上的系统时间。 403 GetLifecycleDenied User is not authorized to perform: GetLifecycleConfiguration on resource:bucketName. 无权限获得存储桶的生命周期配置,请更新AK/SK后重试。 403 GetObjectLockDenied User is not authorized to perform: GetBucketObjectLockConfiguration on resource:bucketName. 无权限获得存储桶的合规保留配置,请更新AK/SK后重试。 404 NoSuchBackupConfiguration Backup is not configured. 没有配置备份到OOS。 404 NoSuchBucket The bucket with name bucketName does not exist. Bucket不存在。 404 NoSuchLicense The HBlock license does not exist. 没有软件许可证。 404 NoSuchLUN The LUN with name lunName does not exist. 卷不存在。 404 NoSuchLUNUuid The LUN with name lunName and uuid uuid does not exist. 卷标识不存在,无法执行操作。 404 NoSuchLUNUuidConfiguration Configuration file of the LUN with name lunName and uuid uuiddoes not exist. 指定的卷标识下缺失配置文件,无法执行操作。 404 NoSuchPath The path path does not exist in the HBlock. 路径不存在。 409 CloneLUNExist There are clone LUNs referencing Name. Please delete or flatten all these clone LUNs and try again. 存在克隆卷,无法执行该操作,请删除克隆卷或者断开链接后重试。 409 LUNAlreadyExists The LUN with name lunName already exists. 卷已经存在。 409 DeleteLUNEnabled Cannot delete it because the iSCSI LUN is enabled, please disable first. 不能删除正在启用的卷。 409 InvalidSnapshotStatus The status of snapshot name is 'status', the request is invalid. 快照的状态不对,请求无效。 409 InvalidTargetIQNsStatus The request is invalid. Ensure the number of target IQNs whose status is neither unavailable nor offline is greater than or equal to 2. 操作失败,target IQNs状态异常,请检查后重试。 409 LUNRollbacking The LUN lunname is using snapshot snapshotname for rollback, the request is invalid. 正在使用快回滚,无法执行操作。 409 SnapshotExists The LUN lunname has snapshot or consistency snapshot. You can use force delete. When using this option, all snapshots of the LUN, including LUN snapshots within consistency snapshots, will be deleted together. 卷存在快照,只能使用强制删除。请注意,强制删除会一同删除快照和一致性快照中的卷快照。 409 LUNDataResidue Data residue is detected for LUN lunname on path path. Please clean up promptly and try again. 卷数据残留,请及时清理。 500 CloudInternalError Cloud encountered an internal error. Please try again. 云内部错误,请重试。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        错误码列表
      • 查看参数模板信息
        参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。Redis支持三种不同的调用fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。 notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $ :字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        参数模板
        查看参数模板信息
      • 修改实例配置参数
        参数名 参数解释 取值范围 默认值 timeout 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。Proxy集群实例不支持该参数。 0~7200,单位:秒。 0 appendfsync 操作系统的fsync函数刷新缓冲区数据到磁盘,有些操作系统会真正刷新磁盘上的数据,其他一些操作系统只会尝试尽快完成。 Redis支持三种不同的调用 fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。单机实例不支持该参数。 l nol alwaysl everysec no appendonly 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。有2个取值供选择:yes:开启。no:关闭。单机实例不支持该参数。 l yesl no yes clientoutputbufferlimitslavesoftseconds slave客户端outputbuffer超过clientoutputbufferslavesoftlimit设置的大小,并且持续时间超过此值(单位为秒),服务端会主动断开连接。单机实例不支持该参数。 0~60 60 clientoutputbufferslavehardlimit 对slave客户端outputbuffer的硬限制(单位为字节),如果slave客户端outputbuffer大于此值,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 clientoutputbufferslavesoftlimit 对slave客户端outputbuffer的软限制(单位为字节),如果outputbuffer大于此值并且持续时间超过clientoutputbufferlimitslavesoftseconds设置的时长,服务端会主动断开连接。单机实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 maxmemorypolicy 在达到内存上限(maxmemory)时DCS将如何选择要删除的内容。 有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu:根据LFU算法删除设置了过期时间的键值。 allkeyslfu:根据LFU算法删除任一键值。 取值范围与实例的版本有关 默认值与实例的版本及类型有关 luatimelimit Lua脚本的最长执行时间,单位为毫秒。读写分离实例不支持设置该参数。 100~5,000 5,000 masterreadonly 设置实例为只读状态。设置只读后,所有写入命令将返回失败。Proxy集群、读写分离实例不支持该参数。 l yesl no no maxclients 最大同时连接的客户端个数。Proxy集群、读写分离实例不支持该参数。 取值范围与实例的类型及规格有关 默认值与实例的类型及规格有关 protomaxbulklen Redis协议中的最大的请求大小,单位为字节。读写分离实例不支持设置该参数。 1,048,576~536,870,912 536,870,912 replbacklogsize 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。单机实例不支持该参数。 16,384~1,073,741,824 1,048,576 replbacklogttl 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。单机实例不支持该参数。 0~604,800 3,600 repltimeout 主从同步超时时间,单位为秒。单机实例不支持该参数。 30~3,600 60 hashmaxziplistentries 当hash表中只有少量记录时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 512 hashmaxziplistvalue 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的数据结构来对hashes进行编码。 1~10000 64 setmaxintsetentries 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的数据结构对集合进行编码。 1~10000 512 zsetmaxziplistentries 当有序集合中只有少量记录时,使用有利于节约内存的数据结构对有序序列进行编码。 1~10000 128 zsetmaxziplistvalue 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的数据结构对有序集合进行编码。 1~10000 64 latencymonitorthreshold 延时监控的采样时间阈值(最小值),单位为毫秒。阈值设置为0:不做监控,也不采样;阈值设置为大于0:将记录执行耗时大于阈值的操作。可以通过LATENCY等命令获取统计数据和配置、执行采样监控。Proxy集群实例不支持该参数。 0~86400000,单位:毫秒。 0 notifykeyspaceevents notifykeyspaceevents选项的参数为空字符串时,功能关闭。另一方面,当参数不是空字符串时,功能开启。 notifykeyspaceevents的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知: K:键空间通知,所有通知以keyspace@为前缀。 E:键事件通知,所有通知以keyevent@为前缀。 g:DEL、EXPIRE、RENAME等类型无关的通用命令的通知。 $ :字符串命令的通知。 l:列表命令的通知。 s:集合命令的通知。 h:哈希命令的通知。 z:有序集合命令的通知。 x:过期事件:每当有过期键被删除时发送。 e:驱逐(evict)事件:每当有键因为maxmemory政策而被删除时发送。 A:参数glshzxe的别名。输入的参数中至少有一个K或者E,A不能与g$lshzxe同时出现,不能出现相同字母。举个例子,如果只想订阅键空间中和列表相关的通知,那么参数就应该设为Kl。将参数设为字符串"AKE"表示发送所有类型的通知。 Proxy集群实例不支持该参数。 请参考该参数的描述。 Ex slowloglogslowerthan Redis慢查询会记录超过指定执行时间的命令。slowloglogslowerthan用于配置记录到慢查询的命令执行时间阈值,单位为微秒。 0~1,000,000 10,000 slowlogmaxlen 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 0~1,000 128 multidb 开启或关闭多DB特性。要求先清除已有数据。清除数据之前请先手动备份生成备份文件。若要恢复已清除的数据请通过数据迁移页面的备份导入功能进行数据恢复。有2个取值供选择:yes:开启。no:关闭。仅Redis 4.0及以上版本的Proxy集群实例支持该参数。 l yesl no no
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        修改实例配置参数
      • 开启数据加速
        本节介绍如何开启数据加速。 您可以在创建数据集或者数据集版本时,开启数据加速功能。 开启数据加速将同步生成数据源配置资源(Dataset)与后端加速引擎资源(Runtime);两者就绪后,数据集进入加速状态,将远端数据加载至本地缓存并创建加速 PVC,业务应用通过挂载该 PVC 即可获得数据访问加速能力。 前提条件 已完成AI套件安装,弹性数据集组件运行正常。 确保存储插件cstorcsi运行正常。 建议开启加速前进行缓存节点和路径规划,以合理利用节点资源,提升集群稳定性。 约束与限制 数据加速引擎使用开源社区的模板与镜像,使用过程中可能存在缺陷,我们会定期同步社区版本来修复已知漏洞。请评估是否满足您的业务场景要求。 目前,仅支持通过Alluxio底层存储引擎使用数据缓存的能力。alluxio 是一个面向基于云的数据分析和人工智能的开源的数据编排技术。 它为数据驱动型应用和存储系统构建了桥梁, 将数据从存储层移动到距离数据驱动型应用更近的位置从而能够更容易被访问。 选择存储介质为SSD,存储路径不能配置根目录。 选择存储介质为MEM,存储路径开头配置为/dev/shm 或 /run/shm。 操作步骤 1. 创建数据集 登录云容器引擎管理控制台 在集群列表页点击进入指定集群 进入主菜单 智算套件 > AI应用管理 > 数据集 > 私有数据集,选择创建数据集 在新建数据集页面,首先完成基础信息配置,参考 创建数据集 进行数据加速配置: 配置项说明如下: 配置项 说明 加速类型 选择 本地缓存。 存储类型 缓存层级所使用的存储介质类型,当前支持SSD、MEM,默认使用SSD。 存储路径 缓存介质的本地挂载 / 存储路径。 注意 1. 选择SSD存储,路径不能配置根目录,更进一步,建议不适用系统盘路径 2. 选择MEM存储,路径开头配置为/dev/shm 或 /run/shm 缓存配额 可使用的本地缓存存储配额(即本地缓存的最大容量限制),单位可选GiB、MiB。 立即预热 提前将远程存储系统中的数据拉取到本地缓存,使得消费该数据集的应用能够在首次运行时即可享受到缓存带来的加速效果。 高级选项 实例副本数 指定 缓存引擎Worker 节点数量,Replica 数量越多,缓存容量总和越大。默认为 1个节点。 高级选项 节点亲和性 指定 缓存引擎节点需要部署在符合特定条件的 K8s 节点上,可以控制缓存节点的部署位置,提升数据访问效率、合理利用节点资源。 高级选项 预留空间上限 当前缓存层级的缓存容量上限阈值(以百分比形式表示,取值 0~1 之间,如 0.95 对应 95%)。 当缓存数据占用量达到对应的百分比时,缓存引擎会自动触发缓存淘汰机制(默认 LRU 策略),开始清理(淘汰)不常用的缓存数据,防止缓存容量超出配额。 高级选项 预留空间下限 当前缓存层级的缓存容量下限阈值(以百分比形式表示,取值 0~1 之间,如 0.7 对应 70%)。 作为缓存淘汰机制的停止阈值,当缓存数据占用量因淘汰机制降至对应的百分比时,停止缓存淘汰,保留当前可用缓存数据。
        来自:
        帮助文档
        智算套件
        用户指南
        数据集管理
        数据集加速
        开启数据加速
      • 添加和管理后端服务器组
        本节主要介绍负载均衡后端服务器的添加、删除、管理等功能。 使用说明 创建后端服务器组前,确保对应的负载均衡实例已创建。 在添加对应的后端服务器组后,需要为后端服务器组添加后端服务器,以及对应后端服务器的服务器端口和权重。 需要确定对应的后端服务器组是否开启对应的健康检查,若开启则需要配置健康检查相关的参数。 对后端服务器组进行删除时,需要确保该后端服务器组未关联到对应的监听器。 添加后端服务器组 1. 登录公共算力服务控制台。 2. 点击左侧导航栏【网络>弹性负载均衡>负载均衡】,在负载均衡列表页,选择某实例名字单击进入负载均衡详情页。 3. 进入负载均衡详情页,单击【后端主机组>添加后端主机组】。 添加后端服务器组的参数说明: 参数 说明 名称 自定义负载均衡后端服务器组的名称。 后端协议 为后端服务器组配置后端协议,支持的协议类型有TCP、HTTP和UDP。 负载方式 为后端服务器组配置分配策略,支持的策略类型有加权轮询算法、源算法和最小连接数算法。若后端协议选择为TCP和UDP,则三种分配策略都支持;若后端协议选择为HTTP,则只支持选择加权轮询算法和源算法。 描述 可选功能,按需为该后端主机组添加相关的描述信息。 会话保持 为后端服务器组配置是否配置会话保持能力,只有分配策略类型为“加权轮询算法”时才支持配置会话保持,会话保持可使得来自同一 IP 的请求被转发到同一台后端服务器上。 会话保持类型 为已开启会话保持功能的后端服务器组配置会话保持类型,其中四层协议(TCP)支持基于源 IP 地址的会话保持能力,七层协议(HTTP/HTTPS)支持基于应用程序 Cookie 的会话保持能力(由负载均衡器向客户端植入 Cookie)。 会话保持时长 为已开启会话保持功能的后端服务器组且会话保持类型为“源IP”设置会话保持时间,单位为秒,默认配置为10000秒。 Cookie名称 为已开启会话保持功能的后端服务器组且会话保持类型为“应用程序cookie”设置Cookie名称,其中Cookie名称和后端服务器所承载应用配置的Cookie名称一致。 健康检查是否开启 该后端服务器组是否开启健康检查功能,通过健康检查来判断后端服务的可用性,避免后端服务异常影响前端业务,从而提高业务整体可用性。 间隔时间 每隔多久进行一次健康检查。缺省5s,取值范围:1~50s。 超时时间 等待主机返回健康检查的时间。缺省2s,取值范围1~50s。 最大重试次数 缺省2次,取值范围1~10,健康检查失败达到最大重试次数后,进入健康检查失败状态。 检查端口 TCP/UDP检查类型选项,为开启健康检查的后端服务器组配置健康检查端口,使用输入的端口号进行后端服务检查,端口范围为165535。 检查路径 HTTP检查类型选项,长度1~80,检查URL。以‘/’开头,可包含数字、大小写字母或‘/’,路径中可包含‘’ ‘’ ‘.’ ‘’。 4. 在填写相关参数后,单击【确定】执行添加。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        网络
        弹性负载均衡
        添加和管理后端服务器组
      • 配置虚拟机
        安装CloudbaseInit(可选) 为了保证使用生成的镜像创建的新云主机可以自定义配置(例如修改云主机密码),建议您安装CloudbaseInit工具。不安装CloudbaseInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 安装 Cloudbase Init 1、下载CloudbaseInit工具安装包。 根据Windows操作系统的不同位数,您需要下载不同版本的CloudbaseInit工具安装包,并将下载后的安装包保存至本地已设置共享的文件夹。 Cloudbase官网: 2、在VirtualBox Windows虚拟机处,选择“计算机 > 网络 > VBOXSVR”。 3、双击打开共享文件夹,将CloudbaseInit工具安装包拷贝至新创建的虚拟机,双击进行安装。 本文以安装CloudbaseInitSetup0911x64为例。 配置 Cloudbase Init工具 1、在CloudbaseInit安装路径下的配置文件“C:Program FilesCloudbase SolutionsCloudbaseInitconfcloudbaseinit.conf”中执行以下操作: a.在配置文件最后一行,增加配置项“netbioshostnamecompatibilityfalse”,使Windows系统的hostname长度支持到63个字符。 说明: NetBIOS长度受Windows系统本身的限制还只支持小于等于15个字符。 b.增加配置项“metadataservicescloudbaseinit.metadata.services.httpservice.HttpService”,配置agent访问OpenStack数据源。 c.(可选)增加如下配置项,配置获取metadata的重试次数和间隔。 retrycount40 retrycountinterval5 d.(可选)增加如下配置项,防止Windows添加默认路由导致metadata网络不通。 [openstack] addmetadataprivateiprouteFalse e.(可选)当CloudbaseInit为0.9.12及以上版本时,用户可以自定义配置密码长度。 操作方法:修改配置项“userpasswordlength”的值,完成密码长度的自定义配置。 f.(可选)选择密码注入方式首次登录时,系统默认强制用户修改登录密码,若用户根据个人意愿,不需要修改首次登录使用的密码时,可关闭此功能。 操作方法:增加配置项“firstlogonbehaviourno”。 2、为了防止镜像中DHCP租期过长导致创建的云主机无法正确的获取地址,用户需要释放当前的DHCP地址。 在Windows命令行中,执行以下命令释放当前的DHCP地址。 ipconfig /release 说明: 此操作会中断网络,对云主机的使用会产生影响。当云主机再次开机后,网络会自动恢复。 3、使用Windows操作系统云主机制作镜像时,需修改云主机SAN策略为OnlineAll类型。否则可能导致使用镜像创建云主机时磁盘处于脱机状态。 Windows操作系统SAN策略分为三种类型:OnlineAll、OfflineShared、OfflineInternal 表 Windows操作系统SAN策略类型 类型 说明 OnlineAll 表示所有新发现磁盘都置于在线模式。 OfflineShared 表示所有共享总线上(比如FC、ISCSI)的新发现磁盘都置于离线模式, 非共享总线上的磁盘都置于在线模式。 OfflineInternal 表示所有新发现磁盘都置于离线模式。 a.运行cmd.exe,执行以下命令,使用DiskPart工具来查询云主机当前的SAN策略。 diskpart b.执行以下命令查看云主机当前的SAN策略。 san 如果SAN策略为OnlineAll,请执行exit命令退出DiskPart。 否,请执行步骤3.c。 c.执行以下命令修改云主机SAN策略为OnlineAll。 san policyonlineall
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        基于VirtualBox使用ISO创建Windows镜像
        配置虚拟机
      • 云日志服务Go SDK
        3.1. 基本使用 使用 SDK访问云日志服务,需要设置正确的 AccessKey、SecretKey 和endpoint,所有的服务可以使用同一 key 凭证来进行访问,但不同的服务地区需要使用不同的 endpoint 进行访问,详情参考天翼云官网SDK接入概述。在调用前SDK,需要已知以下参数: 云日志服务访问地址。详情请查看访问地址(Endpoint)。 key凭证:accessKey和secretKey 。详情请查看如何获取访问密钥(AK/SK)。 日志项目编码:logProject,在使用SDK前,需要确保您有至少一个已经存在的日志项目。 日志单元编码:logUnit,在使用SDK前,需要确保日志项目中有至少一个已经存在的日志单元。 待上传的日志:logItem,在使用SDK前,需要确保日志已按照特定格式组织。 参数 参数类型 描述 是否必须 endpoint string 域名 是 accessKey string AccessKey,简称ak 是 secretKey string SecretKey ,简称sk 是 logProject string 日志项目编码 是 logUnit string 日志单元编码 是 目前通过SDK将日志上传有两种上传形式:同步上传和异步批量上传,详细文档参考代码内README文件。 1、同步上传:当调用日志上传接口时,sdk会立即进行http请求调用,并返回发送结果。这种方式结构简单,可用于发送频率不高的场景。 2、异步批量上传:当调用日志上传接口时,后台线程会将日志进行累积,当达到发送条件时,会进行一次合并发送。对于需要频繁调用发送接口的场景,这种方式性能更卓越,更高效。 示例代码:同步上传 plaintext import ( "ctyunltsgosdk/lts" "fmt" "time" ) func main() { ak : "your accessKey" sk : "your secretKey" logProject : "log project Code" logUnit : "log unit Code" endpoint : " clientConfig : lts.InitClientConfig(endpoint, ak, sk) client, err : lts.CreateClient(clientConfig) if err ! nil { fmt.Println("client initialization failed, err:", err) return } logTimestamp : time.Now().UnixNano() originMsg : "go sdk test oriMessage" contents : make(map[string]any) contents["contentInt"] logTimestamp contents["contentString"] "contents test string" contents["contentDouble"] 3.1415926 contents["contentBool"] "true" labels : make(map[string]any) labels["usertag"] "string" logItem : lts.GenerateLogItem(logTimestamp, originMsg, contents, labels) logItems : lts.NewLogItems() for i : 0; i < 10; i++ { logItems.AddLogItem(logItem) } for j : 0; j < 100; j++ { response, err : client.PutLogs(logProject, logUnit, logItems) if err ! nil { fmt.Println("Put log failed: ", err) } else { fmt.Println("Response message: ", response.Message) } }} 示例代码:异步批量上传 plaintext import ( "ctyunltsgosdk/lts" "ctyunltsgosdk/lts/producer" "fmt" "time" ) func main() { ak : "your accessKey" sk : "your secretKey" logProject : "log project Code" logUnit : "log unit code" endpoint : "your endpoint" producerConfig : producer.GetDefaultProducerConfig() //使用默认配置 producerConfig.AllowLogLevel "warn" //也可自定义设置 producerConfig.LingerMs 2000 producerInstance : producer.InitProducer(producerConfig) // 可以根据clientConfig 创建多个client,client间互不影响 clientConfig : lts.InitClientConfig(endpoint, ak, sk) err : producerInstance.BuildClient(clientConfig) if err ! nil { fmt.Println("client initialization failed, err:", err) return } //启动后台的异步线程 producerInstance.Start() for i : 0; i < 1000; i++ { err producerInstance.SendLogs(logProject, logUnit, GenerateLog()) //不接收发送结果,不返回每条日志发送结果 //err producerInstance.SendLogsWithCallBack(logProject2, logUnit2, GenerateLog()) //接受每条日志发送结果,回调 if err ! nil { fmt.Println(err) } } fmt.Println("Send completion") //SafeClose会等待所有任务结束 producerInstance.SafeClose() }
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Go SDK
      • 云日志服务Java SDK
        3. SDK基本使用 3.1. 基本使用 使用 SDK访问 LTS 的服务,需要设置正确的 AccessKey、SecretKey 和服务端 Endpoint,所有的服务可以使用同一 key 凭证来进行访问,但不同的服务需要使用不同的 endpoint 进行访问,详情参考天翼云官网SDK接入概述。在调用前SDK,需要已知以下参数: 1、云日志服务访问地址。详情请查看访问地址(Endpoint)。 2、key凭证:accessKey和secretKey 。详情请查看如何获取访问密钥(AK/SK)。 3、日志项目编码:logProject,在使用SDK前,需要确保您有至少一个已经存在的日志项目,日志项目就是您要将日志上传到的地方。 4、日志单元编码:logUnit,在使用SDK前,需要确保日志项目中有至少一个已经存在的日志单元。 参数 参数类型 描述 是否必须 endpoint string 域名 是 accessKey string AccessKey,简称ak 是 secretKey string SecretKey ,简称sk 是 logProject string 日志项目编码 是 logUnit string 日志单元编码 是 目前通过SDK将日志上传到云日志服务有两种上传形式:同步上传和异步上传,详细文档参考代码内README文件。 1、同步上传:当调用日志上传接口时,sdk会立即进行http请求调用,并返回发送结果。这种方式结构简单,可用于发送频率不高的场景。 2、异步上传:当调用日志上传接口时,后台线程会将日志进行累积,当达到发送条件时,会进行一次合并发送。对于需要频繁调用发送接口的场景,这种方式性能更卓越,更高效。 示例代码:同步上传 plaintext public static void main(String args[]) throws LogException, InterruptedException { String accessKey "your accessKey"; String secretKey "your secretKey"; String logProject "log project Code";//日志项目ID String logUnit "log unit Code";//日志单元ID String endpoint "endpoint"; Client client new Client(endpoint, accessKey,secretKey); //构建日志 LogItem logItem new LogItem(System.currentTimeMillis()); logItem.setOriginmsg("info: sync ,java, test message!"); //日志原文 logItem.PushBackContent("level", "info"); //日志分词 logItem.PushBackContent("doublenumber", 3.1415); LogItems logItems new LogItems(); logItems.add(logItem); //添加日志,可添加多条 try { for (int i 0; i < 100; i++) { //发送100次 PutLogsResponse response client.PutLogs(logProject, logUnit, logItems); PutLogsResponseBody res response.getBody(); System.out.println("response: statusCode:"+res.getStatusCode()+" ,message:"+res.getMessage()+" ,error:"+res.getError()); } } catch (LogException e) { System.out.println("error :" + e.getErrorCode() + " , " + e.getMessage() + " , " + e.getHttpCode()); e.printStackTrace(); } catch (Exception ex) { ex.printStackTrace(); } } 示例代码:异步批量上传 plaintext public static void main(String[] args) throws Exception { String accessKey "your accessKey"; String secretKey "your secretKey"; String logProject "log project Code";//日志项目ID String logUnit "log unit Code";//日志单元ID String endpoint "endpoint"; // 初始化日志生产者 try { Producer producer new LogProducer(new ProducerConfig()); producer.buildClient(logProject, endpoint, accessKey, secretKey); //发送日志,后台自动异步批量发送 for (int i 0; i < 1000; i++) { LogItem logItem Utils.generateLogItem(1); producer.sendLogs(logProject, logUnit, logItem); } // 稍作等待后关闭生产者 Thread.sleep(10000); producer.close(); } catch (InterruptedException e) { LOGGER.warn("关闭生产者时线程被中断"); } catch (ProducerException e) { LOGGER.info("关闭生产者失败: ", e); } catch (Exception e) { LOGGER.info("发生异常: ", e); } }
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Java SDK
      • 企业微信同步
        1、添加同步任务 进入同步身份源列表,点击“添加同步任务”,进行企业微信身份源添加。 2、选择同步任务 选择“企业微信 同步机构任务”。 3、配置任务 输入配置参数,完成企业微信身份源同步任务配置。 配置参数说明: 参数 说明 企业ID(CorpId) 必填,在企业微信企业管理平台中的我的企业企业信息页面,获取企业ID。 企业微信应用AgentID 必填,在企业微信企业管理平台中的应用管理页面,查看创建的应用, 在应用详情中获取应用AgentID和Secret。 企业微信应用密钥Secret 必填,在企业微信企业管理平台中的应用管理页面,查看创建的应用, 在应用详情中获取应用AgentID和Secret。 连接器访问 如企业自建应用的可信IP需填写客户IP,可使用连接器集群来连接该服务器。 连接器集群 必选项,支持客户选择对应的连接器集群。 企业微信IP端口 必填,需要手输如下ip和端口: 183.47.100.66:80; 183.47.100.66:443; 183.47.102.153:80; 183.47.102.153:443; 157.148.55.111:80; 157.148.55.111:443; 157.148.41.225:80; 157.148.41.225:443; 120.233.17.190:80; 120.233.17.190:443; 120.241.149.189:80; 120.241.149.189:443; 42.194.252.200:80; 42.194.252.200:443; 42.194.252.76:80; 42.194.252.76:443; 101.91.40.24:80; 101.91.40.24:443; 101.226.141.58:80; 101.226.141.58:443; 210.22.244.32:80; 210.22.244.32:443; 140.206.161.227:80; 140.206.161.227:443; 117.135.156.58:80; 117.135.156.58:443; 117.185.253.167:80; 117.185.253.167:443; 81.69.54.213:80; 81.69.54.213:443; 81.69.87.29:80; 81.69.87.29:443; 43.135.106.227:80; 43.135.106.227:443; 43.135.106.8:80; 43.135.106.8:443 同步任务名称 必填,支持自定义同步任务名称。 同步企业微信根部门ID 必填,在企业微信企业管理平台的部门管理编辑部门信息中获取部门ID。 同步至AOneId机构 必填,选择要同步到的AOneId机构。 同步方式 必填,可选择“手动”或者“定时同步”。 手动:启用同步同步任务后,可手动执行同步任务。 定时同步:设置“同步时间”与“同步周期”,启用同步任务后,自动按照定时执行同步任务,期间不可手动执行。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        身份管理
        第三方组织
        同步身份源
        企业微信同步
      • 创建对等连接(跨账号)(1)
        本文帮助您快速熟悉如何创建跨账户对等连接。 操作场景 对等连接支持创建跨账号对等连接连通跨账号的两个VPC,您可以通过创建对等连接来实现同一资源池不同VPC之间的连通。 约束与限制 两个VPC之间只能建立一个对等连接。 对等连接只能在同一资源池VPC之间建立,不支持跨资源池对等连接。 要实现不同资源池VPC内网互通,可以使用云间高速。 在配置对等连接时,如果本端VPC和对端VPC存在网段重叠的情况,可能会出现VPC中部分或全部子网不能通过对等连接互通的情况,具体请参考对等连接使用示例。 创建不同账户下的VPC对等连接时,如果本端账户发起了对等连接请求,该请求需要对端账户接受方可成功创建。若对端账户拒绝请求,则对等连接将无法建立。为确保网络安全,请勿接受来自未知账户的对等连接申请。 前提条件 在不同账号下分别创建同地域内的两个VPC,并获取对端账户邮箱和对端VPC ID。 说明 VPC ID 可以通过登录 虚拟私有云控制台 获取。登录虚拟私有云控制台后,在虚拟私有云列表中点击目标 VPC 名称进入 VPC 详情页,在 VPC 详情部分可以查看具体的资源信息。 操作步骤 1. 登录控制中心,单击控制中心左上角的,选择地域,此处选择华东华东1。 2. 点击“网络 >虚拟私有云”,进入虚拟私有云主页面。 3. 在左侧导航栏选择“对等连接”。 4. 在界面右侧区域点击“创建对等连接”。 5. 根据界面提示配置参数,其中“账户”选择“其他账户”。 参数 说明 选择本端VPC 名称 对等连接名称,由汉字、英文字母、数字、中划线、下划线等构成,一般不超过64个字符。 选择本端VPC 描述 可选参数。 根据需要在文本框中输入对等连接的描述信息。 选择本端VPC 企业项目 所属企业项目,系统默认为default。 选择本端VPC 本端VPC 本端VPC:显示已选择的本端VPC,可在下拉框中选择。 选择本端VPC 本端VPC网段 显示本端VPC的网段。 选择对端VPC 账户 当前账户:表示在同一个账户内、同一个地域下的不同VPC间建立对等连接。 其他账户:表示在同一个地域下的不同账户的VPC间建立对等连接。 此处选择其他账户。 选择对端VPC 对端账户 对端账户邮箱地址 选择对端VPC 对端VPC ID 对端VPC ID,可在VPC详情页面查看。 6. 配置完成后,点击“确定”。 7. 返回到对等连接列表,可查看该对等连接的状态为“待接受”。 注意 创建跨账户的对等连接时,需要对端VPC所属的账号接受连接请求后,才能在两个VPC之间建立跨账号的对等连接。
        来自:
      • 云日志服务Java SDK
        3. SDK基本使用 3.1. 基本使用 使用 SDK访问 LTS 的服务,需要设置正确的 AccessKey、SecretKey 和服务端 Endpoint,所有的服务可以使用同一 key 凭证来进行访问,但不同的服务需要使用不同的 endpoint 进行访问,详情参考天翼云官网SDK接入概述。在调用前SDK,需要已知以下参数: 1、云日志服务访问地址。详情请查看访问地址(Endpoint)。 2、key凭证:accessKey和secretKey 。详情请查看如何获取访问密钥(AK/SK)。 3、日志项目编码:logProject,在使用SDK前,需要确保您有至少一个已经存在的日志项目,日志项目就是您要将日志上传到的地方。 4、日志单元编码:logUnit,在使用SDK前,需要确保日志项目中有至少一个已经存在的日志单元。 参数 参数类型 描述 是否必须 endpoint string 域名 是 accessKey string AccessKey,简称ak 是 secretKey string SecretKey ,简称sk 是 logProject string 日志项目编码 是 logUnit string 日志单元编码 是 目前通过SDK将日志上传到云日志服务有两种上传形式:同步上传和异步上传,详细文档参考代码内README文件。 1、同步上传:当调用日志上传接口时,sdk会立即进行http请求调用,并返回发送结果。这种方式结构简单,可用于发送频率不高的场景。 2、异步上传:当调用日志上传接口时,后台线程会将日志进行累积,当达到发送条件时,会进行一次合并发送。对于需要频繁调用发送接口的场景,这种方式性能更卓越,更高效。 示例代码:同步上传 plaintext public static void main(String args[]) throws LogException, InterruptedException { String accessKey "your accessKey"; String secretKey "your secretKey"; String logProject "log project Code";//日志项目ID String logUnit "log unit Code";//日志单元ID String endpoint "endpoint"; Client client new Client(endpoint, accessKey,secretKey); //构建日志 LogItem logItem new LogItem(System.currentTimeMillis()); logItem.setOriginmsg("info: sync ,java, test message!"); //日志原文 logItem.PushBackContent("level", "info"); //日志分词 logItem.PushBackContent("doublenumber", 3.1415); LogItems logItems new LogItems(); logItems.add(logItem); //添加日志,可添加多条 try { for (int i 0; i < 100; i++) { //发送100次 PutLogsResponse response client.PutLogs(logProject, logUnit, logItems); PutLogsResponseBody res response.getBody(); System.out.println("response: statusCode:"+res.getStatusCode()+" ,message:"+res.getMessage()+" ,error:"+res.getError()); } } catch (LogException e) { System.out.println("error :" + e.getErrorCode() + " , " + e.getMessage() + " , " + e.getHttpCode()); e.printStackTrace(); } catch (Exception ex) { ex.printStackTrace(); } } 示例代码:异步批量上传 plaintext public static void main(String[] args) throws Exception { String accessKey "your accessKey"; String secretKey "your secretKey"; String logProject "log project Code";//日志项目ID String logUnit "log unit Code";//日志单元ID String endpoint "endpoint"; // 初始化日志生产者 try { Producer producer new LogProducer(new ProducerConfig()); producer.buildClient(logProject, endpoint, accessKey, secretKey); //发送日志,后台自动异步批量发送 for (int i 0; i < 1000; i++) { LogItem logItem Utils.generateLogItem(1); producer.sendLogs(logProject, logUnit, logItem); } // 稍作等待后关闭生产者 Thread.sleep(10000); producer.close(); } catch (InterruptedException e) { LOGGER.warn("关闭生产者时线程被中断"); } catch (ProducerException e) { LOGGER.info("关闭生产者失败: ", e); } catch (Exception e) { LOGGER.info("发生异常: ", e); } }
        来自:
      • 权限管理
        本文主要介绍权限管理 如果您需要在云上购买的APM资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制APM资源的访问。 通过IAM,您可以在云帐号中给员工创建IAM用户,并使用策略来控制员工对APM资源的访问范围。例如您的员工中有负责软件开发的人员,您希望开发人员拥有APM的使用权限,但是不希望开发的人员拥有删除服务发现规则等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用服务发现规则,但是不允许删除服务发现规则的权限策略,控制服务对服务发现规则资源的使用范围。 如果帐号已经能满足您的使用需求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用APM的其它功能。 IAM是提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。 APM权限 默认情况下,管理员创建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对APM进行操作。 APM是全局级服务,在授予用户APM权限时,默认对APM支持的所有区域生效。APM资源是租户隔离的,当前租户下所有子用户共享资源,如果需要隔离资源,可以通过企业项目实现。 APM部署时不区分物理区域,为全局级服务。授权时,在“企业 > 项目管理”中设置权限,访问APM时,不需要切换区域。 如表所示,包括了APM的所有系统权限。 表 APM系统权限 角色名称 描述 类别 APM FullAccess 应用性能管理服务的所有执行权限。 系统策略 APM ReadOnlyAccess 应用性能管理服务的只读权限。 系统策略 下表列出了APM常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 APM FullAccess APM ReadOnlyAccess 获取告警列表 √ √ 获取告警详情 √ √ 获取告警通知详情 √ √ 获取应用配置 √ √ 创建应用配置 √ x 删除应用配置 √ x 修改应用配置 √ x 获取标签 √ √ 新增标签 √ x 删除标签 √ x 修改标签 √ x 查询告警模板 √ √ 添加告警模板 √ x 删除告警模板 √ x 修改告警模板 √ x 获取通知 √ √ 删除通知 √ x 添加通知 √ x 修改通知 √ x 获取URL跟踪 √ √ 删除URL跟踪 √ x 添加URL跟踪 √ x 修改URL跟踪 √ x 获取URL跟踪视图 √ √ 获取URL跟踪列表 √ √ 获取全局拓扑 √ √ 获取子应用 √ √ 获取环境配置 √ √ 添加环境配置 √ x 删除环境配置 √ x 修改环境配置 √ x 获取实例 √ √ 删除实例 √ x 修改实例 √ x 获取监控项 √ √ 修改监控项 √ x 获取采集状态 √ √ 获取自定义告警策略 √ √ 删除自定义告警策略 √ x 修改自定义告警策略 √ x 添加自定义告警策略 √ x 获取环境拓扑 √ √ 获取指标视图 √ √ 获取调用链列表 √ √ 获取调用链详情 √ √ 获取采集器信息 √ √ 获取访问密钥 √ √ 修改访问密钥 √ x 删除访问密钥 √ x 添加访问密钥 √ x 获取通用配置 √ √ 修改通用配置 √ x
        来自:
        帮助文档
        应用性能管理
        产品介绍
        权限管理
      • 功能特性
        功能特性 说明 数据安全总览 展示数据安全全生命周期各个阶段的状态,包括云服务全景图(资产地图)、数据采集安全、数据传输/存储安全和数据交换/删除安全,实时呈现了用户资产的具体情况。 资产地图 通过可视化方式,从资产概况、分类分级、权限配置、数据存储、敏感数据等多个维度查看资产的安全状态,可快速发现风险资产并进行快速风险处理。 资产管理 资产列表:支持管理OBS、数据库、大数据和MRS数据资产。 数据目录:可查看不同业务域或不同类型数据的统计信息。 数据探索:查看当前已添加的所有数据资产详细信息,并对数据库、数据表以及数据视图等添加描述、标签、密级和分类操作,从而实现数据资产分级分类管理。 元数据任务:采集原数据。 数据管理:对现有数据进行分组管理。 敏感数据识别 数据自动分级分类:在AI和专家知识库的双重加权下,精确识别敏感数据和文件,覆盖结构化(RDS)和非结构化(OBS)两种数据类型,实现云上全场景覆盖。 文件类型:支持近200种非结构化文件。 数据类型:支持数十种个人隐私数据类型,包含中英文。 图片类型:支持识别(png、jpeg、xportablepixmap、tiff、bmp、gif、jpx、jp2总共8种类型)图片中的敏感文字,包含中英文。 合规模板:多种内置合规知识库,如GDPR,PCI DSS,HIPAA等。 自动识别敏感数据: 自动识别敏感数据及个人隐私数据。 支持自定义规则,场景适配不同行业。 提供可视化识别结果。 DSC服务敏感数据的识别时长将由您所扫描数据源的数据量、扫描规则数、扫描模式决定。 数据风险检测 用户异常行为分析:基于深度行为识别技术,建立用户行为基线,实现基线外异常操作实时告警,行为操作实时查询,行为轨迹可视化,风险事件关联识别,针对风险事件关联用户操作,完善溯源审计链条。 通常情况下,以下行为均被视为异常事件: 非法用户在未经授权的情况下对敏感数据进行了访问、下载。 合法用户对敏感数据进行了访问、下载、修改、权限更改、权限删除。 合法用户对敏感数据的桶进行权限更改、权限删除。 访问敏感数据的用户登录终端异常等情况。 数据脱敏 DSC的数据脱敏支持静态脱敏和动态脱敏。 DSC的数据脱敏特点: 不影响用户数据:从原始数据库读取数据,通过精确的脱敏引擎,对用户的敏感数据实施静态脱敏,脱敏结果另行存放,不会影响原始的用户数据。 支持云上各类场景:支持RDS,ECS自建数据库,大数据合规。 满足多种脱敏需求:用户可以通过20+种预置脱敏规则,或自定义脱敏规则来对指定数据库表进行脱敏。 实现一键合规:基于扫描结果自动提供脱敏合规建议,一键配置脱敏规则。 DSC通过内置和自定义脱敏算法,实现对RDS、Elasticsearch数据进行脱敏。 数据水印 针对PDF、PPT、Word、Excel格式的文件提供了添加和提取水印的功能。 版权证明:嵌入数据拥有者的信息,保证资产唯一归属,实现版权保护。 追踪溯源:嵌入数据使用者的信息,在发生数据泄露事件时,追踪其泄露源头。 同时,DSC提供了数据动态添加水印和提取数据水印的API接口供您使用。 告警通知 通过设置告警通知,当敏感数据检测完成后或异常事件处理监测到异常事件时,数据安全中心会将其检测结果通过用户设置的接收通知方式发送给用户。
        来自:
        帮助文档
        数据安全中心
        产品介绍
        功能特性
      • DRDS
        慢日志存储 开启DAS收集慢日志开关后,DAS会将SQL的文本内容存储到OBS中,以便进行分析。 删除慢日志 在慢SQL页面,您可以选择全部删除或者自定义删除指定时间段的慢日志信息。 说明 慢日志删除后无法恢复,请谨慎操作。 全量SQL洞察 在实例开启DAS收集全量SQL的前提下,该模块基于全量SQL数据进行分析,并提供多维度的分析、搜索、过滤的能力,帮助用户全面洞察SQL,TOP SQL快速定位异常原因,保障数据库稳定运行。 全量SQL洞察功能在对实例性能影响极小(5%以内)的情况下,记录了全量SQL,提供了访问最频繁、更新最频繁的表,锁等待时间最长的SQL等多维度的分析、搜索、过滤能力。 使用须知 关闭DAS收集全量SQL后,DAS将不再采集您新产生的SQL,已经收集的SQL也会被删除,请您谨慎操作。 TOP SQL执行耗时分布 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“全量SQL洞察”,进入全量SQL洞察页面。 单击“开启DAS收集全量SQL”,可获取当前实例所执行过的SQL信息。 说明 DAS收集全量SQL功能开启后立即生效。 在“TOP SQL”页签中,查看TOP SQL执行耗时分布情况。 您可以根据需要设置时间段,选择“近1小时”、“近3小时”、“近6小时”,查看当前时间段内的TOP SQL执行耗时分布。也可以选择上述以外时间段进行查看,间隔不得超过一天。 执行耗时分布展示了选定时间范围内所有SQL的执行耗时分布,共分为以下4个区间。 l 1s:执行耗时>1s的SQL执行次数 上述4个区间内的SQL执行次数是根据用户选择的时间段来计算的。 如果用户选择1小时以内(包括1小时)的时间段,执行耗时分布每10秒计算一次。 如果用户选择6小时以内(包括6小时)的时间段,执行耗时分布1分钟计算一次。 如果用户选择大于6小时的时间段,执行耗时分布每5分钟计算一次。 查看TOP SQL列表,获取执行耗时信息。例如平均执行耗时、总耗时、 平均锁等待耗时、平均扫描行数等。 单击执行耗时分布图上的某个点,查看该时间点的TOP SQL列表。 在执行耗时分布图上用鼠标选择一段时间,查看该段时间的Top SQL列表。 单击“导出”可导出当前列表里显示的TOP SQL信息。此功能仅限付费实例使用,免费实例暂不支持导出功能。 单击操作栏的“详情”按钮,可以查看该执行SQL的详细执行信息。例如总执行次数、平均扫描行数、平均执行耗时等信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        DRDS
      • 性能
        本节主要介绍性能。 历史性能 您可以通过历史性能功能直观地查看数据库在指定时间段的运行情况。 操作步骤 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 在“性能”页签下选择“历史性能”。 单击“选择节点”,选择需要查看历史性能指标的节点。 单击“选择指标”,设置需要展示的性能指标。 此时页面会显示出当前节点下您选中指标的历史性能图,您可以设置需要查看的时间范围。也可以单击每个指标性能图右上方的“详情”,分别进行设置。 您也可以打开“联动图表”开关,可以查看同一时刻其他指标的数据。 实时性能 实时性能页面展示了数据库实例各项关键指标,并提供日期对比功能,方便查看周期业务以及指标变化情况,及时发现异常。 操作步骤 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 在性能页签下选择“实时性能”。 查看服务器的运行时间、连接信息和缓存池的状态。 单击“设置指标”,选择在实时性能页面展示的性能指标,观察性能指标的实时动态。 实时性能指标 指标 指标说明 慢会话 [慢会话] 新增慢会话个数。 QPS TPS 连接数 [总连接数] 已打开的连接数量。 [活跃连接数] 已打开连接中活跃的连接数量。 DML执行次数 [select] select语句每秒执行次数。 [insert] insert语句每秒执行次数。 [update] update语句每秒执行次数。 [delete] delete语句每秒执行次数。 [insertselect]插入查询语句每秒执行次数。 InnoDB缓存 [缓存命中率] 缓存命中率。 [缓存使用率] 缓存使用率。 InnoDB访问行数 [rowsread]从InnoDB存储引擎表读取的行数。 [rowsinserted]从InnoDB存储引擎表写入的行数。 [rowsupdated]从InnoDB存储引擎表更新的行数。 [rowsdeleted]从InnoDB存储引擎表删除的行数。 逻辑读 物理读 InnoDB行锁平均锁定时间(ms) InnoDB行锁平均锁定时间(毫秒)。 InnoDB行锁等待 [InnoDB行锁平均等待次数] InnoDB行锁平均等待次数。 [锁等待总次数] 锁等待总次数。 临时表 文件 网络流量 [总流量] 进出实例的总流量。 [流入流量] 进入实例的网络流量。[流出流量] 流出实例的网络流量。 调整性能指标的采集周期,可设置范围为1~10秒。 根据业务场景需要,单击开始或暂停来开启或终止实时性能。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        MySQL
        性能
      • 开启公网访问
        场景描述 在某些情况下,您可能需要将Kafka开启公网访问。以下是一些可能的场景描述: 跨地域数据传输:如果您有多个位于不同地理位置的数据中心或云服务提供商,您可能希望在它们之间传输数据。通过将Kafka开启公网访问,您可以轻松地在不同地区之间进行数据传输。 跨组织数据共享:如果您需要与其他组织或合作伙伴共享数据,而且这些组织不在同一个网络环境中,您可以将Kafka开启公网访问,以便安全地共享数据。 远程访问和监控:有时候,您可能需要从外部网络访问和监控Kafka集群。通过配置Kafka开启公网访问,您可以远程连接到Kafka集群,监控其运行状态,并执行必要的管理操作。 请注意,在设置Kafka开启公网访问时,确保采取适当的安全措施,比如使用安全组或者用户权限来限制访问权限,以保护Kafka集群的安全性。 约束与限制 开启公网访问功能只支持绑定IPv4弹性IP地址,不支持绑定IPv6弹性IP地址。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“实例详情”后找到如下接入点信息模块。 (5)点击右上角“添加路由策略”按钮,选择“公网接入”方式。 (6)需要为每个节点设置对应的弹性IP地址,点击其右侧的“绑定”按钮,在弹窗中选择某个弹性IP绑定。如果没有足够数量的弹性IP地址,可参考申请弹性IP购买弹性IP地址。 (7)点击刷新按钮查看弹性IP绑定状态,待所有节点都绑定弹性IP后点击“确定”按钮下发开启公网后台任务。 (8)当实例状态重新变为“运行中”后,表示开启公网访问成功。 (9)开启公网访问后,需要设置好对应的安全组规则 才能成功连接Kafka,设置规则参考如下: 安全组参考规则(先判断安全组的出/入方向是否放通了对弹性ip地址的访问,如果没有,可以参考如下规则配置): 方向 协议 类型 端口 远端(源地址) 说明 入方向 TCP IPv4 Kafka公网接入端口(8094),或更大范围 Kafka客户端所在的IP地址或地址组 通过公网访问Kafka (10)如果创建了 网络ACL规则 ,则ACL规则也需要正确配置才能成功连接Kafka,设置规则参考如下: 网络ACL参考规则(先判断网络ACL的出/入方向是否放通了客户端地址的访问,如果没有,可以参考如下规则配置): 方向 协议 IP版本 策略 源地址 源端口范围 目的地址 目的端口范围 描述 入方向 TCP IPv4 允许 Kafka客户端所在的IP地址或地址组 165535 VPC IP地址组 Kafka公网接入端口(8094),或更大范围 控制入方向ACL规则 出方向 TCP IPv4 允许 VPC IP地址组 Kafka公网接入端口(8094),或更大范围 Kafka客户端所在的IP地址或地址组 165535 控制出方向ACL规则 (11)连接Kafka可以根据开启公网访问时选择的SASLPLAINTEXT或SASLSSL协议接入。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        开启公网访问
      • 节点伸缩常见问题
        如果多条规则同时满足条件,会如何执行? 该问题有如下两种情况: 如果同时配置了“CPU分配率”和“内存分配率”的规则,两种或多种规则同时满足扩容条件时,执行扩容节点数更多的规则。 如果同时配置了“CPU分配率”和“周期触发”的规则,当达到“周期触发”的时间值时CPU也满足扩容条件时,较早执行的A规则会将节点池状态置为伸缩中状态,导致B规则无法正常执行。待A规则执行完毕,节点池状态恢复正常后,B规则也不会执行。 配置了CPU或者内存规则后,策略的检测周期是多久?是否只要一次检测出满足条件就会触发扩容节点? 周期不固定,会因autoscaler每次循环的处理逻辑而变动。只要一次检测出满足条件就会触发扩容(当然还要满足冷却时间、节点池状态等约束条件)。 节点伸缩和autoscaler插件的本身功能如何配合? 节点伸缩中创建的策略和autoscaler插件中的配置同时生效时,比如不可调度和指标规则同时满足时,优先执行不可调度扩容。 若不可调度执行成功,跳过指标规则逻辑,进入下一次循环。 若不可调度执行失败,才执行指标规则逻辑。 节点池弹性扩容时,CCE是按什么策略扩容的? 节点池新增了优先级等功能,弹性扩容时CCE将按照如下策略来选择节点池进行扩容: 1. 通过预判算法判断节点池是否能满足让Pending的Pod正常调度的条件,包括节点资源大于Pod的request值、nodeSelect、nodeAffinity和taints等是否满足Pod正常调度的条件;另外还会过滤掉扩容失败(因为资源不足等原因)还处于15min冷却时间的节点池。 2. 有多个节点池满足条件时,判断节点池设置的优先级(优先级默认值为0,取值范围为0100,其中100为最高,0为最低),选择优先级最高的节点池扩容。 3. 如果有多个节点池处于相同的优先级,或者都没有配置优先级时,通过最小浪费原则,根据节点池里设置的虚拟机规格,计算刚好能满足Pending的Pod正常调度,且浪费资源最少的节点池。 4. 如果还是有多个节点池的虚拟机规格都一样,只是AZ不同,那么会随机选择其中一个节点池触发扩容。 节点池中配置的缩容冷却时间和autoscaler插件中配置的缩容冷却时间是如何影响的? 节点池配置的缩容冷却时间 弹性缩容冷却时间:当前节点池扩容出的节点多长时间不能被缩容,作用范围为节点池级别。 autoscaler插件配置的缩容冷却时间 扩容后缩容冷却时间:autoscaler触发扩容后(不可调度、指标、周期策略)整个集群多长时间内不能被缩容,作用范围为集群级别。 节点删除后缩容冷却时间:autoscaler触发缩容后整个集群多长时间内不能继续缩容,作用范围为集群级别。 缩容失败后缩容冷却时间:autoscaler触发缩容失败后整个集群多长时间内不能继续缩容,作用范围为集群级别。 如果出现优先选择的节点池资源不足,会不会自动选择下一个节点池? 会。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        集群/节点弹性伸缩
        节点伸缩常见问题
      • 访问控制
        本节主要介绍访问控制的功能特性、应用场景、涉及的基本概念(根用户、IAM用户、用户组、MFA、授权、策略)及服务限制。 用户身份管理和访问控制(Identity and Access Management,简称IAM)是OOS为用户提供的用户身份与权限管理服务,您可以使用IAM创建、管理用户账号,并对这些账号进行权限分配,方便资源管理。 您只需为您在天翼云账户中的资源付费,无需为IAM单独付费。 注意 OOS的IAM能力和天翼云官网的IAM能力不互通。 功能特性 只要您拥有一个天翼云账号,即可拥有IAM功能,天翼云账号管理员可以: 创建、管理子用户账号。 控制子用户账号内资源具有的操作权限。 按需为用户分配不同权限,从而避免与其他用户共享资源使用、访问密钥的使用等,降低账号的信息安全风险。 多重身份认证:通过多因子操作认证(MFA),在进行IAM相关操作时,可以使用MFA,为操作增加一份安全保障。 应用场景 用户管理与分权 企业中有不同的员工,各自职责不同,权限不同。有的员工需要进行上传下载文件的操作,有的员工只需要查看统计信息,有的员工只需要查看日志信息。通过IAM,可以为不同的员工分配不同的操作权限。 基本概念 根用户 :用户首次创建CTYUN账户时,最初使用的是一个对账户中所有服务和资源有完全访问权限的登录身份,此身份称为根用户。 IAM用户: IAM用户是OOS中的一个实体,该实体代表使用它与OOS进行交互的人员或应用程序,由CTYUN账户在OOS中创建的用户,也称为子用户。默认情况下,全新的IAM用户没有执行任何操作的权限,新用户无权执行任何OOS操作或访问任何OOS资源。 用户组 :用户组是用户的集合,IAM可以将IAM用户添加到对应的用户组,通过对用户组进行授权管理IAM用户,用户组的权限会影响用户组内的IAM用户。建议具备相同权限的IAM用户添加到同一用户组,方便管理。同一个IAM用户可以同时加入多个用户组。 访问密钥(AK/SK) OOS通过访问密钥(AK/SK)认证方式进行认证鉴权,即使用AccessKeyID(AK)/SecretAccessKey(SK)加密的方法来验证某个请求发送者身份。 访问密钥包含两部分:访问密钥 ID(AccessKeyID)和秘密访问密钥(Secret Access Key)。必须同时使用访问密钥 ID 和秘密访问密钥对请求执行身份验证。 OOS支持使用永久AK/SK鉴权,也支持通过临时AK/SK和securitytoken进行认证鉴权,通过使用临时AK,SK和securitytoken,可以为第三方应用或IAM用户颁发一个自定义时效和权限的访问凭证,降低了帐号泄露带来的安全风险。 MFA :多因子认证(MultiFactor Authentication,简称MFA)是一种简单安全的二次认证方式,为用户增加了一层安全保护。仅子用户支持MFA。 授权 :通过给用户组和用户添加策略,用户就能获得策略中定义的权限,这一过程称为授权。 策略 :策略是以JSON格式描述权限信息的集合,可以精确地描述被授权的资源集、操作集以及授权条件。支持系统策略和自定义策略: 系统策略:OOS预先创建好的策略,用户可以根据自身需求,直接引用。对于系统策略,用户只能使用,不能修改。 自定义策略:用户自己创建的策略,用户可以对该类型策略进行修改和删除。
        来自:
        帮助文档
        对象存储(经典版)I型
        产品简介
        主要概念
        访问控制
      • 逻辑模型设计
        参数名称 说明 名称 通过名称来描述该关系。 子逻辑实体 单击该属性在下拉列表中选择子逻辑实体。单击 可设置当前逻辑实体为子逻辑实体。 例如,对于根据3NF范式设计的“成绩表”和“学生表”,成绩表中的“学号”属性为学生表的主键。则子逻辑实体应为“成绩表”,对应父逻辑实体应为“学生表”。 子逻辑实体属性FK 选择子逻辑实体属性,FK表示外键Foreign Key。该子逻辑实体的属性应为父逻辑实体的外键。 例如,对于根据3NF范式设计的“成绩表”和“学生表”,成绩表中的“学号”属性为学生表的主键。则此子逻辑实体属性FK应为“成绩表”的“学号”。 子对父 :表示每条子逻辑实体数据在父逻辑实体中有且只有一条数据与之对应。 :表示每条子逻辑实体数据在父逻辑实体中最多有一条数据与之对应。 :表示每条子逻辑实体数据在父逻辑实体中可能有多条数据与之对应。 :表示每条子逻辑实体数据在父逻辑实体中至少有一条数据与之对应。 父对子 :表示每条父逻辑实体数据在子逻辑实体中有且只有一条数据与之对应。 :表示每条父逻辑实体数据在子逻辑实体中最多有一条数据与之对应。 :表示每条父逻辑实体数据在子逻辑实体中可能有多条数据与之对应。 :表示每条父逻辑实体数据在子逻辑实体中至少有一条数据与之对应。 父逻辑实体 选择与所选子逻辑实体有逻辑关系的逻辑实体。 例如,对于根据3NF范式设计的“成绩表”和“学生表”,成绩表中的“学号”属性为学生表的主键。则父逻辑实体应为“学生表”,对应子逻辑实体应为“成绩表”。 父逻辑实体属性PK 选择父逻辑实体的属性,PK表示主键Primary Key。该父逻辑实体的属性应为父逻辑实体的主键。 例如,对于根据3NF范式设计的“成绩表”和“学生表”,成绩表中的“学号”属性为学生表的主键。则此父逻辑实体属性PK应为“学生表”的“学号”。 角色名称 可以自定义一个角色名称,用于标识该关系。 操作 单击 可删除一条关系。单击 可编辑关系。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        模型设计
        关系建模
        逻辑模型设计
      • 管理单个作业
        本章节主要介绍管理单个作业。 已存在的CDM作业支持查看、修改、删除、启动、停止等操作,这里主要介绍作业的查看和修改。 查看 查看作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。 查看历史记录 查看作业的历史执行记录、读取和写入的统计数据,在历史记录界面还可查看作业执行的日志信息。 查看作业日志 在历史记录界面可查看作业所有的日志。 也可以在作业列表界面,选择“更多 > 日志”来查看该作业最近的一次日志。 查看作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置 源目的统计查询 可对已经配置好的数据库类作业打开预览窗口,预览最多1000条数据内容。可对比源和目的端的数据,也可以通过对比记录数来看迁移结果是否成功、数据是否丢失。 查看历史作业 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 修改 修改作业参数 可重新配置作业参数,但是不能重新选择源连接和目的连接。 编辑作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.单击“历史作业”可以查看最近1个月所有执行过的历史作业。 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 3.单击“表/文件迁移”显示作业列表,可对单个作业执行如下操作: 修改作业参数:单击作业操作列的“编辑”可修改作业参数。 运行作业:单击作业操作列的“运行”可手动启动作业。 查看历史记录:单击作业操作列的“历史记录”进入历史记录界面,可查看该作业的历史执行记录、读取和写入的统计数据。在历史记录界面单击“日志”,可查看作业执行的日志信息。 删除作业:选择作业操作列的“更多 > 删除”可删除作业。 停止作业:选择作业操作列的“更多 > 停止”可停止作业。 查看作业JSON:选择作业操作列的“更多>查看作业JSON”,可查看该作业的JSON定义。 l编辑作业JSON:选择作业操作列的“更多>编辑作业JSON”,可直接编辑该作业的JSON文件,作用等同于修改作业的参数配置。 配置定时任务:选择作业操作列的“更多 > 配置定时任务”,可选择在有效期内周期性启动作业,具体请参考 配置定时任务。 4.修改完成后单击“保存”或“保存并运行”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        管理单个作业
      • 训练任务
        平台的训练任务可以提供稳定和易用的训练环境,在降低训练成本的同时提升训练任务执行效率。 前置条件 完成训练数据集准备,完成存储配置准备(ZOS/HPFS),详见我的数据集。 如果预置模型不满足开发要求,需要基于自有模型,需要完成模型文件准备,详见我的模型。 如果预置镜像不满足开发要求,需要基于自有镜像,需要完成镜像文件准备,详见我的镜像。 如果需要使用代码包,需要完成代码包的上传,详见我的代码包。 创建训练任务 登录智算服务平台。 创建训练任务入口: 入口一:在左侧菜单选择“模型定制”“训练任务”,点击“新建任务”,进入任务创建页面。 入口二:在左侧菜单选择“模型定制”“开发机”,点击开发机列表的“开始训练”。 参数类型 参数名 说明 基本信息 任务名称 必填,训练任务名称。 基本信息 描述 非必填,输入128个字符的描述。 数据集配置 训练数据集 最多可添加10个,选择基础数据集或者标注数据集。 模型配置 模型来源 我的模型:最多5个,将模型管理中的模型文件挂载到容器内路径。 预置模型:最多5个,将预置模型挂载到容器内路径。 模型配置 模型文件 选择我的模型具体的模型文件及版本。 选择预置模型文件及具体版本。 存储配置 ZOS对象存储 最多选择5个,如果没有提前创建,可以点击“去创建对象存储”完成创建。 存储配置 HPFS并行文件系统 最多选择5个,如果没有提前创建,可以点击“去创建HPFS”完成创建。 环境配置 文件目录 平台可持久化的挂载目录,后续可以在该目录下读写文件,是用户间隔离的。 环境配置 训练代码 非必填,可以选择目标代码包。 环境配置 启动命令 必填。如果您的代码包是文件夹,则需要填写python xx.py,其中xx.py是您的训练代码;如果您的代码中有启动参数,可以直接填写;若您使用的代码包是压缩包文件,需要在启动命令中添加解压命令zip。 资源配置 镜像来源 支持选择系统预置镜像、自定义镜像、共享容器镜像和他人分享镜像。 资源配置 集群 支持公共集群和专属集群两种类型,其中专属集群需要提前购买。 资源配置 队列 选择目标队列,展示当前总资源及使用情况。 资源配置 资源规格 选择当前任务所需要的资源规格。 资源配置 训练模式 默认为DDP(分布式训练),如果在单一计算设备上进行机器学习模型训练选择单机训练。 资源配置 容错训练 启动容错训练后,如果训练过程中节点异常,系统会自动重新启用一个新的节点来替换异常节点,从上一个checkpoint开始继续训练。 高级配置 断点续训 开启容错后,如因为节点故障导致训练任务异常,会封锁故障节点,重新调度训练任务。 高级配置 算力健康检查 检查昇腾机器节点的显卡状态、显卡通信状态和交换机状态,以及带宽的压测值。可训练任务详情页查看具体信息。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型定制
        训练任务
      • 1
      • ...
      • 173
      • 174
      • 175
      • 176
      • 177
      • ...
      • 198
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      应用托管

      科研助手

      推荐文档

      普通连接

      修改描述

      监控告警

      新手有礼

      恢复文件和文件夹备份

      故障辅助定界

      客户端Linux版本安装

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号