云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼来单_相关内容
      • 服务总览
        本文介绍学术加速企业版服务的总览页面。 简介 总览提供了学术加速企业版的使用概况,方便您查看学术加速企业版的整体使用情况,快速定位问题。 操作步骤 1.登录 边缘安全加速平台控制台 ,选择【学术加速】控制台。 2.在左侧导航栏,单击【总览】。 3.学术加速企业版总览页面分为两个模块:用量分析、终端分析,默认展示用量分析。您可以通过点击对应的卡片切换不同处理列表。 AOne学术加速 用量分析 统计企业使用学术加速服务的用量使用情况,支持按照单用户、带宽、流量粒度进行查询。快速查询支持按照昨日,今日,7天,30天粒度,也可指定时间范围查询。 用户流量排名:指企业在指定时间范围内使用流量最多的账号,按照总使用流量从大到小排序。同时展示对应的登录用户名(账号名)、终端类型、总流量大小。支持下拉框快速查询最近24小时,最近3天,最近7天,最近30天的对应数据统计。 应用流量排名:指企业在指定时间范围内被访问的应用中,访问流量最多的应用名称以及其被访问流量的大小,按照流量的大小进行降序排序。支持下拉框快速查询最近24小时,最近3天,最近7天,最近30天的对应数据统计。
        来自:
        帮助文档
        边缘安全加速平台
        学术加速
        学术加速企业版
        服务总览
      • 授权和回收权限的GRANT/REVOKE语句
        REVOKE语句 支持的语法: plaintext 从角色或者用户回收库表权限 [UDAL] REVOKE { 权限列表 ALL } ON { SCHEMA TABLE } '对象名称' FROM { USER ROLE } '授权对象'; 从用户回收授权的角色权限 [UDAL] REVOKE ROLE '角色列表' FROM USER 'username'; 语法说明: 权限列表:填写ALL代表回收所拥有的ALL权限,以及可选回收权限:SELECTDELETEUPDATEINSERTTRUNCATEDECRYPT,当需要同时设置多个权限,用逗号进行隔开,必填 对象名称:当回收库权限时填写库名,当需要回收表权限时填写表名格式为 schemaname.tablename,目前仅支持对单个表或者库进行权限回收,必填 授权对象:填写用户名或者表名,必填 角色列表:回收的角色,可以是多个角色,如果是同时回收多个角色,需要用逗号分开并用单引号或双引号包括起来,必填 username:需要回收权限的用户名,必填 使用示例: plaintext 回收用户test的库权限 UDAL REVOKE ALL ON SCHEMA 'bugtest' FROM USER 'test'; 回收用户test的表权限 UDAL REVOKE SELECT,INSERT ON TABLE 'bugtest.sharding1' FROM USER 'test'; 回收用户test的角色权限 UDAL REVOKE ROLE 'role1, role2' FROM USER 'test'; 回收角色role1的库权限 UDAL REVOKE all on schema 'bugtest' FROM role 'role1'; 回收角色role1的表权限 UDAL REVOKE delete on table 'bugtest.sharding1' FROM role 'role1';
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        授权和回收权限的GRANT/REVOKE语句
      • 计费概述
        计费说明 订购流量包之前需要先订购按需流量计费方式,流量包的优先级高于按需流量,即优先抵扣流量包用量,超出流量包抵扣额度的用量,会自动转按需流量计费,即会产生后付费账单。若希望一直采用流量包的计费模式,需及时根据所需服务、业务量,购买适合业务额度的流量包。 购买流量包前,如已订购相关产品的按需套餐,需确保按需套餐的计费方式为【流量】。如果计费方式为【带宽】,已购的流量包会被冻结,域名如果有在使用加速服务,则实际是按带宽峰值计费的方式扣款,并没有使用到流量包的用量。直至按需计费方式切回至【流量】并生效后,流量包方可继续使用。 如有采购大额流量包的诉求,可通过提交工单或拨打4008109889热线电话联系客服进行咨询,申请优惠券。优惠券仅适用于流量包套餐,每一个订购单仅可使用一张优惠券,按需计费套餐不可使用。 视频直播默认只计费下行播放费用。但当上行推流费用和下行播放费用的比例大于1:50时,则同时会收取上行推流费用,单价与下行播放费用一致。
        来自:
        帮助文档
        视频直播
        计费说明
        计费概述
      • 购买混合集群
        操作步骤 步骤 1 登录CCE控制台,在总览页面单击“购买Kubernetes集群”,或在左侧导航栏中单击“资源管理 > 集群管理”,单击“购买混合集群”。 步骤 2 参照下表设置集群参数。 创建集群参数配置 参数 参数说明 计费模式 包年/包月:预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。包年/包月集群创建后不能删除。 按需计费:后付费模式,按资源的实际使用时长计费,可以随时开通/删除资源。 本节以“按需计费”类型为例进行讲解。 区域 不同区域的云服务产品之间内网互不相通;请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。 集群名称 新建集群的名称,创建后不可修改。 集群名称长度范围为4128个字符,以小写字母开头,由小写字母、数字、中划线()组成,且不能以中划线()结尾。 版本 Kubernetes社区基线版本,建议选择最新的版本。版本升级请参见集群版本升级说明。 若有Beta版本时,您可以选择试用,但不建议您将该版本用于商用场景。 集群管理规模 集群管理规模是指当前集群的控制节点可以管理的最大工作节点规模,您可以选择50节点、200节点、1000节点三种管理规模,请根据您的业务需求选择,该规模在集群创建后不可更改,请慎重选择。 若选择“1000节点”,表示当前集群的控制节点最多可管理1000个工作节点。由于不同管理规模的控制节点规格不同,因此配置费用会有差异。 任何一个集群中均包含“Master Node”和“Worker Node”,每一个Node对应一台云服务器。 Master Node:集群的控制节点,在创建集群时会自动创建控制节点,负责整个集群的管理和调度。 Worker Node:集群的工作节点,即用户购买或纳管的节点。工作负载是由控制节点分配的,当某个工作节点宕机时,控制节点会将工作负载转移到其他工作节点上。 控制节点数 多控制节点模式开启后将创建三个控制节点,在单个控制节点发生故障后集群可以继续使用,不影响业务功能。 多控制节点模式开关在集群创建完成后不可变更。 商用场景建议选择多控制节点模式集群。 虚拟私有云 新建集群所在的虚拟私有云,集群创建后不可更改。 虚拟私有云是通过逻辑方式进行网络隔离,提供安全、隔离的网络环境。 若没有虚拟私有云可选择,请单击“创建虚拟私有云”进行创建,完成创建后单击刷新按钮。 所在子网 节点虚拟机运行的子网环境,集群创建后不可更改。 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 若没有子网可选择,请单击“创建子网”进行创建,完成创建后单击刷新按钮。虚拟私有云、子网、集群的关系请参见集群概述。 请确保子网下的DNS 服务器可以解析对象存储服务域名,否则无法创建节点。 集群创建后子网无法修改,请谨慎选择。 网络模型 集群创建成功后,网络模型不可更改,请谨慎选择。 容器隧道网络 容器隧道网络下只能添加同一类型的节点,即全部为虚拟机节点或全部为裸金属节点。 基于底层VPC网络,另构建了独立的VXLAN隧道化容器网络,适用于一般场景。 VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器网络是承载于VPC网络之上的Overlay网络平面,具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面等优势,可以满足大多数应用需求。 VPC 网络 VPC网络模式下每个节点占用一条VPC路由规则,Console界面中可显示当前局点支持的VPC路由规则条数,以及每个节点可供分配的容器IP个数(即可创建的Pod实例数目上限), VPC路由方式与底层网络深度整合,适用于高性能场景,但每个节点占用一条VPC路由规则,节点数量受限于虚拟私有云VPC的路由配额。 VPC网络集群下的每个节点将会被分配固定大小的IP地址段,由于没有隧道封装的消耗,容器网络性能相对于容器隧道网络有一定优势。VPC网络集群由于VPC路由中配置有容器网段与节点IP的路由,可以支持集群外直接访问容器实例等特殊场景。 容器网段 请根据业务需求选择容器网段,确定容器网段后,容器实例将在规划的网段内分配IP,集群创建后该网段不可更改。 未勾选“自动选择”:请手动选择网段。若与子网网段有冲突时将有红色文字提示,请重新选择。建议使用网段:10.0.0.0/8~18,172.16.0.0/16~18,192.168.0.0/16~18。 不同集群使用相同的容器网段,会导致容器IP 冲突,应用访问异常。 勾选“自动选择”:系统将自动分配与子网网段无冲突的网段。 容器网段要设置合理的掩码,掩码决定集群内可用节点数量。集群中容器网段掩码设置不合适,会导致集群实际可用的节点较少。设置掩码后,选项下方会有当前网段最多支持的实例估算值,请作参考。 服务网段 服务网段为kubernetes service ip网段,集群创建后该网段不可更改。服务网段与已创建的路由不能冲突,如果冲突,请重新选择。 使用默认网段:默认设置为10.247.0.0/16网段。 手动设置网段:请根据业务需求设置合理的网段和掩码,掩码决定集群内可用service ip数量。 认证方式 认证机制主要用于对集群下的资源做权限控制。例如A用户只能对某个命名空间下的应用有读写权限,B用户对集群下的资源只有读权限等。角色权限控制的操作请参见集群管理权限控制。 默认状态下不选定“认证能力增强”,此时默认开启X509认证模式,X509是一种非常通用的证书格式。 若需要对集群进行权限控制,请勾选“认证能力增强”,选择“认证代理”。 单击“CA根证书”后的“上传文件”,上传符合规范且合法的证书,并勾选“我已确认上传的证书合法”。 证书若不合法,集群将无法创建成功。请上传小于1MB的文件,上传格式支持.crt或.cer格式。 集群描述 选填,请输入新建容器集群相应的描述信息。 高级设置 单击“高级设置”后展开详细项目,支持的功能如下(当前可用区中不支持的功能将隐藏): 服务转发模式: iptables:社区传统的kubeproxy模式,完全以iptables规则的方式来实现service负载均衡。该方式最主要的问题是在服务多的时候产生太多的iptables规则,非增量式更新会引入一定的时延,大规模情况下有明显的性能问题。 ipvs:在社区获得广泛支持的kubeproxy模式,采用增量式更新,吞吐更高,速度更快,并可以保证service更新期间连接保持不断开,适用于大规模场景。 ipvs模式下,ingress和service使用相同的ELB实例时,无法在集群内的节点和容器中访问ingress。 说明 ipvs为大型集群提供了更好的可扩展性和性能。 ipvs支持比iptables更复杂的负载平衡算法(最小负载,最少连接,位置,加权等)。 ipvs支持服务器健康检查和连接重试等。 CPU 管理策略: 开启:支持给工作负载实例配置CPU独占,适用于对CPU缓存和调度延迟敏感的工作负载。 关闭:关闭工作负载实例独占CPU核的功能,优点是CPU共享池的可分配核数较多。 购买时长 若选择创建“包年/包月”的集群,请设置购买时长。 步骤 3 单击“下一步:创建节点”,在“创建节点”步骤中,参照如下参数配置节点: 创建节点: 现在添加:创建集群的同时创建节点,当前仅支持虚拟机节点。如果节点创建失败集群会一起回滚。 稍后添加:将不会创建节点,仅创建一个空集群,集群创建完成后可以添加虚拟机或裸金属节点。 计费模式:支持“包年/包月”和“按需计费”两种计费类型。 包年/包月:包年包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费:按需计费是后付费模式,按资源的实际使用时长计费,可以随时开通/删除资源。 创建集群时节点的计费方式跟随集群的计费方式,如集群的计费模式选择“按需计费”,则创建过程中节点的计费模式只能为“按需计费”,“包年/包月”同理。创建方式请参考节点管理>购买节点。 包年/包月节点创建后不能删除,如需停止使用,请执行退订操作。 当前区域:节点实例所在的资源池。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高工作负载的高可靠性,建议您在创建集群后将云服务器部署在不同的可用区,购买集群时节点只能部署在一个可用区。 节点类型:选择“虚拟机节点”。 节点名称:自定义节点名称。长度范围为156个字符,以小写字母开头,支持小写字母、数字、中划线(),不能以中划线()结尾。 节点规格:请根据业务需求选择相应的节点规格。 通用型:该类型实例提供均衡的计算、存储以及网络配置,适用于大多数的使用场景。通用型实例可用于Web服务器、开发测试环境以及小型数据库工作负载等场景。 内存优化型:该类型实例提供内存比例更高的实例,可以用于对内存要求较高、数据量大的工作负载,例如关系数据库、NoSQL等场景。 GPU加速型:提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等。 高性能计算型:实例提供具有更稳定、超高性能计算性能的实例,可以用于超高性能计算能力、高吞吐量的工作负载场景,例如科学计算。 通用计算增强型:该类型实例具有性能稳定且资源独享的特点,满足计算性能高且稳定的企业级工作负载诉求。 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件。详细请参见节点管理>节点预留资源计算公式。 操作系统:请直接选择节点对应的操作系统。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32678GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与系统盘一致。 注意 若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 数据盘空间分配:单击后方的“更改配置”可以对数据盘中的“k8s空间”和“用户空间”占比进行自定义设置,开启LVM管理的数据盘将按照设置的比例进行统一分配。部分集群版本不支持此功能,具体以界面为准。 k8s空间:您可以自定义数据盘中Docker和Kubelet的资源占比。Docker资源包含Docker工作目录、Docker镜像数据以及镜像元数据;Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 用户空间:定义本地盘中不分配给kubernetes使用的空间大小和用户空间挂载路径。 请注意“挂载路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 虚拟私有云:不可修改,仅用于展示当前集群所在的虚拟私有云。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 该参数仅在v1.13.10r0及以上版本的集群中显示,请务必确保子网下的DNS服务器可以解析对象存储服务域名,否则无法创建节点。 已有集群添加节点时,如果子网对应的VPC新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称ccecontrol随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果VPC已经新增了扩展网段则不涉及此场景): 弹性IP:独立申请的公网IP地址,若节点有互联网访问的需求,请选择“暂不使用”或“使用已有”。集群开启IPv6时,不显示该参数。弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 暂不使用:若新增节点未绑定弹性IP,则在该节点上运行的工作负载将不能被外网访问,仅可作为私有网络中部署业务或者集群所需云服务器进行使用。 使用已有:请选择已有的弹性IP,将为当前节点分配已有弹性IP。 说明 CCE默认不启用VPC的SNAT。若VPC启用了SNAT,可以不使用EIP去访问外网。 共享带宽:请选择“暂不使用”或“使用已有”。仅在集群开启IPv6时,显示该参数。弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 登录方式:支持密码和密钥对。 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 选择“密钥对”:选择用于登录本节点的密钥对,支持选择共享密钥。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 注意 如果子用户创建节点选择密钥对创建,这个密钥只对创建这个密钥的子用户有效,即使其他子用户在同一个组也无法选择,也无法使用。例如:A用户创建的密钥,B用户无法使用这个密钥对创建节点,并且Console也选不到。 云服务器高级设置:(可选),单击 展开后可对节点进行如下高级功能配置: 安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 新增数据盘:单击“新增数据盘”,选择云硬盘类型并输入数据盘规格。 子网IP:可选择“自动分配IP地址”和“手动分配IP地址”,推荐使用“自动分配IP地址”。 Kubernetes高级设置:(可选),单击 展开后可对集群进行如下高级功能配置: 最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 自定义镜像仓库:单击“新增自定义镜像仓库地址”输入镜像仓库地址。 添加自定义镜像仓库地址(非SSL镜像源地址)到docker启动参数中,避免拉取个人镜像仓库的镜像失败,格式可为“IP地址:端口或者域名”。安装后执行脚本与自定义镜像仓库不能同时使用。 单容器可用数据空间:该参数用于设置一个容器可用的数据空间大小,设置范围为10G到80G。如果设置的参数超过数据盘中Docker可占用的实际数据空间(由数据盘设置项中的资源分配自定义参数指定,默认为数据盘大小的90%),将以Docker的实际空间大小为主。该参数仅在v1.13.10r0及以上版本的集群中显示。 节点购买数量:此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示进行选择,单击后方的 可查看影响能添加节点数的因素(取决于最小值)。如需申请更多配额,请单击。 购买时长:若选择创建“包年/包月”的集群,请设置购买时长。 步骤 4 单击“下一步:安装插件”,在“安装插件”步骤中选择要安装的插件。 “系统资源插件”为必装插件,“高级功能插件”可根据实际需求进行选择性安装。 所有插件也可以在集群创建完成后,在左侧导航栏中单击“插件管理”进行安装或卸载,具体请参见插件管理章节。 步骤 5 单击“下一步:配置确认”,阅读“使用说明”并点选“我已知晓上述限制”,确认所设置的服务选型参数、规格和费用等信息。 步骤 6 确认规格和费用后,单击“提交”,集群开始创建。 若选择购买“包年包月”的集群,请单击“去支付”,根据界面提示进行付款操作。 集群创建预计需要约10分钟,您可以单击“返回集群管理”进行其他操作或单击“查看集群事件列表”后查看集群详情。待集群状态为“正常”,表示集群创建成功。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        购买混合集群
      • 设置默认点播实例
        通过本接口向云点播设置默认点播实例。 接口功能介绍 用户可通过本接口向云点播设置默认点播实例,该点播区域需处于已开通状态。 注意:自2025年5月7日零时起,云点播对资源分配方式进行了升级,原【点播区域】更名为【点播实例】。新开通客户将以实例化方式提供媒资存储、媒体处理等服务,不再以资源池方式进行命名和资源划分。接口中regionCode参数会继续沿用一段时间。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /management/region/default 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionCode 是 String 区域编码 xscnshanghai1 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码,任务结果不为 0 时返回具体信息。 0 message 是 String 错误文本信息,创建成功时,为空字符串。 "" 请求示例 请求体body json { "regionCode": "xscnshanghai1" } 响应示例 json { "code": "0", "message": "" } 状态码 Http 状态码 状态码信息 状态码描述 0 表示业务成功 表示业务成功 400 请求参数有误 请求参数有误 403 用户鉴权失败,用户无操作权限 用户鉴权失败,用户无操作权限 404 请求的资源不存在,输入错误的URL 请求的资源不存在,输入错误的URL 500 业务执行异常 业务执行异常
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        设置默认点播实例
      • 人工审核视频
        用户可通过本接口对媒体库视频条目的审核状态进行修改。 接口功能介绍 用户可通过本接口对媒体库视频条目的审核状态进行修改。当用户需要将一个违规视频下线时,可调用本接口将状态位置为"NOTPASSED",即可将对应视频条目的源文件和转码后文件全部置为不可访问状态。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /video/audit 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 视频ID 34c71dbaf2804f5ea05ff4daed837fef status 是 String 人工审核结果:PASSED公开视频(即通过审核);NOTPASSED屏蔽视频。 NOTPASSED 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,执行成功时,为空字符串。 "" 请求示例 json { "videoId": "34c71dbaf2804f5ea05ff4daed837fef", "status":"NOTPASSED" } 响应示例 json { "code": 0, "message": "" } 状态码 Http 状态码 状态码信息 状态码描述 0 表示业务成功 表示业务成功 400 请求参数有误 请求参数有误 403 用户鉴权失败,用户无操作权限 用户鉴权失败,用户无操作权限 404 请求的资源不存在,输入错误的URL 请求的资源不存在,输入错误的URL 500 业务执行异常 业务执行异常
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        人工审核视频
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 权限管理
        本文主要介绍权限管理。 如果您需要对云服务平台上购买的DMS for Kafka资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云服务资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并使用策略来控制他们对云服务资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有DMS for Kafka的使用权限,但是不希望他们拥有删除Kafka实例等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用Kafka实例,但是不允许删除Kafka实例的权限策略,控制他们对DMS for Kafka资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用DMS for Kafka的其它功能。 IAM是云服务平台提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。 关于IAM的详细介绍,请参见《IAM产品介绍》。 说明 DMS for Kafka的权限与策略基于分布式消息服务DMS,因此在IAM服务中为Kafka分配用户与权限时,请选择并使用“DMS”的权限与策略。 DMS for Kafka权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 DMS for Kafka部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DMS for Kafka时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云服务平台各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对DMS for Kafka服务,管理员能够控制IAM用户仅能对实例进行指定的管理操作。多数细粒度策略以API接口为粒度进行权限拆分,DMS for Kafka支持的API授权项请参见《分布式消息服务Kafka API参考》的“权限策略和授权项”章节。 如下表所示,包括了DMS for Kafka的所有系统权限。 表 DMS for Kafka系统权限 系统角色/策略名称 描述 类别 依赖关系 DMS FullAccess 分布式消息服务管理员权限,拥有该权限的用户可以操作所有分布式消息服务的功能。 系统策略 无 DMS UserAccess 分布式消息服务普通用户权限(没有实例创建、修改、删除、扩容)。 系统策略 无 DMS ReadOnlyAccess 分布式消息服务的只读权限,拥有该权限的用户仅能查看分布式消息服务数据。 系统策略 无 DMS VPCAccess 分布式消息服务租户委托时需要授权的VPC操作权限。 系统策略 无 DMS KMSAccess 分布式消息服务租户委托时需要授权的KMS操作权限。 系统策略 无 DMS Administrator 分布式消息服务的管理员权限。 系统角色 依赖Tenant Guest和VPC Administrator。 说明 系统策略有包含OBS授权项,由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的系统策略后,大概需要等待5分钟系统策略才能生效。 下表列出了DMS for Kafka常用操作与系统策略的授权关系,您可以参照该表选择合适的系统策略。 表常用操作与系统策略的关系 操作 DMS FullAccess DMS UserAccess DMS ReadOnlyAccess 创建实例 √ × × 修改实例 √ × × 删除实例 √ × × 变更实例规格 √ × × 重启实例 √ √ × 查询实例信息 √ √ √
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        权限管理
      • 版本说明书
        版本说明 V1.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 1.0 2018年 08 月 新增功能和功能: 1. 支持实例开通功能,在开通时可自定义选择实例版本、实例名称、root用户密码以及主机等。 2. 支持实例删除功能,停止实例并删除安装目录以及实例数据。 3. 支持实例版本升降级,支持指定版本。 4. 支持实例扩容功能,可从单节点实例扩容到主备多节点实例。 5. 实现实例列表查询功能,支持根据实例名称、实例id等进行筛选。 6. 支持查看实例详情,包括实例的信息(实例名称、实例id、实例root用户、实例状态、实例同步模式等信息)和节点信息(如节点状态、节点安装目录、数据目录、主备信息等)。 7. 支持一键检测实例状态,包括主从节点状态、gateway状态、zk状态、vip状态等。 8. 支持实例启动功能,仅处于停止状态的实例可执行启动操作。 9. 支持实例停止功能,仅处于运行状态的实例可执行停止操作。 10. 支持实例重启,实例停止和运行状态都能进行重启操作。 11. 支持实例重置root用户密码功能。 12. 支持主从切换功能,可选择指定的从节点作为新主节点进行切换。 13. 支持修改主从同步模式,可修改为同步或者异步模式。 14. 支持查看实例的参数配置,需体现配置项、当前值、是否重启生效、可取值范围以及参数描述等信息。 15. 支持修改指定参数,并记录修改记录。 16. 支持查看实例的参数修改历史记录,需包括修改的配置项、修改前后的值以及修改的时间等信息。 17. 支持启动实例指定节点,且可启动处于停止状态的节点。 18. 支持停止实例的指定节点。 19. 支持重启实例的指定节点。 20. 支持修改实例指定节点的数据目录,将原始数据目录迁移到新的目录并重启节点。 21. 支持添加主机,包括如下信息:主机名、主机IP、ssh用户名(需有sudo权限)、ssh端口、ssh密码、备注等。 22. 支持删除空闲主机功能,正在被实例使用的主机不能被删除。 23. 支持查看主机列表,显示主机名、主机ip、ssh用户、ssh端口、标签以及备注等信息。 24. 支持分页查看且能通过标签值和主机名进行查询。 25. 支持编辑已添加的主机。 26. 支持检查主机配置是否满足实例创建要求。 27. 支持添加标签。 28. 支持删除标签。 29. 支持编辑主机标签。 30. 支持创建备份机,包括备份机名称、IP地址、服务端口、安装目录、数据目录和版本号。 31. 支持查看备份机列表,包括备份机名称、IP地址、服务端口、备份程序部署目录、备份数据目录、版本号、磁盘容量、备份程序状态、备份机创建时间、备份程序启动时间以及备份程序运行时长等信息。 32. 支持删除备份机,删除备份机的同时删除该备份机上的备份程序。已经被实例绑定的备份机不允许被删除。 33. 支持启动备份程序。 34. 支持停止备份程序。 35. 支持重启备份程序。 36. 备份机管理需提供升级备份程序升级的功能,在备份程序存在新增功能或者缺陷修复的时候能及时更新版本,保证备份程序的可用性。 37. 支持备份程序属性的自定义配置设置。 38. 支持查询实例已经绑定的备份机。 39. 支持将已创建的备份机与已有实例进行绑定,用于后续实例的备份流程的执行以及备份数据的存储。 40. 支持手动创建备份。 41. 支持查看备份记录列表,包括每次记录需包括备份id、备份名称、备份开始时间、备份结束时间、备份数据大小、备份进度、备份状态、实例版本、备份类型以及备份描述等信息。 42. 支持查看实例备份策略。 43. 支持用户修改备份策略,控制台以及备份程序需基于备份策略定时为实例进行备份并管理备份数据。 44. 支持基于备份策略定时执行备份。 45. 支持复制备份。 46. 支持删除备份记录,同时删除备份机上备份记录对应的备份数据文件。 47. 支持全量恢复,即基于指定的全量备份进行恢复,将目标实例恢复到指定备份记录的状态。 48. 支持恢复到指定时间点并可恢复到其他实例。 49. 支持查看所有备份和恢复的操作历史记录,每条记录包括操作类型、对应的备份id、开始时间、结束时间以及操作状态。 50. 支持实例监控的采集包括CPU使用率、内存使用量、内存使用率、IO操作数、IO利用率、硬盘空闲空间、硬盘空闲率、硬盘已用空间、硬盘使用率、网络吞吐量和wal日志空间。 51. 支持查看实例监控指标数据。 52. 支持查看性能指标。 53. 支持对实例的语句执行状态进行监控。 54. 支持数据库实例的锁分析,支持在页面上展示实例当前存在的锁以及导致锁产生的SQL语句。 55. 支持采集慢语句。 56. 支持查看慢语句信息包括:SQL语句、连接的数据库、执行次数、总耗时、平均耗时、最大耗时以及最小耗时等。 57. 支持错误日志采集。 58. 支持错误日志查询;支持分页查询;支持按照日志级别(ALL/ERROR/FATAL/PANIC)进行分类查询;支持指定时间段查询。 59. 支持慢日志采集。 60. 支持慢日志查询;支持根据sql关键字查询;支持自定义时间段查询;支持分页查询。 61. 支持查看仪表盘数据,包括节点IP端口、连接状态、节点角色、节点cpu使用率、节点内存使用大小、节点所在机器磁盘容量、磁盘读取速度、磁盘写入速度、磁盘io利用率、主从同步时延、节点连接数、节点tps和节点qps。 62. 支持便捷的参数组管理能力,用户可根据业务场景自定义参数组模板。 63. 多AZ部署能够提高数据库的可靠性和可用性,减少故障和数据丢失的风险,需支持多AZ部署能力,给用户提供更安全可靠的数据库产品。 64. 新增集群切换记录。 65. 新增指标阈值告警和查看告警信息。 66. 新增实例运维操作。 67. 引入开源PG10。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        版本说明书
      • MySQL分库分表->DRDS
        本节主要介绍MySQL分库分表>DRDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 数据类型不兼容时,可能引起迁移失败。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 增量迁移场景下,不支持源数据库进行恢复操作。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 如果源数据库为自建库,并且安装了Percona Server for MySQL 5.6.x或Percona Server for MySQL 5.7.x时,内存管理器必须使用Jemalloc库,以避免因系统表频繁查询带来的内存回收不及时,并最终导致数据库Out of Memory问题。 类型名称 使用限制 (DRS自动检查) 数据库权限设置 全量迁移最小权限要求: 源物理分片数据库帐户需要具备如下权限:SELECT、SHOW VIEW、EVENT。 目标中间件帐户需要具备以下基本权限:CREATE、DROP、ALTER、 INDEX、 INSERT、DELETE、 UPDATE、 SELECT, 同时必须具备扩展权限:全表Select权限。 目标中间件帐户必须具备对所迁移数据库的权限。 全量+增量迁移最小权限要求: 源物理分片数据库帐户需要具备如下权限:SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 目标中间件帐户需要具备以下基本权限:CREATE、DROP、ALTER、 INDEX、 INSERT、DELETE、 UPDATE、 SELECT, 同时必须具备扩展权限::全表Select权限。 目标中间件帐户必须具备对所迁移数据库的权限。 迁移对象约束 目前只支持迁移源库的数据,不支持迁移源库表结构及其他数据库对象。 用户需要在目标库根据源端逻辑库的表结构,自行在目标库创建对应的表结构及索引。未在目标库创建的对象,视为用户不选择这个对象进行迁移。 源库在目标库创建的表结构, 必须与源库的表结构完全一致。 源库为DRDS时,则不允许存在拆分键为timestamp类型的表。 不支持非MyISAM和非InnoDB表的迁移。 源数据库要求 增量迁移时,MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 增量迁移时,在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的server-id。如果源数据库版本小于或等于MySQL5.6,server-id的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,server-id的取值范围在1-4294967296之间。 源分库分表中间件中的库名、表名不能包含:'<>/以及非ASCII字符。 MySQL源数据库建议开启skipnameresolve,减少连接超时的可能性。 源数据库GTID状态建议为开启状态。 目标数据库要求 目标库若已存在数据,DRS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 目标数据库存在表的AUTOINCREMENT值至少不能小于源库表的AUTOINCREMENT值。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MySQL分库分表->DRDS
      • Chat对话API
        参数名称 二级参数 三级参数 四级参数 类型 必选 描述 model string 是 模型ID。 messages array 是 用户当前输入的期望模型执行指令。一个列表内多个字典,支持多轮对话。 对话列表,每个列表项为一个message object,message object中包含用户role和content两部分信息: role可选值为user、assistant、system; role为system时,不校验content空值,且message中system只能位于开头,即messages[0]位置; role为user时说明是用户提问,role为assistant时说明是模型回答,而content为实际的对话内容; 单轮/多轮对话中,最后一个message中role必须为user,content为用户输入的最新问题,其余结果除system角色外都为历史信息拼接送入 messages中,assistant和user的role只能交替出现,assistant后只能跟user,user后只能跟assistant。 role string 否 对话角色,role类型枚举值:user、assistant、system。 content string/array 是 对话内容,内容目前有两种格式:string,array。 string类型:表示文本对话内容。 array类型:表示多个对话内容列表,每个列表项为一个content object,每个content object包含type、imageurl、text等信息。 type可选值为text、imageurl。 type为text时,取text字段作为对话内容。 type为imageurl时,取imageurl字段作为对话内容。 type string 否 对话内容类型,type类型枚举值: text,imageurl。 text string 否 文本对话内容,type为text时传入。 imageurl object 否 图片对话内容,type为imageurl时传入。 url string 否 图片对话内容中的图片地址,目前可以为二进制数据的base64编码。 frequencypenalty float 否 频率惩罚。它影响模型如何根据文本中词汇token的现有频率惩罚新词汇token。值大于0,会根据新标记在文本中的现有频率来惩罚新标记,从而降低模型逐字重复同一行的可能性。 一般取值范围[2, 2], 具体取值范围、默认值需见对应模型 。 maxtokens int 否 最大生成长度。控制最大生成长度,超过该值则截断。 一般取值范围(0, 2048], 具体取值范围、默认值需见对应模型 。 n int 否 1n个choices。 presencepenalty float 否 存在惩罚。用户控制模型生成时整个序列中的重复度。 一般取值范围[2.0, 2.0], 具体取值范围、默认值需见对应模型 。 responseformat object 否 返回格式。 type string 否 返回格式枚举值:text,jsonobject。 seed int 否 随机种子。用于指定推理过程的随机种子,相同的seed值可以确保推理结果的可重现性,不同的seed值会提升推理结果的随机性。 一般取值范围(0, 9223372036854775807], 具体取值范围、默认值需见对应模型 。 stop string/array 否 生成停止标识。当模型生成结果以stop中某个元素结尾时,停止文本生成。 stream bool 否 是否以流式接口的形式返回数据。默认为False,非流式。 streamoptions object 否 流式选项,stream为True有效。 includeusage bool 否 是否在返回中包含usage,stream为True有效。 取值为True时,会在流式返回的最后一个chunk里返回usage信息,并该chunk中choices列表为空。 temperature float 否 温度采样。该值越高生成文本的多样性越高,该值越低生成文本的确定性越高。 一般取值范围(0, 2), 具体取值范围、默认值需见对应模型 。 topk int 否 topk 采样。取值越大,生成的随机性越高;取值越小,生成的确定性越高。 一般取值范围[1, 100], 具体取值范围、默认值需见对应模型 。 topp float 否 topp 采样。该值越高生成文本的多样性越高,该值越低生成文本的确定性越高。该值为 0 时没有随机性。 一般取值范围(0, 1], 具体取值范围、默认值需见对应模型 user string 否 用户唯一身份ID。
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API
        Chat对话API
      • 连接器实例配置
        本文介绍连接器实例相关配置,以便您可以快速接入服务。 功能介绍 企业将连接器安装部署到企业服务器上后,连接器实例将进行上报相关信息,可通过切换到连接器实例来查看和管理连接器实例。 软件连接器安装指导,请参考:软件连接器实例安装。 硬件连接器安装指导,请参考:硬件连接器实例安装。 操作步骤 1. 登录边缘安全加速平台控制台,在首页产品能力选择零信任进入工作台。 2. 在左侧导航栏选择AOne零信任网络连接器管理。 3. 根据主导览进行切换管理“连接器实例”。 配置说明 连接器对应的具体字段: 注意 旧版本连接器不支持上报隧道最新在线时间,若您的连接器实例运行时长、最新在线时间、首次上报时间字段值为空,该功能需连接器版本号大于1.17.0及以上,若需要查看这部分字段,请更新连接器实例为最新版。 字段 说明 连接器实例 安装的连接器实例所在服务器的主机名,若为docker安装类型,部分情况下为容器内主机名。 所属集群 连接器实例关联的集群,即通过对应连接器集群命令进行安装则关联对应集群。 连通状态 中心连通:表示连接器和零信任控制中心的GRPC长连接的连通状态,该状态有在线、离线2种,在线表示长连接正常,离线表示长连接掉线,长连接掉线并不影响连接器内网隧道访问,只影响连接器接收配置通道的可用性。 隧道状态:隧道状态表示连接器访问内网的隧道可用性状态,若隧道状态异常,则该连接器无法进行正常内网访问。隧道状态有如下三种情况:未连接、禁止连接、正在运行。未连接:表示连接器实例已经离线,可优先检查连接器实例网络连通状态、服务状态。禁止连接:若您点击“禁止连接”,则该连接器实例即使在线也无法进行上报连通。正在运行:表示连接器正常运行,连接状态正常。 运行时长:统计连接器隧道在线时长。为隧道为正在运行状态后的最新在线时间减去隧道首次上报时间。 最新在线时间:记录隧道正常运行后的心跳上报,隧道状态为正在运行的连接器会定期上报心跳,此时平台会更新连接器最新在线时间。 首次上报时间:记录隧道从异常变成正常状态后的第一次心跳上报时间,作为连接器此次隧道正常运行的首次上报时间。 安装时间:记录该连接器的安装时间,连接器安装后会进行首次心跳上报作为首次上报时间,若出现安装时间和首次上报时间相间隔过长,说明连接器隧道曾经异常过。 实例地址 展示连接器公网地址对应的运营商和地理位置。 公网IP:展示连接器所在服务器和零信任中心连接的公网地址IP。 监控指标 带宽(上行/下行):根据连接器实例上报的带宽指标,统计实时带宽使用情况。 CPU/内存:根据连接器实例所在机器上报的CPU、内存性能指标,展示实时CPU,内存使用情况。 带宽上限 设置连接器实例的带宽上限。带宽上限将限制实例上行+下行带宽之和,若超过则进行限速。 实例实际生效的限速值还会受到集群带宽上限的影响。实际生效值取集群带宽上限、实例动态限速带宽上限(触发集群限速时)、实例带宽上限中最小值。例如:实例带宽上限配置10Mbps,集群带宽上限配置8Mbps。连接器集群触发限速时,下发给该实例的动态限速值为5Mbps,则该实例当前生效的带宽上限为5Mbps。 类型 连接器实例所安装的版本类型,主要有:docker、windows、redhat、debian等。 架构 连接器实例所在系统架构:x86、arm。 版本号 展示当前连接器实例的版本号,包含安装类型,例如:docker1.8.126d99de。 版本升级策略 展示当前连接器实例对应的版本升级策略,可选择手动升级或者自动升级,可点击后方按钮,修改当前连接器实例对应的版本升级策略。 操作 禁止连接:该连接器实例即使在线也无法进行上报连通。 允许连接:若为禁止连接状态,则可以点击允许连接恢复上报。 重启:支持连接器实例级别的重启,仅支持在连接器正在运行时支持进行重启按钮,重启可能影响服务,请谨慎操作。 删除:删除实例前需要确保已将机器的连接器实例进行卸载删除。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        网络管理
        连接器管理
        连接器实例配置
      • 快速创建弹性伸缩
        参数 解释 取值样例 区域 区域也称为Region。创建的伸缩组所在的区域。 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 可用区 可用区也称为AZ(Availability Zone)。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将云服务器创建在不同的可用区内。 如果您需要较低的网络时延,建议您将云服务器创建在相同的可用区内。 如果您选择多个可用区,为提高应用的高可用性,您的云主机会被均匀的创建在不同的可用区内。 名称 创建的伸缩组的名称。 伸缩组名称(1~64个字符)只能由中文、英文字母、数字、下划线、和中划线组成。 最大实例数 最大实例数是指伸缩组中云主机个数的最大值。 1台 期望实例数 期望实例数是指伸缩组中期望的云主机数量。 创建后可以手工修改该值,修改该值就会触发一次弹性伸缩活动。 0台 最小实例数 最小实例数是指伸缩组中云主机个数的最小值。 0台 虚拟私有云 弹性云主机使用的网络是虚拟私有云(VPC)提供的。 同一伸缩组内的弹性云主机均属于该VPC。 子网 您最多可以选择五个子网,伸缩组会自动为创建的实例绑定所有网卡。您选择的第一个子网默认作为云主机的主网卡,其它子网作为云主机的扩展网卡。 自动分配IPv6地址:当且仅当选择支持IPv6的AZ、且VPC子网开启了IPv6功能时,该参数可见。子网如何开启IPv6功能,请参见《虚拟私有云用户指南》。系统默认分配IPv4地址,勾选后,网卡的IP地址为IPv6类型。在同一VPC内,云主机通过IPv6地址在双栈ECS之间进行内网访问。如需访问外网,您需要开启“IPv6带宽”并选择共享带宽,此时云主机可以使用IPv6地址访问互联网。 实例移除策略 实例优先被移除的策略。当满足条件时,会触发实例移除活动,包括如下四种方式: 根据较早创建的配置较早创建的实例:根据“较早创建的配置”较早创建的“实例”优先被移除伸缩组。 根据较早创建的配置较晚创建的实例:根据“较早创建的配置”较晚创建的“实例”优先被移除伸缩组。 较早创建的实例:创建时间较早的实例优先被移除伸缩组。 较晚创建的实例:创建时间较晚的实例优先被移除伸缩组。 说明: 当可用区不均衡时,移出实例时会优先保证可用区均衡。 手动移入伸缩组的云主机不会遵循“实例移除策略”的要求,实例移除优先级最低,且移除时,系统不会删除该云主机。当有多个手工加入伸缩组的云主机时,移除规则是:先进先出。 弹性IP 若伸缩组的伸缩配置使用了弹性IP,在进行扩容活动时,会给创建出来的云主机绑定一个弹性IP。若选择“释放”,当进行缩容活动时,会将云主机上的弹性IP释放,否则仅做解绑定操作,保留弹性IP资源。 健康检查方式 健康检查会将异常的云主机从伸缩组中移除,并重新创建新的云主机,伸缩组的健康检查方式包括以下几种: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。默认为此选项,伸缩组会定期使用云主机健康检查结果来确定每个云主机的运行状况。如果未通过云主机健康检查,则伸缩组会将该云主机移出伸缩组。 负载均衡健康检查:是指根据ELB对云主机的健康检查结果进行的检查。只有当伸缩组使用弹性负载均衡器时,您才可以选择“负载均衡健康检查”,所有监听器下检测到的云主机状态必须均为正常,否则伸缩组会将该云主机移出伸缩组。 健康检查间隔 伸缩组执行健康检查的周期。您可以根据实际情况设置合理的健康检查间隔。 5分钟 通知方式 可选参数。如果勾选此项,伸缩组进行伸缩活动后,系统将以邮件形式通知用户本次弹性伸缩伸缩活动的结果。通知邮箱为用户注册时填写的邮箱信息。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        快速创建弹性伸缩
      • 创建伸缩组
        参数 解释 取值样例 区域 区域也称为Region。创建的伸缩组所在的区域。 不同区域的资源之间内网不互通。请选择靠近您客户的区域,可以降低网络时延、提高访问速度。 可用区 可用区也称为AZ(Availability Zone)。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高应用的高可用性,建议您将云服务器创建在不同的可用区内。 如果您需要较低的网络时延,建议您将云服务器创建在相同的可用区内。 如果您选择多个可用区,为提高应用的高可用性,您的云主机会被均匀的创建在不同的可用区内。 名称 创建的伸缩组的名称。 伸缩组名称(1~64个字符)只能由中文、英文字母、数字、下划线、和中划线组成。 最大实例数 最大实例数是指伸缩组中云主机个数的最大值。 1台 期望实例数 期望实例数是指伸缩组中期望的云主机数量。 创建后可以手工修改该值,修改该值就会触发一次弹性伸缩活动。 0台 最小实例数 最小实例数是指伸缩组中云主机个数的最小值。 0台 虚拟私有云 弹性云主机使用的网络是虚拟私有云(VPC)提供的。 同一伸缩组内的弹性云主机均属于该VPC。 子网 您最多可以选择五个子网,伸缩组会自动为创建的实例绑定所有网卡。您选择的第一个子网默认作为云主机的主网卡,其它子网作为云主机的扩展网卡。 自动分配IPv6地址:当且仅当选择支持IPv6的AZ、且VPC子网开启了IPv6功能时,该参数可见。子网如何开启IPv6功能,请参见《虚拟私有云用户指南》。系统默认分配IPv4地址,勾选后,网卡的IP地址为IPv6类型。在同一VPC内,云主机通过IPv6地址在双栈ECS之间进行内网访问。如需访问外网,您需要开启“IPv6带宽”并选择共享带宽,此时云主机可以使用IPv6地址访问互联网。 实例移除策略 实例优先被移除的策略。当满足条件时,会触发实例移除活动,包括如下四种方式: 根据较早创建的配置较早创建的实例:根据“较早创建的配置”较早创建的“实例”优先被移除伸缩组。 根据较早创建的配置较晚创建的实例:根据“较早创建的配置”较晚创建的“实例”优先被移除伸缩组。 较早创建的实例:创建时间较早的实例优先被移除伸缩组。 较晚创建的实例:创建时间较晚的实例优先被移除伸缩组。 说明: 当可用区不均衡时,移出实例时会优先保证可用区均衡。 手动移入伸缩组的云主机不会遵循“实例移除策略”的要求,实例移除优先级最低,且移除时,系统不会删除该云主机。当有多个手工加入伸缩组的云主机时,移除规则是:先进先出。 弹性IP 若伸缩组的伸缩配置使用了弹性IP,在进行扩容活动时,会给创建出来的云主机绑定一个弹性IP。若选择“释放”,当进行缩容活动时,会将云主机上的弹性IP释放,否则仅做解绑定操作,保留弹性IP资源。 健康检查方式 健康检查会将异常的云主机从伸缩组中移除,并重新创建新的云主机,伸缩组的健康检查方式包括以下几种: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。默认为此选项,伸缩组会定期使用云主机健康检查结果来确定每个云主机的运行状况。如果未通过云主机健康检查,则伸缩组会将该云主机移出伸缩组。 负载均衡健康检查:是指根据ELB对云主机的健康检查结果进行的检查。只有当伸缩组使用弹性负载均衡器时,您才可以选择“负载均衡健康检查”,所有监听器下检测到的云主机状态必须均为正常,否则伸缩组会将该云主机移出伸缩组。 健康检查间隔 伸缩组执行健康检查的周期。您可以根据实际情况设置合理的健康检查间隔。 5分钟 通知方式 可选参数。如果勾选此项,伸缩组进行伸缩活动后,系统将以邮件形式通知用户本次弹性伸缩伸缩活动的结果。通知邮箱为用户注册时填写的邮箱信息。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组管理
        创建伸缩组
      • 生命周期
        本节主要介绍存储桶的生命周期规则。 在“存储桶列表”页面点击“属性”>“生命周期”,进入“生命周期”页面。在该页面,用户可以配置生命周期规则。 通过设置存储桶(Bucket)的生命周期规则,可以: 删除与生命周期规则匹配的文件。当文件的生命周期到期时,OOS会异步删除它们。生命周期中配置的到期时间和实际删除时间之间可能会有一段延迟。文件到期被删除后,用户将不需要为到期的文件付费。OOS删除到期文件后,会在Bucket log中记录一条日志,操作项是"OOS.EXPIRE.OBJECT"。 注意 如果文件的生命周期规则设置的是到期后删除,文件到期后将被永久删除,无法恢复。 将与生命周期规则匹配的文件由标准存储转换为低频访问存储,可以根据需要设置生命周期规则从文件最后一次修改生效,还是从文件最后一次访问时间生效。OOS转换存储类型为低频访问存储后,会在Bucket log中记录一条日志,操作项是"OOS.TRANSITIONSIA.OBJECT"。 项目 描述 :: 规则名称 生命周期规则名称。 适用范围 生命周期规则适用的范围。 规则 生命周期规则详情。 状态 生命周期规则的状态: 启用。 禁用。 操作 可以启用/禁用、编辑、删除指定的生命周期规则。 点击“添加规则”后,在弹窗中添加新的生命周期规则。 添加规则描述 项目 描述 :: 规则名称 生命周期规则名称。 文件转换策略 文件按生命周期规则转换的策略: 天数:生命周期规则在匹配文件最后一次修改时间或最后一次访问时间多少天后生效。 日期:生命周期规则生效日期,对于最后一次修改时间在此日期之前的文件执行生命周期规则。 适用范围 生命规则适用的范围: 按前缀匹配:输入生命周期规则匹配前缀,符合该前缀的文件执行生命周期规则。不符合的不执行生命周期规则。 整个存储桶:创建的生命周期规则适用该Bucket内的所有文件。 前缀 输入生命周期规则要匹配的文件名字的前缀。 前缀设置为example,表示匹配名字以example开头的所有文件,如example1.txt、example/test.png等。 前缀设置为example/,表示匹配名字以example/开头的所有文件,如example/test.png、example/abc/1.txt等。 转换到低频访问型文件 匹配生命周期规则的文件,到期后转换成低频访问型文件。 如果“文件转换策略”为“天数”,可以选择文件: 最后一次修改时间:指定在文件最后一次修改后多少天,根据生命周期规则,文件转为低频访问存储。 最后一次访问时间:指定在文件最后一次访问后多少天,根据生命周期规则,文件转为低频访问存储。 如果“文件转换策略”为“日期”,则在此日期之前修改的文件,将在此日期转换为低频访问存储。 删除文件 匹配生命周期规则的文件,到期后删除。 如果“文件转换策略”为“天数”,指定在文件最后一次修改后多少天,文件被删除。 如果“文件转换策略”为“日期”,则在此日期之前修改的文件,将在此日期被删除。 注意 如果存储桶没有配置过生命周期规则,执行该操作将创建新的生命周期规则。 如果存储桶内的生命周期规则正在执行时被修改配置,则修改后的配置并不立即生效,需等原生命周期规则执行完成后才能生效。 每个存储桶最多创建1000条生命周期规则。 同一存储桶,同一类型(到期删除或者到期转成低频访问存储)的生命周期规则不能存在叠加前缀,例如已创建到期删除文件的生命周期规则的前缀是ABC,则无法再创建前缀为ABCD或AB或A的到期删除文件的生命周期规则。 当用户为存储桶设置了生命周期规则,这些规则将同时应用于已有文件和后续新创建的文件。例如,用户今天增加了一个生命周期,指定过期时间为30天,那么OOS将会将最后修改时间在30天前的文件都加入到待删除队列中。 OOS通过将文件的最后一次修改时间或者最后一次访问时间加上生命周期时间来计算到期时间,并且将时间近似到下一天的GMT零点时间。例如,一个文件的最后修改时间为GMT 2016年1月15日10:30,生命周期为3天,那么文件的到期时间是GMT 2016年1月19日00:00。如果文件在上传之后没有修改过,则最后修改时间为该文件的上传时间。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        存储桶管理
        生命周期
      • 支持的监控指标
        本章节会介绍关系型数据库支持哪些监控指标。 功能说明 本节定义了关系型数据库上报云监控的监控指标的命名空间,监控指标列表和维度定义,用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 实例监控指标 PostgreSQL数据库性能监控指标。 表18数据库性能监控列表 指标 指标名称 含义 取值范围 测量对象和监控对象 监控周期(原始指标) :::::: rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率,以比率为单位。 0100% 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 01 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds003iops IOPS 该指标用于统计当前实例,单位时间内系统处理的I/O请求数量(平均值)。 ≥ 0 counts/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds039diskutil 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以比率为单位。 01 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds040transactionlogsusage 事务日志使用量 事务日志所占用的磁盘容量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds041replicationslotusage 复制插槽使用量 复制插槽文件所占磁盘容量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds042databaseconnections 数据库连接数 当前连接到数据库的后端量。 ≥ 0 counts 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds043maximumusedtransactionids 事务最大已使用ID数 事务最大已使用ID。 ≥ 0 counts 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds044transactionlogsgenerations 事务日志生成速率 平均每秒生成的事务日志大小。 ≥ 0 MB/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds045oldestreplicationslotlag 最滞后副本滞后量 多个副本中最滞后副本(依据接收到的WAL数据)滞后量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds046replicationlag 复制时延 副本滞后时延。 ≥ 0 ms 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds047disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小。 40GB~4000GB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~4000GB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds049diskreadthroughput 硬盘读吞吐量 该指标用于统计每秒从硬盘读取的字节数。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds050diskwritethroughput 硬盘写吞吐量 该指标用于统计每秒写入硬盘的字节数。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds075avgdisksecperread 硬盘读耗时 该指标用于统计某段时间平均每次读取硬盘所耗时间。 > 0ms 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds052avgdisksecperwrite 硬盘写耗时 该指标用于统计某段时间平均写入硬盘所耗时间。 > 0s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds053avgdiskqueuelength 磁盘平均队列长度 该指标用于统计等待写入测量对象的进程个数。 ≥ 0 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        监控
        支持的监控指标
      • 修改视频分类
        为一个视频条目修改视频分类。 接口功能介绍 通过本接口可为一个视频条目修改视频分类。请注意,每个视频条目仅允许创建一组不超过三级的视频分类。未创建视频分类的视频会自动归属于【未分类】的分类条目。创建、修改、删除分类仅影响视频分类的归属,不会影响视频条目的主体数据(封面、截图、视频等)。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI PUT /video/category 入参直接放在 body中,contenttype为 application/json 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 id 是 Integer 待修改视频分类id。 10000060012 name 是 String 修改后分类名称。 最新电影 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 接口业务响应码:0修改成功;非0修改失败。 0 message 是 String 修改失败时为具体失败信息;成功时为""。 "" 请求示例 json { "id":10000060012, "name":"武侠" } 响应示例 json { "code":"0", "message":"" } 状态码 Http 状态码 状态码信息 状态码描述 0 表示业务成功 表示业务成功 400 请求参数有误 请求参数有误 403 用户鉴权失败,用户无操作权限 用户鉴权失败,用户无操作权限 404 请求的资源不存在,输入错误的URL 请求的资源不存在,输入错误的URL 500 业务执行异常 业务执行异常
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        修改视频分类
      • 数据快递
        数据拷贝源端挂载 迁移机器上安装支持 NTFS 文件系统的 ntfs3g软件包,并挂载客户的硬盘: plaintext yum install y ntfs3g ntfs3g /dev/sdd1 /mnt/ntfs o rw,bigwrites,noatime 为了进一步提升机械盘的性能,将该硬盘的预读大小和 IO 队列长度做了修改(修改预读和 IO 队列是磁盘调优的方法,配置参数并不通用,需要测试),之后测试迁移带宽达到150MB/s 左右的限值。 plaintext cd /sys/devices/pci0000:00/0000:00:14.0/usb2/23/23.3/23.3:1.0/host16/target16:0:0/16:0:0:0/block/sdd/queue/ echo 4096 > readaheadkb 预读扩大到4M echo 4096 > nrrequests IO队列扩大到4096 数据拷贝目的端挂载 挂载用户已开通HPFS的客户端: plaintext mount t lustre o seckeyxxxxxx 11.2.xxx.x@tcp0:11.2.xxx.x@tcp0:/hp0001/yZcQcAXicFaxxxxxxxxxxxxyqum9s2bu3 /mnt/shar 迁移命令执行 因为当前用例是单个机械盘进行数据拷贝,并行执行无法提高速度,所以使用单任务 rsync更合适。执行迁移命令: plaintext nohup rsync a partial inplace v /mnt/ntfs/ /mnt/share/ & 命令执行后查看 nohup文件和使用 iostat及 df工具观察迁移过程,在迁移大文件时,带宽能到200MB/s,在迁移小文件时带宽会比较小,属于正常状况。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        数据快递
      • 取得单个转码模板
        通过本接口可获得已存在的单一转码模板的详细配置信息。 接口功能介绍 通过本接口可获得已存在的单一转码模板的详细配置信息。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /template/transcode/get 请求体 body 参数 参数 是否必填 参数类型 说明 示例 下级对象 templateId 是 Long 模板id 100000000004 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,执行成功时,为空字符串。 "" data 是 Object 返回数据。 data 表 data 参数 是否必填 参数类型 说明 示例 下级对象 templateId 是 Long 模板id 100000000004 name 是 String 模板名称。 transcodeTemplate type 是 String 类型 SYS favorite 是 Boolean 是否为选定模板 true format 是 String 转码目标文件格式 MP4 encrytion 是 String 表示是否加密目标视频 false video 是 Object 视频的转码参数 video audio 是 Object 音频的转码参数 audio remark 否 String 转码模板备注 模板备注 表 video 参数 是否必填 参数类型 说明 示例 下级对象 codec 是 String 视频编码 H264 bitRate 是 String 视频的码率。 512K frameRate 是 Integer 视频的帧率。 24 height 是 Integer 目标视频的高度。 1024 width 是 Integer 目标视频的宽度。 768 autoRotate 是 Boolean 标识当前模板是否支持自动旋转。 true 表 audio 参数 是否必填 参数类型 说明 示例 下级对象 codec 是 String 音频的编码。 AAC bitRate 是 String 音频的码率 128k sampleRate 是 Integer 音频的频率 44100
        来自:
        帮助文档
        云点播
        API参考
        API
        公共接口
        取得单个转码模板
      • 取得视频文件
        通过本接口获取媒体库源视频相关视频文件集合。 接口功能介绍 用户可通过本接口获取媒体库源视频相关视频文件集合。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /video/files 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 源视频id 34c71dbaf2804f5ea05ff4daed837fef 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,创建成功时,为空字符串。 "" data 是 Array of Objects 返回数据。 data 表 data 参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 源视频id 34c71dbaf2804f5ea05ff4daed837fef type 是 String 视频类型,包含 ORIGINAL(源视频)/MASTERM3U8(自适应的主m3u8文件)/TRANSCODED(转码后视频)。 TRANSCODED fileId 是 String 文件id 34c71dbaf2804f5ea05ff4daed837fef/100001.m3u8 url 是 String 视频播放的url,返回数据库中当前的url,如果没有调用签名接口签名,返回的是无签名的url,如果有调用则是上一次签名的url。 transcodeTemplateId 否 Long 视频对应的转码模板id,只有源视频存在转码后的文件集才会返回。 100000000003
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        取得视频文件
      • 查询视频分类
        查询全部分类标签。 接口功能介绍 通过本接口可查询全部分类。请注意,每个视频条目仅允许创建一组不超过三级的视频分类。未创建视频分类的视频会自动归属于【未分类】的分类条目。创建、修改、删除分类仅影响视频分类的归属,不会影响视频条目的主体数据(封面、截图、视频等)。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI GET /video/category 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 接口业务响应码:0查询成功;非0查询失败。 0 message 是 String 查询失败时为具体失败信息;成功时为""。 "" data 是 Object 返回数据集,当数据集为空时直接显示 “未分类”。 data 表data 参数 是否必填 参数类型 说明 示例 下级对象 id 是 Integer 分类ID。 1000600001 name 是 String 分类名称。 国产电影 parentId 是 Integer 关联的parentId,如为0代表未分类,如为非0则代表本条目为parentId管理视频条目的子条目。 1000600001 children 否 Object 下级视频分类条目,支持嵌套。目前同一视频条目仅支持最多三级分类,即父子子。 children 表children 参数 是否必填 参数类型 说明 示例 下级对象 id 是 Integer 分类ID。 1000600001 name 是 String 分类名称。 2022年 parentId 是 Integer 关联的parentId,如为0代表未分类,如为非0则代表本条目为parentId管理视频条目的子条目。 1000600001 children 否 Object 下级视频分类条目,支持嵌套。目前同一视频条目仅支持最多三级分类,即父子子。 children
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        查询视频分类
      • 上传文件或文件夹
        参数 说明 对象命名 1.使用UTF8编码。 2.命名长度范围为1~1023字节。 3.推荐可用于文件名字符集为[09azAZ]、感叹号"!"、左括号"("、右括号")"、连字符""、下划线""、星号""、单引号"'"、句号"."。 4.如果上传的对象名带有中文,在访问或请求这个对象时中文部分将会按照URL Encode规则把中文转换为百分号编码。 文件ACL 1.继承Bucket:上传文件时,可选择继承目前Bucket的ACL配置,单个文件的读写权限按Bucket的读写权限为准。目前媒体存储根据资源池不同,存在2个版本的继承Bucket功能。 (1)继承Bucket1.0:后续Bucket的ACL发生变更,文件ACL暂无法同时变更。如需修改文件ACL,需要手动修改或重新上传文件。 (2)继承Bucket2.0:后续Bucket的ACL发生变更,文件ACL会同时继承Bucket的ACL。 (3)具体支持继承Bucket2.0的资源池可参考: 设置对象属性 即对象元数据设置,根据需求选择设置参数并填写对应的参数值,支持用户自定义参数。更多对象属性说明可参考:
        来自:
        帮助文档
        媒体存储
        工具指南
        XstorBrowser
        对象操作
        上传文件或文件夹
      • 创建伸缩组
        参数 是否必选 参数说明 名称 是 伸缩组的名称,用户可自定义,也可以选择保持系统默认分配名称。 最大实例数(台) 是 伸缩组内包含的实例数量的最大值,伸缩组内执行的任何伸缩活动结果不得大于最大实例数。 若您修改了伸缩组的最大实例数使得伸缩组的当前实例数大于最大实例数,弹性伸缩服务会自动移出实例,保证伸缩组的当前实例数等于最大实例数。 最小实例数(台) 是 伸缩组内包含的实例数量的最小值,伸缩组内执行的任何伸缩活动结果不得小于最小实例数。 若您修改了伸缩组的最小实例数使得伸缩组的当前实例数小于伸缩最小实例数时,弹性伸缩服务会自动添加实例,保证伸缩组的当前实例数等于伸缩最小实例数。 开启期望实例数 否 伸缩组内是否开启期望实例数配置。期望实例数是伸缩组内包含的实例数量的稳态值。 若您为伸缩组开启并设置了期望实例数,当伸缩组内实例数不等于期望实例数时,弹性伸缩服务会自动进行扩缩容,确保伸缩组内始终保持该数量的实例数。 虚拟私有云 是 同一伸缩组内的弹性云主机的虚拟私有云是一致的。 网卡 是 一个伸缩组可以绑定多张网卡,默认第一张网卡为主网卡。 多可用区扩容策略 是 多可用区资源池伸缩组需指定扩容策略。 均衡策略:在伸缩组绑定的伸缩配置关联多个可用区时生效,支持在多个可用区之间均衡分布云主机实例。 优先级策略:伸缩组绑定的伸缩配置先选择的可用区优先级高。弹性伸缩优先在优先级最高的可用区尝试伸缩活动。若无法扩进行伸缩活动,则自动在优先级次之的可用区进行。 添加已有云主机实例 否 伸缩组创建完成后,支持将符合条件的已有云主机实例移入伸缩组,作为初始化实例,最大可选择添加10个实例。添加已有的云主机实例数量受到最小、最大、期望实例数限制。 安全组 是 安全组类似防火墙功能,是一个逻辑上的分组,用于设置网络访问控制。 负载均衡 否 选择启用负载均衡后,伸缩组中的云主机会自动挂载到您关联的负载均衡下。当选择使用弹性负载均衡时,需配置4个参数:负载均衡器、主机组、后端端口和权重。 访问流量将按照分发策略自动分发到伸缩组内的所有弹性云主机。 注意:一个伸缩组可最多关联10个负载均衡监听器。 实例移除策略 是 在对伸缩组进行缩容时,会采用此策略进行移除,共有以下四种方式: 较早创建的配置较早创建的实例:先筛选出较早创建的配置所创建出的实例,再筛选较早创建的实例移出。 较晚创建的配置较晚创建的实例:先筛选出较晚创建的配置所创建出的实例,再筛选较晚创建的实例移出。 较早创建的实例:根据时间筛选较早创建的实例,跟是否是伸缩配置创建的无关。 较晚创建的实例:根据时间筛选较晚创建的实例,跟是否是伸缩配置创建的无关。 实例回收模式 是 指伸缩组自动创建的实例被移出后的处理策略。 释放模式:将移出的伸缩组自动创建的云主机释放。 注意:对于手动移入伸缩组的云主机,如果被移出伸缩组,资源不会被释放,状态保持不变,不适用此策略。 健康检查方式 是 健康检查会将处于“异常”状态的云主机从伸缩组中移出,并替换同种规格的云主机来承载业务流量。有以下两种方式: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、错误等人为或非人为状态都是云主机异常状态。 弹性负载均衡健康检查:是指根据负载均衡对云主机的健康检查结果进行的检查。所有监听器下检测到的云主机状态必须均为正常。 不启用:关闭伸缩组健康检查,伸缩组不会获取实例健康状态信息。 注意:只有开启负载均衡时您才可以选择弹性负载均衡健康检查,建议当伸缩组开启负载均衡时,使用弹性负载均衡健康检查。 健康检查间隔 是 执行健康检查的周期时间。您可以根据业务实际情况设置合理的健康检查间隔(5分钟、 15分钟、 1小时、 3小时),以确保其包含主机中应用程序的预期启动时间。 企业项目 是 支持为伸缩组选择企业项目。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        快速扩缩容弹性云主机
        创建伸缩组
      • 创建伸缩组
        参数 是否必选 参数说明 名称 是 伸缩组的名称,用户可自定义,也可以选择保持系统默认分配名称。 最大实例数(台) 是 伸缩组中弹性云主机实例个数的最大值。当伸缩组的当前实例数大于最大实例数时,弹性伸缩服务会自动移出实例,使得伸缩组的当前实例数等于伸缩最大实例数。理论上实际实例数不允许大于最大实例数。 最小实例数(台) 是 伸缩组中弹性云主机实例个数的最小值。当伸缩组的当前实例数小于最小实例数时,弹性伸缩服务会自动添加实例,使得伸缩组的当前实例数等于最小实例数。理论上实际实例数不允许小于最小实例数。 开启期望实例数 否 伸缩组内是否开启期望实例数配置。期望实例数是伸缩组内包含的实例数量的稳态值。 若您为伸缩组开启并设置了期望实例数,当伸缩组内实例数不等于期望实例数时,弹性伸缩服务会自动进行扩缩容,确保伸缩组内始终保持该数量的实例数。 虚拟私有云 是 同一伸缩组内的弹性云主机的虚拟私有云是一致的。 网卡 是 一个伸缩组可以绑定多张网卡,默认第一张网卡为主网卡。 多可用区扩容策略 是 多可用区资源池伸缩组需指定扩容策略。 均衡策略:在伸缩组绑定的伸缩配置关联多个可用区时生效,支持在多个可用区之间均衡分布云主机实例。 优先级策略:伸缩组绑定的伸缩配置先选择的可用区优先级高。弹性伸缩优先在优先级最高的可用区尝试伸缩活动。若无法扩进行伸缩活动,则自动在优先级次之的可用区进行。 添加已有云主机实例 否 伸缩组创建完成后,支持将符合条件的已有云主机实例移入伸缩组,作为初始化实例,最大可选择添加10个实例。添加已有的云主机实例数量受到最小、最大、期望实例数限制。 安全组 是 安全组类似防火墙功能,是一个逻辑上的分组,用于设置网络访问控制。 负载均衡 否 选择启用负载均衡后,伸缩组中的云主机会自动挂载到您关联的负载均衡下。访问流量将按照分发策略自动分发到伸缩组内的所有弹性云主机。注意:一个伸缩组可最多添加10组负载均衡监听器。当选择使用弹性负载均衡时,需配置4个参数:负载均衡器、主机组、后端端口和权重。 实例移除策略 是 在对伸缩组进行自动缩容时,会采用此策略进行移除,共有以下四种方式: 较早创建的配置且较早创建的实例:先筛选出较早创建的配置所创建出的实例,再筛选较早创建的实例移出。 较晚创建的配置且较晚创建的实例:先筛选出较晚创建的配置所创建出的实例,再筛选较晚创建的实例移出。 较早创建的实例(FIFO):根据时间筛选较早创建的实例,跟是否是伸缩配置创建的无关。 较晚创建的实例(LIFO):根据时间筛选较晚创建的实例,跟是否是伸缩配置创建的无关。 实例回收模式 是 指伸缩组自动创建的实例被移出后的处理策略。释放模式:将移出的伸缩组自动创建的云主机释放。 注意:对于手动移入伸缩组的云主机实例,如果被移出伸缩组,资源不会被释放,状态保持不变,不适用此策略。 健康检查方式 是 健康检查会将处于“异常”状态的云主机从伸缩组中移出,并替换同种规格的云主机来承载业务。有以下两种方式: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。 弹性负载均衡健康检查:是指根据负载均衡对云主机的健康检查结果进行的检查。所有监听器下检测到的云主机状态必须均为正常。 不启用:关闭伸缩组健康检查,伸缩组不会获取实例健康状态信息。 注意:只有开启负载均衡时您才可以选择弹性负载均衡健康检查,建议当伸缩组开启负载均衡时,使用弹性负载均衡健康检查。 健康检查间隔 是 执行健康检查的周期时间。您可以根据业务实际情况设置合理的健康检查间隔(5分钟、 15分钟、 1小时、 3小时)。 企业项目 是 支持为伸缩组选择企业项目。 标签 否 为伸缩组添加标签便于搜索和资源管理。一个伸缩组最多可绑定10组标签键和值。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组管理
        创建伸缩组
      • 容器客户端上传镜像
        入门指引 容器镜像服务是一种支持容器镜像全生命周期管理的服务, 提供简单易用、安全可靠的镜像管理功能,帮助用户快速部署容器化服务。本文档将帮助您学习如何安装容器引擎以及如何使用容器引擎客户端上传镜像到容器镜像仓库。 说明 上传镜像仅适用于管理控制台操作。 图 入门流程图 准备工作 在使用容器镜像服务前,您需要完成天翼云注册并实名认证的准备工作。 本文以一个2048应用为例,讲述根据该应用编写Dockerfile文件构建镜像并上传至容器镜像服务的操作。您可以编写一个Dockerfile文件,以alpine:3.7为基础镜像,来构建一个2048容器镜像。 前提条件 已安装Docker 已获取2048应用,并将该镜像下载至本地。 构建镜像 步骤1: 使用root用户登录虚拟机。 步骤2: 创建2048demo目录。 mkdir 2048demo 步骤3 :下载2048源码至2048demo目录中。 该应用源码地址为: ,详细命令可参考< t 2048demo:v1:指定镜像的名称和版本。 .:指定Dockerfile所在目录,镜像构建命令会按照Dockerfile的内容构建镜像。 步骤7 :执行以下命令,可查看到已成功构建的2048demo镜像,版本为v1。 docker images grep 2048demo 查看已构建的2048demo镜像 创建组织 组织用于隔离镜像,并为租户下用户指定不同的权限(读取、编辑、管理)。 读取:只能下载镜像,不能上传。 编辑:下载镜像、上传镜像、编辑镜像属性以及创建触发器。 管理:下载镜像、上传镜像、删除镜像或版本、编辑镜像属性、添加授权、以及共享镜像。 步骤1 :登录容器镜像服务控制台。 步骤2 :在左侧菜单栏选择“组织管理”,单击右侧“创建组织”,在弹出的页面中填写“组织名称”,然后单击“确定”。 客户端上传镜像 docker客户端上传镜像,是指使用docker命令将镜像上传到容器镜像服务的镜像仓库。 本章节以2048demo:v1镜像为例,介绍如何上传镜像。上传成功后,在“我的镜像”中显示已上传成功的镜像。 注意 使用客户端上传镜像,镜像的每个layer大小不能超过10G。 上传镜像的Docker客户端版本必须为1.11.2及以上。 步骤1:连接容器镜像服务。 a. 登录容器镜像服务控制台。 b. 在左侧菜单栏选择“我的镜像”,单击右侧“客户端上传”,在弹出的页面中单击“生成临时docker login指令”,单击 复制docker login指令。docker login指令末尾的域名即为当前镜像仓库地址,记录该地址。 说明 此处获取的docker login指令有效期为24小时,若需要长期有效的docker login指令,请参见 获取了长期有效的登录指令后,在有效期内的临时登录指令仍然可以使用。 c.在安装Docker的机器中执行上一步复制的docker login指令。 登录成功会显示“login succeeded”。 步骤2:在安装docker的机器给2048demo:v1镜像打标签。 docker tag [镜像名称:版本名称] [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 说明 镜像名称不支持多级目录格式,例如:镜像名称可命名为“2048demo”,不可命名为“2048demo/test”。 样例如下: docker tag 2048demo:v1 {Public image address}/group/2048demo:v1 其中: {Public image address}为容器镜像服务的镜像仓库地址。获取该地址的方式:单击“我的镜像”,单击镜像列表中的镜像名称,在“Pull/Push指南”页签中的“1. 本镜像地址”下可以看到镜像仓库地址。 group为组织名称,如果该组织还没有创建,容器镜像服务会根据组织名称自动创建一个组织。 2048demo:v1 为镜像名称和版本号。 步骤3:上传镜像至镜像仓库。 docker push [镜像仓库地址]/[组织名称]/[镜像名称:版本名称] 样例如下: docker push {Public image address}/group/2048demo:v1 终端显示如下信息,表明push镜像成功。 6d6b9812c8ae: Pushed 695da0025de6: Pushed fe4c16cbf7a4: Pushed v1: digest: sha256:eb7e3bbd8e3040efa71d9c2cacfa12a8e39c6b2ccd15eac12bdc49e0b66cee63 size: 948 返回系统,在“我的镜像”页面,执行刷新操作后可查看到对应的镜像信息。
        来自:
        帮助文档
        容器镜像服务
        快速入门
        容器客户端上传镜像
      • 开发规范
        本章节内容主要介绍开发规范 数据库连接 使用DDS时,可能会遇到因为 Mongod/Mongos 连接数用满了,导致客户端无法连接的问题。在Mongod/Mongos的服务端,收到一个新的连接由一个单独的线程来处理,每个线程配置了1MB的栈空间,当网络连接数太多时,过多的线程会导致上下文切换开销变大,同时内存开销也会上涨。 客户端连接数据库的时候,要计算业务一共有多少个客户端,每个客户端配置的连接池大小是多少,总的连接数不要超过当前实例能承受的最大连接数的80%。 对于副本集,客户端需要同时配置主备节点的IP地址, 对于集群,至少配置两个mongos的IP地址。 DDS默认提供rwuser用户,使用rwuser用户登录时认证库必须是admin。 可靠性 write concern设置规则:对于关键业务,write concern设置为{w:n},n>0,数字越大,一致性实现更好,但性能较差。 w:1表示实际写入主节点完成返回。 w:1,journal:true表示写主节点和日志后返回。 w:majority表示大多数备节点写入后返回。 对于可靠性有较高要求的,建议采用3az部署的集群。 性能相关 规范 业务程序禁止执行全表扫描的查询。 执行查询时,只选择需要返回的字段,不需要的字段不要返回。从而减少网络和进程处理的负载,修改数据时,只修改变化需要修改的字段,不要整个对象直接存储全部修改。 避免使用not。DDS并不会对缺失的数据进行索引,因此not的查询条件将会要求在一个结果集中扫描所有记录。如果$not是唯一的查询条件,会对集合执行全表扫描。 用and时把匹配最少结果的条件放在最前面,用or时把匹配最多结果的条件放在最前面。 单个实例中,数据库的总的个数不要超过200个,总的集合个数不要超过500个。 业务上线前,一定要对数据库进行性能压测,评估业务峰值场景下,对数据库的负载情况 禁止同时执行大量并发事务,且长时间不提交。 业务正式上线前, 所有的查询类别,都应该先执行查询计划检查查询性能 建议: 每个连接在后台都是由一个单独线程处理,每个线程会分配1MB的栈内存。所以连接数不宜过多,否则会占用过多的内存。 使用连接池,避免频繁的建立连接和断开连接,否则会导致CPU过高。 减少磁盘读写:避免使用不必要的upsert命令,避免查询不必要的数据。 优化数据分布:对数据进行分片,同时分散热点数据,均衡地使用实例资源。 减少锁冲突:避免对同一个Key,过频繁地操作。 减少锁等待:避免前台创建索引。 注意: 开发过程中对集合的每一个操作都要通过执行explain()检查其执行计划,如: db.TDeviceData.find({"deviceId":"ae4b5769896f"}).explain(); db.TDeviceData.find({"deviceId":"77557c231b4"}).explain("executionStats"); 对于查询而言,因为覆盖查询不需要读取文档,而是直接从索引中返回结果,这样的查询性能好,所以尽可能使用索引覆盖查询。如果explain()的输出显示indexOnly字段为真,则说明这个查询就被一个索引覆盖。 执行计划解析: 看执行时间:executionStats.executionStages.executionTimeMillisEstimate和executionStats.executionStages.inputStage. executionTimeMillisEstimate时间越短越好。 − executionStats.executionTimeMillis表示执行计划选择和执行的所有时间。 − executionStats.executionStages.executionTimeMillisEstimate表示最优执行计划的执行完成时间。 − executionStats.executionStages.inputStage. executionTimeMillisEstimate表示最优执行计划下的子阶段执行完成时间。 看扫描条数:三个条目数相同为最佳。 − executionStats. nReturned表示匹配查询条件的文档数。 − executionStats .totalKeysExamined表示索引扫描条目数。 − executionStats .totalDocsExamined表示文档扫描条目数。 看Stage状态,性能较好的Stage状态组合如下。 − Fetch+IDHACK − Fetch+ixscan − Limit+(Fetch+ixscan) − PROJECTION+ixscan 表 状态说明 状态名称 描述 COLLSCAN 全表扫描 SORT 内存中进行排序 IDHACK 根据id进行查询 TEXT 全文索引 COUNTSCAN 未用索引计数 FETCH 索引扫描 LIMIT 使用Limit限制返回数 SUBPLA 未用索引的$or查询阶段 PROJECTION 限定返回字段时stage的返回 COUNTSCAN 使用索引计数 Cursor使用规则 如果cursor不使用了要立即关闭。由于cursor在10分钟内不活动,就会关闭,立即手动关闭会节省资源。 4.2版本分布式事务使用规则 Spring Data MongoDB不支持事务报错后重试机制,如果客户端使用Spring Data Mongo作为连接MongoDB的客户端,需要依照Spring Data Mongo的参考文件,使用Spring Retry进行事务的重试操作。 分布式事务操作数据的大小不能超过16MB。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        DDS使用规范建议
        开发规范
      • 使用方法
        本节主要介绍Glance使用HBlock卷的方法。 1. 修改Glance的配置文件/etc/glance/glanceapi.conf,修改enabledbackends,支持使用Cinder作为Glance的后端存储,同时通过cindervolumetype来指定卷类型。 plaintext [DEFAULT] showimagedirecturl True enabledbackends"file:file,cindera:cinder,cinderb:cinder" [glancestore] storesfile,cindera,cinderb defaultbackendfile [file] filesystemstoredatadir /opt/stack/data/glance/images/ [osglancetasksstore] filesystemstoredatadir /opt/stack/data/glance/tasksworkdir [osglancestagingstore] filesystemstoredatadir /opt/stack/data/glance/staging [cindera] cinderosregionnameRegionOne cinderstoreauthaddress cinderstoreusernamecinder cinderstorepasswordnomoresecret cinderstoreprojectnameservice cindervolumetypehblocka cinderenforcemultipathTrue cinderusemultipathTrue rootwrapconfig /etc/cinder/rootwrap.conf [cinderb] cinderosregionnameRegionOne cinderstoreauthaddress cinderstoreusernamecinder cinderstorepasswordnomoresecret cinderstoreprojectnameservice cindervolumetypehblockb cinderenforcemultipathTrue cinderusemultipathTrue rootwrapconfig /etc/cinder/rootwrap.conf 部分参数描述,具体详细参数请参考OpenStack官网。 参数 描述 showimagedirecturl 是否允许通过直接url的方式表示镜像。 取值: True。 False。 说明 在使用Stor Cinder进行镜像创建卷的场景下,支持采用克隆方式进行底层处理。如果使用克隆进行底层处理,必须配置此项,且该项取值为True。 enabledbackends 存储标识符和存储类型。配置形式为key :value 。value的合法值为file、rbd、http、swift、cinder。key为defaultbackend的值。 说明 可以一次配置多个key :value ,以英文逗号隔开,如key1 :value1 ,key1 :value2 。enabledbackends中的每一个key 都需要有一个单独的一个配置组[key],配置组中需要配置该配置的所有详细配置项。 defaultbackend 必须为enabledbackends中的key。 cinderosregionname 从服务目录中查找cinder服务的区域名称。 cinderstoreauthaddress Openstack实际的identity服务url,对应的账户密码需找管理员获取。在PackStack部署模式下,此值为类似的地址: cinderstoreusername OpenStack鉴权账户名。 cinderstorepassword OpenStack鉴权密码。 cinderstoreprojectname 镜像卷存储在Cinder中的项目名称。 cindervolumetype 在Cinder中创建卷的卷类型。 cinderenforcemultipath 如果它被设置为True,则当Multipathd未运行时,镜像传输的卷附加将中止。 取值: True。 False。 说明 如果HBlock集群版,需要配置为True,如果HBlock单机版,配置为False。仅在cinderusemultipath设置为True时,才将此字段设置为True。 cinderusemultipath 在部署中支持用于识别Mutipath的标记。 如果不支持多路径,则将其设置为False。 True:Cinder使用多路径。 False:Cinder不使用多路径。 说明 如果HBlock集群版,需要配置为True,如果HBlock单机版,配置为False。 rootwrapconfig 用于以root用户身份运行命令的rootwrap配置文件的路径。 Cinder存储需要root特权才能运行镜像卷(用于连接到 iSCSI/FC 卷以及读/写卷数据等)。配置文件应允许cinder store和osbrick库所需的命令。 注意 注意:以下仅为示例,请按照实际的OpenStack环境信息进行填写。 plaintext [DEFAULT] showimagedirecturl True enabledbackends"file:file,cinder:cinder,cinderstor8:cinder" [glancestore] storesfile,cinder defaultbackendfile [file] filesystemstoredatadir /opt/stack/data/glance/images/ [osglancetasksstore] filesystemstoredatadir /opt/stack/data/glance/tasksworkdir [osglancestagingstore] filesystemstoredatadir /opt/stack/data/glance/staging [cinder] cinderosregionnameRegionOne cinderstoreauthaddress
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        OpenStack Cinder驱动插件
        Glance使用HBlock卷
        使用方法
      • 取得视频文件信息
        通过本接口获取媒体库的视频条目的特定文件信息。 接口功能介绍 用户可通过本接口获取媒体库的视频条目的特定文件信息。 接口约束 本接口的单用户QPS限制为20次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。 URI POST /video/file/get 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 fileId 是 String 文件id。 34c71dbaf2804f5ea05ff4daed837fef/100001.m3u8 响应参数 参数 是否必填 参数类型 说明 示例 下级对象 code 是 Integer 本次请求的结果码。 0 message 是 String 错误文本信息,创建成功时,为空字符串。 "" data 是 Object 返回数据。 data 表 data 参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 视频id 34c71dbaf2804f5ea05ff4daed837fef type 是 String 视频类型,包含 ORIGINAL(源视频)/MASTERM3U8(自适应的主m3u8文件)/TRANSCODED(转码后视频)。 TRANSCODED transcodeTemplateId 否 Long 转码模板id,当视频为原视频时,不返回该字段。 100000000003 fileId 是 String 文件id 34c71dbaf2804f5ea05ff4daed837fef/100000000003.m3u8 url 是 String 视频播放的url,返回数据库中当前的url,如果没有调用 签名接口 签名,返回的是无签名的 url,如果有调用则是上一次签名的 url。
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        取得视频文件信息
      • 上传对象
        本章节介绍通过XstorBrowser上传对象。 操作说明 XstorBrowser提供上传对象操作,用户可将本地文件上传至XstorBrowser。 对象命名规范 使用UTF8编码。 命名长度范围为1~1023字节。 说明 推荐可用于文件名字符集为[09azAZ]、感叹号"!"、左括号"("、右括号")"、连字符""、下划线""、星号""、单引号"'"、句号"."。 如果上传的对象名带有中文,在访问或请求这个对象时中文部分将会按照URL Encode规则把中文转换为百分号编码。 操作步骤 1. 登录XstorBrowser后,首先选择目标桶,然后点击【上传文件】按钮。 2. 在弹窗中点击【选择文件】或【选择文件夹】按钮。 3. 在弹出文件选择框中,进入到需要上传文件的本地目录路径,然后勾选需要上传的文件或文件夹,点击【打开】或【选择文件夹】按钮,相关文件会展示在弹窗中的文件列表。 4. 请根据对话框中的文字提示,并结合自身实际需求设置对象ACL。 5. 支持设置对象属性,为待上传的文件添加自定义的元数据。点击【设置】按钮,进入对象属性编辑弹窗,填写自定义元数据名称与具体的元数据值,然后点击【确定】按钮。 6. 确认需要上传的文件和参数设置无误,点击【确定】按钮后,所选的文件将开始从本地设备上传到媒体存储,请耐心等候文件上传完成。 7. 文件上传完成,将会存储在目标桶,您可以进行下一步的操作,如重命名、分享等。
        来自:
        帮助文档
        媒体存储
        快速入门
        XstorBrowser快速入门
        上传对象
      • 网站域名如何接入Web应用防火墙(边缘云版)
        本文介绍如何将网站域名接入Web应用防火墙(边缘云版),保障您网站的安全性和可用性。 步骤1:网站业务梳理 在将网站接入Web应用防火墙(边缘云版,简称WAF)前,建议您先梳理网站的业务信息以及历史受攻击的情况,便于使用WAF制定合适的防护策略。 梳理网站的基础信息 梳理网站的基础信息,有利于您在域名接入WAF时,填写正确的域名配置。 网站支持哪些访问协议,如果需要支持HTTPS,那需要提前准备对应的HTTPS证书。 网站有使用了哪些业务端口,判断WAF是否能支持该网站的所有业务端口。 源站的IP有哪些,源站是否有iptables之类的访问限制,如果有需要加白WAF防护集群的回源IP。 梳理网站的业务情况 了解自身网站业务有利于WAF防护策略的配置,也有助于在订购WAF套餐时能选择合适的套餐规格属性。 网站当前的业务流量情况,包括流量峰值的Mbps、QPS情况。 网站访问者的主要来源,访问者的客户端环境有哪些,是否有APP客户端。 网站有多少用户活跃度,主要的用户群体有哪些,有助于分析访问行为特征并制定防护策略。 梳理网站的历史访问与攻击情况 单用户的访问频率一般有多少,有助于后续制定合适的频率控制策略。 是否遭受过大流量网络层攻击,判断是否需要开通DDoS服务以及开通多少防护规格。 是否遭受过大量高频的CC攻击,有助于提前配置对应的CC防护策略。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        网站域名如何接入Web应用防火墙(边缘云版)
      • 数据表权限
        本章节主要介绍数据权限的数据表权限。 用户可以在“我的权限”页面,查看工作空间内自己拥有的表和列权限,并对表和列的权限进行申请或交还。 管理员角色的用户具备管理“用户权限”的功能,即管理员可查看已在该工作空间内申请过权限的所有用户的资源权限。 申请表/列权限 说明 当前版本仅支持DLI数据表权限控制。 因申请表/列权限,需要审批人审批后方生效。所以申请表/列权限前,请先参见 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 选择“数据权限 > 数据表权限”,在“我的权限”页签中单击“申请”。 3. 输入使用场景说明,选择对应数据连接、数据库和数据表。 4. 选择需要申请的表/列权限。 申请单张表/列权限。 勾选自己当前无权限但需要使用的表权限/列权限。 申请多张表/列权限。 批量选择多张表后,在权限信息页面依次勾选需要使用的表/列权限。 详见下图:申请表/列权限信息 5. 单击“确定”,系统弹出提交对话框。配置审批人后,单击“确定”。 6. 等待审批人审批。待审批人审批后,权限即生效。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据权限
        数据表权限
      • 使用新模板创建伸缩配置
        本文将为您介绍如何使用新规格创建伸缩配置。 操作场景 伸缩配置用于定义伸缩组资源扩展时云主机的规格,包括云主机的类型、vCPU、内存等。自动扩容时,伸缩组根据伸缩配置来创建弹性云主机实例,并将创建的云主机实例添加到伸缩组。 若您需要定义全新的云主机类型、规格、镜像作为伸缩组扩容云主机模板,可在创建伸缩配置时,可选择“使用新规格”。 约束与限制 单个资源池最大可创建100个伸缩配置。 单个伸缩组可关联1个0伸缩配置。 若单个资源池伸缩配置配额不足,可提交工单提升配额值。 操作步骤 创建伸缩配置有两个进入窗口: 在弹性伸缩管理控制台,进入“伸缩配置”页签,点击右上角“创建伸缩配置”按钮进行创建。本文将重点介绍此方式。 创建伸缩组时,在“配置来源”页面,即可创建新的伸缩配置。具体操作请参见“快速入门>快速扩缩容弹性云主机>创建伸缩配置”。 1. 登录控制中心。 2. 单击控制中心左上角的,选择弹性伸缩组所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 单击“伸缩配置”,进入“伸缩配置”页签,点击右上角“创建伸缩配置”按钮,进入“创建伸缩配置”页面。 5. 在 “创建伸缩配置”页面,用户可以配置伸缩配置相关参数,具体参数配置如下表所示: 参数 是否必选 参数说明 名称 是 创建伸缩配置的名称。 可用区 是 多可用区资源池可选择伸缩组绑定的伸缩配置,在指定可用区扩缩容。当伸缩配置绑定的伸缩组使用优先级扩容策略时,可用区选择顺序将决定优先级。 配置规格 是 配置规格有两种选择,使用新规格与使用现有云主机规格: 选择“使用现有云主机规格 > 请选择云主机“快速创建伸缩配置。创建配置时,云主机类型、 vCPU、内存、镜像、云硬盘数据、安全组信息将默认与选择的云主机规格保持一致。 选择“使用新规格”,根据实际业务需求配置云主机类型、vCPU、内存、镜像(支持公共镜像、私有镜像或共享镜像)、云硬盘参数、安全组信息。 弹性IP 是 弹性IP可以实现虚拟私有云中的云资源通过固定的公网IP 地址对外提供访问服务。您可以根据实际需求选择以下两种方式: 不使用:弹性云主机不能与互联网互通,仅可在虚拟私有云内部使用。 自动分配:自动为每台弹性云主机分配独享带宽的弹性IP,带宽大小可以根据您的业务需要设定。 登录方式 是 天翼云提供两种登录方式供您选择,密钥对和密码。 密钥对:指使用密钥作为弹性云主机的鉴权方式进行登录。选择此方式,请您在密钥对配置项中导入密钥对。如果您直接从下拉列表中选择已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录弹性云主机。 密码:指使用设置 root 用户(Linux 操作系统)和 Administrator 用户(Windows操作系统)的初始密码方式作为弹性云主机的鉴权方式,如果选择此方式,您可以通过用户名密码方式登录弹性云主机。您需要为您的用户设置密码用于登录云主机。 云监控 否 是否开启详细监控。若开启,在云主机创建成功后35分钟将自动执行详细监控Agent安装,可获取云服务器CPU、内存、网络、磁盘、进程等指标详细监控;若不开启,则通过该伸缩配置创建的云主机无任何监控数据。 是否编辑标签 否 是否启用标签。若启用,通过该伸缩配置创建的云主机默认绑定标签;若不启用,则通过该伸缩配置创建的云主机无标签。 用户数据 否 用于创建云主机时向云主机注入实例自定义数据。伸缩配置支持以文本形式输入用户数据内容,配置后,云主机首次启动时会自行注入数据信息。 例如:您可以通过注入一段脚本,激活待创建云主机的root用户权限,注入成功后,您可以使用root用户登录弹性云主机。 说明 创建伸缩配置时选择“使用新规格”可完成伸缩配置的创建。 6. 配置完成之后,点击右下角的“确定”,即可创建成功。创建成功的伸缩配置可在伸缩配置列表中查看。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩配置管理
        创建伸缩配置
        使用新模板创建伸缩配置
      • 1
      • ...
      • 179
      • 180
      • 181
      • 182
      • 183
      • ...
      • 198
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      应用托管

      智算一体机

      知识库问答

      人脸活体检测

      推荐文档

      安装网页防篡改集中管理中心

      管理员

      创建程序包

      篡改告警

      数据管道列表

      天翼云最佳实践①:Linux实例搭建FTP站点

      天翼云最佳实践⑥:Win Server php-asp 环境安装

      产品版本

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号