云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 将PostgreSQL迁移到TeleDB
        检查项 检查内容 lcmonetary参数配置一致性检查 检查源库与目标库的lcmonetary参数配置是否一致。 pg版本检查 检查源库和目标库的pg版本是不是符合要求。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的待迁移对象。 扩展插件兼容性检查 检查源库中安装的扩展插件,在目标库是否存在。 约束完整性检查 检查待迁移对象中子表依赖的父表是否被选中。 检查hotstandbyfeedback参数配置 全量迁移源库pg为备节点时,hotstandbyfeedback参数需配置为ON。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连通性检查 检查数据传输服务器能否连通源数据库。 源数据库的模式名表名是否合法 检查源数据库的模式名表名是否合法,名称不可以包含+"%'<>,.字符。 源库参数wallevel是否为logical 勾选增量迁移时,检查源库wallevel参数值是否为logical。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 源库参数maxreplicationslots校验 勾选增量迁移时,检查源库maxreplicationslots参数值是否大于当前已使用的复制槽数量。 源库参数maxwalsenders校验 勾选增量迁移时,检查源库maxwalsenders参数值是否大于当前已使用的复制槽数量。 逻辑解码插件安装校验 勾选增量迁移时,检查源库是否安装逻辑解码插件decoderbufs。 待迁移表是否存在主键检查 勾选增量迁移时,检查待迁移表中是否存在无主键的表。 无日志表存在性检查 勾选增量迁移时,检查当前选择的待同步对象中的表是否存在无日志表。 源库主备状态检查 勾选增量迁移时,检查源库是否为集群中的主库。 ddl同步元数据检查 勾选ddl同步时,检查源库是否有ddl同步所需的元数据对象。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • GetReturnCode
        名称 描述 是否必须 Action GetReturnCode。 是 BeginDate 指定查询返回码次数的起始时间,统计数据的起始时间为开始日期(时区为:UTC+8)的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate 指定查询返回码统计次数的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 Freqby5min,EndDate与BeginDate的间隔小于1天。 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认值为STANDARD。 否 Bucket 指定查询返回码的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有的Bucket的请求返回码次数之和。 类型:字符串 取值:3~63个字符,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询返回码的数据位置。如果不指定数据位置名称,则查询账户名下所有数据位置的请求返回码次数之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 InternetType 指定返回码的网络类型互联网/非互联网。 类型:字符串 取值: all:指定返回互联网返回码和非互联网返回码。 internet:指定返回互联网的返回码。 noninternet:指定返回非互联网的返回码。 默认值为all。 否 RequestsType 指定返回返回码次数的请求类型,可以指定一个或多个返回码的请求类型,当申请多个RequestsType时,用“+”将类型分开。 类型:字符串 取值: all:指定返回所有请求类型的返回码次数。 get:指定返回get类型的返回码次数。 head:指定返回head类型的返回码次数。 put:指定返回put类型的返回码次数。 post:指定返回post类型的返回码次数。 delete:指定返回delete类型的返回码次数。 others:指定返回除上述外的其他类型的返回码次数。 默认值为all。 否 ResponseType 指定返回的返回码类型,可以指定一个或多个返回码的请求类型,当申请多个ResponseType时,用“+”将类型分开。 类型:字符串 取值: all:指定返回所有类型的返回码次数。 Response200。 Response204:仅delete支持Response204。Response206:仅get和head支持Response206。 Response403。 Response404。 Response4xx。 Response500。 Response503。 默认值为all。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: by5min:统计数据的采样粒度为5分钟。 byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetReturnCode
      • 通过控制台使用Nginx Ingress
        本文主要介绍通过控制台使用Nginx Ingress。 前提条件 Ingress为后端工作负载提供网络访问,因此集群中需提前部署可用的工作负载。若您无可用工作负载,可参考创建无状态负载(Deployment)、创建有状态负载(StatefulSet)或创建守护进程集(DaemonSet)部署工作负载。 添加Nginx Ingress时,需在集群中提前安装nginxingress插件。 注意事项 不建议在ELB服务页面修改ELB实例的任何配置,否则将导致服务异常。 如果您已经误操作,请卸载Nginx Ingress插件后重装。 Ingress转发策略中注册的URL需与后端应用暴露的URL一致,否则将返回404错误。 负载均衡实例需与当前集群处于相同VPC 且为相同公网或私网类型。 负载均衡实例需要拥有至少两个监听器配额,且端口80和443没有被监听器占用。 添加Nginx Ingress 本节以Nginx作为工作负载并添加Nginx Ingress为例进行说明。 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 选择左侧导航栏的“服务发现”,在右侧选择“路由”页签,单击右上角“创建路由”。 步骤 3 设置Ingress参数。 名称: 自定义Ingress名称,例如nginxingressdemo。 命名空间: 选择需要添加Ingress的命名空间。 对接Nginx: 集群中已安装nginxingress插件后显示此选项,未安装nginxingress模板时本选项不显示。 单击开启后将对接nginxingress提供7层访问,可配置如下参数。 TLS配置 :nginxingress支持HTTP和HTTPS,安装nginxingress时预留的监听端口,默认HTTP为80,HTTPS为443。使用HTTPS需要配置相关证书。 服务器证书:创建HTTPS协议监听时需要绑定IngressTLS类型的密钥证书,以支持HTTPS数据传输加密认证,创建密钥的方法请参见创建密钥。 SNI:SNI(Server Name Indication)是TLS的扩展协议,在该协议下允许同一个IP地址和端口号下对外提供多个基于TLS的访问域名,且不同的域名可以使用不同的安全证书。开启SNI后,允许客户端在发起TLS握手请求时就提交请求的域名信息。负载均衡收到TLS请求后,会根据请求的域名去查找证书:若找到域名对应的证书,则返回该证书认证鉴权;否则,返回缺省证书(服务器证书)认证鉴权。 转发策略配置: 请求的访问地址与转发规则匹配时(转发规则由域名、URL组成),此请求将被转发到对应的目标Service处理。单击“添加转发策略”按钮可添加多条转发策略。 域名:实际访问的域名地址。请确保所填写的域名已注册并备案,在Ingress创建完成后,将域名与自动创建的负载均衡实例的IP(即Ingress访问地址的IP部分)绑定。一旦配置了域名规则,则必须使用域名访问。 URL:需要注册的访问路径,例如:/healthz。社区v1.2.0版本(对应CCE nginxingress插件2.1.0版本)后修复CVE202125745( 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访问端口:可选择目标Service的访问端口。 操作:可单击“删除”按钮删除该配置。 说明 Nginx Ingress的URL匹配规则是基于“/”符号分隔的路径前缀匹配,并区分大小写。只要访问路径以“/”符号分隔后的子路径匹配此前缀,均可正常访问,但如果该前缀仅是子路径中的部分字符串,则不会匹配。例如URL设置为/healthz,则匹配/healthz/v1,但不匹配/healthzv1。 注解 :以“key: value”形式设置,可通过Annotations查询nginxingress支持的配置。社区v1.2.0版本(对应CCE nginxingress插件2.1.0版本)后修复CVE202125746( 步骤 4 配置完成后,单击“创建”。 创建完成后,在Ingress列表可查看到已添加的Ingress。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Ingress
        通过控制台使用Nginx Ingress
      • 恢复Hive业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“Hive”。 8.在“Hive”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NFS”:表示备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “CIFS”:表示备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的Hive备份文件集。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “SFTP”:表示备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“1”。 9.在“数据配置”的“数据选择”中,根据业务需要勾选一个或多个需要恢复的已备份数据,并分别在“目标数据库”和“目标路径”列,指定备份数据恢复后的数据库和文件保存位置。 配置约束: 支持恢复到原数据库,但数据表保存在一个与目的端路径不同的新路径。 如果恢复Hive的索引表,请同时选择恢复索引表对应的Hive数据表。 如果为了防止影响当前数据,选择了新的恢复目录,那么新目录需要手动授予HDFS权限,使对备份表拥有权限的用户可以访问此目录。 支持恢复到其他数据库。如果恢复到其他数据库,那么此数据库对应在HDFS中的目录,需要手动授予HDFS权限,使对备份表拥有权限的用户可以访问此目录。 10.“强制覆盖”选择“true”,表示存在同名数据表时强制恢复备份的所有数据,如果数据表中存在备份后新增加的数据,那恢复后将丢失这些数据。选择“false”表示存在同名表时不执行恢复任务。 11.单击“校验”查看恢复任务的配置是否正确。 如果队列名称不正确,校验失败。 如果不存在指定的恢复目录,校验失败。 如果不满足强制覆盖的条件,校验失败。 12.单击“确定”保存。 13.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Hive业务数据
      • 将MySQL迁移到PostgreSQL
        操作步骤 1. 购买DTS数据迁移实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据迁移”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待迁移的表的存储引擎。 待迁移表主键检查 检查待迁移表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始迁移任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作步骤 1. 购买DTS数据同步实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据同步”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据同步】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置同步对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置同步对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待同步对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待同步的表的存储引擎。 待同步表主键检查 检查待同步表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动同步。 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始同步任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • IAM权限及用户管理
        用户管理流程 A公司的管理员使用注册的帐号登录天翼云,创建“管理人员组”及“开发人员组”,并给用户组授权。操作步骤请参见:创建用户组和授权。 A公司的管理员给两个职能团队中的成员创建IAM用户,并让他们使用新创建的用户登录天翼云。操作步骤请参见:创建IAM用户和登录。 创建用户组和授权 创建用户组 在“创建用户组”界面,输入用户组名称和描述,单击“确定”,完成用户组创建。 给用户组授权 A公司的开发人员需要使用的云服务为资源编排ROS,需要为“开发人员组”授予该服务的apply策略权限,其他具体资源类型如弹性云主机等不在这里赘述,可自行添加。管理人员组需要使用所有权限,则为“管理人员组”授予admin的策略权限。完成用户组的授权后,用户组中的用户才可以使用这些云服务。 1. 确定所需权限。 通过查看系统策略,需要设置的权限详见下表。其中授权范围由策略的作用范围决定,分为全局和具体资源池两种情况。当授权范围为全局时,该授权将不区分具体资源池生效;当授权范围为具体资源池时,可以选择特定的一类节点资源池,如华东1、石家庄20等进行授权,该授权将只作用于具体的资源池上。对于资源编排ROS服务,只能建全局的。 创建策略方法详见创建自定义策略。 表 用户组和授权策略 用户组 使用的服务 授权范围 设置策略名称 开发人员组 资源编排ROS 全局 ros apply 管理人员组 资源编排ROS 全局 ros admin 开发人员组“ros apply”策略创建:拒绝下图中5个写操作,并赋予所有的资源编排ROS的权限 建好的策略如下: admin策略系统内置,拥有所有权限 2. 在用户组列表中,单击“创建用户组”步骤中新建的用户组“开发人员组”右侧的“授权”。 3. 设置全局服务的权限。 3.1. 选择策略:由上表中的用户组和授权策略可知,需要为开发人员组在资源编排ROS的全局范围进行授权。在右上角“请输入策略名称进行搜索”框内输入策略名称进行搜索,勾选需要授予用户组的全局策略“ros apply”,单击“下一步”。管理人员组同样,选择“ros admin”策略即可。 3.2. 设置授权范围:由于上一步选择的系统策略,作用范围为全局,因此在设置授权范围时,默认勾选了“全局”选项。单击“确定”完成授权。
        来自:
        帮助文档
        资源编排ROS
        最佳实践
        IAM权限及用户管理
      • CREATE TABLE
        本页面介绍云数据库ClickHouse提供的本地表与分布式表两种建表方式。 云数据库ClickHouse建表语句基本语法如下: CREATE TABLE [IF NOT EXISTS] [db.]tablename ON CLUSTER cluster ( name1 [type1] [DEFAULTMATERIALIZEDALIAS expr1], name2 [type2] [DEFAULTMATERIALIZEDALIAS expr2], ... INDEX indexname1 expr1 TYPE type1(...) GRANULARITY value1, INDEX indexname2 expr2 TYPE type2(...) GRANULARITY value2 ) ENGINE enginename() [PARTITION BY expr] [ORDER BY expr] [PRIMARY KEY expr] [SAMPLE BY expr] [SETTINGS namevalue, ...]; 选项描述: db:指定数据库名称,如果当前语句没有包含‘db’,则默认使用当前选择的数据库为‘db’。 cluster:指定集群名称,目前固定为default。ON CLUSTER 将在每一个节点上都创建一个本地表。 type:该列数据类型,例如 UInt32。 DEFAULT:该列缺省值。如果INSERT中不包含指定的列,那么将通过表达式计算它的默认值并填充它。 MATERIALIZED:物化列表达式,表示该列不能被INSERT,是被计算出来的; 在INSERT语句中,不需要写入该列;在SELECT 查询语句结果集不包含该列。 ALIAS :别名列。这样的列不会存储在表中。 它的值不能够通过INSERT写入,同时使用SELECT查询星号时,这些列也不会被用来替换星号。 但是它们可以用于SELECT中,在这种情况下,在查询分析中别名将被替换。 物化列与别名列的区别: 物化列是会保存数据,查询的时候不需要计算,而别名列不会保存数据,查询的时候需要计算,查询时候返回表达式的计算结果。 以下选项与表引擎相关,只有MergeTree系列表引擎支持: PARTITION BY:指定分区键。通常按照日期分区,也可以用其他字段或字段表达式。 ORDER BY:指定排序键。可以是一组列的元组或任意的表达式。 PRIMARY KEY: 指定主键,默认情况下主键跟排序键相同。因此,大部分情况下不需要再专门指定一个 PRIMARY KEY 子句。 SAMPLE BY :抽样表达式,如果要用抽样表达式,主键中必须包含这个表达式。 SETTINGS:影响性能的额外参数。 GRANULARITY :索引粒度参数。 示例,创建一个本地表: CREATE TABLE ontimelocal ON CLUSTER default ( Year UInt16, Quarter UInt8, Month UInt8, DayofMonth UInt8, DayOfWeek UInt8, FlightDate Date, FlightNum String, Div5WheelsOff String, Div5TailNum String )ENGINE ReplicatedMergeTree( '/clickhouse/tables/{database}/{table}/{shard}', '{replica}') PARTITION BY toYYYYMM(FlightDate) PRIMARY KEY (intHash32(FlightDate)) ORDER BY (intHash32(FlightDate),FlightNum) SAMPLE BY intHash32(FlightDate) SETTINGS indexgranularity 8192 ; 说明 高可用集群(双副本),要用ReplicatedMergeTree等Replicated系列引擎,否则副本之间不进行数据复制,导致数据查询结果不一致。ReplicatedMergeTree创建的时只支持以下两种方式填写参数: ReplicatedMergeTree('/clickhouse/tables/{database}/{table}/{shard}', '{replica}') ,参数中的字符不允许修改。 ReplicatedMergeTree(),参数会自动默认填成和方式1一样。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        基本SQL语法
        CREATE TABLE
      • 步骤五:配置CNAME
        本文介绍如何配置CNAME。 要启用CDN安全加速服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到CDN节点上,达到加速效果。 1.在控制台【域名管理】的域名列表中复制加速域名对应的CNAME; 图 复制CNAME页 2.前往您的域名解析(DNS)服务商(如阿里云解析(原万网)、腾讯云解析(原DNSPod)、新网等),添加该CNAME记录。下面以您的域名在新网为例,其他域名解析服务商请联系对应厂商技术支持处理。 3.登录新网的域名解析控制台,进入对应域名的域名解析页; 4.选择【添加新的别名】; 图 添加别名页 【记录类型】选择为 CNAME; 【主机记录】即域名的前缀。例如,要添加 example.ctyun.cn1,前缀就是example ; 【记录值】填写为您复制的CNAME值; 解析线路和TTL 默认值即可。 5.确认填写信息无误后,单击【提交】; 6.验证CDN服务是否生效; 配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录会需要较长时间生效; 您可以 ping 或 dig 您所添加的加速域名,如果被指向.ctdns.cn,即表示CNAME配置已经生效,CDN功能也已生效。 图 检查域名指向页 注意: 1.配置CNAME完毕,CNAME配置生效后,安全加速服务生效 2.CNAME配置生效时间:新增CNAME记录会实时生效,而修改CNAME记录需要最多72小时生效时间; 3.添加时如遇添加冲突,可考虑换一个加速域名,或参考以下“解析记录互斥规则” 调整记录; 解析记录互斥规则: 在提示冲突的时候,说明已经有对应的记录,不允许重复添加或者说不能添加对应的记录,提供如下说明: 在RR值相同的情况下,同一条线路下,在几种不同类型的解析中不能共存( X 为不允许) 1.X:在相同的 RR 值情况下,同一条线路下,不同类型的解析记录不允许共存。如:已经设置了 www.ctyun.cn 的 A 记录,则不允许再设置 www.ctyun.cn 的 CNAME 记录; 2.无限制: 在相同的 RR 值情况下,同一条线路下,不同类型的解析记录可以共存。如:已经设置了 www.ctyun.cn 的 A 记录,则还可以再设置 www.ctyun.cn 的 MX 记录; 3.可重复: 指在同一类型下,同一条线路下,可设置相同的多条 RR 值。如:已经设置了 www.ctyun.cn 的 A 记录,还可以再设置 www.ctyun.cn 的 A 记录。
        来自:
        帮助文档
        安全加速(文档停止维护)
        快速入门
        步骤五:配置CNAME
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • 使用查询参数验证
        本节主要介绍签名使用查询参数验证。 除了授权头以外,用户可以通过URL中加入查询参数来表达签名信息的方式,将该URL转给第三方实现授权访问,也称为预签名URL。这对于使用第三方浏览器获取对象存储数据的用户非常有用,不需要代理请求。这种方式通过构造并加密一个终端用户浏览器可以检索到的预签名的请求来实现,同时设置过期时间来标明预签名的有效期。 预签名URL支持GET请求和POST请求(POST Object除外)。 注意 使用预签名URL方式,有将您授权的数据在过期时间内曝露在互联网上的风险,建议您预先评估后使用。 URL中包含签名的示例如下: 注意 在URL中实现签名,必须至少包含Signature,Expires,AWSAccessKeyId三个参数。 请求参数 参数 描述 是否必须 ::: AWSAccessKeyId 用户的AccessKeyID信息,可以登录到可以登录到对象存储(经典版)I型控制中心,点击“访问控制”>“安全凭证”>“密钥”查看;或者调用ListAccessKey查看。 类型:字符串。 是 Expires 签名过期时间,按照秒来计算的。服务器端超过这个时间的请求将被拒绝。 类型:字符串。 是 Signature URL是按照HMACSHA1的StringToSign的Base64编码方式编码。 类型:字符串。 是 Expires是一个UNIX时间(自UTC时间1970年1月1号开始的秒数),用于标识该URL的超时时间。如果OOS接收到这个URL请求的时候晚于签名中包含的Expires参数时,则返回请求超时的错误码。例如:当前时间是1141889060,开发者希望创建一个60秒后自动失效的URL,则可以设置Expires时间为1141889120。 URL中包含签名的算法和Header中包含签名的算法基本一样,主要区别如下: 通过URL包含签名时,之前的Date参数换成Expires参数。 如果在URL和Header中同时包含签名,以Header中的签名为准。 对于URL预签名,如果传入的Signature,Expires,AWSAccessKeyId出现不止一次,以第一次为准。 对于URL预签名,请求先验证请求时间是否晚于Expires时间: 如果请求时间晚于Expires时间,则返回错误响应码。 如果请求时间不晚于Expires时间,则验证签名。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        用户签名验证(V2)
        使用查询参数验证
      • 为Palworld幻兽帕鲁存档数据进行备份
        步骤二:创建备份计划进行定时备份 1. 在云备份控制台单击左侧“ECS文件备份”按钮,进入文件备份控制台。 2. 单击“ECS资源”按钮,单击待创建备份的ECS所在行“操作>备份”。 3. 进入“创建备份计划”页面,填写备份计划信息,参见下表: 参数 说明 详细说明 参考取值 :::: 备份计划名称 您可自定义计划名称 可不填,系统自动生成。只能由数字、字母、组成,不能以数字和开头、且不能以结尾。 backupPalserver ECS名称 云主机名称 备份计划绑定的云主机名称。 ecmxxxx 存储库名称 计划绑定存储库的名称 存储库和备份的服务器需在同一区域。 test 备份目录规划 备份计划中设置的备份目录。显示计划中指定、排除文件目录或文件的规则信息 可选择全部目录 、指定目录或高级规则 。 全部目录:选择全部目录后,备份系统会自动过滤系统特殊目录,这些目录将不会加入备份计划,如/dev、/proc、/sys。 指定目录:选择指定目录后,需要指定备份文件路径。单击新增目录可自定义多个备份目录,最多可以添加10条。 路径输入规则:不能包含/dev、/proc、/sys或子目录;不支持通配符,且必须为绝对路径;单条备份路径的字符最长为4095。 高级规则:您可以指定目录加入备份计划。同时可以通过“备份文件规则”选择文件加入备份计划。提供包括所有文件 、 包含下列文件 、排除下列文件三种规则。包含和排除文件需要用户手动输入路径或者文件。路径输入规则同上。 说明 文件列表路径必须在备份文件路径之下。 指定目录; 备份文件路径填写确认好的服务器数据存档地址 备份周期 配置备份计划执行的时间间隔 间隔时间单位为每月、每周、每天、每小时。 每月:指定在每月的几日几时进行备份。 每周:指定在每周的周几几时进行备份。 每天:指定在每天的几时进行备份。 每小时:每小时进行一次备份。 每小时 保留规则 配置保留备份副本的时间 提供按时间和永久保留两种规则。 按时间:当选择按时间保留时,需要配置保留该备份的时间。时间单位:天、周、月、年。 说明 最小保留周期为1天,最大输入9999年。 永久保留:系统不会自动删除备份,直至您手动删除。 永久保留 4. 单击“确定”,备份计划状态为“创建中”,等待状态变为“正常运行”,即完成备份计划的创建。备份计划创建成功时默认开始执行,在下一个备份节点会自动备份数据。 5. 在完成定时备份计划创建后,云备份会根据您的设置定时启动存档备份,您可以在控制台随时查看每一次的存档备份情况。 说明 若需立即执行一次备份,请单击“立即执行”。 若需暂停计划请参考
        来自:
        帮助文档
        云备份 CBR
        最佳实践
        为Palworld幻兽帕鲁存档数据进行备份
      • 独享型负载均衡规格
        本文主要介绍独享型负载均衡规格。 天翼云部分二类节点正在升级,以支持独享型负载均衡服务,敬请用户随时关注。 独享型负载均衡支持按规格购买,请根据自身业务规划选择实例规格。实际业务超过规格限定时,会限制新建请求的建立、以及丢包等问题。 并发最大连接数Max Connection:并发最大连接数是指在四层监听或者七层监听时,一个负载均衡实例能够承载的最大连接数量。当实例上的连接数超过规格定义的最大连接数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 每秒新建连接数Connection Per Second (CPS):每秒新建连接数是指在四层监听或者七层监听时,新建连接的速率。当新建连接的速率超过规格定义的每秒新建连接数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 说明 如果实例同时使用HTTP与HTTPS监听器业务,则最终的新建连接数按比例进行叠加,计算公式为新建连接数 HTTP新建连接数 + HTTPS新建连接数× 规格中HTTP与HTTPS的比例 举例,实例的规格提供2000个每秒的HTTP新建连接数或者200个每秒的HTTPS新建连接数,则HTTP与HTTPS的比例为10:1,则新建连接数 HTTP新建连接数+ HTTPS新建连接数× 10。 每秒查询数Query Per Second (QPS):每秒查询数是指仅在七层监听时,每秒可以处理的HTTP/HTTPS的查询请求的数量。当请求速率超过规格所定义的每秒查询数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 每秒带宽(Mbps):每秒带宽可以在四层监听或者七层监听时保障带宽的性能。 独享型负载均衡的类型选定后将无法修改,请您合理评估选择。 网络型(TCP/UDP)独享型负载均衡实例规格性能表 规格类型 最大连接数 新建连接数(CPS) 带宽(Mbps) 小型 I 500000 10000 50 小型 II 1000000 20000 100 中型 I 2000000 40000 200 中型 II 4000000 80000 400 大型 I 10000000 200000 1000 大型 II 20000000 400000 2000 应用型(HTTP/HTTPS)独享型负载均衡实例规格性能表 规格类型 最大连接数 新建连接数(CPS)(HTTP) 新建连接数(CPS)(HTTPS) 每秒查询数(QPS)(HTTP) 每秒查询数(QPS)(HTTPS) 带宽(Mbps) 小型 I 200000 2000 200 4000 2000 50 小型 II 400000 4000 400 8000 4000 100 中型 I 800000 8000 800 16000 8000 200 中型 II 2000000 20000 2000 40000 20000 400 大型 I 4000000 40000 4000 80000 40000 1000 大型 II 8000000 80000 8000 160000 80000 2000 说明 如果一个负载均衡器下创建了多个监听器,则上述表格中的每秒查询数(QPS)是指该负载均衡器下的所有监听器的QPS之和不超过规格所定义的QPS值。 带宽规格指入流量加出流量的总和不超过表中的数值。带宽规格是ELB所能提供的带宽保障范围,保障范围内资源可用;超出保障范围的,无法保障带宽性能。
        来自:
      • (可选)预构建与注册
        本章节主要介绍如何预构建与注册。 在创建向量索引时,若选择使用“IVFGRAPH”和“IVFGRAPHPQ”的索引算法就需要对中心点向量进行预构建和注册。 背景信息 在向量索引加速算法中,IVFGRAPH和IVFGRAPHPQ适用于超大规模场景。这两种算法需要通过对子空间的切割缩小查询范围,子空间的划分通常采用聚类或者随机采样的方式。在预构建之前,需要通过聚类或者随机采样得到所有的中心点向量。 当完成生成中心点向量的工作之后,需要对中心点向量进行预构建和注册,以实现将中心点向量预构建GRAPH或者GRAPHPQ索引,同时注册到ES集群内,实现在多个节点间共享此索引文件。中心点索引在shard间复用能够有效减少训练的开销、中心点索引查询次数,提升写入以及查询的性能。 操作步骤 1.选择启用向量检索的集群,单击操作列“Kibana”,登录Kibana界面。 2.单击左侧导航栏的“Dev Tools”,进入操作界面。 3.创建中心点索引表。 −创建的索引命名为mydict,注意该索引的numberofshards数必须设置为1,否则无法注册。 −当需要使用IVFGRAPH索引时,中心点索引的algorithm设置为GRAPH。 −当需要使用IVFGRAPHPQ索引时,中心点索引的algorithm设置为GRAPHPQ。 PUT mydict { "settings": { "index": { "vector": true }, "numberofshards": 1, "numberofreplicas": 0 }, "mappings": { "properties": { "myvector": { "type": "vector", "dimension": 2, "indexing": true, "algorithm": "GRAPH", "metric": "euclidean" } } } } 4.写入中心点向量数据。 参考创建向量索引章节中的“导入向量数据”,将采样或者聚类得到的中心点向量写入上述创建的mydict索引中。 5.调用注册接口。 将上述创建的mydict索引注册具有全局唯一标识名称(dictname)的Dict对象。 PUT vector/register/mydict { "dictname": "mydict" } 6.创建IVFGRAPH或IVFGRAPHPQ索引。 在创建IVFGRAPH或者IVFGRAPHPQ索引时,不再需要指定dimension以及metric信息,只需指定之前注册好的dict名称即可。 PUT myindex { "settings": { "index": { "vector": true } }, "mappings": { "properties": { "myvector": { "type": "vector", "indexing": true, "algorithm": "IVFGRAPH", "dictname": "mydict", "offloadivf": false } } } } Field mappings参数 参数 说明 dictname 指定依赖的中心点索引名称。该索引字段的向量维度和度量方式将与dict索引保持一致,不再需要额外指定。 offloadivf 将底层索引实现的IVF倒排索引卸载到ES端实现,可以减少堆外内存的使用,以及减少写入/合并的性能开销,但是查询的性能也有一定的损失。采用默认值即可。 取值范围:true、false。 默认值:false。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        (可选)预构建与注册
      • ALM-19009 HBase服务进程直接内存使用率超出阈值
        本章节主要介绍ALM19009 HBase服务进程直接内存使用率超出阈值的告警。 告警解释 系统每30秒周期性检测HBase服务直接内存使用状态,当检测到HBase服务直接内存使用率超出阈值(最大内存的90%)时产生该告警。 直接内存使用率小于阈值时,告警恢复。 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如HBase1服务不可用,则“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19009 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 HBase可用的直接内存不足,可能会造成内存溢出导致服务崩溃。 可能原因 该节点HBase服务直接内存使用率过大,或配置的直接内存不合理,导致使用率超过阈值。 处理步骤 检查直接内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19009”的告警,查看“定位信息”中的角色名以及确认主机名所在的IP地址。 告警上报的角色是HMaster,执行步骤2。 告警上报的角色是RegionServer,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase > 实例”,单击告警上报的HMaster,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存 > HMaster堆内存使用率与直接内存使用率统计” ,单击“确定”,查看HBase服务进程使用的直接内存是否已达到HBase服务进程设定的最大直接内存的90%。 是,执行步骤4。 否,执行步骤8。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase > 实例”,单击告警上报的RegionServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存 > RegionServer堆内存使用率与直接内存使用率统计” ,单击“确定”,查看HBase服务进程使用的直接内存是否已达到HBase服务进程设定的最大直接内存的90%。 是,执行步骤4。 否,执行步骤8。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”,单击“全部配置”, 选择“HMaster/RegionServer > 系统”,查看“GCOPTS”参数中是否存在“XX:MaxDirectMemorySize”。 是,执行步骤5。 否,执行步骤6。 5.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”,单击“全部配置”, 选择“HMaster/RegionServer > 系统”,在“GCOPTS”中把参数“XX:MaxDirectMemorySize”删除。 6.看告警信息,是否产生“ALM19008 HBase服务进程堆内存使用率超出阈值”告警。 是,参考“ALM19008 HBase服务进程堆内存使用率超出阈值”处理告警。 否,执行步骤8。 7.观察界面告警是否清除。 是,处理完毕。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19009 HBase服务进程直接内存使用率超出阈值
      • ALM-16008 Hive服务进程非堆内存使用超出阈值
        本章节主要介绍ALM16008 Hive服务进程非堆内存使用超出阈值的告警。 告警解释 系统每30秒周期性检测Hive非堆内存使用率,并把实际的Hive非堆内存使用率和阈值相比较。当Hive非堆内存使用率超出阈值(默认为最大非堆内存的95%)时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Hive”修改阈值。 当Hive非堆内存使用率小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 16008 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Hive非堆内存使用率过高,会影响Hive任务运行的性能,甚至造成内存溢出导致Hive服务不可用。 可能原因 该节点Hive实例非堆内存使用量过大,或分配的非堆内存不合理,导致使用率超过阈值。 处理步骤 检查非堆内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16008”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行步骤2。 告警上报的角色是MetaStore,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计” ,单击“确定”,查看HiveServer进程使用的非堆内存是否已达到HiveServer进程设定的最大非堆内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的MetaStore,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“MetaStore内存使用率统计” ,单击“确定”,查看MetaStore进程使用的非堆内存是否已达到MetaStore进程设定的最大非堆内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”, 选择“HiveServer/MetaStore > JVM”,将“HIVEGCOPTS/METASTOREGCOPTS”参数中“XX:MaxMetaspaceSize”的值根据如下建议进行调整,并单击“保存”。 说明 HiveServer的GC参数配置建议 建议将“XX:MaxMetaspaceSize”值设置成为“Xmx”大小的1/8,比如:“Xmx”设置为2G时,“XX:MaxMetaspaceSize”设置为256M;“Xmx”设置为4G时,“XX:MaxMetaspaceSize”设置为512M。 MetaServer的GC参数配置建议 建议将“XX:MaxMetaspaceSize”值设置成为“Xmx”大小的1/8,比如:“Xmx”设置为2G时,“XX:MaxMetaspaceSize”设置为256M;“Xmx”设置为4G时,“XX:MaxMetaspaceSize”设置为512M。 5.选择“更多 > 重启服务”重启服务。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16008 Hive服务进程非堆内存使用超出阈值
      • 设置挂载参数
        对象存储挂载参数 CCE的存储插件Everest在挂载文件存储时默认设置了下表参数。除了这些参数外,您还可以设置其他的对象存储挂载参数。 默认使用且不可取消的挂载参数 参数 描述 keeporiginalownership 表示是否保留文件挂载点的ownership,使用该参数时,要求Everest插件版本为1.2.63或2.1.2以上。 默认为不添加该参数,此时挂载文件存储时将会默认把挂载点的ownership修改为root:root。 如添加该参数,挂载文件存储时将保持文件系统原有的ownership。 vers3 文件系统版本,目前只支持NFSv3。取值:3 nolock 选择是否使用NLM协议在服务器上锁文件。当选择nolock选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。 timeo600 NFS客户端重传请求前的等待时间(单位为0.1秒)。建议值:600。 hard/soft 挂载方式类型。 取值为hard,即使用硬连接方式,若NFS请求超时,则客户端一直重新请求直至成功。 取值为soft,即软挂载方式挂载系统,若NFS请求超时,则客户端向调用程序返回错误。默认为hard。 默认使用且可取消的挂载参数 参数 描述 maxwrite131072 使用该选项,由obsfs分配inode编号。读写模式下自动开启。 sslverifyhostname0 不根据主机名验证SSL证书。 maxbackground100 可配置后台最大等待请求数。并行文件系统自动使用。 publicbucket1 设置为1时匿名挂载公共桶。对象桶读写模式下自动使用。 对象存储卷挂载时使用的所有参数,可以登录到运行挂载对象存储卷的Pod所在节点上通过进程详情观察: 对象桶:ps ef grep s3fs root 22142 1 0 Jun03 ? 00:00:00 /usr/bin/s3fs pvc82fe2cbe383843a28afbf994e402fb9d /mnt/paas/kubernetes/kubelet/pods/0b13ff684c8e4a1cb15c724fd4d64389/volumes/kubernetes.io~csi/pvc82fe2cbe383843a28afbf994e402fb9d/mount o url o endpointxxxxxx o passwdfile/opt/everesthostconnector/1622707954357702943obstmpcred/pvc82fe2cbe383843a28afbf994e402fb9d o nonempty o bigwrites o enablenoobjcache o sigv2 o allowother o nocheckcertificate o sslverifyhostname0 o maxwrite131072 o multipartsize20 o umask0 并行文件系统:ps ef grep obsfs root 1355 1 0 Jun03 ? 00:03:16 /usr/bin/obsfs pvc86720bb95aa84cde92315253994f8468 /mnt/paas/kubernetes/kubelet/pods/c959a91deced4b4191c696cbd65324f9/volumes/kubernetes.io~csi/pvc86720bb95aa84cde92315253994f8468/mount o url o endpointxxxxxx o passwdfile/opt/everesthostconnector/1622714415305160399obstmpcred/pvc86720bb95aa84cde92315253994f8468 o allowother o nonempty o bigwrites o useino o nocheckcertificate o sslverifyhostname0 o umask0027 o maxwrite131072 o maxbackground100 o uid10000 o gid10000
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        设置挂载参数
      • 接入CDN后域名无法访问
        本文介绍接入CDN后域名无法访问的问题现象及问题原因。 问题现象 1. 使用CDN加速后网站访问出现异常状态码,例如,403,404,5XX。 2. 使用CDN加速后网站访问URL时出现空白页面。 3. 使用CDN加速后网站出现其他异常错误。 问题原因 使用CDN加速后网站无法访问可能有多种原因。以下是一些常见的原因: 1. DNS解析问题:将域名解析到CDN时出现CNAME错误。 2. CDN配置问题:域名的配置可能存在问题,导致无法正常访问网站。 3. SSL证书问题:如果您的网站启用了HTTPS协议,请确保域名在CDN控制台上正确配置了HTTPS证书,并且证书没有过期或损坏。 4. 防火墙或安全策略限制:某些源站防火墙或安全策略可能会干扰CDN服务的正常运行。 5. 缓存问题:如果您在更新网站内容后发现无法访问,请尝试刷新CDN缓存,以便CDN能够获取最新的内容。 解决方案 1. DNS解析问题:您可以通过ping、nslookup、dig等命令检查域名的DNS解析设置,确保解析结果和CDN控制台上该加速域名的CNAME值一致。 2. CDN配置问题:您可以登录控制台检查您的域名配置是否正确。 3. SSL证书问题:您可以登录控制台更新您的证书。 4. 防火墙或安全策略限制:您可以检查您的服务器设置、CDN配置以及网络设备设置,确保没有任何阻止CDN访问的规则或策略。 如果您不确定是CDN还是源站的问题,可参考文档:如何确认访问异常是CDN节点问题还是源站问题 进行排查。 5. 缓存问题:您可以登录控制台创建刷新任务,刷新缓存,并在【域名管理】中检查文件的缓存配置是否正确。 除以上可能的原因,您还可以参考以下操作进行处理: 如果访问CDN加速资源返回403状态码,详情请见:访问CDN加速内容响应403状态码。 如果访问CDN加速资源返回404状态码,详情请见:访问CDN加速时出现404状态码。 如果访问CDN加速资源返回5XX状态码,详情请见:访问CDN加速内容返回5XX状态码。 在使用CDN加速后网站访问URL时出现空白页面,详情请见:访问URL时出现空白页面。 如果以上解决方法均无效,建议您通过提交工单联系天翼云客服帮助您解决问题。
        来自:
        帮助文档
        CDN加速
        故障排查
        接入CDN后域名无法访问
      • 配置SNMP北向参数
        本章节主要介绍翼MapReduce的配置SNMP北向参数操作。 操作场景 如果用户需要在统一的运维网管平台查看集群的告警、监控数据,管理员可以在FusionInsight Manager使用SNMP服务将相关数据上报到网管平台。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“系统 > 对接 > SNMP”。 3. 单击“SNMP服务”右侧的开关。 “SNMP服务”默认为不启用,开关显示为表示启用。 4. 根据下表所示的说明填写对接参数。 对接参数 参数名称 参数说明 版本 SNMP协议版本号,取值范围: V2C:低版本,安全性较低。 V3:高版本,安全性更高。推荐使用V3版本。 本地端口 本地端口,默认值“20000”,取值范围“1025”到“65535”。 读团体名 该参数仅在设置“版本”为v2c时可用,用于设置只读团体名。 写团体名 该参数仅在设置“版本”为v2c时可用,用于设置可写团体名。 安全用户名 该参数仅在设置“版本”为v3时可用,用于设置协议安全用户名。 认证协议 该参数仅在设置“版本”为v3时可用,用于设置认证协议,推荐选择SHA。 认证密码 该参数仅在设置“版本”为v3时可用,用于设置认证密钥。 确认认证密码 该参数仅在设置“版本”为v3时可用,用于确认认证密钥。 加密协议 该参数仅在设置“版本”为v3时可用,用于设置加密协议,推荐选择AES256。 加密密码 该参数仅在设置“版本”为v3时可用,用于设置加密密钥。 确认加密密码 该参数仅在设置“版本”为v3时可用,用于确认加密密钥。 说明 “安全用户名”中禁止出现以64的公因子(1、2、4、8等)为单位长度的重复字符串,例如abab,abcdabcd。 “认证密码”和“加密密码”密码长度为8到16位,至少需要包含大写字母、小写字母、数字、特殊字符中的3种类型字符。两个密码不能相同。两个密码不可和安全用户名相同或安全用户名的倒序字符相同。 使用SNMP协议从安全方面考虑,需要定期修改“认证密码”和“加密密码”密码。 使用SNMP v3版本时,安全用户在5分钟之内连续鉴权失败5次将被锁定,5分钟后自动解锁。 5. 单击“添加Trap目标”,在弹出的“添加Trap目标”对话框中填写以下参数: 目标标识:Trap目标标识,一般指接收Trap的网管或主机标识。长度限制1~255字节,一般由字母或数字组成。 目标IP模式:目标IP的IP地址模式,可选择“IPV4”或者“IPV6”。 目标IP:目标IP,要求可与管理节点的管理平面IP地址互通。 目标端口:接收Trap的端口,要求与对端保持一致,取值范围“0~65535”。 Trap团体名:该参数仅在设置版本为V2C时可用,用于设置主动上报团体名。 单击“确定”,设置完成,退出“添加Trap目标”对话框。 6. 单击“确定”,设置完成。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        对接设置
        配置SNMP北向参数
      • 使用Impala客户端
        操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Impala客户端命令,实现A业务。 直接执行Impala组件的客户端命令: impalashell 说明 默认情况下,impalashell尝试连接到localhost的21000端口上的Impala守护程序。如需连接到其他主机,请使用 i host:port 选项,例如:impalashell i xxx.xxx.xxx.xxx:21000。要自动连接到特定的Impala数据库,请使用 d 选项。例如,如果您的所有Kudu表都位于数据库“impalakudu”中,则d impalakudu可以使用此数据库。要退出ImpalaShell,请使用quit命令。 内部表的操作: 1. 根据表创建用户信息表userinfo并添加相关数据。 createtable userinfo(id string,name string,gender string,age int,addr string); insert into table userinfo(id,name,gender,age,addr)values("12005000201","A","男",19,"A城市"); ......(其他语句相同) 2. 在用户信息表userinfo中新增用户的学历、职称信息。 以增加编号为12005000201的用户的学历、职称信息为例,其他用户类似。 alter table userinfo add columns(education string,technical string); 3. 根据用户编号查询用户姓名和地址。 以查询编号为12005000201的用户姓名和地址为例,其他用户类似。 select name,addr from userinfo where id'12005000201'; 4. 删除用户信息表。 drop table userinfo; 外部分区表的操作: 创建外部分区表并导入数据 1. 创建外部表数据存储路径。 安全模式(集群开启了Kerberos认证): cd /opt/hadoopclient source bigdataenv kinit hive 说明 用户hive需要具有Hive管理员权限。 impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 普通模式(集群关闭了Kerberos认证): su omm cd /opt/hadoopclient source bigdataenv impalashell hdfs dfs mkdir /hive hdfs dfs mkdir /hive/userinfo 2. 建表。 create external table userinfo(id string,name string,gender string,age int,addr string) partitioned by(year string) row format delimited fields terminated by ' ' lines terminated by 'n' stored as textfile location '/hive/userinfo'; 说明 fields terminated指明分隔的字符,如按空格分隔,' '。 lines terminated 指明分行的字符,如按换行分隔,'n'。 /hive/userinfo为数据文件的路径。 3. 导入数据。 a. 使用insert语句插入数据。 insert into userinfo partition(year"2018") values ("12005000201","A","男",19,"A城市"); b. 使用load data命令导入文件数据。 i.根据下表数据创建文件。如,文件名为txt.log,以空格拆分字段,以换行符作为行分隔符。 ii. 上传文件至hdfs。 hdfs dfs put txt.log /tmp iii. 加载数据到表中。 load data inpath '/tmp/txt.log' into table userinfo partition (year'2018'); 4. 查询导入数据。 select from userinfo; 5. 删除用户信息表。 drop table userinfo;
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Impala客户端
      • 域名实例管理
        购买Web应用防火墙实例成功后,需要进行实例配置,添加防护域名实例,本小节介绍域名实例管理。 防护配置管理为用户提供域名防护的配置操作功能,包括添加防护域名实例,以及防护配置管理等操作。 添加防护域名实例 1. 登录Web应用防火墙控制台。 2. 在左侧导航栏,选择“WAF防护配置”,进入防护配置页面。 3. 在Web应用防火墙配置菜单下,点击“新增”,弹出新增WAF防护配置对话框。 4. 配置防护参数。 参数名称 参数说明 实例ID 选择实例 ID;实例即为默认开通资源,直接进行勾选即可。 数据中心 选择数据中心;目前默认数据中心为内蒙,上海,广州,其中主选一个,备选一个,建议用户选择靠近自身资源部署地区的节点。 防护域名 输入防护域名。 输入格式示例: 防护网站域名:如ctyun.cn。 防护网站域名:如www.ctyun.cn。 IP代理 选择IP代理。 IP代理分为NAT44,NAT66,NAT64。 如果网站仅支持IPv4访问:则单选NAT44,并且填写域名对应的公网IPv4地址至源站IP一栏。 如果网站同时支持IPv4以及IPv6访问:则需要同时勾选NAT44与NAT66。 在网站不支持IPv6的场景下,WAF可以协助网站支持IPv6访问,WAF接收到IPv6请求后将流量转换成IPv4的形式发送给客户源站,需要同时勾选NAT44与NAT64,源站IP侧应填写IPv4地址。 源站IP 填写网站的公网IP地址。 协议类型 支持HTTP和HTTPS协议。选择HTTPS协议,还需要上传证书。 协议端口 根据选择的协议,添加对应的端口。 HTTP和HTTPS合在一起最多填入10个端口,多个端口之间用英文逗号(;)分隔。 防护等级 支持高、中、低级别。 Https证书 协议类型选择“https”时,需要上传证书。 上传证书步骤如下: 点击“Https证书”右侧的“新增证书”,在弹出的“新增证书”对话框中配置如下参数,然后点击“确定”,完成证书上传。 证书名称:证书名称可自定义添加。 证书公钥:一般情况下HTTPS证书需要从网站本身服务器上进行导出或联系域名服务商获取,公钥一般以pem或crt结尾,用文本形式打开后全量粘贴即可。 证书私钥:私钥一般以key结尾,用文本形式打开后粘贴即可。 开启防护 默认开启防护,如果开启防护按钮为“关闭”,该防护配置不会生效,业务不会下发至Web应用防火墙设备进行防护。 5. 点击“确定”,正式下发防护配置。 6. 添加完成后,显示应为下图。
        来自:
        帮助文档
        Web应用防火墙
        用户指南
        防火墙配置
        域名实例管理
      • 存储费用
        本文帮助您了解对象存储的计费项——存储费用。 存储空间费用,根据存储的数据类型、存储容量和存储时长收费。 计费说明 计费项 存储类型 含义 计费模式 :::: 单AZ存储空间费用 标准存储 按标准存储(单AZ冗余)类型文件的存储容量和存储时长计费。 存储容量按照文件的实际大小计算。 存储时长按照文件在ZOS中存储的实际天数计算。 按需计费 包年包月 单AZ存储空间费用 低频存储 按低频存储(单AZ冗余)类型文件的存储容量和存储时长计费。 存储容量按照文件的实际大小计算。 存储时长小于30天按30天计算,大于30天按实际天数计算。 注意 低频存储有30天的最低存储时长限制,当数据提前删除或转换为其他存储类别时,即存储时间低于限制的最低存储时间,系统仍会按照限制的30天收齐费用。 按需计费 包年包月 单AZ存储空间费用 归档存储 按归档存储(单AZ冗余)类型文件的存储容量和存储时长计费。 存储容量按照文件的实际大小计算。 存储时长小于90天按90天计算,大于90天按实际天数计算。 注意 归档存储数据解冻后,会产生一个指定时长的标准存储对象副本,在解冻的有效期内,会同时收取该对象在标准存储和归档存储中的存储费用,有效期到期后副本自动删除。 归档存储有90天的最低存储时长限制,当数据提前删除或转换为其他存储类别时,即存储时间低于限制的最低存储时间,系统仍会按照限制的90天收齐费用。 按需计费 包年包月 多AZ存储空间费用 标准存储 按标准存储(多AZ冗余)类型文件的存储容量和存储时长计费。 存储容量按照文件的实际大小计算。 存储时长按照文件在ZOS中存储的实际天数计算。 按需计费 包年包月 多AZ存储空间费用 低频存储 按低频存储(多AZ冗余)类型文件的存储容量和存储时长计费。 存储容量按照文件的实际大小计算。 存储时长小于30天按30天计算,大于30天按实际天数计算。 注意 低频存储有30天的最低存储时长限制,当数据提前删除或转换为其他存储类别时,即存储时间低于限制的最低存储时间,系统仍会按照限制的30天收齐费用。 按需计费 包年包月 说明 单AZ冗余:单AZ冗余指数据仅存储在单个AZ中,相比多AZ冗余的存储费用会更加便宜。 多AZ冗余:多AZ冗余指在同一区域内的多个AZ内,分别部署对象存储节点,组成统一集群提供对象存储服务;即数据存储在同一区域的多个不同AZ内,数据安全性和可靠性更高。比如,按照4+2纠删码和3AZ的模式,一个4M的数据会拆成4份,每份1M,同时会生成2M的校验数据,6M数据会分别存储在AZ1、AZ2、AZ3,任何一个AZ出现问题,都不影响业务。
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费项
        存储费用
      • Windows AD认证
        本文介绍Windows AD的认证源创建方式。 功能介绍 Windows AD 是 Microsoft 提供的本地化用户目录管理服务。在AOne中配置AD认证源,可实现用户使用AD的账户密码登录的功能。本文介绍如何使用AD作为认证源。 注意 目前该能力暂未全面开放至控制台,若想要进行该能力配置,可 客户端集成AD认证源版本为:PC客户端版本(windows、macOS、Linux图形化)为2.12.0及以上版本,移动端(安卓、IOS)为1.14.0版本。 操作步骤 管理员创建AD认证源 即AD当作认证源,其管理登录认证验证,AOne客户端登录时进行转发给AD进行认证,因零信任需要针对用户、组织进行精细化授权,建议采用AD同步提前将用户信息导入,配置对应权限。 1、添加认证源 进入扩展认证源列表,点击“添加认证源”,进行AD认证源添加。 2、选择认证源类型 选择AD 认证源类型。输入配置参数,完成AD认证源配置。 配置参数说明: 参数 说明 认证源名称 必填,默认值“AD”,输入限制为16个字。 服务器地址 必填,分为链接方式、服务器地址和端口三个部分: 下拉选择域名为ldap:// 或者 ldaps://。 输入服务器地址。 输入端口号。 同步密码到 AD 时必须开启 StartTLS 或 ldaps,非同步密码场景也推荐开启,可以有效提高数据传输的安全性。一般使用 389 或 636 端口。 管理员账户 必填,请输入登录名,如admin@example.com。支持DN格式,并请确保该账户至少拥有全部节点的读取权限;如需同步账户或密码到 AD,还需分配写入权限。 管理员密码 必填,该账户的登录密码。 User DN 必填,AD服务器的根目录,通常是DN(Distinguished Name)的路径。例如:dctest,dclocal。 查询条件 必填,无特殊情况一般为objectclass,查询User DN下所有的对象。 此处也可定义搜索条件,确定哪些条目(Entry)符合查询要求,例如: (objectClassperson):查找所有对象类为“person”的条目。 (cnJohn Doe):查找常见名称(cn)为“John Doe”的条目。 (uid):查找所有具有“uid”属性的条目。 &(和)、(或)、!(非)等逻辑运算符可以用来组合多个条件。 用户登录标识 必填, 会同步至AOneId的username(账号)字段,也是用户使用AD登录时账号字段。 用户信息映射规则 必填,同步AD数据至AOneId的映射关系,支持多个,目前AOneId仅支持配置name、mobile、email、nickname 4个字段的映射规则。 例如:namedisplayName;mobilehomePhone;emailmail; nicknamegivenName。 注意: AOneId中的name(姓名)同步AD中的displayName字段 AOneId中的mobile(手机号)同步AD中的homePhone字段 AOneId中的email(邮箱)同步AD中的mail字段 AOneId中的nickname(昵称)同步AD中的givenName字段 登录模式 必填,目前支持登录注册。 适用范围 必填,目前支持PC端和移动端。 logo 非必填,用于在认证源列表展示的logo。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        身份管理
        第三方组织
        扩展认证源
        Windows AD认证
      • 访问CDN加速时出现404状态码
        本文介绍访问CDN加速资源出现404状态码的排查过程。 问题现象 在使用天翼云CDN加速时,出现404报错页面。 问题原因 404状态码是HTTP协议中的一种状态码,表示客户端所请求的资源未找到。当服务器无法找到与请求的URL对应的资源时,会返回404状态码给客户端,Web浏览器中显示为“页面未找到”、“页面不存在”或类似的提示,具体如下图示: 导致该错误的原因可能有如下几种: 场景一:CDN未正确配置:如果CDN未正确配置,指向了错误的资源路径,源站会无法找到正确的内容,从而导致404页面的出现。 场景二:服务器资源不存在:如果网站管理员删除或重命名源服务器上的某个文件或目录,服务器对应旧URI路径的资源不存在,那么CDN将无法得到对应的文件,从而返回404状态码。 场景三:拼写错误或客户端URL生成规则错误:如果在URL中存在拼写错误、文件路径错误或客户端URL生成规则有误等问题,将无法在服务器找到对应的资源,从而返回404状态码。 解决方案 如果您遇到CDN出现404页面的情况,根据不同场景,可以尝试以下解决方法: 场景一:检查CDN配置是否正确:CDN配置的回源域名/回源IP、回源HOST、源站端口、回源协议等配置是否正确。 1. 回源域名/回源IP错误:检查回源域名/回源IP配置是否为目标源服务器的域名或IP、拼写是否正确。 2. 回源HOST配置错误:回源HOST用于指定CDN节点回源时,请求URI具体的资源站点位置。如果回源HOST配置错误,源站无法根据HOST定位到URI资源的站点位置,源站也会响应404。回源域名/回源IP、回源HOST的区分如下: 回源域名/回源IP:指您的源站服务器,即存储和提供网站内容的主要服务器,该地址决定了CDN回源时建联的具体IP地址。 回源HOST:指CDN回源请求头中携带的HOST字段值,决定了回源请求访问到源IP地址上的具体站点位置。若未指定回源HOST,默认取值当前加速域名。 3. 源站端口/回源协议配置错误:该问题通常存在于源站端口非默认80/443端口,或http、https仅单一协议中存在资源。例如: 源站http服务端口为81,则需要修改回源配置,配置【回源端口】为http 81。 源站https服务端口为82,则需要修改回源配置,配置【回源端口】为https 82。 源站仅单一协议存在资源(http默认80端口,https默认443端口),则根据实际源站情况,修改回源协议为HTTP或HTTPS。
        来自:
        帮助文档
        CDN加速
        故障排查
        访问CDN加速时出现404状态码
      • 关系型数据库RDS支持的事件列表
        事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 创建实例业务失败 createInstanceFailed 重要 创建实例失败产生的事件,一般是磁盘个数,配额大小不足,底层资源耗尽导致。 检查磁盘个数、配额大小,释放资源后重新创建。 无法创建数据库实例。 实例全量备份失败 fullBackupFailed 重要 单次全量备份失败产生的事件,不影响以前成功备份的文件,但会对“恢复到指定时间点”的功能有一些影响,导致“恢复到指定时间点”时增量备份的恢复时间延长。 重新执行一次手工备份。 备份失败。 主备切换异常 activeStandBySwitchFailed 重要 主备切换异常是由于网络、物理机有某种故障导致备机没有接管主机的业务,短时间内会恢复到原主机继续提供服务。 检查应用和数据库之间的连接是否重新建立了连接。 无 复制状态异常 abnormalReplicationStatus 重要 出现”复制状态异常“事件通常有两种情况:1、主机与备机或只读实例之间复制时延太大(一般在写入大量数据或执行大事务的时候出现),在业务高峰期容易出现阻塞。2、主机与备机或只读实例之间的网络中断,导致主机与备机或只读实例复制异常。 提交工单。 但不会导致原来单实例的读写中断,客户的应用是无感知的。 复制状态异常已恢复 replicationStatusRecovered 重要 即复制时延已回到正常范围内,或者主备之间的网络通信恢复。 不需要处理。 无 实例运行状态异常 faultyDBInstance 重要 由于灾难或者物理机故障导致单机或者主实例故障时会上报本事件,属于关键告警事件。 检查是否有设置自动备份策略,并且提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 DBInstanceRecovered 重要 针对灾难性的故障,RDS有高可用工具会自动进行备机重建,重建完成之后即会上报本事件。 不需要处理。 无 单实例转主备实例失败 singleToHaFailed 重要 创建备机时或备机创建完成后主备机之间配置同步发生故障时会产生此事件,一般是由于备节点所在数据中心资源不足导致。 提交工单。 “单实例转主备实例失败”不会导致原来单实例的读写中断,客户的应用是无感知的。 数据库进程重新启动 DatabaseProcessRestarted 重要 一般是内存不足、负载过高导致数据库进程停止 通过云监控的数据,查看是否有内存飙升、cpu长期过高、磁盘满使用率不足等的情况,可以选择提升CPU内存规格或者优化业务逻辑 进程异常退出的时候,业务中断。RDS服务会自动拉起进程,尝试恢复业务。 实例磁盘满 instanceDiskFull 重要 一般是由于数据空间占用过大导致。 对实例进行扩容操作。 实例由于磁盘空间满将会变成只读实例,数据库不可进行写入操作。 实例磁盘满已恢复 instanceDiskFullRecovered 重要 实例磁盘状态恢复正常。 不需要处理。 实例解除只读状态,恢复写操作。 kafka连接失败 kafkaConnectionFailed 重要 一般是由于网络波动或kafka服务端出现异常等原因导致。 检查业务是否收到影响。 无。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        关系型数据库RDS支持的事件列表
      • 授权概述
        本文介绍授权概述。 概述 根据权限类型,分布式容器云平台 CCE One的权限包括资源委托权限、IAM策略权限和实例RBAC权限。您需要为服务账号授予对应的权限,才能正常使用分布式容器云平台的功能。本文将为您介绍资源委托权限、IAM策略权限和实例RBAC权限关系,以及如何为服务账号授予相应权限。 权限类型 权限类型 是否必须授权 权限说明 资源委托 首次使用CCE One服务时需要授权,使用天翼云账号(主账号,或者具有管理员权限的子账号)授权一次即可。 授权后,CCE One服务才能正常访问其他关联云资源,并正常运行。 IAM策略 主账号无需额外授权,IAM子账号必须授权;基于IAM策略权限,可设置子账号使用分布式容器云平台CCE One的相关接口权限以及实例权限。 授权后,IAM子账号才能正常使用CCE One产品功能,或具备管理某些特定实例生命周期的权限。 实例RBAC 主账号及实例创建账号(若为子账号)无需额外授权;其他子账号必须授权; 授权后,IAM子账号才能对CCE One相关注册集群及联邦实例内的容器资源进行操作;前提条件是,该IAM子账号需要已具备相关实例的IAM读权限。 资源委托 资源委托是云服务在特定情况下,因为运行逻辑/功能需要而获取其他云服务访问权限的IAM角色。例如,CCE One上创建三方注册集群代理HUB或创建集群联邦控制面实例时,需要创建弹性负载均衡ELB以及弹性IP,因此需要这俩产品的相关权限。 使用分布式容器云平台服务需要授予访问以下云资源的权限: 访问计算类服务 注册集群按需弹性云上资源时会关联创建云服务器,需要获取访问弹性云服务器、弹性裸金属服务器的权限 访问存储类服务 为注册集群关联云上节点和容器挂载存储,需要获取访问云硬盘、弹性文件、对象存储等服务的权限 访问网络类服务 为注册集群及联邦提供网络代理及服务对外暴露,需要获取访问虚拟私有云、弹性负载均衡、弹性IP、NAT网关等服务的权限 访问容器与监控类服务 为三方注册集群下容器提供镜像拉取、监控和日志分析等功能,需要获取访问容器镜像、应用运维管理等服务的权限同意授权后,CCE One 将在统一身份认证服务为您创建名为 CtyunAssumeRoleForCCEONE 的 委托,为保证服务正常使用,在使用 CCE One 服务期间请不要删除或修改 CtyunAssumeRoleForCCEONE 委托。 若您尚未对CCE One进行资源委托授权,在进入CCE One任一订购页时,将提示您进行必要的委托授权。 点击【点击此处授权】后,将弹出详细授权说明。 再次点击【确定授权】,后台即开始自动创建分布式容器云平台CCE One对应的委托创建。登录IAM统一身份认证服务委托对应页面,可以看到CCE One对应委托记录如下,委托名“CtyunAssumeRoleForCCEONE”。
        来自:
      • 创建只读实例
        说明:本章节会介绍如何创建数据库只读实例 操作场景 只读实例用于增强主实例的读能力,减轻主实例负载。 关系型数据库单实例或主备实例创建成功后,您可根据业务需要,创建只读实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击操作列的“创建只读”,进入“服务选型”页面。 步骤 5 您也可在实例的“基本信息”页面,单击实例拓扑图中,主实例下方的添加按钮,创建只读实例。 步骤 6 在“服务选型”页面,填选实例相关信息后,单击“立即创建”。 表1基本信息 参数 描述 当前区域 只读实例默认与主实例在同一区域。 实例名称 实例名称的长度在4~64个字符之间,必须以字母开头,可包含大写字母、小写字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库引擎 默认与主实例的数据库引擎一致,不可更改。 数据库版本 默认与主实例的数据库版本一致,不可更改。 可用区 关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主实例和只读实例,只读实例的选择和主实例可用区对应情况: 相同,主实例和只读实例会部署在同一个可用区。 不同,主实例和只读实例会部署在不同的可用区,提高可靠性。 表2规格与存储 参数 描述 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 关于性能规格详情,请参见数据库实例规格。 创建成功后可进行规格变更,请参见变更实例的CPU和内存规格。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 普通I/O:磁盘类型SATA,最大吞吐量90MB/s 高I/O:磁盘类型SAS,最大吞吐量150MB/s 超高I/O:磁盘类型SSD,最大吞吐量350MB/s 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。 只读实例的存储空间大小默认与主实例一致。 表3网络 参数 描述 虚拟私有云 和主实例相同。 子网 和主实例相同,创建只读实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 内网安全组 和主实例相同。 步骤 7 在“规格确认”页面,进行信息确认。 如果需要重新选择,单击“上一步”,回到服务选型页面修改基本信息。 信息确认无误,单击“提交”,下发新增只读实例请求。 步骤 8 只读实例创建成功后,您可以对其进行查看和管理。 管理只读实例操作,请参见管理只读实例。 步骤 9 您可以通过“任务中心”查看详细进度和结果。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        只读实例
        创建只读实例
      • ALM-16006 Hive服务进程直接内存使用超出阈值
        本章节主要介绍ALM16006 Hive服务进程直接内存使用超出阈值的告警。 告警解释 系统每30秒周期性检测Hive直接内存使用率,并把实际的Hive直接内存使用率和阈值相比较。当Hive直接内存使用率超出阈值(默认为最大直接内存的95%)时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Hive”修改阈值。 当Hive直接内存使用率小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 16006 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Hive直接内存使用率过高,会影响Hive任务运行的性能,甚至造成内存溢出导致Hive服务不可用。 可能原因 该节点Hive实例直接内存使用量过大,或分配的直接内存不合理,导致使用率超过阈值。 处理步骤 检查直接内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16006”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行步骤2。 告警上报的角色是MetaStore,执行步骤3。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的HiveServer,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“HiveServer内存使用率统计” ,单击“确定”,查看HiveServer进程使用的直接内存是否已达到HiveServer进程设定的最大直接内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 3.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 实例”,单击告警上报的MetaStore,进入实例“概览”页面,单击图表区域右上角的下拉菜单,选择“定制 > CPU和内存”,勾选“MetaStore内存使用率统计” ,单击“确定”,查看MetaStore进程使用的直接内存是否已达到MetaStore进程设定的最大直接内存的阈值(默认95%)。 是,执行步骤4。 否,执行步骤7。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”, 选择“HiveServer/MetaStore > JVM”,将“HIVEGCOPTS/METASTOREGCOPTS”参数中“XX:MaxDirectMemorySize”的值根据如下建议进行调整,并单击“保存”。 说明 a.HiveServer的GC参数配置建议 建议将“XX:MaxDirectMemorySize”值设置为“Xmx”值的1/8,比如:当“Xmx”设置为8G时,“XX:MaxDirectMemorySize”设置为1024M,“Xmx”设置为4G时,“XX:MaxDirectMemorySize”设置为512M。并且建议“XX:MaxDirectMemorySize”值不小于512M。 b.MetaServer的GC参数配置建议 建议将“XX:MaxDirectMemorySize”值设置为“Xmx”值的1/8,比如:当“Xmx”设置为8G时,“XX:MaxDirectMemorySize”设置为1024M,“Xmx”设置为4G时,“XX:MaxDirectMemorySize”设置为512M。并且建议“XX:MaxDirectMemorySize”值不小于512M。 5.选择“更多 > 重启服务”重启服务。 6.观察界面告警是否清除。 是,处理完毕。 否,执行步骤7。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16006 Hive服务进程直接内存使用超出阈值
      • 创建源码构建任务
        本节主要介绍创建源码构建任务 通过构建任务可以用软件包一键式生成软件包或镜像包,实现“源码拉取>编译>打包>归档”的全流程自动化。 前提条件 1.已经创建集群。 2.已为构建节点绑定弹性IP。 操作步骤 1、登录ServiceStage控制台,选择“持续交付 > 构建”,单击“基于源码构建”。 2、输入“Job名称”。 3、(可选)输入Job“描述”。 4、设置“源代码来源”。 参考仓库授权创建授权,然后设置源码来源。 选择“授权信息”后,设置源码仓库用户、源码仓库和分支。 5、选择构建模板。 可选择“Maven”、“Ant”、“Gradle”、“Go”或“Docker”模板构建,可同时编译并归档二进制包或Docker镜像。 说明 选择“自定义”构建,可自由定义构建方式,请执行。 6、选择“归档方式”。 不归档:不添加Docker构建,也不归档。 归档二进制包:不添加Docker构建,归档二进制包。 归档镜像编译:添加Docker构建,归档Docker镜像。 7、设置“必填项参数”。 单击参数配置编辑页的图标可删除参数设置。 构建参数:不同编译参数设置不同,单击编辑框或者编辑框后的,可查看参数说明。 镜像参数:在页中输入“任务名称”、“Dockerfile路径”、“镜像名称”和“镜像版本”。 镜像归档参数:在页中设置对应镜像参数的“任务名称”、“归档镜像”、“仓库组织”和“共享类型”,对设置的镜像进行归档。 二进制参数:在页中设置如下参数。 表 构建工程必填项说明 参数名称 参数说明 :: 任务名称 任务的名称。 共享类型 仓库类型分为公有与私有两种。 • 公有仓库为系统隔离,同一系统中的租户可共享资源。 • 私有仓库为租户隔离,当前租户下的用户可共享资源,其他租户不可访问当前租户下的资源。 仓库组织 是指仓库的命名空间。 软件仓库 软件仓库的名称。 软件包名称 构建完成后,归档的软件包名称。 软件包版本 归档的软件包版本。 构建包路径 编译构建完成后,生成的二进制软件包地址。例如,Java项目下的./target/xxx.jar。 8、(可选)单击“高级配置”进行环境设置。 若要添加多个任务,可在高级配置中自定义添加。 单击左侧栏目中的“添加插件”进入“选择任务类型”界面。 单击目标任务类型的“选择”,添加任务类型。并在“构建环境配置”界面右侧设置任务参数。 在“编译”过程添加了通用构建命令行插件(Build Common Cmd)时,需要注意以下注意事项: 输入“编译命令”,请在echo、cat、debug等命令中慎用敏感信息或者进行敏感信息加密,以免造成信息泄露。 “语言”参数选择Python且“Python框架类型”选择符合WSGI标准的Python工程时,需要设置主模块和主模块函数。Python工程主模块和主模块函数名称示例如下: –Python主模块:如果Python工程入口文件名为server.py,主模块名称则为server。 –Python主模块函数:如果Python工程入口文件server.py的应用函数名称为appgetwsgiapplication(),则主模块函数名称为app。 9、单击“构建”保存设置并构建工程。 单击“保存”仅保存设置,不进行构建。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        持续交付
        创建源码构建任务
      • 通过脚本批量更新一键式重置密码插件(Linux)
        本节介绍了更新一键式重置密码插件(批量操作Linux系统root用户)的操作场景、前提条件、约束与限制、操作步骤等内容。 操作场景 当您需要对多台Linux系统的云主机批量更新一键式重置密码插件时,可参考本文档操作。 前提条件 登录已准备好的执行机,执行机需满足的条件请参见下文约束与限制。 需要提前准备待批量安装插件的云主机的IP地址、root用户的密码信息或者私钥文件。 执行机应该与待更新机器在同一VPC下。 在执行完步骤7之后可以解绑eip。 约束与限制 需要选取一台操作系统为CentOS 7(公共镜像)且已绑定弹性公网IP的云主机作为执行机,且与待批量安装插件的弹性云主机之间网络需要互通。 仅支持对使用同一密钥对的云主机执行批量安装插件的操作。 操作步骤 1.根据以下地址获取ansible.tar.gz压缩包,并上传到执行机。 以root用户登录执行机。 依次执行以下命令安装ansible。(实际安装路径用户可自定义,此处以/root/ansible为示例。) mkdir /root/ansible tar zxvf ansible.tar.gz C /root/ansible cd /root/ansible yum localinstall .rpm 执行以下命令检测是否安装成功。 ansible version 2.请参考获取并校验一键式重置密码插件完整性(Linux),下载对应的一键式重置密码插件CloudResetPwdAgent.zip并完成完整性校验。 安装一键式重置密码插件对插件的具体放置目录无特殊要求,请您自定义。 3.执行以下命令,将批量操作脚本下载到root目录下。 curl URL >~/batchupdatelog4jversion.py 其中,URL为批量操作的执行脚本。 脚本下载地址: 4.执行以下命令,将更新插件脚本下载到root目录下。 curl URL >~/updatelog4jversionforresetpwdagent.sh 其中,URL为更新插件脚本的下载地址。 脚本下载地址: 5.检查如下脚本是否在root目录下: batchupdatelog4jversion.py updatelog4jversionforresetpwdagent.sh CloudResetPwdAgent.zip 6.执行以下命令,新建并编辑hostlist.txt,按i进入编辑模式。 vi hostlist.txt 将需要自动安装驱动的云主机的相关信息填写到hostlist.txt文件中。 示例: [x8664] 182.168.64.21 182.168.64.22 文件填写格式与登录待切换弹性云主机的方式需要匹配。 使用密钥对方式鉴权的云主机,填写方式如下: 说明 使用密钥对方式鉴权的云主机,请将创建弹性云主机时保存的私钥文件,上传至与hostlist.txt同一个文件夹下。 使用密钥对方式鉴权的云主机,请确保私钥文件的权限为400。 chmod 400私钥文件 每行仅需填写云主机IP地址。 示例: 192.168.1.10 192.168.1.11 使用密码方式登录的云主机,填写方式如下: 请严格按照每行ip,root用户密码,中间以英文逗号隔开的格式填写。 示例: 192.168.1.10,'' 192.168.1.11,'' 7.运行批量执行操作脚本“batchupdatelog4jversion.py”。 密钥对鉴权方式的服务器 如果私钥文件与批量操作执行脚本在一个目录下,则直接指定私钥文件名称即可。 python batchupdatelog4jversion.py {私钥文件路径/私钥文件名称} 图 运行脚本 密码方式鉴权的服务器。 python batchupdatelog4jversion.py 图 运行脚本 8.执行如下命令,在“/root/logs/execorigin.log”的最后一行查看运行结果日志。 vim /root/logs/execorigin.log 若如下图所示,则表示运行成功。 图 运行成功
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        密码和密钥对
        管理一键式重置密码插件
        通过脚本批量更新一键式重置密码插件(Linux)
      • 创建表(CREATE TABLE)
        参数说明 tablename:待创建的数据表名称。 columnname:指定数据列名称。 columndefinition:指定数据列定义,可包括类型、能否为空、默认值等属性。 indexname:指定索引名称。 indextype:指定索引类型。 keypart:指定组成索引的数据列。 enginename:指定要使用的存储引擎,常用的引擎有innodb等。 charsetname:指定数据库的字符集。支持设置为utf8和utf8mb4字符集。 collationname:指定数据库的排序规则。支持设置为utf8generalci和utf8mb4bin排序规则。 其中: partitionoption以SQL风格写法来指定分库分表信息,shardinghint以HINT风格来指定分库分表信息,两者虽然写法不同,但作用相同。在简单使用场景可以使用SQL风格分片写法或HINT风格分片写法任意一种,而由于HINT风格分片写法支持更多的分库分表算法,功能更强大一些,如在复杂使用场景只能用HINT风格分片写法。 partitionoption和shardinghint支持的分库分表算法存在差异,详情如下: 说明 更多算法信息,请参见分片算法。 分库分表算法 partitionoption shardinghint (整数)取模(PartitionByMod) 支持(关键字HASH) 支持 字符串hashCode取模(PartitionByStringMod) 支持(关键字HASHSTRING) 支持 枚举(PartitionByFileMap) 不支持 支持 时间范围(PartitionByDateRange) 不支持 支持 枚举分组取模分片(PartitionByEnumAndMod) 不支持 支持 枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod) 不支持 支持 数值范围(PartitionByIntRange) 支持(关键字RANGE) 支持 partitionoption语法: 参数说明 GLOBAL:用于创建全局表。 SINGLE:用于创建单片表,且只能为单个逻辑库创建单个物理表。 DN: 用于指定待使用的RDS ,对于单片表只能使用一个RDS。仅当逻辑数据库只包含一个RDS时可省略此参数,将会使用已绑定的唯一RDS。 UDALPARTITION BY:用于创建分片(分库)表。仅支持整数取模(PartitionByMod)、字符串hashCode取模(PartitionByStringMod)和数值范围(PartitionByIntRange)三种算法。 HASH(columnname):用于指定分片算法为整数取模(PartitionByMod),columnname指定用于计算分片的数据列,此处只允许单个列。 HASHSTRING(columnname): 用于指定分片算法为字符串hashCode取模(PartitionByStringMod),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGE(columnname):用于指定分片算法为数值范围(PartitionByIntRange),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGEVALUES:用于指定数值范围分片算法的各个范围值,只允许int值。且数量必须与DN数量保持一致。 DN:用于指定要使用的RDS,默认值为当前逻辑数据库包含的所有RDS。 PARTITIONS:用于指定分表的数量,默认值为1。当省略时,将使用默认值。 BUCKETS:用于指定分桶的数量,无默认值,必须显式指定。 建表语句说明 分片表从类型上来说主要分成3类,分别为库内分表、库内分桶、既不分表也不分桶。本文将按照分片表类型来简单为您介绍建表语句。 库内分表 既分库(分片)也分表,通过在UDALPARTITION BY指定两次分片算法来依次指定分库算法和分表算法,主要语法格式为: plaintext UDALPARTITION BY 算法1(column1), 算法2(column2) 此处的算法是指上文介绍的HASH或HASHSTRING。另外可搭配PARTITIONS参数来指定分表数量,搭配DN参数指定待使用的RDS列表。 库内分桶 既分库(分片)也分桶,由于分桶是通过虚拟分片来实现,因此只需要指定一次分片算法即可,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 此处的算法是指上文介绍的HASH或HASHSTRING。注意,必须添加BUCKETS参数来指定分桶数量,也可搭配DN参数指定待使用的RDS列表。 既不分表也不分桶 对应只分库的情况,只需指定一次分片算法,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 由于不需要分表或分桶,因此无需使用PARTITIONS或BUCKETS参数,但可搭配DN参数指定待使用的RDS列表。 shardinghint语法: @@table name’{tablename}’:指定数据表名称。 type:指定表的类型。 支持的类型及对应的关键字如下: 全局表:global 单片表:single 分库分表:inner 库内分桶或既不分表也不分库:sharding dn:指定要使用的RDS列表。对于单片表只能使用一个RDS。当忽略此项时默认使用当前逻辑数据库包含的所有RDS。 shardingalgo:指定分片算法。 注意 该参数必须与shardingid搭配使用。 shardingid:指定用于计算分片的数据列。 注意 该参数必须与shardingalgo搭配一起使用。 buckets:指定分桶数量,合法取值范围为[1, 128]。 注意 当创建库内分桶(分库分桶)类型的数据表时必须指定此项。 shardingarea: 用于枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)算法,指定分组列。使用这两种算法时必须指定此项。 rangevalues:用于指定数值范围(PartitionByIntRange)分片算法的各个范围值。 mapfile: 用于分片的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 defaultnode:用于分片的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 startdate:用于分片的时间范围(PartitionByDateRange)算法中指定开始日期。 timeunittype:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 timeunitlen:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元值。 innershardingalgo:指定分表算法。 注意 该参数必须与innershardingid搭配一起使用。 innershardingid:指定用于计算分表的数据列。 注意 该参数必须与innershardingalgo搭配一起使用。 innertotal:指定分表数量。 注意 当创建分库分表类型的数据表时必须指定此项。 innermapfile:用于分表的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerdefaultnode:用于分表的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerstartdate:用于分表的时间范围(PartitionByDateRange)算法中指定开始日期。 innertimeunittype:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 innertimeunitlen:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元值。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理数据表的DDL语句
        创建表(CREATE TABLE)
      • 1
      • ...
      • 218
      • 219
      • 220
      • 221
      • 222
      • ...
      • 230
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      应用托管

      知识库问答

      人脸检测

      人脸属性识别

      推荐文档

      备案信息需真实有效

      常见问题

      产品规格

      成员权限

      新品上线

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号