云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云关系数据库sql server版_相关内容
      • 下载采集的日志文件
        本节主要介绍如何使用API下载采集的日志文件。 此操作用来下载采集的日志文件。 注意 只有采集成功的日志和部分采集成功的日志才能被下载。 请求语法 plaintext GET /rest/v1/system/logcollect/id/file HTTP/1.1 Date: date Host: ip:port Authorization: authorization 请求参数 参数 类型 描述 是否必须 id String 日志ID。 是 请求示例 下载ID为903fec5908534445b847a2b13bd205e2的日志。 plaintext GET /rest/v1/system/logcollect/903fec5908534445b847a2b13bd205e2/file HTTP/1.1 Date: Mon, 05 Sep 2022 08:26:41 GMT Authorization: HBlock userName:signature Host:192.168.0.121:1443 响应示例 plaintext HTTP/1.1 200 OK xhblockrequestid: c0958bc7287c4ca4a515e9ac5e32863d Connection: keepalive ContentLength: 28950 Date: Mon, 5 Sep 2022 08:26:42 GMT ContentDisposition: attachment;filenamehblocklogs903fec5908534445b847a2b13bd205e22022090508204220220905082242.zip ContentType: application/zip;charsetutf8 Server: HBlock { …… }
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        事件和日志管理
        下载采集的日志文件
      • 批量新增非天翼云云主机
        本文为您介绍批量新增非天翼云云主机的具体操作。 使用条件 进行批量新增非天翼云云主机操作前,需创建命名空间。 新增非天翼云云主机时,需选择分区类型存在三方数据中心的命名空间。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源管理”“云主机”,进入云主机列表页。 5. 在列表上方下拉菜单中选择需要进行新增非天翼云云主机操作的命名空间。 6. 点击“新增非天翼云云主机”按钮,选择“新增批量”。 7. 在批量新增非天翼云云主机弹窗中,点击“下载模板”,在模板上填写非天翼云云主机相关信息。 8. 将模板中说明行删除后,保存文件,点击弹窗内“上传”按钮,完成批量非天翼云云主机信息上传。 9. 上传后,可查看可导入和无法导入的非天翼云云主机。 10. 确认信息后,点击“确定”按钮,完成可导入非天翼云云主机批量导入。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源管理
        同步云主机资源
        批量新增非天翼云云主机
      • 如何测试云硬盘的性能
        本实践介绍使用FIO工具测试云硬盘性能的方法。 实践概述 天翼云提供的云硬盘根据磁盘类型的不同拥有不同的性能和价格,详细信息请参见磁盘类型及性能介绍。 FIO 是对磁盘性能进行压力测试和验证的常用工具,本实践将使用FIO工具,介绍云硬盘性能测试的方法。 操作前准备 本节主要介绍在进行具体操作之前用户需要做的准备工作,包括测试前检查、工具安装和FIO参数介绍。 本文以 “CentOS Stream 8 64位” 操作系统为例,介绍使用 FIO 工具进行性能测试的相关操作。由于不同操作系统在系统配置、内核版本及工具支持方面可能存在差异,因此格式化或配置步骤可能有所不同。本文内容仅供参考,具体操作请以对应操作系统的官方产品文档为准,以确保测试过程的准确性与稳定性。 测试前检查 进行测试前,请首先完成云硬盘的挂载和初始化,操作请参考挂载云硬盘和初始化云硬盘。 注意 测试磁盘性能时,建议直接测试裸数据盘(如 /dev/vdb),但有可能会破坏磁盘上的文件系统结构,请在测试前提前做好数据备份。 强烈建议您不要将系统盘或者含有重要数据的数据盘作为测试对象。建议您在空白的数据盘上测试性能,避免造成数据丢失。 登录到测试云主机,执行以下命令,查询待测试的磁盘分区是否已经4KiB对齐。 plaintext sudo fdisk lu 若返回结果中待测试磁盘的Start值能被8整除即是4KiB对齐。下图中的回显表示该磁盘分区已4KiB对齐。 如Start值不能被8整除,则表示未4KiB对齐,那么请删除原有分区后再继续测试,重新按照4KiB对齐选择初始磁柱编号。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        如何测试云硬盘的性能
      • 操作类
        如何访问文件系统? 文件系统可以通过以下几种方式进行访问: 云内通过内网访问文件系统,将文件系统挂载至归属相同VPC的云主机、容器或者物理机上,挂载成功后,可以在云主机、容器或者物理机上访问弹性文件系统,用户可以把弹性文件系统当作一个普通的目录来访问和使用,执行读取或写入操作。 云外通过云专线访问文件系统,可以通过云专线接入弹性文件服务,实现本地数据中心与弹性文件服务的网络互通。 为何无法使用showmount e ip 查看共享文件目录? 基于安全因素考虑,目前已禁用该命令。您可以通过登录以下两种方式查看所有的文件系统: 方式一:通过弹性文件服务控制台查看。登录天翼云官网,点击“控制中心”,在“存储”模块下点击“弹性文件服务SFS Turbo”进入控制台列表页。 方式二:通过OpenAPI查看。使用查询租户已开通文件系统列表接口即可获取。 如何避免NFS 4.0监听端口被误认为木马? 问题描述: 在通过NFSv4.0协议挂载NAS文件系统后,会出现一个随机端口(0.0.0.0)被监听的情况,并且无法通过netstat命令确定监听端口所属的进程,这可能导致误判为文件传输受到木马攻击的情况。 问题原因: 该随机端口是NFSv4.0客户端为了支持Callback而监听的。由于内核参数fs.nfs.nfscallbacktcpport默认值为0,因此NFSv4.0客户端会随机选择一个端口进行监听,而这个随机端口本身并不会带来安全风险。 解决方案: 在挂载文件系统之前,您可以通过配置参数fs.nfs.nfscallbacktcpport来指定一个非零的确定值,以固定该监听端口。 命令如下: sudo sysctl fs.nfs.nfscallbacktcpport 请将上述命令中的替换 为您希望使用的具体端口号。通过上述操作,您可以固定NFSv4.0客户端的Callback监听端口,避免随机端口的出现,从而减少误判为木马攻击的可能性。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        操作类
      • 区域和可用区
        本文主要介绍 区域和可用区 什么是区域、可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用Region和专属Region,通用Region指面向公共租户提供通用云服务的Region;专属Region指只承载同一类业务或只面向特定租户提供业务服务的专用Region。 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 下图阐明了区域和可用区之间的关系。 区域与可用区 如何选择区域? 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。
        来自:
        帮助文档
        专属云(计算独享型)
        产品介绍
        区域和可用区
      • 同地域跨VPC挂载文件系统
        本文介绍同地域跨VPC挂载文件系统。 操作场景 当海量文件服务支持在同地域(资源池)不同的VPC中挂载同一个文件系统。通过为文件系统添加不同的VPC,即可将文件系统挂载至已绑定的VPC中的云主机上,实现跨VPC访问。 说明 单文件系统可添加20个VPC,即文件系统可挂载至来自20个不同VPC的云主机上。 前提条件 至少已有一个海量文件系统。 在同一个地域已创建2个不同的VPC。 在同一个地域已有两台云主机,分别归属于以上2个VPC。 操作步骤 1. 登录天翼云控制中心,在管理控制台左上角选择地域。 2. 选择“存储>海量文件服务OceanFS”,进入OceanFS文件系统列表页。 3. 在列表“操作”处或者点击目标文件系统名称进入详情页,点击“添加VPC”,添加第一台云主机的VPC。 4. 在弹出的添加VPC对话框中可以在下拉列表中选中待绑定VPC及权限组,这里选择第一台云主机的VPC,选择默认权限组。点击“确定”,完成添加。 5. 然后再点击“添加VPC”,相同操作添加第二台虚拟机的VPC。弹出的添加VPC对话框中可以在下拉列表中选中待绑定VPC及权限组,这里选择第二台云主机的VPC,选择默认权限组。点击“确定”,完成添加。 6. 添加完成后,可以在详情页下方VPC页签可看到绑定的VPC,可以点击操作栏下方的“更换权限组”,以更改VPC绑定的权限组。 7. 选择“计算>弹性云主机”,进入弹性云主机控制台页面,找到即将执行挂载操作的云主机。 8. 以root用户登录该弹性云主机,登录方法参考登录Linux弹性云主机弹性云主机快速入门。 注意 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 9. 将文件系统分别挂载至两台云主机,具体操作方法请参考挂载NFS文件系统到弹性云主机(Linux)。 10. 挂载成功后,可以在第一台Linux 云主机上访问文件系统,执行写入操作。您可以把文件系统当作一个普通的目录来访问和使用。依次执行如下命令在两个文件系统中创建文件、文件夹。 plaintext mkdir /mnt/localpath/test1 touch /mnt/localpath/file1 echo ‘1234’ > /mnt/localpath/file2 11. 在第二台云主机执行如下命令读取文件内容。 plaintext cat /mnt/localpath/file2
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        挂载访问
        同地域跨VPC或跨AZ挂载文件系统
        同地域跨VPC挂载文件系统
      • 某省高考志愿填报重保最佳实践案例
        客户价值 构建稳定合作新范式 双方合作自确立以来,历经两届业务周期关键环节,持续采用高级保障服务体系。合作维度已由高考志愿填报单一应用场景逐步延伸至多领域协同共建,形成规范化、常态化战略合作伙伴关系。 优化产品效能新机制 通过技术改良与流程再造,实现功能型产品运营成本集约化管控,有效突破产品效能转化瓶颈,促使单用户使用收益提升,构建高质量发展新格局。 关键节点保障新基准 在2023年高招集中报考周期中,成功实现百万级并发场景下零服务中断记录,核心系统可用率达到行业新高度,健全三级应急保障体系,全面规避重大技术风险,让报考之路安心无忧。
        来自:
        帮助文档
        边缘重保服务
        最佳实践
        某省高考志愿填报重保最佳实践案例
      • 查看事件
        本文为您介绍查看事件的操作场景、前提条件和操作步骤。 操作场景 事件监控提供了事件类型数据的展示功能,帮助您关注业务中的各类重要事件。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击“事件监控”>"系统事件",进入“系统事件监控”页面,可查看事件监控列表。 5. 您可以查看“近1小时”、“近4小时”、“近6小时”、“近12小时”、“近1天”、“近3天”、“近7天”的历史事件记录;也可以在右上角的日历中选择查看1个月内任意时间段的事件历史。 6. 点击待选择监控事件操作下“查看监控图表”,进入相应事件监控图表详情。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        查看事件
      • json和json简介
        本文为您介绍 json和jsonb。 本产品支持非关系数据类型JSON,JSON 数据类型是用来存储JSON(JavaScript Object Notation)数据的。这种数据也可以被存储为text,但是JSON数据类型的优势在于能强制要求每个被存储的值符合JSON规则。 也有很多JSON相关的函数和操作符可以用于存储在这些数据类型中的数据。JSON数据类型有json 和jsonb。它们接受完全相同的值集合作为输入。主要的实际区别是效率。json数据类型存储输入文本的精准拷贝,处理函数必须在每次执行时必须重新解析该数据。而jsonb数据被存储在一种分解好的二进制格式中,它在输入时要稍慢一些,因为需要做附加的转换。但是jsonb在处理时要快很多,因为不需要解析。jsonb也支持索引,这也是一个令人瞩目的优势。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        数据库基础开发
        json和jsonb使用
        json和json简介
      • 集群权限(IAM授权)
        系统角色 角色是IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 IAM中预置的CCE系统角色为 CCEAdministrator ,给用户组授予该系统角色权限时,必须同时勾选该角色依赖的其他策略才会生效,例如Tenant Guest、Server Administrator、ELB Administrator、OBS Administrator、SFS Administrator、SWR Admin、APM FullAccess。 系统策略 IAM中预置的CCE系统策略当前包含CCEFullAccess 和CCEReadOnlyAccess两种策略: CCE FullAccess :系统策略,CCE服务集群相关资源的普通操作权限,不包括集群(启用Kubernetes RBAC鉴权)的命名空间权限,不包括委托授权、生成集群证书等管理员角色的特权操作。 CCE ReadOnlyAccess: 系统策略,CCE服务集群相关资源的只读权限,不包括集群(启用Kubernetes RBAC鉴权)的命名空间权限。 表 CCE FullAccess策略主要权限 操作(Action) Action详情 说明 cce:: cce:cluster:create 创建集群 cce:: cce:cluster:delete 删除集群 cce:: cce:cluster:update 更新集群,如后续允许集群支持RBAC,调度参数更新等 cce:: cce:cluster:upgrade 升级集群 cce:: cce:cluster:start 唤醒集群 cce:: cce:cluster:stop 休眠集群 cce:: cce:cluster:list 查询集群列表 cce:: cce:cluster:get 查询集群详情 cce:: cce:node:create 添加节点 cce:: cce:node:delete 删除节点/批量删除节点 cce:: cce:node:update 更新节点,如更新节点名称 cce:: cce:node:get 查询节点详情 cce:: cce:node:list 查询节点列表 cce:: cce:nodepool:create 创建节点池 cce:: cce:nodepool:delete 删除节点池 cce:: cce:nodepool:update 更新节点池信息 cce:: cce:nodepool:get 获取节点池 cce:: cce:nodepool:list 列出集群的所有节点池 cce:: cce:release:create 创建模板实例 cce:: cce:release:delete 删除模板实例 cce:: cce:release:update 更新升级模板实例 cce:: cce:job:list 查询任务列表(集群层面的job) cce:: cce:job:delete 删除任务/批量删除任务(集群层面的job) cce:: cce:job:get 查询任务详情(集群层面的job) cce:: cce:storage:create 创建存储 cce:: cce:storage:delete 删除存储 cce:: cce:storage:list 列出所有磁盘 cce:: cce:addonInstance:create 创建插件实例 cce:: cce:addonInstance:delete 删除插件实例 cce:: cce:addonInstance:update 更新升级插件实例 cce:: cce:addonInstance:get 获取插件实例 cce:: cce:addonTemplate:get 获取插件模板 cce:: cce:addonInstance:list 列出所有插件实例 cce:: cce:addonTemplate:list 列出所有插件模板 cce:: cce:chart:list 列出所有模板 cce:: cce:chart:delete 删除摸板 cce:: cce:chart:update 更新模板 cce:: cce:chart:upload 上传模板 cce:: cce:chart:get 获取模板信息 cce:: cce:release:get 获取模板实例信息 cce:: cce:release:list 列出所有模板实例 cce:: cce:userAuthorization:get 获取CCE用户授权 cce:: cce:userAuthorization:create 创建CCE用户授权 ecs:: ECS(弹性云主机)服务的所有权限。 evs:: EVS(云硬盘)的所有权限。 可以将云硬盘挂载到云主机,并可以随时扩容云硬盘容量 vpc:: VPC(虚拟私有云,包含二代ELB)的所有权限。 创建的集群需要运行在虚拟私有云中,创建命名空间时,需要创建或关联VPC,创建在命名空间的容器都运行在VPC之内。 sfs::get SFS(弹性文件存储服务)资源详情的查看权限。 sfs:shares:ShareAction SFS(弹性文件存储服务)资源的扩容共享。 aom::get AOM(应用运维管理)资源详情的查看权限。 aom::list AOM(应用运维管理)资源列表的查看权限。 aom:autoScalingRule: AOM(应用运维管理)自动扩缩容规则的所有操作权限。 apm:icmgr: APM(应用性能管理服务)操作ICAgent权限。 lts:: LTS(云日志服务)的所有权限。 表 CCE ReadOnlyAccess策略主要权限 操作(Action) 操作(Action) 说明 cce::get cce:cluster:get 查询集群详情 cce::get cce:node:get 查询节点详情 cce::get cce:job:get 查询任务详情(集群层面的job) cce::get cce:addonInstance:get 获取插件实例 cce::get cce:addonTemplate:get 获取插件模板 cce::get cce:chart:get 获取模板信息 cce::get cce:nodepool:get 获取节点池 cce::get cce:release:get 获取模板实例信息 cce::get cce:userAuthorization:get 获取CCE用户授权 cce::list cce:cluster:list 查询集群列表 cce::list cce:node:list 查询节点列表 cce::list cce:job:list 查询任务列表(集群层面的job) cce::list cce:addonInstance:list 列出所有插件实例 cce::list cce:addonTemplate:list 列出所有插件模板 cce::list cce:chart:list 列出所有模板 cce::list cce:nodepool:list 列出集群的所有节点池 cce::list cce:release:list 列出所有模板实例 cce::list cce:storage:list 列出所有磁盘 cce:kubernetes: 操作所有kubernetes资源。 ecs::get ECS(弹性云主机)所有资源详情的查看权限。 CCE中的一个节点就是具有多个云硬盘的一台弹性云主机 ecs::list ECS(弹性云主机)所有资源列表的查看权限。 bms::get BMS(物理机)所有资源详情的查看权限。 bms::list BMS(物理机)所有资源列表的查看权限。 evs::get EVS(云硬盘)所有资源详情的查看权限。可以将云硬盘挂载到云主机,并可以随时扩容云硬盘容量 evs::list EVS(云硬盘)所有资源列表的查看权限。 evs::count vpc::get VPC(虚拟私有云,包含二代ELB)所有资源详情的查看权限。 创建的集群需要运行在虚拟私有云中,创建命名空间时,需要创建或关联VPC,创建在命名空间的容器都运行在VPC之内 vpc::list VPC(虚拟私有云,包含二代ELB)所有资源列表的查看权限。 sfs::get SFS(弹性文件服务)服务所有资源详情的查看权限。 sfs:shares:ShareAction SFS(弹性文件服务)资源的扩容共享。 aom::get AOM(应用运维管理)服务所有资源详情的查看权限。 aom::list AOM(应用运维管理)服务所有资源列表的查看权限。 aom:autoScalingRule: AOM(应用运维管理)服务自动扩缩容规则的所有操作权限。 lts::get LTS(云日志服务)的所有资源详情的查看权限。 lts::list LTS(云日志服务)的所有资源列表的查看权限。
        来自:
        帮助文档
        云容器引擎
        用户指南
        权限管理
        集群权限(IAM授权)
      • 数据库实例状态
        本节介绍了云数据库GaussDB 的实例状态、备份状态。 数据库实例状态 数据库实例状态是数据库实例的运行情况。用户可以使用管理控制台操作查看数据库实例状态。 状态 说明 正常 数据库实例正常和可用。 异常 数据库实例不可用。 创建中 正在创建数据库实例。 创建失败 数据库实例创建失败。 重启中 按照用户请求,或修改需要重启才能生效的参数后重启实例。 扩容中 数据库实例磁盘扩容中。 添加节点中 数据库实例节点扩容中。 备份中 正在备份数据库实例。 恢复中 正在恢复备份到实例中。 恢复失败 实例恢复失败。 存储空间满 实例的磁盘空间已满,此时不可进行数据库写入操作。 已删除 数据库实例已被删除,对于已经删除的实例,将不会在实例列表中显示。 版本升级中 实例版本正在升级中。 参数变更,等待重启 数据库参数修改后,有些参数修改,需等待用户重启实例才能生效。 变更副本中 数据库实例正在执行降副本操作。 备份状态 状态 说明 备份完成 表明备份任务执行成功 备份失败 表明备份任务执行失败。 备份中 表明正在进行备份中。
        来自:
        帮助文档
        云数据库GaussDB
        产品简介
        实例说明
        数据库实例状态
      • 通过X509证书连接集群
        本章节主要介绍通过X509证书连接集群。 操作场景 通过控制台获取集群证书,使用该证书可以访问Kubernetes集群。 操作步骤 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏中选择“集群信息”,在右边“连接信息”下证书认证一栏,单击“下载”。 步骤 3 在弹出的“证书获取”窗口中,根据系统提示选择证书的过期时间并下载集群X509证书。 注意 下载的证书包含client.key、client.crt、ca.crt三个文件,请妥善保管您的证书,不要泄露。 集群中容器之间互访不需要证书。 步骤 4 使用集群证书调用Kubernetes原生API。 例如使用curl命令调用接口查看Pod信息,如下所示,其中192.168.0.18:5443为集群API Server地址。 curl cert ./client.crt key ./client.key 更多集群接口请参见Kubernetes API。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        访问集群
        通过X509证书连接集群
      • Java客户端接入示例
        生产消息 import java.util.ArrayList; import java.util.List; import java.util.Properties; import java.util.concurrent.Future; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SslConfigs; public class KafkaProducerDemo { public static void main(String args[]) { //加载kafka.properties Properties kafkaProperties JavaKafkaConfigurer.getKafkaProperties(); Properties props new Properties(); //设置接入点,请通过控制台获取对应Topic的接入点 props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, kafkaProperties.getProperty("bootstrap.servers")); //设置SSL根证书的路径,请记得将XXX修改为自己的路径 props.put(SslConfigs.SSLTRUSTSTORELOCATIONCONFIG, kafkaProperties.getProperty("ssl.truststore.location")); //根证书store的密码,保持不变 props.put(SslConfigs.SSLTRUSTSTOREPASSWORDCONFIG, "c24f5210"); //接入协议,目前支持使用SSL协议接入 props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SSL"); //Kafka消息的序列化方式 props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); //请求的最长等待时间 props.put(ProducerConfig.MAXBLOCKMSCONFIG, 30 1000); //设置客户端内部重试次数 props.put(ProducerConfig.RETRIESCONFIG, 5); //设置客户端内部重试间隔 props.put(ProducerConfig.RECONNECTBACKOFFMSCONFIG, 3000); //hostname校验改成空 props.put(SslConfigs.SSLENDPOINTIDENTIFICATIONALGORITHMCONFIG, ""); //构造Producer对象,注意,该对象是线程安全的,一般来说,一个进程内一个Producer对象即可; //如果想提高性能,可以多构造几个对象,但不要太多,最好不要超过5个 KafkaProducer producer new KafkaProducer (props); //构造一个Kafka消息 String topic kafkaProperties.getProperty("topic"); //消息所属的Topic,请在控制台申请之后,填写在这里 String value "this is the message's value"; //消息的内容 try { //批量获取 futures 可以加快速度, 但注意,批量不要太大 List > futures new ArrayList >(128); for (int i 0; i kafkaMessage new ProducerRecord (topic, value + ": " + i); Future metadataFuture producer.send(kafkaMessage); futures.add(metadataFuture); } producer.flush(); for (Future future: futures) { //同步获得Future对象的结果 try { RecordMetadata recordMetadata future.get(); System.out.println("Produce ok:" + recordMetadata.toString()); } catch (Throwable t) { t.printStackTrace(); } } } catch (Exception e) { System.out.println("error occurred"); e.printStackTrace(); } } }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Java
        Java客户端接入示例
      • 通过程序代码连接实例
        参数 说明 username 当前用户名。 password 当前用户的密码。 instanceip 如果通过弹性云服务器连接,“instanceip”是主机IP,即“基本信息”页面该实例的“IPV4内网地址”。如果通过连接了公网的设备访问,“instanceip”为该实例已绑定的“弹性公网IP”。如果需要配置高可用地址,即“基本信息”页面该实例的“数据库连接”。 instanceport 端口,默认8030,集群默认9030。当前端口,参考“基本信息”页面该实例的“数据库端口”。 databasename 数据库名,即需要连接的数据库名。 authSource 鉴权用户数据库,取值为admin。 ssl 连接模式,值为true代表是使用ssl连接模式。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        连接文档数据库服务实例
        通过程序代码连接实例
      • 错误码列表
        本节主要介绍卷管理的错误码。 HTTP status 错误码 错误信息 描述 400 AccessCloudFailed Failed to access cloud. Please check your network or contact your software vendor. 无法连接至云,请检查网络后重试或联系软件供应商。 400 BucketEnableLifecycle Can not use this bucket because the life cycle was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了生命周期。 400 BucketEnableObjectLock Can not use this bucket because the object lock configuration was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了合规保留。 400 CanNotDeleteCloudData The cloud data for LUN lunName can not be deleted. The LUN has been recoverd. 无法删除云上数据,该卷已经被其他集群还原。 400 CanNotModifyEndpoint Can not modify endpoint for LUN lunname. 无法修改卷的Endpoint。 400 ExceedMaxCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be less than value. 存储容量非法。 400 ExceedThreshold The item of operation cannot exceed value. 超出了系统允许的最大个数,无法执行该操作。 400 FailedOperateLUN Failed to operation LUN, reason 卷操作执行失败。 400 HighAvailabilityNotAllowed The 'high availability' is invalid for standalone mode of HBlock. 单机版本HBlock不支持设置卷的高可用模式。 400 InvalidBucketName The bucket name bucketName is invalid. Bucket名称无效。 400 InvalidDiskPath The disk paths do not exist: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The available disk space must be greater than or equal to 1 GiB for each disk path: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths can not access: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths must be directory: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths include incompatible data: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths include unsupported symbols: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths is already on the server and the status is removing: serverIP :diskPaths [,diskPaths...] 因数据目录有问题导致操作失败。 400 InvalidEndpoint The endpoint endpoint is invalid. Endpoint无效。 400 InvalidEnumValue Value value at 'argument ' failed to satisfy constraint: Argument must satisfy enum value set: [value1, value2... ] 枚举参数不合法。 400 InvalidFilterEnum Value value at 'filter' failed to satisfy constraint: Argument can only contain: [lunName, status, capacity, targetName]. Filter参数不正确。 400 InvalidHighAvailability Value value at 'high availability' failed to satisfy constraint: Argument must satisfy enum value set: [Disabled, ActiveStandby]. 高可用模式取值无效。 400 InvalidLUNName Value value at 'lun name' failed to satisfy constraint: Argument must contain only letters, digits, or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. 卷名称不正确。 400 InvalidMinReplicaNumber Argument 'min replica' failed to satisfy constraint: argument range is [1, copy number] for replica mode and [N, N+M] for EC N+M mode. 最小副本数取值范围为:副本卷为[1, 副本数],EC卷为[N, N+M]。 400 InvalidPathStatus The path path status is 'status', the request is invalid. 数据目录状态不正确,无法执行操作。 400 InvalidPositiveInteger Value value at 'number' failed to satisfy constraint: Argument must be positive integer. 值必须为正整数。 400 InvalidPrefix Value value at 'prefix' failed to satisfy constraint: Argument must not exceed 256 characters. prefix无效。 400 InvalidRange Value value at 'range' failed to satisfy constraint: Argument must satisfy pattern 'ij', where i, j are positive integers, i is less than j, and ji M and N + M < 128. 副本模式与当前实际不匹配,服务器个数不够。 400 InvalidStorageMode Value valueat 'storage mode' failed to satisfy constraint: Argument must satisfy enum value set: [Local, Cache, Storage]. 存储模式无效。 400 InvalidTargetName Value value at 'target name' failed to satisfy constraint: Argument must contain only lowercase letters, digits, dots (.) or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. target名称不正确。 400 InvalidWritePolicy Value value at 'write policy' failed to satisfy constraint: Argument must satisfy enum value set: [WriteBack, WriteThrough, WriteAround]. 写策略非法。 400 LessThanCurrentCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than value. 扩容卷时新容量必须大于当前容量。 400 LessThanMinCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than or equal to 1 GiB. 容量不能小于1 GiB。 400 LUNDuplicatedCatalog Duplicated with the existing LUN catalog. 与已有卷的数据目录重复。 400 MissingRelevantArgument Value null at 'argument1' failed to satisfy constraint: Argument must not be null when 'argument2' has value. 参数1和参数2必须同时设置。 400 NoSuchStoragePool The storage pool with name poolName does not exist. 存储池不存在。 400 OnlyHALUNAllowed 'operation' is not supported for LUN luname which is not configured for high availability. 单控卷不支持该操作。 400 SamePool Cannot use the same storage pool poolName. 不能使用名字相同的存储池。 400 ServerNotMatchTarget The server serverid does not match the location of target targetname. 服务器ID和target名称不对应。 400 SingleLUNforAffinityPriority Only one LUN is supported for allocation when a specific server list is designated as the affinity priority. 仅支持针对单个LUN设置主备优先级列表。 400 SignVersionNotAllowed The sign version 'signVersion ' is not supported by provider 'provider'. 该对象存储服务不支持这种类型的签名,请重新选择。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版本HBlock不支持该操作。 400 StorageClassNotAllowed The 'local storage class' is invalid for standalone mode of HBlock. 单机版HBlock不支持设置副本模式。 400 SwitchLUNNotAllowed Failed to switch LUN. The LUN does not support high availability. 单控卷不支持卷的主备切换。 400 TooManyLUNs The number of LUNs in a target cannot exceed 256. 单个target中的卷不能超过256个。 403 CloudAccessDenied Failed to authenticate because of the privilege of access key and secret key. Please use another one. 密钥权限不足,请重新输入Accesskey和SecretKey。 403 CloudAccountAbnormal Your cloud account has been frozen due to arrears or violations, please resolve it and try again. 云账户状态异常,可能由于欠费或违规被冻结,请解决后重试。 403 CloudRequestTimeTooSkewed The difference between the server's time and cloud time is too large. 服务器时间和云的时间相差较大。请同步HBlock服务器与云上的系统时间。 403 GetLifecycleDenied User is not authorized to perform: GetLifecycleConfiguration on resource:bucketName. 无权限获得存储桶的生命周期配置,请更新AK/SK后重试。 403 GetObjectLockDenied User is not authorized to perform: GetBucketObjectLockConfiguration on resource:bucketName. 无权限获得存储桶的合规保留配置,请更新AK/SK后重试。 404 NoSuchBackupConfiguration Backup is not configured. 没有配置备份到OOS。 404 NoSuchBucket The bucket with name bucketName does not exist. Bucket不存在。 404 NoSuchLicense The HBlock license does not exist. 没有软件许可证。 404 NoSuchLUN The LUN with name lunName does not exist. 卷不存在。 404 NoSuchLUNUuid The LUN with name lunName and uuid uuid does not exist. 卷标识不存在,无法执行操作。 404 NoSuchLUNUuidConfiguration Configuration file of the LUN with name lunName and uuid uuiddoes not exist. 指定的卷标识下缺失配置文件,无法执行操作。 404 NoSuchPath The path path does not exist in the HBlock. 路径不存在。 409 CloneLUNExist There are clone LUNs referencing Name. Please delete or flatten all these clone LUNs and try again. 存在克隆卷,无法执行该操作,请删除克隆卷或者断开链接后重试。 409 LUNAlreadyExists The LUN with name lunName already exists. 卷已经存在。 409 DeleteLUNEnabled Cannot delete it because the iSCSI LUN is enabled, please disable first. 不能删除正在启用的卷。 409 InvalidSnapshotStatus The status of snapshot name is 'status', the request is invalid. 快照的状态不对,请求无效。 409 InvalidTargetIQNsStatus The request is invalid. Ensure the number of target IQNs whose status is neither unavailable nor offline is greater than or equal to 2. 操作失败,target IQNs状态异常,请检查后重试。 409 LUNRollbacking The LUN lunname is using snapshot snapshotname for rollback, the request is invalid. 正在使用快回滚,无法执行操作。 409 SnapshotExists The LUN lunname has snapshot or consistency snapshot. You can use force delete. When using this option, all snapshots of the LUN, including LUN snapshots within consistency snapshots, will be deleted together. 卷存在快照,只能使用强制删除。请注意,强制删除会一同删除快照和一致性快照中的卷快照。 409 LUNDataResidue Data residue is detected for LUN lunname on path path. Please clean up promptly and try again. 卷数据残留,请及时清理。 500 CloudInternalError Cloud encountered an internal error. Please try again. 云内部错误,请重试。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        错误码列表
      • 慢日志
        本节主要介绍慢日志 慢日志用来记录执行时间超过当前慢日志阈值“operationProfiling.slowOpThresholdMs”(默认是500ms)的语句,您可以通过慢日志的日志明细、统计分析情况,查找出执行效率低的语句,进行优化。您也可以下载慢日志进行业务分析。 使用须知 对于社区版实例,支持通过界面查看和导出日志明细、开启慢日志明文显示、以及下载日志文件的功能。 删除实例、添加集群实例的节点、变更规格、重建备机,以及实例冻结时,不支持开启慢日志明文开关。 开启慢日志明文开关时,不支持删除实例、添加集群实例的节点、变更规格。 慢日志的阈值默认设置的是500ms,执行耗时超过该阈值的语句,就会在当前所在库下的system.profile表中记录慢日志。 慢日志表system.profile为capped属性,当该表大小达到一定阈值后,会自动删除比较旧的数据。所以需要对慢日志进行分析时,请及时在控制台下载慢日志。 如需开通高级搜索权限,您可以提交工单开通高级搜索权限的申请。 参数说明 DDS慢日志相关的参数说明 参数名称 说明 operationProfiling.mode 数据库profiling(分析)级别。默认值为slowOp。 off:分析器关闭,不收集任何数据。 slowOp:对于耗时超过慢查询阈值的操作,采集器采集数据。 all:采集器采集所有操作的数据。 operationProfiling.slowOpThresholdMs 慢查询的时间阈值,单位为毫秒,超过该阈值的操作将被认为是慢操作。默认值为500ms。如无特殊需求,建议使用默认值500ms。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        日志管理
        慢日志
      • 扩容文件系统
        本文介绍扩容海量文件服务的具体操作。 操作场景 当用户认为文件系统的容量不足时,可以通过执行扩容操作来增加文件系统的容量。 注意 目前文件系统仅支持扩容操作,暂不支持缩容,可购置小容量新文件系统后进行文件迁移。 单用户单地域的海量文件服务初始容量配额500TB,该账号下开通的所有文件系统共享该配额,因此扩容规则为:扩容后的文件系统的总容量 海量文件服务OceanFS”,进入OceanFS文件系统列表页面。 3. 在待扩容的文件系统操作栏,点击“更多>扩容”。 4. 在弹出的“扩容”对话框中,按实际需要进行容量规格选择。 5. 完成容量设置后,包年/包月模式下点击“确认”进行支付;按量付费模式下在弹出界面点击“确定”完成扩容。 6. 等待扩容完成,可在文件系统详情页看到扩容后的容量。
        来自:
      • 异常记录
        您可以通过异常记录功能,查看当前纳管的实例,最新的异常通知状态、以及异常通知的数量。 前提条件 仅限来源为天翼云RDS的MySQL数据库。 已录入DMS中,且实例状态正常的数据库实例。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 异常管理,点击异常记录,进入异常记录界面。 功能介绍 搜索 点击右上角搜索框,可以根据异常明细、严重等级、实例来源、状态进行搜索异常通知,点击重置则清空搜索条件,默认展示最新的异常通知记录。 异常记录列表 列表记录展示异常明细、严重等级、实例来源、状态、异常时间等信息。 点击异常记录的异常明细项,将展示当前异常项详细信息。此外,还支持查看当前异常项的监控趋势图。 点击异常记录的实例来源项,将跳转到该实例的实例画像界面,可查看实例多维度评分详情、节点监控等信息,详见实例画像。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        异常管理
        异常记录
      • 环境要求
        介绍HBlock部署的环境要求。 项目 描述 支持 Linux OS CentOS 7/8/9 64位,CTyunOS 2/4 64位。 硬件 x86服务器、ARM服务器或者龙芯服务器。 最低配置:单核CPU、2GB内存。可根据实际业务需要增加配置。 带宽 客户端到HBlock的带宽:读写带宽能力大于业务读写带宽。 数据目录对应磁盘分区的写带宽能力大于用户实际写入数据的带宽。 上云带宽大于业务写入带宽。 安装目录所在盘 10GB以上,建议配置为RAID 1或者RAID 10。 数据目录 最小配置:5GB,可根据实际业务需要增加配置。 根据存储容量和副本模式配置数据目录对应分区的容量。 对于HBlock使用到的目录,建议设置开机自动挂载,或使用已设置自动挂载的目录或子目录。 网络设定 可以与对象存储进行网络连接(部署本地模式的卷则不需要)。 若HBlock与OOS之间配有专线,须在HBlock服务器 /etc/hosts配置OOS资源池的内网域名解析(请联系我们获取),以确保是通过专线访问OOS,保证访问速度。若您使用互联网,则不需要配置。 网络整体架构如下: HBlock内部各节点之间通过内网互联。 HBlock与上层应用之间通过内网或专线或公网互联。 HBlock与对象存储之间通过专线或公网互联(部署本地模式的卷则不需要)。 图1 单机版网络拓扑图 图2 HBlock集群版网络拓扑图 注意 在部署HBlock前,需要明确使用“单机版”还是“集群版”,因为一旦部署后,不支持通过增减服务器进行模式切换。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        环境要求
      • 创建协议服务
        协议服务提供标准NFS协议访问HPFS文件系统的能力,本文介绍创建协议服务的场景说明和操作步骤。 场景说明 当创建文件系统后,如您需要使用弹性云主机ECS或CPU物理机来挂载该文件系统,您需要创建协议服务,使用VPC或VPCE挂载地址挂载到云服务器上。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>并行文件服务HPFS”,进入并行文件服务的控制台页面。 3. 点击目标文件系统,进入文件系统详情页,点击协议服务页签,即可进入协议服务页面。 4. 单击“创建协议服务”按钮,进入创建页面,根据需求及界面提示进行选择并点击创建: 参数 说明 文件系统 所属文件系统的ID。 协议服务规格 只支持通用型。 协议类型 导出协议类型NFS,默认支持NFSv3和NFSv4。 注意 这里的协议类型选择,不影响文件系统本身协议类型为HPFSPOSIX,相当于同时提供两种协议访问通道。 选择网络 选择协议服务使用的虚拟私有云(VPC),需要与要挂载的云服务器VPC网络相同,才能保证网络互通,实现文件的挂载访问。 创建后不可修改,若当前地域没有虚拟私有云,点击“创建虚拟私有云”,创建完成后刷新可选择新建的VPC。 如您是在地域资源池使用,则还需选择NFS协议使用的子网(SUBNET)网络。 注意 一个文件系统可以创建多个协议服务; 同一个文件系统,创建的不同协议服务,不能绑定同一个vpc; 不同的文件系统,创建的不同协议服务,可以绑定同一个vpc。 终端节点 开启后本服务将为您创建免费的终端节点(VPCE),自动连接并行文件的协议服务。 创建VPCE后将返回该VPC专属的挂载地址,通常需要1~3分钟。如果您删除了终端节点,则VPCE的挂载地址将会失效。 开启终端节点后,需选择NFS协议使用的子网(SUBNET)网络,仅支持选择普通子网。 描述 协议服务的描述信息,可根据需求添加备注。 5. 协议服务为异步创建,创建完成后,可在协议服务列表页刷新,即可看到对应的协议服务信息。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        协议服务
        创建协议服务
      • 认证设置
        此小节介绍云堡垒机认证设置。 认证策略 管理员登录并切换管理角色,打开“系统管理 > 认证设置”,该配置为全局认证策略,默认配置“本地认证”、“令牌认证”。 参数 参数说明 认证源 本地认证:不依赖外部网络或远程服务器的情况下,直接在设备或系统内部完成用户身份验证的过程。 AD认证:用户登录时,系统将账号密码发送到AD认证服务器进行验证,而非在本地校验。AD认证让云堡垒机“借用”了企业现有的、成熟的身份管理目录来识别用户是谁,并决定他们能做什么。 双因子认证 短信认证:使用手机短信验证码进行二次认证。 令牌认证:使用手机令牌进行认证。需下载天翼云App,详情请参见手机令牌。 全局生效 开启:所有用户均使用系统认证方式。 关闭:账号的“认证方式”配置为“跟随系统”的用户使用此处配置的“系统认证方式”,配置为“自定义”的用户使用自定义的认证方式。详情请参见新增用户账号。 AD配置 堡垒机支持与AD认证服务器对接,可将AD认证服务器用户同步到堡垒机作为堡垒机用户。 进入“认证策略”页面,勾选“AD认证”后,选择“AD配置”页签,开始AD配置。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        系统管理
        认证设置
      • 通用操作类
        是否可以再次启动已完成的任务? DTS任务是否可以再次启动,取决于任务的运行状态,已完成的任务无法再次启动。 用户如果需要对已完成状态的链路再次进行迁移或同步操作,需要重新建立任务。 DTS支持一键切换(反向)功能吗? 当前版本的DTS中,数据迁移暂不支持切换反向任务,MySQL>MySQL同步链路支持一键切换主备。 一键切换需满足以下条件: 源库账号需与目标库账号具备相同的读写权限,若源库采用VIP连接,需采用写端口。 源库和目标库的大版本需保持一致(若源库为MySQL5.7.x,目标库为MySQL8.0.x,则不能执行一键切换;若源库为MySQL5.7.28,目标库为MySQL5.7.30,则可以执行一键切换)。 执行一键切换前增量需处于无延迟状态,若执行强制一键切换,需检查确保源库和目标库数据一致,且执行一键切换期间源库不能有业务数据写入并且源库和目标库禁止DDL操作。 一键切换(反向)适用于什么场景? 一键切换功能适用于数据库上云或容灾交割等场景。 例如:当前存在A机房,计划新建B机房容灾,并且在容灾交割后以新建的B机房为主。可先创建A > B的DTS同步任务,当运行这个同步任务至处于无延迟状态后,可通过DTS的一键切换功能,将同步链路切换成B > A,这样B就成为主机房,而A就成为容灾机房。
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        通用操作类
      • 按需转包周期
        本章节主要介绍分布式消息服务RabbitMQ按需转包周期。 按需付费的用户可以选择“转包周期”,变更实例计费模式为包年/包月。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,实现按需实例转包周期。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“转包周期”。 在待转包周期的RabbitMQ实例所在行,单击“更多 > 转包周期”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 转包周期”。 步骤 5 单击“确定”,页面跳转到“按需转包周期”页面。 步骤 6 选择续费时长,然后单击“去支付”,根据界面提示信息,支付费用,完成实例转包周期操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        按需转包周期
      • 修改实例信息
        本章节主要如何介绍修改分布式消息服务RabbitMQ的实例信息。 创建RabbitMQ实例成功后,您可以根据自己的业务情况对RabbitMQ实例的部分参数进行调整。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击RabbitMQ实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 描述 企业项目 安全组 公网访问(公网访问的修改方法,请参考设置实例的公网访问。) 参数修改完成后,通过以下方式查看修改结果。 修改“公网访问”,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        修改实例信息
      • 重启Kafka Manager
        本文主要介绍 重启Kafka Manager。 操作场景 当Kafka Manager无法登录或者无法使用时,例如下图中的报错,可以通过重启Kafka Manager,使Kafka Manager恢复正常。 图 报错信息 说明 重启Kafka Manager不会影响业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重启Kafka Manager。 在待重启Manager的Kafka实例所在行,单击“更多 > 重启Manager”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重启Manager”。 步骤 5 单击“确定”。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示重启成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启Kafka Manager
      • CDN加速媒体存储资源概述
        本文介绍天翼云CDN加速媒体存储资源的实例。 CDN加速 天翼云CDN加速,是基于天翼云遍布全球的网络节点提供的内容分发加速服务。通过将网站、视频和应用等文件内容分发至用户附近的节点,解决因跨运营商访问、跨地域访问、服务器带宽及性能瓶颈带来的访问延迟问题,使用户可以快速和安全地获取所需内容。 媒体存储 天翼云媒体存储是天翼云为客户提供的云存储产品,采用分布式存储技术构建,满足海量视频、图片及其它非结构化数据存取、处理及弹性扩展要求;支持块、文件及对象等标准协议接口,对于门户网站、视频网站等,通过对象存储提供的网站托管功能,将整个网站托管在对象存储中,可直接向用户提供网站访问服务,帮助用户节省资本投入及人工维护成本。同时,通过对象存储的高并发支持能力,帮助用户更好地解决网站频繁访问时的页面崩溃问题。 加速分发实践 天翼云CDN可为媒体存储上存储的静态资源(包括静态脚本、图片、音频、视频等文件)进行全国加速分发。利用天翼云CDN全国加速节点和全国负载均衡调度的能力,可以将热点资源提前下发至边缘节点,当终端用户发出资源访问/下载请求的时候,可就近获取所需要的资源。降低了源站压力,减少了传输延迟,显著提升用户体验。
        来自:
        帮助文档
        CDN加速
        最佳实践
        CDN加速媒体存储资源
        CDN加速媒体存储资源概述
      • teledb_vacuum_advice
        本页介绍天翼云TeleDB数据库系统视图teledbvacuumadvice的内容。 1. 插件开启与关闭 开启:create extension pgvacuumadvice; 同时配置sharedpreloadlibriespgvacuumadvice; 关闭:drop extension pgvacuumadvice; 2. 插件表查找 plaintext select from teledbvacuumadvice; 3. 插件表字段 名称 类型 定义 tablename text 插件记录的表的名称 nodestr text 该表所在的DN节点 starttime timestamptz 上一次autovacuum开始时间 Endtime timestamptz 上一次autovacuum结束时间 systemusage text 上一次autovacuum用户态、内核态的CPU使用时间 ioreadrate real vacuum过程中磁盘读取速率;单位MB/s iowriterate real vacuum过程中磁盘写入速率;单位MB/s sizechange real vacuum前后表体积变化 failurereasonbigtable boolean 如果为t,系统中可能存在因表太大引起的autovacuum失效 failurereasonmanytables boolean 如果为t,系统中可能存在表数量太多引起的utovacuum失效 failurereasonmanytables boolean 如果为t,系统中可能存在表数量太多引起的utovacuum失效 failurereasonlongtransaction boolean 如果为t,系统中可能存在长事务引起的autovacuum失效 4. GUC参数解释与设置 pgvaccumadvice.longxactthreshold:如果事务持续时长超过该时间并阻塞autovacuum清理,则插件进行提示;单位分钟 pgvaccumadvice.bigrelthreshold :如果表元组数超过该大小,并因此影响autovacuum触发,则插件进行提示 pgvaccumadvice.manyrelsthreshold:如果autovacuum清理过程中,收集到的表超过该数量,则插件进行提示
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        系统视图
        teledb_vacuum_advice
      • RabbitMQ消息确认机制
        介绍分布式消息服务RabbitMQ消息确认机制。 消息确认 RabbitMQ消息确认机制分为发送消息确认和消息接收确认。 发送消息确认 生产者确认,即为生产者发送消息后,等待服务端确认。 以下示例演示在Java客户端配置生产者确认过程: try { channel.confirmSelect(); channel . basicPublish( "testexchange" , " routingKey" , null , "publisher confirm message".getBytes()); if (!channel.waitForConfirms()) { System.out.println( "send message failed") ; // do something else }else{ // do something } } catch (InterruptedException e) { e.printStackTrace() ; } 消息接收确认(ACK) 消费者收到消息后需要对 RabbitMQ Server 进行消息ACK确认,RabbitMQ根据确认信息决定是删除队列中的该信息还是重新发送。 重点在于消费者的下面两个方法 channel.basicAck 消费者签收 channel.basicNAck 消费者拒绝签收 以下示例演示在Java客户端配置生产者确认过程: QueueingConsumer consumer new QueueingConsumer(channel); channel.basicConsume(ConfirmConfig.queueName, false, consumer); QueueingConsumer.Delivery delivery consumer.nextDelivery(); String msg new String(delivery.getBody()); // do something with msg. channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        RabbitMQ消息确认机制
      • OpenClaw通道配置指南
        前置工作 已通过天翼云生态专区订购 OpenClaw 应用。 已为对应的OPenClaw应用实例完成模型配置 。 说明 若 OpenClaw 版本过低,将导致无法在公有云生态专区页面中进行模型配置。 操作步骤 登录天翼云官网,进入生态专区控制台。在应用管理我的应用中,选中对应的OpenClaw实例,点击进入应用详情页面。 点击应用配置 页签,进入 OpenClaw 应用配置页面。在通道配置模块中,可对 OpenClaw 进行通道配置(支持企业微信、QQ、钉钉、飞书),实现将 OpenClaw 接入各类即时通讯软件 说明 OpenClaw 支持在同一台服务器上配置多个通道,可同时接入QQ 机器人、飞书机器人等多个接入实例。若当前服务器已接入过其他通道,可在此基础上继续添加更多通道。 1.OpenClaw快速接入QQ配置 1.1登录QQ开放平台 进入腾讯QQ开放平台官网,完成QQ账号登录。 1.2创建QQ机器人 在QQ开放平台的QQ机器人页面,单击“创建机器人”,完成QQ机器人创建。 机器人创建完成后,记录并保存页面显示的 ”AppID“ 和 “AppSecret” 两个参数。请妥善保管、切勿泄露,注意数据安全,后续配置步骤将需要使用以上信息。 返回 QQ 软件,即可在消息列表中看到已创建的 QQ 机器人,且机器人会自动发送第一条欢迎消息。
        来自:
      • 购买
        本章节主要内容介绍购买操作 1. 进入节点资源池控制台,进入数据库复制控制台,左侧菜单栏3个入口,分别是实时迁移管理、备份迁移管理、实时同步管理,用户根据自己数据库场景选择,此处以实时迁移为例: 2. 点击“创建迁移任务”按钮,进入创建页面,根据提升进行迁移任务创建: 1)任务名称:该处名称在4位到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符; 2)迁移实例信息:包括数据流动方向,入云,出云;源数据库引擎类型;目标数据库引擎类型;网络类型;目标数据库实例名称;目标数据库实例读写设置;迁移方式等; 网络类型选择公网时,系统将自动为迁移实例绑定弹性公网IP,直到该任务结束后自动删除该弹性公网IP;故会有流量费用产生; 明确此处的选择信息,且创建后该处信息不可修改 3. 根据选择的以上维度信息,会显示具体的价格与费用。 入云,选择MySQL,公网网络,此处价格提示为仅有配置费用,无网络传输费,且提示任务启动7天后才开始计费; 出云,选择MySQL,公网网络,此处价格提示为配置费用+网络传输费,且无任何优惠。 4. 按步骤提示依次进行后续的步骤操作即可完成该迁移任务的创建。
        来自:
        帮助文档
        数据库复制
        计费说明
        购买
      • 权限管理
        常用操作与IAM系统策略的关系 下表列出了IAM常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 操作 ctiam admin ctiam viewer 创建用户 有 无 注销用户 有 无 分页查询用户 有 有 编辑用户 有 无 查询用户详情 有 有 查询用户列表 有 有 创建用户组 有 无 注销用户组 有 无 分页查询用户组 有 有 编辑用户组 有 无 将用户移出用户组 有 无 将用户移入用户组 有 无 查询用户组详情 有 有 用户组授权 有 无 用户组取消权限 有 无 查询用户组权限 有 有 查询用户权限 有 有 分页查询权限 有 有 创建自定义策略 有 无 编辑自定义策略 有 无 删除自定义策略 有 无 查询所有策略 有 有 查询策略详情 有 有 创建密钥 有 无 查询密钥列表 有 有 创建委托角色 有 无 编辑委托角色 有 无 删除委托角色 有 无 分页查询委托角色 有 有 委托角色授权 有 无 取消角色授权 有 无 创建身份提供商 有 无 编辑身份提供商 有 无 删除身份提供商 有 无 分页查询身份提供商 有 有 查询身份提供商详情 有 有 查询配额列表 有 有 查询账户资源池 有 有 查询用户企业项目列表 有 有 为用户授权 有 无 查询委托角色详情 有 有 创建企业项目 有 无 修改企业项目 有 无 查询企业项目 有 有 启用停用项目 有 无 企业项目关联用户组分页查询 有 有 用户组与企业项目关联 有 无 查询企业项目用户组策略 有 有 移除企业项目关联用户组 有 无 设置企业项目所属用户组及策略 有 无 分页查询资源信息 有 有 资源迁入/迁出企业项目 有 无 资源上报 有 无 切换委托 有 无 重置密码 有 无 删除密钥 有 无 禁用ak 有 无 启用ak 有 无 ak移入回收站 有 无 ak从回收站恢复 有 无 查看敏感操作 有 有 授权企业项目 有 无 获取临时凭证 有 无 设置控制台访问控制策略 有 无
        来自:
        帮助文档
        统一身份认证(一类节点)
        产品概述
        权限管理
      • 查看参数修改历史
        本节主要介绍查看参数修改历史。 操作场景 您可以查看目标参数模板和当前实例的参数修改历史,以满足业务需要。 说明 用户创建或导出的新参数模板,在未进行参数修改前,无修改历史。 查看目标参数模板的参数修改历史 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“参数模板管理”页面的“自定义”页签,选择目标参数模板,单击参数模板名称。 4. 单击左侧导航栏中的“参数修改历史”,您可查看参数对应的参数名称、修改前参数值、修改后参数值、修改状态和修改时间。 图1 查看目标参数模板的参数修改历史 如果修改后参数模板未应用,请根据业务需要,参考应用参数模板,将其应用到对应实例。 查看当前实例的参数修改历史 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“实例管理”页面,选择指定实例,单击实例名称,进入“基本信息”页面。 4. 单击左侧导航栏中的“参数修改”,单击“参数修改历史”,您可查看参数对应的参数名称、修改前参数值、修改后参数值、修改状态和修改时间。 图2 查看当前实例的参数修改历史
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        参数模板管理
        查看参数修改历史
      • 1
      • ...
      • 277
      • 278
      • 279
      • 280
      • 281
      • ...
      • 632
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      一站式智算服务平台

      智算一体机

      人脸实名认证

      动作活体识别

      推荐文档

      玩转天翼云②:linux系统攻击基本排查方法

      首次使用——开通账号

      客户端下载

      实例管理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号