活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼学安在线督导_相关内容
      • 解锁系统内部用户
        本章主要介绍翼MapReduce的解锁系统内部用功能。 操作场景 若服务出现异常状态,有可能是系统内部用户被锁定,请及时解锁,否则会影响集群正常运行。系统内部用户列表请参见用户帐号一览表。系统内部用户无法使用FusionInsight Manager解锁。 前提条件 根据用户帐号一览表获取LDAP管理员“cnroot,dchadoop,dccom”的默认密码。 操作步骤 1.使用以下方法确认系统内部用户是否被锁定: a.查询oldap端口: 登录FusionInsight Manager,选择“系统 > OMS > oldap > 修改配置”。 “Ldap服务监听端口”参数值即为oldap端口。 b.查询域名方法: 登录FusionInsight Manager,选择“系统 > 权限 > 域和互信”。 “本端域”参数即为域名。 例如当前系统域名为“9427068F6EFA4833B43E60CB641E5B6C.COM”。 c.在集群内节点上以omm用户执行以下命令查询密码认证失败次数: ldapsearch H ldaps://OMS浮动IP地址:OLdap端口 LLL x D cnroot,dchadoop,dccom b krbPrincipalName系统内部用户名@当前域名,cn当前域名,cnkrbcontainer,dchadoop,dccom w LDAP管理员密码 e ppolicy grep krbLoginFailedCount 例如,查看oms/manager用户认证失败次数: ldapsearch H ldaps://10.5.146.118:21750 LLL x D cnroot,dchadoop,dccom b krbPrincipalNameoms/manager@9427068F6EFA4833B43E60CB641E5B6C.COM,cn9427068F6EFA4833B43E60CB641E5B6C.COM,cnkrbcontainer,dchadoop,dccom w cnroot,dchadoop,dccom 用户密码 e ppolicy grep krbLoginFailedCount krbLoginFailedCount: 5 d.登录FusionInsight Manager,选择“系统 > 权限 > 安全策略 > 密码策略”。 e.查看“密码连续错误次数”参数值,若小于等于“krbLoginFailedCount”参数值,则用户已被锁定。 说明 查看运行日志,也可以确认系统内部用户是否被锁定。 2.以omm用户登录主管理节点,执行以下命令解锁。 sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName 系统内部用户名 例如, sh ${BIGDATAHOME}/omserver/om/share/om/acs/config/unlockuser.sh userName oms/manager
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        帐户安全设置
        解锁系统内部用户
      • 入服与退服实例
        本章节主要介绍翼MapReduce的入服与退服实例操作。 操作场景 部分角色实例以分布式并行工作的方式对外部业务提供服务,服务会单独保存每个实例是否可以使用的信息,所以需要使用FusionInsight Manager为这些实例执行入服或退服的操作,变更实例的业务可用状态方式。 不支持该此功能的实例,默认无法执行任务。 说明 当前支持退服和入服操作的角色有:HDFS的DataNode、Yarn的NodeManager、HBase的RegionServer。 当DataNode数量少于或等于HDFS的副本数时,不能执行退服操作。若HDFS副本数为3时,则系统中少于4个DataNode,将无法执行退服,Manager在执行退服操作时会等待30分钟后报错并退出执行。 由于Mapreduce任务执行时,会生成一些副本数为10的文件,此时若DataNode实例数少于10时,将无法进行退服操作。 如果退服前,DataNode节点的机架数(机架数由各DataNode节点所配置的“机架”的名称数量决定)大于1;而退服部分DataNode后,剩余的DataNode节点的机架数变为1,则此次退服将会失败。所以需要在退服前评估退服操作对机架数的影响,以调整退服的DataNode节点。 在退服多个DataNode时,如果每个DataNode存储的数据量较大,如果执行选择多个DataNode同时退服,则很有可能会因超时而退服失败。为了避免这种情况,建议每次退服仅退服1个DataNode,进行多次退服操作。 操作步骤 1. DataNode节点退服前需要进行健康检查,步骤如下: 使用客户端用户登录客户端安装节点,并切换到客户端安装目录。 如果是安全集群,需要使用hdfs用户进行权限认证。 source bigdataenv
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        入服与退服实例
      • IAM权限
        权限 对应API接口 授权项 读写类型 创建密钥 /v1/cmkManage/createKey kms:cmk:create 写 启用密钥 /v1/cmkManage/enableKey kms:cmk:enable 写 禁用密钥 /v1/cmkManage/disableKey kms:cmk:disable 写 计划删除密钥 /v1/cmkManage/scheduleKeyDeletion kms:cmk:delete 写 取消计划删除密钥 /v1/cmkManage/cancelKeyDeletion kms:cmk:undelete 写 更新密钥描述 /v1/keyManage/updateKeyDescription kms:cmk:update 写 查看密钥列表 /v1/keyManage/listAliasKeys kms:cmk:list 读 查看密钥详情 /v1/keyManage/describeKey kms:cmk:describe 读 开启删除保护 /v1/cmkManage/scheduleKeyDeletion kms:cmk:deleteProtect 写 取消删除保护 /v1/cmkManage/cancelKeyDeletion kms:cmk:cancelDeleteProtect 写 获取导入密钥材料参数 /v1/importKey/getParametersForImport kms:cmk:getParameters 写 导入密钥材料 /v1/importKey/importKeyMaterial kms:cmk:importMaterial 写 删除密钥材料 /v1/importKey/deleteKeyMaterial kms:cmk:deleteMaterial 写 设置/更新轮转策略 /v1/versionControl/updateRotationPolicy kms:cmk:updateRotation 写 创建密钥版本 /v1/versionControl/createKeyVersion kms:cmk:createVersion 写 列出主密钥所有密钥版本 /v1/versionControl/listKeyVersions kms:cmk:listVersions 读 查看指定密钥版本信息 /v1/versionControl/describeKeyVersion kms:cmk:describeVersion 读 创建别名 /v1/keyName/createAlias kms:cmk:createAlias 写 删除别名 /v1/keyName/deleteAlias kms:cmk:deleteAlias 写 更新别名(非控制台功能) /v1/keyName/updateAlias kms:cmk:updateAlias 写 列出与指定密钥绑定的别名 /v1/keyName/listAliasByUuid kms:cmk:listAliasByUuid 读 列出所有别名(非控制台功能) /v1/keyName/listAlias kms:cmk:listAlias 读 在线加密 /v1/keyCompute/encrypt kms:cmk:encrypt 写 产品数据密钥(信封加密) /v1/keyCompute/generateDataKey kms:cmk:generateDataKey 写 产生无明文返回值的数据密钥(信封加密) /v1/keyCompute/generateDataKeyWithoutPlaintext kms:cmk:generateDataKeyWithoutPlaintext 写 导出数据密钥 /v1/keyCompute/exportDataKey kms:cmk:exportDataKey 写 产生并导出数据密钥 /v1/keyCompute/generateAndExportDataKey kms:cmk:generateAndExportDataKey 写 解密 /v1/keyCompute/decrypt kms:cmk:decrypt 写 转加密 /v1/cmkManage/reEncrypt kms:cmk:reEncrypt 写 产生数字签名 /v1/asymmetric/asymmetricSign kms:cmk:asymmetricSign 写 验证签名 /v1/asymmetric/asymmetricVerify kms:cmk:asymmetricVerify 写 非对称密钥加密 /v1/asymmetric/asymmetricEncrypt kms:cmk:asymmetricEncrypt 写 非对称密钥解密 /v1/asymmetric/asymmetricDecrypt kms:cmk:asymmetricDecrypt 写 获取非对称密钥公钥 /v1/asymmetric/getPublicKey kms:cmk:getPublicKey 写
        来自:
        帮助文档
        密钥管理
        用户指南
        权限管理
        IAM权限
      • 排行榜功能
        本文介绍Redis排行榜功能 业务场景 在一个在线游戏中,我们需要实时统计玩家的得分,并展示排行榜,以便玩家之间进行竞争和比较。为了满足实时性和高并发的需求,我们决定使用 Redis 来实现一个排行榜。 业务要求 实时统计玩家的得分,并根据得分排序生成排行榜。 提供查询指定玩家排名的功能,以便玩家可以查看自己在排行榜中的位置。 需求分析 排行榜需要能够实时更新,并能够处理高并发的请求。 排行榜数据需要持久化,以防止数据丢失。 实现方案 使用分布式缓存Redis,可以实现一个商品热销排行榜的功能。它的优势在于:数据保存在内存中,性能非常好,读写速度非常快,而且提供字符串(String)、链表(List)、集合(Set)、哈希(Hash)等多种便利数据类型。 具体实现方案如下: 使用 Redis 的有序集合(Sorted Set)来存储玩家得分,并根据得分进行排序。 每个玩家的得分作为有序集合的分值,玩家ID作为有序集合的成员。 使用 Redis 提供的有序集合相关命令来实现排行榜的更新、查询和排名等功能。 使用 Redis 的持久化功能,如 AOF 或 RDB,来保证排行榜数据的持久性。 核心代码 以下是一个简化的示例代码,展示了如何使用 Redis 实现排行榜的关键部分: // 玩家得分增加 public void increasePlayerScore(String playerId, int score) { Jedis jedis new Jedis("localhost"); jedis.zincrby("playerscores", score, playerId); jedis.close(); } // 获取玩家排名 public long getPlayerRank(String playerId) { Jedis jedis new Jedis("localhost"); long rank jedis.zrevrank("playerscores", playerId); jedis.close(); return rank ! null ? rank + 1 : 1; // 返回排名(从1开始),若未找到则返回1 } // 获取排行榜前 N 名玩家 public List getTopPlayers(int count) { Jedis jedis new Jedis("localhost"); Set players jedis.zrevrange("playerscores", 0, count 1); jedis.close(); return new ArrayList<>(players); } 在上述示例代码中,我们使用 Redis 的有序集合来存储玩家的得分,使用 zincrby 命令来增加玩家的得分,使用 zrevrank 命令来获取
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        排行榜功能
      • 产品定义
        本节主要介绍分布式消息服务Kafka的产品简介 分布式消息服务Kafka 是一个分布式、高吞吐量、高可用的消息队列服务,针对开源的 Kafka 提供全托管服务,解决开源产品长期以来的痛点,用户只需专注于业务开发,无需部署运维,低成本、更弹性、更可靠,广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等大数据领域,是大数据生态中不可或缺的产品之一。 关于Kafka的帮助手册阅读指引 考虑到篇幅的限制,我们提供的Kafka用户手册主要描述了产品相关的信息,以及与开源社区版Kafka的差异,如天翼云Kafka的产品规格、控制台操作、API接口调用,以及客户端对接等方面。 如果您需要了解Kafka的基础入门知识或者消息的生产和消费等技术细节,请查阅Kafka官网资料。 产品架构 Broker:消息中间件处理结点,一个Kafka节点就是一个broker,多个broker可以组成一个Kafka集群。 Topic:主题 一类消息的集合。 Partition:分区,topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。 Segment:partition物理上由多个segment组成。 offset:每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每个消息都有一个连续的序列号叫做offset,用于partition唯一标识一条消息。 Producer:消息和数据生成者,一般为应用调用API进行消息生产,并向Kafka的Topic发布消息。 Consumer:消息订阅者,也成为消息消费者,负责向 Kafka Broker 读取消息并进行消费。 Consumer Group:一类Consumer的集合名称,这类Consumer通常消费一类消息,且消费逻辑一致,Consumer Group 和 Topic 的关系是 N:N,同一个 Consumer Group 可以订阅多个 Topic,同一个 Topic 也可以被多个 Consumer Group 订阅。 更多信息请参见名词解释。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品定义
      • 业务单元化双活实践
        Damss.command.secret 前端模块北京站点启动脚本 javaagent:/app/mall/agent/amssagent${版本号}.jar Damss.application.namelilishopfront Damss.application.groupfront Damss.command.servers Damss.command.secret 4.2、重启应用 安装了探针的应用在启动时,会自动上报心跳信息。在控制台服务层配置页面,若该应用实例信息显示在列表中且状态列为在线,则说明探针安装成功。 4.3、开启注册配置中心服务同步 1. 登录注册配置中心控制台 ,选择本应用所使用的注册中心Nacos实例,点击实例ID,进入实例详情页面。 2. 在左侧导航栏选择迁移上云 ,在迁移上云菜单下点击概览查看同步工具状态。 3. 若未安装,点击安装按钮进行安装。 4. 若已安装,选择迁移集群管理 ,点击新增集群,填写跨站点注册中心所属集群名称、命名空间、用户名、密码和连接地址信息。 5. 选择同步任务管理 ,点击新增任务,填写任务名称、源集群、目标命名空间,选择所有需要同步的服务。 6. 在左侧导航栏选择服务管理 ,点击服务列表,查看注册命名空间下的服务数量由1变成2,代表服务同步开启成功。 5、功能验证 5.1、验证流量分发能力 验证 说明 测试内容 验证网关流量分发。 测试类型 人工UAT测试。 前提条件 完成微服务引擎云原生网关组件的订购。 登录云原生网关控制台,选择该应用的云原生网关实例,点击功能设置中可观测性配置 ,启用链路追踪 功能。 在应用控容灾多活制台完成网关配置。 测试步骤 1. 根据流量比例规则,查看网关转发是否正常。例如,初始化时北京单元、广州单元的流量比例为0:100。 2. 登录lilishop商城系统首页,在云原生网关控制台查看链路追踪,请求始终访问到广州单元入口。 3. 登录lilishop商城系统进行添加购物车和下订单操作,在云原生网关控制台查看链路追踪,请求始终访问到广州单元入口。 测试结果 符合预期。
        来自:
        帮助文档
        应用高可用
        最佳实践
        应用容灾多活
        业务单元化双活实践
      • 功能特性
        节点安全 集群部署后,运维人员需时刻关注集群内的master节点与node节点的在线情况,以及是否存在安全风险。针对存在安全风险的节点,需支持将风险信息生成报表,交由安全部门处理,保证节点上的资产安全运行。 节点入侵检测 支持对节点入侵事件的实时监测,包括主机反弹Shell、高危系统调用等。 节点扫描 支持设置扫描周期,按时扫描节点上的软件包是否存在漏洞,并给出修复建议。 支持自定义开启/关闭节点防护 支持自定义开启或关闭对节点的防护,关闭防护后当前节点上的所有资产将不再受保护。 集群安全 针对不同的项目情况、支持对Kubernetes、OpenShift 、Rancher等集群的不同版本进行安全风险扫描。如:Kubernetes版本信息披露、匿名身份验证、可能遭受Ping Flood攻击等。对于部署资源所编写的编排文件,支持一键同步并扫描编写内容是否存在风险以及是否符合编写规范。并支持对集群内的组件进行检查和对集群的审计通过多方位的检测方式保证集群的安全。 组件漏洞 支持对集群内的组件进行检查,并给出该组件内的漏洞信息包括漏洞介绍、参考地址、受影响版本等信息。 Kubernetes安全检查 支持对Kubernetes环境进行安全性扫描,检查是否存在诸如信息泄露、特权升级、远程代码执行、危险访问等安全风险,列出各种风险所影响的资产范围,并输出解决方法。 插件管理 支持针对0day或特殊漏洞生成专业的安全插件,运行后能快速发现受影响资产,确定影响面。 集群审计 记录了对APIServer的访问事件,通过查看、分析日志,可以了解集群的运行状况、排查异常,发现集群潜在的安全、性能等风险。 集群策略 可配置集群审计类型包括get类型审计、watch类型审计、list类型审计、update类型审计、creare类型审计、patch类型审计、delete类型审计。 默认内置针对日常运营模式、重保模式、高级防护模式的告警策略;同时也支持自定义告警策略。 支持告警规则自定义。 集群设置 支持对新增集群自动扫描、周期扫描的设置。
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        功能特性
      • 重置消费进度
        本文主要介绍 重置消费进度。 重置消费进度即修改消费者的消费位置。 说明 重置消费进度可能会导致重复消费,请谨慎操作。 前提条件 Kafka实例不支持在线重置消费进度,请先将待重置消费进度的消费组停止消费,然后重置消费进度。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待重置消费进度的消费组名称,进入消费组详情页。 步骤 7 在“消费进度”页签,通过以下方法,重置消费进度。 重置单个Topic所有分区的消费进度:在待重置消费进度的Topic后,单击“重置消费进度”。 重置单个Topic中单个分区的消费进度:在待重置消费进度的Topic分区后,单击“重置消费进度”。 步骤 8 在弹出的“重置消费进度”对话框中,参考下表,设置重置消费进度参数。 表 重置消费进度参数说明 参数 说明 重置类型 选择重置类型: 时间:重置消费进度到指定的时间。 偏移量:重置消费进度到指定的偏移量。 一键重置消费进度只支持重置消费进度到指定时间。 时间 当“重置类型”为“时间”时,需要设置此参数。 选择重置消费进度的时间点,重置完成后,将从此时间点开始消费。 最早:最早偏移量 自定义:自定义时间点 最晚:最晚偏移量 偏移量 当“重置类型”为“偏移量”时,需要设置此参数。 选择重置消费进度的偏移量,此偏移量不能小于0,重置完成后,将从此偏移量开始消费。 步骤 9 单击“确定”,弹出确认对话框。 步骤 10 单击“是”,完成消费进度的重置。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费进度
      • 与开源Kafka的差异
        对比类 对比项 分布式消息服务Kafka 开源Kafka 简单易用 立等可用 即开即用,可视化操作,自助创建,自动化部署,分钟级创建实例,立即使用,实时查看和管理消息实例。 自行准备服务器资源,安装配置必要的软件并进行配置,等待时间长。 易出错。 简单API 提供简单的实例管理RESTFul API,使用门槛低。 无 成本低廉 按需使用 提供多种规格,按需使用,支持一键式在线进行实例代理个数、磁盘存储空间和代理规格扩容。 搭建消息服务本身需要费用,而且即使没有使用,所占用资源本身依旧要收费。 成本低廉 完全托管 租户不需要单独采购硬件资源,直接使用就绪的服务,无需额外成本。 需要购买硬件资源,自行搭建整个消息服务,使用和维护成本高。 实践验证 成熟度高 经受电商网站大规模访问考验,并且已经在云服务平台许多产品中使用,广泛部署运行在分布于世界各地的电信级客户云业务系统里。满足严苛的电信级故障模式库标准。紧随社区主流版本,修复开源bug,持续上线新功能,进行版本升级。 使用开源软件成熟度低,无法保证关键业务,商业案例少;自研周期长,并需要长时间进行验证。 实践验证 能力强大 100%兼容开源,支持一键扩容,深度优化开源代码提升性能和可靠性,支持消息查询等高级特性。 功能不完善,需额外投入进行开发。 稳定可靠 稳定高可用 支持跨AZ部署,提升可靠性。故障自动发现并上报告警,保证用户关键业务的可靠运行。 需要自己开发或基于开源实现,开发成本高昂,无法保证业务可靠运行。 稳定可靠 无忧运维 后台运维对租户完全透明,整个服务运行具有完备的监控和告警功能。有异常可以及时通知相关人员。避免724小时人工值守。 需要自行开发完善运维功能,尤其是告警及通知功能,否则只能人工值守。 稳定可靠 安全保证 VPC隔离,支持SSL通道加密。 需要自行进行安全加固。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        与开源Kafka的差异
      • 预检查
        本章介绍通过做哪些检查来避免分片变更失败。 为了避免分片变更失败,请您最晚在变更前一天完成以下内容的检查。 预检查内容 检查内容 检查目的 检查未通过解决方案 数据库实例binlog备份时间检查 客户全量备份是否保留足够长时间。 进入DN console,增加全量备份天数。 DN节点binlog必须开启 Binlog必须开启以支持在线变更。 若您的DN节点是RDS实例,无需解决。若您的DN节点是Taurus实例,请进入Taurus console 参数配置,设置logbintrue。 DN节点binlog本地保留时间检查 Binlog在DN节点上的保留时间必须足够长。 若您的DN节点是RDS实例,无需解决。若您的DN节点是Taurus实例,请进入Taurus console 参数配置,设置binlogexpirelogsseconds 为604800或更大。 广播表数据一致性检查 保证广播表数据一致后再执行分片变更。 请联系DRDS运维人员。 源物理分片的字符集和排序规则检查 保证分片变更后字符的展示和排序一致。 请联系DRDS运维人员。 物理表建表语句检查 保证各物理分片上的表结构保持一致。 请先使用check table 命令查询表结构不一致详情,之后再使用alter 语法对表进行修正。 主键检查 要求源库所有表都具有主键,且拆分键是主键一部分以保证分片变更后数据一致性。 如果表不存在主键,请使用alter语句增加主键。 数据库实例链接检查 DN节点是否可连接。 检查安全组等配置。 数据库实例参数检查 源DN节点和目标DN节点数据库关键参数配置需要相同。 请进入DN console对参数配置进行修改。 数据库实例磁盘空间检查 防止分片变更过程中,DN节点磁盘不足。 对DN节点进行磁盘扩容,注:本项检查根据估计值进行判断,极端情况下与实际值有一定差别。 数据库实例时区检查 源DN节点和目标DN节点时区要求相同。 请进入DN console参数配置对时区进行修改请进入DN console参数配置对时区进行修改。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        分片变更
        预检查
      • 孤岛->天翼云
        步骤四:应用迁移 注意 由于迁移的源/目标集群任意之一无法被纳管到天翼云CCE One注册集群,如下备份/恢复操作均为离线操作。理论上可独立于天翼云环境。 如下将仅以天翼云提供的ccsebackup插件为例进行介绍;当然,您也可以选择基于三方或开源工具来进行集群备份和恢复,例如也可选择开源Velero,此时操作步骤请参考其官方指引。 1. 创建ccseonemanaged命名空间和对应的sa 在迁移源和目标集群均需进行如下YAML创建: shell apiVersion: v1 kind: Namespace metadata: name: ccseonemanaged apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: ccseonebackup rules: apiGroups: [""] resources: [""] verbs: [""] apiVersion: v1 kind: ServiceAccount metadata: labels: component: ccseonebackup name: ccseonebackup namespace: ccseonemanaged apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: labels: component: ccseonebackup name: ccseonebackup roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: ccseonebackup subjects: kind: ServiceAccount name: ccseonebackup namespace: ccseonemanaged 2. 安装helm,然后使用helm安装ccsebackup1.0.4.tgz 在迁移源和目标集群均需进行该步骤操作。 通过helm创建以及标准创建情况下,依赖从天翼云CRS拉取相关helm配置及镜像地址,需要打通与云上服务的公网或内网访问通道。 3. 源集群应用备份 提前创建oss桶,然后登录到待备份集群,编写备份job,job的编写可参考backupexport.yaml,将存储桶的相关配置填写至pod的环境变量当中,注意配置待备份的命名空间以及对象。 shell apiVersion: batch/v1 kind: Job metadata: name: ccseonebackup01 namespace: ccseonemanaged spec:
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        生态中心
        应用迁移
        孤岛->天翼云
      • 计费类
        本文汇总了云专线产品常见的计费类问题。 云专线服务如何计费? 云专线服务根据不同地理位置以及物理专线类型等因素,云专线服务会根据不同的接入方式,提供差异性的接入服务。其中具体服务如下: 物理专线接入服务费:具体服务价格需联系客服或客户经理进行咨询,客户经理将根据实际业务情况为您提供合理建议; 云端口资源占用费:根据不同端口类型和带宽选择对应的资源服务。 云端口资源占用费和物理专线接入费用区别? 物理专线接入费和云端口资源占用费的主要区别如下: 物理专线接入服务费:物理专线接入服务主要针对物理专线的服务,包括:物理专线类型的选择、带宽、服务保障、施工等,该接入费解决客户侧IDC机房和云资源池中云专线POP交换机之间的互联互通。 云端口资源占用费:云端口资源占用服务主要针对云资源池中云专线POP交换机的物理端口占用服务,包括:独享口和共享口的使用,该端口占用费解决云资源池中云专线POP交换机的物理端口占用带宽的使用需求,帮助客户实现物理专线在入云组网等需求场景中的使用。 云专线服务如何变更带宽? 如需变更云专线带宽,请联系天天翼云客服或客户经理,客户经理会根据您的实际需求协助您进行变更,具体变更内容如下: 物理专线带宽:变更物理专线带宽,请先联系客户经理进行物理专线资源核查后,进行变更带宽方案的实施; 云端口资源占用带宽:联系客户经理进行云端口资源的变更操作,该操作会影响后续使用的带宽费用。
        来自:
        帮助文档
        云专线 CDA
        常见问题
        计费类
      • 常见问题(1)
        使用对等连接,两端VPC的网段可以相同吗? 使用对等连接时,两端VPC的网段可以相同。计划通过对等连接互通的VPC网段相同时,需要注意规划两个VPC之间需要互通的子网的网段不同。具体场景请参考 指向VPC子网的对等连接配置。 用对等连接进行VPC内网互通,两侧可以互相访问哪些资源? 对等连接可以将同资源池的两个VPC内网打通,添加所需的路由后,可以访问对端VPC中的资源,云主机、物理机、网卡、虚拟IP、负载均衡、终端节点、数据库 等通过VPC内网地址提供服务的资源,不支持访问跨VPC的专线、NAT网关、VPN网关。 对等连接能否支持跨租户的VPC内网互通? 对等连接支持同一租户或两个不同租户在同一地域的VPC之间进行内网互通。建立不同租户VPC互通的对等连接时,需要先了解对端账号的邮箱以及VPCID。跨租户VPC之间创建对等连接请参考 创建对等连接(跨账号)。 对等连接能否支持跨资源池的VPC内网互通? 不支持,对等连接仅支持同资源池VPC之间的内网互通。如果有跨地域互通的场景,可以考虑使用云间高速产品。天翼云云间高速(标准版)(CTEC, Express Connect standard)产品是基于中国电信骨干网络,为用户提供一种高速、安全、稳定的混合组网能力,助力企业云上云下、跨区域,多网络、灵活组网,帮助用户构建一张具有企业级规模和通信能力的云上网络。请参考 云间高速产品介绍 。
        来自:
      • 常见问题
        使用对等连接,两端VPC的网段可以相同吗? 使用对等连接时,两端VPC的网段可以相同。计划通过对等连接互通的VPC网段相同时,需要注意规划两个VPC之间需要互通的子网的网段不同。具体场景请参考 指向VPC子网的对等连接配置。 用对等连接进行VPC内网互通,两侧可以互相访问哪些资源? 对等连接可以将同资源池的两个VPC内网打通,添加所需的路由后,可以访问对端VPC中的资源,云主机、物理机、网卡、虚拟IP、负载均衡、终端节点、数据库 等通过VPC内网地址提供服务的资源,不支持访问跨VPC的专线、NAT网关、VPN网关。 对等连接能否支持跨租户的VPC内网互通? 对等连接支持同一租户或两个不同租户在同一地域的VPC之间进行内网互通。建立不同租户VPC互通的对等连接时,需要先了解对端账号的邮箱以及VPCID。跨租户VPC之间创建对等连接请参考 申请对等连接(跨账号)。 对等连接能否支持跨资源池的VPC内网互通? 不支持,对等连接仅支持同资源池VPC之间的内网互通。如果有跨地域互通的场景,可以考虑使用云间高速产品。天翼云云间高速(标准版)(CTEC, Express Connect standard)产品是基于中国电信骨干网络,为用户提供一种高速、安全、稳定的混合组网能力,助力企业云上云下、跨区域,多网络、灵活组网,帮助用户构建一张具有企业级规模和通信能力的云上网络。请参考 云间高速产品介绍 。
        来自:
        帮助文档
        对等连接(文档停止维护)
        常见问题
        常见问题
      • 安全说明类
        导入Windows操作系统 1. 单击“开始”,运行框输入“MMC”,回车。 2. 在MMC控制台菜单栏中单击“文件”,选择“添加/删除管理单元”。 3. 在“添加或删除管理单元”对话框,选择“可用管理单元”区域的“证书”。单击“添加”添加证书。 4. 在“证书管理”对话框,选择“计算机账户”,单击“下一步”。 5. 在“选择计算机”对话框,单击“完成”。 6. 在“添加或删除管理单元”对话框,单击“确定”。 7. 在MMC控制台,双击“证书”。 8. 右键单击“受信任的根证书颁发机构”,选择“所有任务”,单击“导入”。 9. 单击“下一步”。 10. 单击“浏览”,将文件类型更改为“所有文件 ( . )”。 11. 找到下载的根证书ca.pem文件,单击“打开”,然后在向导中单击“下一步”。 注意 您必须在浏览窗口中将文件类型更改为“所有文件 ( . )”才能执行此操作,因为“.pem”不是标准证书扩展名。 12. 单击“下一步”。 13. 单击“完成”。 14. 单击“确定”,完成根证书导入。 导入Linux操作系统 您可以使用任何终端连接工具(如WinSCP、PuTTY等工具)将证书上传至Linux系统任一目录下。 示例: 图 导入证书 如何管理TaurusDB安全性 若要避免安全性问题,切勿使用用户账户的主天翼云用户名和密码。推荐您使用您的主天翼云账户来创建IAM用户,并将这些用户分配给数据库用户账户。如有必要,您还可使用您的主账户创建其他用户账户。 创建账户过程中出错,可能是因为您的账户缺少权限,或者您的账户未正确设置。示例: 您的访问策略中可能缺少执行特定操作的权限,如创建数据库实例。要修复该问题,您的IAM管理员需要为您的账户提供必要的角色。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        网络安全类
        安全说明类
      • 功能特性
        本文为您介绍GPU云主机的功能特性。 GPU云主机作为弹性云主机的一类实例规格,保持了部分与弹性云主机实例相同的功能特性,同时也新增了部分独有特性。 全面监控及告警机制,保障云主机正常运行 云资源池提供包括CPU、内存、磁盘和网络使用情况的几十项云主机性能监控指标,并支持查看一段时间内的云主机监控信息,帮助用户了解云主机实例的历史运行情况,还可根据用户预设规则提供及时的告警通知。 通过虚拟私有云(VPC)实现网络的灵活规划 VPC可为云服务器、云容器、云数据库等云上资源构建隔离、 私密的虚拟网络环境。通过VPC可灵活管理云上网络, 包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。 多种存储类型随意选择,满足不同I/O性能要求 提供普通IO、高IO、通用型SSD和超高IO等多个类型的云硬盘,满足不同业务对IO性能的不同需求。购买方式分为两种,在购买云主机同时购买云硬盘或后期根据需要单独购买云硬盘挂载至云主机上。 可视化管理平台,操作便捷 通过天翼云控制中心对云主机进行管理,可对云主机进行开机、关机、重置密码、重装系统等操作。 规格丰富,满足不同应用场景需求 提供多种实例规格,满足视频解码、图形渲染、深度学习、科学计算等多种场景下不同用户对于GPU的性能需求。配备业界超强算力的GPU显卡,结合高性能CPU平台,单卡最高提供31.2 TFLOPS单精度和9.7 TFLOPS双精度计算,同时支持单机多卡,性能翻倍。
        来自:
        帮助文档
        GPU云主机
        产品简介
        功能特性
      • 使用Curl命令导入数据至OpenSearch实例
        本文为您介绍如何使用Curl命令向天翼云云搜索服务OpenSearch实例导入数据。 Curl是一个用于与Web服务器进行交互的命令行工具,可以直接发送HTTP请求与OpenSearch通信。 适用场景 快速脚本化操作:对于批量操作、简单的查询和数据导入,Curl结合Bash脚本可以快速实现自动化任务。 轻量级客户端:不需要安装任何客户端库,只要有HTTP请求能力,Curl就能与OpenSearch交互。 临时操作:适用于快速执行临时任务或小规模的数据操作,比如单条数据的插入、查询、删除等。 前提条件 已经开通天翼云云搜索OpenSearch实例。 能够通过Curl命令行连通OpenSearch实例。 使用Curl命令导入数据 导入单条数据 使用Curl可以通过HTTP POST请求将数据导入到OpenSearch的指定索引中。 plaintext curl X POST " H "ContentType: application/json" d' { "title": "通过curl导入数据", "content": "curl是一款命令行工具,可以与OpenSearch进行交互...", "date": "20240823" }' 执行以上命令后,你会收到OpenSearch返回的JSON响应,包含导入数据的id等信息。 批量导入数据 使用Curl也可以通过Bulk API实现批量数据导入。以下是一个简单的示例: plaintext curl X POST " H "ContentType: application/json" d' {"index":{"index":"articles"}} {"title":"文章一","content":"是第一篇文章的内容...","date":20240823"} {"index":{"index":"articles"}} {title":"文二","content":"这是第二篇文章的内容...","date":"20240823"}' 在这个示例中,每个文档都以 {"index":{"index":"articles"}} 作为前缀,后跟实际的数据内容。每条数据之间要用换行符分隔。
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        导入数据至OpenSearch实例
        使用Curl命令导入数据至OpenSearch实例
      • 使用Curl命令导入数据至Elasticsearch实例
        本文为您介绍如何使用Curl命令向天翼云云搜索服务Elasticsearch实例导入数据。 Curl 是一个用于与Web服务器进行交互的命令行工具,可以直接发送HTTP请求与Elasticsearch通信。 适用场景 快速脚本化操作:对于批量操作、简单的查询和数据导入,Curl结合Bash脚本可以快速实现自动化任务。 轻量级客户端:不需要安装任何客户端库,只要有HTTP请求能力,Curl就能与Elasticsearch交互。 临时操作:适用于快速执行临时任务或小规模的数据操作,比如单条数据的插入、查询、删除等。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 能够通过Curl命令行连通Elasticsearch实例。 使用Curl命令导入数据 1. 导入单条数据,使用Curl可以通过HTTP POST请求将数据导入到Elasticsearch的指定索引中。 plaintext curl X POST " H "ContentType: application/json" d' { "title": "通过curl导入数据", "content": "curl是一款命令行工具,可以与Elasticsearch进行交互...", "date": "20240823" }' 执行以上命令后,你会收到Elasticsearch返回的JSON响应,包含导入数据的id等信息。 2. 批量导入数据,使用Curl也可以通过Bulk API实现批量数据导入。以下是一个简单的示例: plaintext curl X POST " H "ContentType: application/json" d' {"index":{"index":"articles"}} {"title":"文章一","content":"是第一篇文章的内容...","date":20240823"} {"index":{"index":"articles"}} {title":"文二","content":"这是第二篇文章的内容...","date":"20240823"}' 在这个示例中,每个文档都以{"index":{"index":"articles"}}作为前缀,后跟实际的数据内容。每条数据之间要用换行符分隔。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用Curl命令导入数据至Elasticsearch实例
      • 获取访问密钥
        本章节介绍如何获取访问密钥。 操作说明 通过XstorBrowser访问媒体存储时,需要通过账号的访问密钥,即AK/SK进行登录鉴权。 因此在使用XstorBrowser前,需先提前获取访问密钥。 注意 媒体存储控制台仅展示存量密钥以及天翼云统一身份认证的AccessKey信息,如需新增或删除AccessKey,请点击前往:统一身份认证服务 (下文称CTIAM)。 应安全合规要求,为进一步降低密钥泄漏风险,自2025年12月1日起,媒体存储将对用户控制台密钥管理展示做出以下调整: 自2025年12月1日后订购媒体存储的新用户,请在统一身份认证服务留存信息。媒体存储控制台不提供SecurityKey信息查询。 对于历史用户,则于2026年1月1日起,媒体存储控制台将不再提供SecurityKey查询。请及时到控制台留存存量的SecurityKey信息。 子用户的密钥展示规则跟其所属的主账号展示规则一致。 操作步骤 方法一:媒体存储控制台,可查看您原在媒体存储控制台创建的密钥和从CTIAM新建的密钥。 1. 登录媒体存储控制台,进入【密钥管理】页面即可查看相应的密钥信息。 方法二:CTIAM控制台,只能查看在CTIAM新建的密钥信息。 1. 登录CTIAM控制台。 2. 点击左侧导航窗格的【用户】,在用户名对应的操作选项中点击【查看】按钮,进入用户详情页面。 3. 在【安全设置】的Tab页面,AccessKey栏可查看相应的AK信息,并可进行新增AccessKey的操作。
        来自:
        帮助文档
        媒体存储
        快速入门
        XstorBrowser快速入门
        获取访问密钥
      • 相关术语解释
        本节主要介绍相关术语解释 指标 指标是对资源性能的数据描述或状态描述,指标由命名空间、维度、指标名称和单位组成。 其中,命名空间特指指标的命名空间,可将其理解为存放指标的容器,不同命名空间中的指标彼此独立,因此来自不同应用程序的指标不会被错误地聚合到相同的统计信息中。维度是指标的分类,每个指标都包含用于描述该指标的特定特征,可以将维度理解为这些特征的类别。下图以集群指标为例,介绍了命名空间、维度和指标的关系。 主机 AOM的每一台主机对应一台虚拟机或物理机。主机可以是您自己的虚拟机或物理机,也可以是您通过天翼云购买的虚拟机或物理机,只要主机的操作系统满足AOM支持的操作系统(AOM支持的操作系统详见操作系统使用限制)且主机已安装ICAgent,即可将主机接入到AOM中进行监控。 ICAgent ICAgent是AOM的采集器,运行在每台主机上用于实时采集指标、日志和应用性能数据。安装ICAgent是使用AOM的前提,否则将无法正常使用AOM。 告警 告警是指AOM自身或ECS、ServiceStage、CCE等外部服务在异常情况或在可能导致异常情况下上报的信息,告警会引起业务异常,您需要对告警进行处理。 告警清除方式包括自动清除和手动清除两种。 自动清除:产生告警的故障消除后,AOM会自动清除告警,您不需要做任何操作,例如:阈值告警。 手动清除:产生告警的故障消除后,AOM不会自动清除告警,您需要手动清除告警,例如:ICAgent安装失败告警。
        来自:
        帮助文档
        应用运维管理
        产品简介
        相关术语解释
      • 技术支持
        本节主要介绍云存储网关的技术支持。 联系我们 天翼云官网咨询热线4008109889。 天翼云官网工单管理系统。 开启远程协助 如果您已安装云存储网关但未初始化 与天翼云工作人员联系后,根据天翼云工作人员提供的HOST、PORT(默认端口号是18100),开启远程协助功能。然后将命令返回的远程协助码再告知天翼云工作人员,此时天翼云工作人员可以进行远程协助。 如果您已完成安装、初始化云存储网关 您可以使用已安装云存储网关但未初始化时的方式操作。也可以先获取云存储网关ID,将问题和云存储网关ID一起发给天翼云工作人员。并根据天翼云工作人员提供的HOST、PORT(默认端口号是18100),开启远程协助功能,此时天翼云工作人员可以进行远程协助。 默认情况下,远程协助功能处于禁用状态,用户可以随时启用或禁用此功能。启用后,天翼云工作人员有权登录用户环境中的云存储网关系统以诊断问题。天翼云工作人员远程协助登录时,具有以下两种用户的权限:开启远程协作操作的用户、安装云盘阵的用户。用户可以通过logs/remoteaccess/remoteaccess.log查看工作人员远程协助时的所有操作。 注意 如果用户启用了远程协助功能,则意味着用户相信天翼云工作人员并授权天翼云工作人员访问云存储网关系统中的所有数据。天翼云工作人员将尽力诊断问题并确保数据安全,但是由于系统环境的复杂性,我们对远程协助引起的任何后果不承担任何责任。如果用户对远程协助功能有疑问,并希望使其保持禁用状态,则可以通过咨询热线或者工单管理系统联系我们以获取帮助。
        来自:
        帮助文档
        云存储网关
        用户指南
        技术支持
      • 计费模式
        主要介绍翼MapReduce服务的计费方式。 计费项 购买MRS集群的费用包含两个部分: MRS服务管理费用 IaaS基础设施资源费用(云主机、云硬盘,弹性IP/带宽等) 计费方式 MRS当前支持包年包月和按需计费两种计费方式。 包年/包月:根据集群购买时长,一次性支付集群费用。最短时长为1个月,最长时长为1年。 按需计费:节点按实际使用时长计费,计费周期为一小时。 费用计算方式 系统显示的集群费用,包括:MRS服务管理费用+云主机使用费+云硬盘使用费+其他费用(如弹性IP/带宽等)。 其中云主机、云硬盘及其他(如弹性IP/带宽等)产品的价格,请参考对应产品的价格清单。 普通版集群 普通版集群服务管理费用,按实际选择的节点规格、数量及其单价进行计算。 以创建节点数量为6的集群为例,选用通用计算型“s3.4xlarge.4”(16核64GB)规格: 按需集群:单价为0.62元/节点/小时,集群服务管理费为6x0.623.72元/小时。(此示例未包含云主机、云硬盘等其他产品费用) 包周期集群:单价为299元/节点/月,集群服务管理费为6x2991794元/月。(此示例未包含云主机、云硬盘等其他产品费用) LTS版集群 LTS集群服务管理费,以“核数”为单位计费,计费项与普通集群相同。 以购买10个规格为8核的节点集群为例: 按需集群:单价为0.052元/核/小时,集群服务管理费为 8x10x0.0524.16元/小时。(此示例未包含云主机、云硬盘等其他产品费用) 包周期集群:单价为25元/核/月,集群服务管理费为8x10x252000元/月。(此示例未包含云主机、云硬盘等其他产品费用) 计费方式变更 仅支持由按需计费转换为包周期计费,暂不支持由包周期计费转换为按需计费。 到期欠费
        来自:
        帮助文档
        翼MapReduce
        计费说明
        计费模式
      • NVIDIA GPU云主机
        常规支持软件列表 PI7型主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景和视频编解码场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染。 使用须知 PI7型云主机当前支持如下类型的操作系统: Windows Server CentOS Ubuntu Ctyunos 备注:各资源池支持的具体版本可能略有出入,请以控制台实际支持的版本为准。 P2V型云主机 P2V型云主机采用NVIDIA Tesla V100 PCIE GPU,采用GPU直通技术,在提供云主机灵活性的同时,提供高性能计算能力和优秀的性价比。P2V型云主机能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格名称 vCPU 内存(GB) GPU 显存(GB) 虚拟化类型 p2v.4xlarge.8 16 128 1V100 132GB KVM p2v.8xlarge.8 32 256 2V100 232GB KVM p2v.2xlarge.4 8 32 1V100 132GB KVM p2v.4xlarge.4 16 64 2V100 232GB KVM p2v.8xlarge.4 32 128 4V100 432GB KVM
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        NVIDIA GPU云主机
      • IAM权限(1)
        权限 对应API接口 授权项 读写类型 创建密钥 /v1/cmkManage/createKey kms:cmk:create 写 启用密钥 /v1/cmkManage/enableKey kms:cmk:enable 写 禁用密钥 /v1/cmkManage/disableKey kms:cmk:disable 写 计划删除密钥 /v1/cmkManage/scheduleKeyDeletion kms:cmk:delete 写 取消计划删除密钥 /v1/cmkManage/cancelKeyDeletion kms:cmk:undelete 写 更新密钥描述 /v1/keyManage/updateKeyDescription kms:cmk:update 写 查看密钥列表 /v1/keyManage/listAliasKeys kms:cmk:list 读 查看密钥详情 /v1/keyManage/describeKey kms:cmk:describe 读 开启删除保护 /v1/cmkManage/scheduleKeyDeletion kms:cmk:deleteProtect 写 取消删除保护 /v1/cmkManage/cancelKeyDeletion kms:cmk:cancelDeleteProtect 写 获取导入密钥材料参数 /v1/importKey/getParametersForImport kms:cmk:getParameters 写 导入密钥材料 /v1/importKey/importKeyMaterial kms:cmk:importMaterial 写 删除密钥材料 /v1/importKey/deleteKeyMaterial kms:cmk:deleteMaterial 写 设置/更新轮转策略 /v1/versionControl/updateRotationPolicy kms:cmk:updateRotation 写 创建密钥版本 /v1/versionControl/createKeyVersion kms:cmk:createVersion 写 列出主密钥所有密钥版本 /v1/versionControl/listKeyVersions kms:cmk:listVersions 读 查看指定密钥版本信息 /v1/versionControl/describeKeyVersion kms:cmk:describeVersion 读 创建别名 /v1/keyName/createAlias kms:cmk:createAlias 写 删除别名 /v1/keyName/deleteAlias kms:cmk:deleteAlias 写 更新别名(非控制台功能) /v1/keyName/updateAlias kms:cmk:updateAlias 写 列出与指定密钥绑定的别名 /v1/keyName/listAliasByUuid kms:cmk:listAliasByUuid 读 列出所有别名(非控制台功能) /v1/keyName/listAlias kms:cmk:listAlias 读 在线加密 /v1/keyCompute/encrypt kms:cmk:encrypt 写 产品数据密钥(信封加密) /v1/keyCompute/generateDataKey kms:cmk:generateDataKey 写 产生无明文返回值的数据密钥(信封加密) /v1/keyCompute/generateDataKeyWithoutPlaintext kms:cmk:generateDataKeyWithoutPlaintext 写 导出数据密钥 /v1/keyCompute/exportDataKey kms:cmk:exportDataKey 写 产生并导出数据密钥 /v1/keyCompute/generateAndExportDataKey kms:cmk:generateAndExportDataKey 写 解密 /v1/keyCompute/decrypt kms:cmk:decrypt 写 转加密 /v1/cmkManage/reEncrypt kms:cmk:reEncrypt 写 产生数字签名 /v1/asymmetric/asymmetricSign kms:cmk:asymmetricSign 写 验证签名 /v1/asymmetric/asymmetricVerify kms:cmk:asymmetricVerify 写 非对称密钥加密 /v1/asymmetric/asymmetricEncrypt kms:cmk:asymmetricEncrypt 写 非对称密钥解密 /v1/asymmetric/asymmetricDecrypt kms:cmk:asymmetricDecrypt 写 获取非对称密钥公钥 /v1/asymmetric/getPublicKey kms:cmk:getPublicKey 写
        来自:
      • 清理表空间(pg_repack)
        本小节主要介绍RDSPostgreSQL的pgrepack插件使用方法。 操作场景 RDSPostgreSQL支持通过 pgrepack 插件在线清理表空间,有效解决因对全表大量更新等操作引起的表膨胀问题。pgrepack无需获取排它锁,相比CLUSTER或VACUUM FULL更加轻量化。 前提条件 请确保您的实例内核大版本满足,本插件所支持的内核版本,请参考支持的版本插件列表。 注意事项 pgrepack需要额外的存储空间。全表repack时,剩余存储空间大小需要至少是待repack表大小的2倍。 pgrepack无法操作临时表。 pgrepack无法操作GiST索引。 重建表和索引时会占用较多的磁盘IO,使用时请提前评估是否影响业务。 在pgrepack运行期间,目标表上不能执行除vacuum和analyze之外的任何DDL指令。 插件使用 安装插件 CREATE EXTENSION IF NOT EXISTS pgrepack; 卸载插件 DROP EXTENSION IF EXISTSpgrepack; 使用示例 使用 pgrepack插件清理表。 1. 创建测试表 sql create table pgrepacktest(id bigint primary key, name varchar); insert into pgrepacktest select i , tochar(random()100000, 'FM000000') from generateseries(1, 1000000) i; delete from pgrepacktest where id in (select i from generateseries(1, 600000, 2) i); select pgsizepretty(pgrelationsize('pgrepacktest')); 2. 清理测试表 shell cd . setenv.sh cd bin ./pgrepack host port dbname usernameroot nosuperusercheck nokillbackend t pgrepacktest :RDSPostgreSQL实例的安装目录 :RDSPostgreSQL实例的IP地址。 :RDSPostgreSQL实例的端口。 :表pgrepacktest所在的数据库。 3. 查看清理后的表大小 sql select pgsizepretty(pgrelationsize('pgrepacktest'));
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        插件管理
        清理表空间(pg_repack)
      • 规格变更
        如果您的DRDS实例性能不能满足您的业务需求,您可以手动修改已有DRDS实例的规格以满足业务需求。本文为您介绍DRDS的规格变更功能。 前提条件 实例状态为运行中。 注意事项 实例规格变更期间服务会短暂中断,建议在业务空闲时变更。 注意 变更华北2资源池的实例规格时,支持在线变更,即变更规格过程中无需重启实例,保证服务可用性。 一旦执行变更操作后不可撤销,如果需要修改,需要在当前变更操作结束后,重新提交变更操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,然后在操作 列,选择更多 > 规格变更。 4. 在规格变更页面,配置所需的规格。 对于2025年4月25日00:00之前创建的实例: 1. 查看当前实例规格,选择所需的实例类型,支持选择基础版 、中级版 和高级版。 2. 选择所需的节点数量。 注意 规格变更操作只支持扩容,不支持缩容。 不支持修改单节点规格。 如需对计算节点数量扩容,可以单击更多 > 规格变更,选择更多节点数量。 对于2025年4月25日00:00及以后创建的实例: 查看当前实例规格,选择所需的单节点实例规格。 注意 您可以根据需要对当前实例规格进行扩容或缩容。如果您的实例规格为最小的2C4G规格,则只能进行扩容操作。 如需增加计算节点数量,可以在DRDS > 实例管理 页面,选择更多 > 添加节点进行配置。 5. 在页面右下角阅读并勾选协议后,单击提交。 按照界面提示,完成相应的支付操作后,返回DRDS > 实例管理 页面,查看当前实例状态 ,显示为扩容中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        规格变更
      • 购买类
        网站安全监测产品有不同规格、应该选择哪个,该如何选择? 网站安全监测当前有体验版、专业版和旗舰版三个版本,每个版本在功能和漏洞检测频率有差异。基础业务安全监测需求推荐使用体验版,提供可用性监测、安全事件监测、内容安全监测等。如果有图片审核需求推荐专业版的套餐,提供基础业务安全监测的同时,也提供图片审核功能。用户需要自定义配置需求就推荐旗舰版套餐,可支持自定义配置和人工验证等操作,按需购买即可。 网站安全监测的产品是否支持试用? 可以支持试用,可以在BCP门户申请试用,目前官网暂未开通试用通道,试用期限为一个月,支持可用性监测,安全事件监测、内容安全监测和图片审核限量100张,漏洞检测一次。 产品网站安全监测产品有哪些优势? 应用快、免安装,使用便捷,纯SaaS服务,无需安装任何软硬件,只需在控制台提交域名和具体的监测项即可,随买随用。 资源丰富,全网服务,分布式部署,支持多点检测,资源覆盖全国。 可视化管理平台,对用户友好,可视化看板、报表和态势跟踪全方位辅助业务数据跟踪,更好地进行业务管理。 高效率,高专业度:集中监控和分散维护相结合,值班工程师7×24小时集中监控,网络工程师 7×24 小时在线支持。 如果客户目前使用的是非天翼云的服务,是否可以使用网站安全监测产品? 网站安全监测产品对客户使用服务是没有限制的,只要购买服务,在控制台配置域名和监测项即可,无需客户改变任何网络架构,不需要修改CNAME。 版本和扩展服务的有效期之间是否有关联? 是的,扩展服务的有效期是与版本的有效期一致的,如果用户的版本过期,扩展服务的功能也随之失效。 用户可以直接购买扩展服务进行使用吗? 不能直接购买扩展服务使用,用户需要选择版本后,可以购买扩展服务态势感知大屏进行使用,订购扩展服务的前提是必须订购版本且版本在服务中的状态。
        来自:
        帮助文档
        网站安全监测
        常见问题
        购买类
      • 使用咨询
        不上传数据到OBS,如何使用DLI 当前DLI只支持对云上数据分析,数据还是要传到云上,用户可以折中处理:将待分析的数据脱敏后上传到OBS临时存放,分析完之后将结果导出使用,同时将OBS临时存放数据删除。 该方法主要适用于定期(如每天)对增量数据一次性分析统计,然后利用分析结果支撑业务的场景。 对频繁需要分析的数据,还是建议将数据上传到云上。 DLI是否支持导入其他租户共享OBS桶的数据? 支持,但有限制。 在DLI中,同一个租户下子账户共享OBS桶中的数据是支持导入的,但是租户级别共享OBS桶中的数据无法导入。 Failed to create the database. {"errorcode":"DLI.1028";"errormsg":"Already reached the maximum quota of databases:XXX". 提示配额不足,如何处理? 怎样查看我的配额 1. 登录管理控制台。 2. 单击页面右上角的“My Quota”图标 。 系统进入“服务配额”页面。 3. 您可以在“服务配额”页面,查看各项资源的总配额及使用情况。 如果当前配额不能满足业务要求,请参考后续操作,申请扩大配额。 如何申请扩大配额? 目前系统暂不支持在线调整配额大小。如您需要调整配额,请拨打热线或发送邮件至客服,客服会及时为您处理配额调整的需求,并以电话或邮件的形式告知您实时进展。 在拨打热线或发送邮件之前,请您准备好以下信息: 帐号名,获取方式如下: 登录云帐户管理控制台,在右上角单击帐户名,选择“我的凭证”,在“我的凭证”页面获取“帐号名”。 配额信息,包括:服务名、配额类别、需要的配额值。 全局变量的使用中,一个子账号是否可以使用其他子账号创建的全局变量 全局变量可用于简化复杂参数。例如,可替换长难复杂变量,提升SQL语句可读性。 全局变量的使用具有以下约束限制: 只有创建全局变量的用户才可以使用对应的变量。 只有创建全局变量的用户才可以修改对应的变量。 只有创建全局变量的用户才可以删除对应的变量。
        来自:
        帮助文档
        数据湖探索
        常见问题
        购买类
        使用咨询
      • 功能特性
        本章节主要介绍数据湖探索(DLI)的功能特性。 功能介绍 DLI用户可以通过可视化界面、Restful API、JDBC、Beeline等多种接入方式对云上RDS和DWS等异构数据源进行查询分析,数据格式兼容CSV、JSON、Parquet和ORC主流数据格式。 三大基本功能 SQL作业支持SQL查询功能:可为用户提供标准的SQL语句。 Flink作业支持Flink SQL在线分析功能:支持Window、Join等聚合函数、地理函数、CEP函数等,用SQL表达业务逻辑,简便快捷实现业务。 Spark作业提供全托管式Spark计算特性:用户可通过交互式会话(session)和批处理(batch)方式提交计算任务,在全托管Spark队列上进行数据分析。 多数据源分析 Spark跨源连接:可通过DLI访问DWS,RDS和CSS等数据源。 Flink跨源支持与多种云服务连通,形成丰富的流生态圈。数据湖探索的流生态分为云服务生态和开源生态: 云服务生态:数据湖探索在Flink SQL中支持与其他服务的连通。用户可以直接使用SQL从这些服务中读写数据。 开源生态:通过增强型跨源连接建立与其他VPC的网络连接后,用户可以在数据湖探索的租户独享队列中访问所有Flink和Spark支持的数据源与输出源,如Kafka、Hbase、ElasticSearch等。 存算分离 用户将数据存储到OBS后,DLI可以直接和OBS对接进行数据分析。存算分离的架构下,使得存储资源和计算资源可以分开申请和计费,降低了成本并提高了资源利用率。 存算分离场景下,DLI支持OBS在创建桶时数据冗余策略选择单AZ或者多AZ存储,两种存储策略区别如下: 选择多AZ存储,数据将冗余存储至多个AZ中,可靠性更高。选择多AZ存储的桶,数据将存储在同一区域的多个不同AZ。当某个AZ不可用时,仍然能够从其他AZ正常访问数据,适用于对可靠性要求较高的数据存储场景。建议优选使用多AZ存储的策略。 选择单AZ存储,数据仅存储在单个AZ中,但相比多AZ更加便宜。
        来自:
        帮助文档
        数据湖探索
        产品简介
        功能特性
      • 通用问题
        DWS与Hive在功能上有哪些差别? DWS与Hive在功能上存在一定的差异,主要体现在以下几个方面: 1.Hive是基于Hadoop MapReduce的数据仓库,DWS是基于Postgres的MPP的数据仓库。 2.Hive的数据在HDFS中存储,DWS的数据可以在本地存储,也可以通过外表的形式通过OBS进行存储。 3.Hive不支持索引,DWS支持索引,所以查询速度DWS 更快。 4.Hive不支持存储过程,DWS支持存储过程,使用场景更广泛。 5.DWS 比Hive对SQL的支持更丰富,包括函数、自定义函数、存储过程。 6.Hive不支持事务,DWS支持完整事务。 7.在数据可靠性方面,Hive和DWS 均支持副本,可靠性基本一致。 8. 在性能上,DWS极大地优于Hive。 DWS和Hive基于各自的功能特点,在应用场景上,Hive仅用于离线分析场景,DWS适用于在线分析场景及ADHoc(即席查询)场景。 什么是用户配额? 云服务对用户的资源数量和容量做了限制。如果资源配额限制满足不了用户的使用需求,可以通过工单系统来提交您的申请,并告知您申请提高配额的理由。在通过我们的审理之后,我们会更新您的配额并进行通知。 如何获取Access Key ID(AK)和 Secret Access Key(SK)? 用户可以登录管理控制台创建访问密钥,如果您已经创建过了,也可以使用已有的访问密钥。 1.登录管理控制台。 2.将鼠标移到右上角的用户名,单击“我的凭证”。 3.再单击“管理访问密钥”页签,可以查看已有的访问密钥,也可以单击“新增访问密钥”进行创建。 访问密钥是 IAM 身份认证的重要凭证,只有在新增访问密钥时,用户才可以下载到含有 Access Key ID(AK)和 Secret Access Key(SK)的密钥文件,在管理控制台只能查看到 Access Key ID,如果您未曾下载过该密钥文件,请联系您的管理员进行获取,或者重新创建。 说明 每个用户最多可创建 2 个访问密钥,有效期为永久。为了帐号安全性,建议您定期更换并妥善保 存访问密钥。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        通用问题
      • 审计RDS关系型数据库(安装Agent)
        步骤六:验证Agent与数据库安全审计实例之间的网络通信正常 待审计的数据库与数据库安全审计实例连接成功后,您需要验证Agent与数据库安全审计实例之间的网络通信是否正常。 1. 在安装Agent的节点执行一条SQL语句或对数据库进行操作(例如,“Select 1;”)。 2. 在左侧导航树中,选择“总览”,进入“总览”界面。 3. 在“选择实例”下拉列表框中,选择需要查看数据库慢SQL语句信息的实例。 4. 选择“语句”页签。 5. SQL语句列表将显示登录数据库操作的记录,如dbss060004/fig1960916145112所示。如果不能查询到SQL语句,请您参照如何处理Agent与数据库安全审计实例之间通信异常?进行排查。 步骤七:查看审计结果 验证成功后,您可参照本节内容在总览界面查看审计结果信息,同时也可根据需求在报表界面进行设置生成报表、下载或预览报表。 进入总览入口,如图所示,查看总览信息。 在总览界面,展示了该实例的审计时长、SQL语句总量、风险总量以及今日语句、今日风险、今日会话量 您可以选择“语句”或“会话”页签,分别查看SQL语句信息和会话分布图。 1. 生成报表、下载或预览报表。进入报表管理界面,进入报表管理入口 2. 在左侧导航树中,选择“报表”。 3. 在“选择实例”下拉列表框中,选择需要生成审计报表的实例。选择“报表管理”页签。 4. 在需要生成报表的模板所在行的“操作”列,单击“立即生成报表”。 5. 在弹出的对话框中,单击 ,设置报表的开始时间和结束时间,选择生成报表的数据库。 6. 单击“确定”。系统跳转到“报表结果”页面,您可以查看报表的生成进度。报表生成后,您可以“预览”或“下载”报表,如图所示。如果您需要在线预览报表,请使用Google Chrome或Mozilla FireFox浏览器。
        来自:
        帮助文档
        数据库安全
        最佳实践
        审计RDS关系型数据库(安装Agent)
      • 升级KMS服务实例镜像版本
        KMS发布新的镜像版本后,您可以自行升级服务实例镜像版本。本文介绍如何升级KMS服务实例的镜像版本。 升级影响 升级时长约为30分钟,过程中可能会存在业务闪断,升级结束后自动恢复正常。因此建议您在业务低峰期进行升级。 操作步骤 1. 登录密钥管理服务控制台。 2. 在页面最上方的导航栏的资源池下拉列表,选择服务所在的区域。 3. 在左侧导航栏,选择“服务管理”。 4. 在服务列表找到目标服务,点击进入服务详情页。 5. 查看镜像版本,如提示“升级版本”则表示KMS服务实例镜像可以升级,如提示“当前已是最新版 本”则表示无需升级。 6. 点击升级版本,查看新版本镜像的新功能说明,并配置升级。 说明 当前仅支持升级到镜像的最新版本,不支持指定升级到中间版本。 KMS支持如下两种升级方式: 自动升级:计划升级,设置升级时间点,到达既定时间系统自动执行升级。支持设置未来7天内的任意时间,您也可以在升级前取消当前升级计划,重新设置升级时间。 手动升级:立即升级,点击确定后立即执行升级。 7. 若您设置了自动升级,镜像版本进入等待升级状态,您可以在控制台查看具体的升级时间。若需要改变升级计划,可以点击“取消升级”,并重新配置升级计划。 8. 系统执行升级时,镜像版本状态变为“升级中”,此过程大概约30分钟。 9. 等待约30分钟后,查看镜像版本升级结果。镜像版本状态为“当前已是最新版本”,则表示升级成 功。提示“升级失败”时,请联系天翼云技术支持。
        来自:
        帮助文档
        密钥管理
        用户指南
        服务管理
        升级KMS服务实例镜像版本
      • 1
      • ...
      • 56
      • 57
      • 58
      • 59
      • 60
      • ...
      • 86
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      轻量型云主机

      AI Store

      公共算力服务

      模型推理服务

      知识库问答

      人脸属性识别

      人脸比对

      动作活体识别

      推荐文档

      产品定义

      客户端Linux版本安装

      MySQL

      复制

      慢查询日志

      产品详情

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号