活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 统一管理任意环境下的Kubernetes集群
        本节介绍如何统一管理任意环境下的Kubernetes集群。 概述 CCE One 注册集群可以帮助您快速实现Kubernetes集群注册到云端,使用天翼云容器管理控制台对注册集群进行统一管理,赋予云下集群使用云上资源能力。 场景描述 统一管理天翼云集群:天翼云CCE专有版、托管版、智算版以及Serverless容器引擎等。 统一管理本地集群:由CCE提供的运行在您数据中心基础设施之上的Kubernetes集群,以及满足CNCF标准的IDC自建的Kubernetes集群。 统一管理三方集群:三方公有云上提供的Kubernetes集群产品,如阿里云(ACK)、腾讯云(TKE)、GCP (GKE)、AWS(EKS)等。 产品优势 云上云上集群统一管理,通过天翼云容器管理控制台,赋予云上云下集群可观测、权限管理等能力。 云下集群赋予云上能力,如通过接入云上ECS、虚拟节点等扩展云下集群算力。 产品架构 操作步骤 1. 创建注册集群并接入Kubernetes集群,详细步骤见 本地注册集群、三方云注册集群。 2. 集群接入后,使用天翼云容器管理控制台对接入集群进行管理,如 Kubernetes RBAC授权、运维等。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        最佳实践
        统一管理任意环境下的Kubernetes集群
      • 注册配置中心
        本章节介绍注册配置中心RCC子产品应用场景 分布式协同 提供分布式系统中服务注册发现及协同调度能力,确保系统状态一致性并完成预期的功能请求,包括状态管理,分布式锁,服务发现,监控检查等。助力用户轻松构建稳定、高可用的分布式服务。 分布式系统中一个绕不过去的问题是如何协同系统中各个分布的模块,确保系统状态的一致性并完成预期的功能,包括状态管理,分布式锁,服务发现等;将分布式系统这一核心必备能力抽象成为组件对外提供服务,使得开发者不用过多了解分布式细节,即可基于这列组件轻松构建稳定、高可用的分布式服务。 分布式配置管理 提供分布式应用配置集中管理能力,包括配置热生效、配置历史查看、配置数据回滚等,支持主流的Nacos 配置中心,支持原生数据无缝迁移,帮助您高效解决分布式环境下多应用的配置管理问题。 在分布式服务架构中,当系统从一个单体应用,被拆分成分布式系统上一个个服务节点后,配置文件也必须跟着迁移分割,这样配置就分散了,不仅如此,分散中还包含着冗余,而配置中心将配置从各应用中剥离出来,对配置进行统一管理,应用自身不需要自己去管理配置。
        来自:
        帮助文档
        微服务引擎
        产品简介
        应用场景
        注册配置中心
      • RCC停止服务(1)
        本章节介绍注册配置中心服务不可用故障演练。 背景介绍 注册配置中心(RCC)是分布式系统核心基础设施,负责服务注册、配置管理与服务发现,为分布式应用提供统一配置分发及服务治理能力。节点宕机、进程异常等多种因素易导致RCC集群不可用,进而引发应用注册失败、服务调用中断甚至集群业务瘫痪。本演练可验证系统对注册配置中心的应急与恢复能力,优化故障处理流程,提升分布式系统稳定性。 基本原理 通过调用RCC停止集群OpenAPI,模拟RCC集群服务故障。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择注册配置中心,然后单击添加资源。 3. 在弹出的对话框中,勾选目标注册配置中心实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择注册配置中心。 添加实例 :单击添加实例 ,勾选上一步中添加的注册配置中心实例。 添加故障动作 :单击立即添加 ,在列表中选择停止服务动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。
        来自:
      • 备案准备工作
        为节约备案时间,建议您提前准备好符合备案条件的天翼云账号、服务器、域名,和相关备案资料 准备天翼云账号: 申请备案前建议您提前注册天翼云账号,天翼云账号支持在PC端或天翼云App上申请备案。一个账号只能备案一个主体(公司或个人)信息,但是一个主体下可以备案多个网站/APP。 准备服务器: 备案前需要至少有一台符合以下要求的天翼云服务器: 1.服务器为天翼云中国(港澳台地区除外)节点的服务器; 2.服务器购买时长需大于3个月; 3.服务器需绑定公网IP。 准备域名: 备案的域名及域名注册商需满足以下要求: 1.备案的域名要求在有效期内; 2.备案的域名在实名认证完成后需要约三天时间将实名认证信息上报权威库。建议您在实名认证完成后等待三天,待实名信息入库后再申请ICP备案,否则可能存在管局审核时核验不到域名实名信息而退单的风险; 3.申请备案时填报的备案主体信息应与域名所有者实名认证信息一致; 4.备案的域名要求为国家批复的域名。可登录 5.境外注册商所注册的域名不能直接备案,可转入境内有资质的域名商后再申请ICP备案。
        来自:
        帮助文档
        备案指引
        备案准备
        备案准备工作
      • 设置容器生命周期
        本节介绍了设置容器生命周期的用户指南。 操作情境概述 在创建容器云引擎中创建负载时,用户可以设定回调函数,这些函数将在容器的生命周期的关键节点被触发。例如,当需要在容器停止执行前完成某些操作时,用户可以注册相应的钩子函数来实现。 命令类型 在创建负载时有3种命令启动方式 启动命令:在容器启动时,默认会执行镜像内置的命令。但用户可以通过特定设置来运行自定义的命令或覆盖镜像的默认命令。 Docker镜像包含了用于描述镜像信息的元数据,其中包括默认的启动命令(ENTRYPOINT)和参数(CMD)。当用户在创建工作负载时指定了容器的运行命令和参数,这些设置将优先于镜像中的默认值被使用。 注意 若需要执行多个命令,建议使用如/bin/sh等shell作为主命令,并将其他命令作为参数传递。 启动后处理:在容器成功启动后,可以执行一系列预设的操作。设置路径为“生命周期管理”下的“启动后处理”选项卡。 停止前处理:在容器即将停止前,执行必要的清理或保存操作。设置路径为“生命周期管理”下的“停止前处理”选项卡。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        设置容器生命周期
      • 查看监控指标
        本节介绍了GeminiDB Redis的查看监控指标操作场景及操作步骤。 操作场景 云监控可以对GeminiDB Redis的运行状态进行日常监控。您可以通过管理控制台,直观地查看GeminiDB Redis的各项监控指标。 由于监控数据的获取与传输会花费一定时间,因此,云监控显示的是当前时间5~10分钟前的监控状态。如果您的实例刚刚创建完成,请等待5~10分钟后查看监控数据。 前提条件 实例正常运行。 故障或已删除的实例,无法在云监控中查看其监控指标。当实例再次启动或恢复后,即可正常查看。 实例已正常运行一段时间(约10分钟)。 对于新创建的实例,需要等待一段时间,才能查看上报的监控数据和监控视图。 1、登录云数据库GeminiDB控制台。 2、在“实例管理”页面,单击目标实例名称,进入实例的“基本信息”页面。 3、在“基本信息”页面的“节点信息”区域,单击操作列的“查看监控指标”,跳转到云监控页面。 4、在监控指标页面,您可以通过选择时长,查看对应时间的监控数据。 当前页支持查看近1小时、近3小时和近12小时的监控数据。 如需查看更长时间范围监控曲线,请在监控视图中单击 进入大图模式查看。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        监控与告警
        查看监控指标
      • 边缘接入服务介绍
        本文介绍什么是边缘接入服务。 边缘接入服务介绍 边缘接入服务依托天翼云CDN平台的优质节点及线路,通过智能调度、传输优化等核心技术,为基于TCP/UDP协议的各类应用提供性能优化服务,包括企业办公系统(如OA、邮箱等)、业务系统(如ERP、DMS等)、金融及游戏行业的各种动态指令及接口等,可有效解决公网链路抖动、拥塞等问题,大幅提升办公系统、业务系统、生产系统等各类应用的访问速度与稳定性。 功能介绍 边缘接入服务的功能及其详细介绍,详见:功能概述。 使用限制 客户业务接入边缘接入服务的基本条件,详见:使用限制。 应用场景 办公应用加速 常见的OA、邮箱、Salesforce等办公应用,实测常规动态传输性能平均提升100%。 支持多种视频会议架构,保障音视频画质清晰流畅,不掉线,性能提升510倍。 保障多分支机构、移动办公人员通过VPN访问内网的稳定性,如SSL VPN。 业务系统加速 适用于制造业日常使用的ERP、CRM、SCM、DMS等业务系统。 保障常见库存、订单、客户数据的及时同步,显著提高效率及产能。 金融类加速 适用于手机银行、网银支付、在线交易、股票买卖等场景,大大降低交易延时。 可实现WebSocket协议的应用加速,如行情数据推送等。
        来自:
        帮助文档
        边缘安全加速平台
        边缘接入
        边缘接入服务介绍
      • 分区动态处理
        操作场景 分布式消息服务 Kafka 版支持分区动态处理功能,当实例集群出现分区不平衡的情况时,可以手动进行分区均衡,重新分配分区在节点上的分布情况。也可以选择自动分区均衡 ,Kafka 会根据您设定的策略自动检查 Topic 的分区分布,自动分析选择业务低峰期发起分区均衡。 前提条件 自动分区均衡仅支持集群版实例。 自动分区均衡和Topic管理页面的分区平衡任务不能同时运行。 操作影响 分区均衡操作时可能引起流量抖动以及请求超时情况,建议在业务低峰期操作。 分区平衡后Topic的metadata会改变,如果生产者不支持重试机制,会有少量的请求失败,导致部分消息生产失败。 操作步骤 1. 进入Kafka实例管理控制台。 2. 在左侧菜单栏中选择智能运维中的弹性伸缩,进入弹性伸缩功能页面。 3. 在弹性伸缩页面的分区动态处理模块,可以选择开启或关闭自动化分区均衡。 4. 自动分区均衡支持两种策略,通过”配置“按钮可选择自定义时间或自动分析选择业务低峰期。 5. 单击”确定“,完成配置,再点击状态开关进行开启即可。 6. 可通过”查看“按钮或者直接进入智能运维中的后台任务管理功能页面查看自动化分区均衡调整记录详情。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        智能运维
        弹性伸缩
        分区动态处理
      • 产品优势
        本章节为您介绍数据安全专区的产品优势。 多维度的数据资产快速梳理 快速识别网络中的个人信息、重要数据、行业敏感数据,掌握数据的分布情况、存储方式和数据量级,生成数据保护对象清单 。 采用自动发现、人工录入等方式,对数据库、数据表、数据字段进行管理,支持对敏感数据分类分级自动梳理 。 采用自动发现、人工录入等方式,对应用系统资产、API接口进行管理,并形成数据链路刻画 。 采用自动发现、人工录入等方式,对网络主机资产信息进行统一梳理 。 丰富的数据源支持 系统适配关系型数据库、国产数据库、MPP数据库、数仓、大数据组件等合计超40+数据源类型,同时支持word、pdf、txt等非结构化数据的分类分级。 基于业务系统的数据流动全链路监控 围绕业务场景开展的数据流动安全监管,将业务场景分解到业务系统上的数据流和数据节点进行细粒度的监控,实现基于业务规则的数据流动安全监管。包括全局性敏感数据的违规访问、调用、泄露等;基于业务特性的数据异常情况监控。 智能灵活的分析建模引擎 规则引擎内置 200+ 模型规则,涵盖常见安全攻击行为特征;支持规则模型、统计模型、关联模型以及智能AI模型,并可通过图形化方式进行配置编排,可通过不同规则组合以满足复杂的告警场景需求。
        来自:
        帮助文档
        数据安全专区
        产品介绍
        产品优势
      • 查看容器详情
        本文介绍如何查看容器详情,及容器详情页面的详细说明信息。 进入容器详情页面 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“容器安全 > 实时检测”,进入容器实时检测页面。 3. 单击容器列表中的容器名称,可以查看容器的基本信息、进程、端口、数据挂载、软件、配置等信息。 查看容器基本信息 容器信息页面展示了容器的基本信息、运行情况、安全状态等信息。 查看容器审计 容器审计页面统计展示了正常事件和异常事件的数量随时间变化的折线图。 查看容器进程信息 进程信息页面展示了容器内的进程名称、父进程ID、进程ID、启动用户、运行时间、更新时间等信息。 查看容器端口信息 端口页面展示了容器的端口信息,包括容器端口、进程、节点端口、IPv4、IPv6、绑定IP、协议信息。 查看数据挂载 数据挂载页面展示了容器的数据挂载信息,包括数据卷名、源路径、目标路径、数据挂载方式、数据加载方式。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        容器安全
        查看容器详情
      • 桶清单
        介绍配置桶清单具体步骤。 功能说明 媒体存储提供桶清单功能,可以通过桶清单获得Bucket中指定对象的数量、大小、存储类型、最新更新时间以及ETag等。配置清单规则后,媒体存储将根据规则,每周生成桶清单文件。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 前提条件 已完成新建Bucket操作,具体可参考 新建Bucket 。 使用说明 每个存储桶最多设置10个清单。 生成周期:用户设置完成后,根据创建时间,按T+1生成第一份清单报告,T+1+7生成第二份,以此类推。 桶清单配置的源桶和目标桶必须归属同一个帐号、在同一个区域。 桶清单将根据所填前缀筛选对象或者列出所有对象。 更多说明可参考:用户指南基础配置桶清单。 配置清单 配置步骤 1. 登录媒体存储控制台,进入【对象存储Bucket列表】菜单。 2. 选择需要配置桶清单的存储桶,并点击【基础配置】页签。 3. 在【清单设置】模块,点击【添加清单】,对相应桶进行桶清单设置。 4. 在新建清单弹窗填写相关配置,点击【添加】完成操作。
        来自:
        帮助文档
        媒体存储
        控制台指南
        对象存储
        基础配置
        桶清单
      • 客户端不兼容SNI导致访问异常怎么办?
        本文将介绍客户端不兼容SNI导致访问异常怎么办。 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题。而对SSL/TLS协议所作的一个扩展,它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。在接入Web应用防火墙(边缘云版)后,如果您出现部分客户端HTTPS访问异常问题,可能是由于有些客户端版本不支持SNI导致的。当使用不支持SNI的浏览器或客户端访问接入Web应用防火墙(边缘云版)服务的网站时,Web应用防火墙(边缘云版)防护节点不知道客户端请求的是哪个域名,所以无法正确得获取域名对应得证书来跟客户端通讯交互,此时在浏览器上就会出现“服务器证书不可信”的提示。 实际场景中,一般是只有部分旧版的PC浏览器和Android客户端不支持SNI。如果客户端不支持SNI扩展,建议通过以下方式来解决: 建议升级客户端版本,或使用新版本的浏览器访问,比如使用Chrome、Firefox等新版本的浏览器访问。 第三方程序回调的业务场景,如果第三方程序客户端不支持SNI,可建议让其直接请求访问源站IP,绕过Web应用防火墙(边缘云版)。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        常见问题
        故障分析
        客户端不兼容SNI导致访问异常怎么办?
      • 修改集群名称
        DWS集群创建成功后,您可以根据需求,修改集群的名称,支持修改为包含中文字符的集群名称。 操作场景 DWS集群创建成功后,您可以根据需求,修改集群的名称,支持修改为包含中文字符的集群名称。 集群名称修改成功后,当前集群的所有节点名称,也会相应进行修改。 说明 如果当前控制台界面不支持修改集群名称,请联系技术支持人员升级使用。 如果修改集群名称任务失败,不影响集群正常功能,请联系技术支持人员进行恢复。 约束与限制 当集群为“不可用”状态或正在进行其他任务,则不支持修改集群的名称,待集群状态恢复为“可用”或其他任务完成后再进行名称修改操作。 操作步骤 方式一: 1. 登录DWS管理控制台。 2. 在集群列表中单击指定集群名称旁边的修改符号进行修改。 3. 在弹窗中输入新集群名称。 4. 确认无误后,单击“确定”进行集群名称修改。 方式二: 1. 登录DWS管理控制台。 2. 在集群列表中单击指定集群名称。 3. 进入“集群详情”页面,在“基本信息”模块单击集群名称旁边的修改符号进行修改。 4. 确认无误后,单击“确定”下发集群修改任务,待任务完成后,集群名称修改成功。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改集群名称
      • 开启心跳
        LVS的心跳超时时间 RabbitMQ集群实例使用LVS进行负载均衡,如图1所示,单节点实例不涉及LVS。 图1 集群实例的负载均衡 LVS对客户端连接设置了心跳超时时间,默认为90秒。如果客户端在90秒内没有向LVS发送心跳(AMQP心跳帧或消息收发),LVS会主动断开与客户端的连接,此时客户端需要重新连接。 如果存在消息收发时间间隔大于90秒的场景,请在客户端开启心跳并设置小于90秒的心跳超时时间。 客户端如何配置心跳超时时间 在Java客户端配置心跳超时时间。 在创建连接前使用ConnectionFactory setRequestedHeartbeat进行设置,示例如下: ConnectionFactory cf new ConnectionFactory(); // 将心跳超时时间设置为60秒 cf.setRequestedHeartbeat(60); 在.NET客户端配置心跳超时时间,示例如下。 var cf new ConnectionFactory(); // 将心跳超时设置为60秒 cf.RequestedHeartbeat TimeSpan.FromSeconds(60); 在Python pika客户端配置心跳超时时间,示例如下。 设置心跳时间为60秒 params pika.ConnectionParameters(host'host', heartbeat60, credentialspika.PlainCredentials('username', 'passwd')) connection pika.BlockingConnection(params) while True: channel.basicpublish(exchange'', routingkey'hello', body'Hello World!') print(" [x] Sent 'Hello World!'") 生产者需要使用connection.sleep()才能触发心跳,使用time.sleep()不会触发心跳 connection.sleep(200)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        开启心跳
      • ALM-12033 慢盘故障
        本章节主要介绍ALM12033 慢盘故障。 告警解释 系统每3秒执行一次iostat命令,监控磁盘I/O的系统指标,如果在300s内,svctm大于100ms且大于svctmaverage值的1.5倍,则被认为是一个慢周期。若300s内慢周期的数量大于50%,则认为磁盘有问题,系统上报告警。 说明 svctmaverage的值为当前节点中所有磁盘svctm的均值。 更换磁盘后,告警自动恢复。 当前慢盘故障告警的检查原理为: 在Linux平台上判断IO是否存在问题,输入命令 iostat x t 1 ,观察下几个值(如图所示红色框中的部分): %iowait:该值表示CPU等待IO的时间占整个CPU周期的百分比,如果该值超过50%,或者明显大于%system、%user以及%idle,这表示IO可能存在问题。 await:该值表示该磁盘IO等待时间+IO服务时间的值,该值一般不超过20,其它DataNode数据盘可以稍高,但是不超过40。 svctm:该值表示该磁盘IO服务时间。 %util:该值表示磁盘繁忙程度,一般该值超过80%表示该磁盘可能处于繁忙状态。 如果%util大于10,并且svctm大于100,则记录,如果六十次里面有三十次都满足该条件,则发送慢盘故障。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12033 慢盘故障
      • 加固LDAP
        本章主要介绍翼MapReduce的加固LDAP功能。 配置LDAP防火墙策略 在双平面组网的集群中,由于LDAP部署在业务平面中,为保证LDAP数据安全,建议通过配置整个集群对外的防火墙策略,关闭LDAP相关端口。 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务 > LdapServer > 配置”。 3.查看“LDAPSERVERPORT”参数值,即为LdapServer的服务端口。 4.根据客户的实际防火墙环境,配置整个集群对外的防火墙策略,将该端口关闭,以保证数据安全。 开启LDAP审计日志输出 用户可以通过设置LDAP服务的审计日志输出级别,将审计内容输出至系统日志信息中(如“/var/log/messages”),用于查看用户的活动信息及操作指令信息。 说明 LDAP的审计日志开启后,会产生大量日志信息,严重影响集群性能,请谨慎开启。 1.登录任一LdapServer节点。 2.执行以下命令,编辑“slapd.conf.consumer”文件,将“loglevel”的值设置为“256”(loglevel定义可以在OS上使用man slapd.conf命令查看)。 cd ${BIGDATAHOME}/FusionInsightBASE8.1.0.1/install/FusionInsightldapserver2.7.0/ldapserver/local/template vi slapd.conf.consumer ... pidfile [PIDFILESLAPDPID] argsfile [PIDFILESLAPDARGS] loglevel 256 ... 3.登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > LdapServer > 更多 > 重启服务”,验证当前用户身份后重启服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        加固LDAP
      • 从零开始使用Kerberos认证集群
        前提条件 已编译好待运行的程序及对应的数据文件,如hiveexamples1.0.jar、inputdata1.txt和inputdata2.txt。 操作步骤 1.采用远程登录软件(比如:MobaXterm)通过ssh登录(使用集群弹性IP登录)到安全集群的master节点。 2.登录成功后分别执行下列命令,在/opt/Bigdata/client目录下创建test文件夹,在test目录下创建conf文件夹: cd /opt/Bigdata/client mkdir test cd test mkdir conf 3.使用上传工具(比如:WinScp)将样FemaleInfoCollection.jar、inputdata1.txt和inputdata2.txt复制到test目录下,将“创建角色和用户”中的步骤5获得的keytab文件和krb5.conf文件复制到conf目录。 4.执行如下命令配置环境变量并认证已创建用户,例如test。 cd /opt/Bigdata/client source bigdataenv export YARNUSERCLASSPATH/opt/Bigdata/client/test/conf/ kinit test 然后按照提示输入密码,无异常提示返回,则完成了用户的kerberos认证。 5.执行如下命令运行程序: chmod +x /opt/hiveexamples R cd /opt/hiveexamples java cp .:hiveexamples1.0.jar:/opt/hiveexamples/conf:/opt/Bigdata/client/Hive/Beeline/lib/:/opt/Bigdata/client/HDFS/hadoop/lib/ com.xxxx.bigdata.hive.example.ExampleMain 6.程序运行成功后,会显示如下: 详见下图: 程序运行的结果
        来自:
        帮助文档
        翼MapReduce
        快速入门
        从零开始使用Kerberos认证集群
      • 多台云主机实例批量挂载同一文件系统
        本文介绍多台云主机实例批量挂载同一文件系统的操作方法。 操作场景 海量文件服务适用于共享访问的场景,当业务中需要使用多台云主机访问同一文件系统时,您可以通过我们提供的脚本,填写配置文件、执行脚本命令,实现多台云主机批量挂载同一文件系统,减少操作时间,提高工作效率。 注意 执行批量挂载的云主机实例需要与文件系统归属于同一资源池的同一VPC下。 目前仅支持Linux操作系统的云主机,请参考使用限制。 仅支持root账户进行批量挂载操作。 务必按照本文中要求的固定格式填写需要执行批量挂载的云主机的相关信息。 请保证本文中创建的inventory、autobatchmount.sh文件与mountnfs.yml文件在同一目录下,否则会导致挂载失败。 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算>弹性云主机”,进入弹性云主机控制台页面,找到即将执行批量挂载操作的任何一台云主机。 3. 以root用户登录该弹性云主机,登录方法参考登录Linux弹性云主机。 4. 创建并填写配置文件inventory。 1)在Linux vi命令行工具中依次执行以下命令创建配置文件inventory并打开。 plaintext touch inventory plaintext vi inventory 2)将按照下述格式填写的内容复制到配置文件inventory中,保存并退出。需要将各参数替换成相应的实际值,各参数说明见下方表格。配置文件内容可在Windows记事本中或者Linux vi命令实现编辑,供后续使用。复制完成后输入 :wq保存并退出。 plaintext [all:vars] sharepath挂载地址 [targethost] 弹性IP passwdroot用户密码 localpath本地挂载路径 弹性IP passwdroot用户密码 localpath本地挂载路径 弹性IP passwdroot用户密码 localpath本地挂载路径 …… 参数 说明 云主机弹性IP 在云主机详情页中“弹性IP”页签获取该云主机公网IP的IP地址。 root用户密码 root用户密码。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,本操作中将通过脚本自动创建,无须额外创建。 挂载地址 可在文件系统详情页获取。 5. 创建批量挂载脚本autobatchmount.sh。 1)创建脚本文件,并打开: plaintext touch autobatchmount.sh plaintext vi autobatchmount.sh 2)将下列内容复制到挂载脚本中,保存退出 (:wq): plaintext
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        挂载访问
        使用弹性云主机挂载文件系统
        多台云主机实例批量挂载同一文件系统
      • 入门指引
        当生产站点因为不可抗力因素(比如火灾、地震)或者设备故障(软、硬件破坏)导致应用在短时间内无法恢复时,异步复制功能可提供服务器级容灾保护。本章节主要介绍通过简单的配置,即可在容灾站点迅速恢复业务。 异步复制流程如图所示: 1. 注册天翼云,为账户充值等,请参见注册天翼云账号章节。 2. 搭建云上容灾专有网络。根据规划的容灾方案,在云上创建用于容灾的VPC和子网。 3. 创建站点复制对。 1. IDC上云:选择容灾站点的区域和可用区,将本地数据中心和创建的云上容灾网络进行关联,建立本地生产站点和云上容灾站点的复制关系。选择“IDC上云”类型时,仅需要配置容灾站点的区域和可用区信息即可。 2. 跨区域:选择生产站点的区域和可用区,以及容灾站点的区域和可用区,将生产站点和容灾站点网络进行关联,建立生产站点和容灾站点的复制关系。选择“跨区域”类型时,生产站点和容灾站点选择不同区域,生产站点和容灾站点均需配置区域和可用区。 3. 跨可用区:选择生产站点可用区和容灾站点的可用区,将生产站点和容灾站点网络进行关联,建立生产站点和容灾站点的复制关系。选择“跨可用区”类型时,生产站点和容灾站点选择同一区域,生产站点和容灾站点只需分别配置可用区。 4. 部署云容灾网关。云容灾网关将生产站点所有被容灾的服务器上的数据进行汇聚和重删压缩加密,并实时同步到容灾站点。 1. IDC上云:系统根据创建的站点复制对信息生成云容灾网关软件,从控制台下载并在本地机房中部署云容灾网关。 2. 跨区域和跨可用区:根据控制台提供的命令获取云容灾网关软件包,并在生产站点部署云容灾网关。 5. 下载并安装代理客户端。代理客户端将所在服务器上的数据实时传输到云容灾网关。 1. IDC上云:根据被容灾服务器的操作系统版本,从控制台下载并在需要保护的生产站点服务器上安装代理客户端。 2. 跨区域和跨可用区:选择被容灾服务器的操作系统和版本,并根据控制台提供的命令获取代理客户端软件包。 6. 创建保护实例。 保护实例是一对拥有复制关系的服务器。系统会自动识别已安装代理客户端的生产站点服务器,选择需要进行容灾的生产站点服务器为其创建保护实例。保护实例创建成功后会自动开启保护,进行数据同步。
        来自:
        帮助文档
        存储容灾服务
        快速入门
        入门指引
      • 利用弹性伸缩为突发业务创建低成本业务集群
        创建包年包月弹性云主机实例 为本实践的业务集群创建能够满足日常业务需求的包年包月低成本云主机实例。 1. 登录控制中心。 2. 单击控制中心左上角的,选择弹性伸缩组所在地域。 3. 单击“计算>弹性云主机”,进入弹性云主机管理控制台。 4. 在右上角点击“创建云主机”按钮,进入到弹性云主机创建页面。 5. 在弹性云主机创建页面,完成云主机参数配置,具体参数说明可参见创建云主机。创建成功之后如图: 注意 付费模式请设置“包年包月”。 创建伸缩组并添加云主机实例 为低成本业务集群创建伸缩组,并将创建好的云主机实例添加至此伸缩组内,来满足业务的日常访问需求。 1. 登录控制中心。 2. 单击控制中心左上角的,选择弹性伸缩组所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 5. 在配置页面完成伸缩组的配置,具体参数配置可参见创建伸缩组。以下为本实践中专有的属性值设置说明: 伸缩组的虚拟私有云(VPC)需要与已创建的弹性云主机保持一致。 伸缩组的镜像需要与已创建的弹性云主机保持一致。 最小实例数设置为0。 根据业务需要,绑定业务模块使用的负载均衡器。 实例移除策略选择较晚创建的实例。 伸缩配置选择现在创建,根据业务需要选择云主机实例的规格和存储容量。 根据业务需要配置弹性IP和密码。 6. 在完成伸缩组与伸缩配置的设置后,点击“立即创建”,即可创建伸缩组成功,创建成功如图所示: 7. 伸缩组创建成功之后,进入到伸缩组详情页面,将步骤一中创建包年包月弹性云主机添加至伸缩组内,用于日常业务需求的满足。具体操作步骤请参见将实例移入伸缩组。添加成功之后如图: 8. 将实例移入伸缩组后,为防止后续实例移除时将此实例移除,为此云主机实例开启保护状态,具体操作步骤请参见实例保护。
        来自:
        帮助文档
        弹性伸缩服务 AS
        最佳实践
        利用弹性伸缩为突发业务创建低成本业务集群
      • 产品功能
        功能 功能描述 企业路由器 您可以将企业路由器看作一个支持路由学习的高性能集中路由器,创建企业路由器时,您可以设置部署区域、可用区、名称等参数。 企业路由器创建完成后,您可以根据业务使用情况灵活调整部分参数。 连接 为企业路由器添加网络实例对应的连接,即表示将网络实例接入企业路由器中。 路由表 路由表是企业路由器发送报文的依据,包含连接的关联关系、传播关系以及路由信息。 一个企业路由器可以拥有多个路由表,您可以将连接关联至不同的路由表,从而实现网络实例的灵活互通或者隔离。 关联 关联是将连接关联至ER路由表中,您可以通过以下方法创建关联: 手动创建:选择任意路由表,并在路由表中为连接创建关联。 自动创建:开启“默认路由表关联”功能,指定默认路由表,系统会自动为连接在默认路由表中创建关联。 传播 传播是企业路由器和连接的路由学习关系,您可以通过以下方法创建传播: 手动创建:选择任意路由表,并在路由表中为连接创建传播。 自动创建:开启“默认路由表传播”功能,指定默认路由表,系统会自动为连接在默认路由表中创建传播。 路由 路由是目的地址、下一跳以及路由类型等信息组成。路由分为两种: 自动学习的传播路由。 手动添加的静态路由。 企业路由器支持IPv4和IPv6路由。 共享 所有者可以将自己的企业路由器同时共享给多个其他帐号,称为接受者。 接受者可以在共享企业路由器中添加连接,将自己名下的网络实例加入该企业路由器中,实现多个帐号内的网络实例接入同一个企业路由器构建组网的需求。 对于“虚拟私有云(VPC)”连接,通过共享功能,可以在同一个企业路由器中接入不同帐号下的虚拟私有云,构建云上同区域组网。 流日志 通过流日志功能可以实时记录企业路由器中连接的流量日志信息。通过这些日志信息,您可以监控连接的网络流量、进行网络攻击分析等,帮助您实现高效的网络运维。 监控 通过云监控服务,您可以监控企业路由器实例以及企业路由器连接的网络情况。 审计 通过云审计服务,您可以记录与企业路由器相关的操作事件,便于日后的查询、审计和回溯。 权限 针对位于云上的企业路由器资源,您可以通过IAM进行精细的权限管理,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,从而实现资源的安全管控。 标签 标签用于标识云资源,可通过标签实现对云资源的分类和搜索。你可以为企业路由器和路由表添加标签。 配额 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少个企业路由器、每个企业路由器添加多少个连接、每个路由表可以添加多少条路由等。
        来自:
        帮助文档
        企业路由器
        产品介绍
        产品功能
      • 认证授权
        本文为您介绍分布式消息服务MQTT的操作指南认证授权。 创建用户名和密码 终端设备连接MQTT队列需要先创建用户密码。 1、 天翼云官网点击控制中心,选择产品分布式消息服务MQTT。 2、 登录分布式消息服务MQTT控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入认证授权菜单,点击【新增】按钮,在弹出框输入认证用户名、用户密码、确认密码等信息。 主题授权 对用户名进行主题授权,客户端方可正常收发。 1、 选择需要授权的用户,点击【授权】按钮。 2、 在弹出框填写已创建的主题名称,主题权限包含3种:pub、sub、pubsub,支持通配符,代表所有主题。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        认证授权
      • 产品应用场景
        物联网 随着物联网和工业4.0 到来,几乎所有设备都携带传感器并联网,需支持大规模的终端设备追踪与管理、海量数据存储和实时分析处理。天翼云数据库支持丰富的数据类型,其高可用、弹性扩展、实时分析和查询统计能力,都可为 IoT 提供可靠的数据存储、检索和分析。此外,天翼云遍布全国的资源池能为用户提供本地化资源,极大地减少网络延时,提高物联网响应效率。 SaaS类 软件即服务(SaaS)行业通常需要使用数据库来存储、 管理和处理大量的数据,这些数据可能包括用户信息、应用程序配置、交易记录、日志等。天翼云云数据库可以提供结构化的数据存储,使得数据可以被组织、检索和更新,助力客户全面高效地管理用户信息、应用程序数据以及其他相关数据。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品应用场景
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 连接集群
        本章节主要介绍数据仓库服务如何连接集群。 操作场景 您在创建好数据仓库集群,开始使用数据库服务前,需要使用数据库客户端连接到DWS 集群中的数据库。本示例将使用Data Studio客户端工具通过公网地址连接DWS集群中的数据库。您也可以使用其他SQL客户端连接集群,更多连接方式请参见 连接集群的方式。 1.获取所要连接的数据库名称、用户名和密码。 首次使用客户端连接集群时,您需使用创建集群时设置的数据库管理员用户和密码连接到默认数据库“gaussdb”。 2.获取集群公网访问地址:通过集群公网访问地址连接数据库。 3.使用Data Studio连接到集群数据库:下载配置Data Studio客户端并连接集群数据库。 获取集群公网访问地址 1.登录DWS 管理控制台。 2.在左侧导航栏中,单击“集群管理”。 3.在集群列表中,选中已创建集群(如dwsdemo),单击“集群名称”前面的向下展开按钮,获取并保存公网访问地址。 该公网访问地址将在使用Data Studio连接到集群数据库时使用。 使用Data Studio连接到集群数据库 1.DWS 提供了基于Windows平台的Data Studio图形界面客户端,该工具依赖JDK,请先在客户端主机上安装Java 1.8.0141或以上版本的JDK。 在Windows操作系统中,您可以访问JDK官方网站,下载符合操作系统版本的JDK,并根据指导进行安装。 2.登录DWS 管理控制台。 3.单击“连接管理”。 4.在“下载客户端和驱动”页面,下载“Data Studio图形界面客户端”。 请根据操作系统类型,选择“Windows x86”或“Windows x64”,再单击“下载”,可以下载与现有集群版本匹配的Data Studio工具。 如果同时拥有不同版本的集群,单击“下载”时会下载与集群最低版本相对应的Data Studio工具。如果当前没有集群,单击“下载”时将下载到低版本的Data Studio工具。DWS 集群可向下兼容低版本的Data Studio工具。 单击“历史版本”可根据集群版本下载相应版本的Data Studio工具,建议按集群版本下载配套的工具。 5.解压下载的客户端软件包(32位或64位)到需要安装的路径。 6.打开安装目录,双击Data Studio.exe,启动Data Studio客户端,如下图所示。 7.在主菜单中选择 “文件>新建连接” ,如下图所示。 8.在弹出的“新建/选择数据库连接”页面中,如下图所示,输入连接参数。 字段名称 说明 举例 数据库类型 选择“GaussDB A” GaussDB A 名称 连接名称。 dwsdemo 主机名 所要连接的集群IP地址(IPv4)或域名。 端口号 数据库端口。 8000 数据库 数据库名称。 gaussdb 用户名 所要连接数据库的用户名。 密码 所要连接数据库的登录密码。 保存密码 在下拉列表中选择: “仅当前会话”:仅在当前会话中保存密码。 “不保存”:不保存密码。 启用SSL 启用时,客户端将使用SSL加密连接方式。SSL连接方式安全性高于普通模式,建议开启。 当“启用SSL”设置为开启时,请先下载SSL证书,并解压证书文件。然后中单击“SSL”页签,设置如下参数: 配置SSL参数 字段名称 说明 客户端SSL证书 选择SSL证书解压目录下的“sslcertclient.crt”文件。 客户端SSL密钥 客户端SSL秘钥只支持PK8格式,请选择SSL证书解压目录下的“sslcertclient.key.pk8”文件。 根证书 当“SSL模式”设为“verifyca”时,必须设置根证书,请选择SSL证书解压目录下的“sslcertcacert.pem”文件。 SSL密码 客户端pk8格式SSL秘钥密码,默认密码为“Gauss@MppDB”。 SSL模式 DWS支持的SSL模式有: require verifyca DWS不支持“verifyfull”模式。 详见下图: 配置SSL参数 9.单击“确定”建立数据库连接。 如果启用了SSL,在弹出的“连接安全告警”提示对话框中单击“继续”。 登录成功后,将弹出“最近登录活动”提示框,表示Data Studio已经连接到数据库。用户即可在Data Studio界面的“SQL终端”窗口中执行SQL语句。 详见下图: 登录成功 欲详细了解Data Studio其他功能的使用方法,请按“F1”查看Data Studio用户手册。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        连接集群
      • 远程桌面链接Windows云主机报错:连接被拒绝未授权此用户
        本文主要介绍远程桌面链接Windows云主机报错:连接被拒绝未授权此用户如何吃处理。 问题描述 远程桌面链接Windows云主机报错:连接被拒绝,因为没有授权此用户账户进行远程登录。 图 连接被拒绝未授权此用户 可能原因 Windows远程桌面相关权限配置异常。 解决方法 步骤 1 检查云主机远程桌面权限配置。 1. 在运行窗口输入secpol.msc,打开组策略编辑器 2. 打开"本地策略 > 用户权限分配 > 允许通过远程桌面服务登录"。 图 本地策略 3. 包含已经被赋予远程登录服务器权限的用户组或单独的用户名。 如果缺少上述配置,请单击“添加用户或组”进行添加。 图 允许通过远程桌面服务登录 步骤 2 检查用户的用户组属性。 1. 在运行窗口输入lusrmgr.msc,打开"本地用户和组"配置管理单元。 2. 双击左侧功能树中的“用户”节点,切换到用户管理。 3. 双击出现访问异常的用户名。 4. 在弹出的用户属性对话框中,切换到“隶属于”选项卡,确保用户隶属于上述步骤2.2已经被赋予远程登录服务器权限的用户组。 图 检查用户的用户组属性
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Windows远程登录报错类
        远程桌面链接Windows云主机报错:连接被拒绝未授权此用户
      • 常见问题
        复制状态变为故障如何处理? 当网络故障复制状态变为“故障”状态时,优先排查文件系统是否均为“已过期”或“已冻结”状态,此情况需要进行续订或者续费,文件系统恢复可用后会复制任务会自动恢复。若不是上述情况,请提交工单联系技术人员协助排查。 目标文件系统可以当作普通文件系统进行挂载和读写吗? 可以。跨域复制功能本身不依赖于计算节点,无须挂载。但是不建议使用目标文件系统进行业务读写,建议通过设置权限组规则的读写权限,将文件系统设置为“只读”,避免写入数据被覆盖。参考设置文件系统为只读。 是否支持向不同存储类型的文件系统进行复制? 不支持。仅支持同种存储类型的文件系统之间进行复制,源和目标同为标准型或同为性能型。 是否支持向不同存储协议的文件系统进行复制? 不支持。仅支持相同协议类型的文件系统间进行复制。 文件系统已使用容量是否会影响已有复制任务? 源文件系统容量写满不影响复制任务进行,若目标文件系统已使用容量达到96%时,复制任务将变为“已暂停”,请关注文件系统容量,即使扩容以保证复制任务正常进行。 文件系统已使用容量是否会影响复制任务创建? 源文件系统已使用容量不影响复制任务创建。建议目标文件系统剩余可用容量不小于源文件系统,当目标文件系统容量使用率大于98%无法创建复制。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        跨域复制
        常见问题
      • 产品特性
        功能模块 功能详情 相关文档 配置管理 支持应用环境配置的集中管理能力,提供配置的“增删改查”、监听查询、历史查询、配置回滚、克隆同步等功能,便于用户把控配置历史轨迹。 实例管理 支持可视化的实例管理,包括接入实例的基础信息查看,实例重启、单节点重启等功能,便于用户统一管理已接入的微服务实例。 服务管理 支持可视化的服务管理,包括服务创建与详细信息查看,服务实例的添加、删除、上下线等,便于用户统一管理已接入的服务。 完全标准的引擎使用 完全符合开源软件的标准使用,客户更改引擎接入点地址后,无需修改任务代码,即可使用。 权限管理 支持安全相关控制管理能力,包括主子账号权限分级、JWT认证、黑白名单访问控制等,帮助用户更好的把握操作安全。 实例监控 支持可视化的引擎监控能力,包括监控大盘,注册中心、配置中心、推送监控等细分项目监控功能,提供包括连接数、TPS和QPS等34项指标的监控。
        来自:
        帮助文档
        微服务引擎
        产品简介
        产品特性
      • 备份类型
        本节介绍了云数据库TaurusDB实例支持的备份类型。 TaurusDB支持数据库实例的备份和恢复,以保证数据可靠性。 TaurusDB支持多种备份类型,默认开启自动备份。详细内容请参考设置自动备份策略。 TaurusDB会定期进行全量备份和增量备份,用户可恢复数据到任意时间节点。详细内容请参考将数据库实例恢复到指定时间点。 备份操作是实例级的,备份范围包含数据库实例中所有数据。 备份的作用 当数据库或表被恶意或误删除,只能依赖于实例的备份保障数据安全。 全量备份 全量备份表示对当前状态下的数据库实例中的所有数据进行一次完整的备份,用户可在任意时刻使用全量备份恢复创建备份时的完整数据。 增量备份 TaurusDB数据库系统自动每5分钟对上一次自动备份或增量备份后更新的数据进行备份。 自动备份 TaurusDB会在数据库实例的备份时段中创建数据库实例的自动备份。系统根据您指定的备份保留期保存数据库实例的自动备份。如果需要,您可以将数据恢复到备份保留期中的任意时间点。 手动备份 您还可以创建手动备份对数据库进行备份,手动备份是由用户启动的数据库实例的全量备份,会一直保存,直到用户手动删除。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据备份
        备份类型
      • 使用Kudu客户端
        本章节主要介绍使用Kudu客户端 。 使用Kudu客户端 Kudu是专为Apache Hadoop平台开发的列式存储管理器。Kudu具有Hadoop生态系统应用程序的共同技术特性:可水平扩展,并支持高可用性操作。 前提条件 已安装集群客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Kudu命令行工具。 直接执行Kudu组件的命令行工具,查看帮助。 kudu h 回显信息如下: Usage: kudu [ ] can be one of the following: cluster Operate on a Kudu cluster diagnose Diagnostic tools for Kudu servers and clusters fs Operate on a local Kudu filesystem hms Operate on remote Hive Metastores localreplica Operate on local tablet replicas via the local filesystem master Operate on a Kudu Master pbc Operate on PBC (protobuf container) files perf Measure the performance of a Kudu cluster remotereplica Operate on remote tablet replicas on a Kudu Tablet Server table Operate on Kudu tables tablet Operate on remote Kudu tablets test Various test actions tserver Operate on a Kudu Tablet Server wal Operate on WAL (writeahead log) files 说明 kudu命令行工具不提供DDL、DML等操作,但提供针对cluster、master、tserver、fs、table等的细化查询功能。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Kudu客户端
      • 使用HBase客户端
        本章节主要介绍使用HBase客户端 。 操作场景 该任务指导用户在运维场景或业务场景中使用HBase客户端。 前提条件 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由系统管理员根据业务需要创建。 “机机”用户需要下载keytab文件,“人机”用户第一次登录时需修改密码。 非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主。 chown user:group R 客户端安装目录 /HBase 使用Hbase客户端(MRS 3.x之前版本) 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令切换到客户端目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建HBase表的权限,具体请参见“用户指南 > 管理现有集群 > MRS多用户权限管理 > 创建角色”配置拥有对应权限的角色,参考“用户指南 > 管理现有集群 > MRS多用户权限管理 > 创建用户”章节,为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 组件业务用户 例如,kinit hbaseuser。 5. 直接执行HBase组件的客户端命令。 hbase shell
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用HBase客户端
      • GetBilledStorageUsage
        名称 描述 是否必须 Action GetBilledStorageUsage。 是 BeginDate 指定查询容量的起始时间,统计数据的起始时间为开始日期(时区为:UTC+8)的00:00。 类型:Time 取值:格式为yyyyMMdd。 是 EndDate 指定查询容量的结束时间,返回数据的时间为当天日期(时区为:UTC+8)的最后一个数据。 类型:Time 取值:格式为yyyyMMdd。EndDate不能早于BeginDate。 说明 FreqbyHour,EndDate与BeginDate的间隔小于7天。 FreqbyDay,EndDate与BeginDate的间隔小于30天。 是 StorageClass 指定查询的存储类型。 类型:Enum 取值: ALL:所有存储类型。 STANDARAD:标准类型。 STANDARADIA:低频访问类型。 默认值为ALL。 否 Bucket 指定查询收费容量的Bucket名称。如果不指定Bucket名称,则表示查询账户下所有Bucket的收费容量之和。 类型:字符串 取值:3~63个字符,只能由小写字母、数字、短横线()和点(.)组成。 否 Region 指定查询收费容量的数据位置。如果不指定数据位置名称,则表示查询账户下所有数据位置的收费容量之和。 类型:字符串 取值: 对象存储网络:ZhengZhou、ShenYang、ChengDu、WuLuMuQi、LanZhou、QingDao、GuiYang、WuHu、WuHan、ShenZhen、SH2、SuZhou。 对象存储网络2:NeiMeng1、HangZhou1。 香港节点:HongKong。 否 Freq 指定返回统计数据的采样粒度。 类型:Enum 取值: byHour:统计数据的采样粒度为1小时。 byDay:统计数据的采样粒度为1天。 默认值为byHour。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        统计分析
        统计API
        GetBilledStorageUsage
      • 1
      • ...
      • 198
      • 199
      • 200
      • 201
      • 202
      • ...
      • 231
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      一站式智算服务平台

      智算一体机

      推荐文档

      《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号

      接口方法

      端口开放情况

      云服务器 ECS 购买须知

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号