爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云对等连接_相关内容
      • 与其他服务依赖关系
        本节主要介绍与其他服务依赖关系 相关服务 交互功能 :: 弹性云主机 云数据库RDS服务配合弹性云主机(Elastic Cloud Server,简称ECS)一起使用,通过内网连接云数据库RDS可以有效地降低应用响应时间、节省公网流量费用。 虚拟私有云 对您的云数据库RDS实例进行网络隔离和访问控制。 对象存储服务 存储云数据库RDS实例的自动和手动备份数据。 云监控服务 云监控服务是一个开放性的监控平台,帮助用户实时监测云数据库RDS资源的动态。云监控服务提供多种告警方式以保证及时预警,为您的服务正常运行保驾护航。 分布式缓存服务 分布式缓存服务通过将热点数据放入缓存,加快用户端的访问速度,提升用户体验。 数据复制服务 使用数据复制服务,实现数据库平滑迁移上云。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        与其他服务依赖关系
      • 挂载访问类
        当CIFS文件系统无法结束进程时,如何清理客户端泄露的句柄? Windows客户端可使用tcpview工具来断开CIFS文件系统的所有连接并释放所有句柄,具体操作如下: 1. 在浏览器中搜索下载并安装tcpview工具。 2. 打开tcpview工具。 3. 在工具中找到与CIFS文件系统相关的连接。 4. 右键点击连接,并选择“Close Connection”来断开连接。Linux客户端可使用killcx工具来断开CIFS文件系统的所有连接,请参考 为什么执行ls命令时,会卡顿或无响应? 问题原因: 默认情况下,ls会遍历目录下的所有文件,获取文件的元数据信息并展现给用户,如果目录过大如包含10万个文件,可能需要发出10万个读指令,需要耗费很长时间。 解决方案: 避免单个目录包含过多的文件,建议单目录下文件数量不超过1万个。 执行ls时采用全路径/usr/bin/ls,不添加colorauto参数,可避免遍历目录下文件,大幅减少读指令数量。
        来自:
        帮助文档
        海量文件服务 OceanFS
        常见问题
        挂载访问类
      • 实用SQL语句
        参数 描述 Processor 处理线程号 Connectionid 后端连接在DBProxy中的id Mysqlid 连接id Host 主机地址 Port 端口号 Localport 本地端口号(服务器端口对应的客户端端口号) Netin (Bytes) 网络输入流量 Netout (Bytes) 网络输出流量 Activetime (Seconds) 连接持续时间 Closed 是否已关闭 Borrowed 是否使用中 Queuedmessages 等待写出的数据包数量 Schema 物理数据库schema Charset 物理数据库字符集 Transactionlevel 事务级别 Autocommit 是否自动提交
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        实用SQL语句
      • 未开启Kerberos认证集群中的默认用户清单
        类别 默认用户 初始密码 描述 OMS数据库 ommdba dbChangeMe@123456 OMS数据库管理员用户,用于创建、启动和停止等维护操作 OMS数据库 omm ChangeMe@123456 OMS数据库数据访问用户 DBService数据库 omm dbserverAdmin@123 DBService组件中GaussDB数据库的管理员用户 DBService数据库 hive HiveUser@ Hive连接DBService数据库用户 DBService数据库 hue HueUser@123 Hue连接DBService数据库用户 DBService数据库 sqoop SqoopUser@ Loader连接DBService数据库的用户
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        未开启Kerberos认证集群中的默认用户清单
      • 使用OpenSearch、自建Filebeat和Dashboards构建网络拨测功能
        本文为您介绍如何通过OpenSearch、自建Filebeat和Dashboards建设网络拨测功能。 使用Opensearch、Filebeat和Dashboard实例搭建拨测功能与数据展示大盘,可以实时地、统一地、方便一键查看多个天翼云多可用区之间或地域之间的网络平均时延。这些数据可以为用户在搭建服务时选择更适合的地域或可用区。 应用场景 本文以OpenSearch、Filebeat和Dashboards为例,搭建一个拨测功能及结果数据的展示大盘。使用Filebeat采集探测机器探测的网络数据,发送到kafka进行多个探测节点的数据汇聚以后存储到OpenSearch中,最后通过Dashboards进行数据的可视化展示。该方案可以用于以下场景: 1. 客户部署业务的服务区选择:云下各地域访问阿里云地域的平均时延。您可以参考性能观测数据,在搭建服务时选择更适合的地域或可用区。 2. 客户物理链路的选择:查看跨地域连接物理链路的时延情况,以便您选择更适合您业务的链路类型。 方案架构 OpenSearch 是一款开源的分布式搜索和分析套件,衍生自 Elasticsearch OSS 7.10.2。可提供轻松执行交互式日志分析、实时应用程序监控、和数据分析等基础能力。 Filebeat归属于Beats家族,使用go语言开发,是一个轻量的日志收集器,因为轻量所以适用于部署在需要收集日志的服务器中 Dashboards为OpenSearch提供一个开源的数据分析和可视化平台,用于对Elasticsearch中的数据进行搜索、查看和交互。
        来自:
      • 下一代防火墙高可用部署方案
        本节介绍下一代防火墙高可用部署方案。 部署方案 防火墙拉起时使用的子网需避免与客户业务网络处于同一子网,建议新起一段管理子网专用于防火墙管理,作为单点跳转使用;trust域所在子网需与客户业务子网互通。 装好NF镜像后,单台需要新增至少3张网卡,一张trust、一张untrust、一张dmz的VRRP心跳口专用网卡,结合初始拉起镜像时自带的主网卡作为M口管理,单台设备共计需要4张网卡(单臂部署则需要三张)。 在虚拟云网络中至少申请三个虚IP作为两设备间的两两网卡绑定的虚拟切换地址。 前提条件 已完成主备NF的部署,收集NF防护云服务器的一些信息;服务器站点以及端口和对应的主机的地址。 部署前检查控制台环境。 1. 确保用户服务器站点没过NF设备前,是能正常访问的。 2. 确保防火墙与客户业务是否处于同一VPC (与客户业务处在不同VPC得做对等连接)。 3. NF设备和服务器安全组是否做了限制。 注意 安全组配置:请确保防火墙VRRP所绑定网卡处于同一安全组,且将VRRP报文通报端口置于放通状态。 网络规划 子网及示例IP规划如下: 网卡 子网 NF1 IP NF2 IP 虚拟IP Manager 192.168.0.0/24 192.168.0.5 192.168.0.9 Turst 192.168.2.0/24 192.168.2.5 192.168.2.6 192.168.2.7 Untrust 192.168.3.0/24 192.168.3.3 192.168.3.4 192.168.3.5 DMZVRRP 192.168.4.0/24 192.168.4.5 192.168.4.6 192.168.4.7
        来自:
      • 同账号不同资源池文件系统之间的迁移
        本文主要介绍基于天翼云弹性文件服务,如何在同账号不同资源池之间实现弹性文件系统之间的数据迁移。 应用场景 本文适用于同账号不同资源池文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。本文以北京5资源池和上海7资源池钟Linux云主机为背景,提供操作指导。 前提条件 已拥有两个NFS协议的弹性文件系统; 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 两个资源池的文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备工作 北京5资源池和上海7资源池分别创建一个文件系统和一台弹性云主机,具体操作请参考创建文件系统、创建弹性云主机。 将不同资源池中的文件系统分别挂载至对应资源池的弹性云主机上,具体操作请参考挂载NFS文件系统到弹性云主机 (Linux)。 操作步骤 不同资源池的两个弹性文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的弹性文件系统分别挂载到对应云主机 将弹性文件系统挂载至云主机中,这里设定上海7为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,北京5为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据 执行以下命令,将上海7弹性文件系统中的数据迁移到北京5中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在上海7中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至北京5的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        同账号不同资源池文件系统之间的迁移
      • 日志中心
        完整名称 短名 说明 NoHealthyUpstream UH 没有健康的上游服务,返回503状态码。 UpstreamConnectionFailure UF 连接上游失败,返回503状态码。 UpstreamOverflow UO 上游服务被熔断,返回503状态码。 NoRouteFound NR 找不到路由或者找不到过滤器链,返回404状态码。 UpstreamRetryLimitExceeded URX 超过上游重试次数。 NoClusterFound NC 找不到上游集群。 DurationTimeout DT 请求超时。 DownstreamConnectionTermination DC 下游连接中断。 FailedLocalHealthCheck LH 集群健康检查失败,返回503状态码。 UpstreamRequestTimeout UT 上游服务超时,返回504状态码。 LocalReset LS 连接被本地重置,返回503状态码。 UpstreamRemoteReset UR 连接被上游重置,返回503状态码。 UpstreamConnectionTermination UC 上游连接中断,返回503状态码。 DelayInjected DI 请求被注入了延迟。 FaultInjected FI 请求被注入了错误。 RateLimited RL 请求被限流,返回429错误码。 UnauthorizedExternalService UAEX 请求被外部授权服务拒绝。 RateLimitServiceError RLSE 由于限流服务报错导致请求被拒绝。 InvalidEnvoyRequestHeaders IH 请求头部异常,返回400错误码。 StreamIdleTimeout SI 请求空闲超时,返回408或者504错误。 DownstreamProtocolError DPE 下游请求HTTP协议错误。 UpstreamProtocolError UPE 上游返回的HTTP协议错误。 UpstreamMaxStreamDurationReached UMSDR 请求上游超时。 ResponseFromCacheFilter RFCF 请求通过envoy缓存插件支撑。 NoFilterConfigFound NFCF 由于没有在时间期限内收到filter配置导致请求被中断。 OverloadManagerTerminated OM 请求被过载管理器中断。 DnsResolutionFailed DF DNS解析失败。 DropOverload DO 请求被上游过载保护机制中断,返回503状态码。
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        日志中心
      • Oracle数据库
        本文主要介绍 Oracle数据库 介绍APM采集的Oracle数据库指标的类别、名称、含义等信息。 表 Oracle数据库采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 是否采集原始sql radio JAVA false 2.2.9 调用链中是否采集上报带有参数内容的原始sql。 表 Oracle数据库指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 数据库连接(connection,以数据库为维度统计sql调用详情。) db 数据库 数据库名称 ENUM LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) createdCount 创建连接数 该数据库创建连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) currentCount 当前连接数 该数据库当前连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) destroyedCount 销毁连接数 该数据库销毁连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) errorCount 错误数 该数据库发生错误数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) invokeCount 调用次数 该数据库的调用次数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) maxTime 最大响应时间 该数据库的最大响应时间 INT MAX 数据库连接(connection,以数据库为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) ranges 自定义响应时间区间 自定义响应时间区间 STRING LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) readRowCount 读取行数 该数据库读取行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) updatedRowCount 更新行数 该数据库更新行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) totalTime 总响应时间 该数据库的总响应时间 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) slowestSql 最慢sql 该数据库在采集周期内的最慢sql STRING LAST 异常(exception,以数据库为维度统计sql调用详情。) causeType 类名 异常发生类 ENUM LAST 异常(exception,以数据库为维度统计sql调用详情。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,以数据库为维度统计sql调用详情。) count 次数 异常次数 INT SUM 异常(exception,以数据库为维度统计sql调用详情。) message 消息 异常消息 STRING LAST 异常(exception,以数据库为维度统计sql调用详情。) sql 异常sql 发生异常的sql STRING LAST 异常(exception,以数据库为维度统计sql调用详情。) stackTrace 异常堆栈 异常产生的堆栈信息 CLOB LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) version 版本 驱动包版本 STRING LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) sql sql唯一标识 sql对应的唯一id,用于告警配置 ENUM LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) concurrentMax 最大并发 该sql的最大并发 INT MAX 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) errorCount 错误次数 该sql的错误次数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) invokeCount 调用次数 该sql的调用次数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) lastError 错误信息 sql发生错误产生的错误信息 STRING LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) maxTime 最大响应时间 该sql的最大响应时间 INT MAX 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) readRowCount 读取行数 该sql的读取行数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) runningCount 正在执行数 采集时间点正在执行的sql数量 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) sqlString sql语句 sql语句 STRING LAST 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) totalTime 总响应时间 该sql的总响应时间 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) updatedRowCount 更新行数 该sql的更新行数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 版本(version,Oracle的包版本信息。) sql监控(sql,以sql为维度统计sql调用详情。) ranges 自定义响应时间区间 自定义响应时间区间 STRING LAST 汇总total(total,sql调用的汇总数据统计。) nvokeCount 调用次数 总调用次数 INT SUM 汇总total(total,sql调用的汇总数据统计。) errorCount 错误次数 总错误次数 INT SUM 汇总total(total,sql调用的汇总数据统计。) readRowCount 读取行数 总读取行数 INT SUM 汇总total(total,sql调用的汇总数据统计。) totalTime 响应时间 总响应时间 INT SUM 汇总total(total,sql调用的汇总数据统计。) updatedRowCount 更新行数 总更新行数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        Oracle数据库
      • 通过psql连接实例
        本文介绍了通过psql公网方式连接RDSPostgreSQL实例。 RDSPostgreSQL支持客户通过PostgreSQL客户端连接实例。 前提条件 1.绑定弹性IP并设置安全组规则 订购并创建弹性公网IP,请参见申请弹性IP。 获取本地设备的IP地址,以便配置安全组使用。 配置安全组规则,将本地设备IP地址及目标实例端口加入安全组允许访问范围中。安全组设置参见添加安全组规则。 2.安装PostgreSQL客户端 请参见数据库基本使用如何安装PostgreSQL客户端。 命令行连接 通过公网连接RDSPostgreSQL实例。以Linux系统为例,可以执行如下命令: psql h p U d 参数说明: :主机IP,即控制台页面的“实例管理”页面,选择您的目标实例后,在详情页中,绑定的弹性公网IP。 :数据库端口,为实例详情页面中的数据库端口。 :用户名,即RDSPostgreSQL数据库帐号(默认管理员帐号为 root)。 :数据库名,即RDSPostgreSQL实例里面的数据库,默认初始化的数据库名是postgres。 示例: psql h xx.xx.xx.xx p xxxx U root –d postgres
        来自:
        帮助文档
        关系数据库PostgreSQL版
        快速入门
        步骤三:连接实例
        通过公网连接实例
        通过psql连接实例
      • 安装客户端(3.x之前版本)
        在集群外节点上安装客户端 1.根据前提条件,创建一个满足要求的弹性云主机。 2.登录MRS Manager页面,具体请参见访问MRSManager(MRS2.x及之前版本),然后选择“服务管理”。 3.单击“下载客户端”。 4.在“客户端类型”选择“完整客户端”。 5.在“下载路径”选择“远端主机”。 6.将“主机IP”设置为ECS的IP地址,设置“主机端口”为“22”,并将“存放路径”设置为“/tmp”。 如果使用SSH登录ECS的默认端口“22”被修改,请将“主机端口”设置为新端口。 “存放路径”最多可以包含256个字符。 7.“登录用户”设置为“root”。 8.在“登录方式”选择“密码”或“SSH私钥”。 密码:输入创建集群时设置的root用户密码。 SSH私钥:选择并上传创建集群时使用的密钥文件。 9.单击“确定”开始生成客户端文件。 若界面显示以下提示信息表示客户端包已经成功保存。单击“关闭”。客户端文件请到下载客户端时设置的远端主机的“存放路径”中获取。 下载客户端文件到远端主机成功。 若界面显示以下提示信息,请检查用户名密码及远端主机的安全组配置,确保用户名密码正确,及远端主机的安全组已增加SSH(22)端口的入方向规则。然后从步骤2执行重新开始下载客户端。 连接到服务器失败,请检查网络连接或参数设置。 说明 生成客户端会占用大量的磁盘IO,不建议在集群处于安装中、启动中、打补丁中等非稳态场景下载客户端。 10.使用VNC方式,登录弹性云主机。参见弹性云主机《用户指南》的远程登录(VNC 方式) 章节 (“实例 > 登录Linux弹性云主机 > 远程登录(VNC方式)”)。 所有镜像均支持Cloudinit特性。Cloudinit预配置的用户名“root”,密码为创建集群时设置的密码。首次登录建议修改。 11.执行ntp时间同步,使集群外节点的时间与MRS集群时间同步。 a.检查安装NTP服务有没有安装,未安装请执行yum install ntp y命令自行安装。 b.执行vim /etc/ntp.conf命令编辑NTP客户端配置文件,并增加MRS集群中Master节点的IP并注释掉其他server的地址。 server master1ip prefer server master2ip 详见下图:增加Master节点的IP c.执行service ntpd stop命令关闭NTP服务。 d.执行如下命令,手动同步一次时间: /usr/sbin/ntpdate192.168.10.8 说明 192.168.10.8为主Master节点的IP地址。 e.执行service ntpd start或systemctl restart ntpd命令启动NTP服务。 f.执行ntpstat命令查看时间同步结果。 12.在弹性云主机,切换到root用户,并将步骤6中“存放路径”中的安装包复制到目录“/opt”,例如“存放路径”设置为“/tmp”时命令如下。 sudo su root cp /tmp/MRSServicesClient.tar /opt 13. 在“/opt”目录执行以下命令,解压压缩包获取校验文件与客户端配置包。 tar xvf MRSServicesClient.tar 14.执行以下命令,校验文件包。 sha256sum c MRSServicesClientConfig.tar.sha256 界面显示如下: MRSServicesClientConfig.tar: OK 15. 执行以下命令,解压“MRSServicesClientConfig.tar”。 tar xvf MRSServicesClientConfig.tar 16. 执行以下命令,安装客户端到新的目录,例如“/opt/Bigdata/client”。安装时自动生成目录。 sh /opt/MRSServicesClientConfig/install.sh /opt/Bigdata/client 查看安装输出信息,如有以下结果表示客户端安装成功: Components client installation is complete. 17. 验证弹性云主机节点是否与集群Master节点的IP是否连通? 例如,执行以下命令:ping Master节点IP地址 是,执行步骤18。 否,检查VPC、安全组是否正确,是否与MRS集群在相同VPC和安全组,然后执行步骤18。 18. 执行以下命令配置环境变量: source /opt/Bigdata/client/bigdataenv 19.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS 集群用户 例如, kinit admin 20. 执行组件的客户端命令。 例如,执行以下命令查看HDFS目录: hdfs dfs ls /
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        安装客户端
        安装客户端(3.x之前版本)
      • 支持的监控指标
        指标 指标名称 含义 取值范围 测量对象和监控对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率,以比率为单位。 0100% 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 01 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds003iops IOPS 该指标用于统计当前实例,单位时间内系统处理的I/O请求数量(平均值)。 ≥ 0 counts/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds004bytesin 网络输入吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds005bytesout 网络输出吞吐量 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以字节/秒为单位。 ≥ 0 bytes/s 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds039diskutil 磁盘利用率 该指标用于统计测量对象的磁盘利用率,以比率为单位。 01 测量对象:弹性云服务器 监控实例类型:PostgreSQL实例 1分钟 rds040transactionlogsusage 事务日志使用量 事务日志所占用的磁盘容量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds041replicationslotusage 复制插槽使用量 复制插槽文件所占磁盘容量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds042databaseconnections 数据库连接数 当前连接到数据库的后端量。 ≥ 0 counts 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds043maximumusedtransactionids 事务最大已使用ID数 事务最大已使用ID。 ≥ 0 counts 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds044transactionlogsgenerations 事务日志生成速率 平均每秒生成的事务日志大小。 ≥ 0 MB/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds045oldestreplicationslotlag 最滞后副本滞后量 多个副本中最滞后副本(依据接收到的WAL数据)滞后量。 ≥ 0 MB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds046replicationlag 复制时延 副本滞后时延。 ≥ 0 ms 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds047disktotalsize 磁盘总大小 该指标用于统计测量对象的磁盘总大小。 40GB~4000GB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds048diskusedsize 磁盘使用量 该指标用于统计测量对象的磁盘使用大小。 0GB~4000GB 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds049diskreadthroughput 硬盘读吞吐量 该指标用于统计每秒从硬盘读取的字节数。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds050diskwritethroughput 硬盘写吞吐量 该指标用于统计每秒写入硬盘的字节数。 ≥ 0 bytes/s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds075avgdisksecperread 硬盘读耗时 该指标用于统计某段时间平均每次读取硬盘所耗时间。 > 0ms 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds052avgdisksecperwrite 硬盘写耗时 该指标用于统计某段时间平均写入硬盘所耗时间。 > 0s 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟 rds053avgdiskqueuelength 磁盘平均队列长度 该指标用于统计等待写入测量对象的进程个数。 ≥ 0 测量对象:数据库 监控实例类型:PostgreSQL实例 1分钟
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        监控
        支持的监控指标
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 文件系统挂载提示“Connection timed out”
        可能原因 原因1:网络状态不稳定。 原因2:网络连接异常。 定位思路 排除网络问题后,重试挂载命令。 解决方法 1)检查网络连接是否正常。正常跳转到步骤2,若不正常,修复网络,网络修复完成后执行步骤2; 2)登录文件系统挂载失败的云主机; 3)重新执行挂载命令,参考挂载至Linux云主机。 mount t nfs o vers3,prototcp,async,nolock,noatime,nodiratime,noresvport,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径
        来自:
        帮助文档
        弹性文件服务 SFS
        故障修复
        文件系统挂载提示“Connection timed out”
      • ECI实例访问对象存储数据
        本文为您介绍如何使用ECI实例访问对象存储数据。 背景信息 天翼云对象存储(CTZOS,Zettabyte Object Storage)是天翼云为客户提供的一种海量、弹性、高可靠、高性价比的存储产品,是专门针对云计算、大数据和非结构化数据的海量存储形态,提供非结构化数据(图片、音视频、文本等格式文件)的无限存储服务。 前期准备 已开通天翼云弹性容器实例服务。 已开通天翼云对象存储(ZOS)服务。 对象存储服务需要满足按量计费模式,已创建Access Key。 对象存储Bucket的存储类型仅支持标准存储和低频存储,不支持归档型存储(归档型不支持POSIX语义)。 操作步骤 天翼云弹性容器实例ECI支持用户通过控制台和OpenAPI等多种方式创建挂载对象存储作为数据卷的ECI实例。下面将介绍在ECI实例中如何访问云硬盘中数据: 1. 打开ECI控制台页面。 2. 点击实例ID进入实例详情页面。 3. 点击“远程连接”,建立一个访问容器的通道。 4. 用户可以通过df h命令查看已挂载的文件系统及挂载目录。如下图所示,我们为ECI实例挂载了一块4G大小的对象存储桶,挂载目录为/zostest。 5. 让我们尝试从/zostest目录下删除名为max.txt的文件,可以发现当我们以“只读”方式挂载时,文件系统不允许该文件被删除。
        来自:
        帮助文档
        弹性容器实例
        最佳实践
        常用数据源对接
        ECI实例访问对象存储数据
      • 产品定义
        调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 通过对请求的源IP地址进行Hash运算,可以将其转化为一个具体的数值。同时,后端主机也会被编号。根据Hash运算的结果,将请求分发到对应编号的后端主机上,从而实现了对不同源IP地址的访问进行负载均衡,同时确保同一个客户端IP的请求始终被派发到相同的主机上。
        来自:
      • 创建WindowsAI云电脑
        本节介绍创建windows云电脑的操作说明。 天翼AI云电脑(政企版)可以通过资源包或单实例方式开通Windows系统的普通AI云电脑和GPUAI云电脑。 如需通过资源包方式开通AI云电脑,请先订购资源包,详见订购资源包。 操作步骤 1.进入“AI云电脑(政企版)”管理控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,点击“创建桌面”,进入“创建桌面”页面; 3.创建方式来源选择“资源包”或“单实例”; 资源包方式开通:管理员可通过已订购资源包,通过资源包的资源分配方式开通AI云电脑,无需单独付费。 单实例方式开通:管理员可以选择AI云电脑配置,直接通过付费完成AI云电脑的开通。 4.选择“Windows”系统类型; 5.选择规格类型“普通AI云电脑”或“GPUAI云电脑”,再根据需求选择AI云电脑规格; 普通AI云电脑:性能强劲,满足企业安全办公、大内存软件运行、多任务处理、数据分析、高效运维等需求。 GPUAI云电脑:满足学校教学, 普通图像办公,高清视频播放等需求。搭配高性能显卡及固态硬盘,具备更全面的图像加速能力,满足企业图形设计、图形渲染、3D制作等需求。 注:仅部分资源池支持开通GPUAI云电脑,实际规格类型以页面显示内容为准。 6.选择AI云电脑的“镜像类型”; 7.选择AI云电脑的“磁盘选择”; 系统盘:普通AI云电脑默认已包含80GB高IO系统盘,GPUAI云电脑默认已包含120GB超高IO系统盘。 数据盘:根据实际情况选择桌面数据盘配置,每台桌面实例最多可添加5块数据盘,每块数据盘最大存储容量为2000GB。 注意 资源包开通的桌面系统盘最高可扩容至200GB,单实例开通的桌面系统盘最高可扩容至500GB。 8.选择AI云电脑的“vpc”和“业务子网”; 注:AI云电脑所选的业务子网需要绑定带宽,桌面才能连接网络。 通过将上网带宽与业务子网建立绑定关系,来控制业务子网下AI云电脑的最终可用带宽。详情可参考管理上网带宽 9.选择账号类型,并填写分配电脑的账号信息; 管理员激活:管理员直接创建的账号,无需激活即可使用。 邮件通知激活:需要发送激活邮件,用户激活后,账号即可使用。 选择已有用户:选择已经存在的用户进行电脑分配。 10.其它电脑实例配置信息,根据需要自行配置; 11.确认相关的配置信息,点击“创建桌面”,即完成电脑开通。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        创建AI云电脑
        创建WindowsAI云电脑
      • 管理配置中心
        参数名称 说明 类型分组 选择新建类型所属的类型分组。 名称 数据类型的名称。只能包含中文、英文字母、数字、左右括号、空格和下划线,且以中文或英文字母开头。 编码 数据类型的编码,必须为数仓支持的类型。只能包含大写英文字母和下划线。 所属域 选择新建类型所属的域。 数仓对应类型 选择新建类型所映射连接的数据类型。 DLI 选择新建类型所映射的DLI连接的数据类型。 DWS 选择新建类型所映射的DWS连接的数据类型。 MRSHIVE 选择新建类型所映射的MRSHIVE连接的数据类型。 POSTGRESQL 选择新建类型所映射的POSTGRESQL连接的数据类型。 是否有拓展 对于某些数据类型,需要设定数据的长度范围时,可以打开“是否有拓展”开关,并配置对应的拓展。 例如高精度数据类型DECIMAL(p,s),需要分别指定小数的最大位数(p)和小数位的数量(s),则数据类型DECIMAL的默认拓展可填写为“(10,2)”,指的是小数点左侧的位数为2,小数点右侧的最大位数为1028;又如数据类型VACHAR也需要指定位数,当默认拓展填写为“10”,指的是最大长度为10字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        准备工作
        管理配置中心
      • 操作类常见问题
        如何进行发送消息的测试? 可以直接在Kafka控制台进行发送消息的测试。在控制台的Topic管理页面,单击目标Topic右侧的生产拨测,进行消息发送测试,以验证集群是否运转正常。 使用客户端发送消息后,如何确定是否发送成功? 如果回调成功则说明消息发送成功。大部分客户端在发送之后,会返回Callback或者Future,如果回调成功,则说明消息发送成功。 此外,还可以在控制台通过以下方式确认消息发送是否正常: 查看“监控信息”,实例消息生产条数。 查看“消息查询”,可按时间查询消息。 发送消息的回调是否会影响发送速度? Java客户端设置回调是否会影响消息发送的速度取决于如下两点: (1)回调的处理耗时:为减少回调的处理耗时,不要过于频繁地在回调做耗时较长的处理。可以积累一定量Ack后再做批量的回调处理,或者在另一个异步的线程去处理,从而不阻塞回调的完成。 (2)max.in.flight.requests.per.connection:该参数指定了生产者在收到服务器响应之前可以发送多少个消息。它的值越高,就会占用越多的内存,不过也会提升吞吐量。 实例支持哪些开源版本? 当前服务端支持的版本为2.3.1和2.8.2。实例创建后,服务端版本不支持升级,不支持定制版本。 如何选择实例硬盘大小? 磁盘大小:流量均值×存储时长×3(备份),建议在迁移上云过程中优化Topic以降低成本。 升级Broker可能产生哪些影响? 升级Broker可能产生消息乱序、客户端连接中断、消息量不均衡等影响。 升级Broker包含以下影响: 升级过程中,会逐个重启云消息队列 Kafka 版集群中所有的Broker。在重启Broker的过程中服务不会中断,但是从每个Broker重启完成之后的5分钟内消费的分区消息可能会发生乱序。 重启过程中已有的客户端连接可能会中断。客户端要有自动重连功能,服务端的其他Broker会自动接替服务。 此外,升级和重启Broker期间,各个分区处理的消息量也会出现一定的不均衡,需要评估一下升级变更对业务可能产生的影响。 升级所有Broker大概需要5分钟~15分钟。如果有多个实例,可以考虑先升级测试集群,验证通过后再升级生产集群。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        操作类常见问题
      • 跨源分析开发方式
        本章节主要介绍跨源分析开发方式 跨源分析 当DLI有访问外部数据源的业务需求时,首先需要通过建立增强型跨源连接,打通DLI与数据源之间的网络,再开发不同的作业访问数据源以实现DLI跨源分析。 本节操作介绍DLI支持的数据源对应的开发方式。 使用须知 Flink作业访问DIS,OBS和SMN数据源,无需创建跨源连接,可以直接访问。 推荐使用增强型跨源连接打通DLI与数据源之间的网络。 DLI支持访问的数据源 下表提供DLI支持的数据源列表,对应的开发参考请参考《数据湖探索SQL语法参考》。 DLI支持的服务数据源 服务名称 Spark SQL作业 Spark jar作业 Flink SQL作业 Flink jar作业 APIG x x √ x CSS √ √ √ √ DCS Redis √ √ √ √ DDS Mongo √ √ √ √ DMS Kafka x x √ √ DWS √ √ √ √ MRS HBase √ √ √ √ MRS Kafka x x √ √ MRS OpenTSDB √ √ x √ RDS MySQL √ √ √ √ RDS PostGre √ √ √ √
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        跨源分析开发方式
      • 控制台操作常见问题
        本文介绍分布式缓存服务Redis版控制台操作常见问题 实例的连接地址是什么? 实例的连接地址为统一的虚拟vip+固定端口,实例经过扩容等变更后,虚IP会自动漂移到新的虚机上,对应用保持地址不变,无需修改应用代码配置。 实例的公网IP如何开通? 当用户需要从公网访问redis的场景时,可以打开实例详情,点击绑定公网IP按钮进行公网IP的绑定与开通。 注意 通过公网连接首先需要申请弹性IP,具体操作请参见 若实例为原生集群架构直连模式,则不支持申请公网连接,无法通过公网连接Redis实例,请通过专有网络连接实例。 实例的到期时间怎么理解? 包周期的实例到期时间为自然月的整数,按需的实例无具体到期时间。 实例的维护时间是什么? 实例的维护时间,您可以根据业务规律,将可维护时间段设置在业务低峰期,以免维护过程中可能对业务造成的影响。 分布式缓存Redis缓存实例创建后,若需要修改实例维护时间窗,可进入管理控制台的实例详情页面进行修改。在该时间窗内服务运维人员可对实例进行维护操作。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        控制台操作
        控制台操作常见问题
      • 计费概述
        本文主要向您介绍VPN连接服务的计费模式、计费项等信息。 计费模式 VPN连接提供按需计费模式,以满足根据业务需求灵活调整资源使用场景下的用户需求。 按需计费是一种后付费模式,即先使用再付费,按照实际使用时长或流量大小计费。 计费项 企业版VPN:计费项由VPN网关费用、VPN连接费用、EIP带宽费用和ER费用(可选)组成。 经典版VPN:公测状态,计费项由网关关联的EIP带宽费用组成。 欠费 在使用VPN时,帐户的可用额度小于待结算的账单,即被判定为帐户欠费。欠费后,可能会影响VPN资源的正常运行,需要及时充值。 停止计费 当VPN资源不再使用时,可以将他们退订或删除,从而避免继续收费。
        来自:
        帮助文档
        VPN连接
        计费说明
        计费概述
      • SMB协议挂载
        本章节介绍SMB协议挂载。 挂载说明 本章节挂载操作适用于天津资源池2区、天津资源池3区。 Linux系统挂载 Linux使用SMB文件资源需要使用CIFS客户端连接。以下是在 centos 7 上安装CIFS客户端并且挂载的过程。操作步骤如下: 1. 安装CIFS客户端:yum install cifsutils。 2. 执行以下命令,在主机上创建挂载目录:mkdir 本地挂载目录。 3. 执行以下命令进行资源连接,具体的挂载命令可在对应的文件系统点击【管理】,从“挂载点命令“字段获取,username与password需要根据具体的SMB用户填写。 4. 在本地挂载目录下可以进行正常的文件操作。 5. 如需卸载,可使用以下命令:sudo umount 本地挂载目录。 Windows系统挂载 通过直连模式使用的CIFS文件资源需要使用Windows系统内置的客户端。以下是在 win10 上连接 CIFS文件资源的示例。操作步骤如下: 1. 出于安全性考虑,直连文件系统使用了非默认的CIFS服务端口,因此需要在您的电脑上进行一些设置方可进行正常的连接与使用。 2. 关闭445端口,services.msc中找到Server的服务,属性禁用,然后停止服务(必要时可重启电脑)。 3. 设置端口转发,打开cmd窗口执行下列命令(其中connectaddress为您服务提供地址):netsh interface portproxy add v4tov4 listenport445 connectaddressxxx.xxx.xxx.xxx connectport"port"。 其中connectaddress是对应文件空间的网关地址,可在对应的文件空间详情中获取,具体可参考:文件空间管理。connectport可查看挂载点信息获取(下图红框内容)。 4. 右键点击"此电脑",选择"映射网络驱动器",在文件夹一项中填写:127.0.0.1媒体存储控制台用户文件系统名称,勾选"登录时重新连接"和"使用其他凭证连接",点击"完成"。 挂载点名称可查看挂载点名称获取(下图红线处内容)。 5. 输入网络凭证窗口,输入创建文件系统时设定的账号和密码,点击"确定"。 6. 连接成功后能够在此电脑网络位置中查看到文件系统。 7. 在连接成功的文件系统中可以进行正常的文件操作。 8. 如需卸载,可在磁盘上点击右键,选择"断开连接"。
        来自:
        帮助文档
        媒体存储
        最佳实践
        文件存储
        SMB协议挂载
      • 新建汇总表
        参数说明 说明 所属主题 单击“选择主题”,选择表所属的主题域分组、主题域和业务对象。 表名称 设置表名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表英文名称 设置表英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 统计维度 选择统计维度。在下拉列表中只会显示来源于衍生指标的统计维度。如果下拉列表中没有统计维度,请参考 数据连接类型 请选择和维度表、事实表相同的数据连接类型。 数据连接 维度建模建议使用统一的数据连接。 数据库 选择数据库。 队列 DLI队列。该参数仅DLI连接类型有效。 Schema DWS或POSTGRESQL的模式。该参数在DWS或POSTGRESQL连接类型有效。 表类型 DWS连接类型的表支持以下表类型: DWSROW:行存表。行存储是指将表按行存储到硬盘分区上。 DWSCOLUMN:列存表。列存储是指将表按列存储到硬盘分区上。 MRSHIVE仅支持HIVETABLE类型。 DISTRIBUTE BY 该参数仅DWS连接类型有效。DWS表当前支持复制(Replication)和散列(Hash)两种分布策略。用户可选取多个字段。 REPLICATION方式:在每一个DN节点上存储一份全量表数据。这种存储方式的优点是每个DN上都有此表的全量数据,在join操作中可以避免数据重分布操作,从而减小网络开销;缺点是每个DN都保留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 HASH方式:采用这种分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Hash分布表,在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。一般情况下大表(1000000条记录以上)定义为Hash表。 资产责任人 在下拉框中选择资产责任人,可以手动输入名字或直接选择已有的责任人。 描述 描述信息。支持的长度为1~600个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据集市建设
        新建汇总表
      • 通过Java语言连接实例
        使用非SSL方式连接实例的Java代码示例 package influxdb; import okhttp3.OkHttpClient; import org.influxdb.InfluxDB; import org.influxdb.InfluxDBFactory; import org.influxdb.dto.Point; import org.influxdb.dto.Query; import org.influxdb.dto.QueryResult; import java.util.concurrent.TimeUnit; public class demoNoSSL { public static void main(String[] args) { OkHttpClient.Builder client new OkHttpClient.Builder() .connectTimeout(10, TimeUnit.SECONDS) .writeTimeout(10, TimeUnit.SECONDS) .readTimeout(10, TimeUnit.SECONDS) .retryOnConnectionFailure(true); final String serverURL " username "root", password "root"; InfluxDB influxdb InfluxDBFactory.connect(serverURL, username, password, client); // Create a database... String databaseName "foo"; influxdb.query(new Query("CREATE DATABASE " + databaseName, databaseName)); influxdb.setDatabase(databaseName); // Write points to influxdb. influxdb.write(Point.measurement("bar") .time(System.currentTimeMillis(), TimeUnit.MILLISECONDS) .tag("location", "chengdu") .addField("temperature", 22) .build()); // Query your data using InfluxQL. QueryResult queryResult influxdb.query(new Query("SELECT FROM bar", databaseName)); // Close it if your application is terminating or you are not using it anymore. influxdb.close(); } } 使用连接池方式连接实例的Java代码示例 package influxdb; import okhttp3.ConnectionPool; import okhttp3.OkHttpClient; import org.influxdb.InfluxDB; import org.influxdb.InfluxDBFactory; import org.influxdb.dto.Point; import org.influxdb.dto.Query; import org.influxdb.dto.QueryResult; import java.util.concurrent.TimeUnit; public class demoConnectionPool { public static void main(String[] args) { // 客户端连接池功能基于OkHttpClient实现 OkHttpClient.Builder client new OkHttpClient().newBuilder(); client.connectTimeout(10, TimeUnit.SECONDS); client.readTimeout(10, TimeUnit.SECONDS); client.writeTimeout(10, TimeUnit.SECONDS); // 建议设为true,屏蔽部分连接错误,并自动进行重试 client.retryOnConnectionFailure(true); // maxIdleConnections指连接池最多维护的未使用的Idle连接数量,默认值是5 // 超过阈值的idle连接会由连接池关闭,关闭后sockets进入TIMEWAIT状态等待系统回收,该参数需根据实际连接数适当调整 client.connectionPool(new ConnectionPool(5, 30, TimeUnit.SECONDS)); final String serverURL " username "root", password "root"; InfluxDB influxdb InfluxDBFactory.connect(serverURL, username, password, client); // Create a database... String databaseName "foo"; influxdb.query(new Query("CREATE DATABASE " + databaseName, databaseName)); influxdb.setDatabase(databaseName); // Write points to influxdb. influxdb.write(Point.measurement("bar") .time(System.currentTimeMillis(), TimeUnit.MILLISECONDS) .tag("location", "chengdu") .addField("temperature", 22) .build()); // Query your data using InfluxQL. QueryResult queryResult influxdb.query(new Query("SELECT FROM bar", databaseName)); // Close it if your application is terminating or you are not using it anymore. influxdb.close(); } }
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        快速入门
        连接实例
        程序代码连接实例
        通过Java语言连接实例
      • 弹性云主机支持的基础监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标,本列监控周期值适用于KVM实例) cpuutil CPU使用率 该指标用于统计弹性云主机的CPU使用率。 单位:百分比 计算公式:单个弹性云主机CPU使用率 / 单个弹性云主机的CPU总核数。 0100% 弹性云主机 5分钟 memutil 内存使用率 该指标用于统计弹性云主机的内存使用率。 如果用户使用的镜像未安装UVP VMTools,则无法获取该监控指标。 单位:百分比 计算公式:该弹性云主机内存使用量 / 该弹性云主机内存总量。 0100% 弹性云主机 5分钟 diskutilinband 磁盘使用率 该指标用于统计弹性云主机的磁盘使用情况。 如果用户使用的镜像未安装UVP VMTools,则无法获取该监控指标。 单位:百分比 计算公式:弹性云主机磁盘使用容量 /弹性云主机磁盘总容量。 0100% 弹性云主机 5分钟 diskreadbytesrate 磁盘读带宽 该指标用于统计每秒从弹性云主机读出数据量。 计算公式:弹性云主机的磁盘读出的字节数之和 / 测量周期。 单位:字节/秒 byteout (rdbytes lastrdbytes) /时间差。 ≥ 0 弹性云主机 5分钟 diskwritebytesrate 磁盘写带宽 该指标用于统计每秒写到弹性云主机的数据量。 单位:字节/秒 计算公式:弹性云主机的磁盘写入的字节数之和 / 测量周期。 ≥ 0 弹性云主机 5分钟 diskreadrequestsrate 磁盘读IOPS 该指标用于统计每秒从弹性云主机读取数据的请求次数。 单位:请求/秒 计算公式:请求读取弹性云主机磁盘的次数之和 / 测量周期。 reqout (rdreq lastrdreq) /时间差。 ≥ 0 request/s 弹性云主机 5分钟 diskwriterequestsrate 磁盘写IOPS 该指标用于统计每秒从弹性云主机写数据的请求次数。 单位:请求/秒。 计算公式:请求写入弹性云主机磁盘的次数之和 / 测量周期。 reqin (wrreq lastwrreq) /时间差。 ≥ 0 request/s 弹性云主机 5分钟 networkincomingbytesrateinband 带内网络流入速率 该指标用于在弹性云主机内统计每秒流入弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带内网络流入字节数之和/测量周期。 ≥ 0 Byte/s 弹性云主机 5分钟 networkoutgoingbytesrateinband 带内网络流出速率 该指标用于在弹性云主机内统计每秒流出弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带内网络流出字节数之和 / 测量周期。 ≥ 0 Byte/s 弹性云主机 5分钟 networkincomingbytesaggregaterate 带外网络流入速率 该指标用于在虚拟化层统计每秒流入弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带外网络流入字节数之和 / 测量周期。 当使用SRIOV时,无法获取该监控指标。 ≥ 0 Byte/s 弹性云主机 5分钟 networkoutgoingbytesaggregaterate 带外网络流出速率 该指标用于在虚拟化层统计每秒流出弹性云主机的网络流量。 单位:字节/秒。 计算公式:弹性云主机的带外网络流出字节数之和 / 测量周期。 当使用SRIOV时,无法获取该监控指标。 ≥ 0 Byte/s 弹性云主机 5分钟 networkvmconnections 网络连接数 该指标表示弹性云主机已经使用的TCP和UDP的连接数总和。 单位:个 ≥ 0 弹性云主机 5分钟 networkvmbandwidthin 虚拟机入方向带宽 虚拟机整机每秒接收的比特数,此处为公网和内网流量总和。 单位:比特/秒 ≥ 0 弹性云主机 5分钟 networkvmbandwidthout 虚拟机出方向带宽 虚拟机整机每秒发送的比特数,此处为公网和内网流量总和。 单位:比特/秒 ≥ 0 弹性云主机 5分钟 networkvmppsin 虚拟机入方向PPS 虚拟机整机每秒接收的数据包数,此处为公网和内网数据包总和。 单位:包/秒 ≥ 0 弹性云主机 5分钟 networkvmppsout 虚拟机出方向PPS 虚拟机整机每秒发送的数据包数,此处为公网和内网数据包总和。 单位:包/秒 ≥ 0 弹性云主机 5分钟 networkvmnewconnections 虚拟机整机新建连接数 虚拟机整机新建连接数,包括TCP协议、UDP协议以及ICMP协议等。 单位:个 ≥ 0 弹性云主机 5分钟 cpucreditusage CPU积分使用量 该指标表示积分型实例累积花费的CPU积分数。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpucreditbalance CPU积分累积量 该指标表示实例自启动后已累积获得的CPU积分数。 单位:分。 计算公式:根据Flavor定义,CPU积分/小时小时积分使用量。 说明 当累积积分超过上限以后,不再累积积分,初始积分不计入上限。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpusurpluscreditbalance CPU超额积分累积量 该指标表示在“CPU积分累积量”为零时,实例花费的超额积分数。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 累积积分为0且服务器性能超过基准性能时,开始累积超额积分。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟 cpusurpluscreditcharged CPU超额积分收费量 该指标表示在“CPU积分累积量”为零时,实例花费的超额积分并需要收费的积分量。 单位:分。 计算公式:一个CPU积分等于一个vCPU按照100%利用率,运行1分钟。 说明 超额积分累积达到上限且服务器持续长时间超过基准使用率运行。 仅T6型支持。 ≥ 0 分 弹性云主机 5分钟
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        监控
        弹性云主机支持的基础监控指标
      • 开通读写分离
        本章节会介绍如何开通读写分离 读写分离是指通过一个读写分离的连接地址实现读写请求的自动转发。通过RDS的读写分离连接地址,写请求自动访问主实例,应用直连即可实现自动读写分离。本文将介绍如何开通读写分离功能。 约束限制 RDS for MySQL实例至少带有一个只读实例。 开通读写分离 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4、在实例列表中,单击目标实例的名称,进入实例的“基本信息”页面。 5、在左侧导航栏中,单击“数据库代理”。 您还可以在实例的“基本信息”页面,单击“连接信息”模块“读写分离地址”后的“申请”,跳转到“数据库代理”页面。 6、在“数据库代理”页面单击“创建数据库代理”。 7、在开启数据库代理页面,设置以下参数,单击“下一步”。 基本信息 参数 描述 :: 计费模式 按需计费实例开启数据库代理时,仅支持选择按需计费的代理实例。 代理名称 设置数据库代理名称。 读写属性 读写:读写分离。 只读:不连接主实例,无法接受写请求。 路由模式 权重负载:开启读写分离功能后,用户自行设置主备实例和只读实例的权重。 负载均衡:开启了Proxy负载均衡,可以选择该模式。支持基于负载的自动调度策略,读请求将在多个只读节点中按照活跃连接数自动调度,来保证多个只读节点间的负载均衡。 开启数据库代理后,可以修改路由模式,具体操作请参见[]( 主库接受读 “负载均衡”模式需设置。 选择“是”,查询SQL可以发送到主节点和只读节点。 选择“否”,查询SQL将仅发送到只读节点,来降低主节点的负载,确保主节点稳定。 性能规格 选择代理实例的规格。创建后可以根据业务需求变更规格。 代理节点数量 支持2~8个节点。创建后可以修改。 建议您根据需要连接的只读实例个数设置代理节点数,1个只读实例配1个代理节点。 权重设置 参数 描述 选择实例 选择设置权重的目标实例。 读权重分配 读权重越高,处理的读请求越多,假设已选2个实例,权重分别设置为100,200,则当前proxy全部读请求自动按照1:2的比例发往已选实例(未选择的实例权重会设置为0)。 读写分离具备连接保持、读写分离能力。开启读写分离后,将新增1个读写分离连接地址,请将应用连接切换到新地址。 读写分离地址:通过读写分离地址连接数据库,可实现读写分离功能。 该读写分离地址与实例的内网IP地址处于同一VPC和子网,且与实例的内网IP地址并存,互不影响。 延时阈值:对于成功开启读写分离功能的实例,您可以设置其延时阈值。 负载均衡实例选择:对于成功开启读写分离功能的实例,您可以选择负载均衡实例。 8、确认数据库代理信息。 如果需要重新选择,单击“上一步”,修改基本信息。 信息确认无误,单击“提交”,下发创建数据库代理请求。 9、创建完成后,可以在“数据库代理”页面查看并管理代理服务信息。 在“基本信息”页面查看读写分离地址,通过读写分离地址连接数据库,可实现读写分离功能。 该读写分离地址与实例的内网IP地址处于同一VPC和子网,且与实例的内网IP地址并存,互不影响。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库代理(读写分离)
        开通读写分离
      • ACL策略管理
        参数 说明 权限 ACL 策略的操作权限分为两类:允许和拒绝。 若只设置允许规则,则除允许的规则外的其他IP或网段都无法连接实例。 若只设置拒绝规则,则除拒绝的规则外的其他IP或网段需要设置了允许规则后才可以连接实例。 若同时设置允许规则和拒绝规则,则只有允许规则中的IP或网段可以连接实例,其他IP或网段都无法连接实例。 用户 选择需要设置权限的用户。 IP或网段 填写需要设置权限的 IP 或网段,用 ; 隔开,若 IP 为空,则默认为全部 IP 添加权限。 操作 选择策略生效的动作,即向 Topic 生产或消费消息。 自动应用后续所有新增topic 开启后,后续页面上创建的Topic会自动关联此规则,多个策略只允许一条策略开启。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        ACL策略管理
      • ACL策略管理(1)
        参数 说明 权限 ACL 策略的操作权限分为两类:允许和拒绝。 若只设置允许规则,则除允许的规则外的其他IP或网段都无法连接实例。 若只设置拒绝规则,则除拒绝的规则外的其他IP或网段需要设置了允许规则后才可以连接实例。 若同时设置允许规则和拒绝规则,则只有允许规则中的IP或网段可以连接实例,其他IP或网段都无法连接实例。 用户 选择需要设置权限的用户。 IP或网段 填写需要设置权限的 IP 或网段,用 ; 隔开,若 IP 为空,则默认为全部 IP 添加权限。 操作 选择策略生效的动作,即向 Topic 生产或消费消息。 自动应用后续所有新增topic 开启后,后续页面上创建的Topic会自动关联此规则,多个策略只允许一条策略开启。
        来自:
      • 高频类
        分配策略 会话保持类型 L4(TCP、UDP) L7(HTTP、HTTPS) 加权轮询算法 源IP地址 支持 不支持 加权轮询算法 负载均衡器cookie 不涉及 支持 加权轮询算法 应用程序cookie 不涉及 不支持 加权最少连接 源IP地址 支持 不支持 加权最少连接 负载均衡器cookie 不涉及 支持 加权最少连接 应用程序cookie 不涉及 不支持 源IP地址 源IP地址 不涉及 不支持 源IP地址 负载均衡器cookie 不涉及 不支持 源IP地址 应用程序cookie 不涉及 不支持
        来自:
      • 通过Go语言连接实例
        本章节介绍了通过Go语言连接GeminiDB Influx实例的方法。 前提条件 获取SSL默认证书,具体操作请参见下载SSL默认证书。 配置CCM私有证书,具体操作请参见CCM私有证书配置。 获取客户端相关代码,请自主从InfluxDB开源项目网站下载。 使用非SSL方式连接实例的示例代码 package main import ( "fmt" "github.com/influxdata/influxdb1client" // this is important because of the bug in go mod client "github.com/influxdata/influxdb1client/v2" ) func main(){ c, err : client.NewHTTPClient(client.HTTPConfig{ Addr: " Username: "", Password: "", }) if err ! nil { fmt.Println("Error creating InfluxDB Client: ", err.Error()) } q : client.NewQuery("select from cpu","db0","ns") if response, err : c.Query(q); err nil && response.Error() nil { fmt.Println("the result is: ",response.Results) } } 使用默认SSL证书连接实例的示例代码 package main import ( "fmt" "github.com/influxdata/influxdb1client" // this is important because of the bug in go mod client "github.com/influxdata/influxdb1client/v2" ) func main(){ c, err : client.NewHTTPClient(client.HTTPConfig{ Addr: " Username:"", Password:"", InsecureSkipVerify: true, // true表示不验证服务端的信息,可能存在被攻击的风险,建议设为false,具体请参见使用CCM私有证书连接实例的示例代码。 }) if err ! nil { fmt.Println("Error creating InfluxDB Client: ", err.Error()) } q : client.NewQuery("select from cpu","databases","ns") if response, err : c.Query(q); err nil && response.Error() nil { fmt.Println(response.Results) } }
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        快速入门
        连接实例
        程序代码连接实例
        通过Go语言连接实例
      • 使用OBS加密数据运行作业
        参数 取值 说明 fs.obs.serversideencryptiontype SSEKMS SSEKMS:表示使用KMS秘钥的加解密方式。 NONE:表示关闭加密功能。 fs.obs.serversideencryptionkey 表示用来加密的KMS密钥ID。该参数可不配置。 当参数“fs.obs.serversideencryptiontype”配置为“SSEKMS”且该参数未配置时,OBS会使用OBS服务的默认KMS密钥完成加密。 fs.obs.connection.ssl.enabled true 标识是否与OBS建立安全连接。 true:开启安全连接,当需要使用OBS加解密功能时该参数必须配置为“true”。 false:关闭安全连接。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        使用OBS加密数据运行作业
      • 1
      • ...
      • 69
      • 70
      • 71
      • 72
      • 73
      • ...
      • 495
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      Token服务

      应用托管

      推荐文档

      网页防篡改卸载

      策略管理

      性能类问题

      域名DNS配置

      概念

      创建消费组

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号