活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 同资源池不同VPC,通过对等连接接入天翼云
        本页为您介绍从天翼云ECS自建数据库迁移/同步数据到天翼云数据库,同资源池不同VPC情况下,通过对等连接接入的方法。 在同资源池,不同VPC之间,网络默认不通,需要通过VPC打通的方式来实现网络互通。目前支持通过VPC对等连接的方式实现VPC间子网级的互通,注意需要保证源数据实例所在子网与目标数据库实例所在子网的网段不冲突。 以下分别介绍网络通信方式,DTS实例的配置流程和不同VPC间通过对等连接进行互通的配置流程。 网络通信方式 网络通信方式,见下图: DTS实例的配置流程 DTS实例订购成功后,选择对应实例ID的操作“实例配置”,进入【配置源库及目标库信息】页面,“打通网络配置”将会自动识别,源端将显示“当前数据库不在同一个虚拟私有云(VPC),需要配置对等连接打通⽹络”,点击“创建虚拟私有云(VPC)对等连接”将跳转到VPC控制台,可按VPC相关流程处理“创建对等连接”,具体页面如下: 不同VPC间通过对等连接互通的配置流程 创建VPC对等连接。 具体可参考天翼云对等连接相关文档进行配置。 源数据库实例与目标数据库实例的网络ACL和安全组配置。 具体可参考同VPC通过VPC网络接入天翼云文档进行相应配置。 数据库添加白名单。 自建数据库需要添加DTS实例的私网IP访问数据库的权限。不同类型的数据库添加白名单的方法可能不一样,具体可参考各数据库官方文档进行操作。
        来自:
        帮助文档
        数据传输服务DTS
        快速入门
        天翼云ECS自建数据库到天翼云
        同资源池不同VPC,通过对等连接接入天翼云
      • 同资源池不同VPC,通过对等连接接入天翼云
        本页为您介绍从天翼云数据库迁移/同步数据到天翼云数据库,同资源池不同VPC情况下,通过对等连接接入的方法。 在同资源池,不同VPC之间,网络默认不通,需要通过VPC打通的方式来实现网络互通。目前支持通过VPC对等连接的方式实现VPC间子网级的互通,注意需要保证源数据实例所在子网与目标数据库实例所在子网的网段不冲突。 以下分别介绍网络通信方式,DTS实例的配置流程和不同VPC间通过对等连接进行互通的配置流程。 网络通信方式 网络通信方式,见下图: DTS实例的配置流程 DTS实例订购成功后,选择对应实例ID的操作“实例配置”,进入【配置源库及目标库信息】页面,“打通网络配置”将会自动识别,源端将显示“当前数据库不在同一个虚拟私有云(VPC),需要配置对等连接打通⽹络”,点击“创建虚拟私有云(VPC)对等连接”将跳转到VPC控制台,可按VPC相关流程处理“创建对等连接”,具体页面如下: 不同VPC间通过对等连接互通的配置流程 创建VPC对等连接。 具体可参考天翼云对等连接相关文档进行配置。 源数据库实例与目标数据库实例的网络ACL和安全组配置。 具体可参考同VPC通过VPC网络接入天翼云文档进行配置。 数据库添加白名单。 源数据库需要添加DTS实例的私网IP访问数据库的权限。不同类型的数据库添加白名单的方法可能不一样,具体可参考各数据库官方文档进行操作。
        来自:
        帮助文档
        数据传输服务DTS
        快速入门
        天翼云数据库到天翼云
        同资源池不同VPC,通过对等连接接入天翼云
      • 如何修改内网IP、切换VPC
        本文帮助您更快了解如何修改内网IP、切换VPC。 使用场景 当您遇到VPC中的两个实例IP地址冲突,或者在进行网络重构或迁移时,需要调整VPC网络架构、子网划分等,这可能会导致需要修改云主机内网IP或更换VPC。 前提条件 弹性云主机处于关机状态。 只有主网卡支持修改内网IP,必须先删除辅助网卡。 如果网卡绑定了虚拟IP或者DNAT规则,需要先解绑。 如果网卡上有IPv6地址,无法修改(包括IPv4和IPv6的)内网IP地址,请先删除IPv6地址。 如需修改弹性负载均衡后端服务器的内网IP地址,请先移出后端服务器组后再修改内网IP。 如果弹性云主机作为静态路由的下一跳,必须先删除静态路由再修改内网IP。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“计算”,单击“弹性云主机”,进入云主机控制台页面。 4. 在云主机列表,选择需要修改内网IP或者更换VPC的弹性云主机,在云主机详情页选择“弹性网卡”页签,点击“修改内网IP”或者“更改VPC”。 5. 在修改内网IP弹框页面或者更换VPC弹框页面,输入相关参数,点击“确定”按钮。 注意 修改内网IP会导致云主机网络中断,同时更改云主机子网、IP地址、MAC地址。 修改内网IP过程中,请勿操作云主机的弹性IP,或对云主机做其他操作。 修改内网IP后,请重新检查配置安全组、ACL、虚拟IP地址等配置。 修改内网IP后,请重新配置网络相关的服务、应用软件,例如虚拟IP、静态路由表、ELB、NAT、DNS等。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        如何修改内网IP、切换VPC
      • 基本概念
        本文带您了解云主机备份产品的基本概念。 存储库 存储库是用于存储备份副本的地方。备份服务会将创建的备份副本存储在存储库中,以保障数据的安全存储和高可靠性。您可以根据需要访问存储库,并管理和检索备份数据。 备份策略 备份策略指的是对备份对象执行备份操作时,预先设置的策略。策略包括备份策略的名称、备份任务的调度计划和备份数据的保留策略。其中调度计划包括备份执行的频率和备份执行的时间点,备份数据的保留策略包括备份数据的保存时间或保存数量。通过将云主机绑定到备份策略,可以为云主机执行自动备份。 备份副本 备份副本也可以简称为备份。 备份即一个备份对象执行一次备份任务产生的备份数据。首次备份为全量备份,备份云硬盘的所有数据;后续备份为增量备份,备份自上次备份以来发生变化的数据。备份可以通过一次性备份和周期性备份两种方式产生。一次性备份是指用户通过立即备份创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云主机的方式创建的周期性备份任务。周期性备份的备份名称由系统自动生成。 地域 地域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、弹性文件服务、VPC网络、弹性公网IP、镜像等公共服务。 可用区 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,具备独立的风火水电,可用区之间距离100KM以内,一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 每个地域完全独立,不同地域的可用区完全隔离,但同一个地域内的可用区之间使用低时延链路相连。
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        基本概念
      • 产品定义
        本文为您介绍对等连接产品的定义。 对等连接(Peer to Peer Connection,CTPPC)是指两个同一区域内的VPC之间的网络连接。用户可以使用私有IP地址在两个VPC之间进行内网通信,就像两个VPC在同一个网络中一样。用户可以在自己帐号的VPC之间创建对等连接,也可以在自己账号的VPC与同一区域内其他帐号的VPC之间创建对等连接。 对等连接创建流程 无论是在同一帐户下还是不同帐户下,只要VPC位于同一个资源池,对等连接就能够为VPC之间的通信提供一种私有、安全且高效的解决方案,来实现资源的共享和数据的流动,满足了不同场景下的通信需求。 同一账户下VPC对等连接的创建流程: 1. 创建对等连接:选择本端VPC和对端VPC。 2. 添加对等连接路由:在本端VPC的路由表中添加指向对端VPC的路由规则,同时在对端VPC的路由表中添加指向本端VPC的路由规则。 3. 验证网络互通情况:确认对等连接已生效后,验证网络互通性。 不同帐户下VPC对等连接的创建流程: 1. 创建对等连接:选择本端VPC和对端VPC。 2. 判断是否接受连接:选择“否”则创建对等连接失败;选择“是”则进入下一步。 3. 添加对等连接路由:在本端VPC的路由表中添加指向对端VPC的路由规则,同时在对端VPC的路由表中添加指向本端VPC的路由规则。 4. 验证网络互通情况:确认对等连接已生效后,验证网络互通性。
        来自:
        帮助文档
        虚拟私有云 VPC
        对等连接
        产品定义
      • 产品功能
        产品功能 功能详情 视图接入 设备接入:支持GB28181/GB35114/GA1400/RTMP/RTSP/EHOME等多种标准协议设备直接接入。 平台接入:支持下级GB28181平台级联接入,支持下级GA1400视图库接入。 网关接入:支持局域网内设备通过边缘网关批量上云,支持主流视频厂商私有SDK协议、Onvif标准协议设备接入。 视图存储 录制模板:支持配置录像存储天数、自动录制、按需录制等。 视频存储:支持视频流实时全量存储,按需存储。 图片存储:支持抓拍机/AI设备等多种设备抓拍上传存储。 存储优势:支持纠删码方式进行分布式存储,具备流直存能力。 视图分发 直播分发协议:支持输出RTMP/FLV/HLS/WebRTC协议。 点播分发协议:支持输出HLS协议,MP4录像文件下载。 视频共享:支持向上级GB/T28181平台共享设备视频数据,支持向上级GA/T 1400视图库共享图片数据。 视图分析 算法仓库:支持算法仓库管理,高效的GPU算力资源调度、算法编排,算法与设备灵活绑定。 场景API:支持人脸识别、人体属性检测、车牌识别、城市治理多场景API。 告警回调:支持将分析结果通过回调配置,同步给其他平台。 访问管理 访问控制:管理员可以根据用户职责,创建不同的IAM用户并分配不同的访问权限,包括分配不同的设备访问资源和设备操作权限。 跨账号资源访问:支持委托信任的天翼云账号安全共享设备资源,支持灵活分配共享的资源权限范围。 开放平台 具备OpenAPI接口:平台所有原子化能力可以通过OpenAPI接口提供给应用平台。 具备API Explorer能力:可以通过API Explorer在线调试OpenAPI接口。 视频调阅 实时预览:支持多分屏、云台控制、电子缩放、语音对讲、实时截图。 录像回放:支持多分屏、倍速、同步/异步放像、电子缩放、录像截图、录像下载。 视图查看:支持视图数据查询及基本信息查看。 电子地图:支持平面/3D/卫星地图模式切换、支持多种点位汇聚模式。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        产品功能
      • 运行Flink作业
        本章节主要介绍如何通过后台提交并运行Flink作业。 通过后台提交作业 目前Flink客户端默认安装路径为“/usr/local/flink”。具体以实际为准。 1. 通过SSH方式登录集群。 2. 配置环境变量。 在/etc/profile添加如下配置: export HADOOPHOME/usr/local/hadoop3 export FLINKHOME/usr/local/flink export PATHPATH:PATH:FLINKHOME/bin:HADOOPHOME/bin export HADOOPCONFDIRHADOOPHOME/bin exportHADOOPCONFDIRHADOOPHOME/etc/hadoop export PATHPATH:PATH:HADOOPCONFDIR export HADOOPCLASSPATHhadoop classpath 执行如下命令初始化环境变量 source /etc/profile 3. 集群默认开启Kerberos认证,需要执行以下命令以完成认证。 示例: klist kt /etc/security/keytabs/flink.keytab 获取flink.keytab的principalname kinit kt /etc/security/keytabs/flink.keytab flink.keytab的principalname 同时,应配置安全认证。在“/usr/local/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.useticketcache: true security.kerberos.login.keytab: security.kerberos.login.principal: user security.kerberos.login.contexts: Client,KafkaClient 例如: security.kerberos.login.keytab: /etc/security/keytabs/hdfs.keytab security.kerberos.login.principal: hdfs 4. 运行wordcount作业。 首先执行上述第3步骤中的认证操作,然后启动Flink集群。 /usr/local/flink/bin/startcluster.sh Session模式 执行如下命令在session中提交作业。 yarnsession.sh nm "sessionname" detached flink run /usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 Application模式 执行如下命令以Application方式提交作业。 flink runapplication t yarnapplication/usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Flink作业
      • 权限管理
        本文主要介绍权限管理 通过企业项目对用户和用户组进行授权 APM使用企业项目管理控制用户对APM资源的访问范围。您在云帐号中给员工创建IAM用户组后,可以在企业管理服务控制台创建企业项目,并在企业项目中为用户组授予相应的权限,实现人员授权及权限控制。企业项目可将企业分布在不同区域的资源按照企业项目进行统一管理,同时可以为每个企业项目设置拥有不同权限的用户组。 通过IAM为企业中的用户和用户组进行授权 如果您需要对您所拥有的APM进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的帐号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用APM资源。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将APM资源委托给更专业、高效的其他帐号或者云服务,这些帐号或者云服务可以根据权限进行代运维。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用APM服务的其它功能。 本章节为您介绍对用户授权的方法,操作流程如图所示。 前提条件 给用户组授权之前,请您了解用户组可以添加的APM权限,并结合实际需求进行选择,APM支持的系统权限。 示例流程 使用IAM授权的云服务 图 给用户授权APM权限流程 1. 创建用户组并授权 在IAM控制台创建用户组,并授予APM只读权限“APM ReadOnlyAccess”。 2. 创建IAM用户 在IAM控制台创建用户,并将其加入[1](
        来自:
        帮助文档
        应用性能管理
        用户指南
        权限管理
      • 添加规则
        本文将介绍如何为轻量型云主机添加防火墙规则,并介绍防火墙功能预设的端口信息。 操作场景 防火墙可以对轻量型云主机的网络访问进行控制,每台轻量型云主机的防火墙默认放行了22端口(SSH服务)、3389端口(windows远程登录)、80端口(http端口)、443(https端口)端口的入方向端口。用户可在此基础上添加其它的防火墙规则,来完善防火墙的安全设置。 操作步骤 1.登录天翼云,进入控制中心。 2.单击控制中心顶部的,选择资源所在地,此例我们选择上海36。 3.单击左侧导航栏“产品服务列表”,选择“计算>轻量型云主机”。 4.进入轻量型云主机列表界面,单击目标主机“实例名称”进入目标主机详情页。 5.单击“防火墙”页签,可以看到当前轻量型云主机的防火墙信息。 6. 单击“添加规则”弹出添加弹窗,用户需要按照要求进行填写,字段说明如下。 字段名 说明 IP版本 取值:IPV4、IPV6,单选,必填。 方向 取值:入方向、出方向,单选必填。 授权策略 取值:允许、拒绝,单选,必填。 协议 取值:ANY、TCP、UDP、ICMP,单选,必填。 端口范围 取值为介于1到65535之间的数字。如输入错误则输入款变红,下置文字提示:端口范围在 1到 65535之间,必填。 源地址 取值为数字,子网IP地址与子网掩码是否匹配的校验逻辑同云主机,必填。 描述 取值:100个以内字符,选填。如超出字数限制,下置文字提示:请输入100个以内字符。 添加规则: 7. 完成配置后,单击“确定”,即可完成防火墙规则的添加。
        来自:
        帮助文档
        轻量型云主机
        用户指南
        管理防火墙
        添加规则
      • 查看VPC间访问流量
        VPC间访问展示当前防火墙实例防护的VPC间流量数据。 前提条件 配置并开启VPC边界流量防护,且已有流量经过VPC,开启VPC防护的操作步骤请参见“开启VPC边界流量防护”。 查看VPC间访问流量 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“流量分析> VPC间访问”,进入“VPC间访问”页面。 5. 查看经过云防火墙的流量统计信息,支持5分钟~7天的数据。 流量看板:VPC间最大流量的相关信息。 VPC间访问:VPC间请求流量和响应流量数据。 取值说明: 时间段 取值说明 近1小时 取1分钟内的平均值 近24小时 取5分钟内的平均值 近7天 取1小时内的平均值 自定义 5分钟~6小时:取1分钟内的平均值 6小时(含)~3天:取5分钟内的平均值 3天(含)~7天(含):取30分钟内的平均值 可视化统计:查看指定时间段内VPC间流量中指定参数的 TOP 5 排行,参数说明请参见表354。单击单条数据查看流量详情,每个详情支持查看50条数据。 VPC间流量可视化统计参数说明: 参数名称 参数说明 TOP访问源IP VPC间流量的源IP地址。 TOP访问目的IP VPC间流量的目的IP地址。 TOP开放端口 VPC间流量的目的端口。 应用分布 VPC间流量的应用信息。 私网IP活动明细:查看指定时间段内私网IP流量 TOP 50 信息。
        来自:
        帮助文档
        云防火墙
        用户指南
        查看流量数据
        查看VPC间访问流量
      • 创建引用表
        该章节指导您创建引用表,即可对路径、User Agent、IP、Params、Cookie、Referer、Header这些单一类型的防护指标进行批量配置,引用表能够被CC攻击防护规则和精准访问防护中的规则所引用。 前提条件 已添加防护网站。 应用场景 CC攻击防护规则、精准访问防护规则批量配置防护字段时,可以使用引用表。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台右上角的,选择区域或项目。 步骤3 单击页面左上方的,选择“安全 > Web应用防火墙(独享版)”。 步骤4 在左侧导航树中,选择“防护策略”,进入“防护策略”页面。 步骤5 点击策略名称,进入防护配置页面,在“CC攻击防护”或者“精准访问防护”配置框中,单击“自定义CC攻击防护规则”或者“自定义精准访问防护规则”,进入规则配置页面。 步骤6 在列表左上角,单击“引用表管理”。 步骤7 在“引用表管理”界面,单击“添加引用表”。 步骤8 在弹出的“添加引用表”对话框中,添加引用表。 添加引用表参数说明: 参数名称 参数说明 取值样例 ::: 名称 用户自定义引用表的名字。 waf 类型 路径:设置的防护路径,不包含域名。 User Agent:设置为需要防护的扫描器的用户代理。 IP:设置为需要防护的访问者IP地址。 Params:设置为需要防护的请求参数。 Cookie:根据Cookie区分的Web访问者。 Referer:设置为需要防护的自定义请求访问的来源。 Header:设置为需要防护的自定义HTTP首部。 路径 值 对应“类型”的取值,该值不支持通配符。可单击“添加”设置多个值。 /buy/phone/ 步骤9 单击“确认添加”,添加的引用表展示在引用表列表。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        配置防护策略
        创建引用表
      • 与Kafka、RabbitMQ专享版的差异
        本章节介绍了分布式消息服务RocketMQ与Kafka和RabbitMQ的差异。 功能项 RocketMQ Kafka RabbitMQ 优先级队列 不支持 不支持 支持。建议优先级大小设置在010之间。 延迟队列 支持 不支持 不支持 死信队列 支持 不支持 支持 消息重试 支持 不支持 不支持 消费模式 支持客户端主动拉取和服务端推送两种方式 客户端主动拉取 支持客户端主动拉取以及服务端推送两种模式 广播消费 支持 支持 支持 消息回溯 支持 支持。Kafka支持按照offset和timestamp两种维度进行消息回溯。 不支持。RabbitMQ中消息一旦被确认消费就会被标记删除。 消息堆积 支持 支持。考虑吞吐因素,Kafka的堆积效率比RabbitMQ总体上要高。 支持 持久化 支持 支持 支持 消息追踪 支持 不支持 支持。RabbitMQ中可以采用Firehose或者rabbitmqtracing插件实现,但开启rabbitmqtracing插件会影响性能,建议只在定位问题过程中开启。 消息过滤 支持 支持 不支持,但可以自行封装。 多租户 支持 不支持 支持 多协议支持 兼容RocketMQ协议 只支持Kafka自定义协议。 RabbitMQ基于AMQP协议实现,同时支持MQTT、STOMP等协议。 跨语言支持 支持多语言的客户端 采用Scala和Java编写,支持多种语言的客户端。 采用Erlang编写,支持多种语言的客户端。 流量控制 待规划 支持client和user级别,通过主动设置可将流控作用于生产者或消费者。 RabbitMQ的流控基于CreditBased算法,是内部被动触发的保护机制,作用于生产者层面。 消息顺序性 单队列(queue)内有序 支持单分区(partition)级别的顺序性。 不支持。需要单线程发送、单线程消费并且不采用延迟队列、优先级队列等一些高级功能整体配合,才能实现消息有序。 安全机制 支持SSL认证 支持SSL、SASL身份认证和读写权限控制。 与Kafka相似 事务性消息 支持 支持 支持
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        与Kafka、RabbitMQ专享版的差异
      • 云审计
        本文介绍关系数据库PostgreSQL版在天翼云云审计中支持的相关功能。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 创建实例、创建只读实例、恢复到新实例 重启实例 删除实例 节点扩容 磁盘扩容 规格变更 数据备份、删除备份 数据恢复 参数修改 主备切换 绑定公网IP 解绑公网IP 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表中,选择事件来源为“数据库”,资源类型选择“关系数据库PostgreSQL版”,上方时间选择需要筛选的时间段。点击查询即可。 4. 在审计事件右侧点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        云审计
      • 创建迁移参数模板
        参数 子参数 说明 区域 您可以根据业务要求,选择具体的区域。 项目 选择区域后,才能选择项目。 迁移方式Linux Linux块级 Linux块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。这种方式同步效率高,但兼容性差。 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 迁移方式Windows Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 专线或VPN 需要您提前创建源端服务器到目的端服务器所在VPC子网的专线或VPN。 若源端和目的端在同一个VPC内,网络类型可选择“专线或VPN”。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。设置为0时,代表不限流。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 服务器选择 已有服务器 目的端配置时,在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 目的端配置时,根据需求,您可以配置虚拟私有云、子网、安全组等参数。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        创建迁移参数模板
      • 使用IPv6进行主机迁移
        源端服务器环境、剩余空间及其他要求。 源端服务器剩余空间要求: Windows:当分区大于等于600MB,该分区的可用空间小于320MB时不能迁移;当分区小于600MB,该分区的空间小于40MB时不能迁移。 Linux:根分区可用空间小于200MB时不能迁移。 源端服务器环境要求: 源端服务器时间与标准时间一致,避免源端Agent注册失败。 当源端服务器为Linux系统时,执行rsync v查看是否安装Rsync库。当前主流服务器系统已默认安装Rsync库,无需手动安装。 当未安装Rsync库,执行如下命令安装Rsync库: CentOS:执行 yum y install rsync。 Ubuntu:执行 aptget y install rsync。 Debian:执行 aptget y install rsync。 SUSE:执行 zypper install rsync。 其他平台系统:参见官网安装相关文档。 搭建IPv6网络并创建目的端 使用IPv6进行主机迁移前,需要先搭建一个IPv6网段的VPC,并在VPC中创建一个带有IPv6地址的目的端ECS。 注意事项 确保源端服务器能够使用IPv6网络。 子网配置时,请务必勾选“ 开启IPv6 ”,将自动为子网分配IPv6网段。 弹性云主机ECS仅部分规格支持IPv6网络,目的端需要选择支持IPv6的ECS,才可以使用IPv4/IPv6双栈网络,请务必选择支持的区域和规格。 网络配置时,务必选择“ 自动分配IPv6地址 ”,绑定共享带宽为可选,根据需求配置。 安全组入方向规则需要放通IPv6端口。 说明 Windows系统需要开放TCP的8899端口、8900端口和22端口。 Linux系统文件级迁移开放22端口,块级迁移开放8900端口、22端口。 以上端口,建议只对源端服务器开放。 创建迁移任务 主机迁移服务支持在双栈网络下使用IPv6进行数据迁移。
        来自:
        帮助文档
        主机迁移服务SMS
        最佳实践
        使用IPv6进行主机迁移
      • 连接设置相关参数
        本页介绍天翼云TeleDB数据库连接设置相关参数。 listenaddresses (string) 指定服务器在哪些TCP/IP 地址上监听客户端连接。值的形式是一个逗号分隔的主机名和/或数字 IP 地址列表。特殊项对应所有可用 IP 接口。项0.0.0.0允许监听所有 IPv4 地址并且::允许监听所有 IPv6 地址。如果列表为空,服务器将根本不会监听任何 IP 接口,在这种情况中只能使用 Unix 域套接字来连接它。默认值是localhost,它只允许建立本地 TCP/IP “环回”连接。虽然客户端认证允许细粒度地控制谁能访问服务器,listenaddresses控制哪些接口接受连接尝试,这能帮助在不安全网络接口上阻止重复的恶意连接请求。这个参数只能在服务器启动时设置。 port (integer) 服务器监听的TCP 端口;默认是 5432 。请注意服务器会同一个端口号监听所有的 IP 地址。这个参数只能在服务器启动时设置。 maxconnections (integer) 决定数据库的最大并发连接数。默认值通常是100 个连接,但是如果内核设置不支持(initdb时决定),可能会比这个数少。这个参数只能在服务器启动时设置。当运行一个后备服务器时,你必须设置这个参数等于或大于主服务器上的参数。否则,后备服务器上可能无法允许查询。 superuserreservedconnections (integer) 决定为TeleDB超级用户连接而保留的连接“槽”数。同时活跃的并发连接最多maxconnections个。任何时候,活跃的并发连接数最多为maxconnections减去 superuserreservedconnections,新连接就只能由超级用户发起了,并且不会有新的复制连接被接受。默认值是 3 。这个值必须小于maxconnections的值。 这个参数只能在服务器启动时设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        连接和认证相关参数
        连接设置相关参数
      • 缓存概述
        功能 说明 缓存过期时间指源站资源在CDN节点缓存的时长,达到预设时间,资源将会被CDN节点标记为缓存过期。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 CDN节点从源站获取资源时,源站会返回响应状态码,针对4xx、5xx等特殊状态码,您可以在天翼云CDN上配置状态码过期时间。配置完成后,当客户端再次请求相同资源时,如状态码未过期,会由CDN直接响应特殊状态码,不会触发回源,减轻源站压力。 当客户希望在源站响应特殊状态码并携带相关缓存头的情况下,特殊状态码缓存规则按照源站相关缓存头生效,无相关缓存头时才按CDN设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 缓存key是一个文件在CDN节点上缓存时唯一的身份ID,每个在CDN节点上缓存的文件都会对应一个缓存key。通过自定义缓存key,可以将原始URL形式不同但实际指向同一个文件的请求,缓存为同一份,从而提升缓存命中率,降低回源量。 跨域资源共享(CrossOrigin Resource Sharing,简写为CORS)简称跨域访问,是HTML5提供的标准跨域解决方案,允许Web应用服务器进行跨域访问控制,实现跨域数据的安全传输。当客户的业务需要跨域共享或者访问资源时,客户可以通过自定义HTTP响应头来实现。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        缓存配置
        缓存概述
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 容灾演练
        操作场景 在不影响业务的情况下,通过容灾演练,模拟真实故障恢复场景,制定应急恢复预案,检验容灾方案的适用性、有效性。当真实故障发生时,通过预案快速恢复,提高业务连续性。 存储容灾服务提供的容灾演练功能,在容灾演练VPC(该VPC不能与容灾站点服务器所属VPC相同)内执行容灾演练,基于容灾站点服务器的磁盘快照,快速创建容灾演练服务器。 说明 当容灾演练服务器创建完成后,生产站点服务器和容灾演练服务器同时独立运行,数据不再实时同步。 在容灾演练过程中,会临时创建一个后缀名为VMwareToCloud的系统转换ECS,请勿对该ECS进行任何操作,否则可能会导致演练失败,切换或/容灾演练完成后会自动删除该ECS。 为保证在灾难发生时,容灾切换能够正常进行,建议您定期做容灾演练。 使用须知 创建容灾演练时,如果保护组内的生产站点服务器加入了企业项目,容灾演练创建的演练服务器不会自动加入到企业项目,如有需要请手动将演练服务器加入到企业项目。 创建容灾演练时,如果生产站点服务器为Linux且为密钥方式登录,创建容灾演练后,创建的容灾演练服务器详情不显示密钥对信息,但可以使用容灾站点服务器的密钥对登录容灾演练的服务器。 创建容灾演练成功后,生产站点服务器中的“主机名”、“名称”、“委托”、“云服务器组”、“自动恢复”、“安全组”和“标签”配置项修改不会再自动同步到演练服务器上。您可以登录控制台,手动将这些配置项的修改添加到演练服务器上。 容灾演练操作只在容灾演练服务器配置主网卡,如果生产站点有从网卡,容灾演练不会自动配置,需要在容灾演练服务器详情页面手工绑定从网卡。
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理保护实例
        容灾演练
      • 与Kafka、RocketMQ的差异
        本文主要介绍分布式消息服务RabbitMQ与Kafka、RocketMQ的差异。 分布式消息服务RabbitMQ与Kafka、RocketMQ的差异,如下表。 功能项 RocketMQ Kafka RabbitMQ 优先级队列 不支持 不支持 支持。建议优先级大小设置在010之间。 延迟队列 支持 不支持 不支持 死信队列 支持 不支持 支持 消息重试 支持 不支持 不支持 消费模式 支持客户端主动拉取和服务端推送两种方式 客户端主动拉取 支持客户端主动拉取以及服务端推送两种模式 广播消费 支持 支持 支持 消息回溯 支持 支持。Kafka支持按照offset和timestamp两种维度进行消息回溯。 不支持。RabbitMQ中消息一旦被确认消费就会被标记删除。 消息堆积 支持 支持。考虑吞吐因素,Kafka的堆积效率比RabbitMQ总体上要高。 支持 持久化 支持 支持 支持 消息追踪 支持 不支持 支持。RabbitMQ中可以采用Firehose或者rabbitmqtracing插件实现,但开启rabbitmqtracing插件会影响性能,建议只在定位问题过程中开启。 消息过滤 支持 支持 不支持,但可以自行封装。 多租户 支持 不支持 支持 多协议支持 兼容RocketMQ协议 只支持Kafka自定义协议。 RabbitMQ基于AMQP协议实现,同时支持MQTT、STOMP等协议。 跨语言支持 支持多语言的客户端 采用Scala和Java编写,支持多种语言的客户端。 采用Erlang编写,支持多种语言的客户端。 流量控制 待规划 支持client和user级别,通过主动设置可将流控作用于生产者或消费者。 RabbitMQ的流控基于CreditBased算法,是内部被动触发的保护机制,作用于生产者层面。 消息顺序性 单队列(queue)内有序 支持单分区(partition)级别的顺序性。 不支持。需要单线程发送、单线程消费并且不采用延迟队列、优先级队列等一些高级功能整体配合,才能实现消息有序。 安全机制 支持SSL认证 支持SSL、SASL身份认证和读写权限控制。 与Kafka相似 事务性消息 支持 支持 支持
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        与Kafka、RocketMQ的差异
      • 恢复HDFS业务数据
        本章主要介绍翼MapReduce的恢复HDFS业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HDFS进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HDFS进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HDFS任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HDFS数据。 对于Yarn任务运行时使用的目录(例如“/tmp/logs”、“/tmp/archived”、“/tmp/hadoopyarn/staging”),不能进行HDFS恢复操作,否则进行恢复的Distcp任务会由于文件丢失而导致恢复失败。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HDFS的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HDFS备份文件保存路径。 停止HDFS的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HDFS业务数据
      • 恢复HBase业务数据
        本章主要介绍翼MapReduce的恢复HBase业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HBase进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HBase业务数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 对系统的影响 恢复过程的数据还原阶段,系统会把待恢复的HBase表禁用,此时无法访问该表。还原阶段可能需要几分钟时间,此时HBase的上层应用无法正常工作。 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HBase备份文件保存路径。 停止HBase的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • 权限管理
        权限名称 权限描述 权限依赖 应用场景 cse:engine:list 列出所有引擎 无 查看引擎列表。 cse:engine:get 查看引擎信息 cse:engine:list 查看引擎详情,仅微服务引擎专享版支持。 cse:engine:modify 修改引擎 cse:engine:listl cse:engine:get 修改引擎的操作包括:开启/关闭公网访问操作、开启/关闭安全认证操作、引擎失败任务重试操作,仅微服务引擎专享版支持。 cse:engine:upgrade 升级引擎 cse:engine:listl cse:engine:get 升级引擎的操作包括:引擎版本升级操作,仅微服务引擎专享版支持。 cse:engine:delete 删除引擎 cse:engine:list 删除引擎,仅微服务引擎专享版支持。 cse:engine:create 创建引擎 cse:engine:getl cse:engine:listl ecs:cloudServerFlavors:getl vpc:vpcs:getl vpc:vpcs:listl vpc:subnets:getl vpc:ports:getl vpc:ports:create 创建引擎的操作包括:创建引擎操作,引擎备份/恢复任务创建操作,仅微服务引擎专享版支持。 cse:config:modify 服务配置管理修改 cse:engine:listl cse:engine:getl cse:config:get 全局配置功能与治理功能涉及的配置修改。 cse:config:get 服务配置管理查看 cse:engine:listl cse:engine:get 查看服务的配置。 cse:governance:modify 服务治理中心修改 cse:engine:listl cse:engine:getl cse:config:getl cse:config:modifyl cse:registry:getl cse:registry:modifyl cse:governance:get 创建与修改服务治理。 cse:governance:get 服务治理中心查看 cse:engine:listl cse:engine:getl cse:config:getl cse:registry:get 查看服务治理功能。 cse:registry:modify 服务注册管理修改 cse:engine:listl cse:engine:getl cse:registry:get 服务修改。 cse:dashboard:modify dashboard管理修改 cse:engine:listl cse:engine:getl cse:registry:getl cse:dashboard:getl cse:registry:modify 仪表盘修改。 cse:dashboard:get dashboard管理查看 cse:engine:listl cse:engine:getl cse:registry:get 仪表盘查看。 cse:registry:get 服务注册管理查看 cse:engine:listl cse:engine:get 服务目录查看。
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        权限管理
      • Redis3.0命令
        本章节主要介绍DCS Redis3.0命令的兼容性,包括支持命令列表,禁用命令列表。命令的具体详细语法,请前往Redis官方网站查看。 DCS Redis3.0基于开源3.0.7版本进行开发,兼容开源的协议和命令。 本章节主要介绍DCS Redis3.0命令的兼容性,包括支持命令列表,禁用命令列表,以及不支持的高版本Redis脚本和命令列表,以及命令使用限制说明。命令的具体详细语法,请前往Redis官方网站查看。 DCS Redis缓存实例支持Redis的绝大部分命令,具体支持的命令,请参考Redis3.0命令,任何兼容Redis协议的客户端都可以访问DCS。 因安全原因,部分Redis命令在分布式缓存服务中被禁用,具体请见Redis3.0禁用的命令。 DCS集群实例支持多个key,但不支持跨slot访问的Redis命令列表,如实例受限使用命令所示。 部分Redis命令使用时有限制,具体请见部分命令使用限制。 Redis3.0支持的命令 以下列出了Redis3.0实例支持的命令。 说明 Redis高版本的命令,在低版本中不被兼容。判断DCS Redis是否支持某个命令,可通过在Rediscli执行该命令,如果得到(error)ERR unknown command ‘xxx’的提示,则说明不支持该命令。 如果是Proxy集群实例,不支持表格中以下命令: “List”类型中的BLPOP、BRPOP、BRPOPLRUSH命令。 “Server”类型的CLIENT相关命令,包括CLIENT KILL、CLIENT GETNAME、CLIENT LIST、CLIENT SETNAME、CLIENT PAUSE、CLIENT REPLY。 “Server”类型的MONITOR命令。 如果是比较旧的Proxy集群实例,不支持“Key”类型中的RANDOMKE命令。 Redis3.0 支持命令清单 [Keys](
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        开源命令兼容性
        Redis3.0命令
      • 注册
        本文主要介绍账号注册相关的常见问题。 一个手机号能注册几个天翼云账号? 一个手机号最多可注册5个天翼云账号(含已注销3个月内的账号),超出则不再支持注册新的天翼云账号。 无法使用海外(含港澳台)手机号注册天翼云账号? 目前不支持用海外(港澳台)手机号注册。 通过手机号注册的账号如何使用账号登录? 通过短信登录账号后,在“账号中心>安全设置”页面选择登录密码修改,可设置新密码。使用“账号中心>基本信息”的登录名及新设置的密码,即可使用账密方式登录。 手机号和邮箱均不再用,如何修改账号信息? 如果手机号或邮箱都无法验证身份, 可以进入工单页面,提交工单处理。 (1)请在工单中上传如下材料: 提交“授权天翼云协助修改手机号/邮箱”的授权委托书,写明日期,加盖公章。(模板:授权天翼云协助修改手机号:邮箱.docx) 企业客户 法定代表人与被授权人所需材料任选一种上传即可。 法定代表人:企业证件、法定代表人身份证正反面及手持身份证照片。 被授权人:企业证件、加盖企业公章的授权书(授权委托书.docx)、被授权人身份证正反面及手持身份证照片。 个人客户 个人身份证件正反面及手持身份证照(个人身份证件信息需与实名认证的身份证件信息一致)。 (2)经天翼云审核通过后,天翼云会将原来绑定的手机号/邮箱替换成工单中填写的新手机号/邮箱。您可以在登录页面,单击忘记密码,然后使用新绑定的手机号/邮箱重置密码。 (3)如果您提供的账户情况特殊,天翼云客服人员会根据实际情况进一步核实,请按客服回复提供所需资料。
        来自:
        帮助文档
        账号中心
        常见问题
        账号管理
        注册
      • 将MySQL迁移到PostgreSQL
        操作步骤 1. 购买DTS数据迁移实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据迁移”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待迁移的表的存储引擎。 待迁移表主键检查 检查待迁移表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始迁移任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到PostgreSQL
        操作步骤 1. 购买DTS数据同步实例。 在管理控制台点击“创建实例”进入订购页面,“资源配置”选择“引导模式”中,“场景功能”选择“数据同步”,“源数据库”选择“MySQL”,“目标数据库”选择“PostgreSQL”,完成其他信息的填写并完成购买; 说明 相关配置信息,除“资源配置”的“链路规格”和“网络配置”订购后不可修改外,其他选择均可在实例配置页面修改。 2. 进入实例配置页面。 DTS实例购买成功后,进入【数据同步】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作。 3. 配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置同步对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置同步对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE,选中后点击“>”按钮,将待同步对象移动到“已选择对象”中。 5. 预检查。 点击“下一步预检查”,进入【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查项 检查内容 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 存储引擎检查 检查源库中待同步的表的存储引擎。 待同步表主键检查 检查待同步表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 6. 确认配置和启动同步。 预检查通过后,点击“下一步”进入【确认配置】页面,用户可确认配置的所有信息,确认无误后,点击右下角的【启动任务】,开始同步任务。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 开启SQL审计日志
        关系数据库MySQL版服务默认关闭SQL审计功能,打开可能会有一定的性能影响。您可以在线查看审计日志内容,也可以下载审计日志文件进行深入分析。本文介绍如何打开、关闭或查看SQL审计日志。 注意 从2023年10月19日起,部分资源池下线该功能,详情请参见【下线】2023年10月19日起关系数据库MySQL版下线部分资源池SQL审计功能。 目前,仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 SQL审计配置 约束限制 当您开通SQL审计功能,系统会按照您选择的操作关键字将操作记录下来,记录Query、Prepare、Execute、clone操作类型。 开启SQL审计,日志文件会占用您实例的磁盘空间。在业务量大的情况下,应关注磁盘空间大小避免审计日志过于庞大挤压磁盘,导致磁盘满后实例异常。 目前审计日志保留在实例机器上,根据审计配置策略进行保留。默认保留策略为,保留1天,允许最大占用空间占有率为10%。控制台最多保留7天的审计日志,如需要查看更多审计日志,可跳转DMS查看相关审计日志,最长达180天。 如果执行迁移可用区或者实例恢复会导致该时间段的日志丢失。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 单击SQL审计,进入SQL审计页面。 注意 部分资源池支持DMS审计日志,可打开并跳转查看更多更详细的审计日志信息。 5. 单击审计配置。 6. 在审计配置 对话框中,配置如下参数,然后单击确定。 审计开关:开启 保留天数:SQL审计日志保留天数 最大存储空间占用率:允许的最大存储空间占有率 注意 保留天数和最大空间占有率两种策略,日志文件先满足哪个策略就会按照哪个策略进行清理,以节省存储空间。 操作类型 :选择不过滤操作项 或者自定义操作项 。不过滤操作项 指的是所有的操作都会被记录。自定义操作项即只记录所选择的关键词操作 注意 当您使用应用连接到关系数据库MySQL版实例时,例如JDBC。使用PrepareStatement产生的SQL语句将无法被过滤,如果希望能够被过滤,请保持对服务端的请求类型为QUERY。 如果选择不过滤操作项,默认不审计Connect和Quit类型。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        日志管理
        开启SQL审计日志
      • 使用WordPress 应用镜像快速搭建网站
        本文介绍使用WordPress 应用镜像快速搭建网站 操作场景 WordPress是目前最流行的、最强大的博客和内容管理网站的建站工具,具备使用简单、功能强大、灵活可扩展的特点,提供丰富的主题插件,用户可借助丰富的第三方模板、插件,搭建博客、企业官网、电商、论坛等各类网站。 说明事项 web服务默认通过80端口访问,但由于政策原因,该端口需要备案才能访问,因此轻量型云主机修改端口为6060方便用户进行测试,当用户完成备案后,可修改为80端口。具体操作详见备案基础知识网站备案备案介绍 天翼云 (ctyun.cn)。 操作步骤 1. 进入轻量型云主机官网详情页,点击立即开通,进入轻量型云主机订购页。 2. 在轻量型云主机订购页,选择对应配置。 地域及可用区。建议选择接近目标客户的地域,以降低网络延迟并提高客户的访问速度。 镜像。选择应用镜像——WordPress。 规格套餐。按需选择规格套餐,包含CPU、内存、数据盘、弹性IP及带宽。 数据盘。按需选择是否要购买数据盘。 密码。可立即创建或稍后创建密码。 购买时长。按需选择订购时长,默认订购时长为1个月。 自动续订。 购买数量。按需选择购买数量,默认购买数量为1台。 3. 单击立即购买。 4. 返回轻量型云主机控制台,进入应用管理tab,在【应用信息查看】中获取管理员密码的查询命令。 5. 点击详情页右上角的远程登录按钮,远程登录主机。 6. 登录后先输入主机用户名密码,接着执行密码查询命令,输入完成后按回车键,即可获取 WordPress 管理员账号(admin)和对应的密码。 7. 返回轻量型云主机控制台,进入应用管理tab,在【应用信息查看】中获取管理员登录地址。 8. 在浏览器中访问管理员登录地址,输入用户名及密码。用户名为admin,密码为步骤6获取的密码。登录成功后您可根据根据需求使用WordPress进行管理和配置。 9. 此时您的弹性IP已可以访问。返回轻量型云主机控制台,进入应用管理tab,在【应用信息查看】中获取首页地址。打开浏览器输入该网址即可访问您的网站。 web服务默认通过80端口访问,但由于政策原因,该端口需要备案才能访问,因此轻量型云主机修改端口为6060方便用户进行测试,当您完成备案后,可修改为80端口。具体操作详见备案基础知识网站备案备案介绍 天翼云 (ctyun.cn)。 10. 如果想让其他用户可以通过一个易于记忆的域名访问您的网站,您可以选择为您的 WordPress 网站设置一个独立的域名。域名创建及域名解析可见新域名服务。
        来自:
        帮助文档
        轻量型云主机
        最佳实践
        使用WordPress 应用镜像快速搭建网站
      • 配置HTTP源端参数
        参数名 说明 取值样例 文件URL 通过使用GET方法,从HTTP/HTTPS协议的URL中获取数据。 用于读取一个公网HTTP/HTTPS URL的文件,包括第三方对象存储的公共读取场景和网盘场景。 列表文件 选择“是”,将待上传的文本文件中所有URL对应的文件拉取到OBS,文本文件记录的是HDFS上的文件路径。 是 列表文件源连接 文本文件存储在OBS桶中,这里需要选择已建立的OBS连接。 obslink 列表文件OBS桶 存储文本文件的OBS桶名称。 obscdm 列表文件或目录 在OBS中存储文本文件文件的自定义目录,多级目录可用“/”进行分隔。 test1 文件格式 当前CDM只支持选择“二进制格式”,不解析文件内容直接传输,不要求原文件格式必须为二进制。 二进制格式 压缩格式 选择对应压缩格式的源文件进行迁移: 无:表示传输所有格式的文件。 GZIP:表示只传输GZIP格式的文件。 ZIP:表示只传输ZIP格式的文件。 TAR.GZ:表示只传输TAR.GZ格式的文件。 无 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩的文件后缀名。当一批文件中以该值为后缀时,才会执行解压缩操作,否则则保持原样传输。当输入或为空时,所有文件都会被解压。 文件分隔符 传输多个文件时,CDM使用这里配置的文件分隔符来区分各个文件,默认为l。列表文件显示为“是”时,显示该参数。 l QUERY参数 该参数设置为“是”时,上传到OBS的对象使用的对象名,为去掉query参数后的字符。 该参数设置为“否”时,上传到OBS的对象使用的对象名,包含query参数。 否 加密方式 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 忽略不存在原路径/文件 如果将其设为是,那么作业在源路径不存在的情况下也能成功执行。 否 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F MD5文件名后缀 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置HTTP源端参数
      • 评估迁移时间与测试传输速度
        本文为您介绍如何评估迁移任务时间及测试传输速度。 介绍说明 迁移时长总数据量÷(带宽大小/8)1.25。 1.25为时间冗余量;由于云主机性能瓶颈、存在大文件改动多、小文件多等情况,可能存在无法跑满带宽与保持高速率传输,留存冗余,避免由于时间预估导致项目仓促;可根据情况自由调整误差系数。 说明 数据量与带宽单位需统一(GB/MB)。 数据量单位为Byte。 带宽单位(K/M/Gbps)。 iperf3测试结果bandwidth单位(Gbits/sec)等同于带宽Gbps,千兆比特每秒。 迁移带宽以迁移源出口带宽、目的端入口带宽、CMS平台中限制带宽中最小带宽为准。 操作步骤 若需要较为严格的时间预估建议通过软件进行测试: 1. 根据源端云主机的OS类型下载对应iperf版本。 2. 在源端云主机和目的端云主机(或者目的端云主机同一Region下的其他弹性云云主机)某一个目录下解压iperf工具。例如在Windows操作系统的iperf工具: 3. 在目的端云主机上,以命令行方式运行iperf(服务端模式运行,以Windows操作系统为例): 执行以下命令,进入iperf目录。 cd /d path 其中,path指步骤2中iperf工具解压后在目的端云主机中的路径。 执行以下命令,以服务端运行iperf。 iperf3 p port s 其中,port表示iperf工具的服务端监听端口,建议Windows操作系统使用8900端口(8900为目的端云主机使用的数据传输端口),Linux操作系统使用22端口(22为目的端云主机使用的数据传输端口)。您测试的时候也可以使用其他端口,但要保证目的端云主机安全组规则允许开放该TCP或者UDP端口。更多的参数使用说明,请使用iperf h查看。 以Windows操作系统使用8900端口为例,当回显信息为Server listening on 8900时,表明服务端已经运行就绪。 4. 在源端云主机上,以命令行方式运行iperf(客户端模式运行),测试TCP带宽和UDP的抖动、丢包率和带宽(以Windows操作系统为例)。 执行以下命令,进入iperf目录 cd /d path 其中,path指步骤2中iperf工具解压后在源端云主机中的路径。 执行以下命令,运行iperf工具,测试TCP带宽。 iperf3 c targetIP p port t time 其中,c是客户端模式运行。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会进行带宽(Bandwidth)测试,测试结束后查看结果即可: 执行以下命令,运行iper测试UDP的抖动、丢包率和带宽。 iperf3 c targetIP p port u t time 其中,u表示测试UDP的抖动、丢包率和带宽。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会测试UDP的抖动(Jitter)、丢包率(Lost/Total Datagrame)和带宽(Bandwidth),测试结束后查看结果即可。 若需要测试网络时延,可以使用ping命令。 ping targetiP targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 需要配置目的端云主机所在的VPC的安全组规则,允许ICMP协议报文通过。 5. 执行以下命令,获取更多的iperf的使用帮助。或者参照官网指导获取相应的使用帮助。 iperf3 h
        来自:
      • 产品定义
        分布式缓存服务(Distributed Cache Service,简称DCS)是一款内存数据库服务,兼容Redis内存数据库引擎,为您提供即开即用、安全可靠、弹性扩容、便捷管理的在线分布式缓存能力,满足用户高并发及数据快速访问的业务诉求。 即开即用 DCS提供单机、主备和集群三种类型的缓存实例,拥有从128MB到1024GB的丰富内存规格。您可以通过控制台直接创建,无需单独准备服务器资源。 其中Redis4.0/5.0/6.0版本采用容器化部署,秒级完成创建。 安全可靠 借助统一身份认证、虚拟私有云、云监控与云审计等安全管理服务,全方位保护实例数据的存储与访问。 灵活的容灾策略,主备/集群实例从单AZ(可用区)内部署,到支持跨AZ部署。 弹性伸缩 DCS提供对实例内存规格的在线扩容与缩容服务,帮助您实现基于实际业务量的成本控制,达到按需使用的目标。 便捷管理 可视化Web管理界面,在线完成实例重启、参数修改、数据备份恢复等操作。DCS还提供基于RESTful的管理API,方便您进一步实现实例自动化管理。 在线迁移 提供可视化Web界面迁移功能,支持备份文件导入和在线迁移两种方式,您可以通过控制台直接创建迁移任务,提高迁移效率。 DCS Redis Redis是一种支持KeyValue等多种数据结构的存储系统。可用于缓存、事件发布或订阅、高速队列等典型应用场景。Redis使用ANSI C语言编写,提供字符串(String)、哈希(Hash)、列表(List)、集合结构(Set、Sorted Set)、流(Stream)等数据类型的直接存取。数据读写基于内存,同时可持久化到磁盘。 DCS Redis拥有灵活的实例配置供您选择: DCS Redis灵活的实例配置 实例类型 提供单机、主备、Proxy集群、Cluster集群、读写分离类型,分别适配不同的业务场景。 单机:适用于应用对可靠性要求不高、仅需要缓存临时数据的业务场景。单机实例支持读写高并发,但不做持久化,实例重启后原有缓存数据不会加载。 主备:包含一个主节点,一个备节点,主备节点的数据通过实时复制保持一致,当主节点故障后,备节点自动升级为主节点。 Proxy集群:在Cluster集群的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,实现客户端高并发请求。每个Cluster集群分片是一个双副本的主备实例,当主节点故障后,同一分片中的备节点会升级为主节点来继续提供服务。 Cluster集群:通过分片化分区来增加缓存的容量和并发连接数,每个分片是一个主节点和0到多个备节点,分片本身对外不可见。分片中主节点故障后,同一分片中备节点会升级为主节点来继续提供服务。用户可通过读写分离技术,在主节点上写,从备节点读,从而提升缓存的整体读写能力。 读写分离:在主备实例的基础上,增加挂载Proxy节点和ELB节点,通过ELB节点实现负载均衡,将不同请求分发到Proxy节点,Proxy节点识别用户读写请求,将请求发送到主节点或备节点,从而实现读写分离。 :: 规格 Redis提供128MB~1024GB的多种规格。 兼容开源Redis版本 DCS提供不同的实例版本,分别兼容开源Redis的3.0、4.0、5.0、6.0。 底层架构 基于虚拟机的标准版 ,单节点QPS达10万/秒。 高可用与容灾 主备与集群实例提供Region内的跨可用区部署,实现实例内部节点间的电力、网络层面物理隔离。 有关开源Redis技术细节,您可以访问Redis官方网站
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        产品定义
      • 1
      • ...
      • 240
      • 241
      • 242
      • 243
      • 244
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      模型推理服务

      一站式智算服务平台

      人脸属性识别

      推荐文档

      授权文件导入

      关于天翼云

      产品功能

      将数据库实例恢复到指定时间节点

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号