云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(独享版)_相关内容
      • 克隆实例
        本文为您介绍克隆实例的使用场景和操作流程。 操作场景 当您需要多个相似的云主机或环境时,可以克隆现有的主机来快速部署所需的配置、应用程序和设置,节省了配置时间和劳动成本。 如果主机出现故障或问题,克隆主机可以快速替代原始主机,减少服务中断时间。 在需要快速增加服务器以应对流量增加或负载均衡的情况下,通过克隆现有主机,可以更迅速地扩展服务器规模,以满足需求。 前提条件 选择支持克隆云主机操作的区域。 待克隆的云主机处于“运行中”或“关机”状态,处于中间态的云主机无法进行克隆。 本地盘云主机不支持克隆。 其余类型云主机状态为创建中、停止中、启动中、重启中、规格变更中、重建中、快照创建中、备份创建中、按量删除中、已冻结、已到期、包周期退订中、包周期已退订、节省关机中、节省关机、错误 不支持克隆。 操作步骤 1. 登录控制中心; 2. 单击控制中心顶部的,选择“地域”; 3. 选择“计算 >云主机”; 4. 在待克隆的云主机的“操作”列下,单击“更多 >克隆云主机”; 5. 在克隆云主机界面,填写克隆云主机的相关信息后,单击“立即购买”,支付成功后完成克隆。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        管理实例状态
        克隆实例
      • 将实例移出伸缩组
        本文主要介绍如何将实例移除伸缩组。 您可以将实例移出伸缩组,更新实例或排查实例的问题,然后将实例重新移入伸缩组。移出伸缩组后实例不再处理应用程序流量。当您选择“移出伸缩组” 时,系统仅将其移出伸缩组,不释放、不删除、不改变云服务器状态,云服务器实例可以作为其他用途;当您选择“移出伸缩组并释放” 时,系统会将伸缩组创建的云服务器移出伸缩组并且将其释放,但该操作对手动移入伸缩组的云主机不生效。 将云主机成功移出指定伸缩组必须满足如下条件: 伸缩组没有正在进行的伸缩活动; 伸缩实例状态为“已启用” ; 移出后实例数不能小于伸缩组的最小实例数时。 将云主机移出伸缩组的步骤如下: 1. 登录天翼云控制中心,切换到需要修改伸缩策略的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击【伸缩实例】标签,进入【伸缩实例标签页】; 4. 在【伸缩实例】页签中的实例所在行的【操作】列下,单击【移出伸缩组】或【移出伸缩组并删除】; 5. 如果您要移出所有实例,可以勾选参数“实例名称” 左侧的方框,单击【移出伸缩组】或【移出伸缩组并删除】。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩活动管理
        将实例移出伸缩组
      • 产品咨询类问题
        本节主要介绍产品咨询类问题。 使用GeminiDB Influx时要注意什么 a) 实例的操作系统,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 b) 对象存储服务(Object Storage Service,简称OBS)上的备份文件以及GeminiDB Influx使用的系统容器,都对用户不可见,它们只对GeminiDB Influx后台管理系统可见。 c) 申请数据库实例后,您还需要做什么。 申请实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: 数据库实例的CPU、IOPS、空间是否足够。 数据库实例是否存在性能问题,是否需要优化等。 什么是GeminiDB Influx实例可用性 实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 其中,故障时间是指数据库实例购买完成后,运行期间累计发生故障的总时长。服务总时间指数据库实例购买完成后运行的总时长。 GeminiDB Influx中有没有支持多列转多行的函数 GeminiDB Influx中暂无多列转多行的函数。 GeminiDB Influx最大能支持到多少PB的数据 GeminiDB Influx支持的最大数据容量请参见数据库实例规格中实例的最大存储空间。 GeminiDB Influx是否支持Grafana访问 GeminiDB Influx支持Grafana直接访问,具体操作请参见如何通过Grafana连接GeminiDB Influx。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        常见问题
        产品咨询类问题
      • 登录综合安全网关实例
        本章节为您介绍如何登录综合安全网关实例。 综合安全网关是一款专为解决网络间安全互联而设计的高性能安全产品。 它基于SSL协议,能够在不可信的公共网络上建立安全、加密的通信隧道,确保数据的机密性和完整性。 该产品提供了强大的身份认证机制,支持多种认证方式,如密码、智能卡和生物识别等,有效防止未经授权的访问。 此外,综合安全网关还具有灵活的访问控制策略,可以根据用户身份和设备类型授予不同的访问权限,保护企业内部资源的安全。它易于部署和管理,支持各种操作系统和移动设备,满足远程办公和移动办公的需求,广泛应用于企业、政府机构和教育领域。 您成功购买综合安全网关服务实例后,可在天翼云云密评专区管理控制台登录。 开放端口要求 为避免网络故障或网络配置问题影响登录系统,请管理员优先检查网络配置是否允许访问综合安全网关,并参考下表配置实例安全组。 注意 您需要在对接综合安全网关实例的安全组下放通以下IP: 100.89.0.0/16 如何添加安全组规则请参考:添加安全组规则章节。 端口 端口用途 18443 使用综合安全网关的SSL VPN服务必开的端口。 1844418454 此端口范围为您新增网关安全服务时预留的端口范围,请您按需选择。
        来自:
        帮助文档
        云密评专区
        用户指南
        云密评专区—综合安全网关操作指南
        登录综合安全网关实例
      • 使用自建Beats导入数据至Elasticsearch实例
        本文为您介绍如何使用自建Beats向天翼云云搜索服务Elasticsearch实例导入数据。 Beats是轻量级的数据收集器,专门用于将各种日志、指标、网络数据发送到Elasticsearch。常用的Beats包括 Filebeat、Metricbeat、Packetbeat等。 Filebeat是一种轻量级日志收集器,通常用于将文件系统中的日志文件或事件日志发送到Elasticsearch或Logstash。它适合简单的日志采集场景,能够有效处理系统、应用程序日志等。本文将以Filebeat为例,导入数据至Elasticsearch实例。 适用场景 轻量数据收集:适用于需要从大量分布式系统、服务器、容器中收集日志、监控指标等情况。 实时日志监控:Beats 能够实时收集日志并传送到 Elasticsearch,是实时日志分析场景的理想选择。 低延迟要求的场景:Beats设计为轻量级工具,占用资源少,适合资源受限的环境。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 已经部署Filebeat且打通和Elasticsearch实例之间的网络。 Filebeat配置 Filebeat采集日志,需要配置Filebeat的配置文件,设置具体需要采集的日志路径。 具体根据实际的部署路径配置filebeat.yml。 采集日志 filebeat.inputs: type: log 采集的日志文件的路径。替换为自己日志的路径,可以使用通配符。 paths: /yourpath/.log output.elasticsearch: ip替换为Elasticsearch实例的地址。 hosts: [" 传入Elasticsearch实例的用户名和密码 username: "" password: ""
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用自建Beats导入数据至Elasticsearch实例
      • 查询Elasticsearch SQL
        连接操作Joins Join Example Inner join SELECT p.firstname, p.lastname, p.gender, dogs.name FROM people p JOIN dogs d ON d.holdersName p.firstname WHERE p.age > 12 AND d.age > 1 Left outer join SELECT p.firstname, p.lastname, p.gender, dogs.name FROM people p LEFT JOIN dogs d ON d.holdersName p.firstname Cross join SELECT p.firstname, p.lastname, p.gender, dogs.name FROM people p CROSS JOIN dogs d 相关约束和限制,参考“连接操作Joins”。 展示Show 展示show操作与索引模式匹配的索引和映射。您可以使用或%使用通配符。 展示show Show Example Show tables like SHOW TABLES LIKE logs 连接操作Joins Open Distro for Elasticsearch SQL支持inner joins, left outer joins,和cross joins。Join操作有许多约束: 您只能加入两个参数。 您必须为索引使用别名(例如people p)。 在ON子句中,您只能使用AND条件。 在WHERE语句中,不要将包含多个索引的树组合在一起。例如,以下语句有效: WHERE (a.type1 > 3 OR a.type1 4 OR b.type2 3 OR b.type2 4 OR b.type2 < 1) 您不能使用GROUP BY或ORDER BY来获得结果。 LIMIT和OFFSET不支持一起使用(例如LIMIT 25 OFFSET 25)。 JDBC驱动 Java数据库连接(JDBC)驱动程序允许您将Open Distro for Elasticsearch与您的商业智能(BI)应用程序集成。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        查询Elasticsearch SQL
      • Qwen2-72B-Instruct
        本文为您详细介绍Qwen272BInstruct模型。 模型简介 Qwen2是Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 使用场景 Qwen2系列模型可以提供强大的自然语言处理能力,广泛应用于自然语言理解、知识问答、代码辅助、数学解题、多语言翻译等多个领域,满足不同用户的需求。 评测效果 简要地将 Qwen272BInstruct 与类似大小的指令调优 LLM 进行了比较,包括之前的 Qwen1.572BChat。结果如下: Datasets Llama370BInstruct Qwen1.572BChat Qwen272BInstruct English MMLU 82.0 75.6 82.3 MMLUPro 56.2 51.7 64.4 GPQA 41.9 39.4 42.4 TheroemQA 42.5 28.8 44.4 MTBench 8.95 8.61 9.12 ArenaHard 41.1 36.1 48.1 IFEval (Prompt StrictAcc.) 77.3 55.8 77.6 Coding HumanEval 81.7 71.3 86.0 MBPP 82.3 71.9 80.2 MultiPLE 63.4 48.1 69.2 EvalPlus 75.2 66.9 79.0 LiveCodeBench 29.3 17.9 35.7 Mathematics GSM8K 93.0 82.7 91.1 MATH 50.4 42.5 59.7 Chinese CEval 61.6 76.1 83.8 AlignBench 7.42 7.28 8.27
        来自:
        帮助文档
        训推服务
        模型简介
        Qwen2-72B-Instruct
      • 推理加速型Pi3
        常规支持软件列表 Pi3实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持一定的训练场景。 常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet、Spark等深度学习框架。 AMBER、NAMD、OPENFOAM等2000+支持GPU加速的软件应用。 使用须知: Pi3型云主机,关机后基础资源(包括vCPU、内存、镜像)不计费,但系统盘仍会收取容量对应的费用。如有其他绑定的产品,如云硬盘、弹性IP、带宽等,按各自产品的计费方法进行收费。 说明 Pi3型云主机,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云主机开机失败。如果您需要长期使用该云主机,建议保持开机状态。 Pi3型弹性云主机当前支持如下版本的操作系统: Ubuntu 20.04 server 64bit Ubuntu 18.04 server 64bit CentOS 8.2 64bit CentOS 8.1 64bit CentOS 8.0 64bit CentOS 7.9 64bit CentOS 7.8 64bit CentOS 7.7 64bit CentOS 7.6 64bit Pi3型云主机,所在物理机发生故障时,云主机支持自动恢复。 创建Pi3型云主机时,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云主机创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包章节。
        来自:
      • 云迁移的功能
        本节为您介绍云迁移平台功能。 成本评估(TCO) 云迁移(Cloud Migration Service)提供全面的企业上云成本分析,包括自建IDC上云与从其他云厂商迁移至天翼云场景。此功能旨在帮助用户或企业快速进行天翼云产品映射与成本分析比较,通过成本角度比较不同云服务提供商之间的优势和劣势,进而辅助用户做出符合其需求的上云选择。 异构评估 云迁移(Cloud Migration Service)提供上云异构工具可用性评估,主要评估组件或应用程序是否能够使用异构迁移套件Devkit与二进制指令动态翻译软件。通过平台指引进行前项评估确认,进而辅助选出符合其需求的上云工具。 资源规划 云迁移(Cloud Migration Service)提供全面的企业上云资源规划管理,提供资源发现,新建资源详单,支持在线与离线采集,创建迁移组与迁移计划获取资源信息,便于简单高效管理资源。 迁移管理 云迁移(Cloud Migration Service)提供全面迁移管理包括工具中心、调度管理、进度大盘、迁移报告,用户能够一站式了解迁移动态,监控所有迁移任务。 服务器迁移服务 服务器迁移服务(CMSSMS,Server Migration Service)是天翼云自主研发的一种P2V/V2V迁移平台,可将物理服务器、私有云、公有云平台上的单台或多台源主机迁移到天翼云,从而帮助客户解决上云成本高、操作复杂、迁移周期长、业务中断等迁移难题。
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        云迁移的功能
      • 创建解析记录
        类型 说明 主机记录 主机记录指域名前缀,例如 example.com 常用的解析如下: 网站解析:主机记录写www,解析的域名是www.example.com。 网站解析:主机记录为空,解析的域名是example.com。 子域名:主机记录写cdn,解析的域名是cdn.example.com。 邮箱解析:主机记录写mail,解析的域名是mail.example.com。 泛解析:主机记录写,解析的域名是.example.com,匹配example.com的所有子域名。 SRV主机记录格式:服务的名字.协议的类型,协议通常为TCP或UDP,服务为应用层服务名,如FTP/SIP等PTR反向解析记录格式:IPv4的格式,与地址192.168.1.2,相对应的反向解析域名为:2.1.168.192.inaddr.arpa,地址反转,后缀系统添加;IPv6的格式,与地址4321:0:1:2:3:4:567:89ab相对应的反向查找域名将为b.a.9.8.7.6.5.0.4.0.0.0.3.0.0.0.2.0.0.0.1.0.0.0.0.0.0.0.1.2.3.4.IP6.ARPA,地址反转,每一位16进制数间用"."分隔,后缀系统添加。 类型 指定域名对应的IPv4地址,用于将域名解析到IPv4地址。 TTL(秒) TTL指解析记录在本地DNS服务器的缓存时间。如果您的服务地址经常更换,建议TTL值设置相对小些,反之,建议设置相对大些。 值 填写IPv4地址,最多可以输入8个不重复地址,每行一个。 例:192.168.10.10 描述 可选参数,解析记录描述。
        来自:
        帮助文档
        内网DNS
        快速入门
        创建解析记录
      • Ingress概述
        本文主要介绍 Ingress概述。 为什么需要Ingress Service基于TCP和UDP协议进行访问转发,为集群提供了四层负载均衡的能力。但是在实际场景中,Service无法满足应用层中存在着大量的HTTP/HTTPS访问需求。因此,Kubernetes集群提供了另一种基于HTTP协议的访问方式——Ingress。 Ingress是Kubernetes集群中一种独立的资源,制定了集群外部访问流量的转发规则。用户可根据域名和路径对转发规则进行自定义,完成对访问流量的细粒度划分。 图 Ingress示意图 下面对Ingress的相关定义进行介绍: Ingress资源:一组基于域名或URL把请求转发到指定Service实例的访问规则,是Kubernetes的一种资源对象,通过接口服务实现增、删、改、查的操作。 Ingress Controller:请求转发的执行器,用以实时监控资源对象Ingress、Service、Endpoint、Secret(主要是TLS证书和Key)、Node、ConfigMap的变化,解析Ingress定义的规则并负责将请求转发到相应的后端Service。 Ingress Controller在不同厂商之间的实现方式不同,根据负载均衡器种类的不同,可以将其分成ELB型和Nginx型。CCE支持上述两种Ingress Controller类型,其中ELB Ingress Controller基于弹性负载均衡服务(ELB)实现流量转发;而Nginx Ingress Controller使用Kubernetes社区维护的模板与镜像,通过Nginx组件完成流量转发。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Ingress
        Ingress概述
      • 原地升级
        本文主要介绍原地升级。 操作场景 您可以通过云容器引擎管理控制台升级集群版本,以支持新特性的使用。 升级前,请先了解CCE各集群版本能够升级到的目标版本,以及升级方式和升级影响,详情请参见集群升级概述和升级前须知。 升级说明 集群的升级采用原地升级方式更新节点上的Kubernetes组件,升级后不会改变节点上的OS版本。 数据面节点升级时将采用分批升级的方式,默认会选择根据CPU、内存、PDB(Pod Disruption Budget,即为应用程序设置干扰预算)等设置节点升级的优先级,您也可以根据您的业务需要自行设置优先级。 注意事项 集群升级过程中会自动升级插件到目标集群兼容的版本,升级过程中请不要卸载或者重装插件。 升级之前请确认所有的插件都处于运行状态,如果插件升级失败可以在插件问题修复后,重试升级。 升级时会检查插件运行状态,部分插件(如CoreDNS)需要至少两个节点才能维持正常状态,那此时升级就至少需要两个节点。 若在集群升级过程中出现升级失败的提示,请参照提示信息修复问题后点击重试,若重试后仍未成功升级,请提交工单联系我们协助您进行修复。 更多注意事项请参见升级前须知。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        原地升级
      • 使用自建Beats导入数据至OpenSearch实例
        本文为您介绍如何使用自建Beats向天翼云云搜索服务OpenSearch实例导入数据。 Beats是轻量级的数据收集器,专门用于将各种日志、指标、网络数据发送到Elasticsearch。常用的Beats包括Filebeat、Metricbeat、Packetbeat等。 Filebeat是一种轻量级日志收集器,通常用于将文件系统中的日志文件或事件日志发送到OpenSearch或Logstash。它适合简单的日志采集场景,能够有效处理系统、应用程序日志等。本文将以Filebeat为例,导入数据至OpenSearch实例。 适用场景 轻量数据收集:适用于需要从大量分布式系统、服务器、容器中收集日志、监控指标等情况。实时日志监控:Beats能够实时收集日志并传送到OpenSearch,是实时日志分析场景的理想选择。 低延迟要求的场景:Beats设计为轻量级工具,占用资源少,适合资源受限的环境。 前提条件 已经开通天翼云云搜索OpenSearch实例。 已经部署Filebeat且打通和OpenSearch实例之间的网络。 Filebeat配置 Filebeat采集日志,需要配置Filebeat的配置文件,设置具体需要采集的日志路径。 具体根据实际的部署路径配置filebeat.yml: 采集日志 filebeat.inputs: type: log 采集的日志文件的路径。替换为自己日志的路径,可以使用通配符。 paths: /yourpath/.log OpenSearch可以使用Elasticsearch的输出插件。 output.elasticsearch: ip替换为OpenSearch实例的地址。 hosts: ["
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        导入数据至OpenSearch实例
        使用自建Beats导入数据至OpenSearch实例
      • 使用Kudu客户端
        本章节主要介绍使用Kudu客户端 。 使用Kudu客户端 Kudu是专为Apache Hadoop平台开发的列式存储管理器。Kudu具有Hadoop生态系统应用程序的共同技术特性:可水平扩展,并支持高可用性操作。 前提条件 已安装集群客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 操作步骤 1. 以客户端安装用户,登录安装客户端的节点。 2. 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3. 执行以下命令配置环境变量。 source bigdataenv 4. 运行Kudu命令行工具。 直接执行Kudu组件的命令行工具,查看帮助。 kudu h 回显信息如下: Usage: kudu [ ] can be one of the following: cluster Operate on a Kudu cluster diagnose Diagnostic tools for Kudu servers and clusters fs Operate on a local Kudu filesystem hms Operate on remote Hive Metastores localreplica Operate on local tablet replicas via the local filesystem master Operate on a Kudu Master pbc Operate on PBC (protobuf container) files perf Measure the performance of a Kudu cluster remotereplica Operate on remote tablet replicas on a Kudu Tablet Server table Operate on Kudu tables tablet Operate on remote Kudu tablets test Various test actions tserver Operate on a Kudu Tablet Server wal Operate on WAL (writeahead log) files 说明 kudu命令行工具不提供DDL、DML等操作,但提供针对cluster、master、tserver、fs、table等的细化查询功能。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Kudu客户端
      • 使用限制
        本文介绍文档数据库服务的使用限制说明。 为了提高实例的稳定性和安全性,文档数据库服务在使用上有一些固定限制。 操作 使用限制 :: 连接DDS实例 通过内网连接DDS实例时,需要为已准备的弹性云主机绑定弹性IP,并确保实例与该弹性云主机在同一个区域、可用区、虚拟私有云子网内。 文档数据库服务和弹性云主机在不同的安全组默认不能访问,需要在文档数据库服务安全组添加一条“入”的访问规则。 文档数据库服务默认端口:8635,需要手动修改才能访问其它端口。 部署 实例所部署的弹性云主机,对用户不可见,即只允许应用程序通过IP地址和端口访问数据库。 数据库的rwuser权限 创建实例页面只提供管理员帐户rwuser权限。 该权限下用户需要关注的命令请参见[]( 5.12%E6%94%AF%E6%8C%81%E4%B8%8E%E9%99%90%E5%88%B6%E7%9A%84%E5%91%BD%E4%BB%A4)支持与限制的命令。 配置数据库参数 用户创建的参数组中大部分数据库参数可以修改,具体请参见编辑参数组。 数据迁移 可以通过命令行工具和数据复制服务迁移数据,具体请参见数据迁移[](
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        使用限制
      • MySQL使用规范建议
        索引设计规范 单表的索引数量最好不超过5个,单个索引中的字段数最好不超过5个,避免因长时间锁定数据导致内存、连接消耗过多等问题。 确保索引字段长度固定且不宜过长。过长的索引字段会占用更多磁盘空间,并影响索引的性能。 避免冗余索引,即存在两个索引 (a,b) 和 (a) 的情况,若查询条件为a列,只需建立 (a,b) 索引即可,不需要额外建立 (a) 索引。 对于高过滤性的字段,考虑在其上加索引。高过滤性字段的索引可以提高查询效率。 注意选择性和数据类型。选择性高的字段和合适的数据类型可以提高索引效果和查询性能。 合理利用覆盖索引来减少I/O开销,通过创建包含所需列的复合索引,避免回表操作。 开发使用规范 在处理复杂运算或业务逻辑时,优先考虑在业务层实现,而非在SQL中进行。合理选择分页方式以提高分页效率,避免使用跳跃式分页。 在事务中使用更新语句时,尽量基于主键或唯一键进行操作,避免产生间隙锁和死锁。 尽量避免使用外键和级联更新,应该在应用层处理外键关系。 减少使用in操作,集合元素数量不应超过1000个。 对于批量数据操作,可以适度采用批量SQL语句,例如使用insert into...values语句批量插入数据,但不宜超过100个。 避免使用存储过程,存储过程难以调试、扩展和移植。 避免使用触发器、事件调度器和视图来实现业务逻辑,这些应该在业务层处理,避免对数据库产生逻辑依赖。 避免使用隐式类型转换,了解类型转换规则,确保比较操作符两边的数据类型一致,避免影响查询性能。 在一个事务中,尽量控制SQL语句的数量,不超过5个,避免长时间锁定数据、内存缓存问题和连接消耗过多。 利用覆盖索引来进行查询操作,避免回表。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        MySQL使用规范建议
      • 监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) rds001cpuutil CPU使用率 该指标用于统计测量对象的CPU使用率。 (0,60) 节点 60秒 rds002memutil 内存使用率 该指标用于统计测量对象的内存使用率。 (0,60) 节点 60秒 rds003bytesin 数据写入量 该指标用于统计测量对象对应VM的网络发送字节数,取时间段的平均值 暂无 节点 60秒 rds004bytesout 数据传出量 该指标用于统计测量对象对应VM的网络接受字节数,取时间段的平均值 暂无 节点 60秒 rds014iops 数据磁盘每秒读写次数 该指标用于统计测量对象的节点数据磁盘每秒读写次数,该值为实时值。 暂无 节点 60秒 rds016diskwritethroughput 数据磁盘写吞吐量 该指标用于统计测量对象的节点数据磁盘每秒写吞吐量,该值为实时值。 暂无 节点 60秒 rds017diskreadthroughput 数据磁盘读吞吐量 该指标用于统计测量对象的节点数据磁盘每秒读吞吐量,该值为实时值。 暂无 节点 60秒 rds020avgdiskmsperwrite 数据磁盘单次写入花费的时间 该指标用于统计测量对象的节点数据磁盘单次写入花费的时间,取时间段的平均值。 暂无 节点 60秒 rds021avgdiskmsperread 数据磁盘单次读取花费的时间 该指标用于统计测量对象的节点数据磁盘单次读取花费的时间,取时间段的平均值。 暂无 节点 60秒 iobandwidthusage 磁盘io 带宽占用率 当前磁盘io带宽与磁盘最大带宽比值 NA 节点 60秒 iopsusage IOPS 使用率 当前iops与磁盘最大iops比值 NA 节点 60秒 rds005instancediskusedsize 实例数据磁盘已使用大小 该指标用于统计测量对象的实例数据磁盘已使用大小,该值为实时值。 暂无 实例 60秒 rds006instancedisktotalsize 实例数据磁盘总大小 该指标用于统计测量对象的实例数据磁盘总大小,该值为实时值。 暂无 实例 60秒 rds007instancediskusage 实例数据磁盘已使用百分比 该指标用于统计测量对象的实例数据磁盘使用率,该值为实时值。 (0, 60%) 实例 60秒 rds035bufferhitratio buffer 命中率 该指标用于统计数据库buffer命中率。 (95,100) 实例 60秒 rds036deadlocks 死锁次数 该指标用于统计数据库发生事务死锁的次数,取该时间段的增量值。 (0,1) 实例 60秒 rds048P80 80% SQL的响应时间 该指标用于统计数据库80% SQL的响应时间,该值为实时值。 (0,150000) 实例 60秒 rds049P95 95% SQL的响应时间 该指标用于统计数据库95% SQL的响应时间,该值为实时值。 (0,200000) 实例 60秒 rds008diskusedsize 磁盘已使用大小 该指标用于统计测量对象的节点数据磁盘使用值,该值为实时值。 NA 组件 60秒 rds009disktotalsize 磁盘总大小 该指标用于统计测量对象的节点数据磁盘总大小,该值为实时值。 NA 组件 60秒 rds010diskusage 磁盘已使用百分比 该指标用于统计测量对象的节点数据磁盘使用率,该值为实时值。 80 组件 60秒 rds024currentsleeptime 主机流控时间 该指标用于统计测量对象的主机流控时间,该值为实时值。 1 组件 60秒 rds025currentrto 备机RTO时间 该指标用于统计测量对象的主备复制的RTO,该值为实时值。 60 组件 60秒 rds026logincounter 用户登入次数/秒 该指标用于统计CN节点上每秒的登入次数,取时间段的平均值。 1000 组件 60秒 rds027logoutcounter 用户登出次数/秒 该指标用于统计CN节点上每秒的登出次数,取时间段的平均值。 1000 组件 60秒 rds028standbydelay 备机redo进度 该指标用于统计分片内备机redo进度,表示备机和主机的差距,该值为实时值。 200MB 组件 60秒 rds030waitratio 锁等待状态会话比率 该指标用于统计当前处于锁等待状态会话占活跃工作状态下会话比率,该值为实时值。 50 组件 60秒 rds031activeratio 活跃会话率 该指标用于统计当前处于活跃工作状态会话占总会话数比率,该值为实时值。 20 组件 60秒 rds034inusecounter CN连接数 该指标用于统计CN连接池中正在使用的连接数,该值为实时值。 80 组件 60秒 rds037commitcounter 用户提交事务数/秒 该指标用于统计用户每秒提交的事务数,取时间段的平均值。 50000 组件 60秒 rds038rollbackcounter 用户回滚事务数/秒 该指标用于统计用户每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds039bgcommitcounter 后台提交事务数/秒 该指标用于统计后台每秒提交的事务数,取时间段的平均值。 5000 组件 60秒 rds040bgrollbackcounter 后台回滚事务数/秒 该指标用于统计后台每秒回滚的事务数,取时间段的平均值。 0 组件 60秒 rds041respavg 用户事务平均响应时间 该指标用于统计用户事务的平均响应时间。 10ms 组件 60秒 rds042rollbackratio 用户事务回滚率 该指标用于统计用户事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds043bgrollbackratio 后台事务回滚率 该指标用于统计后台事务回滚事务占用户提交、回滚事务之和的比率,取时间段的平均值。 0 组件 60秒 rds044ddlcount data definition language 该指标用于统计用户负载在query层的DDL数量,取时间段的平均值。 10 组件 60秒 rds045dmlcount data manipulation language/min 该指标用于统计用户负载在query层的DML数量,取时间段的平均值。 50000 组件 60秒 rds046dclcount data Control Language/min 该指标用于统计用户负载在query层的DCL数量,取时间段的平均值。 10 组件 60秒 rds047ddldclratio DDL+DCL比率 该指标用于统计用户负载在query层的DDL+DCL占DDL+DCL+DML的比率,取时间段的平均值。 5 组件 60秒 rds050ckptdelay 待落盘的数据量 该指标用于统计信息同步到磁盘过程中待落盘的数据量,该值为实时值。 200MB/s 组件 60秒 rds051phyrds 读物理文件的IO次数/秒 该指标用于统计数据库每秒读物理物件的IO次数,取时间段的平均值。 20000 组件 60秒 rds052phywrts 写物理文件的IO次数/秒 该指标用于统计数据库每秒写物理物件的IO次数,取时间段的平均值。 10000 组件 60秒 rds053onlinesession 在线会话数量 该指标用于统计当前在线的session个数,该值为实时值。 NA 组件 60秒 rds054activesession 活跃会话数量 该指标用于统计当前所有活跃工作状态下会话个数,该值为实时值。 NA 组件 60秒 rds055onlineratio 在线会话率 该指标用于统计CN(分布式)/主DN(主备版)上的在线会话比例,该值为实时值 NA 组件 60秒 rds060longrunningtransactionexectime 数据库最长事务的执行时长 该指标用于统计测量对象的数据库最长事务的执行时长, 该值为实时值。 NA 组件 60秒 rds066replicationslotwallogsize 复制槽保留的WAL日志大小 该指标用于统计主DN上复制槽中保留的WAL日志的大小, 该值为实时值。 NA 组件 60秒 rds067xloglsn xlog速率 该指标用于统计CN或者DN上xlog的速率, 该值为实时值。 NA 组件 60秒 rds068swapusedratio 交换内存使用率 该指标用于描述操作系统交换内存使用率,该值为实时值。 NA 节点 60秒 rds069swaptotalsize 交换内存总大小 该指标用于描述操作系统交换内存总大小,该值为实时值。 NA 节点 60秒
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        监控与告警
        监控指标
      • 云日志服务C SDK
        本文主要介绍云日志服务C SDK接入指南。 1. 前言 安装使用C SDK可以帮助开发者快速接入使用天翼云的日志服务相关功能,目前支持日志同步上传。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK C版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装C 运行环境。 2.2. 下载及安装 下载ctyunltscsdk.zip压缩包,放到相应位置后并解压。“ctyunltscsdk”目录中sampleputlogs.c为SDK的使用示例代码。 2.2.1. 依赖 cmake2.8或更新版本,GCC 4.9或更新版本。以下库及其相关头文件,可在对应Linux发行版的包管理器中安装,括号中给出的是经过验证的版本。 plaintext libcurldevel(7.6.1) openssldevel (1.1.1k) protobufc(1.3.06.el8) lz4(v1.8.3) jsonc(0.13.12.el8) 对于 CentOS 安装,可用如下命令搭建依赖环境。 plaintext yum install gccc++ yum install cmake yum install libcurldevel openssldevel libuuiddevel yum install lz4devel.x8664 yum install protobufcdevel.x8664 yum install jsoncdevel.x8664 2.2.2. 编译使用 1、进入ctyunltscsdk目录下,里面有CMakelists.txt文件。 2、执行build.sh,其包含以下命令。 plaintext !bin/bash generate .pbc.c .pbc.h from .proto protocc protopath./protoc cout./ common.proto resource.proto logs.proto echo "generate 6 file (commonresourcelogs).(pbc.cpbc.h)" mkdir build cd build cmake install location is .. cmake .. DCMAKEINSTALLPREFIX.. make make install 其中make 主要做的工作有:为.proto文件生成对应的.pbc.c、.pbc.h,以及动态链接构建出库文件libltssdk.a,存放在lib目录下。 3、将ctyunltscsdk目录下的头文件,全部移动到您项目的对应目录下,(如果直接使用SDK 则可以不用移动)。 4、之后你就可以在你的项目内使用SDK了,只需要引入对应的头文件即可。 5、编译您的程序,在您目录下内编译您的程序,构建出可执行文件, 如sampleputlogs.c。 plaintext gcc sampleputlogs.c o sampleputlogs I./ L./lib/ lltssdk lssl llz4 lcurl lprotobufc lcrypto ljsonc 或者 根据主目录中的Makefile 文件。执行以下命令,也能实现上面的构建出可执行文件。 plaintext make sampleputlogs 6、执行你的可执行文件。 plaintext ./sampleputlogs 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • 操作类
        扩大带宽是否会对DRS正在进行中的任务产生影响 扩大云连接带宽时需要重建带宽链路,则会导致网络断开,此时是否会对DRS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。例如针对MySQL引擎而言,如果网络断开1天,而在这1天时间内源库binlog被清理了(MySQL都有binlog清理策略,用户侧自己配置的),就无法进行任务续传,需要重置任务。如果网络中断的时间很短,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则是可以继续续传任务,不会对DRS任务产生影响。 为什么MariaDB和 SysDB下的数据不迁移 由于某些MariaDB的版本把SysDB库作为其系统库(类似于MySQL官方版5.7的sys库),所以DRS默认也将SysDB作为所有MariaDB的系统库来处理(等同于MySQL、informationschema、performanceschema等库)。如果SysDB确实是业务库,您可以通过工单申请处理。 多对一的场景约束及操作建议 因业务需要,不同实例、不同表的数据需要进行合并时,数据复制服务提供的数据迁移支持多对一的场景。 操作建议 为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。 每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • 设置SSL数据加密
        本节介绍了设置SSL数据加密的相关内容。 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器; 加密数据以防止数据中途被窃取; 维护数据的完整性,确保数据在传输过程中不被改变。 由于老版本客户端存在SSL兼容问题(客户端版本低于5.1),RDS for MySQL新实例默认关闭SSL数据加密,如果确认客户端无兼容性问题,开启SSL请参考开启SSL加密,开启SSL会增加网络连接响应时间和CPU消耗,开启前请评估对业务的性能影响。 通过客户端连接实例提供两种连接方式:加密连接和非加密连接。 SSL未开启(默认),使用非加密连接数据库。 SSL已开启,使用SSL加密连接。加密连接实现了数据加密功能,具有更高的安全性。 注意 开启或关闭SSL加密会导致实例重启,实例重启时客户端会断开连接,请谨慎操作。 加密套件建议使用ECDHERSAAES128GCMSHA256/ECDHERSAAES256GCMSHA384/DHERSAAES128GCMSHA256/DHERSAAES256GCMSHA384。 开启SSL加密 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在“基本信息”页面,在“SSL”处单击 。 步骤 6 在弹出框中,单击“确定”,开启SSL加密。 步骤 7 稍后可在“基本信息”页面,查看到SSL已开启。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        安全与加密
        设置SSL数据加密
      • 重置升级/滚动升级(1.13版本)
        本文主要介绍 重置升级/滚动升级(1.13版本) 。 操作场景 您可以通过云容器引擎管理控制台,快速升级Kubernetes版本,以支持新特性的使用。 升级前,请先了解CCE各集群版本能够升级到的目标版本,以及升级方式和升级影响,详情请参见集群升级概述和升级前须知。 注意事项 集群升级时若需要升级CoreDNS插件,请确保节点数大于等于CoreDNS的实例数,且CoreDNS的所有实例都处于运行状态,否则将导致升级失败。1.13版本的集群若需升级到更高版本,需先将CoreDNS插件升级当前集群可用的最新版本。 1.13版本内升级时,集群上的应用只会在升级网络组件时有短暂中断。 操作步骤 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏选择“集群升级”,在右侧可以看到可升级的版本,单击“版本升级”。 说明 若您的集群当前已是最新版本,则“版本升级”按钮为灰色不可用状态。 若您的集群状态异常或存在异常状态的插件,则“版本升级”按钮为灰色不可用状态,请参考升级前须知检查。 步骤 3 在弹出的“升级前预检查”对话框中,单击“开始检查”。 升级前预检查 步骤 4 升级前预检查开始启动,在此过程中集群状态将显示为“预检查中”,期间该集群不能进行新业务下发,运行中的业务不受影响,该过程将持续35分钟。 升级前预检查进行中 步骤 4 待升级前预检查的状态显示为“已完成”时,单击“去升级”。 升级前预检查完成 步骤 6 进入集群升级页面,参照下表确认或配置基本信息。 基本信息确认与配置 参数 参数说明 集群名称 请确认您要升级的集群名称。 当前版本 请确认待升级集群的版本。 升级后版本 请确认升级后的目标版本。 节点升级策略 重置升级:用户节点采用重置安装方式,节点操作系统将会被重装,系统盘和数据盘的数据均会被清空,请谨慎使用。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 由于升级过程节点进行重置安装,用户已运行的工作负载业务将会中断。 用户节点的系统盘和数据盘将会被清空,升级前请事先备份重要数据。 用户节点上挂载的非LVM管理的数据盘,升级后需要重新挂载,盘中数据不会丢失。 云硬盘的配额需大于0。 容器的IP地址会发生变化,但是不影响容器间的网络通信。 用户节点的自定义标签将不会保留。 集群升级时间约为12分钟。 滚动升级 :用户节点采用节点池滚动升级,适用于集群下节点均采用节点池创建的场景。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 用户已运行的工作负载业务不会中断。 集群升级时间约为12分钟。 重置节点镜像 仅支持物理机节点。物理机节点支持在升级时替换操作系统镜像,可指定节点使用新的镜像,在升级时会使用新镜像重装操作系统。如不指定则默认使用原有镜像重装操作系统。 登录方式 密码用户名默认为“root”,请输入登录节点的密码,并确认密码。登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。选择用于登录本节点的密钥对,支持选择共享密钥。密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 集群备份 对集群的Master节点进行整机备份,需要用户手动确认 ,备份过程会使用云备份服务,备份通常耗时在20分钟左右, 若当前局点云备份任务排队较多时,备份时间可能同步延长,推荐用户使用进行整机备份。 节点升级优先级 可选择优先升级的节点。 步骤 7 完成后单击“下一步”,在弹出的“集群升级”对话框中单击“确定”。 根据您选择的“节点升级策略”,对话框中会有如下两种不同的提示: 重置升级:升级后的集群版本将使用更高版本操作系统,升级将会重启节点并升级操作系统版本,升级过程中运行的业务会暂时中断。 滚动升级:滚动升级后,需要用户重置节点(同时去除不可调度标签)或新建节点才能完成升级。 步骤 8 进入“升级插件”步骤,如有需要升级的插件会有红色圆点提示,请单击插件卡片左下角的“升级”按钮,完成后单击页面右下角的“升级”。 说明 集群将依次升级控制节点,然后并发升级用户节点。用户节点较多时,节点将分批升级。 请选择合适的时间段进行升级,以减少升级对业务的影响 单击“升级”会立刻开始执行升级操作,并且无法撤销。升级过程中请勿对节点执行关机、重启等操作。 步骤 9 在弹出的“集群升级”对话框中阅读提示信息,确认后单击“确定”,注意集群升级后不可回退。 集群升级确认 步骤 10 在集群列表页面中可以看到集群的状态为“升级中”,升级过程需要一定的时间,请耐心等待升级完成。 升级成功后,您可以在集群列表或集群详情页面查看升级后的集群状态和版本。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        重置升级/滚动升级(1.13版本)
      • Lua脚本规范
        本节主要介绍Lua脚本规范。 Lua是一种脚本语言,目的是为了嵌入应用程序中,为应用程序提供灵活的扩展和定制功能。GeminiDB Redis使用的是Lua5.1.5版本,与开源Redis5.0使用的Lua版本是一致的。 与开源Redis Lua的区别 1. EVAL/EVALSHA命令 命令格式: EVAL script numkeys key [key …] arg [arg …] EVALSHA sha1 numkeys key [key …] arg [arg …] 上述命令的语法与操作与开源Redis一致。用户需自己保证将脚本中使用到的Redis key显式的通过key参数传入,而不是直接在脚本中编码,并且如果带有多个key参数,则要求所有的key参数必须拥有相同的hash tag。 如果不遵循上述约束,则在Lua中执行涉及这些key的Redis操作时,可能会返回类似“partition not found”的错误信息。 2. SCRIPT命令 SCRIPT命令包含了一组管理Lua脚本的子命令,具体可以通过SCRIPT HELP命令查询具体的操作。 SCRIPT大部分命令都与开源Redis兼容,其中需要特别说明的命令如下: SCRIPT KILL GeminiDB Redis是多线程执行的环境,允许同时执行多个Lua脚本,执行SCRIPT KILL,会终止所有正在运行的Lua脚本。 为了方便使用,GeminiDB Redis扩展了SCRIPT KILL命令,用户可以通过‘SCRIPT KILL SHA1’来终止指定哈希值的脚本。若同一时间存在多个节点在执行哈希值相同的脚本,那么这些脚本都会被终止。 另外,由于用户无法设置Lua超时时间(config set luatimelimit),因此在任意时刻执行SCRIPT KILL都能直接终止脚本,而不是等待脚本超时后才终止。 SCRIPT DEBUG 目前GeminiDB Redis不支持DEBUG功能,所以该命令执行无效。 3. Lua脚本中执行Redis命令 与开源Redis一致,GeminiDB Redis的Lua环境中也提供了一个全局的“redis”表,用于提供各类和Redis Server交互的函数。 如下表为GeminiDB Redis目前支持和不支持的操作列表。 支持的操作 不支持的操作 redis.call() redis.pcall() redis.sha1hex() redis.errorreply() redis.statusreply() redis.log() redis.LOGDEBUG redis.LOGVERBOSE redis.LOGNOTICE redis.LOGWARNING redis.replicatecommands() redis.setrepl() redis.REPLNONE redis.REPLAOF redis.REPLSLAVE redis.REPLREPLICA redis.REPLALL redis.breakpoint() redis.debug() 4. Lua执行环境限制 开源Redis对Lua脚本的执行有一定的限制,比如限制脚本操作全局变量,限制随机函数的结果,限定能够使用的系统库和第三方库等。 GeminiDB Redis也继承了绝大多数的限制,但是针对如下情况,GeminiDB Redis与开源Redis存在差异: Write Dirty 开源Redis规定,如果某个脚本已经执行了写操作,那么就不能被SCRIPT KILL停止执行,必须使用SHUTDOWN NOSAVE来直接关闭Redis Server。 GeminiDB Redis不支持执行SHUTDOWN命令,因此这条限制不会被执行,用户仍然可以通过SCRIPT KILL来停止脚本的执行。 Random Dirty 由于主从复制的原因,开源Redis规定,若脚本执行了带有随机性质的命令(Time, randomkey),则不允许再执行写语义的命令。 例如,如下Lua脚本: local t redis.call("time") return redis.call("set", "time", t[1]); 当该脚本的执行传递到从节点时,Time命令获取到的时间一定晚于主节点,因此从节点执行的Set命令的值就会和主节点产生冲突。开源Redis引入了replicatecommands来允许用户决定这种场景下的行为模式。 对于GeminiDB Redis来说,由于没有主从的概念,数据在逻辑上只有一份,因此也就不存在该限制。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        实例开发规范与命令兼容
        Lua脚本规范
      • 功能特性
        本文带您了解VPC终端节点的功能特性。 VPC终端节点为您提供“终端节点服务”和“终端节点”两种资源。 终端节点服务 终端节点服务(VPC Endpoint Service)指将云服务或用户私有服务配置为VPC终端节点支持的服务。终端节点服务通过专属网关,可以将 VPC 中的服务方便的提供给其它 VPC 中的资源使用,实现跨 VPC 的访问,而不必暴露服务端相关的网络信息,使您的访问更加安全、可靠。当前支持“接口”类型终端节点服务。 “接口”类型:包括系统配置的云服务、用户自己创建的私有服务和云服务商已创建的云服务。 用户可以通过终端节点服务快速的把服务发布到私网连接上,通过白名单授权管理可以灵活的管理可连接的用户信息,在保证安全的前提下灵活的通过私网共享服务 终端节点 终端节点(VPC Endpoint)在VPC和终端节点服务之间提供连接通道。您可以在VPC中创建自己的应用程序并将其配置为终端节点服务,同一区域下的其他VPC可以通过创建在自己VPC内的终端节点访问终端节点服务。 在同一区域中,通过购买终端节点可以实现所属VPC内云资源跨VPC访问终端节点服务。 终端节点与终端节点服务一一对应,访问不同类型终端节点服务的终端节点存在差异: 访问“接口”型终端节点服务的终端节点:是具备私有IP地址的弹性网络接口,作为“接口型”终端节点服务的通信入口。
        来自:
        帮助文档
        虚拟私有云 VPC
        VPC终端节点
        功能特性
      • Hypervisor安全
        本文向您介绍Hypervisor安全的相关知识。 Hypervisor Hypervisor是一种运行在物理机上的软件,可以在单个物理机上创建、运行和管理多个虚拟机。Hypervisor根据需要将底层物理计算资源(如cpu、内存)进行抽象统一管理,并按需将资源分配给各个虚拟机。Hypervisor实现了同一物理机上不同虚拟机之间的资源隔离,避免数据窃取或恶意攻击,同时保证虚拟机的资源使用不受周边虚拟机的影响。用户使用虚拟机时,只能访问属于自己的虚拟机的资源(如硬件、软件和数据),不能访问其他虚拟机的资源,保证了虚拟机的数据隔离和安全。 CPU隔离 CPU虚拟化是Hypervisor中最核心的部分,内存虚拟化和IO虚拟化都依赖于CPU虚拟化的正确实现。 X86架构中为了保护指令的运行,提供了指令的4个不同特权级别,术语称为Ring,优先级从高到低依次为: 1. Ring 0:最高特权级别,被用于运行操作系统内核。 2. Ring 1:用于操作系统服务。 3. Ring 2:用于操作系统服务。 4. Ring 3:用于应用程序。 Hypervisor运行在最高特权级别,可以控制物理处理器上的所有关键资源;而虚拟机操作系统运行在非最高级特权级别,所以其访问物理资源的敏感指令会陷入到Hypervisor中通过软件的方式进行模拟。通过拦截并模拟虚拟机的敏感指令,Hypervisor实现了虚拟机vCPU的隔离,有效防止了虚拟机越权恶意攻击物理机或其他虚拟机。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        数据保护技术
        Hypervisor安全
      • 通过云主机创建整机镜像
        本节为您介绍如何通过云主机创建整机镜像,包括Linux和Windows操作系统。 操作场景 您可以使用弹性云主机将其挂载的数据盘一起创建整机镜像,云主机整机镜像包含系统盘与数据盘,使用挂载有数据盘的云主机创建的整机镜像包含操作系统、应用软件,以及用户的业务数据。可用于快速发放相同配置的弹性云主机,实现数据迁移。 前提条件 系统盘或数据盘加密的云主机不可创建整机镜像。 整机镜像只能通过云主机创建,不能通过镜像文件创建。 如果只有系统盘的云主机,不支持创建整机镜像,请选择系统盘镜像。 当删除整机镜像时,对应的整机备份同时删除。 使用整机镜像购买云主机时,在磁盘选项里面,系统盘与数据盘的类型与整机镜像的系统盘数据盘类型相同,不可更改。数据盘大小不可更改,系统盘大小必须大于等于整机镜像中的系统盘大小。如整机镜像有多块数据盘,则购买页面亦有多块数据盘,且不能删除数据盘。计费标准与正常挂载数据盘一致。 整机镜像不支持导入、导出功能。 节省关机状态下的云主机不支持创建镜像。 注意 请确保已删除实例中的敏感数据,避免数据安全隐患。 弹性云主机与其创建的私有镜像属于同一个地域,不能跨地域使用。 创建私有镜像的过程中,请勿对所选云主机及其相关联资源进行任何操作。 创建整机镜像所需时间取决于云主机系统盘的大小,私有镜像创建完成才可以使用,请您耐心等待。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        私有镜像
        创建私有镜像
        通过云主机创建整机镜像
      • 概念类
        区别项 云专线 云间高速 概念 云专线是一种通过私有连接,将用户本地数据中心与云端的数据中心直接连接起来的服务。 云间高速是云厂商为用户提供的一种高速互联网连接服务,使用户可以通过公共互联网连接到云端的数据中心。 连接方式 天翼云云专线服务是由物理专线实现连接的,具有较高的带宽、低延迟和更可靠的连接。 通常是通过虚拟专线或优化的网络路由实现的,以提供较快的数据传输速度和相对较低的延迟。 路由配置 专线网关作为客户站点和天翼云VPC之间的虚拟路由转发设备,实现端到端的路由配置,一端绑定物理专线,一端与客户站点需要访问的VPC直连。 在云间高速中,云网关通过配置在其上的路由表进行多点互联流量转发,每个云网关包含一张默认路由表,支持创建自定义路由表,并支持通过路由表关联转发和路由学习功能定义互通、隔离,满足网络多样化的需求。 带宽配置 在配置物理专线时,可以指定带宽,实现点到点购买。 购买云间高速时,同时需要购买各个跨域网络实例的互通网络带宽,所有的跨域互通网络实例使用的带宽总和即为带宽包。 适用场景 云专线可以提供更好的隐私和安全性,适用于需要大量数据传输和对网络连接稳定性要求较高的企业。 云间高速适用于需要与云服务提供商快速连接的任务,如数据备份、应用程序部署等。
        来自:
        帮助文档
        云专线 CDA
        常见问题
        概念类
      • 产品优势
        天翼云弹性高性能计算产品为您提供优质的服务体验,本文带您了解天翼云弹性高性能计算的产品优势。 快速交付,部署灵活 天翼云弹性高性能计算平台操作简洁、易于上手,您可以在天翼云控制台快速创建高性能计算集群,一键部署出您需要的高性能计算环境和应用程序,创建完成后即可立即提交作业开始工作。相较于传统超算漫长的部署周期,弹性高性能计算部署灵活、分钟级交付、资源即租即用,您可以随时选用最新硬件。 成本低廉,无需运维 天翼云弹性高性能计算平台服务免费,您仅需以租用的方式支付实例费用便可使用高性能计算平台。您无需关注HPC集群本身的设备运维、网络安全、机房故障等一系列运维事件,无需投入大量资金,极大地降低了中小客户的使用门槛。而传统超算需投入大量人力成本和物料成本,包括服务器、系统、数据库等软硬件费用及机房机柜费用和运维成本,对个人用户及中小企业不友好。 云端数据,安全可靠 不同租户之间资源隔离,数据安全有保障。基于虚拟私有云实现的网络访问隔离,充分保证了集群网络的安全性。支持对接弹性文件存储,满足企业数据安全和可靠性诉求。 弹性资源,按需配置 您可以根据自己的需求对集群进行扩容、缩容,灵活适配业务规模需求。相较于传统超算,天翼云弹性高性能计算更加灵活、可以充分有效地利用资源,降低成本。
        来自:
        帮助文档
        弹性高性能计算 E-HPC
        产品介绍
        产品优势
      • 手工搭建Hadoop环境(Linux)
        本文主要介绍如何手工搭建Hadoop环境(Linux)。 简介 本文介绍了如何在天翼云上使用弹性云主机的Linux实例手工搭建Hadoop环境。Hadoop是一款由Apache基金会用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。Hadoop的核心部件是HDFS(Hadoop Distributed File System)和MapReduce: HDFS:是一个分布式文件系统,可对应用程序数据进行分布式储存和读取。 MapReduce:是一个分布式计算框架,MapReduce的核心思想是把计算任务分配给集群内的服务器执行。通过对计算任务的拆分(Map计算和Reduce计算),再根据任务调度器(JobTracker)对任务进行分布式计算。 前提条件 已购买一台弹性云主机,且已为其绑定弹性公网IP。 弹性云主机所在安全组添加了如下表所示的安全组规则。 方向 类型 协议 端口/范围 源地址 入方向 IPv4 TCP 8088 0.0.0.0/0 入方向 IPv4 TCP 50070 0.0.0.0/0 实施步骤 1、安装JDK a.登录弹性云主机。 b.执行以下命令,下载jdk软件包。 以jdk17为例,在列表中查看可用的JDK软件包版本,以jdk17linuxx64bin.tar.gz安装包为例,执行以下命令。 wget c.解压jdk安装包到opt目录下。 tar xvf jdk17linuxx64bin.tar.gz C /opt/ d.配置环境变量。 vim /etc/profile e.在底部添加以下内容。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        手工搭建Hadoop环境(Linux)
      • 环境变量
        概述 API分组环境变量用于在不同的环境(生产,测试,开发)中引用同一个环境变量中不同的值,从而可以灵活引用变量。通常用于动态调整配置项,比如数据库连接、外部服务的 URL、认证密钥等。这减少了硬编码,并使得应用程序能够根据部署环境自动适应配置变化。 创建环境变量 1. 进入API托管>分组管理菜单页 2. 点击环境变量管理,进入环境变量管理页,在对应的环境tab页下点击新增环境变量按钮,填写变量名和变量值进行创建。 注意 每个环境下允许最多创建50个变量;创建同名环境变量时会覆盖已有环境变量值。 删除环境变量 用户可以对环境下的环境变量进行删除操作。注意:删除前请先确保该环境变量没有在API定义中使用。 使用环境变量 创建了环境变量后,可以在API定义中在请求Path、入参默认值、后端服务地址部分加入变量,以 变量名 表示,如请求path可以填写“/ version ”。 当该API定义发布到该环境时,API定义中的变量就会取值对应的变量值,即发布过程中变量标识会被相应环境的变量值替换。例如在生产环境中定义了变量version的值为v1,则上述API的请求path会被解析为/v1。 注意 1. 变量名严格区分大小写。 2. 如果在API定义中设置了变量,那么一定要在要发布的环境上配置变量名&变量值,否则变量无赋值,API将无法正常调用。 3. API调试暂不支持进行环境变量解析。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        API托管
        分组管理
        环境变量
      • 什么是VPN连接
        相关术语解释 VPN网关 VPN网关是VPN连接的接入点。一个VPN网关仅能绑定一个VPC,每个VPN网关可以创建多个VPN连接。每个VPN网关默认分配了一个公网IP地址,可以满足用户本地数据中心侧VPN设备或移动终端接入VPC的业务需求。 用户网关 用户企业侧的VPN网关,与VPC侧VPN网关互为本端、远端。用户侧数据中心VPN网关需具备固定公网IP,动态拨号公网IP无法进行IPsec VPN对接。如果用户侧公网IP进行了变更,则需要尽快在天翼云上进行同步修改。否则,会导致IPsec VPN协商失败,流量转发不通。 IPsec连接 IPsec连接是一种基于IP协议的加密技术,用于构建VPN网关和用户本地数据中心远端网关之间的安全、可靠的加密通道。VPN连接使用IKE(Internet Key Exchange,网络密钥交换协议)和IPsec协议对传输数据进行加密,保证数据安全可靠,并且IPsec VPN连接基于互联网进行传输,更加节约成本。 SSL 服务端 SSL 服务端是SSL VPN连接的客户端网关,主要实现数据包的封装与解封装。需要在 VPN 网关中进行 SSL 服务端的相关配置,如配置本端子网、客户端地址池、传输协议及端口等。 SSL 客户端 SSL VPN客户端是一种安全访问虚拟专用网络(VPN)的客户端应用程序,它使用安全套接层(SSL)协议来建立加密的远程连接,以确保数据在客户端和VPN服务器之间的传输安全。
        来自:
        帮助文档
        VPN连接
        产品介绍
        什么是VPN连接
      • 1
      • ...
      • 278
      • 279
      • 280
      • 281
      • 282
      • ...
      • 350
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      应用托管

      人脸活体检测

      人脸比对

      通用型OCR

      推荐文档

      天翼云最佳实践①:Linux实例搭建FTP站点

      创建只读实例

      产品类

      玩转天翼云⑦:Linux扩展Swap分区的三种方法

      加入会议

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号