活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云官网_相关内容
      • 云安全态势管理
        本章节为您介绍云安全态势感知基本功能 云安全态势感知页面默认为每天进行扫描并展示最新的扫描结果,其中包括通过率、已通过检查项、全部检查项。 策略管理 1. 登录云安全中心控制台。 2. 在左侧导航栏选择“风险管理 > 云安全态势管理”。 3. 在页面右上角中,选择“策略管理”。 4. 在页面右侧弹出的对话框中,根据业务需求选择策略管理内容。 5. 策略配置完成后,单击“保存”即可完成策略配置。 检查项扫描 您可以通过人工方式定期执行安全检查项,对云端资产进行全面安全扫描。 1. 登录云安全中心控制台。 2. 在左侧导航栏选择“风险管理 > 云安全态势管理”。 3. 选择需要执行的检查项,单击“操作”列的“扫描”按钮,在弹出的对话框中,单击“确定”即可开始扫描。 4. 开始扫描后,对应检查项的状态会变为“处理中”。 5. 扫描完成后,状态会变为“已通过”或“未通过”,可单击“操作”列的“详情”查看检查结果。
        来自:
        帮助文档
        云安全中心
        用户指南
        风险管理
        云安全态势管理
      • 服务版本差异
        服务功能 功能模块 功能概述 基础版 专业版 安全概览 安全评分 集中呈现资产安全风险评分和风险等级分布,同时展示当前风险防御能力。 √ √ 安全概览 安全监控 实时呈现展示待处理威胁告警、待修复漏洞、基线异常问题的安全监控统计数据 √ √ 安全概览 安全趋势 展示近7天内您的整体资产安全健康得分的趋势。 √ √ 资源管理 资源安全状况 同步资源信息,集中呈现资源整体安全状况。 × √ 威胁告警 告警列表 集中呈现威胁告警事件统计信息,导出告警事件。 √ √ 威胁告警 告警列表 通过将告警忽略、标记为线下处理,标识告警事件。 × √ 威胁告警 威胁分析 根据“攻击源”的IP查询被攻击的资产信息,亦可根据“被攻击的资产”的IP查询威胁攻击来源信息。 × √ 基线检查 云服务基线 通过一键扫描云服务基线,分类呈现云服务配置项检测结果信息。 × √ 基线检查 云服务基线 通过一键扫描云服务基线,分类呈现云服务配置项检测结果信息。支持查看检测结果详情,并提供相应修复建议。 × √ 检测结果 全部结果 集中呈现安全产品的检测结果,可导出结果、标识结果等。 √ √ 日志管理 日志管理 通过授权OBS存储SA日志,满足日志审计和容灾需求。 × √ 产品集成 安全产品集成 通过集成安全产品,接入安全产品检测结果,管理检测结果的数据来源。 √ √
        来自:
        帮助文档
        态势感知(专业版)
        产品介绍
        服务版本差异
      • 产品功能
        本节介绍天翼AI云电脑(政企版)产品支持集中管控、安全管理、数据安全以及更多扩展功能的内容介绍。 集中管控 统一业务管理台,应用软件、操作系统等一键升级,快速批量创建桌面,实现桌面标准化,降低工作量。 集中管理:支持用户管理、AI云电脑资源管理和计费管理。 策略管理:可配置盘类设备的读写权限,避免企业敏感信息泄密。 集中存储:防止数据用户泄密。终端故障率低,免维护,省时省力。 安全管理 AI云电脑提供多种安全管理使用能力,满足不同用户级别、不同场景的安全需要,给你安全、干净、高效的办公桌面。 管理安全:分权分域控制,按角色分类控制管理员的权限,且按部门控制管理员可管理的桌面,对管理员操作生成审计日志。 登录日志:记录用户登录AI云电脑,包括终端设备信息、开始连接时间和结束连接时间,实现对异常使用AI云电脑情况可追溯。 安全水印:显性水印,防软件截图,防拍照泄密,事前威慑,事后追踪泄密来源。 安全组:具备状态检测和数据包过滤能力,用于在云端划分安全域。 异常处理:在发现使用AI云电脑存在异常情况,如用户在做非法行为,可立刻锁住该桌面,及时制止。
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        产品功能
      • 续费与退订
        前提条件 已获取管理控制台的登录账号与密码。 已使用的数据安全专区,需停止系统所有操作,解绑EIP。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 数据安全专区(原生版)”,进入数据安全专区实例管理页面。 3. 选择待退订的实例,单击所在行“操作”列的“更多 > 退订”,弹出的退订实例对话框。 4. 确认实例信息无误后,单击“确定”,进入控制中心>退订管理>退订申请,选择退订原因,勾选确认退订金额,点击退订按钮完成退订。 到期与欠费 包周期资源开通成功后,如果没有按时续费,云平台会提供一定的保留期。 保留期 :指宽限期到期后客户的包年/包月资源仍未续订或按需资源仍未缴清欠款,将进入保留期。保留期内客户不能访问及使用云服务,但对客户存储在云服务中的数据仍予以保留。 云服务进入保留期后,天翼云将会通过邮件、短信等方式向您发送提醒,提醒您续订或充值。保留期到期仍未续订或充值,存储在云服务中的数据将被删除、云服务资源将被释放。 欠费后,可以查看欠费详情。为防止相关资源被停止或者释放,请及时进行充值,账号将进入欠费状态,需要在约定时间内支付欠款。
        来自:
        帮助文档
        数据安全专区
        计费说明
        续费与退订
      • 服务开通
        本节介绍高可用云电脑的开通操作说明。 用户可在“天翼AI云电脑”“协同套件”页面进行服务开通,目前暂只支持政企版用户使用。 开通后,左侧菜单栏会出现“高可用管理”菜单,可进行AI云电脑高可用相关配置管理。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        高可用AI云电脑
        管理员指南
        服务开通
      • 基于Java连接数据库
        本页介绍了使用Java如何连接文档数据库服务。 使用SSL证书连接 1. 您可以在“实例管理”页面,单击实例名称进入“基本新消息”页面,确认开启了SSL后,单击“实例信息”模块“SSL”处的,下载证书。 2. 通过Java连接文档数据库服务,代码中的Java链接格式如下: 1. 连接到单节点: mongodb:// : @ : / ?authSourceadmin&ssltrue 2. 连接到副本集: mongodb:// : @ : / authSourceadmin&replicaSetreplica&ssltrue 3. 连接到集群: mongodb:// : @ : / ?authSourceadmin&ssltrue 参数 说明 username 当前用户名。 password 当前用户的密码。 instanceip 如果通过弹性云服务器连接,“instanceip”是主机IP,即“基本信息”页面该实例的“内网地址”。 如果通过连接了公网的设备访问,“instanceip”为该实例已绑定的“弹性公网IP”。 instanceport 端口,默认8030,当前端口,参考“基本信息”页面该实例的“数据库端口”。 databasename 数据库名,即需要连接的数据库名。 authSource 鉴权用户数据库,取值为admin。 ssl 连接模式,值为true代表是使用ssl连接模式。 3. 连接文档数据库服务的Java代码,可参考以下示例: import com.mongodb.MongoClient; import com.mongodb.MongoClientOptions; import com.mongodb.MongoCredential; import com.mongodb.ServerAddress; ​ import javax.net.ssl.SSLContext; import javax.net.ssl.TrustManagerFactory; import java.io.FileInputStream; import java.security.KeyStore; import java.security.cert.CertificateFactory; import java.security.cert.X509Certificate; ​ public class MongoDBSSLExample { public static void main(String[] args) throws Exception { //用户名 String username ""; //数据库 String databaseName ""; //密码 String password ""; //证书路径 String certPath ""; //连接地址 String host ""; //端口 int port 8030; // 创建MongoCredential对象 MongoCredential credential MongoCredential.createCredential(username, databaseName, password.toCharArray()); // 加载证书 CertificateFactory certificateFactory CertificateFactory.getInstance("X.509"); X509Certificate certificate (X509Certificate) certificateFactory.generateCertificate(new FileInputStream(certPath)); // 创建SSL上下文 SSLContext sslContext SSLContext.getInstance("TLS"); KeyStore keyStore KeyStore.getInstance(KeyStore.getDefaultType()); keyStore.load(null, null); keyStore.setCertificateEntry("mongodbcert", certificate); TrustManagerFactory trustManagerFactory TrustManagerFactory.getInstance(TrustManagerFactory.getDefaultAlgorithm()); trustManagerFactory.init(keyStore); sslContext.init(null, trustManagerFactory.getTrustManagers(), null); ​ // 创建MongoClient实例 MongoClientOptions options MongoClientOptions.builder() .sslEnabled(true) .sslInvalidHostNameAllowed(true) .sslContext(sslContext) .build(); MongoClient mongoClient new MongoClient(new ServerAddress(host, port), credential, options); } }
        来自:
        帮助文档
        文档数据库服务
        开发指南
        应用程序开发
        基于Java开发
        基于Java连接数据库
      • 设置SSL数据加密
        本页介绍了关系数据库MySQL版如何设置SSL数据加密。 关系数据库MySQL版设置SSL数据加密指引如下。 操作场景 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 前提条件 只有数据库状态为运行中的实例才可以执行设置SSL数据加密。 操作步骤 开启SSL加密 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 选择数据安全 二级目录,选择SSL加密页签,点击SSL设置按钮。 若开关关闭,单击图标,在提示框中,单击确定,开启SSL加密。 5. 单击服务器证书右侧的下载证书,下载ca.pem。 6. 将根证书(ca.pem)上传到ECS(弹性云主机)或本地机器。 7. 在ECS或本地机器上执行以下命令连接MySQL实例。 a. mysql h P u p sslca 参数 说明 1.如果在关系数据库MySQL版同资源池同vpc下开通了ECS主机,通过ECS主机连接数据库,则hostName为连接地址。 2.如果在关系数据库MySQL版同个资源池下未开通ECS主机,则需要绑定弹性IP,hostName为目标实例的弹性公网IP。 目标实例的数据库端口。 用户名,即关系型数据库帐号(默认管理员帐号为root)。 相应的SSL证书文件名,该文件需放在执行该命令的路径下。 b. 使用root用户SSL连接数据库实例,示例如下: mysql h P 13049 u root p sslcaca.pem 8. 出现如下提示时,输入数据库帐号对应的密码: Enter password:
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        账号与安全
        设置SSL数据加密
      • 日志采集器
        性能 单核的能力如下: 极简模式日志最大处理能力为100 MB/s。 正则默认最大处理能力为20 MB/s(与正则表达式的复杂度有关)。 分隔符日志最大处理能力为40 MB/s。 JSON日志最大处理能力为30 MB/s。 可调整启动和资源限制参数来提升性能。 推荐参数值 主机环境 参数 默认的采集速率 采集速率大于5 MB/s 采集速率大于10 MB/s 采集速率大于20 MB/s 采集速率大于40 MB/s cpuusagelimit 0.4 1 2 2 4 memusagelimit 384 1024 1024 2048 4096 processthreadcount 1 2 2 4 8 sendrequestconcurrency 4 4 20 40 80 资源限额参数需要修改 /etc/systemd/system/lmtagent.service 中如下部分: plaintext MemoryMax384M MemoryAccountingyes MemoryLimit384M MemoryHigh384M CPUQuota50% 启动参数需要修改 /app/cams/lmtagent/config.json 中如下部分: plaintext "processthreadcount": 4, "sendrequestconcurrency": 4, 最后通过如下命令重启采集器生效 plaintext sudo systemctl daemonreload && sudo systemctl restart lmtagent 容器或Kubernetes环境 环境变量 默认的采集速率 采集速率大于5 MB/s 采集速率大于10 MB/s 采集速率大于20 MB/s 采集速率大于40 MB/s cpuusagelimit 1 2 3 4 10 memusagelimit 1024 2048 2048 4096 4096 processthreadcount 2 2 2 4 8 sendrequestconcurrency 4 4 20 40 80 resources.limits.cpu 1000M 2000M 3000M 4000M 10000M resources.limits.memory 1 Gi 2 Gi 2 Gi 4 Gi 4 Gi 需要到云容器引擎CCE控制台插件插件实例 选择 ctglogoperator 选择更新,修改如下配置: plaintext procesThreadCount: 2 resources: limit: cpu: "1000m" memory: "1000Mi" request: cpu: "10m" memory: "200Mi" selfMonitor: cpuUsageLimit: 10 memUsageLimit: 1024 sendRequestConcurrency: 4 其中 resources.limit 为Kubernetes 资源限制,selfMonitor 为采集器内部资源监控,默认配置中两处基本一致; 如果希望优先使用Kubernetes 资源限制,可以把selfMonitor调整比resources.limit大 如果希望优先使用采集器内部资源管控,可以把selfMonitor调整比resources.limit小 注意 resources.limit.memory 超限会触发Kubernetes资源管控导致lmtagent强制重启,此时数据可能会丢失或重复; 占用相关资源超过selfMonitor最大限制的时间5分钟,则lmtagent会强制重启,此时数据可能会丢失或重复。 如果下发的采集配置多或者采集目标文件非常多,请调高内存上限,使其高于上面表格中的推荐值。 如果下发的采集配置中有很多JSON或者正则解析处理插件,请调高CPU上限,使其高于上面表格中的推荐值。
        来自:
        帮助文档
        云日志服务
        产品介绍
        使用限制
        日志采集器
      • 使用Kibana导入数据至Elasticsearch实例
        本文为您介绍如何通过Kibana向天翼云云搜索服务Elasticsearch实例导入数据。 Kibana 提供的Dev Tools控制台允许直接在浏览器中通过REST API向Elasticsearch发出查询和数据操作请求。 Kibana可视化界面提供了简单的数据导入功能,适用于小规模数据的手动导入场景,特别是在测试和快速验证场景中非常实用。 适用场景 快速测试与调试:适用于开发阶段测试查询语句、创建索引、插入和更新数据等操作。 简单数据管理:如果只是少量数据操作,如插入、更新、删除数据或查看结果,Kibana提供了方便的Web界面操作。 无需编程环境:不需要安装额外的客户端工具,只要能访问Kibana即可操作Elasticsearch。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 查看Kibana的终端可以访问到云搜索实例,设置好5601端口的网络安全策略。 实际操作 点击Kibana输入用户名登录后,进入首页。 右上角可以点击开发工具进入开发工具界面。 如果没有索引,可以创建一个测试索引名为testindex: plaintext PUT /testindex { "mappings": { "properties": { "mytest": { "type": "text" } } } } 执行创建索引操作会返回如下信息: plaintext { "acknowledged" : true, "shardsacknowledged" : true, "index" : "testindex" } 如果有索引可以使用已有的索引。 往索引中写入数据,以上面创建的索引为例。 1. 写入单条数据,可以使用下面命令写入一条id为1的数据: plaintext POST /testindex/doc/1 { "mytest": "xiaoming" } 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1 } 2. 批量写数据,可以使用下面命令写入一批数据: plaintext POST /testindex/bulk {"index":{"id": 1}} {"mytest": "xiaoming"} {"index":{"id": 2}} {"mytest": "xiaohong"} {"index":{"id": 3}} {"mytest": "xiaoli"} {"index":{"id": 4}} {"mytest": "xiaozhang"} {"index":{"id": 5}} {"mytest": "xiaowang"} 执行上面的命令,返回下面的结果即导入数据成功。 plaintext { "took" : 10, "errors" : false, "items" : [ { "index" : { "index" : "testindex", "type" : "doc", "id" : "1", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 0, "primaryterm" : 1, "status" : 201 } }, .... { "index" : { "index" : "testindex", "type" : "doc", "id" : "5", "version" : 1, "result" : "created", "shards" : { "total" : 2, "successful" : 2, "failed" : 0 }, "seqno" : 4, "primaryterm" : 1, "status" : 201 } } ] }
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用Kibana导入数据至Elasticsearch实例
      • 标签路由
        标签路由是将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转,以此实现灰度发布、金丝雀发布、蓝绿发布等功能 概述 标签路由是将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转,以此实现灰度发布、金丝雀发布、蓝绿发布等功能。 版本限制 框架 限制 详情 Spring Cloud Spring Cloud Edgware及以上版本 客户端:Feign、RestTemplate 负载均衡:Ribbon、LoadBalancer。 Dubbo 2.5.3~2.7.8 支持Alibaba Dubbo、Apache Dubbo。 注册中心 Nacos、Eureka、Zookeeper jdk版本 1.8+ 应用场景 A/B测试 在营销活动中,经常会有A/B测试,A/B测试是为了测试不同的规则对业务的影响,所以一个应用会有多个版本同时运行,可以通过标签的方式区分不同的版本,对不同版本的应用进行流量隔离,将特殊用户的流量路由到特殊版本,从而实现A/B测试。 开通标签路由 步骤1:为应用设置标签 为云容器引擎集群应用设置标签,应用容器添加环境变量MSESERVICETAGgray。 为ECS应用设置标签,在启动应用时,添加JVM启动参数Dctgcloud.service.taggray。 步骤2:在微服务治理中心控制台创建标签路由 1. 登录微服务治理中心控制台。 2. 在左侧导航栏选择 微服务治理中心 >应用治理。 3. 在应用治理页面单击目标应用卡片。 4. 在应用页面左侧导航栏选择流量治理 标签路由,查看服务标签。 5. 在标签路由页点击流量分配,为标签按比例分配流量。 6. 在标签路由页的流量规则栏新增流量规则。 流量规则参数说明: 参数 说明 路由名称 路由规则的名称。 应用 所选的应用。 标签 设置的标签名。 应用实例 设置了该标签的实例ip。 是否链路传递 代表开启全链路流控。 框架类型 Spring Cloud Dubbo。 Path SpringCloud为path路径,Dubbo为接口。 条件模式 满足一个条件,或者满足所有条件。 条件列表 可以设置Header、Cookie、Parameter和Body Content四种参数类型。 是否开启流量规则 流量规则开关。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        流量治理
        标签路由
      • 恢复方案简介
        本页介绍关系数据库MySQL版的数据恢复方案。 关系数据库MySQL版提供了多种恢复实例的数据的方式,用以满足数据故障或损坏、实例被误删除等不同的使用场景。目前提供的恢复方案有: 通过全量备份文件恢复到实例。 将实例的数据恢复到指定时间点。 恢复方案简图 恢复方案说明 类别 说明 恢复范围 整个实例或指定数据库指定表。 新实例各配置项 新实例的参数设置和当前实例保持一致。 新实例账号信息 新实例内含恢复时所选择的备份时间点或备份集产生时间点的账号信息。 新实例数据 新实例内的数据与用于恢复的备份文件中的数据一致。 恢复时长 根据数据文件的不同时长有所不同: 300G若全是备份文件的情况,大概需要花费时间2个小时左右。 300G里面包含大量binlog,在恢复的时候需要apply binlog,恢复时间以实测为准。 恢复时间因网络、磁盘等影响因素会有所不同,具体以实际恢复时间为准。 常见问题 为何通过备份集不能恢复到当前实例? 可检查当前实例的状态是否正常,如果处于非运行中或异常状态,需要等待实例为运行中才可以进行恢复到当前实例操作。 为何不能恢复到已有实例? 可以从以下原因进行排查: 检查目标实例的状态是否正常。 检查目标实例版本与源实例的版本是否相同,且内核版本目标实例是否大于等于当前实例内核版本。高内核版本的实例无法恢复到低内核版本的实例。 检查目标实例与源实例的lowercasetablenames参数是否相同,该参数为区分表名大小写参数,如果该参数不同,将无法恢复。 如果目标实例实例与源实例的备份类型为云硬盘,则目标实例与源实例的VPC必须一致。 注意 如果目标实例实例与源实例的备份类型为对象存储,则可以跨VPC恢复,无该限制。 检查目标实例与源实例是否在同一个企业项目,不同企业项目无法恢复。 检查目标实例是否为带只读的MGR实例,如果是,则该实例无法进行恢复。 如果源实例具备tde功能,但是目标实例不具备(可以不开启),则无法进行恢复。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        恢复方案简介
      • Kafka性能白皮书
        步骤四:购买客户端服务器 购买3台ECS服务器(资源池、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,带宽要大于等于Kafka实例带宽) 购买完成后需要进行如下操作: 安装JDK yum install y java1.8.0openjdkdevel.x8664 下载Kafka命令行工具并解压 tar zxvf kafka2.132.8.2.tar.gz 步骤五:测试命令 ./kafkaproducerperftest.sh producerprops bootstrap.servers${连接地址} acks1 batch.size16384 topic ${Topic名称} numrecords 5000000 recordsize 1024 throughput 1 producer.config ../config/producer.properties bootstrap.servers:购买Kafka实例后,获取的Kafka实例的地址。 acks:消息主从同步策略,acks1表示异步复制消息,acks1表示同步复制消息。 batch.size:每次批量发送消息的大小(单位为字节)。 topic:创建Topic中设置的Topic名称。 numrecords:总共需要发送的消息数。 recordsize:每条消息的大小。 throughput:每秒发送的消息数,1表示不作限制。 测试结果 测试场景一(实例是否开启SASL):相同的Topic(30分区,3副本,异步复制) 实例规格 磁盘类型 节点数量 TPS(使用SASL) TPS(不使用SASL) 计算增强型4核8GB 超高IO 3 170000 500000 计算增强型8核16GB 超高IO 3 200000 730000 计算增强型16核32GB 超高IO 3 360000 886000 测试场景二(同步/异步复制):相同的实例(超高I/O、3个节点、不使用SASL) 实例规格 分区数 副本数 TPS(同步复制) TPS(异步复制) 计算增强型4核8GB 30 3 238000 500000 计算增强型8核16GB 30 3 315000 730000 计算增强型16核32GB 30 3 375000 886000 测试场景三(不同磁盘类型):相同的Topic(30分区,3副本,异步复制) 实例规格 是否使用SASL 节点数量 TPS(高IO) TPS(超高IO) 计算增强型4核8GB 不使用 3 135000 500000 计算增强型8核16GB 不使用 3 240000 730000 计算增强型16核32GB 不使用 3 280000 886000 测试场景四(不同分区数):相同的实例(超高I/O、3个节点、不使用SASL) 实例规格 是否同步复制 副本数 TPS(3分区) TPS(12分区) TPS(100分区) 计算增强型4核8GB 否 3 330000 280000 260000 计算增强型8核16GB 否 3 480000 410000 340000 计算增强型16核32GB 否 3 534000 744000 630000
        来自:
        帮助文档
        分布式消息服务Kafka
        性能白皮书
        Kafka性能白皮书
      • 使用VPCEP实现跨VPC访问Kafka
        $%^&()+ <>?:{},./;'[,]·!@ ¥%……&() —— +{},。 instanceType:服务后端实例类型,vm:虚机类型,bm:物理机,vip:vip类型,lb:负载均衡类型, 这里需要填vm。 instanceID:第5点展示的Node ID。 subnetID:服务后端子网id。 autoConnection:是否自动连接,true 表示自动链接,这里需要填true。 rules:节点服务规则。 protocol:协议,TCP:TCP协议,UDP:UDP协议。 serverPort:服务端口(用于创建backend传入),这里根据需要填写,端口范围:90119020、1000118000。 endpointPort:节点端口(用于创建rule传入),这里根据需要填写,端口范围:90119020、1000118000。 参数示例: 记录响应信息中的“endpointServiceID”参数值,此参数表示终端节点服务的ID,也可以在VPC终端节点服务里面看到(在管理控制台左上角单击,选择“网络 > VPC终端节点”,进入”终端节点服务“页面) 9.参考8,为5中其他节点创建终端节点服务,并记录终端节点服务的ID。 购买终端节点 1.在管理控制台左上角单击,选择“网络 > VPC终端节点”,进入终端节点页面。 2.单击“创建终端节点”,进入“创建终端节点”页面。 3.设置如下参数。 区域:与Kafka实例保持一致。 服务类型:选择“按实例服务ID查找服务”。 服务名称:输入第8点中记录的终端节点服务名称,单击“验证”。显示“已找到服务”后,继续后续操作。 虚拟私有云:选择Kafka客户端所属的VPC。 子网:选择Kafka客户端所属的子网。 其他参数保持默认,如果想要了解更多的参数信息,请参考购买终端节点。 图6 终端节点参数设置 4.单击“下一步”,进入规格确认页面。 5.确认无误后,点击“确认下单”。 6.购买成功后,返回终端节点页面,查看终端节点状态是否为“已接受”,“已连接”表示终端节点已成功连接至终端节点服务。 图7 查看终端节点状态 7.单击终端节点ID,在“基本信息”页签,查看并记录节点IP。 您可以使用节点IP访问终端节点服务,进行跨VPC资源通信。 图8 查看节点IP 8.参考1~7,为9中创建的终端节点服务购买终端节点,查看并记录节点IP。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        配置Kafka网络连接
        使用VPCEP实现跨VPC访问Kafka
      • 发布订阅
        创建发布 步骤 1 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 步骤 2 在左侧导航栏选择“发布订阅”。 步骤 3 在“发布”页签下,单击“创建发布”。 步骤 4 在创建发布页面,设置发布信息后,单击“确认”。 填写发布名称、选择发布数据库,以及发布数据。 设置发布表/字段的筛选器:单击“设置筛选器”,设置筛选条件,将按照筛选条件发布表/字段。 全量快照:选择立即创建,发布创建完成后,将会在分发服务器上立即触发一次全量快照。若不选择立即创建,则当添加新订阅时自动生成全量快照。订阅服务器必须等待快照代理完成,才能实现同步。 增量快照策略:支持按天、按周、按月自定义策略,在分发服务器生成增量快照。 步骤 5 查看已创建的发布。 添加订阅功能,请参见添加订阅服务器。 单击“查看监控”,查看“数据更改延迟后时长”和“事务数”监控数据。 选择“更多 > 修改发布”,可以重新选择发布表/字段,以及增量快照策略。 选择“更多 > 删除”,删除发布。 添加订阅服务器 步骤 3 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 步骤 12 在左侧导航栏选择“发布订阅”。 步骤 13 在“发布”页签下,在已创建的发布上,单击“添加订阅”。 步骤 14 单击“添加订阅服务器”。 步骤 15 在弹出页面,设置订阅服务器信息后,单击“确定”。 服务器来源:云数据库RDS for SQL Server。 目标数据库:勾选1个或多个RDS for SQL Server订阅实例及目标数据库,单击同步到右侧,即从当前实例同步数据到已勾选的目标数据库。 当前实例作为发布实例,发布实例与订阅实例需要在同一VPC或建立了对等连接的不同VPC,若不在同一安全组则需配置安全组规则。 订阅方式:推送订阅 同步策略:选择数据订阅的同步方式,支持按天、按周、按月自定义策略。 服务器来源:其他服务器。 填写服务器名称、IP、端口号、登录用户名及密码,以及目标数据库。 订阅方式:推送订阅 同步策略:选择数据订阅的同步方式,支持按天、按周、按月自定义策略。 步骤 16 在已创建的发布上,单击订阅数据库列的个数,查看订阅详情。 创建订阅
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        发布订阅
      • 续订计算增强型云电脑V3
        参数 是否必填 参数类型 说明 示例 下级对象 cycleType 是 String 周期类型(仅创建单独付费计算增强型云电脑有效)。取值范围: Month:按月。(仅订购类型为包周期类型有效) cycleCnt 是 Integer 周期数(仅创建单独付费计算增强型云电脑有效)。取值范围: 136。(仅订购类型为包周期类型有效) autoPay 是 Boolean 是否自动支付(仅创建单独付费计算增强型云电脑有效),默认false。取值范围: true:是。(仅订购类型为包周期类型有效,需账号有足够金额) false:否。(仅订购类型为包周期类型有效) desktopOidList 是 Array of Strings 计算增强型云电脑ID列表,可设置一个或多个,最多10个。
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        计算增强型云电脑
        续订计算增强型云电脑V3
      • 产品定义
        本节主要介绍产品定义 应用编排服务(Application Orchestration Service,简称CTAOS)为企业提供应用上云的自动化能力,支持编排云上的主流云服务,实现在云上一键式的应用创建及云服务资源开通,提供高效的一键式云上应用复制和迁移能力。 通过AOS部署应用上云流程非常简单,您只需要编写好模板,并基于该模板创建堆栈。同时,AOS还提供了应用生命周期管理能力,如启动、变更、删除等。 图 AOS使用流程: 表 AOS使用流程说明 步骤 说明 :: 1. 编写模板 模板是一种遵循AOS语法规范的文本文件,描述了应用属性、云服务配置、应用与云服务之间的依赖关系。 支持自定义编写模板,您可以使用JSON或YAML格式来写作模板。自定义编写模板有两种方式,一种是直接在界面手动输入;另一种是在本地编辑,编辑完之后通过上传文件传到系统中。 通过 “自定义编写模板”编排部署资源YAML语法不支持使用Tab键,层次关系需要使用空格来对齐(空格个数为2的整数倍,如2、4、6、8等)。初次使用时,请注意避免此类错误。 2.创建堆栈 堆栈是应用程序、云服务资源的集合。堆栈将应用、云服务作为一个整体来进行创建、升级、删除等。
        来自:
        帮助文档
        应用编排服务
        产品简介
        产品定义
      • 产品价格
        云监控服务基础功能免费,包括查看监控面板、创建告警规则、添加监控项等。 云监控服务可与其他云服务组合使用,为您提供监控数据文件转储、发送告警通知等增值服务,这些增值服务会逐步在在各资源池上线,具体请关注相关公告; 注意 增值服务可能产生额外费用,具体由提供该功能的服务与您结算。
        来自:
        帮助文档
        云监控服务
        计费说明
        产品价格
      • 创建告警规则
        方式二:通过OpenAPI创建告警规则 您可以通过OpenAPI使用云监控服务的告警功能: 告警规则:涉及告警规则的查询、创建、删除、修改等操作 告警模板:涉及告警模板的查询、创建、删除、修改、批量操作等功能 更多云监控OpenAPI参见API概览云监控服务。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        监控告警
        创建告警规则
      • 查看监控数据
        本文介绍如何查看弹性文件服务的监控数据。 操作场景 文件系统创建后自动接入云监控内,无需手动开通。通过云监控查看文件系统的监控数据,您可以了解到文件系统的使用情况。 操作步骤 方式一:通过文件系统详情页查看 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>弹性文件服务SFS Turbo”,进入SFS Turbo文件系统列表页面。 3. 点击文件系统名称进入详情页,页面下方点击“监控图表”即可查看监控指标。 方式二:通过云监控服务控制台查看 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 单击“管理与部署>云监控服务”,进入云监控控制台页面。 3. 单击“云服务监控”下拉菜单,选择"弹性文件监控”。 4. 在弹性文件监控页面选定需要查看的文件系统名称,单击操作栏下面的“查看监控图标”,即可进入监控数据页面。 5. 您可以选择监控时间段,查看对应的弹性文件服务监控数据。也可以点击具体监控项图标右上角的“查看”按钮设定所需查看的监控时间段、周期等,获取想要的监控数据。 方式三:通过OpenAPI获取 弹性文件服务的监控指标支持通过云监控服务OpenAPI获取: 实时监控数据:查询指定文件系统的实时监控数据。 历史监控数据:查询指定时间段内的文件系统时序指标监控数据。 导出监控数据:导出指定时间段内的文件系统时序指标监控数据,导出格式为csv文件。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        监控告警
        查看监控数据
      • 工作负载概述
        工作负载即Kubernetes对一组Pod的抽象模型,用于描述业务的运行载体,包括Deployment、Statefulset、Daemonset、Job、CronJob等多种类型。 云容器引擎CCE提供基于Kubernetes原生类型的容器部署和管理能力,支持容器工作负载部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等生命周期管理。 基本概念 无状态工作负载:即kubernetes中的“Deployment”,无状态工作负载支持弹性伸缩与滚动升级,适用于实例完全独立、功能相同的场景,如:nginx、wordpress等。创建无状态工作负载请参见 创建无状态负载(Deployment)。 有状态工作负载:即kubernetes中的“StatefulSet”,有状态工作负载支持实例有序部署和删除,支持持久化存储,适用于实例间存在互访的场景,如ETCD、mysqlHA等。创建有状态工作负载请参见 创建有状态负载(StatefulSet)。 创建守护进程集:即kubernetes中的“DaemonSet”,守护进程集确保全部(或者某些)节点都运行一个Pod实例,支持实例动态添加到新节点,适用于实例在每个节点上都需要运行的场景,如ceph、fluentd、Prometheus Node Exporter等。创建守护进程集请参见 创建守护进程集(DaemonSet)。 普通任务:即kubernetes中的“Job”,普通任务是一次性运行的短任务,部署完成后即可执行。使用场景为在创建工作负载前,执行普通任务,将镜像上传至镜像仓库。创建普通任务请参见 创建普通任务(Job)。 定时任务:即kubernetes中的“CronJob”,定时任务是按照指定时间周期运行的短任务。使用场景为在某个固定时间点,为所有运行中的节点做时间同步。创建定时任务请参见 创建定时任务(CronJob)。 工作负载与容器间的关系 一个工作负载由一个或多个实例(Pod)组成。一个实例由一个或多个容器组成,每个容器都对应一个容器镜像。对于无状态工作负载,实例都是完全相同的。 工作负载与容器的关系 工作负载生命周期说明 工作负载状态说明 状态 说明 运行中 所有实例都处于运行中才是运行中。 未就绪 容器处于异常、实例数为0或pending状态时显示此状态。 升级/回滚中 触发升级或回滚动作后,工作负载会处于升级/回滚中。 可用 当多实例无状态工作负载运行过程中部分实例异常,可用实例不为0,工作负载会处于可用状态。 执行完成 任务执行完成,仅普通任务存在该状态。 已停止 触发停止操作后,工作负载会处于停止状态,实例数变为0。v1.13之前的版本存在此状态。 删除中 触发删除操作后,工作负载会处于删除中状态。 暂停中 触发暂停操作后,工作负载会处于暂停中状态。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        工作负载概述
      • 数据缓存亲和性调度
        本节介绍数据缓存亲和性调度。 Fluid提供了数据缓存亲和性调度优化能力,根据数据集排布的Pod调度策略,支持通过webhook机制将调度信息注入到业务Pod中,从而实现将业务Pod优先调度到有数据缓存能力的节点。 在智算场景下,创建训练任务指定数据集时,通过调度优化策略将训练任务优先调度到缓存数据节点,可以提高数据同节点访问概率,获取最大程度访问效率。 前提条件 已完成AI套件安装,弹性数据集组件运行正常。 已创建数据集并开启加速。 数据集加速状态为已加速或已预热。 功能介绍 基于Mutating Webhook机制,Fluid可以在 业务Pod 创建时拦截,检测是否使用 Fluid PVC,从而为应用Pod注入所需数据缓存的亲和性信息(fluid.io/s{namespace}{dataset})。当Kubernetes调度器调度应用Pod时,可以优先选择有缓存数据的节点。 注意 如果应用Pod在spec.affinity或spec.nodeSelector中自定义了与fluid调度相关的亲和性信息,此时以应用Pod自身配置为准,Fluid不会注入相关的亲和性调度配置信息。 操作步骤 1、创建数据集并开启数据加速 2、训练任务使用加速数据集 登录云容器引擎管理控制台; 在集群列表页点击进入指定集群; 进入主菜单 智算套件 > AI应用列表 > 离线训练 > 创建AI应用; 进入离线训练应用创建页面,在“基本信息”栏添加标签: 标签名为:fuse.serverful.fluid.io/inject 标签值为:true 进入离线训练应用创建页面,进行相关信息配置,详细参考创建训练任务; 配置训练数据: 点击“选择数据集”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 点击“选择数据集版本”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 继续其他配置,完成训练应用创建。 查看训练任务调度信息 进入主菜单 > 工作负载 > 容器组,查看训练任务pod对应的yaml信息,已经注入缓存节点调度信息: 进入主菜单 > 工作负载 > 容器组,可以看到训练任务pod 所在节点与fluid数据节点一致。
        来自:
        帮助文档
        智算套件
        用户指南
        数据集管理
        数据集加速
        数据缓存亲和性调度
      • 数据缓存亲和性调度(1)
        本节介绍数据缓存亲和性调度。 Fluid提供了数据缓存亲和性调度优化能力,根据数据集排布的Pod调度策略,支持通过webhook机制将调度信息注入到业务Pod中,从而实现将业务Pod优先调度到有数据缓存能力的节点。 在智算场景下,创建训练任务指定数据集时,通过调度优化策略将训练任务优先调度到缓存数据节点,可以提高数据同节点访问概率,获取最大程度访问效率。 前提条件 已完成AI套件安装,弹性数据集组件运行正常。 已创建数据集并开启加速。 数据集加速状态为已加速或已预热。 功能介绍 基于Mutating Webhook机制,Fluid可以在 业务Pod 创建时拦截,检测是否使用 Fluid PVC,从而为应用Pod注入所需数据缓存的亲和性信息(fluid.io/s{namespace}{dataset})。当Kubernetes调度器调度应用Pod时,可以优先选择有缓存数据的节点。 注意 如果应用Pod在spec.affinity或spec.nodeSelector中自定义了与fluid调度相关的亲和性信息,此时以应用Pod自身配置为准,Fluid不会注入相关的亲和性调度配置信息。 操作步骤 1、创建数据集并开启数据加速 2、训练任务使用加速数据集 登录云容器引擎管理控制台; 在集群列表页点击进入指定集群; 进入主菜单 智算套件 > AI应用列表 > 离线训练 > 创建AI应用; 进入离线训练应用创建页面,在“基本信息”栏添加标签: 标签名为:fuse.serverful.fluid.io/inject 标签值为:true 进入离线训练应用创建页面,进行相关信息配置,详细参考创建训练任务; 配置训练数据: 点击“选择数据集”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 点击“选择数据集版本”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 继续其他配置,完成训练应用创建。 查看训练任务调度信息 进入主菜单 > 工作负载 > 容器组,查看训练任务pod对应的yaml信息,已经注入缓存节点调度信息: 进入主菜单 > 工作负载 > 容器组,可以看到训练任务pod 所在节点与fluid数据节点一致。
        来自:
      • 开启容器安全防护
        本小节介绍开启容器安全防护。 您可以为已购买的服务器开启容器版安全防护,开启后按照容器版所提供的能力对服务器进行安全防护。 开启容器节点防护时,您需为指定的节点(主机)分配一个配额,关闭容器安全防护或删除节点(主机)后,该配额可分配给其他的节点(主机)使用。 检测周期 企业主机安全每日凌晨进行全量检测。 若您在检测周期前开启防护,您需要等到次日凌晨检测后才能看到检测结果。 前提条件 “资产管理 > 容器管理”页面“容器节点管理”中目标服务器“Agent状态”为“在线”。 已在云容器引擎成功创建节点。 节点的“容器防护状态”为“未防护”。 操作步骤 1、登录管理控制台。 2、在弹窗界面单击“体验新版”,切换至企业主机安全页面。 注意 切换至新版后,在总览页左上角单击“返回旧版”,可切换至企业主机安全(旧版)。 3、 在左侧导航树中,选择“资产管理 > 容器管理”,进入“容器节点管理”页面。 4、 根据需求可选择批量开启防护和单服务器开启防护。 单服务器开启防护 a.在“节点列表”中目标服务器的“操作”列单击“开启防护”,为需要开启防护的节点开启防护。 b.在弹窗中确认信息。 注意 开启包年/包月模式若提示配额不足,您需购买主机安全防护配额后才可以开启包年/包月的容器版防护,按需可直接开启,无需购买。 一个容器安全配额防护一个集群节点。 确认开启集群防护 c.确认选择信息无误,阅读《容器安全服务免责声明》并勾选“我已阅读《容器安全服务免责声明》”,单击确认,返回页面查看“容器防护状态”为“防护中”表示容器版安全防护已开启。 批量开启防护 a.在“节点列表”中勾选多个目标服务器前的选框,单击上方“开启防护”。 b.在弹窗中确认信息及选择计费模式。 注意 开启包年/包月模式若提示配额不足,您需购买主机安全防护配额后才可以开启包年/包月的容器版防护,按需可直接开启,无需购买。 一个容器安全配额防护一个集群节点。 c.确认选择信息无误,阅读《容器安全服务免责声明》并勾选“我已阅读《容器安全服务免责声明》”,单击确认,返回页面查看“容器防护状态”为“防护中”表示容器版安全防护已开启。
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        容器管理
        开启容器安全防护
      • 计费模式
        产品规格、计费单位、价格及应用场景说明,帮助您快速了解产品总体计费模式。 本产品按照服务的类型、人员数、服务周期及服务资产数进行收费。 注意 购买基础版、企业版前,应至少已订购主机安全、WAF、云防火墙安全产品。 服务项 细分项 资产数 单位 价格 应用场景 备注 基础版 基础版接入服务 元/年 40800 基础费用,包含服务接入、资源配置等 基础版 基础版资产 1 元/台/年 720 单个资产托管费用 企业版 托管基础服务 元/年 60000 基础费用,包含服务接入、资源配置等 企业版包含托管资产的应急响应服务,新购一年赠送一次资产威胁分析服务。 企业版 托管资产 1 元/台/年 1800 单个资产托管费用 企业版包含托管资产的应急响应服务,新购一年赠送一次资产威胁分析服务。 护航版 前期评估 150 元/天 10000 对资产、网络、应用进行重保前的整体安全评估,协助用户完成安全加固 最低5天 护航版 重保服务 150 元/天 12000 提供724小时不间断人工重保服务,持续进行安全监控及应急响应 护航版 防护资产扩展包 50 元/天/个 8000 扩展重保服务监控资产数量 每新增1个资产扩展包,安全检查最低天数增加1天 护航版 蓝军攻击服务(3人5天) 元/次 450000 提供3人5天的蓝军攻击服务,提供攻击报告 应急响应服务 应急响应服务 120 元/次 35000 提供远程应急响应服务,受影响范围为120个资产 应急响应服务 应急响应服务 21100 元/次 36000 提供远程应急响应服务,受影响范围为21100个资产 应急响应服务 应急响应服务 101200 元/次 39600 提供远程应急响应服务,受影响范围为101200个资产 应急响应服务 应急响应服务 201500 元/次 52000 提供远程应急响应服务,受影响范围为201500个资产 安全评估 安全评估服务 元/次 30000 对云上资产、应用、网络进行整体安全评估,提供评估报告,提供加固建议 全流量分析服务 元/月 3500 单个规格支持网络层吞吐量500Mbps,应用层吞吐量≤250Mbps,可按需叠加。 全流量分析服务 元/年 35000 单个规格支持网络层吞吐量500Mbps,应用层吞吐量≤250Mbps,可按需叠加。
        来自:
        帮助文档
        托管检测与响应服务(原生版)
        计费说明
        计费模式
      • 创建元数据采集任务
        本章介绍如何创建元数据采集任务。此功能处于公测阶段,公测阶段可免费使用 前提要求 已完成数据库资产委托授权,参考云资产委托授权/停止授权进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产管理 > 元数据任务”,进入“元数据采集任务”页面。 5. 在“元数据采集任务”页面,单击“新建”,进入“新建采集任务 > 数据源配置”页面,具体参数说明如下表所示。 参数名 参数说明 选择数据源 选择数据来源。可选择“MySQL”、“PostgreSQL”、“DMDBMS”、“KingBase”、“OpenGuass”、“DWS”、“Hive”、“MRSHIVE”、“TDSQL”。 数据库实例 选择支持的数据库实例。 6. 单击“下一步”,进入“子任务配置”页面: 选择开启或关闭“扫描用户表”。 选择开启或关闭“扫描系统表”。 选择开启或关闭“扫描列约束”。 选择开启或关闭“扫描视图”。 选择开启或关闭“扫描列注释”。 选择开启或关闭“扫描权限”。 7. 单击“下一步”,进入“任务信息配置”页面,配置任务信息,参数说明请参见下表。 参数名称 参数说明 任务信息 任务名称:必填项, 您可以自定义采集任务的名称。 任务描述:非必填项,对您的采集任务进行描述。 任务配置 选择开启或关闭“删除联通性失败的元数据”。 执行计划 识别周期:您可以选择“单次”、“每日”、“每周”或“每月”。 执行计划:您可以选择“立即执行”或“定时启动”。 8. 单击“下一步”,进入“配置确认”页面,确认您已经配置好的参数。 9. 确认无误后单击“完成”,即可成功创建一个新的元数据采集任务。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        元数据任务
        创建元数据采集任务
      • 主子账号使用手册-I类型资源池
        本页面主要介绍为主帐号创建子帐号,创建用户组,并为子帐号授权的操作说明及步骤。(适用于I类型资源池) 用户在天翼云注册后自动创建,该用户对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,为了确保账号安全,建议创建子用户来进行日常管理工作。 子用户的用户名、密码由拥有IAM权限的用户控制。子用户同样可以登录访问天翼云控制台,登录入口与主用户相同,受赋予的权限限制。 注意 本文仅适用于内蒙6、重庆2、拉萨3这些Ⅰ类型资源池配置主子账号以及相关权限,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。Ⅱ类型资源池的子账号配置请参见主子账号使用手册Ⅱ类型资源池。 操作步骤 创建子帐号以及为该子帐号授权相关企业项目的步骤总体分为: 创建子账户并加入用户组 在企业项目中为用户组授权 创建子账户并加入用户组 为主帐号添加子帐号以及将子帐号加入到用户组,步骤如下: 1. 进入天翼云官网,通过主账号登录,登入后,右上角选择“我的”,点击“个人中心”,进入个人中心界面。 2. 在左侧导航栏点击“统一身份认证”,进入统一认证服务IAM。 3. 选择“用户”页签,点击右上角创建用户。 4. 填写子账号的相关信息,包含用户名、邮箱、手机号等,并设置密码。设置完成点击右下角下一步。 5. 如无用户组请先创建用户组,如有可点击添加,添加进该用户组之后,会自动显示在右侧“已选用户组”窗口。如后续从用户组删除该用户,可点击移除。 admin用户组为拥有所有操作权限的用户组,您可根据需要加入此用户组或者加入自定义创建的用户组。 6. 加入用户组后,点击右下角下一步,将会显示创建成功。点击返回用户列表,可以看到创建的子账户。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        账号与安全
        主子账号使用手册-I类型资源池
      • SSL接入性能优化
        本文主要介绍消息队列 Kafka 通过SSL接入的最佳实践,从而帮助您更好的使用该产品。 文中的最佳实践基于消息队列 Kafka 的 Java 客户端;对于其它语言的客户端,其基本概念与思想是通用的,但实现细节可能有差异,仅供参考。 背景 云消息队列 Kafka 版实例如果选择SASLSSL接入时,可能会出现性能较差的情况。可以通过在客户端指定密码套件的方式,手动选择性能和安全性都较高的套件进行TLS通讯。 SSL握手时客户端发送Hello Client 并带上客户端支持的密码套件,服务端收到握手请求后,获取客户端带来的密码套件和服务端支持的密码套件取交集。密码套件加载顺序受客户端jdk版本影响,不同jdk版本,密码套件顺序不一样,可能会导致性能和安全性等无法保证。因此为了保证性能,SSL连接时客户端可以指定密码套件。 推荐的性能和安全性较高的密码套件 TLSECDHERSAWITHAES256GCMSHA384 TLSECDHERSAWITHAES128GCMSHA256 步骤 1.先按照SASLSSL协议接入Kafka,SASLSSL接入可参考文档 SASLSSL接入点接入 2.在此基础上增加 ssl.cipher.suites 配置 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLSSL"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"f6eca4dbc78df78d63fba980e448185f";");//注:上面的密码f6eca4dbc78df78d63fba980e448185f,为用户管理里面创建用户时填入的密码进行md5的结果,md5取32位小写 props.put("ssl.truststore.location","/kafka/client.truststore.jks"); props.put("ssl.truststore.password","sJses2tin1@23"); props.put("ssl.endpoint.identification.algorithm",""); props.put("ssl.cipher.suites","TLSECDHERSAWITHAES256GCMSHA384,TLSECDHERSAWITHAES128GCMSHA256");//密码套件支持多个,用半角逗号分开
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        SSL接入性能优化
      • 产品优势
        高安全性 利用SASL机制对用户身份进行认证,并利用SSL对通道进行加密传输,确保数据在传输过程中不被窃取或篡改,保证您的数据安全。还借助虚拟私有云(VPC)和安全组等加强网络访问控制。 Kafka是一个分布式流处理平台,为了保证数据的高安全性,它提供了以下几个方面的功能和特性: 认证与授权:Kafka支持基于SSL认证,可以验证客户端和服务器之间的身份。同时也支持基于ACL(访问控制列表)的细粒度授权,可以控制哪些用户可以读写指定的topic。 SSL加密传输:Kafka可以通过SSL对消息进行加密传输,确保数据在网络传输过程中的机密性和完整性。 完全控制数据的访问:对于每个topic,可以定义不同的ACL,限制不同用户或者用户组的读写权限。这样可以确保只有授权的用户能够访问指定的数据。 可靠性 Kafka通过持久化存储、复制机制、可配置的数据保留策略、故障检测和自动恢复、缓存机制以及节点间数据同步等功能,提供了高度可靠的消息传递和存储机制。 持久化存储:Kafka使用日志数据结构来存储消息,并将消息写入磁盘上的文件中。这种持久化存储方式确保了消息在发生故障或崩溃时不会丢失。一份消息多份落盘存储,允许海量消息堆积。 复制机制:Kafka通过复制机制提供高可用性和容错能力。它使用主题分区的副本来在多个服务器上复制消息。当其中一个服务器出现故障时,副本可以继续为消费者提供服务。 可配置的数据保留策略:Kafka允许根据特定的需求配置数据保留策略。您可以设置消息在特定时间段或特定大小后删除,或者保留所有消息。这使得您可以根据存储资源和业务需求来管理数据。 故障检测和自动恢复:Kafka具有内置的故障检测和自动恢复机制。当发生故障时,Kafka可以自动检测到并尝试重新连接断开的节点,确保整个集群的正常运行。 缓存机制:Kafka使用缓存来提高读写性能。消息首先被写入内存中的缓存,然后批量写入磁盘。这种缓存机制可以提高吞吐量,并减少对磁盘的频繁访问。 节点间数据同步:Kafka使用分布式的数据同步协议来保证消息在副本之间的一致性。这确保了在故障和服务恢复期间的数据完整性。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品优势
      • 应用场景
        本文带您了解AI Store四大类服务的应用场景。 算力服务 智能算力 聚焦人工智能、大模型训练、科研仿真等“高并发、高浮点、高宽带”的需求,提供GPU/TPU/NPU等异构加速资源,助力AI创新从“可用”走向“好用”。 主要面向客户:大模型预训练、AIGC、多模态理解等AI企业与算法公司,高校与科研院所,自动驾驶团队以及医疗影像AI厂商等客户。 通用算力 面向Web服务、ERP、数据库、开发测试、办公协同等常规业务,以“按需付费、秒级开通”模式提供高性价比的基础算力。 主要面向客户:中小企业、初创团队、政府及事业单位(如一网通办、公共数据平台、政务云开发测试环境)等客户。 模型服务 模型推理 提供高性能的模型调用服务,可以通过标准的API接口将平台提供的大模型服务集成到自己的业务系统中,提供模型推理一站式部署服务。 主要面向用户:各种软件开发商,特别是行业软件开发商,以及科研院所、大专院校和教育机构、政府、金融机构、工业企业、科技单位、医院等行业客户。 模型应用 大模型与插件工具的结合能够有效拓展其在复杂任务中的实用性,支持接入私有知识库增强领域应答,集成联网搜索获取实时信息。 主要面向用户:需要组合模型和工具提供智能办公、智能客服、智能运维能力以及业务主要为知识密集型场景和特定内容生成的企业。 AI应用服务 搭建专属的智能体应用:基于应用广场筛选快速定位所需行业应用,一键部署,简化传统应用安装与配置的复杂流程。实现应用部署、运维和治理的全生命周期管理能力。 主要面向客户:需要快速集成AI能力形成垂直SaaS服务的行业服务集成商,电商/新媒体运营团队,初创公司与个人开发者等客户。 MCP服务 MCP(Model Context Protocol)即模型上下文协议,它为应用程序与大语言模型(LLM)之间的数据、工具和上下文交互提供了统一的接口和标准。 AI Store的MCP市场涵盖内容生成、网页搜索、效率工具等多种类型,全面支撑企业各类智能应用场景。以网页搜索为例,智能体可借助MCP网页搜索功能,通过自然语言提问,就能获取最新的网络信息。 主要面向客户:AI开发者、企业用户、科研人员和普通个人用户等,更有效的利用AI大模型完成各种任务。
        来自:
        帮助文档
        AI Store
        产品介绍
        应用场景
      • 实时迁移
        如何确保业务数据库的全部业务已经停止 业务切换时可通过如下方法确保业务数据库的全部业务已经停止: 步骤 1 在源数据库端执行如下语句,查看当前是否还存在有业务连接。 show processlist; 图 查看是否存在业务连接 步骤 2 可选: 如果源数据库有业务连接,则通过结果中Host列的值来查找对应的业务进程并将其停止。 步骤 3 在源库执行如下语句,查看binlog位置并记录该值(file列取值:position列取值 ),此处将该值记为ckpt1。 show master status; 图 查看binlog位置 步骤 4 等待30s以上,在源库执行如下语句,查看binlog位置并记录该值(file列取值:position列取值 ),此处将该值记为ckpt2。ckpt1ckpt2时,表示源数据库业务已基本停写。 show master status; 使用定时启动任务失败,迁移日志提示can not get agency token 使用定时启动任务功能时,如果使用的是子账号,需要使用“账户委托”,否则任务启动失败,迁移日志报:can not get agency token。 解决方案 目前针对该情况,分别提供如下解决方案: 方法一:使用主账号重新创建任务,启动方式选择“定时启动”。 方法二:使用主账号在子账号所在的用户组添加Security Administrator权限后,重新创建任务,启动方式选择“定时启动”。 方法三:重新创建任务,启动方式选择“立即启动”。 RDS for MySQL不支持MyISAM引擎表,迁移时MyISAM如何处理 基于以下原因,RDS for MySQL目前不支持MyISAM引擎。 MyISAM引擎表不支持事务,仅支持表级别锁,导致读写操作相互冲突。 MyISAM对数据完整性的保护存在缺陷,且这些缺陷会导致数据库数据的损坏甚至丢失。 MyISAM在出现数据损害情况下,很多都需要手动修复,无法通过产品服务提供的恢复功能进行数据恢复。 MyISAM向InnoDB的迁移透明,大多数情况不需要改动建表的代码,云数据库自动转换InnoDB即可完成迁移。 DRS在迁移过程中,会自动将MyISAM转换为InnoDB。针对MyISAM引擎表不支持事务这一特点,为了确保MyISAM表的数据一致性, DRS会借助主键来实现最终数据的一致。如果需要迁移没有主键的MyISAM表,建议选择无业务期启动迁移任务,以确保数据的一致性。
        来自:
        帮助文档
        数据库复制
        常见问题
        实时迁移
      • 更新客户端(3.x之前版本)
        全量更新主Master节点的原始客户端 场景描述 用户创建集群时,默认在集群所有节点的“/opt/client”目录安装保存了原始客户端。以下操作以“/opt/Bigdata/client”为例进行说明。 MRS普通集群,在console页面提交作业时,会使用master节点上预置安装的客户端进行作业提交。 用户也可使用master节点上预置安装的客户端来连接服务端、查看任务结果或管理数据等。 对集群安装补丁后,用户需要重新更新master节点上的客户端,才能保证继续使用内置客户端功能。 操作步骤 1.登录MRS Manager页面,具体请参见访问MRSManager(MRS2.x及之前版本),然后选择“服务管理”。 2.单击“下载客户端”。 “客户端类型”选择“完整客户端”,“下载路径”选择“服务器端”,单击“确定”开始生成客户端配置文件,文件生成后默认保存在主管理节点“/tmp/MRSclient”。文件保存路径支持自定义。 3.查询并登录主Master节点。 4.在弹性云服务器,切换到root用户,并将安装包复制到目录“/opt”。 sudo su root cp /tmp/MRSclient/MRSServicesClient.tar /opt 5.在“/opt”目录执行以下命令,解压压缩包获取校验文件与客户端配置包。 tar xvf MRSServicesClient.tar 6.执行以下命令,校验文件包。 sha256sum c MRSServicesClientConfig.tar.sha256 界面显示如下: MRSServicesClientConfig.tar: OK 7.执行以下命令,解压“MRSServicesClientConfig.tar”。 tar xvf MRSServicesClientConfig.tar 8.执行以下命令,移走原来老的客户端到/opt/Bigdata/clientbak目录下 mv /opt/Bigdata/client /opt/Bigdata/clientbak 9.执行以下命令,安装客户端到新的目录,客户端路径必须为“/opt/Bigdata/client”。 sh /opt/MRSServicesClientConfig/install.sh /opt/Bigdata/client 查看安装输出信息,如有以下结果表示客户端安装成功: Compon ents client installation is complete. 10.执行以下命令,修改/opt/Bigdata/client目录的所属用户和用户组。 chown omm:wheel /opt/Bigdata/client R 11.执行以下命令配置环境变量: source /opt/Bigdata/client/bigdataenv 12.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS 集群用户 例如, kinit admin 13.执行组件的客户端命令。 例如,执行以下命令查看HDFS目录: hdfs dfs ls /
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        更新客户端
        更新客户端(3.x之前版本)
      • 存储概述
        本文介绍存储概述。 运行于Serverless集群的工作负载常伴随数据持久化、配置存储和动态分配等存储需求。Serverless集群基于CSI插件实现了容器存储的功能,与天翼云存储服务(如云硬盘,弹性文件服务、对象存储等)深度融合,提供容器存储方案,支持对静态及动态存储卷的管理。 CSI存储卷 目前CSI驱动支持静态存储卷和动态存储卷。每种数据卷的支持情况如下: 天翼云存储 静态存储卷 动态存储卷 天翼云云硬盘 支持 支持 天翼云弹性文件 支持使用CSI驱动以PV、PVC方式挂载弹性文件静态存储卷 暂不支持 天翼云对象存储 支持使用CSI驱动以PV、PVC方式挂载对象存储静态存储卷 暂不支持 说明 针对新建集群,推荐您使用CSI插件,Serverless集群会持续更新CSI插件的各种能力。 CSI存储插件 CSI插件是当前Kubernetes社区推荐的插件实现方案。在Serverless集群的场景下,由弹性容器实例ECI提供数据卷的挂载、卸载功能。CSI插件只包含cstorcsiprovisioner部分,并以无状态负载形态部署,通过将云存储服务的功能与 Kubernetes 的存储框架无缝集成,使用户能够通过 Kubernetes API 动态创建和删除存储卷,而无需直接与云存储服务进行交互。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        存储
        存储概述
      • 1
      • ...
      • 298
      • 299
      • 300
      • 301
      • 302
      • ...
      • 419
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      Client端Windows版本

      其他问题

      安装控制

      天翼云进阶之路①:Linux / windows 系统修改远程端

      天翼云进阶之路⑤:修改Linux远程登录用户并授权,禁止roo

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号