活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云日志审计_相关内容
      • 查看迁移进度
        本页详细介绍如何查看数据迁移实例的进度。 通过查看迁移进度,可以了解当前数据迁移实例的进度。任务的运行顺序为:结构迁移>全量迁移>增量迁移。 当运行状态为“结构迁移中”,表示任务正在进行结构迁移,此时应该关注结构迁移的进度条,当进度条到达100%表示成功迁移完成。 当运行状态为“(全量)开始”,表示任务正在进行全量迁移,此时应该关注全量迁移的进度条,当进度条到达100%表示成功迁移完成。 当运行状态为“(增量)开始”,表示任务正在进行增量迁移,此时应该关注增量迁移的延迟状态。 操作步骤 1. 在【数据迁移】实例列表页面选择相应的实例数据,并点击实例ID进入【实例管理】页面。 2. 在【实例管理】页面查看实例运行状态和迁移进度。 页面中的运行状态体现实例任务处在运行中的哪个状态,如:未通过预检查、全量开始、已暂停等。具体可参考实例状态说明文档中的数据迁移实例的任务运行状态。 页面中的实例进度体现迁移实例的进度,其中结构迁移和全量迁移以进度条+百分比的形式展示,增量迁移则以在进度条上显示延迟状态的形式展示。 增量迁移的延迟状态 增量迁移的延迟状态,具体如下: 延迟时间 源实例当前时间 成功同步到目标实例的最新一条源实例增量日志中记录的时间,延迟时间单位为“秒”。 无延迟: DTS完成同步的位点和源库最新位点一致,源库产生的增量数据都已经同步到目标库。 延迟1毫秒: 开始任务后该任务迁移的表都没有DDL或者DML操作。 未运行: 任务未进入到增量迁移状态或者任务被暂停。 说明 时延的计算依赖于源库的增量日志,所以当源库长时间没有DDL或者DML操作时,该指标会逐步增大,无法反映真实的同步延迟。用户可以通过在源端执行SQL语句来让该指标刷新,进而得到真实的指标数据。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        实例管理
        查看迁移进度
      • 慢请求定位方法
        本文主要介绍导致慢请求的原因和解决方案。 在相同业务场景下,架构设计和库、集合、索引等设计会影响查询性能,良好的设计可以提高查询性能,反之会出现很多慢请求(执行时间很长的语句),这些慢请求会消耗很多的系统性能。 排查思路 DDS支持在控制台上查看慢日志信息,针对慢日志中过长的操作需要从执行最慢的操作入手,逐个进行优化。 对于操作执行时长超过1s时,对应的操作可能会有问题,需要视具体情况分析。 对于操作执行时长超过10s时,则需要优化对应的操作。 说明 若存在某个聚合操作,因其比较慢,此时操作执行时长超过10s的情况属于正常现象。 分析方法 步骤 1 连接数据库。 步骤 2 针对慢查询可以通过如下命令检查其执行计划。 explain() 例如: db.test.find({"dataid" : "ae4b5769896f465c9fbd3fd2f3357637"}).explain(); db.test.find({"dataid" : "775f57c2b63e45d7b5813822dba231b4"}).explain("executionStats"); 对于查询而言,因为覆盖查询不需要读取文档,而是直接从索引中返回结果,这样的查询非常高效,所以 尽可能使用索引覆盖查询 。如果explain()的输出显示indexOnly字段为真,则说明这个查询就被一个索引覆盖。 步骤 3 执行计划解析。 1. 查看执行时间。 executionStats.executionStages.executionTimeMillisEstimate和executionStats.executionStages.inputStage. executionTimeMillisEstimate时间越短越好。 参数说明 参数名称 描述 executionStats.executionTimeMillis 执行计划选择和执行的所有时间 executionStats.executionStages.executionTimeMillisEstimate 最优执行计划的执行完成时间 executionStats.executionStages.inputStage. executionTimeMillisEstimate 最优执行计划下的子阶段执行完成时间 2. 查看扫描条数。 如下表中三个条目相同为最佳。 参数说明 参数名称 描述 executionStats. nReturned 匹配查询条件的文档数 executionStats .totalKeysExamined 索引扫描条目数 executionStats .totalDocsExamined 文档扫描条目数 3. 查看Stage状态。 性能较好的Stage状态组合如下: Fetch+IDHACK Fetch+ixscan, Limit+(Fetch+ixscan) PROJECTION+ixscan 状态说明 状态名称 描述 COLLSCAN 全表扫描 SORT 内存中进行排序 IDHACK 根据id进行查询 TEXT 全文索引 COUNTSCAN 未用索引计数 FETCH 索引扫描 LIMIT 使用Limit限制返回数 SUBPLA 未用索引的$or查询阶段 PROJECTION 使用索引计数 COUNTSCAN 使用索引计数
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        慢请求定位方法
      • 创建脚本
        本文为您介绍创建脚本的具体操作。 概述 脚本管理提供全生命周期脚本管控,涵盖脚本库的创建、验证、变更、停用、编辑、发布等,实现脚本标准化开发与版本控制;通过脚本黑名单机制拦截高风险脚本以强化安全,脚本历史支持操作追溯与审计。系统环境变量管理保障脚本跨环境兼容性,同时支持对云主机和数据库的自动化脚本执行,兼顾运维灵活性与安全性,降低人工干预风险,提升容灾场景下的操作效率和可靠性。 使用条件 多活容灾服务平台当前仅支持在平台侧执行脚本,不支持上传脚本文件到目标资源。 每种资源类型下同一种语言的脚本数量上限为50,若有扩展需要请联系管理员。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“脚本管理”“脚本库”,进入脚本库列表页。 5. 点击右上角“创建脚本”按钮,跳转至脚本创建页。 6. 创建脚本各配置项说明如下: 参数 是否必填 配置说明 脚本名称 √ 填写脚本名称,脚本名称需唯一。 长度为263字符。 脚本语言 √ 选择脚本语言,当前支持Shell、Python2、Python3。 脚本版本 √ 显示脚本版本,脚本创建时系统默认将脚本版本设置为v1.0。 适用资源类型 √ 选择适用资源类型,当前支持主机、数据库两类。 主机支持Linux/Windows;数据库支持MySQL/Redis/PostgreSQL/MongoDB。 脚本分组 × 选择脚本分组,默认无分组。 脚本来源 √ 选择脚本来源,支持本地脚本、手工录入、克隆、内置脚本。 本地脚本 √ 当脚本来源为本地脚本时显示,上传本地脚本文件。 文件类型限制为扩展名为.py或.sh两种。 源脚本 √ 当脚本来源为克隆时展示,选择源脚本,数据来自当前脚本库中所有脚本。 脚本模板 √ 当脚本来源为内置脚本时展示,选择脚本模板后,脚本内容展示相关脚本模板内容。 脚本内容 √ 当脚本来源为本地脚本时,展示本地上传脚本的内容,支持编辑。 当脚本来源为手工录入时,需用户手动录入脚本内容; 当脚本来源为克隆时,展示源脚本的脚本内容,支持编辑; 当脚本来源为内置脚本时,根据用户选择的脚本语言、适用类型和脚本模板展示脚本内容,支持编辑。 脚本内容长度上限为1000个字符。 脚本参数请求参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 选择参数是否必填,可选是、否。 填写参数描述。 脚本参数返回参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 填写参数描述。 成功标准判定方式 √ 选择成功标准判断方式,可选通过表达式判定、无条件成功。 成功标准表达式 √ 判定方式为表达式判定时展示,填写参数名,数据来源于脚本返回的参数名。 填写表达式符号,若参数类型为数值类型,可选等于/大于/小于/大于等于/小于等于;若参数类型为字符或字符串类型,可选等于/大于/小于/大于等于/小于等于/包含/不包含/以...开头/以...结尾;若参数类型为布尔型,可选等于。 填写表达式参数值,若参数类型为数值类型/字符型/字符串类型,需填写参数值;若参数类型为布尔型,可选择真/假。 成功标准表达式生效 √ 判定方式为表达式判定时展示,选择表达式生效方式,可选满足所有表达式、满足任一表达式。 脚本描述 × 填写脚本的描述。 长度为0100个字符。 7. 脚本信息填写完毕后,点击右下角“立即创建”按钮,完成创建脚本操作。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        脚本管理
        脚本库
        创建脚本
      • 产品咨询
        查看校验结果 当同步及校验完成后,单击服务器操作列的“ 更多>查看校验结果 ”,可以查看一致性校验结果简报。 如果校验简报中的校验文件总数为0,表示配置的校验目录路径不存在或该路径下的文件总数为零。 在源端的SMSAgent的安装目录下(Linux为/SmsAgent/agent/Logs/;Windows为C://SMSAgentPy/Logs),会生成一个名为" smscmpresult.log "的日志文件,其中包含了所有校验不一致的文件。 校验时间参考 下表为源端仅运行迁移业务的测试时长,仅供参考。 操作系统 系统规格 磁盘性能 校验时长(每100 G数据) :::: Windows 2U4G 5000IOPS/150MBPS 约17分钟 Linux 2U4G 5000IOPS/150MBPS 约13分钟
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        产品咨询
      • 数据库连接失败(Communications link failure)
        本页为全量迁移/同步阶段报数据库连接失败(Communications link failure)错误的场景、关键词、可能原因和修复方法建议。 场景描述 包含全量迁移/同步的任务,在进行全量迁移时失败,错误日志信息包含“Communications link failure The last packet sent successfully to the server was 0 milliseconds ago. The driver has not received any packets from the server”。 关键词 Communications link failure 可能原因 访问源库或目标库时建立连接失败。 修复方法 1. 检查源库或目标库是否处于正常运行状态。 2. 检查源库或目标库与DTS实例之间的网络是否正常连通。 3. 检查DTS的实例IP是否在源库或目标库远程访问的白名单中。 4. 恢复数据库正常连接后,重启任务。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        全量迁移/同步案例
        数据库连接失败(Communications link failure)
      • 向全站加速节点请求已经缓存在节点的文件,是否还会产生计费
        本文解答向全站加速节点请求已经缓存在节点的文件,是否还会产生计费的问题。 全站加速计费说明 首先需要明确的是,天翼云全站加速服务,计费项分为三个部分:流量/带宽+动态请求数+静态https请求数。 详情参见:计费概述。 问题分析 请求数计费是通过应用层的访问日志来统计的,因此即使请求资源失败,由于节点仍然会对请求做应用层解析,导致会将本次请求统计进去计费。 同理,当用户向全站加速节点请求已经缓存在节点的文件,还会产生计费,因为节点仍然会反馈响应报文,即使是很小的响应报文也会产生少量的流量及请求数,因此还会产生计费。
        来自:
        帮助文档
        全站加速
        常见问题
        计费类
        向全站加速节点请求已经缓存在节点的文件,是否还会产生计费
      • 集群外Ingress访问请求会话保持
        步骤三:确保当前命名空间已经绑定到一个负载均衡器 步骤四:创建一个生产路由(Ingress)并关联到上述服务(Service) apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: nginxingress namespace: default annotations: kubernetes.io/ingress.class: "nginxingresscontroller" spec: rules: host: myingress.com http: paths: backend: service: name: nginxservice port: number: 30003 path: /nginx pathType: Prefix 步骤五:发起服务调用 添加本地hosts映射:ip为NginxIngressController的访问地址; 域名为创建Ingress时填入的域名,如:10.142.232.160 myingress.com。 在浏览器中多次发起对服务的请求,这里没法通过curl来测试验证,因为curl请求时没法保持Cookie。 观察工作负载日志。 结论:浏览器中的请求会全部转发到某一个Pod实例,进行会话保持。
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        集群外Ingress访问请求会话保持
      • 云容器集群Pod网络包重复
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络包重复动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察业务因为网络包重复后的业务表现。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod网络包重复
      • Service诊断
        本节介绍了Service诊断对应的检查项以及修复方案。 Service诊断主要包括Service后端Ready Pod数量、异常Event等检查项。 注意 使用故障诊断功能时,系统将在您的集群节点上执行数据采集程序并收集检查结果。采集的信息包括系统版本,负载、Docker、Kubelet等运行状态及系统日志中关键错误信息。数据采集程序不会采集您的业务信息及敏感数据。 Service诊断对应的检查项 根据集群配置,具体检查项可能稍有不同。实际结果请以诊断页面结果为准。 检查项名称 说明 修复方案 检查Service后端Ready Pod数量 检查Service后端Ready Pod数量。 检查业务Pod状态,保证Pod存在且处于Ready状态。 检查Service是否存在异常事件 检查集群中是否存在与该Service相关的异常事件。 请检查并处理Service异常事件中的描述信息,若无法处理,请提交工单。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        运维管理
        故障诊断
        Service诊断
      • 创建OBS自建桶备份迁移任务
        本节主要介绍创建OBS自建桶备份迁移任务 支持的源和目标数据库 表 支持的数据库 备份文件版本 目标数据库版本 本地及其他云Microsoft SQL Server数据库备份文件版本: Microsoft SQL Server 2000 Microsoft SQL Server 2005 Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 RDS for Microsoft SQL Server Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 前提条件 已登录数据复制服务控制台。 满足备份迁移支持的数据库类型和版本,详情请参见 备份迁移。 使用须知 介绍Microsoft SQL Server数据库备份迁移使用上的限制。 表 使用须知 类型名称 使用和操作限制 数据库权限设置 在创建备份迁移任务前,请确定操作账号具有相应的OBS服务权限和桶权限。 待还原数据库名称要求 待还原数据库名不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource OBS自建桶的待还原数据库名称长度为1~256个字节,组成为中文、字母、数字、下划线、中划线。 数据库新名称要求 数据库新名称不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称长度为1~128个字节,组成为字母、数字、下划线、中划线。 本地备份文件限制 备份文件上传OBS的后缀名必须为“.bak”,否则在OBS备份文件列表中无法选中非“.bak”后缀的文件。 备份文件名称长度为:1~100个字符长度。 备份文件名称组成为:字母,数字,下划线,中划线。 备份文件可支持全量备份文件和日志备份文件。 数据库备份文件的来源 OBS自建桶:上传至OBS自建桶目录下的数据库备份文件。 操作须知 OBS桶所在区域必须跟实例所在区域相同。 目标数据库的可用磁盘空间大小至少为待还原数据库总数据量大小的1.5倍。 待还原数据库名称,必须跟备份文件中数据库名称一致(区分大小写)。 不支持高版本的数据库备份文件在低版本实例数据库上进行还原(例如从2017版本>2016版本的还原)。 企业版>标准版>Web版的还原存在一定失败的风险(取决于是否开启高版本的特性)。 迁移过程中,实例显示处于迁移状态,当前正在迁移的目标数据库默认取消高可用状态(如果是覆盖还原),迁移完成后自动恢复高可用状态。 迁移过程中正在还原的数据库请停止写入事务。 当RDS实例异常引发目标数据库发生主备切换时,会导致备份迁移失败,该情况下的迁移任务不可恢复。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        创建OBS自建桶备份迁移任务
      • 工信部增加备案短信验证功能通知
        工信部增加全国备案短信验证功能通知 “备案短信核验”问题集锦 根据《工业和信息化部关于开展互联网基础管理专项行动的通知》工信部信管函[2016]485号文件要求,工业和信息化部将对通过 ICP/IP地址/域名信息备案管理系统提交备案申请的主体负责人及网站负责人的手机号码进行短信验证。即:备案信息通过天翼云审核后,天翼云在将备案信息提交管局审核时,备案主体负责人和(或)网站负责人手机号码中,将会收到工信部发出的短信息验证码。需在24小时内完成短信验证,备案申请才能进入省通信管理局的审核程序。 目前适用省份: 根据工信部最新要求,自2020年8月17日起,各省市进行以下类型的备案申请时需通过工信部备案管理系统进行短信核验,详情如下所示。 短信验证平台: 您在备案信息中填写的手机号码收到工信部发出的验证码后,需及时访问《工业和信息化部政务服务平台ICP/IP地址/域名信息备案管理系统》网站(以下简称公共查询网站) 填写证件号码、验证手机号和验证码,完成验证。 验证码发送及短信核验原则: 备案类型 验证逻辑 备注 新增备案 验证主体负责人手机号和网站负责人手机号。 若主体负责人与网站负责人为同一人,只发送一个验证码。 新增网站备案 验证网站负责人手机号码。 若主体信息有变更,则需要验证。 新增接入备案 验证网站负责人手机号码。(注意:该手机号码是通过其他接入商在管局侧备案时所提供的号码) 1、如果您更换了手机号码,需先到原备案接入服务商处变更手机号码,再进行接入备案。 2、如果您的网站为空壳网站(即无接入服务商),无法到原接入服务商处变更手机号码。只能注销备案后,再重新提交新增网站备案。 变更备案信息 验证主体负责人手机号或网站负责人手机号。 1、若变更主体信息,则验证主体负责人手机号码。 2、若变更网站信息,则验证网站负责人手机号码。 3、若同时变更了主体和网站信息,那么主体和网站负责人手机号码均需验证。 注销主体 主体负责人验证。 暂时无需验证。验证开放时间待定。 注销网站 无需验证。 暂时无需验证。验证开放时间待定。 取消接入 无需验证。 暂时无需验证。验证开放时间待定。 验证码有效时长: 验证码 24 小时以内有效。您需在 24 小时内,访问公共查询网站,并输入证件号码、验证手机号和验证码进行验证。 手机号码短信验证通过后,您的备案信息将流转至管局审核。 若 24 小时内,没有进行验证或验证失败,备案信息将会自动退回至接入商(天翼云)。需您重新提交备案申请,再次进入短信验证流程。完成短信验证后,备案申请信息才能递交至省管局审核。 验证码发送号码: 电信、联通、移动用户收到的短信验证码的发送号码为短信验证码的发送号码为12381或10612381。 1. 填写信息:验证码、手机号码、证件号码后六位数,完成图形验证,再单击 提交 。验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续成。 2. 验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续完成。 注意: 1、如果您的信息输入错误,或输入的三条信息(证件号码、手机号码、验证码)不匹配,则系统找不到对应的订单。系统提示找不到记录。请核实信息后,重新输入。 2、如果负责人证件号码输错 3 次以后,系统提示短信核验失败。您的备案申请信息将被工信部系统退回。 未收到验证短信,怎么办? 在天翼云将您的备案信息提交管局审核的后,请注意查收工信部发出的验证短信。一般在 5 分钟内即可收到验证短信。若 5 分钟后仍然没有收到验证短信,请检查: 1、您的手机网络信号是否正常。 2、您是否设置了短信拦截或安装了垃圾短信拦截软件。 解决方法: 1、如果因手机网络信号不正常导致无法接收短信,请移到信号好的地方;或访问公共查询网站进行手动重发送验证短信。 2、如果因您设置了垃圾短信拦截,或安装了拦截软件,请关闭拦截。如果无法关闭拦截,建议您将您的 SIM 卡换至其他手机。 3、如果您误删了验证短信,可访问公共查询网站,进行手动重发。 4、如果您 24 小时未完成短信验证,备案系统会自动退回您的备案申请。您需重新提交备案申请。 如何操作手动重发验证码短信? 访问公共查询网站,单击网站页面上“短信核验”按钮。 单击 短信重发 ,进入核验短信重发页面。填写您需验证的手机号码和证件号码后 6 位数,然后单击 提交。 发送成功通知:您的短信已发送成功。
        来自:
        帮助文档
        ICP备案
        法律法规及公告
        公告
        工信部增加备案短信验证功能通知
      • 概述
        本章节主要对数据湖探索的作业类型、约束限制进行简单介绍。 DLI 作业类型 DLI 提供了三种作业类型: SQL作业:SQL作业为用户提供标准的SQL,兼容Spark SQL、Presto SQL(基于Presto),通过可视化界面API、JDBC、ODBC、Beeline等多种接入方式对云上异构数据源进行查询分析,兼容CSV、JSON、Parquet、Carbon、ORC等主流数据格式。 Flink作业:Flink作业是运行在公有云上的实时流式大数据分析服务作业,全托管的方式用户无需感知计算集群,只需聚焦于Stream SQL业务,即时执行作业,完全兼容Apache Flink API。 Spark作业:Spark作业可为用户提供全托管式的Spark计算服务。用户可通过可视化界面和RESTful API提交作业,支持提交Spark Core、DataSet、Streaming、MLlib、GraphX等Spark全栈作业。 约束限制 DLI配置SparkUI只展示最新的100条作业信息。 控制台界面查询结果最多显示1000条作业结果数据,如果需要查看更多或者全量数据,则可以通过该功能将数据导出到OBS获取。 导出作业运行日志需要具有OBS桶的权限,请提前在“全局配置 > 工程配置”页面配置DLI作业桶。 default队列下运行的作业或者该作业为同步作业时不支持归档日志操作。 仅Spark作业支持使用自定义镜像。 当前弹性资源池最大的计算资源 32000CUs。
        来自:
        帮助文档
        数据湖探索
        用户指南
        概述
      • 操作指引
        本小节介绍漏洞扫描服务流程。 网络要求 非电信客户的应用系统网络与扫描器网络可达,即可提供扫描服务(内网需提供用于部署扫描器的内网主机,内外网需保证路由可达)。 服务流程 业务受理单 客户应如实填写以下信息(必须填满): 1. 被检测的IP主机信息。 2. 被检测主机的操作系统类型及版本。 3. 业务接口人联系方式,客户需指定一个具有对漏洞扫描方案及漏洞扫描过程中出现的问题有决定权的业务接口联系人。 4. 客户提供扫描资产时需对所提交资产所有权负责,保证资产归提交人合法所有。 5. 客户需签订漏洞扫描授权书。 审核阶段 对委托单位提交的受理单信息进行核查,核查内容: 1. 判断资产所在环境是公网还是内网。 若是公网需要保证被扫描资产路由可达。 若是内网环境,需确认委托单位提供可访问到内网主机的跳板机。 2. 受理单审核通过后进入漏洞扫描实施阶段。 业务受理单无问题进入下一阶段;如有问题返回客服,由客服继续与客户沟通,直到业务受理单填满无问题。 说明 确认过程需1个工作日。 实施阶段 1.漏洞扫描实施方案 业务受理单确认无误后进入实施阶段,漏洞扫描操作人员接到客服的业务受理单后确认受理单信息:IP、版本、授权等并就扫描计划和受理单内容与客户确认。扫描任务实施前,分析客户主机情况,制定扫描方案,明确漏洞扫描任务具体实施时间、目标范围、合理的扫描方式以及最佳扫描策略,并就扫描方案与客户进行沟通确认,由于在漏洞扫描期间客户方未关闭安全防护设备所造成的漏扫结果不准确,乙方不承担责任。 注意 确认过程0.5个工作日。 2.实施漏洞扫描 扫描实施前若客户网络环境公网不能直达,需部署扫描器,也可配合客户自己部署,策略模板由我们提供,部署时间预计1个工作日。 关于扫描进度,目前扫描器扫描一个C段地址大约需要6个小时左右时间,扫描期间实时就扫描过程中发生的问题与客户沟通,最后扫描的结果将存放到扫描结果专用堡垒机上。 漏洞扫描的风险规避,由于漏洞扫描属于黑盒测试,因此可能对被测试目标造成不可预知的风险;此外对于性能比较敏感的测试目标,如一些实时性要求比较高的系统,由于扫描可能引起网络流量的增加,因此可能会引起被扫描目标的服务质量降低。因此需进行如下的风险规避措施: 扫描时段选择:一般会选择在夜间或安排在业务量不大的时段进行漏洞扫描。 扫描策略选择:根据系统的具体情况配置合理的扫描策略。 3.编写扫描报告 漏洞扫描完成后输出漏洞扫描服务报告,报告编写时间2个工作日。 4.报告审核修订 由专人对输出的漏洞扫描服务报告进行审核修订,审核修订时间1个工作日。 5.报告提交 报告提交方式采取邮件回复的方式提交:客户通过邮件向天翼云漏洞扫描平台发起报告接收申请,漏洞扫描服务报告以回复邮件方式给客户。 6.质保服务 在客户收到漏洞扫描服务报告后,乙方参与漏扫项目的专家为客户持续提供3天时间用于咨询报告中的不明事项。 7.结束服务 在完成以上各阶段工作后,漏洞扫描项目经理告知客服此次漏扫服务结束。
        来自:
        帮助文档
        漏洞扫描
        用户指南
        操作指引
      • 配置地理位置访问控制规则
        防护效果 假如已添加域名“www.example.com”。可参照以下步骤验证防护效果: 步骤1 清理浏览器缓存,在浏览器中输入防护域名,测试网站域名是否能正常访问。 不能正常访问,参照章节:网站接入WAF 。 能正常访问,执行步骤2。 步骤2 参照本节的操作步骤,将您的客户端IP来源地配置为拦截。 步骤3 清理浏览器缓存,在浏览器中访问“ 步骤4 返回Web应用防火墙控制界面,在左侧导航树中,单击“防护事件”,进入“防护事件”页面,查看防护域名拦截日志,您也可以:下载防护事件数据 。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        配置防护策略
        配置地理位置访问控制规则
      • 云容器集群Pod网络包重复(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络包重复动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察业务因为网络包重复后的业务表现。
        来自:
      • 容器引擎
        序号 Docker命令 Containerd命令 备注 1 docker ps [选项] crictl ps [选项] 列出容器列表 2 docker create [选项] crictl create [选项] 创建容器 3 docker start [选项] 容器ID... crictl start [选项] 容器ID... 启动容器 4 docker stop [选项] 容器ID... crictl stop [选项] 容器ID... 停止容器 5 docker rm [选项] 容器ID... crictl rm [选项] 容器ID... 删除容器 6 docker attach [选项] 容器ID crictl attach [选项] 容器ID 连接容器 7 docker exec [选项] 容器ID 启动命令 [参数...] crictl exec [选项] 容器ID 启动命令[参数...] 进入容器 8 docker inspect [选项] 容器NAME ID... crictl inspect [选项] 容器ID... 9 docker logs [选项] 容器ID crictl logs [选项] 容器ID 查看容器日志 10 docker stats [选项] [容器ID...] crictl stats [选项] [容器ID] 查看容器的资源使用情况 11 docker update [选项] 容器ID... crictl update [选项] 容器ID... 更新容器资源限制
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        节点概述
        容器引擎
      • 跨天翼云账号迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS跨账号迁移天翼云关系数据库MySQL版数据。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已绑定公网eip。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定公网eip。 注意 这里的源端是指需要跨账号迁移的源天翼云数据库。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        跨天翼云账号迁移MySQL数据
      • 使用Flume客户端
        本章节主要介绍使用Flume客户端 。 操作场景 Flume支持将采集的日志信息导入到Kafka。 前提条件 已创建启用Kerberos认证的流集群。 已在日志生成节点安装Flume客户端,例如安装目录为“/opt/Flumeclient”,客户端安装请参见“组件操作指南 > 使用Flume > 安装Flume客户端”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 已配置网络,使日志生成节点与流集群互通。 使用Flume客户端(MRS 3.x之前版本) 说明 普通集群不需要执行步骤1步骤5。 1. 将Master1节点上的认证服务器配置文件,复制到安装Flume客户端的节点,保存到Flume客户端中“Flume客户端安装目录/fusioninsightflumeFlume 组件版本号 /conf”目录下。 文件完整路径为${BIGDATAHOME}/MRSCurrent/1 X KerberosClient/etc/kdc.conf。 其中“X”为随机生成的数字,请根据实际情况修改。同时文件需要以Flume客户端安装用户身份保存,例如root用户。 2. 查看任一部署Flume角色节点的“业务IP”。 登录集群详情页面,选择“集群>组件管理 >Flume > 实例”,查看任一部署Flume角色节点的“业务IP”。 说明 若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 3. 将此节点上的用户认证文件,复制到安装Flume客户端的节点,保存到Flume客户端中“Flume客户端安装目录/fusioninsightflumeFlume 组件版本号 /conf”目录下。 文件完整路径为${BIGDATAHOME}/MRS XXX /install/FusionInsightFlumeFlume 组件版本号 /flume/conf/flume.keytab。 其中“XXX”为产品版本号,请根据实际情况修改。同时文件需要以Flume客户端安装用户身份保存,例如root用户。 4. 将此节点上的配置文件“jaas.conf”,复制到安装Flume客户端的节点,保存到Flume客户端中“conf”目录。 文件完整路径为${BIGDATAHOME}/MRSCurrent/1 X Flume/etc/jaas.conf。 其中“X”为随机生成的数字,请根据实际情况修改。同时文件需要以Flume客户端安装用户身份保存,例如root用户。 5. 登录安装Flume客户端节点,切换到客户端安装目录,执行以下命令修改文件: vi conf/jaas.conf 修改参数“keyTab”定义的用户认证文件完整路径即步骤3中保存用户认证文件的目录:“Flume客户端安装目录/fusioninsightflumeFlume 组件版本号 /conf”,然后保存并退出。 6. 执行以下命令,修改Flume客户端配置文件“flumeenv.sh”: vi Flume 客户端安装目录 / fusioninsightflume Flume 组件版本号 /conf/flumeenv.sh 在“XX:+UseCMSCompactAtFullCollection”后面,增加以下内容: Djava.security.krb5.conf Flume 客户端安装目录 /fusioninsightflume1.9.0/conf/kdc.conf Djava.security.auth.login.configFlume 客户端安装目录 /fusioninsightflume1.9.0/conf/jaas.conf Dzookeeper.request.timeout120000 例如: "XX:+UseCMSCompactAtFullCollection Djava.security.krb5.conf/opt/FlumeClient / fusioninsightflume Flume 组件版本号 /conf/kdc.conf Djava.security.auth.login.config/opt/FlumeClient / fusioninsightflume Flume 组件版本号 /conf/jaas.conf Dzookeeper.request.timeout120000" 请根据实际情况,修改“Flume客户端安装目录”,然后保存并退出。 7. 执行以下命令,重启Flume客户端: cd Flume 客户端安装目录 /fusioninsightflume Flume 组件版本号 /bin ./flumemanage.shrestart 例如: cd /opt/FlumeClient/fusioninsightflume Flume 组件版本号 /bin./flumemanage.shrestart 8. 执行以下命令,根据实际业务需求,在Flume客户端配置文件“properties.properties”中配置并保存作业。 vi Flume 客户端安装目录 /fusioninsightflume Flume 组件版本号 /conf/properties.properties 以配置SpoolDir Source+File Channel+Kafka Sink为例:
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Flume客户端
      • 微服务治理中心
        核心功能 功能说明 专业版 企业版 服务查询 支持查看应用下服务的提供者、消费者和接口元数据等信息。 √ √ 微服务可观测 支持查看最近5分钟的监控数据。 √ √ 金丝雀发布 支持在应用发布时,可以为新版本的应用打上gray的标签,通过按流量比例路由或按内容路由的方式,将灰度流量引入带有gray标签的应用中,从而达到小规模验证的目的。 √ √ 标签路由 支持将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转。 √ √ 无损上下线 无损上线:支持在服务上线时,提供服务预热、延迟注册服务的能力解决流量损失问题。 无损下线:保证应用在下线、重启时流量零损耗。 √ √ 错误注入 支持模拟微服务间异常调用。 √ √ 离群实例摘除 支持监测下游实例的可用性,并摘除异常实例。 √ √ 推空保护 支持当注册中心返回了空列表,此时客户端忽略该空返回的变更,从缓存中获取上一次正常的服务端地址进行服务访问。 √ √ 服务鉴权 支持为提供者的服务设置鉴权规则,允许或拒绝某个消费者访问服务。 √ √ 服务测试 支持在控制台填写调用参数、发起服务调用,并得到服务调用的结果。 √ √ 自动化回归 支持通过用例管理和用例集管理能力实现功能快速回归。 √ √ 服务Mock 支持模拟真实后端服务。 √ √ 事件中心 支持通过事件类型和事件来源维度查询事件记录,感知微服务治理事件。 √ √ 操作日志 支持记录关键治理中心操作日志。 √ √ 流量防护 支持以流量为切入口,对请求流量进行流量控制、熔断降级和系统保护等操作。 × √ 网关防护 支持针对SpringCloud Gateway和Zuul应用实现流量控制。 × √ 全链路灰度 支持将多个相同版本的应用划分为同一个泳道,通过全链路流量控制的功能将相同版本的应用隔离成一个独立的运行环境(泳道)。 × √ 功能开关 提供了一个轻量级的动态配置框架,可以在项目中快速接入配置,并在控制台实时管理配置项。 × √ 数据库治理 支持SQL监控统计、SQL流量防护、连接池治理、数据库灰度、数据库读写路由等功能。 × √ 全局鉴权 支持通过创建鉴权规则,实现多个微服务之间通信的身份验证。 × √
        来自:
        帮助文档
        微服务引擎
        产品简介
        产品规格
        微服务治理中心
      • 调整参数以优化性能
        本页介绍了文档数据库服务常用调整参数以优化性能的示例。 数据库参数是数据库系统运行的关键配置信息,设置不合适的参数值可能会影响业务。列举了部分重要参数说明。 如需通过控制台界面修改参数值,请参见参数组管理。 connPoolMaxConnsPerHost 作用:设置每个主机的最大连接数。适当增加连接池的大小可以提高并发处理能力。 默认值:600 cursorTimeoutMillis 作用:设置游标的超时时间,可以根据查询模式和数据访问模式调整,以避免游标过期导致查询中断。 默认值:600000 failIndexKeyTooLong 作用:控制索引键过长时是否拒绝创建索引。如果索引键超过16MB的限制,可以设置为false,允许创建超过限制的索引。 默认值:true operationProfiling.mode 作用:启用操作性能分析,并设置其模式,以收集慢查询和所有查询的性能信息。 默认值:slowOp storage.engine 作用:选择MongoDB的存储引擎,可以选择WiredTiger或MMAPv1。WiredTiger通常在性能和存储方面更优越。 默认值:wiredTiger storage.journal.enabled 作用:启用或禁用日志记录,如果对性能要求较高,可以考虑禁用日志记录。 默认值:true storage.syncPeriodSecs 作用 :设置数据同步到磁盘的间隔时间。较小的值可以增加数据的耐久性,但可能影响写入性能。 storage.wiredTiger.engineConfig.directoryForIndexes 作用:设置WiredTiger引擎的索引目录,可以优化索引性能。 wiredTigerConcurrentWriteTransactions 作用:设置并发写事务的数量,以提高并发性能。 默认值:128 wiredTigerConcurrentReadTransactions 作用:设置并发读事务的数量,以提高并发性能。 默认值:128 operationProfiling.slowOpThresholdMs 作用:设置慢查询的时间阈值,超过该时间的查询将被记录下来,以便性能分析和优化。 默认值:100 storage.wiredTiger.engineConfig.cacheSizeGB 作用:设置WiredTiger缓存的大小,以充分利用内存资源提高查询性能。 注意 在进行参数调优时,需要根据应用程序的实际情况和需求来选择适当的参数值。对于每个参数的影响和最佳设置,需要在测试环境中进行实验和性能测试,以便确定最适合你的环境和应用程序的配置。另外,文档数据库服务的版本和部署架构也会影响参数的选择和调整。建议在进行参数调优时仔细阅读官方文档和最佳实践指南。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        调整参数以优化性能
      • 变更实例规格
        本章节介绍了如何变更分布式消息服务RocketMQ实例规格,以及扩容存储空间、扩容代理个数。 操作场景 RocketMQ实例创建成功后,您可以根据业务需要,扩容存储空间和代理个数。不支持同时扩容存储空间和代理个数,如果需要可以分别进行扩容。 当前只支持扩容,不支持缩容 。扩容存储空间有次数限制,只能扩容20次。扩容代理个数,可以扩大总分区数。 前提条件 已创建RocketMQ实例,且实例状态为“运行中”。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 通过以下任意一种方法,变更实例规格。 在待变更规格的实例所在行,单击“更多 > 变更规格”。 单击RocketMQ实例名称,进入实例详情页面。单击右上角的“更多 > 变更规格”。 3. 根据实际情况选择扩容存储空间或者代理个数。 不支持同时扩容存储空间和代理个数,如果需要可以分别进行扩容。 图1 变更实例规格 扩容存储空间。 在“变更方式”中,选择“存储扩容”,在“单个代理存储空间”中,选择扩容后的单个代理的存储空间大小,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“可用存储空间”中查看扩容后的总存储空间大小(即扩容后的单个代理的存储空间代理个数)。 说明: 扩容存储空间不会影响业务。 可用存储空间实际存储空间用于存储日志的存储空间格式化磁盘的损耗。 例如,实际扩容存储空间到700GB,用于存储日志的存储空间为100GB,格式化磁盘损耗7GB,那么扩容后的可用存储空间为593GB。 扩容代理个数。 在“变更方式”中,选择“代理扩容”,在“代理个数”中,选择扩容后的代理个数,单击“下一步”。确认扩容信息无误后,单击“提交”。 在实例列表页面的“规格”中查看扩容后的代理个数。 说明: 扩容代理个数不会影响原来的代理,业务也不受影响。 新创建的Topic才有可能创建在新代理上,原来Topic还分布在原有代理上,如果需要使用新扩容的代理,可以通过新建Topic来实现。 已开启公网访问,且设置了弹性IP地址的实例,在扩容代理个数时,需要为新扩容的代理设置弹性IP地址。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        变更实例规格
      • 隐私屏蔽
        本文主要为您介绍如何开启隐私屏蔽功能,以及如何配置隐私屏蔽防护规则。 网站域名接入Web应用防火墙后,您可以选择开启隐私屏蔽功能。通过配置隐私屏蔽规则,可以避免用户的密码等隐私信息出现在事件日志中。 前提条件 已开通Web应用防火墙(原生版)实例。 已完成网站域名接入。 使用限制 基础版不支持隐私屏蔽功能,请升级到更高版本使用。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 选择“系统配置”页签,定位到“隐私屏蔽”模块,可以选择开启/关闭防护。 7. 单击防护规则右侧的“前去配置”,进入隐私屏蔽规则页面。 8. 单击“新建防护规则”,在弹出的对话框中,配置隐私屏蔽规则。 参数说明如下: 配置项 说明 域名 此处不可修改。可返回防护规则页面,在页面右上角进行域名切换。 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 网页地址 输入网站静态页面路径。 路径格式为:协议名://域名或IP地址[:端口号]/[路径名/…/文件名]。 例如“ 路径不支持通配符或参数,支持输入端口。 字段范围 设置屏蔽的字段。 Cookie:根据Cookie区分的Web访问者。 Header:自定义HTTP首部。 Body:请求体参数。 URI:URI参数。 屏蔽关键词 根据字段范围设置屏蔽关键词,被屏蔽的关键词将不会出现在日志中。 默认已勾选银行卡、手机、身份证等关键词,也可以单击“自定义屏蔽关键词正则表达式”手动输入正则表达式,根据正则表达式对匹配的数据进行隐私屏蔽。 规则描述 可选项。设置规则的描述信息。 9. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(系统配置)
        隐私屏蔽
      • 控制台简介
        天翼云网站安全监测控制台帮助您快速新增域名,并完成监测项任务配置操作,同时提供统计分析和报告下载等服务,帮助您对业务情况进行跟踪管理。 网站安全监测控制台概览页: 1、左侧栏导航 功能 概述 概览 可展示近1天、近7天最高3个月时间跨度数据,数据内容包括风险数、告警数、任务执行数、风险变化趋势、启用中域名数。同时展示风险和告警预览可一键跳转处理。计费详情展示产品订购情况。 配置管理 新增域名、管理删除已有域名,并可以对已新增的域名进行对应监测任务配置和管理,同时提供监测机节点IP列表供查询。 风险记录 查询告警记录和风险记录,管理风险记录进行相应加白、URL封禁等操作,风险日志详情有助于定位风险。 安全分析 查看5类监测项的在线看板并管理漏洞报告和网站安全评估报告。 扩展功能 包含封禁管理和态势感知大屏,风险日志操作封禁后可在封禁管理内操作解禁和重新封禁等,态势感知大屏实时一站式展示安全数据。 计费详情 展示基础套餐和扩展服务的订购详情及订购状态。 2、概览页筛选条件 筛选统计时间周期,作用域包含总览指标、风险变化趋势。默认选择7天的数据进行汇总统计显示,最长可选择3个月时间跨度。 3、概览页总览指标 以客户为维度,展示统计周期限定下,总计的风险数、告警次数和任务执行次数。 4、概览页风险变化趋势 以客户为维度,折线图形式,展示统计周期限定下,风险数变化的趋势。 5、概览页风险待处理列表 以客户为维度,时间倒序展示当前发现的风险原因、对应监测项、相关任务名和风险发现时间。 6、概览页域名统计/任务统计 以客户为维度,展示当前已启用服务的域名数总和,以及当前正开启中的任务数总和。 7、概览页最新告警内容 以客户为维度,时间倒序展示当前发生告警的域名和对应产生告警的监测项,可以一键跳转至告警中心查看详情。 8、概览页计费详情 展示主套餐和扩展服务状态。
        来自:
        帮助文档
        网站安全监测
        用户指南
        控制台简介
      • 恢复OMS数据
        本章主要介绍翼MapReduce的恢复OMS数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对FusionInsight Manager系统进行重大数据调整等操作后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,需要对Manager进行恢复数据操作。 管理员可以通过FusionInsight Manager创建恢复Manager任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的Manager数据。 对系统的影响 恢复过程中需要重启Controller,重启时FusionInsight Manager无法登录和操作。 恢复过程中需要重启所有集群,集群重启时无法访问。 Manager数据恢复后,会丢失从备份时刻到恢复时刻之间的数据,例如系统设置、用户信息、告警信息或审计信息。可能导致无法查询到数据,或者某个用户无法访问集群。 Manager数据恢复后,系统将强制各集群的LdapServer从OLadp同步一次数据。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查OMS资源状态是否正常,检查各集群的LdapServer实例状态是否正常。如果不正常,不能执行恢复操作。 检查集群主机和服务的状态是否正常。如果不正常,不能执行恢复操作。 检查恢复数据时集群主机拓扑结构与备份数据时是否相同。如果不相同,不能执行恢复操作,必须重新备份。 检查恢复数据时集群中已添加的服务与备份数据时是否相同。如果不相同,不能执行恢复操作,必须重新备份。 停止依赖集群运行的上层业务应用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复OMS数据
      • 配置Syslog北向参数
        本章节主要介绍翼MapReduce的配置Syslog北向参数。 操作场景 该任务指导用户以Syslog方式将MRS Manager的告警事件上报到指定的监控运维系统中。 须知:Syslog协议未做加密,传输数据容易被窃取,存在安全风险。 前提条件 对接服务器对应的弹性云服务器需要和MRS集群的Master节点在相同的VPC,且Master节点可以访问对接服务器的IP地址和指定端口。 操作步骤 在MRS Manager,单击“系统设置”。 1. 在“配置”区域“监控和告警配置”下,单击“Syslog配置”。 “Syslog服务”的开关默认为关闭,单击启用Syslog服务。 2. 设置如下表所示的对接参数。 详见下表:对接参数 参数区域 参数名称 参数说明 Syslog协议 服务IP 设置对接服务器IP地址。 服务端口 设置对接端口。 协议 设置协议类型,取值范围: l “TCP” l “UDP” 安全级别 设置上报消息的严重程度,取值范围: l “Informational” l “Emergency” l “Alert” l “Critical” l “Error” l “Warning” l “Notice” l “Debug” Facility 设置产生日志的模块。 标识符 设置产品标识,默认为“MRS Manager”。 报告信息 报文格式 设置告警报告的消息格式,具体要求请参考界面帮助。 报告告警类型 设置需要上报的告警类型。 l “故障”表示Manager产生告警时会上报Syslog告警消息。 l “清除”表示清除Manager告警时会上报Syslog告警消息。 l “事件”表示Manager产生事件时会上报Syslog告警消息。 报告告警级别 设置需要上报的告警级别。支持“提示”、“一般”、“严重”和 “致命”。 未恢复告警上报设置 周期上报未恢复告警 设置是否按指定周期上报未清除的告警。“周期上报未恢复告警”的开关默认为关闭,单击启用此功能。 间隔时间(分钟) 设置周期上报未恢复告警到远程Syslog服务的时间间隔,当“周期上报未恢复告警”开关打开时启用。单位为分钟,默认值为“15”,取值范围为5分钟到一天(1440分钟)。 心跳设置 上报心跳 设置是否开启周期上报Syslog心跳消息。“周期上报未恢复告警”的开关默认为关闭,单击启用此功能。 心跳周期(分钟) 设置周期上报心跳的时间间隔,当“上报心跳”开关打开时启用。单位为分钟,默认值为“15”,取值范围为160。 心跳报文 设置心跳上报的内容,当“上报心跳”开关打开时启用,不能为空。支持数字、字母、下划线、竖线、冒号、空格、英文逗号和句号等字符,长度小于等于256。 说明:设置周期上报心跳报文后,在某些集群容错自动恢复的场景下(例如主备管理节点倒换)可能会出现报文上报中断的现象,此时等待自动恢复即可。 3. 单击“确定”,设置完成。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        告警管理
        配置Syslog北向参数
      • mysqldump使用方法
        本文介绍MySQL数据库mysqldump常用方法。 MySQL数据库mysqldump常用方法 导出整个数据库(包括数据库中的数据)。 mysqldump u username p dbname > dbname.sql 导出数据库结构(不含数据)。 mysqldump u username p d dbname > dbname.sql 导出数据库中的某张数据表(包含数据)。 mysqldump u username p dbname tablename > tablename.sql 导出数据库中的某张数据表的表结构(不含数据)。 mysqldump u username p d dbname tablename > tablename.sql 导出全部用户的sql(不包含mysql.user表结构,导入前需确保目标实例不存在重名用户)。 mysqldump h $rdsip P $rdsport u username p setgtidpurgedOFF nocreateinfo mysql user > /tmp/user.sql mysqldump常用参数说明 –alldatabases , A 导出全部数据库mysqldump uroot p –alldatabases。 –alltablespaces , Y导出全部表空间。mysqldump uroot p –alldatabases –alltablespaces–notablespaces , y不导出任何表空间信息。mysqldump uroot p –alldatabases –notablespaces。 –adddropdatabase每个数据库创建之前添加drop数据库语句。mysqldump uroot p –alldatabases –adddropdatabase。 –adddroptable每个数据表创建之前添加drop数据表语句。(默认为打开状态,使用–skipadddroptable取消选项)mysqldump uroot p –alldatabases (默认添加drop语句)mysqldump uroot p –alldatabases –skipadddroptable(取消drop语句)。 –addlocks在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(默认为打开状态,使用–skipaddlocks取消选项)mysqldump uroot p –alldatabases(默认添加LOCK语句)mysqldump uroot p –alldatabases –skipaddlocks(取消LOCK语句)。 –comments附加注释信息。默认为打开,可以用–skipcomments取消mysqldump uroot p –alldatabases(默认记录注释)mysqldump uroot p –alldatabases –skipcomments(取消注释)。 –completeinsert, c使用完整的insert语句(包含列名称)。这么做能提高插入效率,但是可能会受到maxallowedpacket参数的影响而导致插入失败。mysqldump uroot p –alldatabases –completeinsert。 –compact导出更少的输出信息(用于调试)。去掉注释和头尾等结构。可以使用选项:–skipadddroptable –skipaddlocks –skipcomments –skipdisablekeysmysqldump uroot p –alldatabases –compact。 –compress, C在客户端和服务器之间启用压缩传递所有信息mysqldump uroot p –alldatabases –compress。 –databases, 导出几个数据库。参数后面所有名字参量都被看作数据库名。mysqldump uroot p –databases test mysql。 –debug输出debug信息,用于调试。默认值为:d:t:o,/tmp/mysqldump.tracemysqldump uroot p –alldatabases –debugmysqldump uroot p –alldatabases –debug” d:t:o,/tmp/debug.trace”。 –debuginfo输出调试信息并退出mysqldump uroot p –alldatabases –debuginfo。 –defaultcharacterset设置默认字符集,默认值为utf8mysqldump uroot p –alldatabases –defaultcharactersetlatin1。 –delayedinsert采用延时插入方式(INSERT DELAYED)导出数据mysqldump uroot p –alldatabases –delayedinsert。 –events, E导出事件。mysqldump uroot p –alldatabases –events。 –flushlogs开始导出之前刷新日志。请注意:假如一次导出多个数据库(使用选项–databases或者–alldatabases),将会逐个数据库刷新日志。除使用–lockalltables或者–masterdata外。在这种情况下,日志将会被刷新一次,相应的所有表同时被锁定。因此,如果打算同时导出和刷新日志应该使用–lockalltables 或者–masterdata 和–flushlogs。mysqldump uroot p –alldatabases –flushlogs。 –flushprivileges在导出mysql数据库之后,发出一条FLUSH PRIVILEGES 语句。为了正确恢复,该选项应该用于导出mysql数据库和依赖mysql数据库数据的任何时候。mysqldump uroot p –alldatabases –flushprivileges。 –force在导出过程中忽略出现的SQL错误。mysqldump uroot p –alldatabases –force。 –host, h需要导出的主机信息mysqldump uroot p –hostlocalhost –alldatabases。 –ignoretable不导出指定表。指定忽略多个表时,需要重复多次,每次一个表。每个表必须同时指定数据库和表名。例如:–ignoretabledatabase.table1 –ignoretabledatabase.table2 ……mysqldump uroot p –hostlocalhost –alldatabases –ignoretablemysql.user。 –lockalltables, x提交请求锁定所有数据库中的所有表,以保证数据的一致性。这是一个全局读锁,并且自动关闭–singletransaction 和–locktables 选项。mysqldump uroot p –hostlocalhost –alldatabases –lockalltables。 –locktables, l开始导出前,锁定所有表。用READ LOCAL锁定表以允许MyISAM表并行插入。对于支持事务的表例如InnoDB和BDB,–singletransaction是一个更好的选择,因为它根本不需要锁定表。请注意当导出多个数据库时,–locktables分别为每个数据库锁定表。因此,该选项不能保证导出文件中的表在数据库之间的逻辑一致性。不同数据库表的导出状态可以完全不同。mysqldump uroot p –hostlocalhost –alldatabases –locktables。 –nocreatedb, n只导出数据,而不添加CREATE DATABASE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreatedb。 –nocreateinfo, t只导出数据,而不添加CREATE TABLE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreateinfo。 –nodata, d不导出任何数据,只导出数据库表结构。mysqldump uroot p –hostlocalhost –alldatabases –nodata。 –password, p连接数据库密码。 –port, P连接数据库端口号。 –user, u指定连接的用户名。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        备份恢复
        mysqldump使用方法
      • 产品咨询类
        数据库复制服务是否支持关系型数据库的HA实例迁移 数据复制服务的高可用性保障机制,可以支持关系型数据库的单实例和HA实例的迁移。针对HA实例的迁移,DRS的自动重连技术在连接短暂中断后连接可以得到修复,断点续传技术,根据数据库内部连续性标志可以确保实时同步的连续性和一致性。 源数据库的HA设计,满足浮动IP连接效果,且倒换时RPO0,则DRS完全支持数据库的HA实例迁移,无需人工介入。 源数据库的HA设计,不能满足浮动IP连接且倒换时RPO0时,存在以下几种情况: 使用浮动IP,但不能保证倒换时RPO0时,可以连接,但DRS会识别出数据断层(如果有主备倒换出现数据丢失的话)并提示任务失败,此时只能根据新的数据情况,使用重置功能重新迁移。 使用固定IP,且倒换时RPO0时,支持迁移(只有在实例正常运行的情况下支持迁移,否则不支持)。 使用固定IP,且不能保证切换时RPO0时, 可以连接,但DRS会识别出数据断层并提示任务失败,此时只能根据新的数据情况,使用重置功能重新迁移。 出云迁移且目标端数据库为HA实例时,DRS可以保证源的数据完整的迁移到目标数据库,但由于目标数据库本身的倒换不能保证RPO0,则目标数据库可能会出现数据断层的情况。 DRS支持断点续传吗? 针对数据库的迁移场景,在迁移过程中由于不可抗拒因素(例如网络波动)导致的任务失败,DRS通过记录当前解析和回放的位点(该位点同时也是数据库内部一致性的依据),下次从该位点开始回放的方式来实现断点续传,以确保数据的完整性。 增量阶段的迁移,DRS会自动进行多次断点续传的重试,全量阶段的MySQL迁移,系统默认进行三次自动续传,无需人工干预。当自动重试失败累计一定次数后,任务会显示异常,需要人为根据日志来分析无法继续的原因,并尝试解决阻塞点(例如数据库修改了密码),如果环境无法修复,如所需日志已经淘汰,则使用重置功能可以完全重新开始任务。
        来自:
        帮助文档
        数据库复制
        常见问题
        产品咨询类
      • 使用Packer制作私有镜像
        三、开始构建 1. 开始构建 执行下述命令构建模板: plaintext packer build ctyunosexample.json 如果希望看到更详细的日志信息,可以执行: plaintext PACKERLOG1 packer build ctyunosexample.json 如果有错误无法明确原因,可以调试模式运行: plaintext PACKERLOG1 packer build debug ctyunosexample.json 执行效果如下图: 2. 构建完成 待构建完成后,执行下述命令,可看到已构建的qcow2格式镜像。 plaintext [root@localhost ~] ll artifacts/qemu/ctyunos22/ctyunos22.06230117x8664dve240929R1.qcow2 rwrr 1 root root 1735169536 Oct 8 15:43 artifacts/qemu/ctyunos22/ctyunos22.06230117x8664dve240929R1.qcow
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        使用Packer制作私有镜像
      • 产品优势
        对比项 弹性负载均衡 开源LVS/Nginx 负载均衡 运维方式 全托管、免运维。 需用户自行安装、升级和维护。 计费模式 提供多种规格,支持差异化的性能指标。 按照业务峰值为预留基础资源付费。 部署方式 集群模式部署、多可用区部署。 虚拟机或容器模式部署。 性能 独享型支持千万级并发连接,百万级新建连接。 四层仅支持主备部署模式,性能受制于资源规格限制。 配置变更 支持配置动态加载。 配置更新需要reload进程,对长连接有损。Lua插件变更需要Reload进程。 SSL卸载 证书在ELB上进行卸载,不占用底层计算资源。 使用计算资源卸载证书,性能更低。 周边服务集成 支持对接WAF、LTS、CES等周边服务。敏捷部署监控与告警。按需开启访问日志。 用户自行手动部署。
        来自:
        帮助文档
        弹性负载均衡 ELB
        产品简介
        产品优势
      • 查询域名的IP列表、区域、运营商
        接口描述:调用本接口查询域名的IP地址,及ip对应的区域,运营商信息 请求方式:post 请求路径:/auxiliarytools/queryvipsdetailbydomain 使用说明: 单个用户一分钟限制调用10000次,并发不超过100 请求参数说明(json): 参数 类型 是否必传 名称 描述 domain list 是 域名列表 最多支持5个 返回参数说明: 参数 类型 是否必传 名称及描述 code int 是 状态码 message string 是 描述信息 result list 是 返回结果数组 result[].domain string 是 域名 result[].details list 是 域名对应的vip列表信息 result[].details[].vips string 是 vip信息,多个用逗号“,”分割 result[].details[].cityName string 是 城市名称 result[].details[].nodename string 是 节点名称 result[].details[].provinceName string 是 省份名称 result[].details[].ispName string 是 运营商名称 示例: 请求路径: 示例1: 请求参数: {     "domain": [         "ctyun.cn"     ] } 返回结果: {     "code": 100000,     "message": "success",     "result": [         {             "domain": "ctyun.cn",             "details": [                 {                     "vips": "xx.xx.xx.xx,xx:xx:xx:xx::",                     "cityName": "呼和浩特市",                     "nodename": "xxx1",                     "provinceName": "内蒙古自治区",                     "ispName": "中国电信"                 },                 {                     "vips": "xx.xx.xx.xx,xx:xx:xx:xx::",                     "cityName": "通州区",                     "nodename": "xxx2",                     "provinceName": "北京市",                     "ispName": "中国电信"                 }             ]         }     ] }
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询域名的IP列表、区域、运营商
      • 合规检测
        合规检测可以提高企业办公安全水位,本文介绍如何使用合规检测能力。 背景说明 合规检测提供多项终端合规基线检测能力,企业可制定合规基线,客户端实时采集指定的办公终端属性,检测企业办公终端环境是否安全合规,帮助企业提高办公安全水位。 注意 合规检测功能需要客户端版本号为2.3.x及以上,且需购买对应版本套餐才具有该能力,点此查看 其中,必备软件/违规软件需要2.25.10及以上客户端。 操作步骤 1. 登录边缘安全加速控制台,选择【终端管理】或【零信任】; 2. 在左侧导航栏“终端安全合规检测”,查看合规检测策略和配置; 3. 可根据业务需求进行相关配置。 功能说明 基础配置 展示合规检测项,针对企业员工终端合规基线情况进行检测,不符合终端合规检测要求则进行相关处置。 系统内置全员终端合规检测策略并默认开启,内置策略的处置动作均为监控观察,不影响用户使用,企业可根据自身安全标准调整。 若员工不符合合规检测要求,可根据处置动作进行访问限制、登录限制等,支持员工从客户端点击合规检测按钮,进行主动扫描检测,员工可根据检测结果进行合规整改,直到满足合规要求则不再进行处置限制。 企业管理员可从左侧导航栏日志与数据分析处置记录页面,查看合规检测策略的检测情况,处置记录会记录不符合合规策略的员工及其设备情况。
        来自:
        帮助文档
        边缘安全加速平台
        终端管理
        终端安全
        合规检测
      • 云容器集群Pod进程停止
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到进程停止动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务请求量、应用提供服务平均响应时间等指标。 2、业务应用验证: 观测业务进程被终止后的表现。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod进程停止
      • 1
      • ...
      • 104
      • 105
      • 106
      • 107
      • 108
      • ...
      • 455
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      服务器迁移相关术语解释

      术语解释

      Microsoft SQL Server

      产品规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号