活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云对等连接_相关内容
      • 使用限制
        本文为您介绍VPN连接的使用限制。 VPN连接的使用限制如下表所示: 资源 限制 说明 单个VPC可创建的VPN网关数量 1 无法调整 单个用户可以创建IPsec VPN用户网关实例数 100 提交工单 单个用户可以创建SSL VPN服务端实例数 20 提交工单
        来自:
        帮助文档
        VPN连接
        产品介绍
        使用限制
      • 修改数据库端口
        说明:本章节会介绍在控制台如何修改数据库端口 操作场景 关系型数据库服务支持修改主实例和只读实例的数据库端口,对于主备实例,修改主实例的数据库端口,该实例下备实例的数据库端口会被同步修改。 约束条件 端口修改中,以下操作不可进行: 绑定弹性公网IP。 删除实例。 创建备份。 操作步骤 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“实例管理”页面,选择指定的实例,单击主实例名称,或单击,单击只读实例名称。 在“基本信息”,在“连接信息”模块“数据库端口”处,单击,修改数据库端口。 您也可以在左侧导航栏,单击“连接管理”,在“内网连接”或“公网连接”页面中,在“连接信息”模块“数据库端口”处,单击,修改数据库端口。 MySQL数据库端口设置范围为1024~65535(其中12017和33071被RDS系统占用不可设置)。 。 单击,提交修改。 − 在弹出框中,单击“确定”,提交修改。 i. 修改主实例数据库端口,对应的主备实例均会被修改且重启。 ii. 修改只读实例数据库端口,仅修改并重启该只读实例。 iii. 此过程需要1~5分钟左右。 − 在弹出框中,单击“取消”,取消本次修改。 单击,取消修改。 在实例的“基本信息”页面,查看修改结果。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        连接管理
        修改数据库端口
      • Mysql数据库
        本文主要介绍 Mysql数据库 介绍APM采集的Mysql数据库指标的类别、名称、含义等信息。 表Mysql数据库采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 是否采集原始sql radio JAVA false 2.0.0 调用链中是否采集上报带有参数内容的原始sql。 汇聚分表表名 array JAVA 2.2.2 根据配置的表名,汇聚分表的sql。以该表名开头的表汇聚成同样的表名。 表 Mysql数据库指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 数据库连接(connection,以数据库为维度统计sql调用详情。) db 数据库 数据库名称 ENUM LAST 数据库连接(connection,以数据库为维度统计sql调用详情。) createdCount 创建连接数 该数据库创建连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) currentCount 当前连接数 该数据库当前连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) destroyedCount 销毁连接数 该数据库销毁连接数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) errorCount 错误数 该数据库发生错误数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) invokeCount 调用次数 该数据库的调用次数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) maxTime 最大响应时间 该数据库的最大响应时间 ms INT MAX 数据库连接(connection,以数据库为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) readRowCount 读取行数 该数据库读取行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) updatedRowCount 更新行数 该数据库更新行数 INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) totalTime 总响应时间 该数据库的总响应时间 ms INT SUM 数据库连接(connection,以数据库为维度统计sql调用详情。) slowestSql 最慢sql 该数据库在采集周期内的最慢sql STRING LAST 异常(exception ,sql调用发送的异常统计信息。) causeType 类名 异常发生类 ENUM LAST 异常(exception ,sql调用发送的异常统计信息。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception ,sql调用发送的异常统计信息。) count 次数 异常次数 INT SUM 异常(exception ,sql调用发送的异常统计信息。) message 消息 异常消息 STRING LAST 异常(exception ,sql调用发送的异常统计信息。) sql 异常sql 发生异常的sql STRING LAST 异常(exception ,sql调用发送的异常统计信息。) stackTrace 异常堆栈 异常产生的堆栈信息 CLOB LAST 版本(version,mysql的包版本信息。) version 版本 驱动包版本 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sql sql唯一标识 sql对应的唯一id,用于告警配置 ENUM LAST sql监控(sql,以sql为维度统计sql调用详情。) concurrentMax 最大并发 该sql的最大并发 INT MAX sql监控(sql,以sql为维度统计sql调用详情。) errorCount 错误次数 该sql的错误次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) invokeCount 调用次数 该sql的调用次数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) lastError 错误信息 sql发生错误产生的错误信息 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) maxTime 最大响应时间 该sql的最大响应时间 ms INT MAX sql监控(sql,以sql为维度统计sql调用详情。) readRowCount 读取行数 该sql的读取行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) runningCount 正在执行数 采集时间点正在执行的sql数量 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) sqlString sql语句 sql语句 STRING LAST sql监控(sql,以sql为维度统计sql调用详情。) totalTime 总响应时间 该sql的总响应时间 ms INT SUM sql监控(sql,以sql为维度统计sql调用详情。) updatedRowCount 更新行数 该sql的更新行数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range5 110s 响应时间在110s范围请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM sql监控(sql,以sql为维度统计sql调用详情。) lastTraceId 最近的调用链traceId 采集周期内最近的调用链对应的traceid STRING LAST 汇总(total,sql调用的汇总数据统计。) invokeCount 调用次数 总调用次数 INT SUM 汇总(total,sql调用的汇总数据统计。) errorCount 错误次数 总错误次数 INT SUM 汇总(total,sql调用的汇总数据统计。) readRowCount 读取行数 总读取行数 INT SUM 汇总(total,sql调用的汇总数据统计。) totalTime 响应时间 总响应时间 ms INT SUM 汇总(total,sql调用的汇总数据统计。) updatedRowCount 更新行数 总更新行数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        Mysql数据库
      • 容器集群健康巡检
        Prometheus监控服务支持健康巡检接入,健康巡检可定期对目标服务进行连接测试,通过健康巡检,您可进一步掌握服务的健康状况并及时发现异常。 前提条件 已开通应用性能监控Prometheus服务。 已创建云容器引擎集群。 接入步骤 1. 登录应用性能监控Prometheus监控控制台。 2. 点击左侧“接入管理”菜单。 3. 在快速接入中选择“健康巡检”。 4. 根据控制台指引完成组件接入,下面对重点配置项进行说明。 配置项 说明 探测任务名称 自定义唯一探测任务名称。 探测地址 需要探测的目标服务地址。 探测方式 选择探测方式,支持以下方式。 HTTP2XX PING TCP 探测时间间隔(秒) 探测数据的时间间隔。 管理健康巡检 查看健康巡检大盘 完成健康巡检接入后,您可以监控大盘查看巡检情况。 1. 登录应用性能监控Prometheus监控控制台。 2. 点击左侧“接入管理”菜单。 3. 点击“已计入组件”页签。 4. 选择“健康巡检”卡片,在在大盘列表页签下,选择指定的容器环境。点击大盘名称即可查看对应的巡检大盘。
        来自:
        帮助文档
        应用性能监控 APM
        最佳实践
        容器集群健康巡检
      • DLI Spark
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Spark
      • MRS Spark Python
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        MRS Spark Python
      • MRS Spark
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        MRS Spark
      • MRS Spark SQL
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        MRS Spark SQL
      • DLI SQL
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI SQL
      • CDM Job
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        CDM Job
      • 区域和可用区
        云堡垒机可以跨区域或跨VPC网络管理主机吗? 不建议。 云堡垒机仅支持直接管理同一VPC内资源,即可直接访问同一VPC内资源。 虽跨区域或跨VPC可通过云服务构建网络连接,但受限于网络的不稳定性,不建议跨区域或跨VPC使用云堡垒机纳管资源。 云堡垒机支持在专属云上使用吗? 支持。 专属云(Dedicated Cloud)是面向企业、政府、金融等客户,提供计算、存储资源池以及网络、管控多级隔离的综合解决方案。用户独享专属资源池,与公有云资源物理隔离,满足特定性能、应用及安全合规等要求。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        区域和可用区
      • 操作策略管理
        本节介绍了在RabbitMQ实例中如何创建、修改和删除操作策略。 背景信息 RabbitMQ操作策略管理是一种用于管理RabbitMQ服务器的功能,它允许管理员定义和控制各种操作策略以满足特定的需求和约束。 操作策略可以应用于多个方面,包括队列、交换机、绑定和连接等。通过操作策略管理,管理员可以定义以下内容: ● 长度限制:管理员可以设置队列的最大长度,以防止队列无限增长导致资源耗尽。当队列达到指定的长度限制时,可以选择丢弃新的消息或者拒绝新的连接。 ● 时间限制:管理员可以设置队列中消息的最大存活时间,以防止消息在队列中长时间滞留。一旦消息超过指定的时间限制,可以选择将其丢弃或者转发到其他队列。 ● 内存限制:管理员可以设置队列或交换机的最大内存使用量,以防止RabbitMQ服务器的内存资源被过度消耗。当达到指定的内存限制时,可以选择丢弃消息或者拒绝新的连接。 ● 消息优先级:管理员可以为消息设置优先级,以确保重要的消息能够优先处理。可以通过操作策略管理来定义消息优先级的规则和行为。 ● 连接限制:管理员可以设置连接的最大数量,以限制同时连接到RabbitMQ服务器的客户端数量。这可以用于控制系统的负载和资源消耗。 通过操作策略管理,管理员可以根据实际需求和约束对RabbitMQ服务器进行细粒度的控制和管理。这有助于提高系统的可靠性、性能和可伸缩性,并确保消息队列系统能够适应各种场景和负载。
        来自:
      • 数据库安全设置
        本节介绍了如何进行云数据库TaurusDB实例的安全设置。 帐户密码等级设置 TaurusDB对在客户端新创建的数据库用户,设置了密码安全策略: 口令长度至少8个字符。 口令至少包含大写字母、小写字母、数字、特殊字符三种字符的组合,其中允许输入~!@%^+?,()&$特殊字符。 创建实例时,为用户提供了密码复杂度校验,由于root用户可以修改密码复杂度,安全起见,建议修改后的密码复杂度不低于TaurusDB数据库的初始化设置。 帐户说明 您在创建TaurusDB实例时,系统会自动为实例创建如下系统帐户(用户不可使用),用于给数据库实例提供完善的后台运维管理服务。 注意 删除、重命名、修改这些帐户的密码和权限信息,会导致实例运行异常,请谨慎操作。 rdsAdmin:管理帐户,拥有最高的superuser权限,用于查询和修改实例信息、故障排查、迁移、恢复等操作。 rdsRepl:复制帐户,用于只读节点在主实例上同步数据。 rdsBackup:备份帐户,用于后台的备份。 rdsMetric:指标监控帐户,用于watchdog采集数据库状态数据。 rdsProxy:数据库代理帐户,该帐户在开通读写分离时才会自动创建,用于通过读写分离地址连接数据库时鉴权使用。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据安全性
        数据库安全设置
      • 同账号不同资源池间的数据迁移
        本文主要介绍基于天翼云海量文件服务,如何在不同资源池之间实现海量文件系统之间的数据迁移。 应用场景 本文适用于在不同地域(资源池)不同VPC的海量文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。 前提条件 已拥有两个NFS协议的海量文件系统。两个资源池的海量文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 准备工作 在两个资源池分别创建一个海量文件系统和一台弹性云主机,具体操作请参考创建海量文件系统、创建弹性云主机。 将文件系统分别挂载海量文件系统至弹性云主机,具体操作请参考使用弹性云主机挂载海量文件系统。 操作步骤 不同资源池的两个海量文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的海量文件系统分别挂载到对应云主机。 将海量文件系统挂载至云主机中,这里设定资源池1为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,资源池2为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具。 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据。 执行以下命令,将资源池1海量文件系统中的数据迁移到资源池2中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在资源池1中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至资源池2的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据。 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果。 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        同账号不同资源池间的数据迁移
      • 手动配置信息
        本章节内容主要介绍手动配置信息 操作场景 目前从本地或虚拟机通过DRS备份迁移功能直接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。一个用户通常会有多个该类型账号,用户迁移到RDS for SQL Server实例后,需要手动将自己本地的Login账号同步在实例上进行创建,以下方法将介绍如何在本云RDS for SQL Server实例上创建同名,同密码的Login账号,并进行授权操作。 1.通过以下脚本获取本地实例Login账号创建脚本,获取到的脚本可以直接在目标端上执行,以创建同名,同密码的Login账号。 SELECT 'IF (SUSERID('+QUOTENAME(SP.name,'''')+') IS NULL) BEGIN CREATE LOGIN ' +QUOTENAME(SP.name)+ CASE WHEN SP.typedesc 'SQLLOGIN' THEN ' WITH PASSWORD ' +CONVERT(NVARCHAR(MAX),SL.passwordhash,1)+ ' HASHED,SID' +CONVERT(NVARCHAR(MAX),SP.SID,1)+',CHECKEXPIRATION ' CASE WHEN SL.isexpirationchecked 1 THEN 'ON' ELSE 'OFF' END +', CHECKPOLICY ' +CASE WHEN SL.ispolicychecked 1 THEN 'ON,' ELSE 'OFF,' END ELSE ' FROM WINDOWS WITH' END ' DEFAULTDATABASE[' +SP.defaultdatabasename+ '], DEFAULTLANGUAGE[' +SP.defaultlanguagename+ '] END;' as CreateLogin FROM sys.serverprincipals AS SP LEFT JOIN sys.sqllogins AS SL ON SP.principalid SL.principalid WHERE SP.type 'S' AND SP.name NOT LIKE ' % ' AND SP.name NOT LIKE 'NT AUTHORITY%' AND SP.name NOT LIKE 'NT SERVICE%' AND SP.name NOT IN ('rdsadmin','rdsbackup','rdsuser','rdsmirror','public') 2.执行1脚本可获取如下执行脚本。 图1 获取执行脚本 3.复制2中的执行脚本在目标端直接执行,创建出来的Login账号跟原实例密码一致。 4.将新建的Login账号跟用户当前RDS SQL Server实例上的迁移过来的数据库用户权限进行映射(mapping),以保证该账号在当前实例上的权限一致性,执行脚本如下。 declare @DBName nvarchar(200) declare @Loginname nvarchar(200) declare @SQL nvarchar(MAX) set @Loginname 'TestLogin7' //输入Login名称逐个执行 declare DBNameCursor cursor for select quotename(name)from sys.databases where databaseid > 4 and state 0 and name not like '%$%' and name <> 'rdsadmin' open DBNameCursor fetch next from DBNameCursor into @DBName WHILE @@FETCHSTATUS 0 begin SET @SQL' USE '+ (@DBName)+ ' if exists(select top 1 1 from sys.sysusers where name '''+ @LoginName +''') begin ALTER USER '+@Loginname+' with login '+@Loginname+'; end ' print @SQL EXEC (@SQL) fetch next from DBNameCursor into @DBName end close DBNameCursor deallocate DBNameCursor 说明: 以上脚本执行完成后,用户即可在自己的新实例上看到同名的登录账号,并且密码跟权限是完全跟本地一致的。 DBLink连接 DBLink连接指SQL Server支持用户通过创建DBLink连接的方式,跟外部实例上的数据库进行交互,这种方式可以极大的方便用户不同实例间,不同数据库类型之间的数据库查询,同步,比较,所以大部分用户都会在本地实例上用到该服务,但是迁移上云后,本地DBLink是不会自动同步到云上实例的,还需要简单的手动进行同步。 1.通过微软提供的官方Microsoft SQL Server Management Studio客户端工具连接本地实例与云上实例,同时在“服务器对象 > 链接服务器”下找到当前实例的DBLink链接。 图2 查看DBLink链接 2.选中链接服务器,然后按F7,会自动弹出对象资源管理信息页,在该页面中可以方便你快速的自动创建脚本。 图 自动创建脚本 3.在新窗口中,可以看到当前实例上所有DBLink的创建脚本,仅需复制该脚本到目标实例上,并修改@rmtpassword上的密码即可执行创建操作。 USE [master] GO / Object: LinkedServer [DRSTESTREMOTE] Script Date: 2019/5/25 17:51:50 / EXEC master.dbo.spaddlinkedserver @server N'DRSTESTREMOTE', @srvproductN'', @providerN'SQLNCLI', @datasrcN'DESKTOPB18JH5TSQLSERVER2016EE' / For security reasons the linked server remote logins password is changed with
        来自:
        帮助文档
        数据库复制
        最佳实践
        本地Microsoft SQL Server备份迁移到云上RDS for SQL Server实例
        手动配置信息
      • 产品定义
        调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 通过对请求的源IP地址进行Hash运算,可以将其转化为一个具体的数值。同时,后端主机也会被编号。根据Hash运算的结果,将请求分发到对应编号的后端主机上,从而实现了对不同源IP地址的访问进行负载均衡,同时确保同一个客户端IP的请求始终被派发到相同的主机上。
        来自:
        帮助文档
        弹性负载均衡 ELB
        产品简介
        产品定义
      • 证书类型概览
        VPN网关类型 IPse连接: 认证类型 IPsec连接: 认证选择 是否需要证书 应用场景 国密 证书认证 上传的证书 需要上传国密证书,参见上传证书。 仅适用于支持国密算法的企业本地数据中心、企业办公网络与天翼云云VPC之间建立网络连接。 普通 密钥认证 适用于在企业本地数据中心、企业办公网络、互联网客户端与天翼云VPC之间建立网络连接。 普通 证书认证 自签(默认) 不需要上传证书,系统自动创建一套证书。 适用于在企业本地数据中心、企业办公网络、互联网客户端与天翼云VPC之间建立网络连接。 普通 证书认证 上传的证书 需要上传证书,参见上传证书。 适用于在企业本地数据中心、企业办公网络、互联网客户端与天翼云VPC之间建立网络连接。
        来自:
        帮助文档
        VPN连接
        用户指南
        证书管理
        证书类型概览
      • 数据库连接失败(Communications link failure)
        本页为全量迁移/同步阶段报数据库连接失败(Communications link failure)错误的场景、关键词、可能原因和修复方法建议。 场景描述 包含全量迁移/同步的任务,在进行全量迁移时失败,错误日志信息包含“Communications link failure The last packet sent successfully to the server was 0 milliseconds ago. The driver has not received any packets from the server”。 关键词 Communications link failure 可能原因 访问源库或目标库时建立连接失败。 修复方法 1. 检查源库或目标库是否处于正常运行状态。 2. 检查源库或目标库与DTS实例之间的网络是否正常连通。 3. 检查DTS的实例IP是否在源库或目标库远程访问的白名单中。 4. 恢复数据库正常连接后,重启任务。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        全量迁移/同步案例
        数据库连接失败(Communications link failure)
      • 创建跨域连接
        本文帮助您了解如何设置云间高速跨区域互通带宽。 操作场景 用户根据规划的网络连通情况,为需要进行互通的两个区域设置域间通信带宽。 同区域网络实例之间互通无需配置带宽。 操作步骤 1. 登录云间高速(标准版)管理控制台,并在侧菜单列表中选择“云间高速(标准版)”。 2. 在控制台首页,单击绑定目标云间高速(标准版)实例操作列的“管理 ”,或单击云间高速(标准版)实例名称。 3. 进入目标实例详情页面。单击“跨域连接管理 ”,然后单击“创建跨域连接”。 4. 进入创建跨域连接页面,根据页面提示选择互通区域(企业路由器),并配置跨域带宽。 5. 单击“确定”,完成跨区域互通带宽配置。 注意 输入的带宽值必须为整数,且不能超过可用带宽。
        来自:
        帮助文档
        云间高速(标准版)EC
        快速入门
        创建跨域连接
      • Flink Jar作业相关问题
        Flink Jar作业是否支持上传配置文件,要如何操作? 自定义(JAR)作业支持上传配置文件。 1.将配置文件通过程序包管理上传到DLI; 2.在Flink jar作业的其他依赖文件参数中,选择创建的DLI程序包; 3.在代码中通过ClassName.class.getClassLoader().getResource("userData/fileName")加载该文件(其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名)。 Flink Jar 包冲突,导致提交失败 问题描述 用户Flink程序的依赖包与DLI Flink平台的内置依赖包冲突,导致提交失败。 解决方案 查看是否已包含DLI Flink运行平台中已经存在的包,如果存在,则需要将自己的Jar包删除。 Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 问题描述 提交Flink Jar作业访问DWS数据仓库服务时,提示启动失败,作业日志报如下错误信息。 FATAL: Already too many clients, active/nonactive/reserved: 5/508/3 原因分析 当前访问的DWS数据库连接已经超过了最大连接数。错误信息中,nonactive的个数表示空闲连接数,例如,nonactive为508,说明当前有大量的空闲连接。 解决方案 出现该问题时建议通过以下操作步骤解决。 1.登录DWS命令执行窗口,执行以下SQL命令,临时将所有nonactive的连接释放掉。 SELECT PGTERMINATEBACKEND(pid) from pgstatactivity WHERE state'idle'; 2.检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。 3.在GaussDB(DWS) 控制台设置会话闲置超时时长sessiontimeout,在闲置会话超过所设定的时间后服务端将主动关闭连接。 sessiontimeout默认值为600秒,设置为0表示关闭超时限制,一般不建议设置为0。 sessiontimeout设置方法如下: a.登录GaussDB(DWS) 管理控制台。 b.在左侧导航栏中,单击“集群管理”。 c.在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。 d.单击“参数修改”页签,修改参数“sessiontimeout”,然后单击“保存”。 e.在“修改预览”窗口,确认修改无误后,单击“保存”。 Flink Jar作业运行报错,报错信息为Authentication failed
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink Jar作业相关问题
      • 管理集群配置
        操作步骤 1.进入CDM主界面,进入集群管理界面。选择CDM集群后的“作业管理 >连接管理 > 集群配置管理”。 2.在集群配置管理界面,选择“新建集群配置”,配置参数填写详见下图 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。 Principal: 仅安全模式集群需要填写该参数 。Principal即Kerberos安全模式下的用户名,需要与Keytab文件保持一致。 上传Keytab文件: 仅安全模式集群需要上传该文件 。单击“添加文件”以选择本地的Keytab文件,然后通过操作框右侧的“上传文件”进行上传。 描述:用户可添加对此集群配置的描述,用于标识和区分该集群配置。 3.确认后集群配置新建成功。后续在新建Hadoop类型连接时,认证模式根据实际情况选择,将“是否使用集群配置”选择为“是”,然后选择对应的“集群配置名”,即可快速完成Hadoop类型连接创建。 详见下图:使用集群配置
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        管理集群配置
      • 关于实例连接密码的说明
        本章主要介绍关于实例连接密码的说明 DCS的缓存实例提供了密码控制访问功能,确保缓存数据足够安全。 说明 DCS帐号密码必须满足以下复杂度要求: 密码不能为空。 密码不能和帐号及帐号的倒序相同。 密码长度在8到32位之间。 至少必须包含如下四种字符中的三种: 小写字母 大写字母 数字 特殊字符包括(~!@$^&()+{}:, /?) 安全使用实例密码 1. Rediscli连接时隐藏密码。 Linux操作系统中,对rediscli指定a选项并携带密码,则在系统日志以及history记录中会保留密码信息,容易被他人获取。建议执行rediscli命令时不指定a选项,等连接上Redis后,输入auth命令完成鉴权。如下示例: $ rediscli h 192.168.0.148 p 6379 redis 192.168.0.148:6379>auth yourPassword OK redis 192.168.0.148:6379> 2. 脚本使用交互式输入密码鉴权,或使用不同权限的用户管理与执行。 脚本涉及到缓存实例连接,则采用交互式输入密码。如果需要自动化执行脚本,可使用其他用户管理脚本,以sudo方式授权执行。 3. 应用程序中使用加密模块对redis密码加密配置。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        密码管理
        关于实例连接密码的说明
      • 将DRDS同步到MySQL
        参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。 SSL安全连接 如启用SSL安全连接,请在目标库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将DRDS同步到MySQL
      • Dummy
        本章节主要介绍节点参考的Dummy。 功能 Dummy节点是一个空的节点,不执行任何操作。用于简化节点的连接视图,便于用户理解复杂节点流的连接关系,示例详见下图。 参数 用户可参考下表配置Dummy节点的参数。 属性参数 参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        Dummy
      • 设置Windows操作系统首选语言
        本文以公共镜像中的Windows Server 2016数据中心版操作系统为例,介绍如何为弹性云主机实例更换首选语言。 前提条件 已经注册并登录天翼云账号,未完成的可参见注册天翼云账号。 已经在天翼云上购买了弹性云主机,且购买过程中镜像选择为Windows 2016 数据中心版操作系统。 背景信息 天翼云云服务器ECS目前仅提供中文版的Windows Server公共镜像。如果您因工作需求而需要使用其他的语言版本,例如英文,那么您可以参考本章节为弹性云主机实例设置新的首选语言。 操作步骤 1. 登录控制中心。 2. 选择区域华东华东1。 3. 单击“计算>弹性云主机”,进入弹性云主机页面。 4. 参考登录Windows弹性云主机,远程登录待设置操作系统首选语言的Windows弹性云主机实例。 5. 打开PowerShell模块。 6. 在操作之前首先需要临时禁用掉WSUS(Windows Server Update Services)更新源,请您运行以下命令: plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 0 RestartService Name wuauserv 7. 找到控制面板,单击“语言” >“添加语言”。 8. 在“添加语言”对话框中,选择一种语言,例如English(英语) ,单击下方的“打开”。 9. 进入跳转窗口后,选择具体的英语区域,选择English(United kingdom),点击“添加”。 10. 添加之后,此语言会更新到语言列表。 11. 选中新增的English,单击“上移”更改语言优先级,下图为已经上移之后的状态: 12. 单击所选语言右侧的“选项”按键,进入语言选项页面,单击“下载并安装语言包”,若没有此链接,请再等待三分钟进行更新。 13. 用户此时可以等待下载并安装完成。 14. 在弹性云主机管理控制台中将此台云主机进行重启,具体如下图: 15. 再次连接Windows实例。显示语言更改为英语。 16. 打开Windows PowerShell,运行以下命令重新启用WSUS。 plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 1 RestartService Name wuauserv
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        Windows基础最佳实践
        设置Windows操作系统首选语言
      • 终端节点服务连接查询
        参数 参数类型 说明 示例 endpointID String 终端节点ID endpointp8auf4nuui endpointName String 终端节点名称 yacostest endpointServiceID String 终端节点服务ID endpser9hzaohgug8 endpointType String 接口还反向 反向类型 connectionStatus String 连接状态 未连接 status String 状态:UP/DOWN UP account String 账户信息 当前账户
        来自:
        帮助文档
        VPC终端节点
        API参考
        API(公测中)
        终端节点服务
        终端节点服务连接查询
      • 使用云电脑
        本节介绍天翼云电脑大屏客户端的使用操作。 锁定/解锁工具栏 进入云电脑后,可在桌面顶部看到工具栏,鼠标移入点击可左右移动。 F 工具栏默认3秒后自动隐藏,隐藏后的工具栏状态分两种: (1)Windows系统客户端、安卓瘦终端、国产化客户端工具栏隐藏成一条深颜色粗线的状态。 (2)Mac客户端工具栏隐藏成一个颜色方块,展示云电脑当前的网络时延值,并且根据网络时延值变化颜色。(Mac Os系统因操作区域主要在顶部,因此Windows系统客户端工具栏隐藏方式不合适) 控制中心入口 工具栏点击“控制中心”,可查到偏好设置、报障、一键优化、网络检测、安全中心、悬浮球、音频设置、云电脑配置等功能入口。 USB管理 提示:Mac客户端不支持USB重定向 如需管控外设或者查看外设重定向策略,进入偏好设置,点击“USB管理”,可以管控USB重定向设备。 备注:U盘容量小于1GB默认走USB走重定向 点击“全部”,查看当前云电脑连接的设备。 点击“”图标可一键复制外设信息。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南
        使用云电脑
      • 如何开启云主机动态获取IPv6?
        Windows操作系统 步骤 1 打开cmd窗口,执行如下命令,查看当前云主机是否启用IPv6。 ipconfig 如果已启用IPv6,则会显示IPv6的地址。 显示IPv6的地址 如果显示只有本地链接IPv6地址,则表示无法动态获取到IPv6地址。请执行步骤2。 本地链接IPv6地址 如果未启用IPv6,则不会显示IPv6的地址。请执行步骤3。 未启用IPv6 说明: Windows公共镜像默认已经配置了IPv6动态获取功能,即回显为已启用IPv6,无需特殊配置。 步骤 2 配置动态获取IPv6(以Windows Server 2008操作系统版本为例)。 1. 单击“开始 > 控制面板”。 2. 单击“网络和共享中心”。 3. 左键单击“更改适配器设置”。 4. 右键单击“本地连接”并选择“属性”。 5. 勾选“Internet协议版本 6 (TCP/IPv6)”,然后单击“确定”。 配置动态获取IPv6 6. 执行步骤1检查是否已开启动态获取IPv6。 步骤 3 启用和配置IPv6。 1. 选择“开始 > 控制面板 > 网络连接 > 本地连接”。 2. 选择“属性”,确认勾选以下选项后单击“安装”。 启用和配置IPv6 3. 选择“协议”,然后单击“添加”。 添加协议 4. 在网络协议列表中选择“Microsoft TCP/IP版本 6”,然后单击“确定”。 网络协议列表 5. (可选配置)根据操作系统不同请分别执行以下命令。 − Windows Server 2008操作系统云主机请在PowerShell或者cmd中执行如下命令: netsh interface ipv6 set global randomizeidentifiersdisable 设置云主机先禁用本地连接,再重启本地连接。 禁用本地连接:单击“开始 > 控制面板 > 网络和共享中心 > 更改适配器配置”,选择本地连接,单击右键选择“禁用”。 重启本地连接:单击“开始 > 控制面板 > 网络和共享中心 > 更改适配器配置”,选择本地连接,单击右键选择“启用”。 − Windows Server 2012/2016操作系统云主机请在PowerShell中执行如下命令: SetNetIPv6Protocol RandomizeIdentifiers disabled 6. 执行步骤1检查是否已开启动态获取IPv6。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        如何开启云主机动态获取IPv6?
      • 将MySQL迁移到MySQL
        3、配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4、配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE、VIEW、FUNCTION等,选中后点击“>”按钮,将待迁移对象移动到“已选择对象”中。 根据迁移需要,勾选迁移模式、是否包含增量DDL、是否迁移数据库账号和权限、是否限制全量迁移速率等选项。 高级配置参数说明: 配置 说明 是否迁移数据库账号和权限 请根据实际情况选择是否迁移源库的账号和权限。若选择“是”: 会对源库账号的授权信息和目标库登录用户的授权信息进行检查;如果目标库登录用户不包含源库账号所需的授权信息,则该源库账号的权限不进行迁移。 如果源库和目标库存在相同的账号信息,则在目标端会跳过该账号和权限的迁移。 账号迁移在所有表,视图,函数等结构迁移完成之后再迁移。 是否将目标库实例属性设置为只读 请根据实际情况选择是否将目标库实例属性设置为只读,仅当目标库为云实例时可设置。若选择“是”,则DTS任务运行时,目标库实例只允许DTS进行写操作,其它均不可写。 是否限制全量迁移速率 请根据实际情况选择是否设置全量限速。若选择“限速”,则可以按每秒全量迁移的行数RPS、每秒全量迁移的数据量(MB)两个维度进行设置,可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 是否限制增量迁移速率 请根据实际情况选择是否设置增量限速。若选择“限速”,则可以按每秒增量迁移的行数RPS、每秒增量迁移的数据量(MB)两个维度进行设置,可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 大小写策略 请根据实际情况选择大小写策略。大小写策略适用于当前配置页面上未选择或修改的级别数据,如选择了整库则针对表名和列名做转换, 如果选择了表,则对列名做转换。 选择"源和目标保持一致"时,目标库将和源库保存一致。 选择“转换为小写”时,目标库的对象名将转换为小写。 说明 关于配置迁移对象及高级配置页面的详细说明,请参考
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到MySQL
      • 将MySQL同步到MySQL
        3、配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4、配置同步对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置同步对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:库、TABLE、VIEW、FUNCTION等,选中后点击“>”按钮,将待同步对象移动到“已选择对象”中。 根据同步需要,勾选迁移模式、同步策略、是否包含增量DDL、是否迁移数据库账号和权限、是否限制全量迁移速率等选项。 配置 说明 是否迁移数据库账号和权限 请根据实际情况选择是否迁移源库的账号和权限。若选择“是”: 会对源库账号的授权信息和目标库登录用户的授权信息进行检查;如果目标库登录用户不包含源库账号所需的授权信息,则该源库账号的权限不进行迁移。 如果源库和目标库存在相同的账号信息,则在目标端会跳过该账号和权限的迁移。 账号迁移在所有表,视图,函数等结构迁移完成之后再迁移。 是否将目标库实例属性设置为只读 请根据实际情况选择是否将目标库实例属性设置为只读,仅当目标库为云实例时可设置。若选择“是”,则DTS任务运行时,目标库实例只允许DTS进行写操作,其它均不可写。 是否限制全量迁移速率 请根据实际情况选择是否设置全量限速。若选择“限速”,则可以按每秒全量迁移的行数RPS、每秒全量迁移的数据量(MB)两个维度进行设置,可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 是否限制增量迁移速率 请根据实际情况选择是否设置增量限速。若选择“限速”,则可以按每秒增量迁移的行数RPS、每秒增量迁移的数据量(MB)两个维度进行设置,可单独设置任一维度,也可同时设置;同时设置时,系统以先达到的限速条件为准。 大小写策略 请根据实际情况选择大小写策略。大小写策略适用于当前配置页面上未选择或修改的级别数据,如选择了整库则针对表名和列名做转换, 如果选择了表,则对列名做转换。 选择"源和目标保持一致"时,目标库将和源库保存一致。 选择“转换为小写”时,目标库的对象名将转换为小写。 说明 关于配置同步对象及高级配置页面的详细说明,与配置迁移对象类似,具体请参考
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • Kafka数据迁移概述
        迁移方案一:先迁生产,再迁消费 先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 结束 迁移方案二:同时消费,后迁生产 消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        Kafka数据迁移概述
      • 资源冻结/释放/删除/退订
        本节主要介绍资源冻结/释放/删除/退订类问题 GeminiDB Redis资源为什么被释放了? 客户在购买产品后,如果没有及时的进行续费或充值,将进入宽限期。如宽限期满仍未续费或充值,将进入保留期。在保留期内资源将停止服务。保留期满仍未续费或充值,存储在云服务中的数据将被删除、云服务资源将被释放。 GeminiDB Redis资源为什么被冻结了? 资源冻结的类型有多种,最常见类型为欠费冻结。 实例被冻结了,还可以备份数据吗? 不支持,如果是欠费冻结,需要您先续费解冻GeminiDB Redis实例后才能备份数据。 怎样将资源解冻? 欠费冻结:用户可通过续费或充值来解冻资源,恢复GeminiDB Redis正常使用。欠费冻结的GeminiDB Redis允许续费、释放或删除;已经到期的包周期GeminiDB Redis不能发起退订,未到期的包周期GeminiDB Redis可以退订。 冻结、解冻、释放资源时对业务的影响 资源冻结时: 资源将被限制访问和使用,会导致您的业务中断。例如GeminiDB Redis被冻结时,会使得用户无法再连接至数据库。 包周期资源被冻结后,将被限制进行变更操作。 资源被冻结后,可以手动进行退订/删除。 资源解冻时:资源将被解除限制,用户可以连接至数据库。 资源释放时:资源将被释放,实例将被删除,删除前将依据用户策略决定是否执行实例回收站。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        资源冻结/释放/删除/退订
      • 1
      • ...
      • 61
      • 62
      • 63
      • 64
      • 65
      • ...
      • 451
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      模型推理服务

      科研助手

      智算一体机

      推荐文档

      业务咨询

      删除备份数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号