活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据saas服务_相关内容
      • 欠费及退款说明
        本文介绍VPN网关的欠费和退款规则。 欠费说明 当您账号的可用额度(含天翼云账户余额、代金券、优惠券等)无法结清待结算的账单时,您的账号会立即进入欠费状态,同时系统会以短信和邮件的方式提醒您尽快支付账单。 VPN网关实例为包年包月的资源,您已经预先支付了VPN网关实例的费用。在SSL服务端、IPsec连接绑定VPN网关实例的场景下,如果您的账号发生欠费,在VPN网关实例未到期前您可以正常使用VPN网关实例,但不能执行新购VPN网关实例、升级VPN网关实例配置、续费VPN网关实例等涉及费用的操作。VPN网关实例到期后,您将无法正常使用VPN网关实例。在一定期限内,如果您没有及时充值续费,VPN网关实例将被自动释放。 VPN网关实例到期后立即停机。停机7天内,VPN网关实例暂停服务,不会进行流量转发,但系统会保留相关配置。此期间,您可以进行充值续费,充值续费成功后,VPN网关实例将恢复正常业务状态。 如果VPN网关实例停机期间未完成续费或续费不成功,停机7天后,该VPN网关实例将被释放,实例被释放后相关配置和数据也将被删除,且不可恢复。 退款说明 如果在VPN网关实例未到期前,您不需要再使用VPN网关实例,您可以申请退订,申请退订后系统会自动释放VPN网关实例。如果VPN网关下存在使用中的IPsec连接或SSL连接,则暂不支持退订,请删除相关连接配置后再申请退订。
        来自:
        帮助文档
        VPN连接
        产品计费
        欠费及退款说明
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 队列弹性扩缩容
        本章节主要介绍弹性扩缩容。 前提条件 新创建的队列需要运行作业后才可进行弹性扩缩容。 注意事项 16CUs队列不支持扩容和缩容。 64CUs队列不支持缩容。 如果在“弹性扩缩容”页面提示“Status of queue xxx is assigning, which is not available”,表示需要等待队列资源分配完毕才可进行扩缩容。 弹性扩容 当前队列规格不满足业务需要时,可以通过手动变更队列规格来扩容当前队列。 说明 扩容属于耗时操作,在DLI“弹性扩缩容”页面执行扩容操作后,需要等待大约10分钟,具体时长和扩容的CU值有关,等待一段时间后,可以通过刷新“队列管理”页面,对比“规格”和“实际CUs”大小是否一致来判断是否扩容成功。或者在“作业管理”页面,查看“SCALEQUEUE”类型SQL作业的状态,如果作业状态为“弹性扩缩容中”,表示队列正在扩容中。 操作步骤如下: 1. 在DLI管理控制台左侧,选择“资源管理 > 队列管理”。 2. 选择需要扩容的队列,单击“操作”列“更多”中的“弹性扩缩容”。 3. 在“弹性扩缩容”页面,“变更方式”选择“扩容”,设置扩容的CU值。 4. 确认无误后,单击“确定”。 弹性缩容 当计算业务较小,不需要那么大的队列规格时,可以通过手动变更队列规格来缩容当前队列。 说明 缩容属于耗时操作,在DLI“弹性扩缩容”页面执行缩容操作后,需要等待大约10分钟,具体时长和缩容的CU值有关,等待一段时间后,可以通过刷新“队列管理”页面,对比“规格”和“实际CUs”大小是否一致来判断是否缩容成功。或者在“作业管理”页面,查看“SCALEQUEUE”类型SQL作业的状态,如果作业状态为“弹性扩缩容中”,表示队列正在缩容中。 系统不保证完全缩容到设定的目标大小。如果当前队列正在使用或者队列业务量比较大,会出现缩容不成功,或者缩容一部分规格的情况。 系统默认最小CU值为16CU,即当队列规格为16CUs时,不能进行手动缩容。 操作步骤如下: 1. 在DLI管理控制台左侧,选择“资源管理 >队列管理”。 2. 选择需要扩容的队列,单击“操作”列“更多”中的“弹性扩缩容”。 3. 在“弹性扩缩容”页面,“变更方式”选择“缩容”,设置缩容的CU值。 4. 确认无误后,单击“确定”。
        来自:
        帮助文档
        数据湖探索
        用户指南
        队列管理
        队列弹性扩缩容
      • 存储池(集群版适用)
        项目 描述 存储池名称 存储池名称,可以通过下拉框选择存储池。 时间范围 可以选择相对时间: 近2小时 近6小时 近1天 近7天 近1年 自定义时间段,选择开始日期和结束日期,精确到天。 注意 起始时间必须早于结束时间,且起始时间不能早于服务器当前时间一年。 数据目录使用率 存储池中所有数据目录所在磁盘使用率的平均值。 容量配额使用率 存储池中HBlock所有数据目录容量配额使用率的平均值。 数据目录使用量 存储池中所有数据目录所在磁盘使用量的总和。 数据目录总容量 存储池中所有数据目录所在磁盘容量的总和。 配额使用量 存储池中HBlock已使用容量配额。 配额 存储池中HBlock容量配额总和。 客户端<>HBlock 当前存储池中,客户端与HBlock之间的数据传输情况。 读带宽 客户端从HBlock存储池读取数据的带宽。 写带宽 客户端向HBlock存储池写入数据的带宽。 总带宽 客户端与HBlock存储池之间的总带宽。 读IOPS 客户端从HBlock存储池读取数据的IOPS。 写IOPS 客户端向HBlock存储池写入数据的IOPS。 总IOPS 客户端与HBlock存储池之间的总IOPS。 读时延 客户端从HBlock存储池读取数据的时延。采集周期内,服务器关联卷的读时延平均值。 写时延 客户端向HBlock存储池写入数据的时延。采集周期内,服务器关联卷的写时延平均值。 总时延 客户端与HBlock存储池之间的总时延。采集周期内,服务器关联卷的读写时延平均值。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        存储池(集群版适用)
      • 迁移前构造数据
        本节介绍了如何在迁移前构造数据。 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 DRS支持的数据类型如下所示: 源库数据类型 目标库数据类型 源库数据类型做主键,同步能力 源库数据类型做非主键, 同步能力 源库数据类型做主键, 对比能力 源库数据类型做非主键, 对比能力 备注 CHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 VARCHAR character varying 支持 支持 支持 支持 源目标库数据表示范围不同,存在精度损失。 VARCHAR2 character varying 支持 支持 支持 支持 NCHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 NVARCHAR2 nvarchar2 支持 支持 支持 支持 NUMBER numeric 支持 支持 支持 支持 NUMBER (6,3) numeric(6,3) 支持 支持 支持 支持 NUMBER (6,0) Integer 支持 支持 支持 支持 NUMBER (3) smallint 支持 支持 支持 支持 NUMBER (6,2) integer 支持 支持 支持 支持 BINARYFLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 BINARYDOUBLE double precision 不支持(目标库不支持做主键建表) 支持 不支持 支持 FLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 INT numeric 支持 支持 支持 支持 INTEGER numeric 支持 支持 支持 支持 DATE date 支持 支持 不支持 支持 DRS在目标库建表时类型为date,此时源目标库数据表示范围不同, 存在精度损失,不支持对比。 TIMESTAMP timestamp(6) without time zone 支持 支持 不支持 校验到小数点后6位 源库使用限制:支持的最大精度是6。 TIMESTAMPTZ timestamp(6) with time zone 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 TIMESTAMPLTZ timestamp(6) with time zone 不支持(目标库不支持做主键建表) 支持 不支持 过滤该列 INTERVALYM interval year to month 支持 支持 不支持 不支持 增量同步不支持该类型。 INTERVALDS interval day to second 支持 支持 不支持 不支持 增量同步不支持该类型。源库使用限制:支持的最大精度是6。 BLOB bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 CLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 NCLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONG text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONGRAW bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 RAW bytea 不支持(目标库不支持做主键建表) 支持 不支持 支持 RowID character varying(18) 支持 支持 支持 支持 BFILE 不支持 不支持 不支持 不支持 源库使用限制:不支持bfile类型。 XMLTYPE 不支持 不支持 不支持 不支持 源库使用限制:不支持xmltype类型。 UROWID 不支持 不支持 不支持 不支持 全量增量都不支持同步。 sdogeometry 不支持 不支持 不支持 不支持 源库使用限制:不支持sdogeometry类型。 NUMBER(,0) numeric 支持 支持 支持 支持 执行如下步骤在源库构造数据: 1. 根据本地的Oracle数据库的IP地址,通过数据库连接工具连接数据库。 2. 根据支持的数据类型,在源库执行语句构造数据。 a) 创建一个测试用的用户。 create user testinfo identified by xxx ; testinfo为本次实践创建的用户,xxx为用户的密码,请根据实际情况替换。 b) 给用户赋权。 grant dba to testinfo ; c) 在当前用户下创建一个数据表。 CREATE TABLE testinfo . DATATYPELIST (ID INT,COL01CHARE CHAR(100),COL02NCHARE NCHAR(100),COL03VARCHARE VARCHAR(1000),COL04VARCHAR2E VARCHAR2(1000),COL05NVARCHAR2E NVARCHAR2(1000),COL06NUMBERE NUMBER(38,0),COL07FLOATE FLOAT(126),COL08BFLOATE BINARYFLOAT,COL09BDOUBLEE BINARYDOUBLE,COL10DATEE DATE DEFAULT SYSTIMESTAMP,COL11TSE TIMESTAMP(6),COL12TSTZE TIMESTAMP(6) WITH TIME ZONE,COL13TSLTZE TIMESTAMP(6) WITH LOCAL TIME ZONE,COL14CLOBE CLOB DEFAULT EMPTYCLOB(),COL15BLOBE BLOB DEFAULT EMPTYBLOB(),COL16NCLOBE NCLOB DEFAULT EMPTYCLOB(),COL17RAWE RAW(1000),COL19LONGRAWE LONG RAW,COL24ROWIDE ROWID,PRIMARY KEY(ID)); d) 插入两行数据。 insert into testinfo.DATATYPELIST values(4,'huawei','xian','shanxi','zhongguo','shijie', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); insert into testinfo.DATATYPELIST values(2,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); e) 使语句生效。 commit; 3. 在目标端创建库。 a) 登录天翼云控制台。 b) 单击管理控制台左上角的,选择区域。 c) 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据管理服务”。 d) 在数据管理服务DAS左侧导航栏,单击“开发工具”,进入开发工具数据库登录列表页面。 e) 单击“新增数据库登录”,打开新增数据库登录窗口。 f) 选择“数据库引擎”、“数据库来源”、目标实例,填写登录用户名、密码以及描述(非必填项)信息,开启定时采集、SQL执行记录功能。 g) 您可根据需要选择“测试连接”(必选操作步骤)。 如测试连接成功,将提示“连接成功”,您可继续新增操作。如测试连接失败,将提示连接失败原因,您需根据提示信息进行修改,以便新增数据库登录成功。 h) 设置完登录信息,单击“立即新增”。 i) 新增完成后,单击新增登录的“登录”,登录当前数据库。 j) 进入SQL查询页面。 k) 执行如下语句创建兼容Oracle的数据库。 此例中为:testdatabaseinfo,请根据实际情况选择。 CREATE DATABASE testdatabaseinfo DBCOMPATIBILITY 'ORA';
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移前构造数据
      • 文档数据库服务等级协议
        本页介绍了文档数据库服务等级协议。 文档数据库服务等级协议详情请参见文档数据库服务等级协议。
        来自:
        帮助文档
        文档数据库服务
        相关协议
        文档数据库服务等级协议
      • 鉴权方式B
        字段 描述 DomainName 全站加速域名。 Filename 实际回源访问的URI,即域名后面"/"开头,去掉一级和二级目录后,截止到"?"之前的部分。即如上示例中的/test/test.mp4。 timestamp 1. 鉴权URL生成的时间,即:鉴权开始时间,值为从1970年1月1日0点至当前时间的总秒数 ,默认为十进制整数,也可选择十六进制/YYYYMMDDHHMMSS。 2. 与鉴权URL有效时长共同控制鉴权URL的失效时间。鉴权URL实际有效期timestamp+全站配置的鉴权URL有效时长。 md5hash 通过MD5算法计算出的32位字符串。计算公式如下:md5hash md5sum(keytimestampFileName)。 1. md5加密元素分隔符默认无符号,也可自定义。 2. 这里的key为用户设定的鉴权秘钥,长度6到32,由大小写字母与数字组成,例如:ctcdnkey123。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        访问控制
        URL鉴权配置
        鉴权方式B
      • MySQL建立连接慢导致客户端超时报connection established slowly
        本文介绍MySQL建立连接慢导致客户端超时的处理办法。 场景描述 业务在高峰期时,客户端经常出现向MySQL建立连接超时,导致系统登录需要十几秒。 原因分析 查看MySQL的错误日志,观察是否有如下信息:connection xxx is established slowly。 有上述日志,说明存在某些连接超过一定时间仍未被MySQL处理,客户端的超时时间大于该时间,就会报错。线程池处理连接等待与该参数threadpooloversubscribe相关。 解决方案 对于存在大量新建连接,建议调大threadpooloversubscribe增加线程总数。减少线程重复创建与销毁部分的开销,提高性能,同时它也限制了MySQL的running线程数,关键时刻可以保护系统,防止雪崩。 正常情况下,线程池适用于大量短连接的场景,如果客户是长连接,并且连接数量不多(客户端使用了连接池等情况),线程池的影响也不会很大。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        连接类
        MySQL建立连接慢导致客户端超时报connection established slowly
      • 个人设置
        设置SSH密钥 步骤 1 在本地安装Git Bash客户端。 步骤 2 进入软件开发生产线首页,单击页面右上角用户名,在下拉菜单中选择“个人设置”。 步骤 3 单击页面左侧导航“代码托管 > SSH密钥管理”。 步骤 4 单击页面右上角“添加SSH密钥”。 步骤 5 根据页面中的文字指导,使用Git Bash客户端生成SSH密钥与公钥,并将公钥粘贴至密钥栏中。 步骤 6 输入标题,单击“确定”。 设置HTTPS密码 步骤 1 进入软件开发生产线首页,单击页面右上角用户名,在下拉菜单中选择“个人设置”。 步骤 2 单击页面左侧导航“代码托管 > HTTPS密码管理”。 步骤 3 单击“修改”,输入密码与确认密码,单击“保存”。 说明 若页面显示“自行设置密码”,则单击此按钮后,再修改密码。 HTTPS密码由数字、大小写字母及特殊字符中的至少两种组成,长度为832位,不能与登录用户名或者倒序相同。
        来自:
        帮助文档
        软件开发生产线CodeArts
        用户指南
        个人设置
      • 鉴权方式B
        字段 描述 DomainName CDN加速域名。 Filename 实际回源访问的URI,即域名后面"/"开头,去掉一级和二级目录后,截止到"?"之前的部分。即如上示例中的/test/test.mp4。 timestamp 1. 鉴权URL生成的时间,即:鉴权开始时间,值为从1970年1月1日0点至当前时间的总秒数 ,默认为十进制整数,也可选择十六进制/YYYYMMDDHHMMSS。 2. 与鉴权URL有效时长共同控制鉴权URL的失效时间。鉴权URL实际有效期timestamp+CDN配置的鉴权URL有效时长。 md5hash 通过MD5算法计算出的32位字符串。计算公式如下:md5hash md5sum(keytimestampFileName)。 1. md5加密元素分隔符默认无符号,也可自定义。 2. 这里的key为用户设定的鉴权秘钥,长度6到32,由大小写字母与数字组成,例如:ctcdnkey123。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        访问控制
        URL鉴权配置
        鉴权方式B
      • 天翼云AOne SDK合规使用指南
        获取设备权限信息,如下所示 权限名称 获取目的 收集频率 申请时机 ACCESSNETWORKSTATE 区分移动网络或WiFi网络 使用SDK时可用 使用SDK时 BINDVPNSERVICE 绑定VPN服务,用于连接内网 使用SDK时可用 使用SDK时 INTERNET 查看网络状态,用于数据上报 使用SDK时可用 使用SDK时 ACCESSWIFISTATE 允许访问WiFi网络状态信息 使用SDK时可用 使用SDK时
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        天翼云AOne SDK使用指南
        天翼云AOne SDK合规使用指南
      • 概述
        类型 描述 包含了域名增删改查等API 包含了带宽、流量、连接数等统计分析数据查询API 包含了账单、用量查询等API 包含了查询IP所属城市、运营商、机房地址、节点层级的API
        来自:
        帮助文档
        应用加速(文档停止维护)
        API参考
        API概览
        概述
      • 数据库版本
        本页介绍了文档数据库服务版本相关常见问题。 文档数据库服务是否支持版本升级 文档数据库服务目前暂不支持通过控制台进行版本升级。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库版本
      • 天翼云云电竞“黑猴”游戏使用的最佳实践
        使用模式 四步快速实现“黑猴”最佳游戏体验。 1、用户在天翼云官网或者通过客户经理开通天翼云云电竞服务; 2、本地安装云电竞客户端,打开客户端,根据本地网络带宽情况选择合适的分辨率配置; 3、登录界面通过开通账号及云电竞激活码进行登录,进入电竞桌面; 4、打开预安装的“黑猴”游戏,登录自己的游戏账号进行畅快体验。 使用效果 目前天翼云云电竞游戏环境最优可以支持到2k分辨率下的全景光追效果,画面达到80帧上下,完美体验“黑猴”这款3A大作的魅力。
        来自:
        帮助文档
        云电竞
        最佳实践
        天翼云云电竞“黑猴”游戏使用的最佳实践
      • 集群监控
        操作场景 云容器引擎与监控服务(Cloud Eye)无缝集成,您可以实时查看每个集群控制节点的资源使用情况,了解CCE集群控制节点的监控指标,及时收到异常告警并做出反应,保证业务顺畅运行。 操作步骤 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 集群管理”。 步骤 2 单击待监控的集群名称,进入集群详情。 步骤 3 单击“更多”右侧的 图标,可以查看集群资源监控详情。 步骤 4 单击控制节点右侧的“监控”链接,可进入应用运维管理控制台,在“主机监控”中查看对应控制节点的基本监控信息,包括CPU使用率、物理内存使用率、磁盘使用率等指标。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        集群监控
      • 部署bookinfo应用到CSM实例
        本章节介绍如何部署bookinfo应用到CSM实例 前提条件 1. 已开通云容器引擎,至少有一个云容器引擎实例。产品入口:云容器引擎。 2. 开通天翼云服务网格实例。 操作步骤 创建命名空间 首先到云容器引擎控制台找到当前添加到服务网格的云容器引擎集群,创建测试应用部署的sample命名空间,同时给命名空间打上istioinjection: enabled的标签以保证该命名空间下的pod会被注入sidecar。 部署应用 使用如下yaml部署我们的bookinfo应用,注意根据当前集群所在的资源池替换镜像的地址(当前云容器引擎实例在华东1资源池);如果您想要把演示应用部署到其他namespace也可以修改yaml里面的namespace字段实现,示例yaml如下: apiVersion: v1 kind: Service metadata: name: details labels: withServiceMesh: "true" workloadKind: Deployment workloadName: detailsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: details apiVersion: apps/v1 kind: Deployment metadata: name: detailsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: detailsv1 template: metadata: labels: app: details version: v1 name: detailsv1 source: CCSE csmAutoEnable: "on" "sidecar.istio.io/inject": "true" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: details image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinfodetailsv1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" apiVersion: v1 kind: Service metadata: name: ratings labels: withServiceMesh: "true" workloadKind: Deployment workloadName: ratingsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: ratings apiVersion: apps/v1 kind: Deployment metadata: name: ratingsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: ratingsv1 template: metadata: labels: app: ratings version: v1 name: ratingsv1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: ratings image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforatingsv1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" apiVersion: v1 kind: Service metadata: name: reviews labels: withServiceMesh: "true" workloadKind: Deployment workloadName: reviewsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: reviews apiVersion: apps/v1 kind: Deployment metadata: name: reviewsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: reviewsv1 template: metadata: labels: app: reviews version: v1 name: reviewsv1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: reviews image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforeviewsv1:1.16.2' imagePullPolicy: IfNotPresent env: name: LOGDIR value: "/tmp/logs" volumeMounts: name: tmp mountPath: /tmp name: wlpoutput mountPath: /opt/ibm/wlp/output volumes: name: wlpoutput emptyDir: {} name: tmp emptyDir: {} apiVersion: v1 kind: Service metadata: name: productpage labels: withServiceMesh: "true" workloadKind: Deployment workloadName: productpagev1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: productpage type: NodePort apiVersion: apps/v1 kind: Deployment metadata: name: productpagev1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: productpagev1 template: metadata: labels: app: productpage version: v1 name: productpagev1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: productpage image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinfoproductpagev1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" volumeMounts: name: tmp mountPath: /tmp volumes: name: tmp emptyDir: {} 在云容器引擎控制台选择我们要部署的sample命名空间,通过工作负载>无状态>新增yaml,依次部署上面的deployment; 通过网络>服务>新增yaml依次部署上面的Service填入我们准备的yaml文件,保存即可; 部署完成后,可以在工作负载>无状态列表里看到bookinfo相关的部署信息,在网络>Service菜单下可以看到刚部署的Service列表。
        来自:
        帮助文档
        应用服务网格
        快速入门
        部署bookinfo应用到CSM实例
      • 功能特性
        本文带您了解VPC终端节点的功能特性。 VPC终端节点为您提供“终端节点服务”和“终端节点”两种资源。 终端节点服务 终端节点服务(VPC Endpoint Service)指将云服务或用户私有服务配置为VPC终端节点支持的服务。终端节点服务通过专属网关,可以将 VPC 中的服务方便的提供给其它 VPC 中的资源使用,实现跨 VPC 的访问,而不必暴露服务端VPC内部的的网络信息,使您的访问更加安全、可靠。当前支持“接口”类型终端节点服务。 用户可通过创建“接口”类型终端节点服务,实现在指定的白名单用户间服务私有共享。 终端节点服务允许用户快速将其服务发布到内部网络,通过白名单授权管理,确保在确保安全的前提下,能够灵活地管理可访问的用户。这种方式可以使用户能够方便地通过内部网络共享服务。 终端节点 终端节点(VPC Endpoint)在VPC和终端节点服务之间提供连接通道。您可以使用终端节点连接在VPC中自己创建终端节点服务后端应用程序,也可以通过终端节点连接天翼云提供原生服务,天翼云终端节点支持“接口”和“反向”两种类型终端节点 。 “接口”类型终端节点:是具备私有IP地址的弹性网络接口,“接口”类型终端节点可作为VPC用户访问云服务入口,为VPC提供主动访问云服务能力,"接口"类型终端节点可连接自建服务,也可以连接天翼云云提供的原生服务。 "反向"类型终端节点:同样是具备私有IP地址的弹性网络接口,"反向"类型终端节点为服务主动访问用户VPC资源的出口,服务可通过此类型终端节点主动访问VPC内的资源。
        来自:
        帮助文档
        VPC终端节点
        产品简介
        功能特性
      • 功能特性
        本节介绍云安全中心支持的功能。 云安全中心系统主要包含安全态势、资产中心、风险管理、威胁运营、分析中心、编排响应、报表中心、集成配置以及数据源监控等功能。 安全态势 依托接入云安全中心的数据,提供统一可视化界面展示网页业务的整体安全状态。 资产中心 各类资产集中展示,全面汇集资产情况。 风险管理 资产风险信息清晰明确,定期更新资产漏洞、弱口令等信息。 威胁运营 对威胁全方位管理,提供告警概览、告警管理以及威胁检测等功能,可实现各类告警灵活定制。 分析中心 提供日志以及原始告警灵活查询,提供多种分析专题,为用户多角度呈现数据态势。 编排响应 是企业内部定制或者沉淀的知识经验,也是安全应急响应通用告警处理的“模板”。不论是自动化的编排,还是人工的编排,都可以通过“安全剧本”来进行表述。 报表中心 通过周期性的报表任务和可定制的报表模板承载各类个性化报表的展示和生成。 集成配置 数据集成一键配置,实现所配即所得。 数据源监控 为用户提供各类数据源的展示和基本信息统计。
        来自:
        帮助文档
        云安全中心
        产品介绍
        功能特性
      • 实例概述
        本节描述了弹性云主机实例的概要内容。 实例即弹性云主机,是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。 弹性云主机创建成功后,您就可以像使用自己的本地PC或物理服务器一样,在云上使用弹性云主机,打造一个高效、可靠、安全的计算环境。弹性云主机的开通是自助完成的,您只需要指定CPU、内存、操作系统、规格、登录鉴权方式即可,同时也可以根据您的需求随时调整您的弹性云主机规格。 云平台提供了多种实例类型供您选择,不同类型的实例可以提供不同的计算能力和存储能力。同一实例类型下可以根据CPU和内存的配置选择不同的实例规格。 关于实例类型的信息,请参考实例类型。 了解实例从创建到释放历经的各种状态请参考实例生命周期。 更多实例规格(X86)清单请参考规格清单。 更多实例规格(鲲鹏)清单请参考规格清单(鲲鹏)。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例
        实例概述
      • 针对管理控制台的异常提示信息,应该如何处理?
        错误码 管理控制台提示信息 处理建议 Ecs.0000 请求错误,请稍后重试或联系客服。 请参见《弹性云主机接口参考》,按照要求调整请求结构体。 Ecs.0001 租户弹性云主机或云硬盘配额不足,请联系客服申请扩大云主机配额。 请联系客服申请扩大弹性云主机配额。说明您在申请云主机配额时,需评估待申请的云主机需要占用的云主机个数、CPU核数(vCPU)以及内存(RAM)容量,统一调整配额。 Ecs.0003 没有操作权限或费用不足,请联系客服检查帐户情况。 请联系客服检查帐户情况。 Ecs.0005 参数非法,请参考FAQ或联系客服。 请参见《服务器接口参考》,按照要求调整请求结构体。 Ecs.0010 私有IP地址已经被使用,请重新选择未使用的IP地址,进行云主机的创建。 重新选择未使用的IP地址,进行云主机的创建。 Ecs.0011 密码不符合规则,请调整对应的密码,使其满足密码复杂度要求,并重新执行操作请求。 调整对应设置的密码,使其满足密码复杂度要求,并重新执行操作请求。 Ecs.0012 子网IP地址不足,请清理所选子网内的空闲IP地址,或者选择新的子网进行云主机的创建。 清理所选子网内的空闲IP地址,或者选择新的子网进行云主机的创建。 Ecs.0013 弹性IP配额不足,请联系客服申请扩大弹性IP配额。 联系客服申请扩大EIP配额。 Ecs.0015 该类型磁盘不适用于该类型云主机。 重新选择合适类型的磁盘来执行挂载云主机操作。 Ecs.0100 云主机状态不符合要求,请将云主机变更至指定的状态后重试操作。 将云主机变更至指定的状态后重试操作。 Ecs.0103 云磁盘状态不可用 将云主机变更至指定的状态后重试操作。如果云磁盘状态故障,需要联系客服进行排障处理。 Ecs.0104 云主机可挂载云硬盘槽位不足 您需要调整该云主机挂载的云硬盘,以保证新云硬盘可以挂载到指定弹性云主机上 Ecs.0105 云主机无系统盘 您需要将系统盘挂载回云主机后,再次执行相应操作。 Ecs.0107 云主机可挂载共享云硬盘数量超过了可挂载的规格数量 您需要调整该云主机挂载的云硬盘,以保证新云硬盘可以挂载到指定云主机上。 其他异常编码 其他异常提示 您可以选择重新执行操作请求,或者记录当前异常返回的错误码信息,联系客服进行处理。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机管理
        使用故障类
        针对管理控制台的异常提示信息,应该如何处理?
      • 登录数据库
        本文介绍如何使用数据管理服务DMS登录数据库。 前提条件 已登录数据管理服务。 登录所用的数据库账号已经具备足够的库表访问权限。 操作步骤 1. 点击 数据资产 >实例管理 ,进入实例列表界面。 2. 在实例列表找到目标实例,点击 登录 按钮,弹出登录弹窗。 3. 在登录弹窗中输入数据库账号和密码. 4. 点击 确定 按钮完成登录。 5. 登录成功后,原列表中的 登录 按钮会变成 切换账户 。 说明 1、开启SSL的实例可能会登录失败。 2、在企业版中主要使用托管,只有dds实例需要进行登录操作
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        实例列表
        登录数据库
      • 使用NodeLocal DNSCache提升DNS性能
        本文主要介绍使用NodeLocal DNSCache提升DNS性能。 应用现状 集群在做DNS解析时,如果请求量大,那CoreDNS将承受压力,会有如下影响。 查询变慢,影响业务性能。 为保证性能,CoreDNS需要更高规格的配置。 解决方案 NodeLocal DNSCache 通过在集群节点上运行 DNS缓存代理来提高集群 DNS 性能。 启用NodeLocal DNSCache之后,DNS查询所遵循的路径如下图所示。 NodeLocal DNSCache查询路径 插件安装 CCE提供了nodelocaldns插件,可以方便的安装NodeLocal DNSCache。 说明 nodelocaldns插件仅支持1.19及以上版本集群。 NodeLocal DNSCache不提供Hosts、Rewrite等插件能力,仅作为CoreDNS的透明缓存代理。如有需要,可在CoreDNS配置中修改。 kubesystem命名空间下的Pod不支持自动注入。 步骤 1 (可选)修改CoreDNS配置,让CoreDNS优先采用UDP协议与上游DNS服务器通信。 NodeLocal DNSCache采用TCP协议与CoreDNS进行通信,CoreDNS会根据请求来源使用的协议与上游DNS服务器进行通信。当使用了NodeLocal DNSCache时,访问上游DNS服务器时会使用TCP协议,而云上DNS服务器对TCP协议支持有限,如果您使用了NodeLocal DNSCache,您需要修改CoreDNS配置,让其总是优先采用UDP协议与上游DNS服务器进行通信,避免解析异常。 执行如下命令修改。 kubectl edit configmap coredns nkubesystem 在forward插件中指定请求上游的协议为perferudp,修改之后CoreDNS会优先使用UDP协议与上游通信。 forward . /etc/resolv.conf { preferudp } 步骤 2 登录CCE控制台,单击集群名称进入集群,在左侧导航栏中选择“插件管理”,在右侧找到 nodelocaldns ,单击“安装”。 步骤 3 在安装插件页面,选择插件规格,并配置相关参数。 enablednsconfigadmission :是否自动注入DNSConfig至新建的Pod中。默认为 false ,设置为true表示支持自动注入,避免您手工配置Pod YAML进行注入。 步骤 4 完成以上配置后,单击“安装”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        DNS
        使用NodeLocal DNSCache提升DNS性能
      • 云容灾 CDR
        云容灾CTCDR(Cloud Disaster Recovery)为云主机提供跨可用区的容灾保护能力,RPO可达秒级、RTO可达分钟级。支持容灾演练、一键切换等功能,当生产站点故障时,可在容灾站点快速恢复业务,保障客户数据安全和业务连续性。
        来自:
        帮助文档
        云容灾 CDR
      • 新建网络对象
        根据互联网业务的需要,需为每个业务云主机创建网络对象。本小节介绍安全专区云防火墙方位策略配置。 配置方法: 从【导航菜单】页面中,点击【对象】→【网络对象】→【新增】→【业务】,进行相关配置。 名称:按需命名; 服务器IP:业务云主机的IP地址。
        来自:
        帮助文档
        安全专区
        快速入门
        云防火墙配置
        访问策略配置
        新建网络对象
      • 冷热数据分离语法介绍
        本页介绍天翼云TeleDB数据库的冷热数据转换语法。 热数据转冷数据语法 ALTER TABLE [分区主表名] ALTERPARTITION PARTITION [分区子表名] SET STORAGETYPE OSS STORAGEOPTION ( name1 val1, name2 val2, name3 val3…); STORAGE TYPE::可以为OSS和LOCAL,OSS为远程对象存储,LOCAL为本地数据。 STORAGE OPTION: server 服务器名 filePath 对象存储全路径(不包括桶名) enableCache 是否使用缓存(true/false) 冷数据转热数据语法 ALTER TABLE [分区主表名] ALTERPARTITION PARTITION [分区子表名] SET STORAGETYPE LOCAL;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        冷热数据分离
        冷热数据分离语法介绍
      • 删除实例
        本章节介绍了如何删除分布式消息服务RocketMQ实例。 操作场景 分布式消息服务RocketMQ控制台支持删除RocketMQ实例,且可实现批量删除RocketMQ实例、一键式删除创建失败的RocketMQ实例。 须知: RocketMQ实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 前提条件 RocketMQ实例状态为运行中、故障时,才能执行删除操作。 删除RocketMQ实例 1. 登录分布式消息服务RocketMQ控制台。 2. 选择以下任意一种方法删除实例。 在待删除的RocketMQ实例所在行,单击“更多 > 删除”。 单击待删除的RocketMQ实例名称,进入实例详情页面。在页面右上角,单击“更多 > 删除”。 如需批量删除实例,勾选待删除的实例,单击“删除”。 说明:RocketMQ实例状态为创建中、重启中时不允许执行删除操作。 3. 单击“确定”,完成删除RocketMQ实例。 删除RocketMQ实例大约需要1到60秒。 删除创建失败的RocketMQ实例 1. 登录分布式消息服务RocketMQ控制台。 如果当前存在创建失败的RocketMQ实例,信息栏会显示“创建失败任务”及失败数量。 图1 创建失败任务 2. 单击“创建失败任务”后的图标或者数量,弹出“创建失败任务”对话框。 3. 选择以下任意一种方法,删除创建失败的RocketMQ实例。 单击“清理失败任务”,一键式删除所有创建失败的RocketMQ实例。 在需要删除的创建失败的RocketMQ实例所在行,单击“删除任务”,删除创建失败的RocketMQ实例。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        删除实例
      • 微服务治理
        本节主要介绍微服务治理 业务场景 ServiceStage中的微服务引擎CSE,可提供负载均衡、降级、限流、容错、熔断、错误注入、黑白名单等服务治理策略。 用户可以根据实际的业务场景提前配置相应的治理策略,灵活应对业务需求变化,保障应用的稳定运行。 降级:在本实践中,假设前台请求剧增,导致系统响应缓慢甚至可能崩溃,在这样的场景下,我们可以在fusionweather对forecast使用降级策略,对forecast 进行降级处理,只请求比较重要的实时天气weather的数据,保障重要业务功能的正常运行,等流量洪峰过去再进行复原。 体验微服务降级 ServiceStage支持从界面上设置按微服务或接口粒度降级。 以对forecast微服务降级为例,操作步骤如下。 1、登录ServiceStage控制台,选择“基础设施 > 微服务引擎 CSE”。 2、选择在实践“使用ServiceStage托管微服务应用”中创建环境时选择的微服务引擎,单击“查看控制台”。 3、单击“服务治理”,进入服务治理页面。 4、单击创建应用时创建的应用名称(例如weathermap)。 5、配置降级策略: 1. 选择fusionweather微服务。 2. 选择“降级”。 3. 单击“新增”。 4. “降级对象”选择“forecast”和“所有方法”。 5. “降级策略”设置为“开启”。 单击“确定”。 6、配查看效果。 在浏览器中访问应用,原天气预报页面右侧天气预测部分显示空白。 7、单击,删除降级策略,以免对后续体验造成影响。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        使用微服务引擎管理应用
        微服务治理
      • 天翼云安全加速服务协议
        本文介绍天翼云安全加速服务协议。 天翼云安全加速服务协议详情请参见这里。
        来自:
        帮助文档
        安全加速(文档停止维护)
        相关协议
        天翼云安全加速服务协议
      • 只读节点简介
        本节介绍了文档数据库服务的只读节点简介。 为了扩展主节点的读请求能力,DDS提供具备独立连接地址的只读节点,适合独立系统直连访问,以缓解大量读请求给主节点造成的压力。 在对数据库没有写请求,但是有大量读请求的应用场景下,数据库的主备节点可能难以承受读取压力,甚至对业务造成影响。为了分担主备节点的访问压力,您可以根据业务需求创建一个或多个只读节点,来满足大量的数据库读取需求,增加应用的吞吐量。 只读节点与备节点(Secondary)的区别 节点 说明 应用场景 备节点 副本集备节点具有高可用保障,备节点和主节点组成高可用切换的能力,即某个主节点故障时,系统会自动切换流量至备节点。相应的,在主节点故障时,每个备节点均有可能被选举为新的主节点,来执行数据写入请求。 主备节点可以使用高可用地址连接实现全局读写分离,适用于读多写少的并发场景。从而在性能扩展的同时,屏蔽节点故障对业务带来的影响。 只读节点 副本集只读节点仅从主节点同步数据,不具备高可用保障,也不会被选举为主节点。只读节点具有独立的连接地址,适合独立系统直连访问,与已有副本集主备节点的连接互不干扰。 适合需要从现有实例中大量读取数据的业务场景。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        实例说明
        只读节点简介
      • 管理设置类
        为什么在企业项目上进行授权后,子用户仍缺少部分权限? 企业项目上进行授权后,代表该用户组下的子用户,对于企业项目下的资源能够拥有策略指定的权限。但是对于部分没有企业项目属性的服务,这种情况下将无法生效。例如,在企业项目上,为指定用户组A绑定策略“ecs admin”后,用户组A下的子用户能够查看企业项目下资源的云主机实例,但是使用安全组规则时仍会报错,此时是因为安全组规则不具有企业项目属性,需要额外在IAM中完成授权。IAM授权的详细步骤请参考用户组授权。 为什么在按照企业项目设置了用户组和策略,但是用户看到了不在该企业项目下的资源/按企业项目隔离用户可见资源失效? 这种情况可能是由于在资源池/全局范围上进行了IAM授权,覆盖了企业项目授权的隔离作用。解决方案是,针对需要在企业项目上进行隔离的权限,只在企业项目上通过设置用户组和策略完成授权。例如,如果需要子用户只能看到特定企业项目下的云主机ECS,在该企业项目下,配置子用户所属的用户组,同时配置ecs admin。同时,查询该用户的资源池/全局授权情况(可以通过授权管理,或子用户查看中的权限管理查看用户和所属用户组上的权限配置),如果存在ecs admin这类云主机权限,取消该授权。最后,重新登录子用户查看是否能够隔离资源。 关于资源池/全局授权和企业项目授权之间的关系,详见IAM授权与企业项目授权。
        来自:
        帮助文档
        统一身份认证(一类节点)
        常见问题
        管理设置类
      • 配置HBase/CloudTable目的端参数
        参数名 说明 取值样例 表名 写入数据的HBase表名。如果是创建新HBase表,支持从源端拷贝字段名。单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 TBL2 导入前清空数据 选择目的端表中数据的处理方式: 是:任务启动前会清除目标表中数据。 否:导入前不清空目标表中的数据,如果选“否”且表中有数据,则数据会追加到已有的表中。 是 Row key拼接分隔符 可选参数,用于多列合并作为rowkey,默认为空格。 , Rowkey冗余 可选参数,是否将选做Rowkey的数据同时写入HBase的列,默认值“否”。 否 压缩算法 可选参数,创建新HBase表时采用的压缩算法,默认为值“NONE”。 NONE:不压缩。 SNAPPY:压缩为Snappy格式。 GZ:压缩为GZ格式。 NONE WAL开关 选择是否开启HBase的预写日志机制(WAL,Write Ahead Log)。 是:开启后如果出现HBase服务器宕机,则可以从WAL中回放执行之前没有完成的操作。 否:关闭时能提升写入性能,但如果HBase服务器宕机可能会造成数据丢失。 否 匹配数据类型 是:源端数据库中的Short、Int、Long、Float、Double、Decimal类型列的数据,会转换为Byte[]数组(二进制)写入HBase,其他类型的按字符串写入。 如果这几种类型中,有合并做rowkey的,则依然当字符串写入。 该功能作用是:降低存储占用空间,存储更高效;特定场景下rowkey分布更均匀。 否:源端数据库中所有类型的数据,都会按照字符串写入HBase。 否
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置HBase/CloudTable目的端参数
      • 使用ClickHouse客户端
        本章节主要介绍使用ClickHouse客户端。 ClickHouse是面向联机分析处理的列式数据库,支持SQL查询,且查询性能好,特别是基于大宽表的聚合分析查询性能非常优异,比其他分析型数据库速度快一个数量级。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。在使用客户端前,需要先下载并更新客户端配置文件,确认Manager的主管理节点后才能使用客户端。 操作步骤 1.以客户端安装用户,登录安装客户端的节点。 2.执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3.执行以下命令配置环境变量。 source bigdataenv 4.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建ClickHouse表的权限,具体请参见“组件操作指南 > 使用ClickHouse > 用户管理及认证 > ClickHouse用户及权限管理”章节,为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行本步骤。 a.如果是MRS 3.1.0版本集群,则需要先执行:export CLICKHOUSESECURITYENABLEDtrue b.kinit 组件业务用户 例如,kinit clickhouseuser。 5.执行ClickHouse组件的客户端命令。 执行 clickhouse h ,查看ClickHouse组件命令帮助。 回显信息如下: Use one of the following commands: clickhouse local [args] clickhouse client [args] clickhouse benchmark [args] clickhouse server [args] clickhouse performancetest [args] clickhouse extractfromconfig [args] clickhouse compressor [args] clickhouse format [args] clickhouse copier [args] clickhouse obfuscator [args] ... 详细命令使用请参考: MRS 3.1.0及之后版本,使用clickhouse client命令连接ClickHouse服务端: 例如,当前集群未启用Kerberos认证,使用ssl安全方式登录: clickhouse client host ClickHouse 的实例IP user 用户名 password 密码 port 9440 secure 例如,当前集群已启用Kerberos认证,使用ssl安全方式登录。 Kerberos集群场景下没有默认用户,必须在Manager上创建用户,详细参考“组件操作指南 > 使用ClickHouse >用户管理及认证 >ClickHouse用户及权限管理”。 使用kinit认证成功后,客户端登录时可以不携带user和password参数,即使用kinit认证的用户登录。 clickhouse client host ClickHouse的实例IPport 9440 secure 详见下表:clickhouse client命令行参数说明 参数名 参数说明 host 服务端的host名称,默认是localhost。您可以选择使用ClickHouse实例所在节点主机名或者IP地址。 说明 ClickHouse的实例IP地址可登录集群FusionInsight Manager,然后选择“集群> 服务> ClickHouse >实例”,获取ClickHouseServer实例对应的业务IP地址。 port 连接的端口。 如果使用ssl安全连接则默认端口为9440,并且需要携带参数secure。具体的端口值可通过ClickHouseServer实例配置搜索“tcpportsecure”参数获取。 如果使用非ssl安全连接则默认端口为9000,不需要携带参数secure。具体的端口值可通过ClickHouseServer实例配置搜索“tcpport”参数获取。 user 用户名。 可以在Manager上创建该用户名并绑定对应的角色权限,具体可以参考“组件操作指南>使用ClickHouse >用户管理及认证> ClickHouse用户及权限管理”。 如果当前集群已启用Kerberos认证,使用kinit认证成功后,客户端登录时可以不携带user和password参数,即使用kinit认证的用户登录。Kerberos集群场景下没有默认用户,必须在Manager上创建该用户名。 如果当前集群未启用Kerberos认证,客户端登录时可以指定Manager上创建的用户和密码。不携带用户和密码参数时则默认使用default用户登录。 password 密码。 默认值:空字符串。该参数和user参数配套使用,可以在Manager上创建用户名时设置该密码。 query 使用非交互模式查询。 database 默认当前操作的数据库。默认值:服务端默认的配置(默认是default)。 multiline 如果指定,允许多行语句查询(Enter仅代表换行,不代表查询语句完结)。 multiquery 如果指定,允许处理用;号分隔的多个查询,只在非交互模式下生效。 format 使用指定的默认格式输出结果。 vertical 如果指定,默认情况下使用垂直格式输出结果。在这种格式中,每个值都在单独的行上打印,适用显示宽表的场景。 time 如果指定,非交互模式下会打印查询执行的时间到stderr中。 stacktrace 如果指定,如果出现异常,会打印堆栈跟踪信息。 configfile 配置文件的名称。 secure 如果指定,将通过ssl安全模式连接到服务器。 historyfile 存放命令历史的文件的路径。 param 带有参数的查询,并将值从客户端传递给服务器。具体用法详见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用ClickHouse客户端
      • 1
      • ...
      • 273
      • 274
      • 275
      • 276
      • 277
      • ...
      • 703
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      推荐文档

      云课堂 第十三课:如何远程管理天翼云RDS数据库

      续订

      查看业务关键性能指标

      扩容磁盘

      VPN删除

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号