活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微服务引擎MSE_相关内容
      • 数据恢复
        本页介绍天翼云TeleDB数据库如何进行数据恢复。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上选择备份与恢复 > 备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复页签。 2. 创建恢复任务 1. 单击实例恢复 ,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点,勾选可恢复时间点,单击校验,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情 ,出现恢复详情对话框。 2. 在恢复详情 对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        数据恢复
      • 跨集群复制
        本文为您介绍天翼云云搜索服务的跨集群复制能力及使用方法。 功能简介 跨集群复制(CrossCluster Replication, CCR)是搜索引擎的一项重要功能,旨在实现不同集群间的实时数据同步和复制。这一功能对于构建全球分布式系统、提高数据高可用性、支持灾备恢复、以及优化跨地域数据访问具有显著意义。 天翼云云搜索服务在OpenSearch和Elasticsearch都实现了跨集群复制功能。 核心原理 跨集群复制通过在不同的搜索集群之间建立主从索引关系来实现数据同步。一个集群中的索引被设为主索引(Leader Index),负责处理数据的写入操作。其他集群中的从索引(Follower Index)则持续地从主索引中拉取数据更新,确保各个集群的数据保持一致。 这种主从架构确保了写入操作的集中管理,减少了数据冲突的风险,并维护了数据的一致性。 应用场景与优势 分布式系统 在更大范围内部署应用时,CCR 允许数据在不同地理位置的集群之间同步。通过在用户所在地附近的集群中设置从索引,可以显著降低访问延迟,提高查询性能。例如,上海的主集群可以通过 CCR 将数据复制到北京的从集群,从而优化这些地区用户的体验。 灾备恢复 CCR 是构建高可用性和灾备系统的关键。主集群若发生故障,其他地理位置的从集群可以迅速接管,保障业务连续性。这种多集群架构能够有效防范单点故障,提高系统的可靠性。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        跨集群复制
      • 使用mysqldump迁移RDS for MySQL数据
        本章节会介绍如何使用mysqldump迁移RDS for MySQL数据 迁移准备 关系型数据库服务支持开启公网访问功能,通过弹性公网IP进行访问。您也可通过弹性云主机的内网访问关系型数据库。 1.准备弹性云主机或可通过公网访问关系型数据库。 通过弹性云主机连接关系型数据库实例,需要创建一台弹性云主机。 通过公网地址连接关系型数据库实例,需具备以下条件。 先对关系型数据库实例绑定公网地址。 保证本地设备可以访问关系型数据库实例绑定的公网地址。 2.在准备的弹性云主机或可访问关系型数据库的设备上,安装MySQL客户端。 说明 该弹性云主机或可访问关系型数据库的设备需要安装和RDS for MySQL数据库服务端相同版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 数据迁移到云数据库RDS后可能要面对更改IP的问题,为减少客户业务更改,降低迁移难度,支持更改内网IP。 云数据库RDS的系统库mysql和sys不支持导入到RDS for MySQL实例。 导出数据 要将源数据库迁移到关系型数据库,需要先对其进行导出。 说明 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问关系型数据库的设备。 步骤 2 使用mysqldump将表结构导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出表结构时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldumpdatabases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.168.151.18 P 3306 sed e 's/DEFINER[ ] [ ] [^ ]/ /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > dumpdefs.sql Enter password: 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdefs.sql”文件,如下: [rds@localhost ~]$ ll dumpdefs.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdefs.sql 步骤 3 使用mysqldump将数据导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggersu ph P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.168.151.18 P 8635 r dumpdata.sql 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdata.sql”文件,如下: [rds@localhost ~]$ ll dumpdata.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdata.sql
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用mysqldump迁移RDS for MySQL数据
      • 查看集群信息
        本文介绍如何查看集群信息。 Serverless集群提供了细致全面的集群概览展示页,其中包括组件状态、集群资源使用情况等功能板块,可以快速准确地了解集群的健康状态,并提供了集群的基本信息、连接信息、集群资源等相关信息。 查看集群概览 您可以在集群概览页面内查看组件状态、集群资源使用情况等信息。具体操作步骤如下: 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群” 。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 单击概览页签,进去集群概览页面,查看集群信息、已安装插件、当前告警、事件等信息。 1. 集群信息 :显示当前集群包括集群名称、Kubernetes版本、创建时间、API Server端口以及API Server IP等基础信息。 2. 已安装插件 :展示集群当前已经安装的插件和插件状态。 3. 当前告警 :自动扫描集群,提供集群告警、节点告警以及组件告警等信息, 及时提示您存在的潜在风险以便避免业务受损。 4. 事件 :显示当前集群的日志信息。 查看基本信息 单击基本信息页签,可以查看集群名称、状态、时区、区域以及是否开启集群删除保护等基本信息。同时可以查看API Server 公网连接端点、API Server 内网连接端点以及Service CIDR等集群信息。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        集群
        查看集群信息
      • 步骤五:构建应用
        本章主要介绍 步骤五:构建应用 编译构建服务提供配置简单的混合语言构建平台,支持任务一键创建、配置和执行,实现获取代码、构建、打包等活动自动化。 通过本章节,您将了解开发人员Chris如何构建环境镜像、将代码编译打包成软件包,以及通过代码变更触发自动构建来实现持续集成。 预置任务简介 样例项目中预置了如下表所示的5个任务。 预置任务 预置任务 任务说明 phoenixsampleci 基本的构建任务。 phoenixsamplecitest 构建测试环境可用镜像的任务。 phoenixsampleciworker 构建Worker功能镜像的任务。 phoenixsampleciresult 构建Result功能镜像的任务。 phoenixsamplecivote 构建Vote功能镜像的任务。 说明 关于Vote、Result、Worker的说明,请参见 section989mcpsimp 本章节以任务“phoenixsampleci”为例进行讲解,此任务包含的步骤如下表所示。 构建步骤 构建步骤 说明 制作Vote镜像并推送到SWR仓库 通过工作目录“./vote”及Dockerfile路径“./Dockerfile”找到“Dockerfile”文件,依据“Dockerfile”文件制作Vote功能镜像,并将镜像推送到容器镜像服务。 制作Result镜像并推送到SWR仓库 通过工作目录“./result”及Dockerfile路径“./Dockerfile”找到“Dockerfile”文件,依据“Dockerfile”文件制作并推送Result功能镜像,并将镜像推送到容器镜像服务。 使用Maven安装Worker依赖包 使用Maven安装Worker功能所需的依赖。 制作Worker镜像并推送到SWR仓库 通过工作目录“./worker”及Dockerfile路径“Dockerfile.j2”找到“Dockerfile”文件,依据“Dockerfile”文件制作并推送Worker功能镜像,并将镜像推送到容器镜像服务。 生成Postgres and Redis Dockerfile 通过shell命令生成制作Postgres(数据库)和Redis(缓存)镜像的Dockerfile文件。 制作Postgres镜像并推送到SWR仓库 依据“生成Postgres and Redis Dockerfile”所生成的Dockerfile文件制作并推送Postgres镜像,并将镜像推送到容器镜像服务。 制作Redis镜像并推送到SWR仓库 依据“生成Postgres and Redis Dockerfile”所生成的Dockerfile文件制作并推送Redis镜像,并将镜像推送到容器镜像服务。 替换DockerCompose部署文件镜像版本 为了将镜像部署到ECS时,能够可以拉取到正确的镜像,使用shell命令进行完成以下操作。首先,使用sed命令,依次将文件“dockercomposestandalone.yml”中的参数替换为构建任务的参数“dockerServer”、“dockerOrg”、“BUILDNUMBER”进行替换。然后,使用tar命令,将文件“dockercomposestandalone.yml”压缩为“dockerstack.tar.gz”,将部署所需文件进行打包,以便于后续步骤将该文件上传归档。 替换Kubernetes部署文件镜像版本 为了将镜像部署到CCE时,能够可以拉取到正确的镜像,使用shell命令进行完成以下操作。首先,使用sed命令,将目录“kompose”下所有以“deployment”结尾的文件中的参数“dockerserver”、“dockerorg”,替换为构建任务的参数“dockerServer”、“dockerOrg”。然后,使用sed命令,将“resultdeployment.yaml”、“votedeployment.yaml”、“workerdeployment.yaml”三个文件中的参数“imageversion”用构建任务参数“BUILDNUMBER”进行替换。 上传Kubernetes部署文件到软件发布库 将所有“.yaml”文件上传到软件发布库中归档。 上传dockercompose部署文件到软件发布库 将压缩好的“dockerstack.tar.gz”(构建包路径)上传到软件发布库中归档,包名命名为“dockerstack”,实现软件包的版本管理。 说明 在项目部署过程中,经常遇到由于环境不一致而导致的失败,例如研发调试环境的JDK升级后,未在环境清单中标记清楚,导致生产环境未做相应升级而引发失败。为了避免因为环境不一致导致的各种问题,本样例项目中统一使用Docker的方式将各微服务应用与环境统一打包到镜像,保持每个环境(开发调测环境、测试环境、QA环境、生产环境)一致。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤五:构建应用
      • 节点维度的网络配置
        本节介绍网络的用户指南:节点维度的网络配置。 使用场景 Cubecni网络插件会为节点额外添加网卡,用来构建容器网络。这些网卡,如eth1,默认使用配置项cubecniconfig配置的Pod子网和安全组,其中Pod子网为订购时选择的子网,安全组为订购时委托自动创建或用户选择的安全组。 可通过创建新的配置项,为特定节点或节点池配置单独的Pod子网和安全组,实现节点维度的容器网络配置。 如下场景,为特定节点配置独立的子网和安全组,以实现节点C的Pod独享NAT出口IP和带宽: 使用限制 1. 仅新建 的网卡会使用新配置的Pod子网和安全组,已创建的ENI会继续使用原有配置。若需配置节点维度Pod子网和安全组,建议为新节点 或节点池配置; 2. 该特性要求Cubecni版本不低于v1.1.6,且集群已配置资源委托。 操作步骤 1. 在命名空间kubesystem中创建名称为foo的ConfigMap。 a. 登录云容器引擎控制台,左侧导航栏选择集群; b. 在集群列表页面,单击目标集群名称,进入集群管理页面; c. 左侧导航栏,选择配置管理 > 配置项; d. 在配置项页面,命名空间选择kubesystem,单击创建配置项; e. 创建页面,配置项名称设置为foo,单击添加配置项,变量名设置为nodeconfig.json,变量值填入以下内容,将iaassubnets和securitygroups参数替换为实际值: plaintext { "action": "override", "iaassubnets": ["subnetjin7fmxxxx"], "securitygroups": ["sg6hxh19xxxx"] } 参数名 说明 action 值固定为override,默认为override,即子网/安全组配置会覆盖cubecniconfig的配置 iaassubnets 值为VPC子网ID列表。若配置多个子网,优先使用可用IP最多的子网;如无需修改,则无需配置iaassubnets,或值配置为null securitygroups 值为安全组ID列表。用于配置新建的Pod共享ENI,最多可配置5个;若无需修改,则无需配置securitygroups,或值配置为null 2. 节点配置标签 新建节点配置标签 创建节点池时添加节点标签,键设置为cubecniconfig,值设置为foo。新建节点池,详见节点池管理。 注意 节点池新增节点会使用foo指定的配置,不会更新存量节点已创建的网卡的安全组。 已有节点配置标签 a. 集群管理页面左侧导航栏,选择节点>标签 ,点击右侧对应节点的设置标签。 b. 在设置节点标签页面,选择自定义标签 ,点击添加标签。 c. 标签名设置为cubecniconfig,标签值值设置为foo,点击确认。 添加标签后,需重建cubecni插件: a. 集群管理页面左侧导航栏,选工作负载>守护进程。 b. 命名空间 选择kubesystem ,找到cubecni服务,点击右侧的重新部署。 c. 选择滚动重启 或快速重启 ,点击确认,当运行/期望Pod数量相等,说明重启成功。 注意 对于存量节点,不会更新已创建的网卡的安全组。 3. 检查配置是否生效 登录弹性云主机控制台,进入云主机实例详情页,可见弹性网卡配置的子网和安全组信息。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        节点维度的网络配置
      • 开发SQL脚本
        本章节主要介绍开发脚本的开发SQL脚本功能。 对SQL脚本进行在线开发、调试和执行,开发完成的脚本也可以在作业中执行(请参见开发作业)。 前提条件 已开通相应的云服务并在云服务中创建数据库。Flink SQL脚本不涉及该操作。 已创建与脚本的数据连接类型匹配的数据连接,请参见新建数据连接。Flink SQL脚本不涉及该操作。 当前用户已锁定该脚本,否则需要通过“抢锁”锁定脚本后才能继续开发脚本。新建或导入脚本后默认被当前用户锁定,详情参见提交版本并解锁章节中的“编辑锁定功能”。 操作步骤 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3.在脚本目录中,双击脚本名称,进入脚本开发页面。 4.在编辑器上方,选择如下表所示的属性。创建Flink SQL脚本时请跳过此步骤。 SQL脚本属性 属性 说明 数据连接 选择数据连接。 数据库 选择数据库。 资源队列 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。如需新建资源队列,请参考以下方法: 单击,进入DLI的“队列管理”页面新建资源队列。 前往DLI管理控制台进行新建。 说明 DLI提供默认资源队列“default”,该资源队列不支持insert、load、cat命令。 如需以“key/value”的形式设置提交SQL作业的属性,请单击。最多可设置10个属性,属性说明如下: dli.sql.autoBroadcastJoinThreshold(自动使用BroadcastJoin的数据量阈值) dli.sql.shuffle.partitions(指定Shuffle过程中Partition的个数) dli.sql.cbo.enabled(是否打开CBO优化策略) dli.sql.cbo.joinReorder.enabled(开启CBO优化时,是否允许重新调整join的顺序) dli.sql.multiLevelDir.enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除) 5.在编辑器中输入SQL语句(支持输入多条SQL语句)。 说明 需要注意,使用SQL语句获取的系统日期和通过数据库工具获取的系统日期是不一样,查询结果存到数据库是以YYYYMMDD格式,而页面显示查询结果是经过转换后的格式。 SQL语句之间以“;”分隔。如果其它地方使用“;”,请通过“”进行转义。例如: select 1; select from a where b"dsfa;"; example 1;example 2. 为了方便脚本开发,数据开发模块提供了如下能力: − 脚本编辑器支持使用如下快捷键,以提升脚本开发效率。 Ctrl + /:注释或解除注释光标所在行或代码块 Ctrl + S:保存 Ctrl + Z:撤销 Ctrl + Y:重做 Ctrl + F:查找 Ctrl + Shift + R:替换 Ctrl + X:剪切,光标未选中时剪切一行 Alt + 鼠标拖动:列模式编辑,修改一整块内容 Ctrl + 鼠标点选:多列模式编辑,多行缩进 Shift + Ctrl + K:删除当前行 Ctrl + →或Ctrl + ←:向右或向左按单词移动光标 Ctrl + Home或Ctrl + End:移至当前文件的最前或最后 Home或End:移至当前行最前或最后 Ctrl + Shift + L:鼠标双击相同的字符串后,为所有相同的字符串添加光标,实现批量修改 − 支持系统函数功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“系统函数”,显示该数据连接类型支持的函数,您可以双击函数到编辑器中使用。 − 支持可视化读取数据表生成SQL语句功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“数据表”,显示当前数据库或schema下的所有表,可以根据您的需要勾选数据表和对应的列名,在右下角点击“生成SQL语句”,生成的SQL语句需要您手动格式化。 − 支持脚本参数(当前仅Flink SQL不支持该功能)。 在SQL语句中直接写入脚本参数,调试脚本时可以在脚本编辑器下方输入参数值。如果脚本被作业引用,在作业开发页面可以配置参数值,参数值支持使用EL表达式(参见表达式概述)。 脚本示例如下,其中str1是参数名称,只支持英文字母、数字、“”、“”、“ ”,最大长度为16字符,且参数名称不允许重名。 > select ${str1} from data; 另外,对于MRS Spark SQL和MRS Hive SQL脚本的运行程序参数,除了在SQL脚本中参考语句“set hive.exec.paralleltrue;”配置参数,也可以在对应作业节点属性的“运行程序参数”中配置该参数。 详见下图:运行程序参数 − 支持设置脚本责任人 单击编辑器右侧的“脚本基本信息”,可设置脚本的责任人和描述信息。 6.(可选)在编辑器上方,单击“格式化”,格式化SQL语句。创建Flink SQL脚本请跳过此步骤。 7.在编辑器上方,单击“运行”。如需单独执行某部分SQL语句,请选中SQL语句再运行。SQL语句运行完成后,在编辑器下方可以查看脚本的执行历史、执行结果。Flink SQL脚本不涉及,请跳过该步骤。 说明 对于执行结果支持如下操作: 重命名:可通过双击执行结果页签的名称进行重命名,也可通过右键单击执行结果页签的名称,单击重命名。重命名不能超过16个字符。 可通过右键单击执行结果页签的名称关闭当前页签、关闭左侧页签、关闭右侧页签、关闭其它页签、关闭所有页签。 MRS集群为非安全集群、且未限制命令白名单时,在Hive SQL执行过程中,添加application name信息后,则可以方便的根据脚本名称与执行时间在MRS的Yarn管理界面中根据job name找到对应任务。需要注意若默认引擎为tez,则要显式配置引擎为mr,使tez引擎下不生效。 8.在编辑器上方,单击,保存脚本。 如果脚本是新建且未保存过的,请配置如下表所示的参数。 保存脚本 参数 是否必选 说明 脚本名称 是 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 责任人 否 为该脚本指定责任人。默认为创建脚本的人为责任人。 描述 否 脚本的描述信息。 选择目录 是 选择脚本所属的目录,默认为根目录。 说明 如果脚本未保存,重新打开脚本时,可以从本地缓存中恢复脚本内容。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发SQL脚本
      • 产品定义
        本文介绍了云防火墙(原生版)的产品定义和产品架构。 云防火墙(原生版)(CTCFW,Cloud Firewall)是一款云原生的云上边界网络安全防护产品,可提供统一的互联网边界管控与安全防护,并提供业务整体情况可视化、日志审计和分析等功能,帮助您完成网络边界防护与等保合规。 产品功能 访问控制:可统一管理互联网访问控制策略(南北向),提供流量可视、访问控制、入侵防御等功能,全面保护用户的网络安全。 入侵防御:内置复合威胁检测引擎,支持对互联网上的恶意流量、DDoS攻击,漏洞利用等攻击行为进行入侵防护,并提供精准的漏洞虚拟补丁,智能阻断入侵风险。 流量可视:提供全面的用户业务流量可视化,实现网络访问可视,网络会话可视,网络行为可视,帮助用户全面感知网络情况。 日志审计:为用户全面记录入侵防御日志、访问控制日志、流量日志和操作日志,帮助用户完成等保合规要求。 产品架构 云防火墙(原生版)整体架构主要包括3个部分,分别为中央管理平台、南北向流量控制模块和日志平台。 中央管理平台:提供策略规则的编辑和下发能力,并展示安全整体情况,为您提供可视化平台。 南北向流量控制模块:主要用于实现互联网到主机间的访问控制,支持4~7层访问控制。 日志平台:存放入侵防御日志、访问控制日志、流量日志和操作日志,并提供查询分析能力。
        来自:
        帮助文档
        云防火墙(原生版)
        产品介绍
        产品定义
      • 步骤四:对比迁移项
        本节主要介绍步骤四:对比迁移项 对比迁移项可以清晰反馈出源数据库和目标数据库的数据是否存在差异。为了尽可能减少业务的影响和业务中断时间,数据库实时迁移场景提供了完整的迁移对比流程,帮助您确定合适的业务割接时机。 图 迁移对比流程 迁移对比功能支持对象级对比、数据级对比和用户对比。 对象级对比:支持对数据库、索引、表、视图、存储过程和函数、表的排序规则等对象进行对比。 数据级对比:支持对表或者集合的行数和内容进行对比。 说明 全量迁移中的任务无法进行数据级对比。 用户对比:对源库和目标库的账号名称、权限进行对比,目前仅MySQL支持用户对比。 前提条件 已登录数据库复制服务控制台。 已启动迁移任务。 操作步骤 在进行迁移项数据对比时,您可以按照迁移对比须知模块推荐的流程操作,也可以根据业务场景选用对比方式。以下操作将按照迁移对比须知模块的推荐方案详细介绍各功能的使用方法。 1、在“实时迁移管理”界面,选中指定迁移任务,单击任务名称,进入“基本信息”页签。 2、单击“迁移对比”页签,进入“迁移对比”信息页面,对源数据库和目标数据库的数据进行对比分析。 您也可以在“实时迁移管理”界面,选中指定迁移任务,单击操作列的“查看对比”,进入“迁移对比”页面。 1)首先进行数据库对象完整性检查。 单击“对象检查”,进入“对象级对比”页签,单击“开始对比”后稍等一段时间再单击,查看各个对比项的对比结果。 图 对象级对比 若需要查看对比项的对比结果详情,可单击指定对比项操作列的“详情”。 2)数据库对象检查完成后,进行迁移数据行数及内容的对比。 如果仅需要对比全部迁移对象的行数,您也可以在“实时迁移管理”界面,选中指定迁移任务,单击操作列的“创建对比”,创建对比任务。 A)单击迁移对比须知处的“全面检查”,进入“创建对比任务”页面。 B)在“创建对比任务”页面,分别选择“对比类型”、“对比方式”、“对比时间”和“对象选择”后,单击“是”,提交对比任务。 图 创建对比任务 对比类型:分为行数对比和内容对比。 对比方式:分为静态对比和动态对比两种。 静态对比:对源数据库和目标数据库进行一次全量内容对比,内容对比完成后对比任务结束,适用于无数据变化的非业务时间。 动态对比:先对源数据库和目标数据库进行一次全量内容对比,对比任务完成后进入增量对比阶段,实时比对源数据库和目标数据库的增量数据,适用于有数据变化的业务时间。 说明 目前仅MySQL引擎支持对比方式选择。 对比时间:可设置为“立即启动”和“稍后启动”。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现符合实际情况的少量数据不一致对比结果,推荐结合对比定时功能,选择在业务低峰期进行对比,得到更为具有参考性的对比结果。 对象选择:可根据具体的业务场景选择需要进行对比的对象。 说明 目前仅MySQL引擎支持内容对比,而且在进行内容对比之前,系统会帮助您对内容对比所需的耗时进行预估。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 对比任务提交成功后,返回“数据级对比”页签,单击刷新列表,可以查看到所选对比类型的对比结果。 图 数据级对比结果 若需要查看对比类型详情,可单击指定对比类型操作列的“查看对比报表”,然后选择需要进行对比的数据库,单击操作列的“查看详情”,查看指定源数据库和目标数据库的对比结果详情。 图 对比详情 说明 运行中的任务可以随时取消,已取消的对比任务也支持查看对比报表。 进行数据库账号和权限对比。单击“用户对比”页签,可查看数据库账号及权限的对比结果。 图 用户对比 说明 全量迁移中的任务无法进行用户对比。 目前仅MySQL支持用户对比。 3)业务割接前,进行割接复查。 单击“割接复查”,进入创建对比任务页面,选择“对比类型”、“对比时间”和“对象选择”,单击“确定”,提交对比任务。 4)结束任务。 业务系统和数据库切换成功后,为了防止源数据库的操作继续同步到目标数据库,造成数据覆盖问题,此时您可选择结束迁移任务。该操作仅删除了迁移实例,迁移任务仍显示在任务列表中,您可以进行查看或删除。结束迁移任务后,DRS将不再计费。 一般情况下,结束任务功能可以确保特殊对象迁移的完整性(触发器、事件在结束阶段迁移),罕见情况下(例如网络异常)可能结束任务失败。当遇到多次任务结束失败时,可以勾选“强制结束任务”优先结束任务,以减少等待时间。强制结束任务,极端场景下可能会导致触发器、事件迁移不完整,请手工迁移触发器、事件。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤四:对比迁移项
      • 操作指导
        功能 描述 认证&授权 双因子认证 内置手机APP认证(谷歌动态口令验证)、OTP动态令牌、USBkey双因素认证引擎。 提供短信认证、AD、LDAP、RADIUS认证接口。 支持多种认证方式组合。 认证&授权 权限管理 系统预置多种用户角色:超级管理员、部门管理员、运维管理员、审计管理员、运维员、审计员、系统管理员和密码管理员。 每种用户角色的权限均不同,且可自定义用户角色。 认证&授权 集中授权 梳理用户与主机之间关系,提供一对一、一对多、多对一、多对多的灵活授权模式。 认证&授权 单点登录 托管主机的帐户和密码,运维人员直接点击“登录”即可成功自动登录到目标主机中进行运维操作,无需输入主机的帐户和密码。 认证&授权 自动学习 运维人员通过堡垒机成功登录目标主机后即可自动录入主机信息,减轻管理员配置主机信息、用户与主机关系的工作量。 运维&审计 运维协议支持 支持管理Linux/Unix服务器、Windows服务器、网络设备(如思科/H3C/华为等)、文件服务器、Web系统、数据库服务器、虚拟服务器、远程管理服务器等。 兼容Xshell、XFTP、SecureCRT、MSTSC、VNC Viewer、PuTTY、WinSCP、FlashFXP、SecureFX等多种客户端工具。 运维&审计 统一审计 对所有操作进行详细记录,提供综合查询;审计日志可在线或离线播放,自动备份归档。 审计内容包括图形、字符、文件、应用、SQL语句等会话及应用会话。 运维&审计 浏览器客户端运维 基于H5技术实现浏览器客户端运维,无需安装本地工具,直接通过浏览器打开运维界面。 支持通过SSH、Telnet、Rlogin、RDP、VNC协议的Web客户端运维。 运维&审计 文件传输审计 记录所有操作会话,包括在线监控、实时阻断、日志回放、起止时间、来源用户、来源IP、目标设备、协议/应用类型、命令记录、操作内容。 完整备份传输文件,为上传恶意文件、拖库、窃取数据等危险行为提供查询依据。 运维&审计 自动运维 实现自动化的运维任务并将执行结果通知相关人员。 运维&审计 资产管理 支持主机、主机组、混合云、帐号、帐号组、应用等多种资产类型。 运维&审计 命令控制 集中命令控制基于不同主机、不同用户设置不同的命令控制策略,包括命令阻断、命令黑名单、命令白名单、命令审核四种动作。 运维&审计 工单流程 运维人员向管理员申请需要访问的设备,选择条件包括设备IP、设备帐户、运维有效期、备注事由等,运维工单以邮件方式通知管理员。 其他 系统自审 对系统自身变化信息进行审计,形成系统分析报表。 其他 冗余架构 结合端口聚合技术、RAID技术和HA技术,实现三重冗余备份的高可用架构。 其他 API接口 提供用户、资产、授权的增删改查等API接口。 允许第三方平台调用API接口,实现用户、资产、权限自动同步。
        来自:
        帮助文档
        云等保专区
        用户指南
        堡垒机
        堡垒机v1.0
        操作指导
      • V5.1.9.6020.2540版本更新详情
        本文为您介绍DRDS V5.1.9.6020.2540版本的新增功能、体验改进、历史问题修复等版本更新信息。 新功能 588、739、740、743、744、775、779 DRDS的DDL引擎执行框架升级为统一执行框架,以解决分布式数据库DDL操作的原子性、可控性和扩展性问题,并逐步完成多个SQL语句基于新执行框架的适配。详见:DDL统一执行框架和管理命令概述。 719、730 数据库锁表查询功能,在支持MySQL 5.7版本的基础上,新增支持MySQL 8.0版本的实例。详见:数据库锁表查询。 720、732 支持在监控管理页面查看DRDS实例的全局序列使用相关信息。详见:实例计算/存储节点监控。 749 支持将系统标准库迁移到DRDS实例其他关联MySQL实例的set中,以快速解绑MySQL实例,该功能租户端不可见。 755 [前端]支持在设置或修改用户密码时查看明文密码,提升产品易用性。 756、771 DRDS关联的MySQL实例后,支持同步变更MySQL的实例名称,以提高信息获取效率。详见:配置同步。 758、773 DRDS实例的分片迁移能力与DBProxy组件合并部署。在执行分片迁移任务时,仅需指定负责执行迁移的DBProxy节点即可完成任务调度与执行详见:分片迁移。
        来自:
        帮助文档
        分布式关系型数据库
        版本说明
        V5.1.9.6020.2540版本更新详情
      • RDS for MySQL-> MySQL
        本节主要介绍RDS for MySQL> MySQL 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。如果迁移不可避免业务高峰期,推荐使用迁移限速功能,即“流速模式”选择“限速”。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 由于一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考 类型名称 操作限制 (需要人为配合) 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用表、存储过程/函数/触发器引用视图/表、主外键关联表等。 不支持外键级联操作。 不支持高版本到低版本的迁移。 不支持源数据库实例主备倒换。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 在未选择任何表的情况下,无法单独迁移视图、存储过程等对象。同时目前不支持DRS自动判断依存关系,如:具有主外键关系的表,单独迁移将会失败,迁移时需要一起迁移。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 全量迁移不支持修改表结构等DDL操作。 目标数据库实例状态需为可读写状态,否则可能迁移失败。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不建议对目标数据库进行主备切换。 在迁移任务结束之前,不允许目标数据库提前中断公网连接。 迁移过程中,不允许源库写入binlog格式为statement的数据。 迁移过程中,不允许源库执行清除binlog的操作。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        出云迁移使用须知
        RDS for MySQL-> MySQL
      • 数据库实例规格
        规格 vCPU(个) 内存(GB) 支持的数据库引擎 通用增强型 2 4 MySQL PostgreSQL 通用增强型 2 8 MySQL PostgreSQL 通用增强型 2 16 MySQL PostgreSQL 通用增强型 4 8 MySQL PostgreSQL Microsoft SQL Server 通用增强型 4 16 MySQL PostgreSQL Microsoft SQL Server 通用增强型 4 32 MySQL PostgreSQL Microsoft SQL Server 通用增强型 8 16 MySQL 通用增强型 8 32 MySQL PostgreSQL Microsoft SQL Server 通用增强型 8 64 MySQL PostgreSQL Microsoft SQL Server 通用增强型 16 64 MySQL Microsoft SQL Server 通用增强II型 2 4 MySQL PostgreSQL 通用增强II型 2 8 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 2 16 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 4 8 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 4 16 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 4 32 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 8 16 MySQL PostgreSQL 通用增强II型 8 32 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 8 64 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 16 32 MySQL PostgreSQL 通用增强II型 16 64 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 16 128 MySQL PostgreSQL Microsoft SQL Server 通用增强II型 32 64 MySQL PostgreSQL 通用增强II型 32 128 MySQL PostgreSQL 通用增强II型 64 128 MySQL PostgreSQL 通用增强II型 64 256 MySQL PostgreSQL 通用增强II型 64 512 MySQL PostgreSQL
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        数据库实例规格
      • 管理报警规则
        本章节主要介绍了SQL Server管理报警功能。 添加报警规则 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【监控告警】,切换到【告警】子页面。 告警页面可以看到该实例绑定的告警规则信息,包括告警规则、沉默周期、告警级别等。 5. 单击【添加告警规则】按钮,跳转至数据库管理平台告警中心页面进行报警规则设置; 6. 单击【新建策略】按钮,可以创建告警策略,告警对象选择【实例SQL Server】; 7. 支持SQL Server所有的监控指标告警,监控指标及其说明参考【查看资源与引擎监控】。 管理报警规则 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【管理中心 > 告警中心 > 告警设置】。 3. 在【告警设置】页找到目标规则,点击【告警启停】按钮可以管理是否启用该告警,停止该告警后将不会触发报警; 4. 目标规则操作栏支持以下操作: 查看详情:查看目标规则的详细设置; 编辑:可以对目标规则设置进行修改; 删除:将目标规则删除,该操作无法恢复。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        监控告警
        管理报警规则
      • 数据恢复
        本页介绍天翼云TeleDB数据库如何进行数据恢复。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上选择备份与恢复 > 物理备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复页签。 2. 创建恢复任务 1. 单击实例恢复 ,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点,勾选可恢复时间点,单击校验,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情,出现恢复详情对话框。 2. 在恢复详情对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        数据恢复
      • 比较参数模板
        说明:本章节会介绍如何比较参数模板 操作场景 您可以比较同数据库类型的实例参数模板,以了解当前实例参数的差异项。 您也可以比较同数据库类型的默认参数模板,以了解当前参数模板的配置情况。 比较当前实例参数模板 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“实例管理”页面,单击实例名称,进入实例的“基本信息”页签。 在左侧导航栏中选择“参数修改”,在“参数”子页签中单击“比较参数”。 在弹出框中选择当前实例同数据库类型的参数模板,单击“确定”,比较两个参数的差异项。 有差异项,则会显示差异参数的如下信息:参数名称、当前实例参数模板的参数值和被比较参数模板的参数值。 无差异项,则不显示。 比较目标参数模板 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“参数模板管理”页面的“自定义”页签,选择一个用户创建的参数模板,单击“比较”。 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 有差异项,则会显示差异参数模板的如下信息:参数名称、参数值。 无差异项,则不显示。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        参数模板管理
        比较参数模板
      • 实时灾备链路规格说明
        本节介绍了实时灾备链路规格的说明。 注意事项 文中提供的性能指标仅用于提供参考的测试数据,实际环境会受源或目标数据库性能、网络带宽、数据模型、业务模型等因素影响。 规格说明 实时灾备根据链路的性能上限,定义了四种规格:极小、小、中、大,各个规格的同步性能上限如下表。 表 规格性能上限 规格名称 性能上限(行/秒)参考 极小 300 小 3000 中 7500 大 10000 说明 规格的线上运行性能受网络环境、灾备数据库和业务数据库的性能、延迟等因素影响,实际的性能值会有差异,表中性能上限值仅供参考。 DRS规格:DRS为用户提供的不同性能的链路规格,以灾备初始化(不限速)和灾备性能为衡量标准。 性能上限(行/秒):表示每秒同步的事务数,包括BEGIN、COMMIT 、DML语句(INSERT、DELETE、UPDATE)及DDL语句。 目前,DRS灾备仅支持引擎为MySQL>MySQL、MySQL>TaurusDB、TaurusDB>TaurusDB灾备任务升级实例规格,不支持降低规格, 对于支持内容对比的链路,如果创建任务时可以选择实例规格,那么仅支持大规格进行内容对比。 支持多规格链路 目前DRS实时灾备仅支持部分链路在创建的时候进行规格选择。 表 灾备支持多规格的链路 灾备方向 数据流向 规格选择 升级规格 本云为备 MySQL>MySQL 支持 支持 本云为主 MySQL>MySQL 支持 支持 本云为备 TaurusDB>TaurusDB 支持 支持 本云为主 TaurusDB>TaurusDB 支持 支持 双主灾备 MySQL>MySQL 支持 支持
        来自:
        帮助文档
        数据库复制
        产品简介
        规格说明
        实时灾备链路规格说明
      • 安装CUDA
        本文介绍如何在边缘虚拟机上安装CUDA。 CUDA为NVIDIA提供的运算平台,包含了CUDA指令集架构以及GPU内部的并行计算引擎。若想要在NVIDIA系列GPU上运行GPU加速计算任务,需要安装CUDA环境。 CUDA安装 安装前准备 步骤1、确认GPU驱动已安装。 shell nvidiasmi 步骤2、确认适配的CUDA版本。 安装步骤 步骤1、确定适配的CUDA版本,在CUDA Toolkit Archive查找适配CUDA软件包。 步骤2、点击进入,找到适配的runfile。 步骤3、执行下载命令,注意检查CUDA版本和GPU驱动版本是否一致。 shell wget 步骤4、执行安装命令。 shell wget 若已安装GPU驱动需要取消勾选Driver,若未安装GPU驱动请勾选安装。 步骤5、执行命令配置CUDA环境变量。 shell echo 'export PATH/usr/local/cuda/bin:$PATH' sudo tee /etc/profile.d/cuda.sh source /etc/profile 步骤6、检查安装是否成功。 shell nvcc V
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机安装和升级GPU驱动
        安装CUDA
      • ES集群规划、性能优化
        本章节主要介绍ElasticSearch集群规划、性能优化的最佳实践。 Elasticsearch 是一个强大的分布式搜索和分析引擎,用于存储、检索和分析大规模数据。为了获得最佳性能、稳定性和可伸缩性,以下是Elasticsearch 的一些最佳实践。 集群规划 节点数量 在构建 Elasticsearch 集群时,节点的数量和分布是关键因素。通常建议使用奇数个节点,以便更好地处理主节点选举和故障转移。考虑一个具有 3 个主节点的集群,其中 2 个节点失败,仍然可以保持功能正常。 避免单节点集群,因为这会导致单点故障。 分片和副本 分片是数据在集群中的水平划分。在创建索引时,根据数据量和查询负载选择适当的分片数量,通常不超过节点数量的两倍。然后,为了保障数据的可用性,设置足够的副本数,但不要过多,以避免资源浪费。示例如下: PUT /myindex { "settings": { "numberofshards": 5, "numberofreplicas": 1 } } 索引设计 分片和副本设置 在创建索引时,根据数据量和预期查询负载来选择合适的分片数量。 对于热门索引,可以适度增加副本数量以提高查询性能。 索引字段 合理选择字段类型,避免使用不必要的复杂类型,例如对于精确值,使用 keyword 类型,对于全文本搜索,使用 text 类型。示例如下: PUT /myindex { "mappings": {"properties": { "productname": { "type": "text" }, "category": { "type": "keyword" }, "price": { "type": "float" } } } } 关闭不需要索引的字段,以减小索引大小,提高性能。 写入操作
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        ES集群规划、性能优化
      • 数据管理操作
        本节主要介绍数据管理操作 表管理 1. 在“对象列表”下选择“表”页签。单击“新建表”,输入表名、存储引擎、字符集、校验视角、备注、高级选项等信息。 2. 确认无误后,单击“下一步”。添加表的字段信息。 3. 确认无误后,依次单击“下一步”,添加虚拟列、索引和外键。 4. 确认无误后,单击“立即创建”并在SQL预览窗口再次确认,有误请单击“返回修改”,无误请单击“执行脚本”即可建表成功。 视图管理 1. 在“对象列表”下选择“视图”页签。单击“新建视图”,输入视图名称、安全性、定义者、检查选项、算法和“视图定义”等信息。 2. 确认无误后,单击“立即创建”并在“请确认视图定义脚本”窗口再次确认,有误请单击“返回修改”,无误请单击“执行脚本”即可创建成功。 存储过程管理 1. 在“对象列表”下选择“存储过程”页签。单击“新建存储过程”,输入存储过程名称和描述信息。 2. 确认无误后,单击“确定”。页面跳转到“新建存储过程”的SQL预览页面。 3. 在SQL预览页面中单击“选项”,对存储过程的SQL Security、确定性、数据访问等进行配置。 4. 确认无误后,单击“保存”。单击取消,再跳转至预览窗口修改。 5. 确认无误后,单击“执行”即可创建成功。 事件管理 1. 在“对象列表”下选择“事件”页签。单击“新建事件”,输入事件名称、状态、备注、执行时间定义、事件定义语句等信息。 2. 确认无误后,单击“立即创建”并在“请确认事件定义脚本”窗口再次确认,有误请单击“返回修改”,无误请单击“执行脚本”即可创建成功。
        来自:
        帮助文档
        数据管理服务
        快速入门
        数据管理操作
      • 功能特性
        本文为您介绍资源编排ROS的功能特性。 统一管理资源 通过统一的管理平面,可实现对分布在不同地域资源池中的各类云资源进行全局掌控,实现单一控制台完成状态监控与配置调整,打破资源孤岛,实现跨池资源的统一调度与协同管理,大幅简化复杂多云环境下的运维复杂度。 模板管理 提供灵活且强大的模板定义能力,支持通过声明式语法对云资源的类型、规格、配置参数及关联关系进行精确描述,同时允许用户自定义模板以适配个性化需求。 针对模板全生命周期,提供完善的版本控制机制,可追溯每一次模板修改记录,确保不同团队、不同环境使用的模板版本一致,避免因模板差异导致的资源配置偏差。 自动化管理资源生命周期 以资源栈为管理单元,将一组关联资源视为整体进行全生命周期的自动化管理。流程中嵌入预览执行计划、询价与配额校验环节,通过预览执行计划明确资源的变更,通过询价明确资源组合的成本预估,再校验对应资源的配额是否充足,可实现资源栈生命周期全程自动化:创建、更新、删除、回滚等操作。 智能编排资源、处理资源依赖 通过内置的依赖分析引擎,能够自动识别模板中各资源(如 “云主机依赖于虚拟私有云”“数据库依赖于安全组”)的层级关系与关联规则,生成最优部署拓扑与执行顺序。同时,通过分布式锁与状态同步机制,确保多节点并行部署时的数据一致性。
        来自:
        帮助文档
        资源编排ROS
        产品介绍
        功能特性
      • 物理备份与恢复
        本页介绍天翼云TeleDB数据库的物理备份与恢复相关操作。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作 。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树上选择备份与恢复 > 物理备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复 页签。 2. 创建恢复任务 1. 单击实例恢复,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点,勾选可恢复时间点,单击校验,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情,出现恢复详情对话框。 2. 在恢复详情对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        备份与恢复
        物理备份与恢复
      • 使用Elasticsearch客户端导入数据至Elasticsearch实例
        本文为您介绍使用Elasticsearch客户端导入数据至天翼云云搜索服务Elasticsearch实例的方法。 Elasticsearch提供官方的客户端库,支持多种编程语言,如 Java、Python、JavaScript 等。 适用场景 编程场景:当你有自定义应用程序,需要通过代码直接与Elasticsearch交互时,Elasticsearch客户端提供了灵活的API进行复杂查询和批量导入数据。 批量数据导入:通过客户端库可以实现大规模数据的分块导入,并发写入,适用于处理大数据量的场景。 动态数据处理:如果数据在导入前需要复杂的逻辑处理,可以通过编程语言和客户端实现定制的数据流。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 能够通过HTTP访问Elasticsearch实例。 客户端使用实例 这里以Python和Java客户端为例。 1. 使用Python客户端 (elasticsearchpy),Python客户端elasticsearchpy是一个与Elasticsearch交互的轻量级库。使用它,你可以通过index方法将数据导入到指定索引中。 from elasticsearch import Elasticsearch 创建Elasticsearch客户端 es Elasticsearch(" 要导入的数据 data { "title": "Elasticsearch入门", "content": "Elasticsearch是一款分布式搜索引擎...", "date": "20240823" } 将数据导入到名为 "articles" 的索引 response es.index(index"articles", documentdata) print(response) 2. 使用Java客户端,Java是Elasticsearch的主要编程语言之一,其官方客户端提供了丰富的功能。以下示例展示了如何使用 Java 客户端导入数据: import org.elasticsearch.client.RestClient; import org.elasticsearch.client.RestHighLevelClient; import org.elasticsearch.client.RequestOptions; import org.elasticsearch.action.index.IndexRequest; import org.elasticsearch.action.index.IndexResponse; import org.elasticsearch.common.xcontent.XContentType; public class DataImporter { public static void main(String[] args) throws Exception { RestHighLevelClient client new RestHighLevelClient( RestClient.builder(new HttpHost("ip", 9200, "http")) ); String jsonString "{" + ""title":"Elasticsearch入门"," + ""content":"Elasticsearch是一款分布式搜索引擎..."," + ""date":"20240823"" + "}"; IndexRequest request new IndexRequest("articles"); request.source(jsonString, XContentType.JSON); IndexResponse response client.index(request, RequestOptions.DEFAULT); System.out.println(response.getId()); client.close(); } }
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用Elasticsearch客户端导入数据至Elasticsearch实例
      • 恢复实例到指定时间点
        本节介绍了如何恢复云数据库GaussDB 实例到指定时间点。 操作场景 云数据库GaussDB 支持使用已有的自动备份,恢复实例数据到指定时间点。 注意事项 恢复到任意时间点仅支持2.1版本以上实例。 节点扩容,版本升级,恢复自身期间,对应时间点无法恢复。 实例故障,发生CN剔除等场景无法产生归档日志,对应时间点无法恢复。 如果您要将数据库备份恢复到新实例: − 数据库引擎、数据库大版本,与原实例相同,不可修改。 − 数据库密码需重新设置。 恢复到当前实例会将当前实例上的数据全部覆盖,并且恢复过程中数据库不可用,且立即停止归档。恢复完成后会出现数据确认按钮,在单击数据确认前,可多次进行恢复。数据确认后会删除本次恢复时间点后的归档日志,并重新开启日志归档。 删除实例会默认删除所有归档日志,不支持选择保留。重建后不支持恢复任意时间点。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 3 在左侧导航栏中选择“备份恢复”页签,单击“恢复到指定时间点”。 步骤 4 单击“确定”,恢复实例。 说明 如果打开并行恢复功能,那么恢复过程中,所有主、备副本会同时从OBS服务器下载备份数据,与默认的串行恢复相比,OBS带宽消耗量增加到N倍(N等于每个分片的副本个数)。因此,为了防止OBS带宽达到上限导致恢复速度反而下降的情况,当待恢复集群的分片个数大于5个时,建议先咨询运维当前OBS服务器空闲带宽,然后再决定是否开启并行恢复功能。 数据库内核版本小于1.4时,不支持开启并行恢复。 恢复到新实例: − 数据库大版本与原实例相同。例如:1.4.x的实例仅可以恢复到1.4.y版本的实例。 − 存储空间大小默认和备份时实例磁盘空间相同,且必须大于或等于备份时实例存储空间大小。 − 数据库密码需重新设置。 − 新实例的规格默认和原实例相同,如果需要修改规格,新实例的规格必须大于或等于原实例的规格。 − 新实例的节点配置需要与备份时保持一致。 步骤 5 查看恢复结果。 恢复到新实例 为用户重新创建一个和该备份数据相同的实例。可看到实例由“创建中”变为“正常”,说明恢复成功。 恢复成功的新实例是一个独立的实例,与原有实例没有关联。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        数据恢复
        恢复实例到指定时间点
      • 数据加工
        本节主要介绍数据加工 数据复制服务支持对同步的对象进行加工,即可以为选择的对象添加规则。各链路支持的加工规则不一样,具体操作方法可参考对应的内容。 添加附加列 步骤 1 在“数据加工”页面选择“附加列”,对于需要加工的表对象,单击“操作”列的添加。 步骤 2 在弹出的“添加”对话框中,填选列名、操作类型、字段类型等信息,选择的操作类型不同,需要填写的信息也不同。完成后单击“确定”。 说明 多对一映射场景下,需要使用数据加工的附加列操作来避免数据冲突。 支持的操作类型有以下几种 “默认值”:使用输入的默认值填充新加的列。 “以createtime为列”和“以updatetime为列”操作会分别使用数据产生时间和修改时间填充新加的列。 “表达式”:需手动输入的表达式,使用表达式填充新加的列。 “以serverName@database@table为列”:使用@符号分别拼接serverName、源库的库名、表名填充新加的列,其中serverName为手动输入。 “填充值”:选择填充值为新加的列,比如同步时间戳。 支持“批量设置”,将第一个可编辑表的附加列信息应用到此任务中所有可编辑的表。 MySQL>GaussDB(for MySQL)主备版同步,单表的列数超过500时, 对该表添加附加列可能会超过列数上限,会导致任务失败 步骤 3 检查无误后,单击“下一步”,进入下一步操作。 数据过滤 数据过滤规则添加后,在源库执行更新操作的处理原则,以数据一致为首要目标。即: 更新前不符合过滤条件,更新后符合。继续同步,在目标库执行相同的更新操作,如果匹配不到数据,则会忽略,会导致数据不一致。 更新前符合过滤条件,更新后不符合。继续同步,在目标库执行相同的更新操作。 步骤 1 在“数据加工”页面选择“数据过滤”。 步骤 2 在“对象选择”区域选择需要加工的表对象。 步骤 3 在过滤条件区域,填写过滤条件(只需填写SQL语句的WHERE之后部分,例如id1)后,单击“校验”。 说明 每张表仅支持添加一个校验规则。 数据过滤每次最多支持500张表。 过滤表达式不支持使用某种数据库引擎特有的package、函数、变量、常量等写法,须使用通用SQL标准。请直接输入SQL语句中WHERE之后的部分(不包含WHERE和分号,例如:sid 3 and sname like "G %"),最多支持输入512个字符。 不支持对LOB字段设置过滤条件,如CLOB、BLOB、BYTEA等大字段类型。 建议不要对非精确类型字段设置过滤条件,如FLOAT、DECIMAL、DOUBLE等。 建议不要对带有特殊字符的字段设置过滤条件。 不建议使用非幂等表达式或函数作为数据加工条件,如SYSTIMESTAMP,SYSDATE等,因其每次调用返回的结果可能会有差异,导致达不到预期。 步骤 4 校验通过后,单击“生成加工规则”,即可在加工规则表格中看到该规则。 步骤 5 检查无误后,单击“下一步”,进入下一步操作。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        对象管理
        数据加工
      • 本地存储概述
        本节介绍了用户指南: 本地存储概述。 云容器引擎支持使用本地存储卷。当前cstorcsi插件支持通过LVM和LocalPV的方式动态使用容器集群节点上的硬盘或者文件系统。 功能介绍 本地存储卷包含以下几种方式,可以根据业务需求及存储特点进行选择。 类型 存储卷类型 能力供应 特点 LocalPV 动态存储卷 cstorcsi插件 使用节点上已有数据目录,动态创建子路径绑定到PV上,供业务使用。 LocalPV 静态存储卷 Kubernetes原生 通过手动创建PV,指定节点亲和性及本地存储设备的方式使用本地存储。pod无需手动调度指定的节点。 HostPath Kubernetes原生 将主机节点文件系统上指定文件或目录挂载到 Pod 中。 LVM 动态存储卷 cstorcsi插件 基于节点上的数据盘,虚拟化成一个小型存储池,当需要特定份额的存储时,从中划分出对应份额的磁盘跟用户容器使用。 约束与限制 cstorcsi插件本地存储功能需要插件版本>3.3.3; 请勿在节点上手动删除存储池或卸载数据盘,否则会导致数据丢失等异常情况; 请勿对本地存储资源自行执行增删改等操作,否则会导致PVC不可用或者无法达到使用预期。 本地存储资源包括存储池管理的VG,PV,LV,或者基于硬盘构建的文件系统;或者自行申领的文件系统等; 重置或缩容节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用; 本地存储并非高可用存储卷,只适用于一些临时数据的保存及应用自带高可用的场景; LVM本地存储卷,不支持数据的跨节点迁移,不适合在高可用场景中使用。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        本地存储
        本地存储概述
      • 集群备份
        本节介绍了集群备份的用户指南。 执行备份 集群备份可对集群中的资源进行备份,备份粒度可是集群中所有资源,也可以加入一定筛选条件缩小备份的范围,如根据资源的命名空间及资源自身的类型来筛选。 在云容器引擎控制台菜单中按照以下路径进入界面【集群】{选定的集群}【备份】 【集群备份】,点击【创建备份】,在弹出框中配置备份任务的信息,录入信息后点击【创建】 名称 说明 名称 必填,备份任务的名称,名称限制为由小写字母开头,只允许小写字母,数字和‘’组成,且备份任务是当前集群中唯一 命名空间 非必填,选择备份资源的命名空间,可多选 资源 非必填,选择所备份资源的类型,可多选,也可以手动输入 持久卷 选择是否备份pod所使用的持久卷,备份内容中有pod资源,此项才生效。不能备份临时卷及hostPath 在备份列表中即可查看备份任务的执行状态,及备份完成后备份包的大小。 备份列表的操作列还包含以下三个操作: 还原:把当前备份包还原到当前集群中; 下载:下载当前备份任务的备份包; 删除:删除当前备份任务。 查看备份详情 在备份任务列表中,点击备份名称,进入备份详情页面。 在备份详情页面中,同样可以对当前备份任务执行还原、下载备份包和删除操作: 备份页面展示了当前备份任务的任务名称、备份时筛选的资源类型、是否包含持久卷、备份任务创建时间、备份包的大小和备份任务的状态这些这些信息。 此外如果曾经以当前备份任务的备份包执行了还原,还原记录会展示在界面下方的“相关还原记录”中。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群备份
        集群备份
      • 创建普通任务(Job)
        本节介绍了创建普通任务(Job)的用户指南。 基本概念 普通任务:即kubernetes中的“Job”,普通任务是一次性运行的短任务,部署完成后即可执行。使用场景为在创建工作负载前,执行普通任务,将镜像上传至镜像仓库。 操作场景 普通任务是一次性运行的短任务,部署完成后即可执行。正常退出(exit 0)后,任务即执行完成。 普通任务是用来控制批处理型任务的资源对象。批处理业务与长期伺服业务(Deployment、Statefulset)的主要区别是: 批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出了。成功完成的标志根据不同的spec.completions策略而不同,即: 单Pod型任务有一个Pod成功就标志完成。 定数成功型任务保证有N个任务全部成功。 工作队列型任务根据应用确认的全局成功而标志成功 前提条件 在创建任务前,您需要存在一个可用集群。若没有可用集群,请参照集群开通中内容创建。 操作步骤及说明 步骤 1 登录云容器引擎控制台。 步骤 2 单击集群名称进入集群,在左侧选择“工作负载”,选择“任务”,在右上角单击“创建任务”。 步骤 3 配置工作负载的信息。 基本信息 负载类型:选择普通任务Job。工作负载类型的介绍请参见工作负载概述。 负载名称:输入负载的名称,名称长度为1到63个字符,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 命名空间:选择工作负载的命名空间,默认为当前进入的命名空间。您可以单击后面的“创建命名空间”,命名空间的详细介绍请参见创建命名空间。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        创建普通任务(Job)
      • Kubernetes 1.31版本说明
        本文介绍了:云容器引擎发布Kubernetes 1.31版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.31 版本Changelog 1. StatefulSet 起始序号(GA),允许用户自定义 Pod 的起始序号(默认从 0 开始),例如设置为 100,适用于需要固定编号或特定顺序的应用场景(如分布式数据库)。 2. 弹性索引 Job(GA),支持在索引 Job 创建后动态调整 .spec.completions 和 .spec.parallelism 字段,实现任务弹性伸缩,无需重新创建 Job。 3. Pod 失效策略(GA),可根据 Pod 失效原因(如被抢占、节点删除、kubelet 终止等)分别配置处理逻辑(重试或忽略),避免不必要的 Pod 重启,降低运行成本。 4. Pod 干扰状况(GA),在 Pod 的 Condition 中新增 DisruptionTarget 类型,明确标记 Pod 失效原因(如被高优先级 Pod 抢占),结合 Job 的失效策略实现更精细的任务管理。 5. Job成功策略(Beta),JobSuccessPolicy特性进阶至Beta。该特性允许用户基于成功的Pod个数为Job配置成功策略。 6. 持久卷回收策略(Beta),确保 PV 的回收策略(如 Delete)在 PVC 删除后仍被强制执行,通过添加 Finalizer 防止存储资源泄漏,即使 PV 和 PVC 的删除顺序混乱也能保证一致性。 7. ServiceAccountTokenNodeBinding(Beta),创建绑定到特定节点的 Token,包含节点信息声明,并在 Token 使用时验证节点存在性。若节点被删除,Token 自动失效,降低凭证泄露风险。 8. 容器重启优化,当 Pod 配置变更但镜像未更新时,kubelet 不再强制重启容器,避免因非关键配置更新导致的不必要中断。 9. OCI 镜像卷(Alpha),允许将 OCI 镜像直接挂载为卷,简化 AI/ML 工作负载中模型和数据的访问,例如通过更换镜像快速更新模型权重。 更多信息请参考:Kubernetes 1.31 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        Kubernetes 1.31版本说明
      • 数据迁移
        使用mysqldump迁移MySQL数据 说明:本章节会介绍如何使用mysqldump迁移MySQL数据库数据 迁移准备 关系型数据库服务支持开启公网访问功能,通过弹性公网IP进行访问。您也可通过弹性云服务器的内网访问关系型数据库。 1、准备弹性云服务器或可通过公网访问关系型数据库。 通过弹性云服务器连接关系型数据库实例,需要创建一台弹性云服务器。通过公网地址连接关系型数据库实例,需具备以下条件: (1)先对关系型数据库实例绑定公网地址。 (2)保证本地设备可以访问关系型数据库实例绑定的公网地址。 2、在准备的弹性云服务器或可访问关系型数据库的设备上,安装MySQL客户端。 该弹性云服务器或可访问关系型数据库的设备需要安装和RDS MySQL数据库服务端相同版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到关系型数据库,需要先对其进行导出。 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 登录已准备的弹性云服务器,或可访问关系型数据库的设备。 使用mysqldump将元数据导出至SQL文件。 MySQL数据库是关系型数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.168.151.18 P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdefs.sql”文件,如下: [rds@localhost ~]$ ll dumpdefs.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdefs.sql 使用mysqldump将数据导出至SQL文件。 MySQL数据库是关系型数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.168.151.18 P 8635 r dumpdata.sql 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdata.sql”文件,如下: [rds@localhost ~]$ ll dumpdata.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdata.sql 导入数据 通过弹性云服务器或可访问关系型数据库的设备,用相应客户端连接关系型数据库实例,将导出的SQL文件导入到关系型数据库。 如果源数据库中包含触发器、存储过程、函数或事件调用,则需确保导入前设置目标数据库参数logbintrustfunctioncreatorsON。 导入元数据到关系型数据库。 先用mysql工具连接关系型数据库实例,输入密码后,执行导入命令。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        数据迁移
      • 配置隐私屏蔽规则
        您可以通过Web应用防火墙服务配置隐私屏蔽规则。隐私信息屏蔽,避免用户的密码等信息出现在事件日志中。 前提条件 已添加防护网站。 约束条件 添加或修改防护规则后,规则生效需要几分钟。规则生效后,您可以在“防护事件”页面查看防护效果。 系统影响 配置隐私屏蔽规则后,防护事件中将屏蔽敏感数据,防止用户隐私泄露。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台右上角的,选择区域或项目。 步骤3 单击页面左上方的,选择“安全 > Web应用防火墙(独享版)”。 步骤4 在左侧导航树中,选择“防护策略”,进入“防护策略”页面。 步骤5 单击目标策略名称,进入目标策略的防护配置页面。 步骤6 在“隐私屏蔽”配置框中,用户可根据自己的需要更改“状态”,单击“自定义隐私屏蔽规则”,进入隐私屏蔽规则配置页面。 步骤7 在“隐私屏蔽”规则配置页面左上角,单击“添加规则”。 步骤8 添加隐私屏蔽规则,根据表配置参数。 添加隐私屏蔽规则参数说明: 参数 参数说明 取值样例 ::: 路径 完整的URL链接,不包含域名。 前缀匹配:以结尾代表以该路径为前缀。例如,需要防护的路径为“/admin/test.php”或 “/adminabc”,则路径可以填写为“/admin ”。 精准匹配:需要防护的路径需要与此处填写的路径完全相等。例如,需要防护的路径为“/admin”,该规则必须填写为“/admin”。 说明 该路径不支持正则,仅支持前缀匹配和精准匹配的逻辑。 路径里不能含有连续的多条斜线的配置,如“///admin”,访问时,引擎会将“///”转为“/”。 /admin/login.php 例如:需要防护的URL为“ 屏蔽字段 设置为屏蔽的字段。 Params:请求参数。 Cookie:根据Cookie区分的Web访问者。 Header:自定义HTTP首部。 Form:表单参数。 “屏蔽字段”为“Params”时,屏蔽字段名请根据实际使用需求设置,如果设置为“id”,设置后,与“id”匹配的内容将被屏蔽。 屏蔽字段”为“Cookie”时,屏蔽字段名请根据实际使用需求设置,如果设置为“name”,设置后,与“name”匹配的内容将被屏蔽。 屏蔽字段名 根据“屏蔽字段”设置字段名,被屏蔽的字段将不会出现在日志中。 说明 子字段的长度不能超过2048字节,且只能由数字、字母、下划线和中划线组成。 “屏蔽字段”为“Params”时,屏蔽字段名请根据实际使用需求设置,如果设置为“id”,设置后,与“id”匹配的内容将被屏蔽。 屏蔽字段”为“Cookie”时,屏蔽字段名请根据实际使用需求设置,如果设置为“name”,设置后,与“name”匹配的内容将被屏蔽。 规则描述 可选参数,设置该规则的备注信息。 步骤9 单击“确认添加”,添加的隐私屏蔽规则展示在隐私屏蔽规则列表中。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        配置防护策略
        配置隐私屏蔽规则
      • Logstash对接Kafka
        介绍Logstash对接Kafka具体内容。 应用场景 通过Logstash对接Kafka,可以实现以下功能: 1. 数据收集:Logstash可以从Kafka主题中消费数据,将数据从Kafka集群中获取到Logstash中进行处理和转发。这样可以方便地将分布式系统、应用程序、传感器数据等各种数据源的数据集中收集起来。 2. 数据处理和转换:Logstash提供了丰富的过滤器插件,可以对从Kafka中消费的数据进行各种处理和转换操作。例如,可以进行数据清洗、解析、分割、合并、字段映射等操作,以满足不同数据源和目标的数据格式要求。 3. 数据传输和转发:Logstash可以将处理后的数据发送到不同的目标位置,如Elasticsearch、MySQL、文件系统、消息队列等。通过配置适当的输出插件,可以将数据传输到目标系统,以便后续的数据分析、存储、可视化等操作。 4. 实时数据处理:Logstash与Kafka结合使用,可以实现实时的数据处理和传输。Kafka作为高吞吐量的消息队列,可以确保数据的高效传输和缓冲。而Logstash作为数据处理引擎,可以对从Kafka中消费的数据进行实时处理,满足实时数据分析和监控的需求。 5. 分布式部署和负载均衡:Logstash支持分布式部署,可以通过配置多个Logstash节点来实现高可用性和负载均衡。多个Logstash节点可以同时从Kafka主题中消费数据,并进行并行处理和转发,以提高整体系统的性能和吞吐量。 总之,通过Logstash对接Kafka,可以实现灵活、可扩展和高效的数据处理和传输。Logstash提供了丰富的插件和配置选项,可以根据实际需求进行定制化的数据处理流程。同时,Logstash还具有良好的可扩展性和可靠性,适用于各种规模和类型的数据处理场景。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Logstash对接Kafka
      • 1
      • ...
      • 56
      • 57
      • 58
      • 59
      • 60
      • ...
      • 498
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      轻量型云主机

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      科研助手

      一站式智算服务平台

      驾驶证识别

      推荐文档

      消费者(Push)

      新手有礼

      产品购买

      消息者消费者

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      价格

      产品优势

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号