云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 鲲鹏通用计算增强型
        应用场景 鲲鹏通用计算增强型弹性云主机适用于对自主研发、安全隐私要求较高的政企金融场景,对网络性能要求较高的互联网场景,对核数要求较多的大数据、HPC场景,对成本比较敏感的建站、电商等场景。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(鲲鹏)
        鲲鹏通用计算增强型
      • 操作指导
        本节介绍云等保专区产品的主机安全。 主机安全v1.0(简称“EDR”)是一款集成了丰富的系统防护与加固、网络防护与加固等功能的主机安全产品。EDR通过自主研发的文件诱饵引擎,有着业界领先的勒索专防专杀能力;能通过内核级东西向流量隔离技术,实现网络隔离与防护;并拥有补丁修复、外设管控、文件审计、违规外联检测与阻断等主机安全能力。 功能介绍 EDR具有以下功能模块: 防御已知和未知类型勒索病毒 EDR不仅可以阻止已知勒索病毒的执行,而且面对传统杀毒软件束手无策的未知类型勒索病毒时,EDR采用诱饵引擎,在未知类型勒索病毒试图加密时发现并阻断加密行为,有效守护主机安全。 防御高级威胁全流程攻击 EDR根据ATT&CK理论,对攻防对抗的各个阶段进行防护,包括单机扩展、隧道搭建、内网探测、远控持久化、痕迹清除。不仅可以做到威胁攻击审计,而且还可以防止黑客进行渗透攻击,实现攻防对抗360度防御。 管控全局终端安全态势 服务器、PC和虚拟机等终端安装了客户端软件后,上传资产指纹、病毒木马、高危漏洞、违规外联、安全配置等威胁信息到管理控制中心。用户在管理控制中心可以看到所有安装了客户端软件的主机及安全态势,并进行统一任务下发,策略配置。 全方位的主机防护体系 EDR不仅包含传统杀毒软件的病毒查杀、漏洞管理、性能监控功能,在系统防护方面还可做到主动防御、系统登录防护、系统进程防护、文件监控,还支持网络防护、Web应用防护、勒索挖矿防御、外设管理等多个功能点。 流量可视化,安全可见 EDR通过流量画像的流量全景图,展示内网所有流量和主机间通信关系,梳理通信逻辑,以全局视角对策略进行规划,便于用户第一时间发现威胁,一键清除威胁。 简单配置,离线升级,补丁管理 EDR支持用户自主进行安全配置,能够明确、有效的进行主机防护。主程序、病毒库、漏洞库、补丁库、Web后门库、违规外联黑名单库全部支持离线导入升级包、一键自动升级,可在专网使用。
        来自:
        帮助文档
        云等保专区
        用户指南
        主机安全
        主机安全v1.0
        操作指导
      • 产品定义
        本页介绍了文档数据库服务的产品定义。 文档数据库服务(Document Database Service,后文简称:CTDDS、DDS)是一款基于云计算平台的在线非关系型数据库服务,具有即开即用、稳定可靠、安全运行、弹性伸缩等特点。其完全兼容MongoDB协议,在容灾、备份、恢复、监控、告警等方面提供全套数据库解决方案。可降低管理维护成本,使用户能专注于应用开发和业务发展。文档数据库服务有如下基础特性: 文档数据库服务是一种非关系型数据库,它采用文档型的方式来存储数据,每个文档都是一个JSON格式的数据结构,可以包含任意数量和类型的字段。这种方式比传统的关系型数据库更加灵活,可以适应不同类型和规模的数据。 提供高可用性、高性能和可扩展性,支持从单节点部署到分布式集群的不同场景。它采用了分布式的数据存储和查询方式,可以水平扩展集群规模,提高系统的负载能力和容错性。同时,文档数据库服务还支持数据复制和故障恢复,确保数据的可靠性和持久性。 在查询方面提供了多种方式,包括基本的CRUD操作、聚合框架、文本搜索、地理空间查询等。这些功能可以满足各种不同的查询需求,使得文档数据库服务在数据分析和处理领域得到广泛应用。 文档数据库服务提供多项性能监控指标及告警功能,以及数据库性能可视化管理。 文档数据库服务支持灵活的部署架构,提供单节点、副本集(支持三节点、五节点、七节点共三种副本集类型)、分片集群三种实例类型,副本集实例类型还提供只读从节点的扩展服务,能够满足不同的业务场景。 单节点实例:单节点适用于开发、测试及其他非企业核心数据存储的场景。 副本集实例:副本集的高可用架构,提供了数据冗余与高可靠性的节点集合。副本集之间数据自动同步,保证数据的高可靠性。并支持自动容灾切换。 集群实例:分片集群架构,提供了副本集具备的数据冗余与高可靠的特性,同时拥有数据分片存储与处理能力,轻松适用于高并发场景。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        产品定义
      • 步骤六:部署应用(CCE篇)
        本章主要介绍 步骤六:部署应用(CCE篇) 部署服务提供可视化、自动化部署服务。提供丰富的部署步骤,有助于用户制定标准的部署流程,降低部署成本,提升发布效率。 为了可以更快的、更稳定的持续地交付软件,开发团队需要一部分自助化部署服务的能力,以减轻部分后续维护工作。 本章节介绍开发人员Chris如何将发布件部署至云容器引擎。若您需要了解如何署至ECS,请参照步骤六:部署应用(ECS篇)操作。 预置应用简介 样例项目中预置了如下表所示的3个应用,本章节以应用“phoenixcdcce”为例进行讲解。 预置应用 预置应用 应用说明 phoenixsamplestandalone 部署至ECS流程对应的应用。 phoenixcdcce 部署至CCE流程对应的应用。 phoenixsampletest 部署至测试环境对应的应用。 购买并配置云容器引擎 本文档中使用的是云容器引擎CCE。 步骤 1 登录云容器引擎服务器,购买CCE集群。 其中集群及节点的必要配置建议参照下表,表中未涉及的可根据实际情况选择。 CCE集群购买配置 配置分类 配置项 配置建议 ::: 基础配置 计费模式 选择“按需计费”。 基础配置 集群版本 根据需要选择,建议选择最新版本。 网络配置 网络模型 选择“容器隧道网络”。 网络配置 虚拟私有云 选择已有的虚拟私有云,若列表中没有合适的选项,单击“创建虚拟私有云”完成创建。 网络配置 控制节点子网 选择已有的子网,若列表中合适的选项,单击“创建子网”完成创建。 网络配置 容器网段 勾选“自动设置网段”。 节点配置 配置分类 配置项 配置建议 ::: 计算配置 计费模式 选择“按需计费”。 计算配置 节点类型 选择“弹性云服务器虚拟机”。 计算配置 节点规格 选择“通用型”、2核8G及以上规格即可。 计算配置 容器引擎 选择“Docker”。 计算配置 操作系统 选择公共镜像中的Euler镜像。 计算配置 节点名称 输入自定义名称 。 计算配置 登录方式 选择“密码”。 计算配置 密码 输入自定义密码 。 网络配置 节点IP 选择“随机分配”。 网络配置 弹性公网IP 选择“自动创建”。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤六:部署应用(CCE篇)
      • 结构化方式
        JSON JSON是通过提取JSON字段将其拆分为键值对。 1. 选择示例日志:应选择一条比较典型的日志作为示例日志。在“步骤1 选择示例日志”中,可单击“从已有日志中选择”,在弹出框中根据业务需求选择待操作的日志,也可以直接在输入框中输入待操作的日志,单击“确定”。通过选择不同时间段筛选日志。 > > 说明 > 时间范围有三种方式,分别是相对时间、整点时间和自定义。您可以根据自己的实际需求,选择时间范围。 > > 1. 相对时间:表示查询距离当前时间1分钟、5分钟、15分钟等时间区间的日志数据。例如当前时间为19:20:31,设置相对时间1小时,表示查询18:20:31~19:20:31的日志数据。 > > > > > 2. 整点时间:表示查询最近整点1分钟、15分钟等时间区间的日志数据。例如当前时间为19:20:31,设置整点时间1小时,表示查询18:00:00~19:00:00的日志数据。 > > > > 3. 自定义:表示查询指定时间范围的日志数据 > > > > > > > > 2. 字段提取。可将输入或选择的日志自动提取为以一个示例字段对应一个字段名称的格式的日志解析结果。 在“步骤2 字段提取”下单击“智能提取”。以如下原始日志为例进行分析: 将以下原始日志输入待操作框中。 {"a1": "a1", "b1": "b1", "c1": "c1", "d1": "d1"} 说明 1. 当日志提取字段的类型为float时,精度为16位有效数字。如果超过16位有效数字,则会导致提取字段内容不准确,从而影响可视化查看和快速分析,因此建议将字段类型修改为String。 2. 当日志提取字段的类型为long时,日志内容超过16位有效数字,只会精确显示前16位有效数字,后面的数字会变为0。 3. 当日志提取字段的类型为long时,日志内容超过21位有效数字,则会识别为float类型,建议将字段类型修改为String。 在字段提取完成后,可对日志模板进行设置。结构化字段设置规则请参考设置结构化字段。 3. 单击“保存”,完成日志结构化配置,初次设置完成后将不能对字段类型编辑修改。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志搜索与分析
        云端结构化解析
        结构化方式
      • 对象存储 ZOS
        对象存储(CTZOS,Zettabyte Object Storage)是天翼云为客户提供的一种海量、弹性、高可靠、高性价比的存储产品,是专门针对云计算、大数据和非结构化数据的海量存储形态,通过S3协议和标准的服务接口,提供非结构化数据(图片、音视频、文本等格式文件)的无限存储服务。
        来自:
        帮助文档
        对象存储 ZOS
      • IAM权限管理
        IAM策略 在向用户组授权时,您需要选择授权策略。授权策略有两种:系统策略和自定义策略。 IAM为各云服务预置了系统策略,方便您快速完成基础权限配置。ZOS为您预置了zos admin和zos viewer两个系统策略。其中,zos admin拥有对ZOS资源的完全控制权限,zos viewer拥有对ZOS资源的GET和LIST类权限。 如果系统预置的系统权限不满足您的授权要求,您还可以创建自定义策略。 目前支持以下两种方式创建自定义策略: 可视化视图:无需了解策略语法,按可视化视图导航栏选择云服务、操作、资源等策略内容,可自动生成策略。 JSON视图:可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。 为帮助您创建自定义策略,下面将介绍IAM策略语法、ZOS授权项(Action)和资源(Resource)。 策略语法 策略结构:包括Version(策略版本号)和Statement(策略权限语句)两部分,其中Statement可以有多个,表示不同的授权项。 策略参数:包含Version和Statement两部分。Statement(策略权限语句)中包含授权效果(Effect)、授权项(Action)、资源(Resource)等信息。 关于策略结构和参数的详细介绍,请参考IAM关于策略语法的介绍。 授权项(Action) Action分为Service级别、Bucket级别以及Object级别。 Service级别 权限 S3 API Action ::: 列举全部桶 ListBuckets zos:AllMyBuckets:List 创建桶 CreateBucket zos:Bucket:Create 获取AK/SK 无 zos:Keys:Get 资源包管理 无 zos:ResourceBundles:Get 查看接入管理(VPC) 无 zos:VPC:Get 设置接入管理(VPC) 无 zos:VPC:Put 用户数据统计 无 zos:UserUsage:Get 获取桶数据统计 无 zos:BucketUsage:Get 查询Endpoint 无 zos:Endpoint:Get 查询桶的自定义域名 无 zos:BucketDomain:Get 设置桶的自定义域名 无 zos:BucketDomain:Put 获取桶位置 无 zos:BucketLocation:Get 设置桶配额 无 zos:BucketQuota:Put 设置访问控制 无 zos:AccessControl:Put Bucket级别 权限 S3 API Action ::: 查询桶详情 无 zos:BucketInfo:Get 删除桶 DeleteBucket zos:Bucket:Delete 删除桶策略 DeleteBucketPolicy zos:BucketPolicy:Delete 删除桶静态网站托管配置 DeleteBucketWebsite zos:BucketWebsite:Delete 删除桶跨域复制规则 DeleteReplicationConfiguration zos:ReplicationConfiguration:Delete 获取桶ACL GetBucketAcl zos:BucketAcl:Get 获取桶CORS配置 GetBucketCORS zos:BucketCORS:Get 获取桶加密配置 GetBucketEncryption zos:BucketEncryption:Get 获取桶日志记录 GetBucketLogging zos:BucketLogging:Get 获取桶事件通知配置 GetBucketNotification zos:BucketNotification:Get 获取桶合规保留策略 GetBucketObjectLockConfiguration zos:BucketObjectLockConfiguration:Get 获取桶策略 GetBucketPolicy zos:BucketPolicy:Get 获取桶标签 GetBucketTagging zos:BucketTagging:Get 获取桶版本状态 GetBucketVersioning zos:BucketVersioning:Get 获取桶静态网站托管配置/数据回源 GetBucketWebsite zos:BucketWebsite:Get 获取桶请求者付费配置 GetBucketRequestPayment zos:BucketRequestPayment:Get 获取桶清单配置 GetInventoryConfiguration zos:InventoryConfiguration:Get 获取桶生命周期规则 GetLifecycleConfiguration zos:LifecycleConfiguration:Get 获取桶跨域复制规则 GetReplicationConfiguration zos:ReplicationConfiguration:Get 获取桶的访问追踪状态 GetBucketAccessMonitor zos:BucketAccessMonitor:Get 设置桶ACL PutBucketAcl zos:BucketAcl:Put 设置桶CORS配置 PutBucketCORS zos:BucketCORS:Put 设置桶加密配置 PutBucketEncryption zos:BucketEncryption:Put 设置桶日志记录 PutBucketLogging zos:BucketLogging:Put 设置桶事件通知配置 PutBucketNotification zos:BucketNotification:Put 设置桶合规保留策略 PutBucketObjectLockConfiguration zos:BucketObjectLockConfiguration:Put 设置桶策略 PutBucketPolicy zos:BucketPolicy:Put 设置桶标签 PutBucketTagging zos:BucketTagging:Put 设置桶多版本 PutBucketVersioning zos:BucketVersioning:Put 设置桶静态网站托管配置 PutBucketWebsite zos:BucketWebsite:Put 设置桶请求者付费配置 PutBucketRequestPayment zos:BucketRequestPayment:Put 设置桶清单配置 PutInventoryConfiguration zos:InventoryConfiguration:Put 设置桶生命周期规则 PutLifecycleConfiguration zos:LifecycleConfiguration:Put 设置桶跨域复制规则 PutReplicationConfiguration zos:ReplicationConfiguration:Put 设置桶的访问追踪状态 PutBucketAccessMonitor zos:BucketAccessMonitor:Put 列举桶内对象 ListBucket zos:Bucket:List 列举桶内多版本对象 ListBucketVersions zos:BucketVersions:List Object级别 权限 S3 API Action ::: 获取对象内容及元数据 GetObject zos:Object:Get 上传对象 PutObject zos:Object:Put 删除对象 DeleteObject zos:Object:Delete 删除对象标签 DeleteObjectTagging zos:ObjectTagging:Delete 删除指定版本对象 DeleteObjectVersion zos:ObjectVersion:Delete 删除指定版本对象标签 DeleteObjectVersionTagging zos:ObjectVersionTagging:Delete 获取对象ACL GetObjectAcl zos:ObjectAcl:Get 设置对象ACL PutObjectAcl zos:ObjectAcl:Put 获取对象依法保留 GetObjectRetention zos:ObjectRetention:Get 设置对象依法保留 PutObjectRetention zos:ObjectRetention:Put 获取对象保留期限策略 GetObjectLegalHold zos:ObjectLegalHold:Get 设置对象保留期限策略 PutObjectLegalHold zos:ObjectLegalHold:Put 获取指定版本对象内容及元数据 GetObjectVersion zos:ObjectVersion:Get 获取指定版本对象ACL GetObjectVersionAcl zos:ObjectVersionAcl:Get 设置指定版本对象ACL PutObjectVersionAcl zos:ObjectVersionAcl:Put 获取对象标签 GetObjectTagging zos:ObjectTagging:Get 设置对象标签 PutObjectTagging zos:ObjectTagging:Put 获取指定版本对象标签 GetObjectVersionTagging zos:ObjectVersionTagging:Get 设置指定版本对象标签 PutObjectVersionTagging zos:ObjectVersionTagging:Put 列举桶中已初始化分段上传任务 ListBucketMultipartUploads zos:BucketMultipartUploads:List 列举已上传未合并段 ListMultipartUploadParts zos:MultipartUploadParts:List 取消分段上传任务 AbortMultipartUpload zos:MultipartUpload:Abort 解冻归档存储对象 RestoreObject zos:Object:Restore
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        权限管理
        IAM权限管理
      • 概述
        数据安全中心支持自动发现云上资产和添加自建数据资产。进行云上资产委托授权后您可以在资产中心管理您的资产。 数据库和大数据资产需要完成授权之后才能进行敏感数据识别和数据脱敏等。 支持纳管已启用IPv6 VPC的数据库资产。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        资产中心
        概述
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 通过配置kubeconfig文件实现集群权限精细化管理
        本节介绍了云容器引擎的最佳实践: 通过配置kubeconfig文件实现集群权限精细化管理。 集群权限精细化管理的背景 云容器引擎默认给用户的kubeconfig文件对集群操作的权限相当于root级别,这样的权限级别对于某用户来说过大,很不便于对集群的精细化管理。为了达到对集群精细化管理的目标,我们可以通过kubeconfig设置特定的用户,然后给用户赋予集群的部分操作权限(如:增、查、改)。 注意事项 下面配置步骤操作前,请先确保您的机器上有kubectl工具,若没有请到社区下载与集群版本对应的或者最新的kubectl。 基于Role实现集群权限精细化管理的配置步骤 说明 下述示例创建一个用户,并且该用户只能查看default下的Pod,不能查看其他namespace下的Pod且不能删除default下的任何Pod。 1. 配置ServiceAccount,名称为testsa,命名空间为default kubectl create sa testsa n default 3. 创建Role,并配置针对不同资源相对应的操作权限 vi addRole.yaml apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: testrole namespace: default rules: apiGroups: "" resources: pods verbs: get list watch apiGroups: apps resources: pods verbs: get list watch kubectl create f addRole.yaml 4. 配置RoleBinding,将sa绑定到Role上,让sa获取相应权限 vi addRoleBinding.yaml apiVersion: rbac.authorization.k8s.io/v1 kind: RoleBinding metadata: name: myrolebinding namespace: default roleRef: apiGroup: rbac.authorization.k8s.io kind: Role name: testrole subjects: kind: ServiceAccount name: testsa namespace: default kubectl create f addRoleBinding.yaml 5. 配置集群访问信息 4.1 通过sa的名称testsa获取sa对应的密钥,第一列testsatokennttvl即为密钥名 kubectl get secret n default grep testsa 4.2 将密钥中的ca.crt解码后导出 kubectl get secret testsatokend6b4q n default oyaml grep ca.crt: awk '{print $2}' base64 d > ca.crt 4.3 设置集群访问方式,其中dev 为需要访问的集群名称,10.50.208.30为集群ApiServer地址,test.config为配置文件的存放路径 (1)如果通过内部ApiServer地址,执行命令如下: kubectl config setcluster dev server certificateauthorityca.crt embedcertstrue kubeconfigtest.config (2)如果通过公网ApiServer地址,执行命令如下: kubectl config setcluster dev server kubeconfigtest.config insecureskiptlsverifytrue 集群ApiServer地址为内网ApiServer地址,绑定弹性IP后也可为公网ApiServer地址。如下图: 5. 配置集群认证信息 5.1 获取集群的token信息 token$(kubectl describe secret testsatokend6b4q n default awk '/token:/{print $2}') 5.2 设置使用集群的用户uiadmin kubectl config setcredentials uiadmin token$token kubeconfigtest.config 7. 配置集群认证访问的上下文信息,uiadmin@test为上下文的名称 kubectl config setcontext uiadmin@test clusterdev useruiadmin kubeconfigtest.config 8. 设置上下文 kubectl config usecontext uiadmin@test kubeconfigtest.config
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        权限
        通过配置kubeconfig文件实现集群权限精细化管理
      • 兼容性风险检查
        本文主要介绍兼容性风险检查。 检查项内容 请您阅读版本兼容性差异,并确认不受影响。 补丁升级不涉及版本兼容性差异。 版本兼容性差异 大版本升级路径 版本差异 建议自检措施 ::: v1.19升级至v1.21或v1.23 Kubernetes v1.21集群版本修复 了exec probe timeouts不生效的BUG,在此修复之前,exec 探测器不考虑 timeoutSeconds 字段。相反,探测将无限期运行,甚至超过其配置的截止日期,直到返回结果。 若用户未配置,默认值为1秒。升级后此字段生效,如果探测时间超过1秒,可能会导致应用健康检查失败并频繁重启。 升级前检查您使用了exec probe的应用的probe timeouts是否合理。 v1.19升级至v1.21或v1.23 CCE的v1.19及以上版本的kubeapiserver要求客户侧webhook server的证书必须配置Subject Alternative Names (SAN)字段。否则升级后kubeapiserver调用webhook server失败,容器无法正常启动。 根因:Go语言v1.15版本废弃了X.509 CommonName,CCE的v1.19版本的kubeapiserver编译的版本为v1.15,若客户的webhook证书没有Subject Alternative Names (SAN),kubeapiserver不再默认将X509证书的CommonName字段作为hostname处理,最终导致认证失败。 升级前检查您自建webhook server的证书是否配置了SAN字段。 若无自建webhook server则不涉及。 若未配置,建议您配置使用SAN字段指定证书支持的IP及域名。 v1.19升级至v1.21或v1.23 1.21及以上版本不支持管理ARM节点。 确认升级后无法管理ARM节点不影响您的使用场景。 v1.15升级至v1.19 CCE v1.19版本的控制面与v1.15版本的Kubelet存在兼容性问题。若Master节点升级成功后,节点升级失败或待升级节点发生重启,则节点有极大概率为NotReady状态。 主要原因为升级失败的节点有大概率重启kubelet而触发节点注册流程,v1.15 kubelet默认注册标签(failuredomain.beta.kubernetes.io/isbaremetal和kubernetes.io/availablezone)被v1.19版本kubeapiserver视为非法标签。 v1.19版本中对应的合法标签为node.kubernetes.io/baremetal和failuredomain.beta.kubernetes.io/zone。 正常升级流程不会触发此场景。 在Master升级完成后尽量避免使用暂停升级功能,快速升级完Node节点。 若Node节点升级失败且无法修复,请尽快驱逐此节点上的应用,请联系技术支持人员,跳过此节点升级,在整体升级完毕后,重置该节点。 v1.15升级至v1.19 CCE的v1.15版本集群及v1.19版本集群将docker的存储驱动文件系统由 xfs切换成ext4,可能会导致升级后的java应用Pod内的import包顺序异常,既而导致Pod异常。 升级前查看节点上docker配置文件/etc/docker/daemon.json。检查dm.fs配置项是否为xfs。 若为ext4或存储驱动为overlay则不涉及。 若为xfs则建议您在新版本集群预先部署应用,以测试应用与新版本集群是否兼容。 { "storagedriver": "devicemapper", "storageopts": [ "dm.thinpooldev/dev/mapper/vgpaasthinpool", "dm.usedeferredremovaltrue", "dm.fsxfs", "dm.usedeferreddeletiontrue" ] } v1.15升级至v1.19 CCE的v1.19及以上版本的kubeapiserver要求客户侧webhook server的证书必须配置Subject Alternative Names (SAN)字段。否则升级后kubeapiserver调用webhook server失败,容器无法正常启动。 根因:Go语言v1.15版本废弃了X.509 [](
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        升级前检查
        兼容性风险检查
      • 产品规格
        项目 说明 部署方式 独享引擎 使用场景 业务服务器部署在云上。 大型企业网站,具备较大的业务规模且基于业务特性具有定制化的安全需求。 防护对象 域名 IP 优势 部署灵活 独享引擎实例资源由用户独享 可以满足大规模流量攻击场景防护需求 独享引擎实例部署在VPC内,网络链路时延低
        来自:
        帮助文档
        Web应用防火墙(独享版)
        产品介绍
        产品规格
      • 专属云内创建一台云主机
        接口约束   1. 专属云内创建云主机均为按需类型云主机   2. 自动分配弹性IP(extIP"1")时,需要填写弹性IP版本(ipVersion)与带宽大小(bandwidth);使用已有的弹性IP(extIP"2")时,需要填写弹性IP的版本(ipVersion)和对应弹性IP的ID(eipID或ipv6AddressID)   3. 挂载网卡时,子网与虚拟私有云存在对应关系,确保子网属于当前虚拟私有云 URI POST /v4/dec/createinstance 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 clientToken 是 String 客户端存根,用于保证订单幂等性。要求单个云平台账户内唯一,使用同一个clientToken值,其他请求参数相同时,则代表为同一个请求。保留时间为24小时 4cf2962de92c4c009181cfbb2218636c regionID 是 String 资源池ID,您可以查看地域和可用区来了解资源池 获取: 查 资源池列表查询 bb9fdb42056f11eda1610242ac110002 azName 是 String 可用区名称,您可以查看地域和可用区来了解可用区 获取: 查 资源池可用区查询 注:查询结果中zoneList内返回存在可用区名称(即多可用区,本字段填写实际可用区名称),若查询结果中zoneList为空(即为单可用区,本字段填写default) cnhuadong1jsnj1Apublicctcloud instanceName 是 String 云主机名称。不同操作系统下,云主机名称规则有差异 Windows:长度为215个字符,允许使用大小写字母、数字或连字符()。不能以连字符()开头或结尾,不能连续使用连字符(),也不能仅使用数字; 其他操作系统:长度为264字符,允许使用点(.)分隔字符成多段,每段允许使用大小写字母、数字或连字符(),但不能连续使用点号(.)或连字符(),不能以点号(.)或连字符()开头或结尾,也不能仅使用数字 ecm3300 displayName 是 String 云主机显示名称,长度为2~63字符 ecm3300 flavorID 是 String 云主机规格ID,您可以查看规格说明了解弹性云主机的选型基本信息 获取: 查 查询一个或多个云主机规格资源 注:同一规格名称在不同资源池不同可用区的规格ID是不同的,调用前需确认规格ID是否归属当前资源池,多可用区资源池确认是否归属当前可用区 0824679adc8647dca0d39c330928f4f6 decHostID 否 String 专属宿主机ID,获取: 查 查询专属宿主机列表 73f321ea62ff11eca8bc005056898fe0 decTypeID 否 String 专属云存储ID 32af90b5664c41c4bc590f88b39eebc2 imageType 是 Integer 镜像类型,取值范围: 0:私有镜像, 1:公有镜像, 2:共享镜像, 3:安全镜像, 4:甄选镜像 您可以查看镜像概述查看关于云主机镜像介绍 1 imageID 是 String 镜像ID,您可以查看镜像概述来了解云主机镜像 获取: 查 查询可以使用的镜像资源 创 创建私有镜像(云主机系统盘) 创 创建私有镜像(云主机数据盘) 注:同一镜像名称在不同资源池的镜像ID是不同的,调用前需确认镜像ID是否归属当前资源池 9d9e89988ed543b299cb322f2b8cf6fa bootDiskType 是 String 系统盘类型,取值范围: SATA:普通IO, SAS:高IO, SSD:超高IO, FASTSSD:极速型SSD 您可以查看磁盘类型及性能介绍来了解磁盘类型及其对应性能指标 SATA bootDiskSize 是 Integer 系统盘大小单位为GiB,取值范围:[40, 32768],注:创建云主机过程中会存在单位转换,因此该参数只能传入整型,如果填写小数值则会被取整,影响到涉及计费,注:创建云主机过程中会存在单位转换,因此该参数只能传入整型,如果填写小数值则会被取整,影响到涉及计费 40 vpcID 是 String 虚拟私有云ID,您可以查看产品定义虚拟私有云来了解虚拟私有云 获取: 查 查询VPC列表 创 创建VPC 注:在多可用区类型资源池下,vpcID通常为“vpc”开头,非多可用区类型资源池vpcID为uuid格式 4797e8a1722d49969362458001813e41 networkCardList 是 Array of Objects 网卡信息列表,您可以查看弹性网卡概述了解弹性网卡相关信息 networkCardList extIP 是 String 是否使用弹性公网IP,取值范围: 0:不使用, 1:自动分配, 2:使用已有 注:自动分配弹性公网,默认分配IPv4弹性公网,需填写带宽大小,如需ipv6请填写弹性IP版本(即参数extIP"1"时,需填写参数bandwidth、ipVersion,ipVersion含默认值ipv4) 使用已有弹性公网,请填写弹性公网IP的ID,默认为ipv4版本,如使用已有ipv6,请填写弹性ip版本(即参数extIP"2"时,需填写eipID或ipv6AddressID,同时ipv6情况下请填写ipVersion) 2 secGroupList 否 Array of Strings 安全组ID列表,您可以查看安全组概述了解安全组相关信息 获取: 查 查询用户安全组列表 创 创建安全组 注:在多可用区类型资源池下,安全组ID通常以“sg”开头,非多可用区类型资源池安全组ID为uuid格式;默认使用默认安全组,无默认安全组情况下请填写该参数 ["202ca2d2273a5995873b03731212c8e4"] dataDiskList 否 Array of Objects 数据盘信息列表,注:同一云主机下最多可挂载8块数据盘 dataDiskList ipVersion 否 String 弹性IP版本,取值范围: ipv4:v4地址, ipv6:v6地址 不指定默认为ipv4。注:请先确认该资源池是否支持ipv6 ipv4 bandwidth 否 Integer 带宽大小,单位为Mbit/s,取值范围:[1, 2000] 100 ipv6AddressID 否 String 弹性公网IPv6的ID,注:多可用区类资源池暂不支持;填写该参数时请填写ipVersion为ipv6 eip5sdasd2gfh eipID 否 String 弹性公网IP的ID,您可以查看产品定义弹性IP来了解弹性公网IP 获取: 查 查询指定地域已创建的弹性 IP 创 创建弹性 IP eip9jpeyl0frh affinityGroupID 否 String 云主机组ID,获取: 查 查询云主机组列表或者详情 创 创建云主机组 259b0c37104441d8989e keyPairID 否 String 密钥对ID,您可以查看密钥对来了解密钥对相关内容 获取: 查 查询一个或多个密钥对 创 创建一对SSH密钥对 c57d06268a82407ba910b454907778c3 userPassword 否 String 用户密码,满足以下规则: 长度在8~30个字符 必须包含大写字母、小写字母、数字以及特殊符号中的三项; 特殊符号可选:()~!@
        来自:
        帮助文档
        专属云(计算独享型)
        API参考
        API
        2022-11-30
        新版
        生命周期管理
        专属云内创建一台云主机
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 连接类
        解决方案 对于存在大量新建连接,建议调大threadpooloversubscribe增加线程总数。 减少线程重复创建与销毁部分的开销,提高性能,同时它也限制了MySQL的runing线程数,关键时刻可以保护系统,防止雪崩。 正常情况下,线程池适用于大量短连接的场景,如果客户是长连接,并且连接数量不多(客户端使用了连接池等情况),线程池的作用不大,此时调整threadpoolsize和threadpooloversubscribe两个参数扩大线程总数,或者直接关闭线程池。 连接数据库报错Access denied 场景描述 客户端连接数据库异常,返回错误:Error 1045: Access denied for user xxx 处理方法 1. 连接了错误的主机 问题原因:业务连接了错误的数据库主机,该主机上相应用户或客户端IP没有权限访问。 解决方案:仔细检查要连接的数据库主机名,确保正确。 2. 用户不存在 问题原因:客户端连接时,使用的用户不存在。 解决方案: 使用管理员帐户登录数据库,执行如下命令检查目标用户是否存在。 SELECT User FROM mysql.user WHERE User'xxx'; 如果用户不存在,创建相应用户。 CREATE USER 'xxx'@'xxxxxx' IDENTIFIED BY 'xxxx'; 3. 用户存在,但客户端IP无访问权限 问题原因:客户端使用的用户存在,但是客户端IP没有该数据库的访问权限。 解决方案: 使用管理员帐户登录数据库,执行如下命令,检查目标用户允许哪些客户端IP连接。 SELECT Host, User FROM mysql.user WHERE User'xxx'; 如果上述查询出的Host不包含客户端IP所在网段,则需要赋予相应访问权限。例如,赋予test用户192.168.0网段访问权限。 GRANT ALL PRIVILEGES ON . TO'root'@'192.168.0.%' IDENTIFIED BY 'password' WITH GRANT OPTION; FLUSH PRIVILEGES; 4. 密码错误 问题原因:用户对应的密码错误,或忘记密码 解决方案: 确定目标密码是否错误,由于密码用于身份验证,因此无法从MySQL以明文形式读取用户密码,但可以将密码的哈希字符串与目标密码的“PASSWORD”函数值进行比较,确定目标密码是否正确,示例SQL语句: mysql> SELECT Host, User, authenticationstring, PASSWORD('12345') FROM mysql.user WHERE User'test'; ++++ Host User authenticationstring PASSWORD('12345') ++++ % test 6A23DC5E7446019DC9C1778554ED87BE6BA61041 00A51F3F48415C7D4E8908980D443C29C69B60C9 ++++ 2 rows in set, 1 warning (0.00 sec) 2 rows in set, 1 warning (0.00 sec) 从上面例子可以看出,PASSWORD('12345')的哈希值与authenticationstring列不匹配,这表明目标密码“12345”是错误的。 如果需要重置用户密码,参考如下SQL语句: set password for 'test'@'%' 'newpassword'; 5. 密码包含特殊字符被Bash转义 问题原因:Linux默认的Bash环境下,使用命令行连接数据库,用户密码中包含特殊字符会被环境转义,导致密码失效。 例如,在Bash环境下,用户test的密码为“test$123”,使用命令mysql hxxx u test ptest$123,连接数据库会报错ERROR 1045 (28000): Access denied。 解决方案:通过用单引号将密码括起来,防止Bash解释特殊字符。 mysql hxxx u test p'test$123' 6. 用户设置了REQUIRE SSL,但客户端使用非SSL连接 排查思路: 排查报错用户名是否强制使用SSL连接,执行:show create user 'xxx',如果出现“REQUIRE SSL”属性,说明该用户必须使用SSL连接。 排查是否使用过如下类似语句给用户授权。 GRANT ALL PRIVILEGES ON . TO 'ssluser'@'localhost' IDENTIFIED BY ' password ' REQUIRE SSL; 检查目标用户的ssltype值,如果不为空,说明该用户需要使用SSL连接。 SELECT User, Host, ssltype FROM mysql.user WHERE User'xxx'; 解决方案: 客户端使用SSL方式数据库连接。 去除用户SSL连接权限,参考命令:ALTER USER 'username'@'host' REQUIRE NONE;
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        连接类
      • 跨天翼云账号迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS跨账号迁移天翼云关系数据库MySQL版数据。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已绑定公网eip。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定公网eip。 注意 这里的源端是指需要跨账号迁移的源天翼云数据库。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        跨天翼云账号迁移MySQL数据
      • 从其他云数据库迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS将数据从其他云数据库迁移至天翼云关系数据库MySQL版。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已开通公网访问,并能获取外网连接地址。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定弹性公网IP。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        从其他云数据库迁移MySQL数据
      • 备份恢复简介
        本地快速恢复 使用DistCp将本集群HBase、HDFS和Hive数据备份在备集群HDFS中以后,本集群HDFS保留了备份数据的快照。用户可以通过创建本地快速恢复任务,直接从本集群HDFS的快照文件中恢复数据。 NAS NAS(Network Attached Storage)是一种特殊的专用数据存储服务器,包括存储器件和内嵌系统软件,可提供跨平台文件共享功能。利用NFS(支持NFSv3、NFSv4)和CIFS(支持SMBv2、SMBv3)协议,用户可以连通MRS的业务平面与NAS服务器,将数据备份至NAS或从NAS恢复数据。 说明 数据备份至NAS前,系统会自动将NAS共享地址挂载为本地分区。在备份结束后,系统会卸载NAS共享分区。 为防止备份恢复失败,数据备份及恢复期间,请勿访问NAS服务器挂载至本地的共享地址,如:“/srv/BigData/LocalBackup/nas”。 业务数据备份至NAS时,会使用DistCp。 规格 备份恢复特性规格 项目 参数 备份或恢复任务最大数量(个) 100 同一集群同时运行的任务数量(个) 1 等待运行的任务最大数量(个) 199 Linux本地磁盘最大备份文件大小(GB) 600 说明 若业务数据存储在ZooKeeper中的上层组件,在备份恢复这类数据时,需确保单个备份或恢复任务的znode数量不会过大,否则会造成任务失败,并影响Zookeeper的服务性能。可通过如下方法确认单个备份或恢复任务的znode数量: l 单个备份或恢复任务的znode数量要少于操作系统的文件句柄限制。查看句柄限制的方式如下: l 使用shell命令输入:cat /proc/sys/fs/filemax,用于查看系统级的最大限制。 1. 使用shell命令输入:ulimit n,用于查看用户级的限制。 l 对于父目录的znode数量超过上述限制的情形,可以通过其子目录进行批量备份与恢复。使用Zookeeper提供的客户端脚本查看znode数量的方式: l 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Zookeeper > 实例”,查看Zookeeper各角色的管理IP。 1. 登录客户端所在节点,执行如下命令: zkCli.sh serverip:port,其中ip可以为任意管理IP,port默认值是2181。 2. 当看到如下输出信息时,表示已经成功连接上Zookeeper服务器。 WatchedEvent state:SyncConnected type:None path:null [zk: ip:port(CONNECIED) 0] 3. 使用getusage命令查看待备份目录的znode数量,例如: getusage /hbase/region,输出结果中"Node countxxxxxx"即表示region目录下存储的znode数量。 “default”任务规格 项目 OMS HBase Kafka DBService NameNode 备份周期 1小时 1小时 1小时 1小时 1小时 最大备份数 168个(7天历史数据) 168个(7天历史数据) 168个(7天历史数据) 168个(7天历史数据) 24个(1天历史数据) 单个备份文件最大大小 10MB 10 MB 512MB 100MB 20GB 最大占用磁盘大小 1.64GB 1.64 GB 84GB 16.41GB 480GB 备份数据保存位置 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 说明 默认任务保存的备份数据,请管理员根据企业运维要求,定期转移并保存到集群外部。 管理员可直接创建DistCp备份任务将OMS、DBService和NameNode等的数据保存到外部集群。 集群数据的备份任务运行时长可根据要备份的数据量除以集群与备份设备之间的网络带宽来计算得出,在实际场景中,建议将计算得出的时常乘以1.5作为任务执行时长参考值。 执行数据备份任务会对集群的最大IO性能产生影响,建议备份任务运行时间与集群业务高峰错开。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份恢复简介
      • 联合索引设置不当导致慢SQL的解决办法
        解决方案 1. 查询变慢首先确认是否由于CPU利用率达到性能瓶颈导致执行慢。 2. 库表结构设计不合理,索引缺失或索引设置不恰当会导致慢SQL。 3. 表数据大批量插入删除等操作可能会导致统计信息未能及时更新,建议定期执行ANALYZE TABLE防止执行计划走错。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库性能类
        联合索引设置不当导致慢SQL的解决办法
      • 云解析实现智能解析
        本小节介绍 云解析云解析实现智能解析最佳实践。 跨运营商或跨区域进行访问: 中国大陆地区实现跨运营商进行访问,大多数都会使用多个运营商IP地址,由于传统DNS解析是随机或优选的方式将其中一个IP地址返回给访问用户,这种情况下容易造成访问用户跨网或跨地域访问速度慢或访问质量差,因此企业可通过 DNS 智能解析的配置来实现用户的就近访问。 前提条件 1个可访问的域名,例如test.ctyun.cn。 3个运营商 IP 地址,例如:【联通】线路解析至 1.1.1.1、【移动】线路解析至 2.2.2.2、【电信】线路解析至 3.3.3.3。 操作步骤 1. 登录天翼云控制中心找到云解析产品列表,点击“解析管理”进入域名维护页面。 2. 在域名维护页面,点击要修改的域名进入记录管理页。 3. 单击页面上方的“添加记录”按钮,创建主机名为test.ctyun.cn的子记录。例如 test. ctyun.cn 设置“默认”线路解析到1.1.1.1,“电信”线路解析到2.2.2.2。 4. 配置后实现效果,电信运营商用户访问将返回2.2.2.2的 IP 地址,非电信运营商用户访问将返回1.1.1.1的IP地址。
        来自:
        帮助文档
        云解析
        最佳实践
        云解析实现智能解析
      • 存储资源
        本章节主要介绍翼MapReduce的存储资源操作。 简介 HDFS是大数据集群中的分布式文件存储服务,存放大数据集群上层应用的所有用户数据,例如写入HBase表或Hive表的数据。 目录是HDFS存储资源分配的基本单位。HDFS支持传统的层次型文件组织结构。用户或者应用程序可以创建目录,在目录中创建、删除、移动或重命名文件。租户通过指定HDFS文件系统的目录来获取存储资源。 调度机制 系统支持将HDFS目录存储到指定标签的节点上,或存储到指定硬件类型的磁盘上。例如以下业务场景: 实时查询与数据分析共集群时,实时查询只需部署在部分节点上,其数据也应尽可能的只存储在这些节点上。 关键数据根据实际业务需要保存在具有高度可靠性的节点中。 管理员可以根据实际业务需要,通过数据特征灵活配置HDFS数据存储策略,将数据保存在指定的节点上。 对于租户,存储资源是各租户所占用的HDFS资源。可以通过将指定目录的数据存储到租户配置的存储路径中,实现存储资源调度,保证租户间的数据隔离。 用户可以添加/删除租户HDFS存储目录,设置目录的文件数量配额和存储空间配额来管理存储资源。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        技术原理
        存储资源
      • 容器隧道网络
        本文主要介绍 容器隧道网络。 容器隧道网络模型 容器隧道网络在节点网络基础上通过隧道封装构建的独立于节点网络平面的容器网络平面,CCE集群容器隧道网络使用的封装协议为VXLAN,后端虚拟交换机采用的是openvswitch,VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器隧道网络具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面(例如NetworkPolicy网络隔离)的优势,可以满足大多数性能要求不高的场景。 图 容器隧道网络 说明 节点内Pod间通信:同节点的Pod间通信直接通过本节点的ovs网桥直接转发。 跨节点Pod间通信:所有跨节点Pod间的通信通过ovs隧道网桥进行封装后,转发到对端节点上。 优缺点 优点 容器网络和节点网络解耦,不受VPC配额规格、响应速度的限制(如VPC路由条目数、弹性网卡数、创建速度限制) 支持网络隔离,具体请参见网络策略( NetworkPolicy ) 支持带宽限制 支持大规模组网 缺点 由于隧道封装,网络问题排查难度较大,整体性能较低 无法直接利用VPC提供的负载均衡、安全组等能力 不支持外部网络与容器IP直通
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        容器网络模型
        容器隧道网络
      • 1.3 版本特性
        本节主要介绍 1.3 版本特性 基于Mixer的Metric、访问日志和调用链 支持SDS,证书轮换无需重启Pod 支持Sidecar API 控制面性能优化 私有版本Virtual Service Delegation上线,提前为大客户提供解耦Gateway流量配置 详细内容请参阅:<
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格配置
        升级
        1.3 版本特性
      • 功能类
        数据脱敏支持哪些水印算法? 支持多种数据水印算法,包括并不限于伪行水印、伪列水印、脱敏水印、内容修改水印、零宽水印。 数据脱敏是否支持异构脱敏? 暂不支持大部分异构脱敏自动生成,仅支持少量兼容性极强的异构脱敏,例如MySQL、RDS。 数据脱敏是否支持PDF脱敏? 暂不支持PDF脱敏,但支持非结构化脱敏(包括XML、JSON、TXT、WORD、DICOM等)。
        来自:
        帮助文档
        数据安全专区
        常见问题
        功能类
      • Linux mdadm 软RAID阵列创建与管理指南
        级别 最小磁盘 容错能力 可用容量 适用场景 RAID0 2 无 100% 临时数据/高速缓存 RAID1 2 单磁盘故障 50% 系统盘/关键服务 RAID5 3 单磁盘故障 (N1)/N 文件服务器 RAID6 4 双磁盘故障 (N2)/N 大容量存储 RAID10 4 镜像组内故障 50% 高负载数据库
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        Linux mdadm 软RAID阵列创建与管理指南
      • 管理分组参数
        您可以根据实际应用需求修改分组的参数配置(属性设置),包括最大并发执行请求数、是否自动启动分布式事务、SQL连接超时时间等配置。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击参数管理 ,然后单击分组参数页签,进入分组参数管理页面。 5. 在参数列表上方,选中目标分组,单击查询。 您也可以根据实际情况,配置属性分组(分为server 、transaction 、monitor 或者overload分组),或输入目标属性名称,快速搜索目标参数。 说明 将鼠标放在属性编码列可以显示对应属性的提示信息,大部分情况下按默认设置即可。 6. 在参数列表中,找到查看并修改目标参数的当前值。 您也可以根据实际情况,单击操作 列的重置,将参数值重置为默认值。 属性分组 server分组 属性编码 属性名称 允许值 默认值 支持在线加载 zkUrl 向LVS注册的ZooKeeper地址,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 无 否 clientFoundRows 控制当执行UPDATE语句时,MySQL服务器与DBProxy接收和处理受影响的行数的行为。 true为匹配行数,而不是被修改的行数。 true/false true 否 clientIgnoreSigpipe 阻止MySQL客户端安装SIGPIPE信号处理器,主要用于当应用程序已经安装该处理器的时候,由DBProxy屏蔽相关信号,避免相关信号与整体系统的冲突。 true/false true 否 clientInteractive MySQL服务器与DBProxy关闭不活动连接时,采用交互超时参数或等待超时参数行为。 true为采用交互超时参数。 true/false true 否 clientNoSchema 不允许数据库名.表名.列名这样的语法。 true/false false 否 clientIgnoreSpace MySQL服务器与DBProxy之间交互是否忽略函数名后的空格,true为忽略函数名后的空格。 true/false false 否 frontWriteQueueSize 数据汇集时的应用系统到DBProxy写队列大小。 12147483647 32 是 enableDataMergeLimit 开启数据归并排序限制。 true/false true 是 dataMergeLimit 数据归并排序限制行数。 12147483647 10000 是 frontConnectionIdleCheckThreshold 应用侧与DBProxy连接空闲检测阈值(个),默认值为0,此时,只要有应用系统到DBProxy连接超时,就将其杀死。 02147483647 0 是 writeQueueLimit DBProxy返回数据给应用侧写队列的限制。 true/false true 是 writeQueueStop DBProxy返回数据给应用侧写队列的最大长度。 12147483647 4096 是 writeQueueRecover 恢复写队列阈值。 12147483647 256 是 enableClusterStatusCollector 是否开启DBProxy集群状态信息采集。 true/false false 是 clusterStatusCollectPeriod 集群状态信息采集间隔,单位:毫秒。 10002147483647 5000 否 clusterStatusHistoryKeptDays 集群历史状态信息保留天数。 1365 1 是 sslEnable SSL功能开关: true:启用。 false:禁用。 true/false false 否 zkPath 负载均衡SLB的ZooKeeper的路径,用于组件之间通讯。 说明 该参数暂未开放使用。 字符串 否 vip 负载均衡SLB的虚拟IP,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 否 sqlProtectorHandle SQL黑名单处理方式,需要为2.4.1以上版本生效: Ignore:不记录不处理。 Reject:记录且拒绝。 Audit:记录且不处理。 ignore/reject/audit ignore 是 autoAddSqlProtectorBlacklist 发现过载语句(由参数topWindowExecuteTimeThreshold、runningSlowSqlThreshold两个参数定义的语句)时,是否自动加入黑名单。 true/false false 是 enableRunningSlowSqlDetect 开启超慢SQL探测,开启后runningSlowSqlThreshold、runningSlowSqlDetectInterval才生效。 true/false true 是 runningSlowSqlThreshold 正在执行的语句执行超过此时间算超慢SQL,单位:秒。 12147483647 15 是 runningSlowSqlDetectInterval 正在执行的超慢语句探测间隔,单位:秒。 12147483647 5 是 maxSqlProtectorBlacklist 过载保护SQL黑名单最大数量。 12147483647 10 是 topWindowCycle TOP高危(耗时较高)语句探测周期,单位:毫秒。 12147483647 60000 否 topWindowExecuteTimeThreshold SQL执行超过此时间,进入高危语句计数,单位:毫秒。 12147483647 500 是 insertHint DBProxy到存储节点发送SQL语句时,附加指纹Hint。 true/false false 是 killSelect 当应用侧异常关闭时,如果最后一次执行的是select语句,该变量控制是否发送kill语句杀掉MySQL连接。 true/false true 是 enableEncrypt 是否开启字段加解密。 true/false false 是 enableProxyRWSplit 是否开启DBProxy组件侧读写分离。 true/false false 是 enableDdlEngine 是否开启DDL统一执行框架: true:启用统一执行框架执行DDL。 false:采用旧执行模式执行DDL。 true/false true 是 useIndex 是否使用全局索引功能,需先开启Giserver服务,否则开启后无效。 true/false false 是 autoIndex 是否使用全局索引透明化功能。 true/false false 是 optimizeTransactionSelect 事务中select语句数据库连接释放优化。 true/false true 是 one2manyIndexThreshold 一对多索引阈值。 建议不超过分片数量,超过分片数量时,有概率会退化到广播。 5 是 processors 多路I/O复用反应器个数。DBProxy可以通过轮询检测哪些频道有就绪的I/0事件,然后集中处理这些事件,以减少线程数量、处理大并发连接,减少阻塞等。 建议设置为CPU核心数 4 是 processorExecutor 应用系统到DBProxy逻辑处理线程池大小,单位:个。 建议设置为CPU核心数的四倍 32 是 idleTimeout 应用系统到DBProxy连接空闲超时时间,单位:毫秒。 17200000 1800000 是 bindIp DBProxy服务监听运行时端口暴露监控的主机对应网卡IP地址。0.0.0.0默认代表监听所有网卡,建议采用默认值。 默认0.0.0.0 0.0.0.0 是 zkDigest 负载均衡SLB的zookeeper的digest模式设置,用于组件之间通讯。 说明 该参数暂未开放使用。 SLB的zk digest dataNodeIdleCheckPeriod DBProxy到存储节点MySQL连接池清理时间间隔,单位:毫秒。 17200000 300000 是 processorBufferChunk DBProxy的BufferPool中chunk大小,单位:Byte。 processorBufferChunk乘processorBufferPool应小于服务启动内存 4096 是 processorBufferPool DBProxy的BufferPool中chunk个数。 processorBufferChunk乘processorBufferPool应小于服务启动内存 16384000 是 maxPacketSize DBProxy与MySQL通讯数据包最大长度,单位:M。 不超过16 16 是 charset DBProxy与应用系统、后端MySQL的连接初始化字符集。 utf8,utf8mb4 utf8 是 sqlExecuteTimeout DBProxy的SQL执行超时的时间,与MySQL的maxexecutiontime参数功能相同,单位:毫秒。 17200000 300000 是 processorCheckPeriod DBProxy到存储节点MySQL连接状态检查间隔时间,单位:毫秒。 17200000 1000 是 dataNodeHeartbeatPeriod DBProxy到存储节点MySQL心跳间隔时间,单位:毫秒。 17200000 10000 是 enableLargeDataMerge 开启大数据流式汇聚功能。 true/false false 是 enableOperationRecord 是否开启运维日志。 true/false false 是 frontendConnPrintInterval 应用系统到DBProxy连接数打印间隔,单位:毫秒。 17200000 60000 否 backendConnPrintInterval DBProxy到存储节点连接数打印间隔,单位:毫秒。 17200000 60000 否 useStatementConditionExtract DBProxy使用statement方案解释去做条件抽取,用于快速进行SQL解析。 true/false true 是 maxExecutionTime SELECT最大执行时间,单位:毫秒。 07200000 设置为0,表示不限制 0 是 enablePrepareStatement DBProxy支持PrepareStatement预编译SQL语句接口。 true/false true 是
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理分组参数
      • 为什么在域名列表查询不到已接入服务的网站?
        本文介绍为什么在域名列表中查询不到已接入Web应用防火墙(边缘云版)防护的网站。 网站未备案或备案已过期,导致域名不符合接入规范,域名有可能被Web应用防火墙(边缘云版)自动清除。您需要为网站域名完成ICP备案后,重新将网站接入Web应用防火墙(边缘云版)防护。如果备案信息已经完整、准确,但仍然出现备案阻断的情况,或者发现您的域名被列入备案黑名单或被封禁。建议您及时联系工信部进行申诉,并配合相关部门进行处理,以尽快恢复域名的正常使用。 相关概念 根据《非经营性互联网信息服务备案管理办法(中华人民共和国信息产业部令第33号)》和《互联网信息服务管理办法(中华人民共和国国务院令第292号)》规定,国家对经营性互联网信息服务实行许可制度,对非经营性互联网信息服务实行备案制度。未获取许可或者未履行备案手续的,不得从事互联网信息服务,否则属于违法行为。 在中国大陆地区注册的域名需要在工信部备案,备案完成后才能正常访问。如果域名未备案或备案信息不完整,可能会出现备案阻断的情况,即无法在中国大陆地区正常访问该域名对应的网站。 更多相关法律法规请参阅工业和信息化部:ICP/IP地址/域名信息备案管理系统。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        常见问题
        接入配置类
        为什么在域名列表查询不到已接入服务的网站?
      • 遭受DDoS攻击如何向网监报案?
        本节介绍了遭受DDoS攻击如何向网监报案。 当您的业务遭受大规模DDoS攻击,除了使用DDoS高防(边缘云版)服务来保障您的业务安全与稳定,也建议您立即向网监部门进行报案。 报案流程 1. 遭受到大规模DDoS攻击后,您可尽快向当地网监部门进行报案,并根据网监部门的要求提供相关信息。 2. 网监部门判断是否符合立案标准,并进入网监处理流程。(具体立案标准请向您当地的网监部门进行咨询) 3. 正式立案后,天翼云将配合网监部门接口人提供攻击取证等信息。 天翼云能提供什么相关证据? 您的报案在网监部门立案后,天翼云将配合网监部门提供以下协助: 天翼云会及时响应网监部门的协助调查要求,配合开展工作。 天翼云会配合网监部门,向网监接口人提供您在天翼云平台上的业务的流量日志、遭受的攻击详情等。 说明 向网监部门提供的流量日志、攻击详情等信息将作为法律证据,因此无法直接提供给您。您可以在天翼云控制台中自行查看攻击流量的相关信息。 天翼云作为证据提供方,不对流量日志和攻击信息等进行分析,直接给出谁是攻击者的结论。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        遭受DDoS攻击如何向网监报案?
      • 元数据迁移
        本文介绍如何在分布式消息服务Kafka控制台创建元数据导入任务,将元数据迁移至分布式消息服务Kafka现有实例。 前提条件 下载JDK8 购买并部署分布式消息服务Kafka实例 背景信息 Kafka集群元数据是指Kafka集群的Topic和Group配置信息。Kafka集群元数据存储于ZooKeeper上,Kafka集群各个节点从ZooKeeper中获取最新的元数据。因此,集群的各个节点的元数据被导出时都是最新且相同的。Kafka集群元数据可以被导出成一份JSON文件,然后被导入到另一个Kafka集群,实现自建Kafka集群元数据迁移上云。 元数据迁移是指将自建Kafka集群的元数据迁移到分布式消息服务Kafka实例。您可以将自建Kafka集群元数据导出,然后导入云分布式消息服务Kafka实例,分布式消息服务Kafka会解析成功导入的元数据,并支持在创建任务时可视化配置Topic和Group,配置完成后在目标实例中创建对应的Topic和Group,实现自建Kafka集群元数据迁移上云。 步骤一:导出元数据 使用元数据导出工具导出自建Kafka集群的元数据文件。 1.下载元数据导出工具,登陆分布式消息服务Kafka控制台>集群迁移>元数据迁移>创建任务>下载工具 下载对应jar包 2.将下载好的工具上传至能连接到Kafka集群的机器上 3.运行以下命令,导出元数据。运行命令后,您将在kafkamigration.jar 同级目录下看到 名为 metadata.json 的元数据文件。 java cp kafkamigration.jar com.ctg.migration.kafka.MigrationMetadata sourceKafkaConnect (resource topic,group username password mechanism configKey ) 参数 说明 示例 sourceKafkaConnect 自建Kafka集群的IP地址和端口号。 192.168.XX.XX:9092 resource 要导出的资源,可以是topic、 group或topic,group 默认topic,group topic,group username 连接kafka用户名,如果sourceKafkaConnect为免密接入点则无需填写 admin user password 连接kafka密码,如果sourceKafkaConnect为免密接入点则无需填写 real password mechanism 对应的协议,支持PLAIN、SCRAMSHA256、SCRAMSHA512,如果sourceKafkaConnect为免密接入点则无需填写 PLAIN configKey 源集群topic配置,支持多个key,多个用半角逗号分开,all:表示所有配置(不推荐),具体支持哪些配置可以通过(bin/kafkaconfigs.sh help)命令查看 默认值为:retention.ms retention.ms,max.message.bytes
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        元数据迁移
      • 应用场景
        本节主要介绍智能视图服务产品的应用场景。 智慧城市 适用于对城市安全、应急管理、交通调度有迫切需求的城市。一方面可以进行实时的智能监管,从而及时发现问题;另一方面,可以快速协同调度资源,进行视频数据、结构化数据等多维度大数据的统一管理和应用,实现高效的城市治理。智能视图服务具备以下优势: 大规模部署推流接入点,就近接入,保证各场合稳定推流。 提供AI内容审核增值服务,如人脸识别,人员聚集检测、车辆牌号检索等。 支持多种播流格式,支持全网加速分发。 整合多渠道数据信息,智能统计与分析,丰富数据资产,助力城市管理数字化转型。 智慧教育 适用于校园内及多校园间多摄像头统一纳管的场景,通过实时预览、录像回溯方便管理校园内视频点位,提供安全隐患识别、人员管理分析等一站式智能管理服务,实现平安智慧校园。智能视图服务具备以下优势: 建设周期短,成本低廉,适合需要快速上云的学校或者教育机构。 支持设备接入、存储和分发一体化解决方案,按需扩容,提升资源利用率。 支持AI算法仓库统一管理,GPU算力智能调度,AI算法统一编排。 教育监管机构、学生家长等多方可便捷的通过 APP和PC客户端实时观看视频。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        应用场景
      • 1
      • ...
      • 73
      • 74
      • 75
      • 76
      • 77
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      推荐文档

      产品功能

      PostpreSQL

      全面了解天翼云⑨:远程桌面无法复制粘贴

      网页防篡改卸载

      监控应用运行状态

      常见问题

      导出数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号