活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 连接类
        解决方案 对于存在大量新建连接,建议调大threadpooloversubscribe增加线程总数。 减少线程重复创建与销毁部分的开销,提高性能,同时它也限制了MySQL的runing线程数,关键时刻可以保护系统,防止雪崩。 正常情况下,线程池适用于大量短连接的场景,如果客户是长连接,并且连接数量不多(客户端使用了连接池等情况),线程池的作用不大,此时调整threadpoolsize和threadpooloversubscribe两个参数扩大线程总数,或者直接关闭线程池。 连接数据库报错Access denied 场景描述 客户端连接数据库异常,返回错误:Error 1045: Access denied for user xxx 处理方法 1. 连接了错误的主机 问题原因:业务连接了错误的数据库主机,该主机上相应用户或客户端IP没有权限访问。 解决方案:仔细检查要连接的数据库主机名,确保正确。 2. 用户不存在 问题原因:客户端连接时,使用的用户不存在。 解决方案: 使用管理员帐户登录数据库,执行如下命令检查目标用户是否存在。 SELECT User FROM mysql.user WHERE User'xxx'; 如果用户不存在,创建相应用户。 CREATE USER 'xxx'@'xxxxxx' IDENTIFIED BY 'xxxx'; 3. 用户存在,但客户端IP无访问权限 问题原因:客户端使用的用户存在,但是客户端IP没有该数据库的访问权限。 解决方案: 使用管理员帐户登录数据库,执行如下命令,检查目标用户允许哪些客户端IP连接。 SELECT Host, User FROM mysql.user WHERE User'xxx'; 如果上述查询出的Host不包含客户端IP所在网段,则需要赋予相应访问权限。例如,赋予test用户192.168.0网段访问权限。 GRANT ALL PRIVILEGES ON . TO'root'@'192.168.0.%' IDENTIFIED BY 'password' WITH GRANT OPTION; FLUSH PRIVILEGES; 4. 密码错误 问题原因:用户对应的密码错误,或忘记密码 解决方案: 确定目标密码是否错误,由于密码用于身份验证,因此无法从MySQL以明文形式读取用户密码,但可以将密码的哈希字符串与目标密码的“PASSWORD”函数值进行比较,确定目标密码是否正确,示例SQL语句: mysql> SELECT Host, User, authenticationstring, PASSWORD('12345') FROM mysql.user WHERE User'test'; ++++ Host User authenticationstring PASSWORD('12345') ++++ % test 6A23DC5E7446019DC9C1778554ED87BE6BA61041 00A51F3F48415C7D4E8908980D443C29C69B60C9 ++++ 2 rows in set, 1 warning (0.00 sec) 2 rows in set, 1 warning (0.00 sec) 从上面例子可以看出,PASSWORD('12345')的哈希值与authenticationstring列不匹配,这表明目标密码“12345”是错误的。 如果需要重置用户密码,参考如下SQL语句: set password for 'test'@'%' 'newpassword'; 5. 密码包含特殊字符被Bash转义 问题原因:Linux默认的Bash环境下,使用命令行连接数据库,用户密码中包含特殊字符会被环境转义,导致密码失效。 例如,在Bash环境下,用户test的密码为“test$123”,使用命令mysql hxxx u test ptest$123,连接数据库会报错ERROR 1045 (28000): Access denied。 解决方案:通过用单引号将密码括起来,防止Bash解释特殊字符。 mysql hxxx u test p'test$123' 6. 用户设置了REQUIRE SSL,但客户端使用非SSL连接 排查思路: 排查报错用户名是否强制使用SSL连接,执行:show create user 'xxx',如果出现“REQUIRE SSL”属性,说明该用户必须使用SSL连接。 排查是否使用过如下类似语句给用户授权。 GRANT ALL PRIVILEGES ON . TO 'ssluser'@'localhost' IDENTIFIED BY ' password ' REQUIRE SSL; 检查目标用户的ssltype值,如果不为空,说明该用户需要使用SSL连接。 SELECT User, Host, ssltype FROM mysql.user WHERE User'xxx'; 解决方案: 客户端使用SSL方式数据库连接。 去除用户SSL连接权限,参考命令:ALTER USER 'username'@'host' REQUIRE NONE;
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        连接类
      • 跨天翼云账号迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS跨账号迁移天翼云关系数据库MySQL版数据。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已绑定公网eip。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定公网eip。 注意 这里的源端是指需要跨账号迁移的源天翼云数据库。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        跨天翼云账号迁移MySQL数据
      • 从其他云数据库迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS将数据从其他云数据库迁移至天翼云关系数据库MySQL版。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已开通公网访问,并能获取外网连接地址。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定弹性公网IP。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        从其他云数据库迁移MySQL数据
      • 备份恢复简介
        本地快速恢复 使用DistCp将本集群HBase、HDFS和Hive数据备份在备集群HDFS中以后,本集群HDFS保留了备份数据的快照。用户可以通过创建本地快速恢复任务,直接从本集群HDFS的快照文件中恢复数据。 NAS NAS(Network Attached Storage)是一种特殊的专用数据存储服务器,包括存储器件和内嵌系统软件,可提供跨平台文件共享功能。利用NFS(支持NFSv3、NFSv4)和CIFS(支持SMBv2、SMBv3)协议,用户可以连通MRS的业务平面与NAS服务器,将数据备份至NAS或从NAS恢复数据。 说明 数据备份至NAS前,系统会自动将NAS共享地址挂载为本地分区。在备份结束后,系统会卸载NAS共享分区。 为防止备份恢复失败,数据备份及恢复期间,请勿访问NAS服务器挂载至本地的共享地址,如:“/srv/BigData/LocalBackup/nas”。 业务数据备份至NAS时,会使用DistCp。 规格 备份恢复特性规格 项目 参数 备份或恢复任务最大数量(个) 100 同一集群同时运行的任务数量(个) 1 等待运行的任务最大数量(个) 199 Linux本地磁盘最大备份文件大小(GB) 600 说明 若业务数据存储在ZooKeeper中的上层组件,在备份恢复这类数据时,需确保单个备份或恢复任务的znode数量不会过大,否则会造成任务失败,并影响Zookeeper的服务性能。可通过如下方法确认单个备份或恢复任务的znode数量: l 单个备份或恢复任务的znode数量要少于操作系统的文件句柄限制。查看句柄限制的方式如下: l 使用shell命令输入:cat /proc/sys/fs/filemax,用于查看系统级的最大限制。 1. 使用shell命令输入:ulimit n,用于查看用户级的限制。 l 对于父目录的znode数量超过上述限制的情形,可以通过其子目录进行批量备份与恢复。使用Zookeeper提供的客户端脚本查看znode数量的方式: l 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Zookeeper > 实例”,查看Zookeeper各角色的管理IP。 1. 登录客户端所在节点,执行如下命令: zkCli.sh serverip:port,其中ip可以为任意管理IP,port默认值是2181。 2. 当看到如下输出信息时,表示已经成功连接上Zookeeper服务器。 WatchedEvent state:SyncConnected type:None path:null [zk: ip:port(CONNECIED) 0] 3. 使用getusage命令查看待备份目录的znode数量,例如: getusage /hbase/region,输出结果中"Node countxxxxxx"即表示region目录下存储的znode数量。 “default”任务规格 项目 OMS HBase Kafka DBService NameNode 备份周期 1小时 1小时 1小时 1小时 1小时 最大备份数 168个(7天历史数据) 168个(7天历史数据) 168个(7天历史数据) 168个(7天历史数据) 24个(1天历史数据) 单个备份文件最大大小 10MB 10 MB 512MB 100MB 20GB 最大占用磁盘大小 1.64GB 1.64 GB 84GB 16.41GB 480GB 备份数据保存位置 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 主备管理节点“数据存放路径/LocalBackup/” 说明 默认任务保存的备份数据,请管理员根据企业运维要求,定期转移并保存到集群外部。 管理员可直接创建DistCp备份任务将OMS、DBService和NameNode等的数据保存到外部集群。 集群数据的备份任务运行时长可根据要备份的数据量除以集群与备份设备之间的网络带宽来计算得出,在实际场景中,建议将计算得出的时常乘以1.5作为任务执行时长参考值。 执行数据备份任务会对集群的最大IO性能产生影响,建议备份任务运行时间与集群业务高峰错开。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份恢复简介
      • 容器隧道网络
        本文主要介绍 容器隧道网络。 容器隧道网络模型 容器隧道网络在节点网络基础上通过隧道封装构建的独立于节点网络平面的容器网络平面,CCE集群容器隧道网络使用的封装协议为VXLAN,后端虚拟交换机采用的是openvswitch,VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器隧道网络具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面(例如NetworkPolicy网络隔离)的优势,可以满足大多数性能要求不高的场景。 图 容器隧道网络 说明 节点内Pod间通信:同节点的Pod间通信直接通过本节点的ovs网桥直接转发。 跨节点Pod间通信:所有跨节点Pod间的通信通过ovs隧道网桥进行封装后,转发到对端节点上。 优缺点 优点 容器网络和节点网络解耦,不受VPC配额规格、响应速度的限制(如VPC路由条目数、弹性网卡数、创建速度限制) 支持网络隔离,具体请参见网络策略( NetworkPolicy ) 支持带宽限制 支持大规模组网 缺点 由于隧道封装,网络问题排查难度较大,整体性能较低 无法直接利用VPC提供的负载均衡、安全组等能力 不支持外部网络与容器IP直通
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        容器网络模型
        容器隧道网络
      • Linux mdadm 软RAID阵列创建与管理指南
        级别 最小磁盘 容错能力 可用容量 适用场景 RAID0 2 无 100% 临时数据/高速缓存 RAID1 2 单磁盘故障 50% 系统盘/关键服务 RAID5 3 单磁盘故障 (N1)/N 文件服务器 RAID6 4 双磁盘故障 (N2)/N 大容量存储 RAID10 4 镜像组内故障 50% 高负载数据库
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        Linux mdadm 软RAID阵列创建与管理指南
      • 功能类
        数据脱敏支持哪些水印算法? 支持多种数据水印算法,包括并不限于伪行水印、伪列水印、脱敏水印、内容修改水印、零宽水印。 数据脱敏是否支持异构脱敏? 暂不支持大部分异构脱敏自动生成,仅支持少量兼容性极强的异构脱敏,例如MySQL、RDS。 数据脱敏是否支持PDF脱敏? 暂不支持PDF脱敏,但支持非结构化脱敏(包括XML、JSON、TXT、WORD、DICOM等)。
        来自:
        帮助文档
        数据安全专区
        常见问题
        功能类
      • 为什么在域名列表查询不到已接入服务的网站?
        本文介绍为什么在域名列表中查询不到已接入Web应用防火墙(边缘云版)防护的网站。 网站未备案或备案已过期,导致域名不符合接入规范,域名有可能被Web应用防火墙(边缘云版)自动清除。您需要为网站域名完成ICP备案后,重新将网站接入Web应用防火墙(边缘云版)防护。如果备案信息已经完整、准确,但仍然出现备案阻断的情况,或者发现您的域名被列入备案黑名单或被封禁。建议您及时联系工信部进行申诉,并配合相关部门进行处理,以尽快恢复域名的正常使用。 相关概念 根据《非经营性互联网信息服务备案管理办法(中华人民共和国信息产业部令第33号)》和《互联网信息服务管理办法(中华人民共和国国务院令第292号)》规定,国家对经营性互联网信息服务实行许可制度,对非经营性互联网信息服务实行备案制度。未获取许可或者未履行备案手续的,不得从事互联网信息服务,否则属于违法行为。 在中国大陆地区注册的域名需要在工信部备案,备案完成后才能正常访问。如果域名未备案或备案信息不完整,可能会出现备案阻断的情况,即无法在中国大陆地区正常访问该域名对应的网站。 更多相关法律法规请参阅工业和信息化部:ICP/IP地址/域名信息备案管理系统。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        常见问题
        接入配置类
        为什么在域名列表查询不到已接入服务的网站?
      • 遭受DDoS攻击如何向网监报案?
        本节介绍了遭受DDoS攻击如何向网监报案。 当您的业务遭受大规模DDoS攻击,除了使用DDoS高防(边缘云版)服务来保障您的业务安全与稳定,也建议您立即向网监部门进行报案。 报案流程 1. 遭受到大规模DDoS攻击后,您可尽快向当地网监部门进行报案,并根据网监部门的要求提供相关信息。 2. 网监部门判断是否符合立案标准,并进入网监处理流程。(具体立案标准请向您当地的网监部门进行咨询) 3. 正式立案后,天翼云将配合网监部门接口人提供攻击取证等信息。 天翼云能提供什么相关证据? 您的报案在网监部门立案后,天翼云将配合网监部门提供以下协助: 天翼云会及时响应网监部门的协助调查要求,配合开展工作。 天翼云会配合网监部门,向网监接口人提供您在天翼云平台上的业务的流量日志、遭受的攻击详情等。 说明 向网监部门提供的流量日志、攻击详情等信息将作为法律证据,因此无法直接提供给您。您可以在天翼云控制台中自行查看攻击流量的相关信息。 天翼云作为证据提供方,不对流量日志和攻击信息等进行分析,直接给出谁是攻击者的结论。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        遭受DDoS攻击如何向网监报案?
      • 管理分组参数
        您可以根据实际应用需求修改分组的参数配置(属性设置),包括最大并发执行请求数、是否自动启动分布式事务、SQL连接超时时间等配置。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击参数管理 ,然后单击分组参数页签,进入分组参数管理页面。 5. 在参数列表上方,选中目标分组,单击查询。 您也可以根据实际情况,配置属性分组(分为server 、transaction 、monitor 或者overload分组),或输入目标属性名称,快速搜索目标参数。 说明 将鼠标放在属性编码列可以显示对应属性的提示信息,大部分情况下按默认设置即可。 6. 在参数列表中,找到查看并修改目标参数的当前值。 您也可以根据实际情况,单击操作 列的重置,将参数值重置为默认值。 属性分组 server分组 属性编码 属性名称 允许值 默认值 支持在线加载 zkUrl 向LVS注册的ZooKeeper地址,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 无 否 clientFoundRows 控制当执行UPDATE语句时,MySQL服务器与DBProxy接收和处理受影响的行数的行为。 true为匹配行数,而不是被修改的行数。 true/false true 否 clientIgnoreSigpipe 阻止MySQL客户端安装SIGPIPE信号处理器,主要用于当应用程序已经安装该处理器的时候,由DBProxy屏蔽相关信号,避免相关信号与整体系统的冲突。 true/false true 否 clientInteractive MySQL服务器与DBProxy关闭不活动连接时,采用交互超时参数或等待超时参数行为。 true为采用交互超时参数。 true/false true 否 clientNoSchema 不允许数据库名.表名.列名这样的语法。 true/false false 否 clientIgnoreSpace MySQL服务器与DBProxy之间交互是否忽略函数名后的空格,true为忽略函数名后的空格。 true/false false 否 frontWriteQueueSize 数据汇集时的应用系统到DBProxy写队列大小。 12147483647 32 是 enableDataMergeLimit 开启数据归并排序限制。 true/false true 是 dataMergeLimit 数据归并排序限制行数。 12147483647 10000 是 frontConnectionIdleCheckThreshold 应用侧与DBProxy连接空闲检测阈值(个),默认值为0,此时,只要有应用系统到DBProxy连接超时,就将其杀死。 02147483647 0 是 writeQueueLimit DBProxy返回数据给应用侧写队列的限制。 true/false true 是 writeQueueStop DBProxy返回数据给应用侧写队列的最大长度。 12147483647 4096 是 writeQueueRecover 恢复写队列阈值。 12147483647 256 是 enableClusterStatusCollector 是否开启DBProxy集群状态信息采集。 true/false false 是 clusterStatusCollectPeriod 集群状态信息采集间隔,单位:毫秒。 10002147483647 5000 否 clusterStatusHistoryKeptDays 集群历史状态信息保留天数。 1365 1 是 sslEnable SSL功能开关: true:启用。 false:禁用。 true/false false 否 zkPath 负载均衡SLB的ZooKeeper的路径,用于组件之间通讯。 说明 该参数暂未开放使用。 字符串 否 vip 负载均衡SLB的虚拟IP,用于组件之间通讯。 说明 该参数暂未开放使用。 IP地址 否 sqlProtectorHandle SQL黑名单处理方式,需要为2.4.1以上版本生效: Ignore:不记录不处理。 Reject:记录且拒绝。 Audit:记录且不处理。 ignore/reject/audit ignore 是 autoAddSqlProtectorBlacklist 发现过载语句(由参数topWindowExecuteTimeThreshold、runningSlowSqlThreshold两个参数定义的语句)时,是否自动加入黑名单。 true/false false 是 enableRunningSlowSqlDetect 开启超慢SQL探测,开启后runningSlowSqlThreshold、runningSlowSqlDetectInterval才生效。 true/false true 是 runningSlowSqlThreshold 正在执行的语句执行超过此时间算超慢SQL,单位:秒。 12147483647 15 是 runningSlowSqlDetectInterval 正在执行的超慢语句探测间隔,单位:秒。 12147483647 5 是 maxSqlProtectorBlacklist 过载保护SQL黑名单最大数量。 12147483647 10 是 topWindowCycle TOP高危(耗时较高)语句探测周期,单位:毫秒。 12147483647 60000 否 topWindowExecuteTimeThreshold SQL执行超过此时间,进入高危语句计数,单位:毫秒。 12147483647 500 是 insertHint DBProxy到存储节点发送SQL语句时,附加指纹Hint。 true/false false 是 killSelect 当应用侧异常关闭时,如果最后一次执行的是select语句,该变量控制是否发送kill语句杀掉MySQL连接。 true/false true 是 enableEncrypt 是否开启字段加解密。 true/false false 是 enableProxyRWSplit 是否开启DBProxy组件侧读写分离。 true/false false 是 enableDdlEngine 是否开启DDL统一执行框架: true:启用统一执行框架执行DDL。 false:采用旧执行模式执行DDL。 true/false true 是 useIndex 是否使用全局索引功能,需先开启Giserver服务,否则开启后无效。 true/false false 是 autoIndex 是否使用全局索引透明化功能。 true/false false 是 optimizeTransactionSelect 事务中select语句数据库连接释放优化。 true/false true 是 one2manyIndexThreshold 一对多索引阈值。 建议不超过分片数量,超过分片数量时,有概率会退化到广播。 5 是 processors 多路I/O复用反应器个数。DBProxy可以通过轮询检测哪些频道有就绪的I/0事件,然后集中处理这些事件,以减少线程数量、处理大并发连接,减少阻塞等。 建议设置为CPU核心数 4 是 processorExecutor 应用系统到DBProxy逻辑处理线程池大小,单位:个。 建议设置为CPU核心数的四倍 32 是 idleTimeout 应用系统到DBProxy连接空闲超时时间,单位:毫秒。 17200000 1800000 是 bindIp DBProxy服务监听运行时端口暴露监控的主机对应网卡IP地址。0.0.0.0默认代表监听所有网卡,建议采用默认值。 默认0.0.0.0 0.0.0.0 是 zkDigest 负载均衡SLB的zookeeper的digest模式设置,用于组件之间通讯。 说明 该参数暂未开放使用。 SLB的zk digest dataNodeIdleCheckPeriod DBProxy到存储节点MySQL连接池清理时间间隔,单位:毫秒。 17200000 300000 是 processorBufferChunk DBProxy的BufferPool中chunk大小,单位:Byte。 processorBufferChunk乘processorBufferPool应小于服务启动内存 4096 是 processorBufferPool DBProxy的BufferPool中chunk个数。 processorBufferChunk乘processorBufferPool应小于服务启动内存 16384000 是 maxPacketSize DBProxy与MySQL通讯数据包最大长度,单位:M。 不超过16 16 是 charset DBProxy与应用系统、后端MySQL的连接初始化字符集。 utf8,utf8mb4 utf8 是 sqlExecuteTimeout DBProxy的SQL执行超时的时间,与MySQL的maxexecutiontime参数功能相同,单位:毫秒。 17200000 300000 是 processorCheckPeriod DBProxy到存储节点MySQL连接状态检查间隔时间,单位:毫秒。 17200000 1000 是 dataNodeHeartbeatPeriod DBProxy到存储节点MySQL心跳间隔时间,单位:毫秒。 17200000 10000 是 enableLargeDataMerge 开启大数据流式汇聚功能。 true/false false 是 enableOperationRecord 是否开启运维日志。 true/false false 是 frontendConnPrintInterval 应用系统到DBProxy连接数打印间隔,单位:毫秒。 17200000 60000 否 backendConnPrintInterval DBProxy到存储节点连接数打印间隔,单位:毫秒。 17200000 60000 否 useStatementConditionExtract DBProxy使用statement方案解释去做条件抽取,用于快速进行SQL解析。 true/false true 是 maxExecutionTime SELECT最大执行时间,单位:毫秒。 07200000 设置为0,表示不限制 0 是 enablePrepareStatement DBProxy支持PrepareStatement预编译SQL语句接口。 true/false true 是
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理分组参数
      • 应用场景
        本节主要介绍智能视图服务产品的应用场景。 智慧城市 适用于对城市安全、应急管理、交通调度有迫切需求的城市。一方面可以进行实时的智能监管,从而及时发现问题;另一方面,可以快速协同调度资源,进行视频数据、结构化数据等多维度大数据的统一管理和应用,实现高效的城市治理。智能视图服务具备以下优势: 大规模部署推流接入点,就近接入,保证各场合稳定推流。 提供AI内容审核增值服务,如人脸识别,人员聚集检测、车辆牌号检索等。 支持多种播流格式,支持全网加速分发。 整合多渠道数据信息,智能统计与分析,丰富数据资产,助力城市管理数字化转型。 智慧教育 适用于校园内及多校园间多摄像头统一纳管的场景,通过实时预览、录像回溯方便管理校园内视频点位,提供安全隐患识别、人员管理分析等一站式智能管理服务,实现平安智慧校园。智能视图服务具备以下优势: 建设周期短,成本低廉,适合需要快速上云的学校或者教育机构。 支持设备接入、存储和分发一体化解决方案,按需扩容,提升资源利用率。 支持AI算法仓库统一管理,GPU算力智能调度,AI算法统一编排。 教育监管机构、学生家长等多方可便捷的通过 APP和PC客户端实时观看视频。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        应用场景
      • CDN缓存命中率较低可能的原因
        本文解释CDN缓存命中率较低可能的原因。 背景说明 网站使用CDN加速以后,大部分静态文件都将会被离用户较近的CDN边缘节点缓存,由此起到访问加速效果。如果用户访问的文件由CDN节点直接响应,无需回源,则称之为缓存命中。CDN缓存命中率越高,也就意味着加速效果越好,相应的回源量也会极大减少。 天翼云CDN控制台上【数据分析】模块,可以看到缓存流量命中率和请求命中率数据。缓存命中的流量除以总流量称之为流量命中率,缓存命中的请求数除以总请求数称之为请求命中率。只要在CDN边缘节点,或是在中间节点命中,均统计为缓存命中(CDN用户请求流向为:用户客户端>CDN边缘节点>CDN中间节点>源站)。如果命中率低,则较多用户的请求都会从CDN节点回源,不仅访问效果不佳,还会给源站造成较大压力。本文将介绍产生此类情况的可能原因。 可能原因 1. 如果域名刚接入天翼云CDN加速,则用户首次访问文件时CDN节点均需要回源获取,此时缓存命中率较低,需要经过一段时间后才能逐步把大部分文件缓存至CDN节点,这个时间往往要经过两三天至一周左右。 2. 如果域名已接入天翼云CDN较长时间,仍命中率较低,则可排查是否存在如下情况:
        来自:
        帮助文档
        CDN加速
        常见问题
        缓存配置
        CDN缓存命中率较低可能的原因
      • OBS数据迁移到DLI服务
        本章节主要介绍OBS数据迁移到DLI服务。 操作场景 数据湖探索(DataLake Insight,简称DLI)提供大数据查询服务,本章节介绍使用CDM将OBS的数据迁移到DLI,使用流程如下: 1.创建CDM集群 2.创建DLI连接 3.创建OBS连接 4.创建迁移作业 前提条件 已经开通了OBS和DLI,并且当前用户拥有OBS的读取权限。 已经在DLI服务中创建好资源队列、数据库和表。 创建CDM集群 参考创建CDM集群,创建CDM集群。 该场景下,如果CDM集群只是用于迁移OBS数据到DLI,不需要迁移其他数据源,则CDM集群所在的VPC、子网、安全组选择任一个即可,没有要求,CDM通过内网访问DLI和OBS。主要是选择CDM集群的规格,按待迁移的数据量选择,一般选择cdm.medium即可,满足大部分迁移场景。 创建DLI连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 2.连接器类型选择“数据湖探索(DLI)”后单击“下一步”,配置DLI连接参数,如下图“创建DLI连接”所示。 名称:用户自定义连接名称,例如“dlilink”。 访问标识(AK)、密钥(SK):访问DLI数据库的AK、SK。 项目ID:DLI所属区域的项目ID。 3.单击“保存”回到连接管理界面。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        OBS数据迁移到DLI服务
      • 元数据迁移
        本文介绍如何在分布式消息服务Kafka控制台创建元数据导入任务,将元数据迁移至分布式消息服务Kafka现有实例。 前提条件 下载JDK8 购买并部署分布式消息服务Kafka实例 背景信息 Kafka集群元数据是指Kafka集群的Topic和Group配置信息。Kafka集群元数据存储于ZooKeeper上,Kafka集群各个节点从ZooKeeper中获取最新的元数据。因此,集群的各个节点的元数据被导出时都是最新且相同的。Kafka集群元数据可以被导出成一份JSON文件,然后被导入到另一个Kafka集群,实现自建Kafka集群元数据迁移上云。 元数据迁移是指将自建Kafka集群的元数据迁移到分布式消息服务Kafka实例。您可以将自建Kafka集群元数据导出,然后导入云分布式消息服务Kafka实例,分布式消息服务Kafka会解析成功导入的元数据,并支持在创建任务时可视化配置Topic和Group,配置完成后在目标实例中创建对应的Topic和Group,实现自建Kafka集群元数据迁移上云。 步骤一:导出元数据 使用元数据导出工具导出自建Kafka集群的元数据文件。 1.下载元数据导出工具,登陆分布式消息服务Kafka控制台>集群迁移>元数据迁移>创建任务>下载工具 下载对应jar包 2.将下载好的工具上传至能连接到Kafka集群的机器上 3.运行以下命令,导出元数据。运行命令后,您将在kafkamigration.jar 同级目录下看到 名为 metadata.json 的元数据文件。 java cp kafkamigration.jar com.ctg.migration.kafka.MigrationMetadata sourceKafkaConnect (resource topic,group username password mechanism configKey ) 参数 说明 示例 sourceKafkaConnect 自建Kafka集群的IP地址和端口号。 192.168.XX.XX:9092 resource 要导出的资源,可以是topic、 group或topic,group 默认topic,group topic,group username 连接kafka用户名,如果sourceKafkaConnect为免密接入点则无需填写 admin user password 连接kafka密码,如果sourceKafkaConnect为免密接入点则无需填写 real password mechanism 对应的协议,支持PLAIN、SCRAMSHA256、SCRAMSHA512,如果sourceKafkaConnect为免密接入点则无需填写 PLAIN configKey 源集群topic配置,支持多个key,多个用半角逗号分开,all:表示所有配置(不推荐),具体支持哪些配置可以通过(bin/kafkaconfigs.sh help)命令查看 默认值为:retention.ms retention.ms,max.message.bytes
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        元数据迁移
      • 向量检索
        本文为您介绍天翼云云搜索服务的向量检索能力及使用方法。 功能简介 支持向量检索(Vector Search)是搜索引擎的一个高级功能,它允许用户在高维向量空间中进行相似性搜索,而不仅仅是基于传统的关键词匹配。 向量检索的核心在于,它通过将文本、图像或其他数据转换为向量(即一组多维的数值表示),基于这些向量之间的距离来查找相似的项目。与传统的基于关键字的检索方法相比,向量检索更适合处理复杂的数据类型,如自然语言处理、推荐系统和计算机视觉等场景。 在搜索引擎中,支持向量检索的功能通过集成高效的向量索引结构(如近似最近邻搜索算法)实现。这使得搜索引擎能够在处理大规模数据集时,依然保持高效的查询速度和准确性。通过向量检索,用户可以在海量数据中快速找到与查询向量最相似的结果,从而提升搜索体验和应用的智能化水平。 天翼云云搜索服务提供的OpenSearch和Elasticsearch都可以支持向量检索能力。OpenSearch 2.19.1版本在向量检索能力上相比Elasticsearch 7.10.2(搭配早期OpenDistro插件)有明显提升。其内置的KNN插件持续演进,升级集成了更高版本的FAISS库,在构建索引速度、内存管理、查询性能等方面有较大优化。这些改进使得OpenSearch 2.19.1更适用于大规模、高并发的向量检索场景。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        向量检索
      • Qwen-VL-Chat
        本文为您详细介绍QwenVLChat模型。 模型简介 QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 使用场景 QwenVLChat是通用多模态大规模语言模型,可以完成多种视觉语言任务,被应用于视觉问答,文字理解,图表数学推理,多图理解和Grounding(根据指令标注图片中指定区域的包围框)等多方面。 评测效果 零样本图像描述生成(Zeroshot Image Caption)及通用视觉问答(General VQA) 在 Zeroshot Captioning 中,QwenVL 在 Flickr30K 数据集上取得了 SOTA 的结果,并在 Nocaps 数据集上取得了和 InstructBlip可竞争的结果。 在 General VQA 中,QwenVL 取得了 LVLM 模型同等量级和设定下 SOTA 的结果。 细粒度视觉定位(Referring Expression Comprehension) 在定位任务上,QwenVL 全面超过 Shikra13B,取得了目前 Generalist LVLM 模型上在 Refcoco 上的 SOTA 。 QwenVL 并没有在任何中文定位数据上训练过,但通过中文 Caption 数据和 英文 Grounding 数据的训练,可以 Zeroshot 泛化出中文 Grounding 能力。 对话能力测评 采用TouchStone测评,它是一个基于 GPT4 打分来评测 LVLM 模型的图文对话能力和人类对齐水平的基准。 测评结果如下:
        来自:
        帮助文档
        训推服务
        模型简介
        Qwen-VL-Chat
      • 应用场景
        本文主要介绍DRDS的应用场景。 高并发交易场景 在电信运营商、电子商务平台、金融领域、O2O服务平台以及传统零售等行业,经常需要处理大量的用户数据和交易数据,支撑频繁的促销活动,以及解决核心交易数据库响应延迟等问题。DRDS基于其线性的水平扩展特性,能够即时增强数据库的处理能力,优化访问速度,从而轻松应对大规模、高并发的实时交易需求,解决业务增长过程中的挑战。 海量数据存储访问场景 企业客户随着业务的快速发展,业务数据增长迅猛,会产生超过单数据库存储能力极限的数据,造成数据库容量瓶颈,限制业务发展。DRDS可以线性扩展存储空间,目前可以支持100+MySQL实例的单数据库集群,提供PB级存储能力。可广泛应用于工业制造、智能家居、车联网等超大规模数据存储访问场景。 低成本高效益的数据库解决方案 对于政府部门、金融市场等领域,对数据库的大规模数据存储、高并发访问以及高可用性和可靠性等方面的需求,传统的解决方案通常要求依赖于昂贵的专业硬件。DRDS通过使用可扩展的服务器集群,提供了一种既稳定又高效的替代方案,高可用设计确保故障的秒级自动恢复,同时提供高质量的运维监控服务,使其以更低的成本,提供能与传统商业解决方案相竞争甚至超越的服务。
        来自:
        帮助文档
        分布式关系型数据库
        产品介绍
        应用场景
      • 产品优势
        本文将为您介绍公共传输通道的产品优势。 快速开通 能够实现客户总部/分支机构(含自建机房)站点、电信IDC/DC站点、私有云、天翼云、电信云灾备中心、第三方公有云的自动开通。 天翼云资源池站点分钟级开通(个别不具备专线自动化开通能力的资源池,需两个工作日手工开通)。 采用IPRAN接入的站点可在7个工作日内开通(含本地接入段施工时间)。 灵活入云 公共传输通道为企业用户提供了高效便捷的一点入多云的服务,通过预先与天翼云和第三方公有云进行深度集成,确保能够实现客户总部和分支机构能够更加轻松灵活地实现一点入云。 安全可靠 CN2DCI网络节点采用三路由互联设计,确保数据传输的可靠性和稳定性。天翼云资源池站点通过双POP(两台堆叠配置的云专线交换机)以及双链路上联至CN2DCI网络,实现了高达99.95%的可用率,即使在云主机出现故障的情况下,也能确保服务的连续性和稳定性。同时,在CN2DCI大客户专属承载网上采用国际主流的MPLS/SRv6+EVPN技术,有效隔离不同行业客户的数据,确保客户信息安全无虞。 超低时延 CN2DCI承载网面向大客户的业务而设计,确保负载不超过50%,同时支持路径定制,骨干网节点间平均时延指标最优低于30ms,全面满足公共传输通道业务低时延要求。
        来自:
        帮助文档
        公共传输通道
        产品介绍
        产品优势
      • 应用场景
        应用场景 场景概述 业务痛点 数据库去O 适用于客户去Oracle尝试其他类型的数据库,节省成本,保障数据安全。 ·使用商业数据库成本高。 数据库需要上云。 数据库重构或优化 适用于已有业务因架构设计不合理导致业务问题,或新业务遇到架构设计问题,天翼云数据库专家服务团队可以利用丰富的架构设计经验帮助您解决架构问题。 已有业务因架构不合理导致业务问题。 随着业务不断增长,原有数据库设计不能满足发展。 数据库系统不可用 适用于客户遇到数据丢失、并发、读写等各类性能瓶颈问题,数据库不可用,希望尽快解决问题。 数据丢失导致业务受到影响或中断。 并发、读写等各类性能问题导致业务受到影响或中断。 需保障数据库性能和稳定性的重要业务场景 适用于当客户有重要、大规模业务活动时,天翼云数据库专家服务团队可利用大型业务护航经验保障业务高并发情况下数据库的稳定性。 数据库现有性能无法满足重要的大规模业务活动开展的需要。 快速安装部署或使用天翼云数据库专家服务 适用于客户希望项目能快速落地,不等待长时间的私有云合同签署流程,而能快速享用天翼云数据库专家服务,解决安装部署、性能优化或数据库上云、迁云和用云过程中过程中各类问题。 私有云合同签署流程漫长。 客户需求紧急。
        来自:
        帮助文档
        数据库专家服务
        产品介绍
        应用场景
      • 在科研助手使用LLaMA Factory进行模型LLMs微调
        本文介绍了如何在科研助手上使用LLaMA Factory进行模型LLMs微调。 概述: LLAMA FACTORY是一个旨在普及LLMs微调的框架。它通过可扩展的模块统一了多种高效微调方法,使得数百种语言模型能够在资源有限的情况下进行高吞吐量的微调。该框架简化了常用的训练方法,如生成式预训练、监督式微调、基于人类反馈的强化学习以及直接偏好优化等。用户可以通过命令行或Web界面,以最小或无需编码的方式自定义和微调他们的语言模型。该演示文档就是基于Web界面进行微调和对话。 准备环境及模型微调: 1.【开发机】创建开发机 1. 填入【名称】“llamafactory”选择【队列】及【可用区】。 2. 【资源配置】 【GPU加速型】下拉选择规格“CPU:20核内存:108GBGPU:NVIDIAH80080G1” (规格根据实际情况修改 GPU类型可选择A100 H800) 3. 【选择框架版本】中点击【社区镜像】,选择LLaMa Factory框架。 2.点击【确认】按钮创建开发机。 3.进入开发机: 1. 【开发机】刷新状态,等“llamafactory”状态进入运行中后点击右侧操作栏【打开】。 2. 点击【打开】跳转到Jupyte开发机 3. 在Jupyter启动页【AI Community】下点击"AI Task:LLaMA"跳转到LLaMA Factory页面 3.设置微调参数: 1. 进入WebUI后,切换到中文(zh)。首先配置模型,选择“LLaMA38BChat”模型,微调方法则保持默认值lora 2. 数据集使用预置演示的Train,用户可以根据自己的需要修改。 3. 设置学习率为1e4,梯度累积为2,有利于模型拟合。可以更改计算类型为bf16 4. 点击LoRA参数设置展开参数列表,设置LoRA+学习率比例为16。在LoRA作用模块中填写all,即将LoRA层挂载到模型的所有线性层上,提高拟合效果 4.启动微调: 1. 将输出目录修改为trainllama38b,训练后的LoRA权重将会保存在此目录中。点击「预览命令」可展示所有已配置的参数,您如果想通过代码运行微调,可以复制这段命令,在终端命令行运行。 点击「开始」启动模型微调。 2. 在Jupyter启动页【其他】下点击"终端"跳转到终端页面 3. 终端输入命令 tail f /var/log/llamafactroy.log 查看微调进度 4. 可以看到下载LLaMA38BChat大约需要20分钟;完成微调大约需要20分钟;显示“训练完毕”代表微调成功,可以在界面观察损失曲线。 5.模型评估: 1. 微调完成后,点击【刷新适配器】,然后点击【适配器路径】,点击选择下拉列表中的"trainllama38b"选项。 2. 选择【Evaluate&Predict】,在数据集下拉列表中选择"eval"评估模型。点击【开始】启动模型评估。 3. 大约5分钟后,评估完成后会在界面上显示分数。ROUGE分数越高代表模型学习越好。 6.模型对话: 1. 点击【chat】栏,确保适配器路径是trainllama38b,点击【加载模型】。 2. 在话框输入对话内容,点击【提交】发送消息。大模型会生成相应人物的回答。
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用LLaMA Factory进行模型LLMs微调
      • 创建物理机备份
        本文主要介绍如何创建物理机备份。 自动备份 需要先创建备份策略,物理机绑定备份策略后,会按照备份策略进行周期性备份,用户定期查看备份结果即可。 手动备份 如果想在任意时间点即时备份,可以手动创建物理机备份。 1. 登录管理控制台。 2. 选择“存储 > 云服务备份”。 进入“云服务备份控制台”。 3. 在云主机备份页面,单击右上角的“创建云主机备份存储库”。 4. 选择计费模式。 5. 选择保护类型。 备份:创建的存储库类型为云主机备份存储库,用于存放云主机备份。 6. 在服务器列表中勾选需要备份的服务器或磁盘。勾选后将在已勾选服务器列表区域展示。可以选择服务器部分磁盘绑定至存储库。 注意 考虑到恢复后数据的一致性问题,建议您对整个服务器进行备份。 如果您希望选择部分磁盘备份以节省成本,请尽量确保这些磁盘的数据不受其他未备份磁盘的数据影响,否则可能会导致数据不一致问题。 例如,Oracle应用的数据分散在不同磁盘上,如果只备份了部分磁盘,会导致恢复后数据不一致(已备份磁盘恢复到历史时间点数据,未备份磁盘仍保留当前数据),甚至导致应用无法启动。 说明 所选服务器未绑定存储库且状态必须为“运行中”或“关机”。 如果不勾选服务器,如需备份可在创建存储库后绑定服务器即可。 7. 输入存储库的容量。取值范围为[10,10485760]GB。您需要提前规划存储库容量,存储库的容量不能小于备份服务器的大小,开启自动绑定功能和绑定备份策略后所需的容量更大。 如果实际使用时存储库容量不足,可以通过扩容存储库扩大容量。 8. 选择是否配置自动备份。 立即配置:配置后会将存储库绑定到备份策略中,整个存储库绑定的服务器都将按照备份策略进行自动备份。可以选择已存在的备份策略,也可以创建新的备份策略。 暂不配置:存储库将不会进行自动备份。 9. 如开通了企业项目,需要为存储库添加已有的企业项目。 企业项目是一种云资源管理方式,企业项目管理提供统一的云资源按项目管理,以及项目内的资源管理、成员管理,默认项目为default。 10. 输入待创建的存储库的名称。 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度小于等于64个字符。例如:vaultf61e。 说明 也可以采用默认的名称,默认的命名规则为“vaultxxxx”。 11. 为存储库添加标签。 标签以键值对的形式表示,用于标识存储库,便于对存储库进行分类和搜索。此处的标签仅用于存储库的过滤和管理。一个存储库最多添加10个标签。 标签的设置说明如下表所示。 参数 说明 举例 键 输入标签的键,同一个备份标签的键不能重复。键可以自定义,也可以选择预先在标签服务(TMS)创建好的标签的键。 键命名规则如下: 长度范围为1到36个Unicode字符。 只能包含大写字母、小写字母、数字和特殊字符“”和“”以及中文字符。 Key0001 值 输入标签的值,标签的值可以重复,并且可以为空。 标签值的命名规则如下: 长度范围为0到43个Unicode字符。 只能包含大写字母、小写字母、数字和特殊字符“”和“”以及中文字符。 Value0001 12. 当计费模式为“包年/包月”时,需要选择购买时长。可选取的时间范围为1个月5年。 可以选择是否自动续费,勾选自动续费时: 按月购买:自动续费周期为1个月。 按年购买:自动续费周期为1年。 13. 根据页面提示,完成支付。 14. 返回云主机备份页面。可以在存储库列表看到成功创建的存储库。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机备份
        创建物理机备份
      • 天翼云同Region迁移
        kubectl get deploy nginxNAME READY UPTODATE AVAILABLE AGE nginx 1/1 1 1 66s[root@cluster1] kubectl get podNAME READY STATUS RESTARTS AGE nginx6799fc88d8sqjj4 1/1 Running 0 2m12s 我们可以基于联邦控制面kubectl方式,执行以下命令来将其提升到联邦控制面管理: shell [root@master1] karmadactl promote deployment nginx n default c member1Resource "apps/v1, Resourcedeployments"(default/nginx) is promoted successfully 此时,再在联邦控制面中查询该工作负载,可看到已经可以查询到,说明已被联邦实例接管: shell [root@master1] kubectl get deployNAME READY UPTODATE AVAILABLE AGE nginx 1/1 1 1 7m25s 检查成员集群中对应nginx无状态工作负载,对应Pod并未重启: shell [root@cluster1] kubectl get podNAME READY STATUS RESTARTS AGE nginx6799fc88d8sqjj4 1/1 Running 0 15m 方式二:批量提升接管,原集群中工作负载Pod会重启; 对于希望批量提升到联邦控制面接管,以及对Pod重启无感知的的服务或资源,可考虑采用本方式,其执行效率相对更高。 在成员集群中已部署服务非常多或应用较复杂情况下,该方式更适合。可基于更大的粒度,来做资源的接管和提升,例如: 以资源为粒度,迁移某种类型的全部资源 以应用为粒度,迁移某个应用涉及的所有类型的资源 此时,就需要资源模板结合集群联邦的调度策略PropagationPolicy,来接管相应资源,可以按如下方式操作。 a.将所有资源的 YAML 配置应用到 集群联邦控制面, 作为集群联邦的 ResourceTemplate。此时,资源模板只会存在联邦控制面,并不会下发任何成员集群; b.编写 PropagationPolicy 调度策略, 并将其应用到集群联邦控制面。 您需要注意以下两个字段: spec.conflictResolution: Overwrite:该字段的值必须是 Overwrite。 spec.resourceSelectors:指定哪些资源需要被迁移。 如果你希望的是将所有Deployment资源提升到联邦控制面管理,则可以配置类似如下的调度策略: shell apiVersion: policy.karmada.io/v1alpha1kind: PropagationPolicymetadata: name: deploymentsppspec: conflictResolution: Overwrite placement: clusterAffinity: clusterNames: member1 priority: 0 resourceSelectors: apiVersion: apps/v1 kind: Deployment schedulerName: defaultscheduler 当前,除了YAML方式创建外,也支持基于前端页面的引导创建。可进入联邦控制台>策略管理>调度策略>创建调度策略页面进行配置; 在以上调度策略配置完成后,联邦实例将进行联邦资源模板与底层的同步与覆盖。一段时间后即可观测到相关工作负载已被联邦实例接管; 3. 基于集群联邦,将服务逐步迁移到目标集群中; 已接管的工作负载,支持按需调整其调度策略及差异化策略,来实现工作负载多集群之间的灵活调度。此时,您可以在联邦控制面中编辑需要迁移工作负载的实例数或调度策略,使其复制分发到目标成员集群中去。 点击进入工作负载>无状态,选在对应的工作负载实例后,点击后侧“全量替换”操作按钮进行编辑: 在编辑页面中,直接跳过模板配置步骤,进入调度与差异化配置页面。通过设置调整集群调度策略,可将工作负载复制分发到目标集群,或按权重拆分部分副本到新集群。如下: 如上图配置,提交更新后,工作负载将在源集群和目标集群中1:1比例部署。 4. 服务验证及终端灰度切流; 该步骤中,用户可基于应用实际架构及服务需求,在验证目标成员服务正常后,实施真实用户流量的逐步切流; 切流过程中,可配合通过调度策略逐步调整工作负载Pod副本在源集群与目标集群之间的分布,并最终全部迁移到天翼云上CCE集群,以实现完整的切流;
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        生态中心
        应用迁移
        天翼云同Region迁移
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 注意 在进行数据迁移前,请确保所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据将无法完成迁移。 1. 选择数据迁移 页签,单击 创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入 任务名称 、 源节点 、目标节点 和 迁移类型 。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务 ,出现创建清理任务对话框。 2. 选择 源节点 、清理开始时间 和清理结束时间 ,单击确定 。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务对话框。 2. 选择回收节点 、设置回收开始时间 和 回收结束时间 ,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务 页签,单击 创建任务 ,出现创建数据重平衡任务对话框。 2. 输入任务名称 ,选择节点组 ,单击确定 ,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 , 并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1. 不能以pg开头。 2. 只支持大小写字母、数字和下划线。 3. 只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 使用Python第三方库psycopg2连接集群
        类名 功能描述 函数/成员变量 支持 备注 connections basic cursor(nameNone,cursorfactoryNone,scrollableNone,withholdFalse) Y connections basic commit() Y connections basic rollback() Y connections basic close() Y connections Twophase commit support methods xid(formatid,gtrid,bqual) Y connections Twophase commit support methods tpcbegin( xid ) Y connections Twophase commit support methods tpcprepare() N 内核不支持显式prepare transaction connections Twophase commit support methods tpccommit([ xid ]) Y connections Twophase commit support methods tpcrollback([ xid ]) Y connections Twophase commit support methods tpcrecover() Y connections Twophase commit support methods closed Y connections Twophase commit support methods cancel() Y connections Twophase commit support methods reset() N 不支持DISCARD ALL connections Twophase commit support methods dsn Y connections Transaction control methods and attributes. setsession(isolationlevelNone,readonlyNone,deferrableNone,autocommitNone) Y 数据库不支持session中设置defaulttransactionreadonly connections Transaction control methods and attributes. autocommit Y connections Transaction control methods and attributes. isolationlevel Y connections Transaction control methods and attributes. readonly N 数据库不支持session中设置defaulttransactionreadonly connections Transaction control methods and attributes. deferrable Y connections Transaction control methods and attributes. setisolationlevel( level ) Y connections Transaction control methods and attributes. encoding Y connections Transaction control methods and attributes. setclientencoding(enc) Y connections Transaction control methods and attributes. notices N 数据库不支持listen/notify connections Transaction control methods and attributes. notifies Y connections Transaction control methods and attributes. cursorfactory Y connections Transaction control methods and attributes. info Y connections Transaction control methods and attributes. status Y connections Transaction control methods and attributes. lobject N 数据库不支持大对象相关操作 connections Methods related to asynchronous support poll() Y connections fileno() Y connections isexecuting() Y connections Interoperation with other C API modules pgconnptr Y connections getnativeconnection() Y connections informative methods of the native connection gettransactionstatus() Y connections informative methods of the native connection protocolversion Y connections informative methods of the native connection serverversion Y connections informative methods of the native connection getbackendpid() Y 获取到的不是后台的pid,是逻辑连接的id号 connections informative methods of the native connection getparameterstatus(parameter) Y connections informative methods of the native connection getdsnparameters() Y cursor basic description Y cursor basic close() Y cursor basic closed Y cursor basic connection Y cursor basic name Y cursor basic scrollable N 数据库不支持SCROLL CURSOR cursor basic withhold N withhold cursor在commit前需要关闭 cursor Commands execution methods execute(query,varsNone) Y cursor Commands execution methods executemany(query,varslist) Y cursor Commands execution methods callproc(procname[,parameters]) Y cursor Commands execution methods mogrify(operation[,parameters]) Y cursor Commands execution methods setinputsizes( sizes ) Y cursor Commands execution methods fetchone() Y cursor Commands execution methods fetchmany([sizecursor.arraysize]) Y cursor Commands execution methods fetchall() Y cursor Commands execution methods scroll(value[,mode'relative']) N 数据库不支持SCROLL CURSOR cursor Commands execution methods arraysize Y cursor Commands execution methods itersize Y cursor Commands execution methods rowcount Y cursor Commands execution methods rownumber Y cursor Commands execution methods lastrowid Y cursor Commands execution methods query Y cursor Commands execution methods statusmessage Y cursor Commands execution methods cast( oid , s ) Y cursor Commands execution methods tzinfofactory Y cursor Commands execution methods nextset() Y cursor Commands execution methods setoutputsize( size [, column ]) Y cursor COPYrelated methods copyfrom(file,table,sep't',null'N',size8192,columnsNone) Y cursor COPYrelated methods copyto(file,table,sep't',null'N',columnsNone) Y cursor COPYrelated methods copyexpert(sql,file,size8192) Y cursor Interoperation with other C API modules pgresultptr Y
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        使用Python第三方库psycopg2连接集群
      • 对象列表
        本页介绍天翼云TeleDB数据库如何查找对象列表相关操作。 1. 选择数据源管理 > 元数据管理,进入到实例列表页面。 2. 单击目标实例操作菜单栏的库列表按钮,进入到数据库管理页面。 3. 在数据库列表操作菜单单击对象列表 按钮,进入对象列表管理页面。 4. 单击同步元数据 按钮,获取数据库实时的元数据信息。 > 对象 说明 > > 表 支持新建表、编辑、删除等操作。 > 视图 支持视图的新建、编辑、删除等操作。 > 存储过程 支持存储过程的新建、编辑、删除等操作。 > 函数 支持函数的新建、编辑、删除等操作。 > 触发器 支持触发器的新建、编辑、删除等操作。 > 事件 支持事件的新建、编辑、删除等操作,仅存在于MySQL系列数据库。 > 触发器函数 支持触发器的新建、编辑、删除等操作,仅存在于PostgreSQL系列和TeleDB数据库。 > 序列 支持触发器的新建、编辑、删除等操作,仅存在于PostgreSQL系列和TeleDB数据库。 表管理 1. 新建表 1. 支持可视化编辑创建表,详见查询和新建/编辑表结构。 2. 同步元数据刷新当前库/模式的表元数据。 3. 表详情 1. 单击列表操作栏的详情 按钮,展示选中表的详情信息,包括列信息和索引信息: 1. 列信息:包括列名,主键等主要信息。 2. 索引:包括索引名,索引字段等主要信息。 4. 打开表单击列表操作栏的打开 按钮,打开表的视图信息,默认展示20行。 1. 单击打开表,则跳转至数据管理模块的查询窗口页面。 2. 在查询窗口页面会展示当前表的SELECT语句。 3. 并自动执行该SELECT语句,返回结果集。 5. 生成DDL 单击列表操作栏的DDL按钮,生成表的DDL信息,支持对生成的DDL语句进行复制。 6. 删除表 单击列表操作栏的删除按钮,二次确认无误后,单击确认按钮即可完成对表的删除。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        对象列表
      • TeleDB数据管理服务
        本文为您介绍组成TeleDB管控数据管理服务的元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块。 TeleDB管控数据管理服务由元数据管理、查询窗口、数据导入导出、慢查询分析、容量评估、会话管理和锁分析功能等模块组成。它旨在为企业提供一套全面的数据管理解决方案,包括数据的存储、访问、分析和安全等核心环节。通过TeleDB管控数据管理模块,企业可以实现对数据的集中式管理和存储,从而简化了数据的访问和检索过程。 元数据管理模块 :提供对实例、数据库、模式、表和可编程对象等各级数据库对象的元数据管理,在数据库的创建、编辑、删除等常规操作需提供界面化操作支持,可以实时同步数据库的元数据信息。 查询窗口模块 :数据库开发者常用功能,提供功能丰富的SQL输入框,包括语法提示、脚本保存以及结果集的返回,支持对结果集进行界面可视化编辑进行数据更新。 数据导入导出模块 :支持多种文件格式的数据导入到数据库,以及从数据库中导出数据。支持的文件格式为:sql、txt和csv。支持不同层级的数据导入导出,分别支持库/模式以及表级的数据导出。同时,也支持不同层级数据库对象的结构导出。 慢查询分析 :慢查询统计、索引推荐主要和管控实例交互获取,慢查询分析、语句优化主要和业务实例交互获取,性能容量评估操作建议可联动慢查询分析,进行服务调用,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 性能容量评估 :性能容量评估的监控指标数据主要和管控实例交互获取,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 会话管理 :会话管理通过业务实例获取全局会话和异常会话的信息,并提供部分会话、全部会话的终止功能,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。 锁分析: 锁分析通过管控实例获取到业务实例最近一次发生死锁的信息,获取到死锁的事务环信息和回滚的事务信息并展示说明,实例元数据为服务入口,Agent代理主要用作网络跨区服务,ZooKeeper主要负责服务注册及发现的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB数据管理服务
      • 通过误报处理提升Web基础防护效果
        防护等级 说明 宽松 防护粒度较粗,只拦截攻击特征比较明显的请求。 当误报情况较多的场景下,建议选择“宽松”模式。 中等 默认为“中等”防护模式,满足大多数场景下的Web防护需求。 严格 防护粒度最精细,可以拦截具有复杂的绕过特征的攻击请求。 当需要更严格地防护SQL注入、跨站脚本、命令注入等攻击行为时,建议使用“严格”模式。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        最佳实践
        通过误报处理提升Web基础防护效果
      • 创建方式简介
        本章节主要介绍创建翼MapReduce服务的方式。 用户可以通过点击翼MapReduce产品页的“立即开通”或翼MR控制台内的“创建集群”进入订购页面,按需完成软件、硬件与基础配置,通过确认订单并支付,完成集群创建。支付后我们将为您尽快拉起集群,您可前往翼MR控制台查看集群的创建进度。 创建数据湖集群:数据湖集群提供更高效、灵活的集群管理,更快地运行大数据的计算引擎,更好地提供数据分析能力,帮助您更加方便快捷的对数据湖的计算、存储资源进行构建和管理。 创建数据分析集群:数据分析集群使用开源的MPP架构的OLAP分析引擎,支持亚秒级的数据查询和多表join,帮助您更加快捷的进行数据分析工作。 创建数据服务集群:数据服务集群提供高度可靠性、可扩展性的数据服务以满足您的数据需求。 创建云搜索集群:云搜索集群通过分布式计算和存储系统,为结构化/非结构化数据提供低成本、高性能及可靠性的检索、分析服务能力,帮助您更方便的检索大规模数据集。 创建实时数据流集群:实时数据流集群提供高效的流式计算、消息队列等组件能力,支持实时数据ETL和日志采集分析的业务需求。 创建自定义集群:自定义集群提供丰富灵活的服务搭配,支持自行选择业务所需服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建方式简介
      • 功能特性
        本文带您了解云间高速(标准版)的功能特性。 云间高速(标准版)(CECStd, Express Connect Standard)为您提供一种能够快速构建同域、跨域VPC之间的高速、优质、稳定的网络能力,帮助您打造一张具有企业级规模和通信能力的云上网络。云间高速(标准版)具备大规模灵活组网、网络资源互通、路由自主学习和分发,跨区域互通带宽配置及与SDWAN混合组网等功能特性。 大规模灵活组网 每个地域可以创建云企业路由器,集中连接网络实例,组网可控、可管、易扩展。 简化拓扑 网路实例(VPC、云专线、跨账号VPC、VPN、云桌面网络)均集中连接到云企业路由器,简化点到点连接的管理成本,提高组网扩展性。 灵活可控 灵活定义互通、隔离、引流策略,提高网络安全性。 网络资源互通 任意网络实例间互通,提供高速、可靠、稳定的网络质量。 支持多网络实例互通 网络实例包括VPC、云专线、跨账号VPC、VPN和云桌面网络。 将同一账号下同域或跨域VPC加载到云间高速(标准版),可以实现VPC之间的互通。 将云专线加载到云间高速(标准版),可以实现云下IDC与云上多VPC互通,构建混合云。 涉及跨账号的同域或跨域VPC互联,首先需要跨账号授权网络实例,授权完成后,将跨账号网络实例加载到云间高速(标准版),即可实现跨账号同域或跨域VPC互通。 低时延 任意两点网络实例之间以最短路径私网互通,高速率,低时延。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        功能特性
      • 存储
        本章节主要介绍天翼云物理机支持挂载哪些存储类型。 物理机支持挂载云硬盘,并且支持从云硬盘启动,解决了传统物理服务器受限于本地硬盘容量的问题。 物理机还支持挂载共享云硬盘,由多台服务器并发读写访问,满足您企业核心系统集群部署的需求。 云硬盘类型 普通IO:该类型云硬盘的最大IOPS为2200,适用于大容量、读写速率中等、事务性处理较少的应用场景,例如企业的日常办公应用或者小型测试等。 高IO:该类型云硬盘的最大IOPS可达5000,最低读写时延为1ms,适用于主流的高性能、高可靠应用场景,例如企业应用、大型开发测试以及Web服务器日志等。 超高IO:该类型云硬盘的最大IOPS可达50000,最低读写时延为1ms,适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。 通用型SSD:该类型云硬盘的最大IOPS可达20000,最低读写时延为1ms,适用于各种主流的高性能、低延迟交互应用场景,例如企业办公、大型开发测试、转码类业务、Web服务器日志以及容器等高性能系统盘。 极速型SSD:该类型云硬盘的最大IOPS可达128000,最低读写时延为亚毫秒级,采用了结合全新低时延拥塞控制算法的RDMA技术,适用于需要超大带宽和超低时延的应用场景。 说明 当前physical.d1.large 和 physical.d2.large 规格为本地存储型(大数据)机型,不支持挂载云硬盘。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        存储
      • 1
      • ...
      • 74
      • 75
      • 76
      • 77
      • 78
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      AI Store

      科研助手

      智算一体机

      知识库问答

      推荐文档

      篡改告警

      产品功能

      升级

      操作类

      天翼云最佳实践⑥:Win Server php-asp 环境安装

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号