活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 进程标题相关参数
        本页介绍天翼云TeleDB数据库进程标题相关参数。 这些设置控制服务器进程的进程标题是如何被修改的。进程标题通常使用程序ps查看,或者,在Windows上, 使用进程管理器查看。 clustername (string) 设置出现在集群中的所有进程标题中的集群名称。名称可以是任何小于NAMEDATALEN字符(标准64字符)的字符串。 只有可输出的ASCII字符可以用在clustername值中。 其他字符将用问号替换(?)。 如果此参数设置为空字符串''(即为缺省值),不显示名字。 此参数只能在服务器启动时设置。 updateprocesstitle (boolean) 启用更新进程标题的特性,这个特性在每次服务器接收到一个新SQL命令时都会更新进程的标题。 这个设置在大多数平台上默认为on,但是在Windows上默认为 off,因为该平台对于更新进程标题有较大的开销。 只有超级用户可以更改这个设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        进程标题相关参数
      • 安装前检查
        您需要在部署天翼云TeleDB数据库之前,检查相关的机器、安装包、操作系统、端口等信息。 确保您的安装包与操作系统版本匹配。 检查机器之间是否存在通信问题或者拦截问题,确保主机之间网络互通。 确保已获取主机超级用户。 确保所有主机不能拥有teledbx用户,当安装或者开通实例会自动创建,无需手动创建。 若为高可用则需要配置vip,每组cn一个。 检查部署机器是否有空闲数据盘提供使用,已经挂载好磁盘不需要重新挂载。 安装之前请确保所有需要使用的服务端口未被占用。 安装的系统预先装好jdk 环境,建议 1.8.0201 版本及以上。 检查主机是否自带libaio0.3.10913.el7.x8664.rpm lz41.7.53.el7.x8664.rpm pv1.4.61.el7.x8664.rpm sshpass1.062.el7.x8664.rpm 依赖 perl 依赖。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装前准备
        安装前检查
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务MQTT已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号 :用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号 :主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目: 将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        权限管理
        主子账号
      • 生产消费
        本节介绍了编译工程生产消费的主要内容点,包括引入依赖、绑定BindingKey、生产消息和消费消息。 前提条件 创建分布式消息服务RabbitMQ实例。 操作步骤 RabbitMQ是一个开源的消息队列中间件,支持生产者和消费者之间的异步通信。在上述资源准备完成后,接下来需要编译工程生产消费,主要分以下几个步骤: 1、编写生产者代码:编写一个生产者程序。该程序将连接到RabbitMQ服务器,并将消息发送到队列中。 2、编写消费者代码:编写一个消费者程序。该程序将连接到RabbitMQ服务器,并从队列中接收消息。 3、运行生产者和消费者:运行生产者程序,它将发送消息到队列中。然后运行消费者程序,它将从队列中接收并处理消息。 4、验证结果:检查生产者和消费者程序的输出,确保消息被正确发送和接收。 引入依赖 在使用RabbitMQ时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用RabbitMQ之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用RabbitMQ的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: com.rabbitmq amqpclient 5.7.0 也可以通过下载JAR包来引入依赖。 绑定BindingKey 在RabbitMQ中,绑定键(Binding Key)是用于绑定交换机(Exchange)和队列(Queue)的关键字。当一个消息被发送到交换机时,交换机会根据绑定键将消息路由到相应的队列中。 绑定键是在创建绑定(Binding)时指定的,它定义了消息应该如何被路由到队列。绑定键通常与消息的属性或内容进行匹配,以确定消息应该发送到哪个队列。 绑定键可以具有不同的形式,取决于使用的交换机类型。以下是一些常见的绑定键形式: 直接匹配(Direct Match):绑定键与消息的路由键(Routing Key)完全匹配时,消息会被路由到相应的队列。 通配符匹配(Wildcard Match):绑定键可以使用通配符进行模式匹配。常见的通配符有和
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        生产消费
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务RabbitMQ已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号:用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号:主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目:将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        权限管理
        主子账号
      • 主子账号和IAM权限管理
        本文介绍Redis主子账号和IAM权限管理 分布式缓存服务Redis版已对接天翼云统一身份认证服务(IAM),可实现控制台按钮、菜单功能、OpenAPI等维度对用户访问、操作资源的权限控制等, 以达到用户权限的精细管理,保证访问的安全性。 IAM简介 统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。目前天翼云提供对应专有的CTIAM服务,用户可申请开通后免费使用,您只需要为您帐号中的云服务和资源进行付费。具体IAM使用说明详情见:统一身份认证。 IAM涉及主要概念 主用户:用户在天翼云注册后自动创建,该用户对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,为了确保账号安全,建议创建子用户来进行日常管理工作。 子用户:由拥有IAM权限的用户,在用户中心创建的子用户。子用户的用户名、密码由拥有IAM权限的用户控制。子用户同样可以登录访问天翼云控制台,登录入口与主用户相同,受赋予的权限限制。 用户组:用户组是用户的集合,IAM通过用户组功能实现用户的授权。您创建的IAM用户,需要加入特定用户组后,才具备对应的权限,否则IAM用户无法访问您帐号中的任何资源或者云服务。 系统策略:由产品团队维护,系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对 ECS 的只读权限、对 ECS 的管理员权限等;系统策略在IAM控制台中只能用于授权,不能编辑和修改。 自定义策略:由用户自己在IAM控制台创建和管理的权限集,是用户可以自由定义的权限,是对系统策略的扩展和补充。 企业项目:企业项目权限实现细粒度控制的基础。将云资源、企业成员按企业项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用企业项目内云资源的权限受用户组的授权限制。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        主子账号和IAM权限管理
      • RabbitMQ惰性队列
        本文主要介绍分布式消息服务RabbitMQ的惰性队列最佳实践。 使用场景 默认情况下,RabbitMQ生产者生产的消息存储在内存中,当需要释放内存时,会将内存中的消息换页至磁盘中。换页操作会消耗较长的时间,且换页过程中队列无法处理消息。 如果生产速度过快(例如执行批处理任务),或者消费者由于各种原因(例如消费者下线、宕机)长时间内无法消费消息,导致消息大量堆积,使得内存使用率过高,换页频繁,可能会影响其他队列的消息收发。这种场景下,建议您启用惰性队列。 惰性队列(Lazy Queue)会尽可能的将消息存入磁盘中,在消费者消费到相应的消息时才会被加载到内存中,这样可以减少内存的消耗,但是会增加I/O的使用,影响单个队列的吞吐量。惰性对列的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储/消息堆积。 在以下情况下,推荐使用惰性队列: 队列可能会产生消息堆积 队列对性能(吞吐量)的要求不是非常高,例如TPS 1万以下的场景 希望队列有稳定的生产消费性能,不受内存影响而波动 处于以下情况时,无需使用惰性队列: RabbitMQ需要高性能的场景 队列总是很短(即队列中没有消息堆积) 设置了最大长度策略 设置惰性队列 队列具备两种模式:default和lazy,默认模式为default。lazy模式即为惰性队列的模式,可以通过调用channel.queueDeclare方法的时候在参数中设置,也可以通过Policy的方式设置。如果一个队列同时使用这两种方式设置的话,Policy的方式具备更高的优先级。 以下示例演示在Java客户端通过调用channel.queueDeclare设置惰性队列。 Map args new HashMap (); args.put("xqueuemode", "lazy"); channel.queueDeclare("myqueue", false, false, false, args); 以下示例演示在RabbitMQ的Web界面通过Policy的方式设置惰性队列。 更多关于惰性队列的说明,请参考Lazy Queues 。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ惰性队列
      • Redis命令
        本章介绍分布式缓存服务Redis命令。 如何清空Redis数据? 注意数据清空功能为高危操作,请谨慎执行。 Redis3.0实例 Redis3.0实例不支持在DCS控制台上执行“数据清空”功能。需要使用Rediscli客户端连接实例,执行flushdb或者flushall命令进行清空。 flushall:清空整个实例的数据。 flushdb:清空当前DB中的数据。 如何在Redis中查找匹配的Key和遍历所有Key? 查找匹配Key 在大Key和热Key分析中,不支持按照指定格式分析,如果需要查找指定前缀或者后缀格式的Key,您可以使用scan命令,根据指定格式进行匹配查找。 例如,需要查找Redis实例中包含a关键字的Key,可以使用Rediscli工具,执行以下命令: ./rediscli h {redisaddress} p {port} [a password ] scan pattern ' a ' 遍历所有Key 由于keys命令复杂度高,容易导致Redis无响应,所以禁止使用keys命令遍历实例所有的Key。如果需要在Redis实例中遍历所有的Key,可以使用Rediscli工具,执行以下命令可以遍历Redis实例的所有key。 ./rediscli h {redisaddress} p {port} [a password ] scan pattern '' scan命令的使用方法,可以参考Redis官方网站。 在WebCli执行keys命令报错“permission denied” WebCli已禁用keys 命令,请使用Rediscli执行。 高危命令如何禁用? Redis4.0及以上版本的实例创建之后,支持重命名高危命令。当前支持重命名的高危命令有command、keys、flushdb、flushall、hgetall、scan、hscan、sscan、和zscan,Proxy集群实例还支持dbsize和dbstats命令重命名,其他命令暂时不支持。 您可以在创建实例时进行重命名以上高危命令,或在创建完成后,在缓存管理页面,选中实例,单击操作列的“更多 > 命令重命名”进行重命名以上高危命令。 说明 目前Redis不支持直接禁用命令,涉及到以上高危命令,可以使用命令重命名。关于DCS实例支持和禁用的命令请参考 命令重命名提交后,系统会自动重启实例,实例完成重启后重命名生效。 因为涉及安全性,页面不会显示这些命令,请记住重命名后的命令。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis命令
      • 管理标签
        本节介绍了管理标签的相关内容。 标签是DCS实例的标识,为DCS实例添加标签,可以方便用户识别和管理拥有的DCS实例资源。 您可以在创建DCS实例时添加标签,也可以在DCS实例创建完成后,在实例的详情页添加标签,您最多可以给实例添加20个标签。另外,您还可以进行修改和删除标签。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如下表所示。 表 标签命名规则 参数名称 规则 标签键 不能为空。 对于同一个实例,Key值唯一。 首尾字符不能为空格。 长度不超过128个字符。 可以包含任意语种的字母、数字、空格和 . : + @。 不能以sys开头。 标签值 长度不超过255个字符。 可以包含任意语种的字母、数字、空格和 . : / + @。 首尾字符不能为空格。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击 ,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”。进入缓存管理页面。 步骤 4 在需要查看的DCS缓存实例左侧,单击该实例的名称,进入该实例的基本信息页面。 步骤 5 单击“实例配置>标签”页签,进入标签管理页面。 界面显示该实例的标签列表。 步骤 6 您可以根据实际需要,执行以下操作: 添加标签 a. 单击“添加/编辑标签”,弹出“添加/编辑标签”对话框。您可以直接在“标签键”和“标签值”中输入设置标签。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 b. 单击“确定”。为实例添加标签成功。 修改标签 单击“添加/编辑标签”,弹出“添加/编辑标签”窗口,若想修改某标签键,在“添加/编辑标签”窗口中先删除该键,再添加该键,输入想要修改的标签值,单击“添加”。 删除标签 单击标签所在行“操作”列下的“删除”,如果确认删除,在弹出的“删除标签”窗口,单击“确定”。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        管理标签
      • 缓存命中
        本文为您介绍模型推理服务缓存命中能力。 缓存命中概念 在大模型API的实际调用中,许多场景(如长文档问答、多轮对话、带有大量 System Prompt 的角色扮演)会反复向模型发送相同的前置内容。缓存命中是一项旨在优化此类场景的高效计算机制,系统会将您请求中的重复前置内容进行缓存,当您后续的请求携带相同的前置内容时,模型无需重新计算这些 Token。从而降低使用成本,命中缓存的输入Token将享受折扣价。 支持的模型 支持缓存命中能力的模型见各模型卡片,或前往按需计费模式Tokens查看。 如何提升缓存命中率 在分布式集群架构下,为了提升缓存命中率,您可以在调用模型服务时传入特定的自定义参数。 1. 提升命中率的参数接入说明 在调用支持缓存命中能力的模型时,您可以在请求体Body中携带上下文会话标识参数。 参数名称:promptcachekey 参数限制:最大长度不超过64个字符。 参数要求:建议传入具有唯一性的字符串(如用户的 UserID、会话的 SessionID、文档的 DocumentID 等)。属于同一长文档阅读或同一用户连续对话的请求,建议保持该参数值一致。 2. 调用请求示例 (cURL) plaintext curl location request POST ' header 'Authorization: Bearer xxx' header 'ContentType: application/json' header 'Accept: /' dataraw '{ "model": "xxx", "promptcachekey": "myprefixcachekey001", "messages": [ { "role": "user", "content": "请对北京与上海这两座中国顶级一线城市进行全面、深度、多角度、客观中立的对比分析。" } ], "maxtokens": 200, "temperature": 0.6, "topp": 0.7, "repetitionpenalty": 1.0, "stream": true, "enablethinking": true, "streamoptions": { "includeusage": true } }'
        来自:
        帮助文档
        模型推理服务
        用户指南
        模型服务
        缓存命中
      • 功能特性
        本节主要介绍云存储网关的功能特性。 接口适配 支持SAN网络存储类型,即通过标准iSCSI协议支持块存储。 访问加速 采用分布式双控架构,提升读写性能,延迟极低。同时也实现了本地缓存和云端存储的冷热数据分离,提高了数据访问速度。 统一管理 提供统一管理功能,支持单机和集群部署,并可以集中管理服务器和存储卷。 支持系统监控和报警,可以监控服务器CPU、内存、数据读写速度等信息,系统运行异常时立即发出告警。 自动部署 支持部署在通用硬件服务器上,支持一键自动化软件部署、滚动升级,运维简单、易用、高效。 通过在线增加服务器或者磁盘进行扩容,且在扩容过程中,不影响用户业务,数据平滑迁移。 数据保护 支持多副本和纠删码数据冗余保护机制,可以提高空间的利用效率并获得较好的数据保护效果,保证了海量数据的存储可靠性和持续可用性。 支持数据完整性校验、传输加密,确保数据安全可靠,同时利用了OOS独有的原子操作,能够真正确保云上数据的一致性。 上云能力 支持多种数据上云方式,本地既可只缓存热数据,又可以保留全量数据,数据自动同步到云端,实现存储空间弹性扩展。 云存储网关功能特性 功能模块 功能特性 :: 安装部署 支持单机版、集群版部署具备安装、初始化、密码修改、升级、卸载功能。 基础服务 卷:创建、查询、删除、启用、禁用、扩容、修改。 基础服务 iSCSI Target:创建、查询、删除、修改。 基础服务 服务器:添加、查询、移除、修改、启动、停止、重启、还原。 基础服务 数据目录:添加、移除。 系统设置 邮件通知:启用、禁用、查询、删除。 系统设置 远程协助:启用、禁用、查询、删除。 系统设置 备份配置:启用、禁用、查询、删除、执行备份。 系统设置 系统信息:查询部署信息、状态信息、版本信息。 监控 CPU使用率、内存使用率、各数据目录的磁盘使用率和使用量、数据传输情况(当天写入量,当前读取量,当天写请求成功率,当天读请求成功率,累计写入量,累计读取量)。
        来自:
        帮助文档
        云存储网关
        产品简介
        功能特性
      • 产品功能
        产品功能 功能详情 视图接入 设备接入:支持GB28181/GB35114/GA1400/RTMP/RTSP/EHOME等多种标准协议设备直接接入。 平台接入:支持下级GB28181平台级联接入,支持下级GA1400视图库接入。 网关接入:支持局域网内设备通过边缘网关批量上云,支持主流视频厂商私有SDK协议、Onvif标准协议设备接入。 视图存储 录制模板:支持配置录像存储天数、自动录制、按需录制等。 视频存储:支持视频流实时全量存储,按需存储。 图片存储:支持抓拍机/AI设备等多种设备抓拍上传存储。 存储优势:支持纠删码方式进行分布式存储,具备流直存能力。 视图分发 直播分发协议:支持输出RTMP/FLV/HLS/WebRTC协议。 点播分发协议:支持输出HLS协议,MP4录像文件下载。 视频共享:支持向上级GB/T28181平台共享设备视频数据,支持向上级GA/T 1400视图库共享图片数据。 视图分析 算法仓库:支持算法仓库管理,高效的GPU算力资源调度、算法编排,算法与设备灵活绑定。 场景API:支持人脸识别、人体属性检测、车牌识别、城市治理多场景API。 告警回调:支持将分析结果通过回调配置,同步给其他平台。 访问管理 访问控制:管理员可以根据用户职责,创建不同的IAM用户并分配不同的访问权限,包括分配不同的设备访问资源和设备操作权限。 跨账号资源访问:支持委托信任的天翼云账号安全共享设备资源,支持灵活分配共享的资源权限范围。 开放平台 具备OpenAPI接口:平台所有原子化能力可以通过OpenAPI接口提供给应用平台。 具备API Explorer能力:可以通过API Explorer在线调试OpenAPI接口。 视频调阅 实时预览:支持多分屏、云台控制、电子缩放、语音对讲、实时截图。 录像回放:支持多分屏、倍速、同步/异步放像、电子缩放、录像截图、录像下载。 视图查看:支持视图数据查询及基本信息查看。 电子地图:支持平面/3D/卫星地图模式切换、支持多种点位汇聚模式。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        产品功能
      • 应用场景
        适用场景 众所周知,将传统的单体应用拆分为一个个微服务固然带来了各种好处,包括更好的灵活性、可伸缩性、重用性,但微服务也同样面临着特殊的安全需求,如下所示: 为了抵御中间人攻击,需要用到流量加密。 为了提供灵活的服务访问控制,需要用到TLS和细粒度访问策略。 为了决定哪些人在哪些时间可以做哪些事,需要用到审计工具。 面对这些需求应用服务网格提供全面的安全解决方案,包括身份验证策略,透明的TLS加密以及授权和审计工具。 价值 默认的安全性:无需修改即可保证应用程序代码和架构的安全性。 纵深防御:与现有的安全系统结合并提供多层防御。 零信任网络:在不受信任的网络上构建安全解决方案。 优势 非侵入安全:应用服务网格是以一种安全基础设施的方式向用户提供透明的安全能力,让不涉及安全问题的代码安全运行,让不太懂安全的人可以开发和运维安全的服务,不用修改业务代码就能提供服务访问安全。应用服务网格提供了一个透明的分布式安全层,并提供了底层安全的通信通道,管理服务通信的认证、授权和加密,提供Pod到Pod、服务到服务的通信安全。开发人员在这个安全基础设施层上只需专注于应用程序级别的安全性。 细粒度授权:在认证的基础上,就可以进行服务间的访问授权管理,可以控制某个服务,或者服务的一个特定接口进行授权管理。如只开放给特定的一个Namespace下的服务,或者开放给某个特定的一个服务。源服务和目标服务可以在不同的集群,甚至源服务的不同实例在不同的集群,目标服务的不同实例在不同的集群。 服务运行监控
        来自:
        帮助文档
        应用服务网格
        产品简介
        应用场景
      • prometheus(停止维护)
        本文主要介绍 prometheus。 插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 约束与限制 CCE提供的Prometheus插件仅支持1.21及以下版本的集群。 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: 时间序列数据通过metric名和键值对来区分。 所有的metrics都可以设置任意的多维标签。 数据模型更随意,不需要刻意设置为以点分隔的字符串。 可以对数据模型进行聚合,切割和切片操作。 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        prometheus(停止维护)
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 消息层配置
        本章节介绍应用容灾多活的消息层配置。 概述 消息层配置主要包括消息队列 和消息同步,每个单元组可以单独进行配置,不同单元的消息队列之间通过消息路由服务进行同步。 应用容灾多活通过控制面与数据面协同,对指定Topic消息进行打标与过滤。当某个单元发生故障时,可以通过切流任务将故障单元的消息在其他正常单元进行回溯接管,从而保障消息不丢失。 图 消息层配置 前提条件 已开通消息层功能模块。 已完成系统架构配置以及路由规则配置。 已为应用开通分布式消息服务RocketMQ实例。 已为不同站点的实例创建同名的Topic和Group。 配置消息队列 1. 登录应用高可用服务控制台。 2. 单击左侧菜单栏应用容灾多活 ,在应用容灾多活菜单下单击数据双活/应用双活 ,进入数据双活/应用双活管理页面。 3. 在应用系统列表中找到需要配置的应用系统,单击应用系统名称 ,进入应用系统概览页面。 4. 单击左侧导航栏容灾配置 ,在容灾配置菜单下单击消息层配置 ,进入容灾配置消息层配置页面。 5. 单击消息队列 配置列表上方创建 按钮,弹出创建消息队列配置页面。 6. 如下表示例,填写配置信息,单击确定按钮,完成配置。 7. 如需修改或删除消息队列配置,可单击所选配置操作列修改 或删除按钮,根据界面提示进行操作。 表 消息队列配置 配置项 描述 示例 消息队列名称 消息队列自定义标识。 商城北京消息队列 站点 消息队列部署所在站点。 北京站点 产品类型 消息队列技术类型: RocketMQ RocketMQ 实例类型 消息队列产品类型。 云实例 消息队列实例 消息队列对应的云实例ID。 RocketMQ810
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        资源管理
        消息层配置
      • 支持的监控指标
        本文主要介绍 支持的监控指标。 功能说明 本章节定义了分布式消息服务Kafka上报云监控服务的监控指标的命名空间,监控指标列表和维度定义,您可以通过云监控服务的管理控制台或API接口来检索Kafka实例产生的监控指标和告警信息,也可以通过分布式消息服务Kafka控制台提供的“监控”页面来检索Kafka实例产生的监控指标。 命名空间 SYS.DMS 实例监控指标 表 实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。单位:Count 0~1800 Kafka实例 1分钟 currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。单位:Count 0~1800 Kafka实例 1分钟 groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。单位:Count 0~1000000000 Kafka实例 1分钟 节点监控指标 表 节点支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) brokerdatasize 节点数据容量 该指标用于统计节点当前的消息数据大小。单位:Byte、KB、MB、GB、TB、PB 0~5000000000000 Kafka实例节点 1分钟 brokermessagesinrate 消息生产速率 该指标用于统计每秒生产的消息数量。单位:Count/s 0~500000 Kafka实例节点 1分钟 brokerbytesoutrate 消费流量 该指标用于统计每秒消费的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerbytesinrate 生产流量 该指标用于统计每秒生产的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesinrate 公网入流量 统计Broker节点每秒公网访问流入流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesoutrate 公网出流量 统计Broker节点每秒公网访问流出流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerfetchmean 消费请求平均处理时长 统计Broker节点处理消费请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokerproducemean 生产请求平均处理时长 统计Broker节点处理生产请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokercpucoreload CPU核均负载 该指标为从Kafka节点虚拟机层面采集的CPU每个核的平均负载。单位:% 0~20 Kafka实例节点 1分钟 brokerdiskusage 磁盘容量使用率 该指标为从Kafka节点虚拟机层面采集的磁盘容量使用率。单位:% 0~100% Kafka实例节点 1分钟 brokermemoryusage 内存使用率 该指标为Kafka节点虚拟机层面采集的内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerheapusage Kafka进程JVM堆内存使用率 该指标从Kafka节点Kafka进程JVM中采集的堆内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokeralive 节点存活状态 表示Kafka节点是否存活。 1:存活 0:离线 Kafka实例节点 1分钟 brokerconnections 连接数 统计Kafka节点当前所有TCP连接数量。单位:Count 0~65535 Kafka实例节点 1分钟 brokercpuusage CPU使用率 统计Kafka节点虚拟机的CPU使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerdiskreadawait 磁盘平均读操作耗时 该指标用于统计磁盘在测量周期内平均每个读IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokerdiskwriteawait 磁盘平均写操作耗时 该指标用于统计磁盘在测量周期内平均每个写IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokertotalbytesinrate 网络入流量 统计Broker节点每秒网络访问流入流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokertotalbytesoutrate 网络出流量 统计Broker节点每秒网络访问流出流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokerdiskreadrate 磁盘读流量 磁盘读操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟 brokerdiskwriterate 磁盘写流量 磁盘写操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        支持的监控指标
      • 删除实例
        本节介绍了GeminiDB Redis的删除实例说明及操作步骤。 操作场景 您可以删除不使用的实例来释放资源。 使用须知 若您确定删除实例,该实例上的数据以及相关的自动备份将全部被清除,且不可恢复,请谨慎操作。 删除实例后,实例下所有节点将同步被删除。 操作步骤 1、 登录云数据库GeminiDB控制台。 2、在“实例管理”页面,选择指定的实例,选择“删除”或“更多>删除实例”。 3、在弹出框中,单击“是”。 实例被删除后,将不再显示在实例列表中。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        实例生命周期
        删除实例
      • Linux mdadm 软RAID阵列创建与管理指南
        级别 最小磁盘 容错能力 可用容量 适用场景 RAID0 2 无 100% 临时数据/高速缓存 RAID1 2 单磁盘故障 50% 系统盘/关键服务 RAID5 3 单磁盘故障 (N1)/N 文件服务器 RAID6 4 双磁盘故障 (N2)/N 大容量存储 RAID10 4 镜像组内故障 50% 高负载数据库
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        Linux mdadm 软RAID阵列创建与管理指南
      • 工作说明书
        服务内容 服务描述 交付物 现状调研 业务现状、业务架构、客户目标调研 健康检查 检查业务网络架构、弹性计算架构、存储架构、数据库架构、中间件架构、安全架构的健康情况 优化建议 依据健康检查结果,给出优化建议 优化方案 技术支持 在交付期内,为优化方案落地提供技术支持
        来自:
        帮助文档
        专家技术服务
        健康检查服务
        工作说明书
      • 探测节点:查询详情
        参数 参数类型 说明 示例 下级对象 mongoID String 数据库ID 635a4a3869bdc841ab0495dd ID String 探测节点唯一ID 1 name String 探测节点名称 NeiMeng hermesRegion String region名称 neimengaz03 position String 探测节点区域 内蒙 status Boolean 探测节点是否可用 true
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        站点监控
        探测节点:查询详情
      • 登录数据管理服务
        本节主要介绍登录数据管理服务 操作步骤 1. 登录天翼云控制台。 2. 单击管理控制台右上角的,选择区域和项目。 3. 在页面左上角单击,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务信息页面
        来自:
        帮助文档
        数据管理服务
        快速入门
        登录数据管理服务
      • 探测节点:查询列表
        参数 参数类型 说明 示例 下级对象 mongoID String 数据库ID 635a4a3869bdc841ab0495dd ID String 探测节点唯一ID 1 name String 探测节点名称 NeiMeng hermesRegion String region名称 neimengaz03 position String 探测节点区域 内蒙 status Boolean 探测节点是否可用 true
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        站点监控
        探测节点:查询列表
      • 租户集群为自建集群
        安装部署 成功下载kubectl.yaml文件后,执行以下步骤即可自动完成部署: 1. 登录集群K8S Master节点。 2. 执行 kubectl apply f kubectl.yaml命令。 部署成功 前往“安装配置 > 运行状态”查看具体部署情况。 部署成功后,sever将租户信息上报至数据库,与项目信息进行关联展示。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        安装配置
        租户集群为自建集群
      • 产品定义
        本节介绍云等保专区产品的定义及架构。 云等保专区是满足等保合规2.0云原生安全合规平台。云等保专区提供安全统一管理、传输安全、计算环境安全等安全合规能力,实现统一管理、统一运营,整体上降低等保建设难度和日常管理运营复杂度。 本产品为满足等保合规,提供一揽子安全原子能力,包括云安全中心、主机安全、Web应用防火墙、下一代防火墙、堡垒机、漏洞扫描、日志审计、数据库审计、数据分类分级、数据脱敏与水印,实现安全原子能力统一管理、统一运营,为用户侧等保合规需求提供便捷下单、自动化部署的能力。 产品架构 如下图所示,云等保专区产品基于天翼云基础设施资源,利用云原生安全技术,融合了堡垒机、Web应用防火墙(WAF)、日志审计、数据库审计、漏洞扫描、防火墙、主机安全、云安全中心,为用户提供一站式等保防护能力。 对于云上租户来说,每个用户的安全能力都是部署在独立的用户VPC中,这样将原子能力最小化的架构能够最大限度地保障用户的数据安全,同时也能满足不同用户的安全防护诉求,用户可基于自己的安全诉求,进行不同安全策略的设置。
        来自:
        帮助文档
        云等保专区
        产品介绍
        产品定义
      • 诊断报告
        诊断报告提供一键生成实例诊断报告的能力,支持用户发起诊断或查看历史诊断报告。 前提条件 仅限来源为天翼云RDS的MySQL、DDS、SQL Server数据库。 已录入DMS中,且实例状态正常的数据库实例。 诊断报告中慢SQL与表空间诊断仅支持西南1、华东1、上海36、华北2、长沙42、华南2、青岛20、南昌5、西安7、杭州7资源池。 注意事项 诊断报告的诊断分数与健康评级的具体评分规则,请详见评分规则。 诊断报告仅支持发起近7天的实例诊断,单次诊断时间范围最短为1小时,最长为24小时。 诊断报告仅保存7天,过期后无法下载。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 诊断报告,进入诊断报告界面。 功能介绍 诊断报告提供一键生成实例诊断报告的能力,支持用户发起诊断或查看历史诊断报告。 发起诊断:单击发起诊断 按钮,选择诊断时间范围,单击确认后生成诊断报告记录。 查看报告:单击诊断报告记录右侧详情按钮,查看诊断报告内容。 删除报告:单击诊断记录右侧删除按钮,删除诊断报告。 导出报告:查看诊断报告内容,单击右上方导出报告按钮,下载诊断报告。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        诊断报告
      • 手动续费
        您可以随时手动续订包年包月的容灾管理中心、主机高可用、持续数据保护、数据定时灾备、数据库双活、文件存储数据灾备、对象存储数据灾备资源,本文介绍手动续订操作方式。 续订限制 用户随时可以手动续订包月包年且未退订、未释放的资源,延长相关资源的使用时间。 操作步骤 容灾管理中心续订 1. 在多活容灾服务控制台容灾管理容灾管理中心列表操作栏,点击“续订”按钮,弹出“续订容灾管理中心”弹窗。 2. 在弹窗中选择需要续订的时长,点击“确认”按钮,完成续订操作。 主机高可用续订 1. 在多活容灾服务控制台资源同步资源同步管理主机高可用,点击“续订”按钮,弹出“续订主机高可用”弹窗。 2. 在弹窗中选择需要续订的时长,点击“确认”按钮,完成续订操作。 持续数据保护、数据定时灾备、数据库双活、文件存储数据灾备、对象存储数据灾备续订方式与主机高可用相同,在相应模块的许可列表中点击“续订”按钮,选择时长即可完成续订操作。
        来自:
        帮助文档
        多活容灾服务
        计费说明
        续费说明
        手动续费
      • 开发SQL脚本
        属性 说明 数据连接 选择数据连接。 数据库 选择数据库。 资源队列 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。如需新建资源队列,请参考以下方法: 单击 ,进入DLI的“队列管理”页面新建资源队列。 前往DLI管理控制台进行新建。 说明 DLI提供默认资源队列“default”,该资源队列不支持insert、load、cat命令。 如需以“key/value”的形式设置提交SQL作业的属性,请单击 。最多可设置10个属性,属性说明如下: dli.sql.autoBroadcastJoinThreshold(自动使用BroadcastJoin的数据量阈值) dli.sql.shuffle.partitions(指定Shuffle过程中Partition的个数) dli.sql.cbo.enabled(是否打开CBO优化策略) dli.sql.cbo.joinReorder.enabled(开启CBO优化时,是否允许重新调整join的顺序) dli.sql.multiLevelDir.enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除)
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发SQL脚本
      • 导入数据最佳实践
        使用INSERT多行插入 如果不能使用COPY命令,而您需要进行SQL插入,可以根据情况使用多行插入。如果一次只添加一行或几行,则数据压缩效率低下。 多行插入是通过批量进行一系列插入而提高性能。下面的示例使用一条INSERT语句向一个三列表插入三行。这仍属于少量插入,只是用来说明多行插入的语法。 向表customert1中插入多行数据: INSERT INTO customert1 VALUES (6885, 'maps', 'Joes'), (4321, 'tpcds', 'Lily'), (9527, 'world', 'James'); 使用COPY命令导入数据 COPY命令从本地或其它数据库的多个数据源并行导入数据。COPY导入大量数据的效率要比INSERT语句高很多,而且存储数据也更有效率。 使用gsql元命令导入数据 copy命令在任何psql客户端登录数据库成功后可以执行导入数据。与COPY命令相比较,copy命令不是读取或写入指定文件的服务器,而是直接读取或写入文件。 这个操作不如SQL COPY命令有效,因为所有的数据必须通过客户端/服务器的连接来传递。对于大量的数据来说SQL命令可能会更好。 说明 COPY只适合小批量,格式良好的数据导入,容错能力较差。导入数据应优先选择GDS或COPY 。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        导入数据最佳实践
      • SQL生成
        SQL生成是一款专注于将自然语言转换为SQL的智能工具,它打破了人与结构化数据之间的壁垒,使得普通用户可以通过自然语言查询来操作数据库。它不仅支持MySQL、PostgreSQL等主流数据库,还能处理复杂查询,极大地提升数据查询的效率和准确性。例如,您可以提问:“查询所有订单总金额超过1000的客户。” 前提条件 当前实例为强管控模式。 当前实例未被禁用,且属于已登录状态。 支持数据库:MySQL,PostgreSQL,Sql Server,DRDS。 注意事项 请避免过于频繁发送消息,系统对消息的发送频率有限制。 要求查询窗口对应的实例属于未被禁用且已录入托管账密的强管控实例,只有满足如上条件的实例才能使用SQL生成功能。 同一个问题的多次请求有一定概率返回不同的SQL,此为正常现象。 操作步骤 1. 登录DMS控制台。 2. 选择实例列表 双击对应实例的库/模式进入查询窗口。 3. 点击页面查询窗口处的SQL生成按钮唤起AI输入框,或Ctrl+I(Command+I)快捷键唤起AI输入框。 4. 在AI输入框内输入问题,点击右侧icon进行查询。 5. 点击接受按钮使用此条SQL语句。 SQL生成功能按钮 SQL接受/放弃:如果您对SQL生成提供的回答感到满意,可以点击接受按钮或Tab键,新生成SQL以及对应输入文本(如果勾选追加注释的话)会在查询窗口当中进行展示;如果您对SQL生成提供的回答不满意,可以点击放弃按钮或esc键,当前AI输入框会消失,新生成SQL不会在查询窗口当中进行展示。 说明 SQL生成不存在上下文连续性,只会根据每次AI输入框中输入的自然语言生成SQL。 重新生成SQL:如果您想要重新生成SQL,则直接点击按钮或回车。 重新提问:如果您想修改原本的文本,则可以在AI输入框中针对原始文本进行修改并再次请求SQL生成服务。 关闭AI输入框:您可以通过点击对话框右上角按钮或esc键来关闭对话框。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        SQL生成
      • 什么是云迁移服务CMS
        资源规划 1. 创建迁移组,用户确认源端调研的信息无误后,可进行迁移组的创建。用户在资源列表选取相应的主机、数据库资源组成自定义迁移组,为用户提供管理待迁移资源的全新方式,从而为迁移计划的执行提供强力支持与辅助。 2. 创建迁移计划,用户完成迁移组的创建后,可进行迁移计划的创建。用户选取相应的迁移组,确认包含的相关资源后,可全面评估待迁移资源的情况,并以此制定合理的迁移计划,对迁移过程输出有效的管控。 3. 资源匹配,用户在完成迁移组与迁移计划的创建后,可以使用平台提供的资源匹配功能,在资源明细中对云主机、数据库和对象存储资源的源端和目标端使用详情进行匹配和对比。 4. 资源创建,用户可以根据已制定的迁移计划进行批量的目标端资源创建,协同资源匹配功能,助力用户在云迁移服务中快速、灵活地创建和管理各类计算、网络、存储资源,并为后续执行各类迁移计划提供支持。 迁移管理 1. 工具管理,资源规划完成后,用户可以进入工具管理模块,在这里根据源端待迁移资源的类型或者已制定的迁移计划,选择合适的迁移工具。这些工具包括服务器迁移服务、数据库迁移服务、数据迁移服务和华为提供的ExaGear、DevKit异构迁移工具。通过选择适当的工具,用户可以更加方便地进行迁移操作。 2. 调度管理,用户完成所需使用的迁移工具选择后,可以进入调度管理模块,使用调度功能自定义创建调度任务,并发迁移管控。 3. 进度大盘,用户开始执行既定的迁移计划、调度任务后,可于进度大盘模块查看各类具体资源迁移任务的状态与监控,助力用户全面了解不同类型迁移任务的进展情况,确保迁移工作的顺利进行。 4. 迁移报告,用户完成各类型的迁移任务后,可在迁移报告模块查看并获取某次迁移任务的迁移报告。 访问方式 使用天翼云 CMS 迁移服务,您需在 CMS控制台和迁移源服务器进行操作。
        来自:
      • 基于RAGFlow+OpenSearch+Deepseek快速搭建知识库问答RAG应用
        天翼云云搜索团队RAGFlow社区贡献 RAGFlow默认使用Elasticsearch 8.x作为向量库数据库。天翼云云搜索团队成员贡献了OpenSearch 2.19.1作为向量数据库的全流程支持,已合入社区,并在正式发版中作为NewFeatures单独致谢。在RAGFlow的v0.19.0以后的版本中均支持OpenSearch 2.19.1作为底层向量数据库。 前置需求 开通天翼云云搜索服务OpenSearch实例,获取内网地址和实例密码。 准备好云主机环境用来部署RAGFlow,需要和OpenSearch实例网络互通。 准备好Deepseek模型、Embedding向量模型、Rerank重排序模型。 安装好Docker环境。 RAG运行流程 1. 用户通过RAGFlow对话框进行提问。 2. 调用Embedding模型将查询向量化。 3. 使用OpenSearch的Hybridsearch混合检索进行召回,调用Rerank模型进行重排序,返回和提问相关的文档。 4. 将检索到的文档及对话的上下文通过Deepseek大模型总结归纳生成详细准确的回复。 步骤一:部署RAGFlow 1. 拉取RAGFlow最新源码到云主机上,以下以v0.19.1为例。 2. 进入ragflow源码的docker目录 plaintext cd ragflow/docker 3. 修改向量数据库为OpenSearch plaintext vim .env DOCENGINE${DOCENGINE:opensearch} 修改如下配置项 plaintext OSPORT9200 OSHOSTnode1 OPENSEARCHPASSWORDxxxxxx 4. 确认使用镜像 plaintext vim .env RAGFLOWIMAGEinfiniflow/ragflow:v0.19.1 5. 修改dockercomposebase.yml文件 为了性能,不适用docker自带的Elasticsearch和OpenSearch,注释掉如下代码: plaintext es01: containername: ragflowes01 profiles: elasticsearch image: elasticsearch:${STACKVERSION} volumes: esdata01:/usr/share/elasticsearch/data ports: ${ESPORT}:9200 envfile: .env environment: node.namees01 ELASTICPASSWORD${ELASTICPASSWORD} bootstrap.memorylockfalse discovery.typesinglenode xpack.security.enabledtrue xpack.security.http.ssl.enabledfalse xpack.security.transport.ssl.enabledfalse cluster.routing.allocation.disk.watermark.low5gb cluster.routing.allocation.disk.watermark.high3gb cluster.routing.allocation.disk.watermark.floodstage2gb TZ${TIMEZONE} memlimit: ${MEMLIMIT} ulimits: memlock: soft: 1 hard: 1 healthcheck: test: ["CMDSHELL", "curl interval: 10s timeout: 10s retries: 120 networks: ragflow restart: onfailure opensearch01: containername: ragflowopensearch01 profiles: opensearch image: hub.icert.top/opensearchproject/opensearch:2.19.1 volumes: osdata01:/usr/share/opensearch/data ports: ${OSPORT}:9201 envfile: .env environment: node.nameopensearch01 OPENSEARCHPASSWORD${OPENSEARCHPASSWORD} OPENSEARCHINITIALADMINPASSWORD${OPENSEARCHPASSWORD} bootstrap.memorylockfalse discovery.typesinglenode plugins.security.disabledfalse plugins.security.ssl.http.enabledfalse plugins.security.ssl.transport.enabledtrue cluster.routing.allocation.disk.watermark.low5gb cluster.routing.allocation.disk.watermark.high3gb cluster.routing.allocation.disk.watermark.floodstage2gb TZ${TIMEZONE} http.port9201 memlimit: ${MEMLIMIT} ulimits: memlock: soft: 1 hard: 1 healthcheck: test: ["CMDSHELL", "curl interval: 10s timeout: 10s retries: 120 networks: ragflow restart: onfailure 6. 修改部分conf配置 plaintext vim serviceconf.yaml.template hosts: ' 7. 启动服务 plaintext docker compose f dockercompose.yml up d 8. 查看启动log plaintext docker logs f ragflowserver 9. 浏览器页面打开,默认服务在80端口
        来自:
        帮助文档
        云搜索服务
        最佳实践
        基于RAGFlow+OpenSearch+Deepseek快速搭建知识库问答RAG应用
      • 1
      • ...
      • 217
      • 218
      • 219
      • 220
      • 221
      • ...
      • 289
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      操作类

      消费消息

      加入会议

      修改云安备用户信息

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号