云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      VPC终端节点_相关内容
      • 区域变更
        本节介绍了如何在控制台变更域名的服务区域。 使用场景 根据域名所提供服务的区域,用户可选择与之相匹配的边缘安全加速平台服务区域。例如:某站点的主要客户群体在中国内地,则域名接入边缘安全加速平台后,选择“中国内地”服务区域。客户端访问域名站点的流量,就会就近接入进入中国内地区域的边缘节点。 当服务区域为中国内地,站点请求会被调度到中国内的节点。 当服务区域为全球(不含中国内地),站点请求会被调度到全球(不含中国内地)的节点。 当服务区域为全球,站点请求会被调度到中国内地或全球(不含中国内地)的节点。 前提条件 订购边缘安全加速服务,加速区域为“全球”的套餐。加速区域为“中国内地”或者“全球(不含中国内地)”的套餐,不可变更域名的服务区域。 域名状态为“已启用”。 使用说明 1.登录边缘安全加速控制台。 2.进入安全与加速工作台域名域名管理页面。 3.在域名操作栏点击“区域变更”,选择服务区域后点击确定即可。 注意 1、不同服务区域对应不同资费标准,服务区域包含中国内地时,域名请先完成在中国大陆的ICP备案,同时完成公安网的备案。 2、修改服务区域,由于服务节点变更,短期内回源的流量会增加,命中率会下降,请您留意源站运行情况。 3、 修改服务区域可能会引起回源IP变更,如果您的源站有回源IP白名单限制,请通过 4.进入后台自动化配置流程(正常情况15分钟以内),流程结束后会自动变成“已启用”状态。若“配置中”状态持续时间过长,可创建工单获取支持。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        域名管理
        域名操作
        区域变更
      • 通过数据分片提升服务性能
        本页介绍了文档数据库服务如何使用分片实例提升数据库性能。 对于数据量和请求量很大的业务场景,可以使用文档数据库服务集群版本来提升容量和性能。 集群版本包含的 3 种组件: mongos 节点。用户通过 mongos 节点操作数据库,mongos 会将用户的操作请求路由到底层的存储分片中,并收集结果进行合并等操作后赶回给客户端。 config server 节点。底层是 3 副本主从架构,存储路由表、用户、集群配置等信息。对于用户来说是不感知的。 shard server 节点。分片集群有 2 个或者多个 shard,每个 shard 都是独立的 3 副本主从架构。每个 shard server 存储具体的用户数据,执行具体的数据操作。 创建分片表 如果使用集群版本,用户可以在建表时指定片建创建分片表。后续对分片表的读写操作会根据指定的分片建路由到合适的 shard server 中。 需要注意的是,集群版本也能创建非分片表。如果用户在连接 mongos 之后没有按照分片表的方式建表,默认会创建一个非分片表,并存储在某一个 shard server 上,此时容量和性能都会受限。 选择分片策略 文档数据库服务集群常用的分片方式有范围和哈希方式。 范围分片 范围分片方式会按照分片键的范围将数据分成多个 chunk,每个 chunk (默认配置是 64MB) 存储一部分范围连续的数据。范围分片能够很好地满足范围查询需求,但是缺点也很明显。如果业务的写入模型有明显按照分片建递增或者递减的趋势,则写入操作很大程度上会分布再同一个 shard 上,导致无法扩展写能力。 哈希分片 哈希分片方式会先计算分片键的哈希值,然后再根据哈希值的取值范围进行分片,将文档分布到不同的 chunk 中。基于哈希分片能够保证数据在各个分片上的分布基本均衡。但是缺点在于如果出现范围查询,mongos 节点需要将请求广播到 shard server 上,导致查询效率会有所下降。
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        通过数据分片提升服务性能
      • sidecar管理
        查看工作负载详情 列表中展示了该网格所管理的集群下所有已创建服务的工作负载,支持查看负载的名称、所属集群、服务,以及负载的sidecar信息,包括sidecar名称、sidecar版本、状态、CPU使用率、内存使用率等。操作方法如下: 步骤 1 在列表右上角搜索框,选择集群、命名空间,并输入工作负载名称搜索指定工作负载,查看负载的相关信息。 步骤 2 单击工作负载前的图标,查看负载的sidecar信息。 如果提示工作负载中无sidecar,是因为该负载所属命名空间还未注入sidecar,参考sidecar注入进行注入。 配置sidecar资源限制 支持为sidecar(即istioproxy容器)配置CPU和内存的资源上下限。同一个节点上部署的工作负载,对于未设置资源上下限的工作负载,如果其异常资源泄露会导致其他工作负载分配不到资源而异常。未设置资源上下限的工作负载,工作负载监控信息也会不准确。 默认的sidecar资源上下限为: CPU(Core):最小 0.1,最大 2 MEM(MiB):最小 128,最大 1024 如需更改,请参考以下操作: 单击工作负载操作列的“sidecar资源限制”,也可以勾选多个工作负载,在列表左上角单击“sidecar资源限制”进行批量配置。 CPU最小值:也称CPU请求,表示容器使用的最小CPU需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配CPU总量 ≥ 容器CPU请求数时,才允许将容器调度到该节点。 CPU最大值:也称CPU限制,表示容器能使用的CPU最大值。 MEM最小值:也称内存请求,表示容器使用的最小内存需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配内存总量 ≥ 容器内存请求数时,才允许将容器调度到该节点。 MEM最大值:也称内存限制,表示容器能使用的内存最大值。当内存使用率超出设置的内存限制值时,该实例可能会被重启进而影响工作负载的正常使用。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格配置
        sidecar管理
      • 告警规则管理
        本页介绍天翼云TeleDB数据库如何进行告警规则管理。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上,单击告警管理 > 告警规则管理,进入告警规则页面。 2. 在当前实例下拉框选择目标实例。 3. 搜索事件告警或指标告警。 选择事件告警 或指标告警 页签,您可在查询条件下拉框,选择开启 或关闭 ,输入告警名称,单击查询,搜索出事件告警或指标告警。 4. 新增、修改或删除事件告警。 1. 单击新增事件告警,出现新增事件告警对话框。 2. 在告警事件下拉框,选择告警事件,告警开启状态,单击确定完成新增告警。 3. 单击编辑,可在编辑事件告警对话框中,修改告警开启状态。 4. 单击删除 ,在提示框中,单击确定可删除事件告警。 5. 新增、修改或删除指标告警。 1. 单击新增指标告警,出现新增指标告警对话框。 2. 进入指标告警对话框,根据下表输入参数信息,单击确定完成新增指标告警。 参数 说明 告警名称 自定义,可根据业务需求填写。 告警指标 您可根据业务需求选择节点告警或机器告警。 当选择节点告警 ,包含如下告警指标。 数据库磁盘占用量 Xlog文件数量 sql执行最长时间 sql执行平均时间 每分钟请求数 每分钟查询请求数 每分钟插入请求数 每分钟更新请求数 每分钟删除请求数 每分钟其他请求数 缓存命中率 当前连接数 剩余xid 当选择机器告警 ,包含如下告警指标。 CPU使用率 CPU负载 内存使用率 磁盘使用率 网络入流量 网络出流量 tcp连接数 指标维度 指标维度包含如下: 全部 GTM节点 CN 数据主节点 数据备节点 告警条件 可选择一个区间范围,大于0或小于0。 检测频率 1分钟 5分钟 10分钟 20分钟 告警开启状态 开启 关闭 3. 单击编辑,在编辑指标告警对话框,可修改参数信息。 4. 单击删除 ,在出现的提示框,单击确定可删除指标告警。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        告警管理
        告警规则管理
      • 配置集群静态资源
        本章节主要介绍翼MapReduce的配置集群静态资源操作。 操作场景 当需要控制集群服务可以使用节点资源的情况,或者控制集群服务在不同时间段节点可用配额的CPU与I/O资源时,管理员可以在FusionInsight Manager调整资源基数,并自定义资源配置组。 对系统的影响 配置静态服务池后,受影响的服务的“配置状态”将显示为“配置过期”,需要重启服务,重启期间服务不可用。 配置静态服务池后,各服务及角色实例使用的最大资源将不能超过限制。 操作步骤 修改资源调整基数 1.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 静态服务池”。 2.单击右上角“配置”,进入静态资源池配置向导。 3.在“系统资源调整基数”分别修改参数“CPU(%)”和“Memory(%)”。 修改“系统资源调整基数”将限制服务能够使用节点的最大物理CPU和内存资源百分比。如果多个服务部署在同一节点,则所有服务使用的最大物理资源百分比不能超过此参数值。 4.单击“下一步”。 需要重新修改参数,可单击“上一步”返回。 修改资源池默认“default”配置组 5.单击“default”,在“权重配置”表格中各服务对应的“CPU LIMIT(%)”、“CPU SHARE(%)”、“I/O(%)”和“Memory(%)”填写各服务的资源使用百分比数量。 说明 所有服务使用的“CPU LIMIT(%)”和 “CPU SHARE(%)”资源配置总和可以大于100%。 所有服务使用的“I/O(%)”资源配置总和可以大于100%,不能为0。 所有服务使用的“Memory(%)”资源配置总和可以小于或等于100%,也可以大于100%。 “Memory(%)”不支持动态生效,仅在“default”配置组中可以修改。 “CPU LIMIT(%)”用于配置服务可使用的CPU核数与节点可分配的CPU核数占比。 “CPU SHARE(%)”用于配置服务在与其他服务使用同一个CPU核的时间占比,即多个服务在使用同一个CPU核发生争抢时的时间占比。 6.单击“根据权重配置生成详细配置”,FusionInsight Manager将根据集群硬件资源与分配情况,生成资源池实际参数配置值。 7.单击“确定”。 在弹出窗口单击“确定”,确认保存配置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        静态服务池
        配置集群静态资源
      • 设置RDS for MySQL本地Binlog日志保留时长
        本节介绍了设置RDS for MySQL本地Binlog日志保留时长的操作场景、注意事项、操作步骤等相关内容。 操作场景 RDS for MySQL支持设置本地Binlog日志的清理,所有需要清理的本地日志都会在Binlog备份成功后删除,您可以根据需求灵活设置本地Binlog保留时长,合理利用实例使用空间。 说明 RDS默认开启Binlog,无需额外配置,binlogformat格式为row。 在RDS界面,仅支持在主实例中设置Binlog日志清理,只读实例的Binlog日志清理周期和主实例保持一致。 如果存在异常的只读或备节点,不会清理本地Binlog日志,防止清理后出现只读或备节点无法正常复制的情况。 Binlog本地保留时长,可设置范围为0~724小时。 清理Binlog日志时,即使设置保留时长为0,RDS也会保证主节点的Binlog同步到备节点、只读节点全部完成、并且备份成功到OBS以后才会执行清理。如果选择的保留时长大于0,例如设置1天,那么在Binlog同步及备份成功后,本地Binlog日志将会继续保留1天,到期后自动删除。如需查看Binlog日志,请参见下载Binlog备份文件。 注意事项 界面设置的Binlog过期时间以小时为单位,通过命令查看“expirelogsdays”(5.7版本参数)和“binlogexpirelogsseconds”(8.0版本参数)过期时间单位为天,不建议作为参考依据。查看具体的Binlog过期时间时,以界面设置的为准。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤 5 在左侧导航栏,单击“备份恢复”,在“Binlog备份”子页签下,单击“Binlog本地保留设置”。 步骤 6 在“Binlog本地保留设置”弹出框中,设置保留时长,单击“确定”。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        清理Binlog
        设置RDS for MySQL本地Binlog日志保留时长
      • 使用方式
        私有对象 URL格式 通过SDK的generatepresignedurl预签名接口,生成指定对象的getobject访问权限,然后在其生成的URL后面拼接图片处理请求。URL格式为: xzosprocessimage/:固定参数,表示该请求是图片处理相关请求。 action,paramvalue:图片处理的操作(action)、参数(param)和值(value),用于定义图片处理的方式。多个操作以正斜线(/)隔开,操作后的不同参数通过逗号(,)隔开,参数后接下划线()并拼接参数具体的值。ZOS按图片处理参数的顺序处理图片。例如,“image/resize,p30/rotate,90”表示将图片先按比例缩放至原图的30%,再将图片旋转90°。支持的参数,请参见图片处理参数。 示例 awk 上述请求为对bucket桶中的mypic.jpg图片对象进行缩放和旋转操作:首先将图片缩放为500 px500 px,然后再将其旋转180°。 注意 当前拼接请求操作仅支持v2认证方式,v4认证方式拼接URL后会导致请求失败。具体SDK预签名方式参考对应的SDK 通过SDK处理图片 操作场景 您可以通过在SDK中添加参数的方式来处理图片。 示例 以java为例,介绍了图片处理的简单使用方式,更多语言的图片处理SDK请参考开发者文档。 java import com.amazonaws.ClientConfiguration; import com.amazonaws.auth.AWSCredentials; import com.amazonaws.auth.AWSStaticCredentialsProvider; import com.amazonaws.auth.BasicAWSCredentials; import com.amazonaws.client.builder.AwsClientBuilder; import com.amazonaws.services.s3.AmazonS3; import com.amazonaws.services.s3.AmazonS3ClientBuilder; import com.amazonaws.Protocol; import com.amazonaws.services.s3.model.GetObjectRequest; import com.amazonaws.services.s3.model.S3Object; import java.io.; import java.util.Base64; public class picturedemo { // 访问凭证,填写用户的AK与SK public static String ACCESSKEY "ACCESSKEY"; public static String SECRETKEY "SECRETKEY"; // endpoint为控制台域名信息中的终端节点 public static String ENDPOINT "ENDPOINT"; // 填写桶名 public static String BUCKETNAME "BUCKETNAME"; // 填写待操作图片对象完整路径 public static String OBJKEY "OBJKEY"; // 填写处理后图片对象待保存至本地的路径 public static String SAVEPATH "./test.png"; public static void main(String[] args) { AmazonS3 s3Client; // 当使用HTTPS协议且采用自签名认证时,需关闭证书检查 // System.setProperty("com.amazonaws.sdk.disableCertChecking", "true"); // 使用凭据和配置建立连接 AWSCredentials credentials new BasicAWSCredentials(ACCESSKEY, SECRETKEY); ClientConfiguration awsClientConfig new ClientConfiguration(); // 使用V2签名时,采用"S3SignerType" awsClientConfig.setSignerOverride("S3SignerType"); // 使用V4签名时,采用"AWSS3V4SignerType" // awsClientConfig.setSignerOverride("AWSS3V4SignerType"); // 连接默认使用HTTPS协议,使用HTTP协议连接时需要显式指定 awsClientConfig.setProtocol(Protocol.HTTP); s3Client AmazonS3ClientBuilder.standard() .withCredentials(new AWSStaticCredentialsProvider(credentials)) .withClientConfiguration(awsClientConfig) .withEndpointConfiguration(new AwsClientBuilder.EndpointConfiguration(ENDPOINT, "")) .disableChunkedEncoding() .build(); GetObjectRequest request new GetObjectRequest(BUCKETNAME, OBJKEY); // 图片处理具体操作,将图片在(10,10)处裁剪300200大小的矩形,再旋转90° String imageop "image/crop,w300,h200,x10,y10/rotate,90"; request.setZosProcess(imageop); S3Object result s3Client.getObject(request); System.out.print("request successn"); // 将下载的图片保存到本地 try { InputStream in result.getObjectContent(); File outputFile new File(SAVEPATH); FileOutputStream outputStream new FileOutputStream(outputFile); byte[] readbuf new byte[1024 1024]; int readlen 0; while ((readlen in.read(readbuf)) > 0) { outputStream.write(readbuf, 0, readlen); } in.close(); outputStream.close(); } catch (IOException e){ e.printStackTrace(); } } }
        来自:
        帮助文档
        对象存储 ZOS
        数据处理指南
        图片处理
        使用方式
      • 集群安装Agent
        本节为您介绍如何为集群安装Agent。 如果您想要为CCE集群的所有node节点或自建k8s集群所有节点安装Agent,可以通过集群Agent管理功能为集群安装Agent,使用该功能后,后续集群节点或Pod扩容时,无需您手动安装Agent。 CCE集群安装Agent 1、登录管理控制台。 2、在左侧导航栏中,选择“资产管理 > 容器管理”,进入“容器管理”界面。 说明 如果您的服务器已通过企业项目的模式进行管理,您可选择目标“企业项目”后查看或操作目标企业项目内的资产和检测信息。 3、选择“集群Agent管理 > CCE集群 "页签。 4、在目标集群所在行的操作列,单击“安装Agent”。 您也可以勾选所有目标集群,并单击列表左上方的“安装Agent”,批量为CCE集群安装Agent。 5、在弹窗中单击“确认”,为CCE集群所有节点主机安装Agent。 安装Agent预计耗时10分钟,请您等待10分钟后,鼠标滑动至“节点Agent安装状态”列查看节点Agent安装情况。 自建集群安装Agent 1、登录管理控制台。 2、在左侧导航栏中,选择“资产管理 > 容器管理”,进入“容器管理”界面。 说明 如果您的服务器已通过企业项目的模式进行管理,您可选择目标“企业项目”后查看或操作目标企业项目内的资产和检测信息。 3、选择“集群Agent管理 > 自建集群”页签。 4、单击“接入自建集群”。 5、在“接入自建集群”弹窗中,填写集群信息并单击“生成命令”。 您可以在弹窗中,单击“保存”,保存本次生成的命令。 6、在可执行k8s命令的主机中创建一个新的yaml文件,例如abcd.yaml。 7、将生成的命令拷贝到abcd.yaml中。 8、在主机中执行以下命令,运行abcd.yaml,安装Agent。安装Agent预计耗时10分钟,请您耐心等待。 kubectl apply f abcd.yaml 9、命令运行完成后,返回HSS控制台。 10、在左侧导航栏,选择“安装与配置”,进入“安装与配置”界面。 11、选择“Agent管理”页签,查看集群服务器的Agent状态为“在线”,表示Agent安装成功。
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        容器管理
        集群Agent管理
        集群安装Agent
      • 存算分离
        本文为您介绍天翼云云搜索服务的存算分离能力及使用方法。 功能简介 天翼云云搜索服务的OpenSearch和Elasticsearch都支持通过天翼云对象存储ZOS实现存算分离功能,这一功能显著提升了数据管理的灵活性和系统的可扩展性。 存算分离是现代分布式系统中一种重要的架构设计,通过将存储和计算资源解耦,使得数据存储和处理能力可以独立扩展,从而优化资源利用率并降低运营成本。 在传统的分布式搜索引擎架构中,存储和计算通常是紧耦合的,数据存储在同一集群的节点上,并由这些节点负责数据的索引和查询处理。然而,随着数据规模的增长和计算需求的变化,存算耦合的架构可能面临扩展性和成本效益方面的挑战。 通过支持对象存储,搜索引擎允许用户将数据存储在外部的对象存储系统天翼云ZOS中。这种架构下,计算节点主要负责数据的索引和查询处理,而数据存储则由对象存储系统来管理。计算节点可以根据需要动态地从对象存储中拉取数据,进行处理后再将结果返回。 应用场景与优势 弹性扩展 存算分离使得存储和计算资源可以独立扩展。用户可以根据数据量和计算需求的变化分别扩展存储容量和计算节点数量,从而实现灵活的资源管理,避免过度配置带来的浪费。 成本优化 对象存储通常具有较低的成本,尤其适合存储大量不常访问的冷数据。通过将数据存储在对象存储中,用户可以显著降低存储成本,同时只需为需要处理的热数据配置计算资源。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        存算分离
      • 强制跳转
        本文介绍强制跳转的场景及配置方法。 功能介绍 通过配置强制跳转功能,将客户端到边缘节点的原请求方式强制重定向为HTTP或者HTTPS请求。天翼云边缘安全加速平台支持配置HTTP和HTTPS强制跳转,适用场景: 已经配置了HTTPS证书的加速域名,可配置强制跳转,通过301或302重定向方式,将客户端到边缘加速节点的HTTP请求强制跳转为HTTPS请求,HTTPS请求更安全。 对于安全性要求不高的业务应用,对应的加速域名可配置强制跳转,通过301或302重定向方式,将客户端到边缘加速节点的HTTPS请求强制跳转为HTTP请求。 配置说明 1.登录边缘安全加速平台控制台。 2.单击左侧导航栏【域名】【基础配置】。 3.在【域名列表】页面,找到目标域名,单击【编辑配置】,选择右侧【HTTPS配置】,开启【强制跳转】功能。 4.【跳转类型】选择目标跳转场景,如“Http>Https”、“Https>Http”。 5.选择合适的【跳转方式】,如302跳转或301跳转。 6.配置完毕单击【保存】。 参数名 说明 强制跳转 默认为关闭,即不开启强制跳转功能。 跳转类型 Http>Https:将客户端到全站加速节点的Http请求强制重定向为方式Https。 Https>Http:将客户端到全站加速节点的Https请求强制重定向为方式Http。 跳转方式 跳转状态码,支持302/301状态码。 注意 当请求协议中的HTTPS未勾选时,强制跳转(301或302)只支持从Https重定向为Http。只有勾选请求协议中的HTTPS且完成证书配置的情况下,强制跳转(301或302)才支持从Http重定向为Https。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        强制跳转
      • 绑定/解绑弹性IP
        DRDS实例创建成功后,默认未绑定弹性IP,不能使用公网访问功能。您可以为DRDS实例绑定弹性IP,来通过公网访问数据库实例。本文为您介绍DRDS绑定公网IP的具体操作。 为节点绑定/解绑弹性IP 您可以为DRDS实例的单个节点绑定弹性IP,绑定后,即可通过该节点的弹性IP访问数据库实例。 注意 仅V5.1.9.6020.2533及以后版本的实例,支持该功能。 前提条件 已创建弹性IP。具体操作,请参见申请弹性IP。 注意事项 绑定弹性公网IP后,请在安全组中设置严格的出入规则,以加强系统安全性。 在绑定弹性IP后,请将客户端公网出口IP加入至白名单中,否则将无法通过弹性IP访问数据库。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理, 进入实例基本信息页面。 4. 在连接信息 区域,找到目标节点,单击绑定弹性IP。 5. 在对话框中,选择弹性公网IP,单击绑定。 6. 使用弹性IP地址,连接DRDS节点。 7. 如果您不再需要使用弹性IP,单击解绑弹性IP,即可进行解绑。 为分组绑定ELB实例 您可以创建自定义分组并关联ELB实例,关联后,即可通过分组ELB实例的弹性IP来访问数据库实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        访问管理
        绑定/解绑弹性IP
      • 存储卷PV
        本文主要介绍存储卷PV。 PV描述的是一个集群里的持久化存储卷,和节点一样,属于集群级别资源。 约束与限制 在新版控制台(需要将集群升级到1.19.10及以上 并且 Everest存储插件升级到1.2.10及以上 )PV资源已经正式开放给用户管理;旧版控制台仍保持导入使用或者是通过动态创建方式进行创建,用户无法通过控制台对PV资源进行生命周期管理。 支持多个PV挂载同一个SFS或SFS Turbo,但有如下限制: 多个不同的PVC/PV使用同一个底层SFS或SFS Turbo卷时,且被同一Pod使用会出现问题,需要避免这么使用。 PV中persistentVolumeReclaimPolicy参数需设置为Retain,否则可能存在一个PV删除时,级联删除底层卷,其他关联这个底层卷的PV会由于底层存储不在了,使用出现异常。 重复用底层存储时,建议在应用层做好多读多写的隔离保护,防止产生的数据覆盖和丢失。 通过YAML创建PV时,存储资源如果为包周期资源,YAML中的persistentVolumeReclaimPolicy字段请勿设置为Delete,否则可能导致级联删除异常。关于PV回收策略详情请参见PV回收策略。 存储卷访问模式 PV只能以底层存储资源所支持的方式挂载到宿主系统上。例如,文件存储可以支持多个节点读写,云硬盘只能被一个节点读写。 ReadWriteOnce:卷可以被一个节点以读写方式挂载,云硬盘存储卷支持此类型。 ReadWriteMany:卷可以被多个节点以读写方式挂载,文件存储、对象存储、极速文件存储支持此类型。 表 云存储支持访问模式 存储类型 ReadWriteOnce ReadWriteMany 云硬盘EVS √ × 文件存储SFS × √ 对象存储OBS × √ 极速文件存储SFS Turbo × √
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        存储卷PV
      • 高并发写入实践
        本页主要介绍了高并发场景写入的热点问题与解决方法。 高并发写入最佳实践 分布式融合数据库HTAP支持线性扩展,通过均衡调度可以尽可能将业务的写负载均匀地分布到不同的计算或存储节点上,更好地利用上整体系统资源,以满足业务高并发写入场景下的数据存储需求。然而,在某些场景下,仍然可能会出现部分业务写负载不能被很好地分散,导致某些节点负载过高,引发性能瓶颈或不均衡的情况,无法发挥出分布式架构的优势,从而影响了整体的性能,这种情况通常称为写热点问题。 下文阐述了分布式融合数据库HTAP的数据分布原理,高并发写入场景下热点产生的原因,以及如何规避或者优化写热点问题。 数据分布原理 数据分片 分布式融合数据库HTAP采用 KeyValue 模型作为数据的存储模型,数据按范围分片存储,每个数据分片负责存储一段 Key 范围(从 StartKey 到 EndKey 的左闭右开区间)的数据,每个行存节点会负责多个数据分片。当一个分片持续写入数据,导致分片数据过大,超过一定阈值,系统会将该数据分片分裂为两个数据分片。相反的,如果相邻的两个数据分片过小,系统则会自动触发将它们合并成一个数据分片。 数据采用多副本存储,通过 MultiRaft 协议实现数据强一致性,确保少数副本发生故障时不影响可用性。每个分片对应一个Raft Group,由 Raft Leader 负责处理数据的读写。分布式融合数据库HTAP的管理节点会动态地将分片 Raft Leader 调度到不同的存储节点上,实现负载均衡。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        高并发写入实践
      • 产品定义
        本章节主要介绍数据仓库服务的产品定义。 数据仓库服务(Data Warehouse Service) 是一种基于公有云基础架构和平台的在线数据处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务。数据仓库服务兼容标准ANSI SQL 99和SQL 2003,同时兼容PostgreSQL/Oracle数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。 产品架构 DWS基于Sharednothing分布式架构,具备MPP (Massively Parallel Processing)大规模并行处理引擎,由众多拥有独立且互不共享的CPU、内存、存储等系统资源的逻辑节点组成。在这样的系统架构中,业务数据被分散存储在多个节点上,数据分析任务被推送到数据所在位置就近执行,并行地完成大规模的数据处理工作,实现对数据处理的快速响应。 产品架构 应用层 数据加载工具、ETL(ExtractTransformLoad)工具、以及商业智能BI工具、数据挖掘和分析工具,均可以通过标准接口与DWS 集成。DWS兼容PostgreSQL生态,且SQL语法进行了兼容Oracle和Teradata的处理。应用只需做少量改动即可向DWS平滑迁移。 接口 支持应用程序通过标准JDBC 4.0和ODBC 3.5连接DWS 。 DWS (MPP大规模并行处理集群) 一个DWS集群由多个在相同子网中的相同规格的节点组成,共同提供服务。集群的每个DN负责存储数据,其存储介质是磁盘。协调节点(Coordinator)负责接收来自应用的访问请求,并向客户端返回执行结果,此外,协调节点还负责分解任务,并调度任务分片在各DN上并行执行。
        来自:
        帮助文档
        数据仓库服务
        产品简介
        产品定义
      • 规格和使用限制
        资源 默认配额 提升配额 单个客户可申请的单资源池弹性IP数量(单资源池配额) 每账户每区域10个 提交工单 单个客户可申请的一类节点资源池弹性IP数量(全局配额) 每账户一类节点20个 提交工单
        来自:
        帮助文档
        弹性IP EIP
        产品介绍
        规格和使用限制
      • 修改单个节点上的参数
        本页介绍天翼云TeleDB数据库如何修改单个节点上参数。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击参数管理。 2. 在数据库参数 页签,在搜索框中输入配置项搜索 需修改的参数,单击查询, 查找要修改的目标节点。 3. 在查找出的参数行,单击编辑 按钮,出现编辑配置项 对话框。 4. 将修改值根据自己的需求设置为需调整后的参数,单击确定, 出现提示 对话框。 5. 您可单击立即前往 查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        参数管理
        修改单个节点上的参数
      • 流程执行管理
        图形视图 功能说明 : 在 图形视图页签 中,您可以选择任意状态节点,右侧将显示该状态的 输入、输出和执行事件。 特殊场景支持: Foreach 状态 : 如果工作流包含 迭代(Foreach)状态 ,在流程执行完成后,您可在 Foreach 区域 选择具体迭代编号,查看每次迭代的执行数据。 表格视图 功能说明 : 在 表格视图页签 中,您可选择任意状态节点,右侧将显示该状态的 输入 和 输出。 特殊场景支持: Foreach 状态 : 如果工作流包含 迭代(Foreach)状态 ,流程执行完成后,您可单击表格中对应的行,查看每次 迭代 以及每次 迭代对应子任务的状态节点 的 输入 和 输出。 Parallel 状态 : 如果工作流包含 并行(Parallel)状态 ,流程执行完成后,您可单击表格中对应的行,查看每次 并行执行 以及 对应并行分支对应子任务状态节点 的 输入 和 输出。 执行事件 功能说明 : 执行事件 详细记录了每个步骤的执行数据,包括以下信息: 状态名称 状态类型 输入与输出 事件类型 事件执行时间 失败原因 (如有) 您可以通过 执行事件列表 了解流程的完整执行过程和状态。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流执行
        流程执行管理
      • vLLM GPU多机推理
        Master CPU,内存,共享内存可以不填,GPU填:1, 自定义资源rdma/rdmashareddevicea 填:1 (仅集群存在裸金属GPU节点时填写)。 Worker 副本数 1 CPU,内存,共享内存可以不填,GPU填:1, 自定义资源rdma/rdmashareddevicea 填:1(仅集群存在裸金属GPU节点时填写)。 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU多机推理
      • 支持审计的关键操作列表
        操作名称 资源类型 事件名称 创建实例 instance NoSQLCreateInstance 删除实例 instance NoSQLDeleteInstance 扩容节点 instance NoSQLEnlargeInstance 缩容节点 instance NoSQLReduceInstance 重启实例 instance NoSQLRestartInstance 恢复到新实例 instance NoSQLRestoreNewInstance 磁盘扩容 instance NoSQLExtendInstanceVolume 修改实例名称 instance NoSQLRenameInstance 实例冻结 instance NoSQLFreezeInstance 实例解冻 instance NoSQLUnfreezeInstance 创建备份 backup NoSQLCreateBackup 删除备份 backup NoSQLDeleteBackup 设置备份策略 backup NoSQLSetBackupPolicy 添加实例标签 tag NoSQLAddTags 修改实例标签 tag NoSQLModifyInstanceTag 删除实例标签 tag NoSQLDeleteInstanceTag
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        审计
        支持审计的关键操作列表
      • 概述
        天翼云CDN加速,是基于天翼云遍布全球的网络节点提供的内容分发加速服务。它将源站内容分发至最接近用户的节点,使用户可就近获取所需内容,解决因跨运营商、跨地域、服务器带宽及性能瓶颈带来的访问延迟问题,提高用户访问的响应速度和成功率。适用于加速网页站点、文件下载、视频点播等场景。本文档提供CDN加速产品的API描述、语法、参数说明及示例等内容。
        来自:
        帮助文档
        CDN加速
        API参考
        API概览
        概述
      • 计费类
        AntiDDoS流量清洗计费类问题 天翼云所有节点都支持AntiDDoS流量清洗服务么? 目前仅适用于广州4、苏州、华北、西安2、贵州、 成都3、 芜湖、 上海4、 杭州、 长沙2、 福州、 武汉2、 兰州、 南昌、北京2、深圳、西宁、重庆、乌鲁木齐(新疆)、青岛、 石家庄、 郑州、南宁、昆明、海口、中卫(银川)、太原、哈尔滨、天津、沈阳3、长春、内蒙3节点。 AntiDDoS服务是付费的吗? AntiDDoS服务作为安全服务的基础服务,目前属于免费服务。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        常见问题
        计费类
      • 编辑一致性快照
        项目 描述 一致性快照名称 一致性快照的名称。 取值:字符串形式,长度范围是1~256,只能由字母、数字、短横线( )、下划线( )组成,字母区分大小写,且仅支持以字母或数字开头。 注意 快照名称、一致性快照名称及一致性快照的卷快照名称必须唯一,不可相互重复。 回收策略 一致性快照内卷快照的回收策略: 不修改:保持目前的回收策略不变。 删除:当快照无关联克隆卷,且最多拥有1个子节点(子节点表示存在其他快照依赖此快照,或者当前写操作基于此快照),快照自动删除。 保留:当快照无关联克隆卷,且最多拥有1个子节点,快照仍然保留。 描述 一致性快照的描述信息。 取值:1~256位字符串。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        一致性快照
        编辑一致性快照
      • 日志下载
        编号 字段 描述 1 36.111.88.33 用户IP 2 www.test.ctyun.cn 访问域名 3 文件类型 4 [20200101013524] 请求时间 5 GET HTTP请求方式 6 请求URL 7 HTTP/1.1 HTTP协议 8 200 节点HTTP响应状态码 9 1360598 节点响应大小,单位byte 10 请求头Referer的值 11 "VLC/2.0.6 LibVLC/2.0.6" 请求头UserAgent的值 12 0.003 请求响应时间,指服务端接收到请求,到响应完成的时间,单位s(秒) 13 HIT 缓存命中状态,值为HIT或MISS 14 565 请求长度,含请求头和请求body长度,单位byte 15 bytes 01153046/1153047 节点响应头ContentRange的值
        来自:
        帮助文档
        全站加速
        用户指南
        日志下载
      • 变更加速区域
        参数名 说明 中国内地 选择中国内地,表示全球用户的访问,均会被调度至分布在中国内地的节点。 加速域名请先完成在中国大陆的ICP备案,同时完成公安网备案。 全球(不含中国内地) 选择全球(不含中国内地),表示全球用户的访问,均会被调度至分布在中国澳门、中国台湾、中国香港以及其他国家和地区的节点。 由于加速区域不包含中国内地,加速域名无需完成在中国大陆的ICP备案和公安网备案。 全球 选择全球,表示全球用户的访问,均会被择优调度至最近的节点进行加速服务。 由于加速区域包含中国内地,加速域名请先完成在中国大陆的ICP备案,同时完成公安网备案。
        来自:
        帮助文档
        视频直播
        用户指南
        域名管理
        基础配置
        变更加速区域
      • 系统权重分配规则
        本章节会介绍如何修改系统权重分配规则 开通读写分离功能后,本文介绍各种规格的实例默认的读权重分配规则。 系统权重分配规则 系统自动设置实例的读权重时,权重值是固定的,如下表所示: 说明 默认权重值CPU个数50。权重值范围为100~1000。 通过Hint指定SQL发往主实例或只读实例 在SQL开头添加hint注释进行强制路由; /FORCEMASTER/强制路由到主节点; /FORCESLAVE/强制路由到只读节点; 说明 在读写分离权重分配体系之外,Hint可作为另外一种SQL补充语法来指定相关SQL到主实例或只读实例执行。 Hint注释仅作为路由建议,非只读SQL、事务中的场景不能强制路由到只读节点。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库代理(读写分离)
        系统权重分配规则
      • 缓存过期时间
        本文介绍缓存过期时间设置方法。 功能介绍 缓存过期时间指源站资源在全站加速节点缓存的时长,在缓存未过期前,对应资源会直接从全站加速节点响应给用户;达到预设缓存过期时间后,资源将会被全站加速节点标记为缓存过期。此时如果客户端向全站加速节点请求该资源,全站加速会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新,如有更新则获取最新资源并缓存到全站加速节点,如无更新则继续使用原有缓存文件。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 注意事项 1. 您可基于天翼云默认推荐的缓存设置,按需进行调整后,直接使用,当前默认推荐配置如下: 2. 如您删除了上述默认推荐设置,且未添加其他任何设置情况下,全局默认不缓存走动态加速回源。 3. 如果加速域名下的文件访问热度过低(指同个文件在一段时间内被访问的频次过低),则很可能在过期时间到来之前被其他热度更高的文件覆盖。即:即使某个文件配置的缓存时间较长,如1个月,仍有可能在1个月内重复回源。 4. 天翼云全站加速节点的缓存时间,最长可以设置为3年,即1095天。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【缓存配置】。 5. 在【缓存过期时间】下方单击【增加规则】,弹出的对话框中,配置缓存时间规则,并单击【确定】。 (1)选择【类型】,如后缀名、目录、首页、全部文件、全路径文件,并配置相应的内容。 后缀名:指文件后缀名,可单击选择后缀名,如jpg,png。若后缀名不在选择清单内,可在【其他文件】框输入其他后缀名。 目录:指具体目录,例如值为:/a/,表示目录前缀为/a/的文件。 首页:指域名首页,值固定为/。 全部文件:指对应域名下的所有文件,值固定为/。 全路径文件:指对应URI的文件,例如值为:/a/b.js,则表示请求url中位于/a/目录下的b.js文件的缓存规则(无论是否携带问号后参数)。 (2)选择【缓存规则】,默认为强制缓存。 如选择强制缓存,则即使源站返回CacheControl:nocache/nostore/private等不缓存头或类似CacheControl:maxagen (n>0) 的缓存头时,全站加速节点仍将按照预设的规则及时间缓存文件。 注意 如选择强制缓存,且过期时间设置为0,则无论源站如何响应,全站加速节点均不缓存该文件。 如选择优先遵循源站,则源站如果返回CacheControl:nocache/nostore/private等不缓存头或CacheControl:maxagen (n>0)、Expires响应头时,优先按照源站响应头对应的缓存时间生效。 如选择不缓存,则无论源站返回任何缓存相关响应头,全站加速节点均不缓存。 (3)选择【过期时间】单位,如秒、分钟、小时、天,再填写对应的过期时间。 (4)【缓存参数】默认忽略参数,如需要带问号后参数缓存,请选择不忽略参数。 注意 对于可缓存的文件,全站加速节点通常会设置缓存key(缓存key为文件在全站加速节点上缓存的唯一ID)。默认情况下,全站加速节点会将问号后参数去掉的内容作为缓存key,以提升缓存命中率,降低回源量。如果原始URL中携带问号后参数,且参数不同时源站指向不同文件,则选择不忽略参数,避免缓存错误。 (5)填写【权重】。权重即优先级,支持自定义,数字越大则越优先生效。如果同个URL满足不同的缓存规则设置,例如该URL既属于某个文件后缀,又属于某个目录下,此时具体遵循哪条缓存规则,取决于二者的权重设置,最终按权重数字大的生效。 6. 单击【保存】,完成配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        缓存配置
        缓存过期时间
      • 业务过载最佳实践
        本节介绍Kafka业务过载最佳实践 方案概述 Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。 CPU使用率高的原因 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。 实施步骤 CPU使用率高的处理措施: 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。 num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。 num.replica.fetchers建议配置不超过5。 合理设置Topic的分区,分区一般设置为节点个数的倍数。 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 磁盘写满的处理措施: 扩容磁盘,使磁盘具备更大的存储空间。 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。 合理设置Topic的数据老化时间,减少历史数据的容量大小。 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。 常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。 Properties props new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 开启GZIP压缩 props.put("compression.type", "gzip"); Producer producer new KafkaProducer<>(props);
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        业务过载最佳实践
      • 网络性能测试的最佳实践
        测试多线程UDP吞吐量 $ iperf3 u c 192.168.0.15 b 5m P 4 t 60 p 10001 进行上下行带宽测试(双向传输) $ iperf3 u c 192.168.0.15 b 100M d t 60 p 10001 结果说明: jitter为抖动,在连续传输中的平滑平均值差。 Lost为丢包数量。 Total Datagrams为包数量。 iperf测试udp丢包严重:可以尝试增大收发包缓冲区。 echo 16777216 > /proc/sys/net/core/rmemmax echo 16777216 > /proc/sys/net/core/rmemdefault echo 16777216 > /proc/sys/net/core/wmemmax echo 16777216 > /proc/sys/net/core/wmemdefault 多流打流测试方案(针对大规格云主机) 针对大规格云主机,单进程打流可能无法发挥出云主机的性能,可以参考下述多流打流测试方案。 虚机网络性能说明 虚机从同⼀个队列发出的报文,在底层只能被⼀个cpu转发。即虚机⼀个队列的发包性能 < 虚拟交换机单核转发性能。 性能测试步骤 1. 确定两个⽤于性能测试的计算节点: A, B。 2. 在每个计算节点上分别创建2个虚机,虚机规格尽量大,虚机内核版本4.19及以上(建议使用CTyunOS 23.01)。 3. 4个测试虚机内安装iperf3包。 bash yum install iperf3 4. B计算节点上的两个虚机(B1, B2)分别起iperf服务端。 bash for i in {0..63}; do iperf3 s D p $((5200 + $i)) ; done 5. A计算节点上两个虚机(A1, A2)起iperf客户端(A1给B1发包, A2给B2发包), 创建发包脚本:
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        网络相关最佳实践
        网络性能测试的最佳实践
      • 创建与删除
        本页介绍了文档数据库服务创建与删除相关常见问题。 创建文档数据库服务实例时,怎么进行规格和节点的选择 在选择文档数据库服务规格和架构之前,首先需要了解应用的需求,包括预期的读写负载、数据量大小、并发连接数以及数据增长率等。对于测试场景,可以使用单节点,单节点不具备高可用性。对于小规模应用,可以使用副本集,它提供了高可用性,但不会水平扩展,适用于需要数据冗余和故障转移的场景。对于大规模应用和高吞吐量的场景,可以使用分片来实现水平扩展,分片允许数据分布在多个节点上,提高系统的横向扩展性。 文档数据库服务对内存非常敏感,因为它使用内存来缓存数据和索引。确保足够的内存来容纳常用数据,以减少磁盘IO并提高性能。当然您也可以后续进行规格扩容以更好满足业务需求。 控制台上看不到开通的实例 实例创建后在控制台看不到,可以确认下是否选择了正确的资源池,资源池查看位于页面左上角位置。 创建实例需要通过模板吗 文档数据库服务无需通过模版的方式创建实例,创建实例时,您评估好业务需求,选择合适的架构与规格即可创建符合业务需求的文档数据库服务。实例创建后,您还可以对自己的实例进行参数配置、角色管理等操作。 为什么数据会丢失或被删除 文档数据库服务不会删除用户的任何数据。出现数据丢失的情况,请确认下是否存在误操作,必要时可通过备份文件回档恢复数据。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        购买类
        创建与删除
      • Proxy集群主备
        本节介绍分布式缓存服务Redis Proxy集群主备 分布式缓存Redis Proxy集群主备在使用方式上实现了简化,采用与标准主备一致的连接模式。通过代理节点实现请求的智能路由转发,自动将客户端访问分发至对应的数据分片,同时支持热点数据缓存等增强功能,帮助用户构建更高效、稳定的业务系统。 说明 Proxy集群主备目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 架构示意图 说明 负载均衡器:采用主备高可用方式,用于接收客户端请求,Redis集群实例提供访问的IP地址和域名,即为负载均衡器地址。 Proxy:Redis集群代理服务器,负责执行路由转发、故障转移等关键任务,从而保障集群内部高可用性,简化客户端的逻辑处理。 Redis数据分片:每个数据分片均为主备双节点架构,当主节点发生故障不可用,系统将自动进行秒级切换至备节点,以保证服务的连续性。 特点 兼容标准访问模式 采用与标准主备架构一致的连接方式,具备良好的兼容性。当业务规模扩大、超出标准架构承载能力时,可便捷地将数据迁移至 Proxy 集群,显著降低业务改造成本,保障系统平滑演进与业务的持续扩展。 路由转发 Proxy维护与后端数据分片的持久连接,承担着请求的均衡分配与路由的关键角色,确保请求的高效处理和系统的稳定运行。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Proxy集群主备
      • 术语解释
        双因子认证 双因子认证是指结合密码以及验证码两种条件对用户登录行为进行认证的方法。 网页防篡改 网页防篡改为用户的文件提供保护功能,避免指定目录中的网页、电子文档、图片等类型的文件被黑客、病毒等非法篡改和破坏。 集群 集群是同一个子网中一个或多个弹性云主机(又称:节点)通过相关技术组合而成的计算机群体,为容器运行提供计算资源池。 节点 在容器中,每一个节点对应一台弹性云主机(Elastic Cloud Server,ECS),容器运行在节点上。 镜像 镜像(Image)是一个特殊的文件系统,除了提供容器运行时所需的程序、库、资源、配置等文件外,还包含了一些为运行时准备的配置参数。镜像不包含任何动态数据,其内容在构建之后也不会被改变。 容器 容器(Container)是镜像的实例,容器可以被创建、启动、停止、删除、暂停等。 安全策略 安全策略是指容器运行时需要遵循的安全规则,如果容器违反了安全策略,容器安全服务控制台的“运行时安全”页面会显示容器异常。 防护配额 目标主机开启检测防护需要绑定的对象,即防护配额。 在主机安全服务购买的不同版本的数量在控制台中是以防护配额的描述呈现。 示例: 购买了1个企业版,即企业版可用防护配额数量为1个,只能绑定任意1台主机; 购买了10个旗舰版,即旗舰版可用防护配额数量为10个,可分配至10台不同主机进行分别绑定;
        来自:
        帮助文档
        企业主机安全
        产品介绍
        术语解释
      • 恢复configsvr副本集
        本节主要介绍恢复configsvr副本集 准备目录 rm rf /compile/clusterrestore/cfg mkdir p /compile/clusterrestore/cfg1/data/db mkdir p /compile/clusterrestore/cfg1/log mkdir p /compile/clusterrestore/cfg2/data/db mkdir p /compile/clusterrestore/cfg2/log mkdir p /compile/clusterrestore/cfg3/data/db mkdir p /compile/clusterrestore/cfg3/log 操作步骤 步骤 1 准备单节点配置文件和数据目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsingle.log} 准备数据,将解压后的configsvr文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0241c8a32fb10245899708dea453a8c5c9no02/ /compile/clusterrestore/cfg1/data/db/ 启动进程。 ./mongod f restoreconfig/single40303.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40303 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40303'; cf['members'][1]['host']'127.0.0.1:40304'; cf['members'][2]['host']'127.0.0.1:40305'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新mongos和shard信息。 db.getSiblingDB('config').mongos.remove({}); 先查询config.shards表中的多个shard的id信息,用于下面语句的id的查询条件。逐个更新每条记录。 db.getSiblingDB('config').shards.update({'id' : 'shard1'},{$set: {'host': 'shard1/127.0.0.1:40306,127.0.0.1:40307,127.0.0.1:40308'}}) db.getSiblingDB('config').shards.update({'id' : 'shard2'},{$set: {'host': 'shard2/127.0.0.1:40309,127.0.0.1:40310,127.0.0.1:40311'}}) db.getSiblingDB('config').mongos.find({}); db.getSiblingDB('config').shards.find({}); 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建configsvr副本集。 准备副本集配置文件和目录,将configsvr1节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg2/data/db/ cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg3/data/db/ 修改configsvr1节点配置文件,增加副本集配置属性(restoreconfig/configsvr40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40303.yaml 修改configsvr2节点配置文件,增加副本集配置属性(restoreconfig/configsvr40304.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程 ./mongod f restoreconfig/configsvr40304.yaml 修改configsvr3节点配置文件,增加副本集配置属性(restoreconfig/configsvr40305.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40305.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40303 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复configsvr副本集
      • 1
      • ...
      • 123
      • 124
      • 125
      • 126
      • 127
      • ...
      • 230
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      公共算力服务

      一站式智算服务平台

      智算一体机

      推荐文档

      手动备份

      云课堂 第二十课:巧用天翼云盘备份云主机数据

      常见问题

      管理只读实例

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号