云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • SSL链路加密
        本文介绍了如何查看RDSPostgreSQL实例SSL链路加密。 操作场景 客户从内外网连接实例时使用SSL链路加密通信,防止实例数据被泄露。 前提条件 当前实例状态为运行中。 操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 在实例详情页,选择SSL设置栏中,点击最右侧的开启按钮,选择云端证书或自定义证书开启SSL。 7. 开启成功后,可在实例详情页查看SSL开启状态,以及其证书有效期。 注意 不同资源池因iaas资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        连接管理
        SSL链路加密
      • 节省成本
        本文介绍了RDSPostgreSQL产品的为客户节省成本的优势,主要体现为:即开即用、弹性伸缩、全面兼容、可视化运维。 即开即用 RDSPostgreSQL是天翼云提供的一项优质服务,您不需要自行搭建和配置环境,仅需通过官网控制台快速生成目标实例,通过内网连接RDSPostgreSQL能够有效节省公网流量并降低响应时间,服务提供图形化操作界面,能够提高运维效率。 弹性伸缩 您可以根据业务情况对数据库实例资源进行弹性伸缩,按需计费,帮助您有效节省成本。配合监控信息监测数据库压力和数据存储量的变化,您可以灵活调整实例规格和存储空间。具体支持变更实例规格方式可查看规格变更。 全面兼容 无需再次学习,RDSPostgreSQL支持各种原生PostgreSQL数据库引擎的操作方法,让您能够快速上手。此外,RDSPostgreSQL还兼容现有的程序和工具,您不必担心兼容性问题。 可视化运维 RDSPostgreSQL提供了全面的日常维护和管理,包括软硬件故障处理等工作,确保数据库运转正常。专业的数据库管理控制平台,提供一键式的功能,如重启、重置密码、参数修改、查看错误日志和慢查询日志、数据备份恢复等。此外,云服务能够实时监控实例的CPU利用率、TPS/QPS、连接数、磁盘空间等,帮助您随时了解实例的动态情况。 注意 不同资源池支持能力不同,具体详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        产品优势
        节省成本
      • 步骤四:将客户端加入AD域
        本文介绍如何将客户端加入已经部署好的AD域。 前提条件 AD域控制器已安装AD域服务并已部署完成。 操作步骤 1. 登录非AD域控制器的云主机客户端,进入“控制面板>系统和安全>系统”,在“计算机名、域和工作组设置”处可以看到当前计算机不属于任何域。 2. 设置DNS,使得客户端能解析AD域的域名。 1)客户端DNS设置。 a.登录客户端,打开“控制面板>网络和共享中心”,在“查看网络活动”找到“连接”,点击已连接的网络,通常为“以太网”。 b.在“以太网状态”弹窗中点击“属性>Internet协议版本4(TCP/IPv4)>属性”。 c.将“自动获得DNS服务器地址”改为“使用下面的DNS服务器地址”,并设置“首选DNS服务器”,设置的IP为AD域控制器的IPv4内网地址,在天翼云官网>弹性云主机控制台列表页获取。备用DNS服务器设置为空即可。 2)AD域控制器DNS设置。 AD域控制器的Internet协议版本4(TCP/IPv4)属性保持为“自动获得DNS服务器地址”。 3)网络验证。 在客户端命令行提示符工具或power shell工具处执行ping AD域名验证网络连通性。本文中执行 ping sfs.com。 3. 设置Sysprep。在客户端 C:Windows/System32/Sysprep,双击Sysprep.exe ,在勾选“通用”选项。防止计算机SID相同而无法加入AD域。 4. 设置域信息。在“计算机名、域和工作组设置”右侧点击“更改设置>更改”,选择“域”,填入AD域的域名“sfs.com”,点击“确定”。 5. 加域。输入步骤二中在域控制器创建用户时设置的用户名和密码。加入成功后会显示“欢迎加入sfs.com域”的提示。 6. 重启计算机使配置生效。 7. 验证。重启后,重新进入“系统”界面,此时可以看到本计算机已经加入到域sfs.com中。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        搭建AD域
        步骤四:将客户端加入AD域
      • 创建CA证书
        弹性负载均衡支持CA证书创建,本文带您快速熟悉CA证书创建的操作。 操作场景 CA证书又称客户端CA公钥证书,用于验证客户端证书的签发者;在开启HTTPS双向认证功能时,只有当客户端能够出具指定CA签发的证书时,HTTPS连接才能成功。 操作步骤 1. 在弹性负载均衡证书管理页面点击“创建证书”,进入证书创建页面。 2. 参考CA证书管理配置说明,点击“确定”,完成证书创建。 CA证书管理配置说明 参数 说明 名称 证书名称,只能由数字、字母、组成,不能以数字和开头、以结尾,且长度为263字符。 证书类型 可选服务器或者CA证书,本操作选择CA证书。服务器证书:在使用HTTPS协议时,服务器证书用于SSL握手协商,需提供证书内容和私钥。CA证书:又称客户端CA公钥证书,用于验证客户端证书的签发者;在HTTPS双向认证功能时,只有当客户端能够出具指定CA签发的证书时,HTTPS连接才能成功。CA证书只有单证书,无私钥。 证书标准 支持国际标准和国密(SM2)标准。 证书内容 支持粘贴证书到内容框,或点击上传证书内容。证书包含证书的公钥和签名等信息,证书扩展名为".pem"或".crt",您可直接输入证书内容或上传证书文件。 (1)通过Root CA机构颁发的证书,证书是唯一的一份,不需要额外的证书,配置的站点即可被浏览器等访问设备认为可信。Root CA证书格式必须符合如下要求:以BEGIN CERTIFICATE, END CERTIFICATE开头和结尾。每行64个字符,最后一行长度可以不足64个字符。证书内容不能包含空格。 (2)通过中级CA机构颁发的证书,证书文件包含多份证书,需要将服务器证书与中级证书合并在一起上传。证书链格式必须符合如下要求:BEGIN CERTIFICATEEND CERTIFICATEBEGIN CERTIFICATEEND CERTIFICATEBEGIN CERTIFICATEEND CERTIFICATE服务器证书放第一位,中级证书放第二位,中间不能有空行。证书内容不能包含空格。证书之间不能有空行,并且每行64字节。符合证书的格式要求。一般情况下,证书机构在颁发证书时会有对应说明,证书要符合证书机构的格式要求。 描述 填写证书相关描述,可选。 企业项目 选择所述的企业项目名称, 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        证书管理
        创建CA证书
      • 查询最耗性能的SQL
        本节介绍了如何排查最耗性能的SQL语句。 系统中有些SQL语句运行了很长时间还没有结束,这些语句会消耗很多的系统性能,请根据本章内容查询长时间运行的SQL语句。 操作步骤 步骤 1 使用DAS或者gsql连接实例。 步骤 2 查询系统中长时间运行的查询语句。 SELECT currenttimestamp querystart AS runtime, datname, usename, query FROM pgstatactivity where state ! 'idle' ORDER BY 1 desc; 查询后会按执行时间从长到短顺序返回查询语句列表,第一条结果就是当前系统中执行时间最长的查询语句。返回结果中包含了系统调用的SQL语句和用户执行SQL语句,请根据实际找到用户执行时间长的语句。 若当前系统较为繁忙,可以通过限制currenttimestamp querystart大于某一阈值来查看执行时间超过此阈值的查询语句。 SELECT query FROM pgstatactivity WHERE currenttimestamp querystart > interval '1 days'; 步骤 3 设置参数trackactivities为on。 SET trackactivities on; 当此参数为on时,数据库系统才会收集当前活动查询的运行信息。 步骤 4 查看正在运行的查询语句。 以查看视图pgstatactivity为例: SELECT datname, usename, state FROM pgstatactivity; datname usename state +++ postgres omm idle postgres omm active (2 rows) 如果state字段显示为idle,则表明此连接处于空闲,等待用户输入命令。 如果仅需要查看非空闲的查询语句,则使用如下命令查看: SELECT datname, usename, state FROM pgstatactivity WHERE state ! 'idle'; 步骤 5 分析长时间运行的查询语句状态。 若查询语句处于正常状态,则等待其执行完毕。 若查询语句阻塞,则通过如下命令查看当前处于阻塞状态的查询语句: SELECT datname, usename, state, query FROM pgstatactivity WHERE waiting true; 查询结果中包含了当前被阻塞的查询语句,该查询语句所请求的锁资源可能被其他会话持有,正在等待持有会话释放锁资源。 只有当查询阻塞在系统内部锁资源时,waiting字段才显示为true。尽管等待锁资源是数据库系统最常见的阻塞行为,但是在某些场景下查询也会阻塞在等待其他系统资源上,例如写文件、定时器等。但是这种情况的查询阻塞,不会在视图pgstatactivity中体现。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        性能调优
        确定性能调优范围
        查询最耗性能的SQL
      • 查看出云流量
        出云流量页面展示当前防火墙实例防护的云上EIP访问互联网的流量数据,数据基于会话统计,在连接期间,数据不会上报,连接结束后才会上报。 前提条件 开启弹性公网IP(EIP)防护且已有流量经过EIP,开启EIP防护的操作步骤请参见“开启互联网边界流量防护”。 规格限制 “私网外联资产”数据查看需满足专业版防火墙且开启VPC边界防火墙防护,请参见“开启VPC边界流量防护”。 查看出云流量 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“流量分析> 出云流量”,进入“出云流量”页面。 5. 查看经过防火墙的流量统计信息,支持5分钟~7天的数据。 流量看板:内部服务器访问互联网时最大流量的相关信息。 出云流量:出方向请求流量和响应流量数据,最多支持同时查询30个EIP的流量数据。 取值说明: 时间段 取值说明 近1小时 取1分钟内的平均值 近24小时 取5分钟内的平均值 近7天 取1小时内的平均值 自定义 5分钟~6小时:取1分钟内的平均值 6小时(含)~3天:取5分钟内的平均值 3天(含)~7天(含):取30分钟内的平均值 可视化统计:查看指定时间段内出方向流量中指定参数的TOP 5 排行,参数说明请参见下表。单击单条数据查看流量详情,每个详情支持查看50条数据。 出云流量可视化统计参数说明: 参数名称 参数说明 TOP访问目的IP 出方向流量的目的IP地址。 TOP访问目的地区 出方向流量的目的IP所属的地理位置。 TOP访问源IP 出方向流量的源IP地址。 TOP开放端口 出方向流量的目的端口。 应用分布 出方向流量的应用信息。 IP分析:查看指定时间段内 TOP 50 的流量信息。 外联IP:目的IP的流量信息。 外联域名:域名信息。 公网外联资产:源IP为公网IP的流量信息。 私网外联资产:源IP为私网IP的流量信息。 说明 私网IP信息仅配置了VPC边界防护的专业版防火墙可见。
        来自:
        帮助文档
        云防火墙
        用户指南
        查看流量数据
        查看出云流量
      • 扩容
        本节主要介绍如何进行实例扩容 在Redis管理控制台支持变更实例的容量,通过该操作可调整实例的规格,以满足不同的容量需求。 前提条件 只有当分布式缓存Redis缓存实例处于“运行中”状态,才能执行此操作。 影响须知 实例执行扩容时会出现1~2次30秒内的连接闪断。 为保障扩容后的新实例能快速追平原实例的增量数据,同时规避因DNS缓存引起的数据双写,在扩容过程中,实例每个分片节点会出现1分钟内的只读状态。 扩容完成后,实例的实例ID、连接地址、数据、白名单配置以及已创建的账号密码配置等均不会改变。 操作步骤 1.登录 Redis管理控制台 2.在管理控制台左上角选择实例所在的区域。 3.在实例列表页面选择实例,点击”更多>扩容“按钮,进入实例扩容页面。 页面参数介绍: 参数 说明 实例ID Redis实例ID。 实例名称 Redis实例名称。 实例规格 实例规格,包含总容量、副本数、分片数、分片容量。 运行状态 实例的运行状态。 开通时间 Redis实例开通的时间。 计费模式 包年包月或按需计费。 过期时间 包年/包月实例的到期时间,按需计费实例无到期时间。 扩容类型 支持扩分片规格、增加分片。 新分片规格 扩容后的分片容量。 分片数 扩容后的分片数(Cluster版本支持)。 变更风险检查 检查项参见下表,手动停止检查或检查结果提示异常时,如需继续执行规格变更,需要勾选“我已知晓风险”。 费用 包年包月:扩容前后价格差值;按需计费:扩容后新实例价格。 变更风险检查项: 参数 说明 非标配置 如 :实例appendonly参数未设置成yes,变更有数据丢失风险等。 节点状态 实例节点状态检查,任意节点不可用 异常。 内存使用率 内存利用率检查(>90%)异常。 带宽使用率 主机带宽使用率超过100% 异常。 CPU使用率 五分钟内的节点CPU利用率检查(>90%)异常。 4.选择目标扩容规格,点击确定按钮提交订单。 5.提交订单后自动进入订单详情管理页面,在该页面展示订单金额,进行订单支付操作。 6.点击立即支付即可完成扩容订单。 7.扩容一般需要几分钟,扩容成功后可以在控制台看到实例规格的变更。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例生命周期管理
        扩容
      • 插件概述
        插件名称 插件简介 CoreDNS域名解析(系统资源插件,必装) CoreDNS插件是一款通过链式插件的方式为Kubernetes提供域名解析服务的DNS服务器。 CCE容器存储(everest,必装) Everest是一个云原生容器存储系统,基于CSI为Kubernetes v1.15.6及以上版本集群对接云存储服务的能力。 CCE节点故障检测 nodeproblemdetector(简称:npd)是一款监控集群节点异常事件的插件,以及对接第三方监控平台功能的组件。它是一个在每个节点上运行的守护程序,可从不同的守护进程中搜集节点问题并将其报告给apiserver。nodeproblemdetector可以作为DaemonSet运行,也可以独立运行。 Kubernetes Dashboard Kubernetes Dashboard是Kubernetes集群基于Web的通用UI,集合了命令行可以操作的所有命令。它允许用户管理在集群中运行应用程序并对其进行故障排除,以及管理集群本身。 CCE集群弹性引擎 集群自动扩缩容插件autoscaler,是根据pod调度状态及资源使用情况对集群的工作节点进行自动扩容缩容的插件。 metricsserver MetricsServer是集群核心资源监控数据的聚合器。 CCE容器弹性引擎 ccehpacontroller插件是一款CCE自研的插件,能够基于CPU利用率、内存利用率等指标,对无状态工作负载进行弹性扩缩容。 prometheus(停止维护) Prometheus是一套开源的系统监控报警框架。在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 Kubernetes Web终端(停止维护) webterminal是一款支持在Web界面上使用Kubectl的插件。它支持使用WebSocket通过浏览器连接Linux,提供灵活的接口便于集成到独立系统中,可直接作为一个服务连接,通过cmdb获取信息并登录服务器。 CCE AI套件(NVIDIA GPU) gpubeta插件是支持在容器中使用GPU显卡的设备管理插件,仅支持Nvidia驱动。 Volcano调度器 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。 nginxingress控制器 nginxingress为Service提供了可直接被集群外部访问的虚拟主机、负载均衡、SSL代理、HTTP路由等应用层转发功能。 节点本地域名解析加速 NodeLocal DNSCache通过在集群节点上作为守护程序集运行DNS缓存代理,提高集群DNS性能。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        插件概述
      • 资产管理
        本章节为您介绍数据库安全网关的资产管理功能 在数据库安全网关中,资产是指系统需要防护和管理的数据库系统。资产管理是系统核心功能之一,涵盖了对各种数据库类型的安全监控与防护操作。 手动添加资产 1.登录数据库安全网关。 2.在左侧菜单栏选择“资产 > 资产管理”进入“资产管理”页面 ,单击页面的“新增”按钮。 注意 如果资产是集群,需要先在资产管理页面添加 集群的所有资产,包括每个节点的地址 和端口,以及ScanIP(集群扫描IP)等信息,然后切换到“集群配置”页面进行集群设置。 3.在弹出的“新增资产”对话框中,填写相关信息。 配置项 说明 类型 选择数据库的类型,系统支持数据库类型如下: 通用数据库:Oracle(包含RAC)、MySQL、MSSQL、Sybase ASE、DB2、Informix、Oscar、达梦(DM)、Cache、PostgreSQL、Teradata、人大金仓(Kingbase) 、GBase、MariaDB、Hana、MongoDB、GaussDB、GreenPlum、TiDB、Vertica、GoldenDB、UXDB、Doris、虚谷、HifhGo、OceanBase 大数据:HBase、Hive、Elasticsearch、Impala、SparkSQL、Clickhouse、Presto、Tdh、Odps 其他:HTTP、Trino CTcloud:TeledbMySQL、TeledbPostgreSQL 说明 若您选择的资产类型为:Oracle、Hive、Trino,需要额外配置相关参数。 操作系统 设置资产所在主机的操作系统。 IP/域名 设置资产所在主机的IPv4 或者IPv6 或者域名。 端口 设置资产原生端口号。 代理端口 设置访问资产的反向代理端口。 防护模式 入侵检测模式:对数据库进行入侵检测,可以产生审计、告警、脱敏、运维日志,但不会对请求进行阻断和脱敏; 入侵防护模式:对数据库进行入侵检测和防护,除可以生成审计、告警、脱敏、运维日志外,还可以对请求进行阻断和脱敏。 默认数据源 默认关闭,可启用。 支持Oracle、MySQL、MSSQL、DB2、达梦(DM)、PostgreSQL、MariaDB、UXDB、Hive、Tdh等。 默认数据源用途: 1. 新增敏感数据扫描任务时,自动带出数据源信息,减少用户操作步骤; 2. 安全规则配置“影响行数”维度,该规则匹配依赖资产的默认数据源。 数据库名 填写数据库名。(MSSQL、DB2、PostgreSQL、UXDB等) 用户名 填写数据库的用户名。 密码 填写数据库的密码。 测试 测试数据库的连通性。 4.配置完成后,单击“测试”进行资产连接测试,若正常则会提示连接成功。 5.单击“保存” ,弹出是否需要立即进行敏感数据扫描的提示框: 若选择“确定” ,则跳转到“资产 > 敏感数据 > 敏感数据扫描”页面进行下一步。 若选择“取消” ,则停留在资产管理页面。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        资产
        资产管理
      • 应用画面实时推流至直播间
        方案优势 无需配置高带宽、高显卡配置实例,云端提供高性能显卡、万兆带宽,可将应用画面无损画质 推送至直播间,带给观众4K分辨率、60帧超强观看体验! 实时配置推流地址,可按照业务需求动态开启直播推流、动态更改推流目的地! 支持多种交互输入,游戏可通过DataChannel发送弹幕指令、打造炫酷交互效果 ,可通过web页面键鼠超低延迟操控应,也可通过智能语音、手势交互、电竞手柄等新型交互方式远程操控应用! 支持无人直播模式,应用启动后,无人操控仍能持续推流,从而实现无客户端连接的情况下仍保持云端应用的运行和不间断的直播推流! 操作流程 使用流程 以下是从启动应用到开始推流的指导说明: 首先,您需要制作一个可在windows系统中运行的应用程序,若您需要游戏带交互功能,需要在应用层自行开发相关交互接口。制作完成后将应用打包为一个zip/7z/rar格式压缩包。 1. 开通实时云渲染服务]( 2. 参考 快速入门入门指导 的操作指引,将应用上传至云渲染平台,完成云端部署。 3. 应用部署完成后,通过JSSDK接入前端页面,启动应用。 4. 在JSSDK中设置启动推流: 1)若您需要主控端推流(如主播操控游戏),可将baseOption中的webrtcEnable 为 true ,并 onPlay 中执行liveStart(Url),应用启动成功后会根据您配置的Url自动开始直播推流。 const launch: Launcher await RCRLaunch({ appId, baseOptions: { startType: 1, webrtcEnable: true, // 默认为 true }, extendOptions: { onPlay: () > { // 开始推流 launch.liveStart(liveStartUrl) }, 2)如您不需要在本地电脑的前端窗口查看画面,可以使用无客户端的启动模式,将baseOption中的webrtcEnable设置为false,当 webrtcEnable 为 false 时,需要在 dataChannelConnected 事件中执行推流操作。允许无客户端连接的情况下仍保持云端 App 运行,并能通过DataChannel发送直播间弹幕至应用内。 if (!launch.option.baseOptions.webrtcEnable) { connection.event.dataChannelConnected.on(() > { // 开始推流 launch.liveStart(liveStartUrl) }); } 说明 如您需要修改推流协议、编码格式,请联系我们客服进行后台配置。 当前推流默认格式为:音频编码AAC、视频编码H264、封装格式RTMP。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        最佳实践
        应用画面实时推流至直播间
      • 配置Hive目的端参数
        本章节主要介绍配置Hive目的端参数。 作业中目的连接为配置Hive连接时,目的端作业参数如下表所示。 表 Hive作为目的端时的作业参数 参数名 说明 取值样例 数据库名称 输入或选择写入数据的数据库名称。 单击输入框后面的按钮可进入数据库选择界面。 default 自动创表 只有当源端为关系数据库时,才有该参数。表示写入表数据时,用户选择的操作: 不自动创建:不自动建表。 不存在时创建:当目的端的数据库没有“表名”参数中指定的表时,CDM会自动创建该表。如果“表名”参数配置的表已存在,则不创建,数据写入到已存在的表中。 先删除后创建:CDM先删除“表名”参数中指定的表,然后再重新创建该表。 不自动创建 表名 输入或选择写入数据的目标表名。 单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 TBLX 导入前清空数据 选择目的端表中数据的处理方式: 是:任务启动前会清除目标表中数据。 否:导入前不清空目标表中的数据,如果选“否”且表中有数据,则数据会追加到已有的表中。 是 待清空分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写待清空分区信息后,表示清空该分区的数据。 单分区:year2020,locationsun; 多分区:['year2020,locationsun', 'year2021,locationearth']. 说明 Hive作为目的端时,会自动创建存储格式为ORC的表。 Hive作为迁移的目的时,如果存储格式为Textfile,在Hive创建表的语句中需要显式指定分隔符。例如: CREATE TABLE csvtbl( smallintvalue smallint, tinyintvalue tinyint, intvalue int, bigintvalue bigint, floatvalue float, doublevalue double, decimalvalue decimal(9, 7), timestmampvalue timestamp, datevalue date, varcharvalue varchar(100), stringvalue string, charvalue char(20), booleanvalue boolean, binaryvalue binary, varcharnull varchar(100), stringnull string, charnull char(20), intnull int ) ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde' WITH SERDEPROPERTIES ( "separatorChar" "t", "quoteChar" "'", "escapeChar" "" ) STORED AS TEXTFILE;
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置Hive目的端参数
      • 产品动态
        时间节点 功能名称 功能描述 相关文档 2024.11.29 翼甲防火墙管理台 翼甲卫士是一款针对天翼AI云电脑平台的自研防火墙。用户可通过翼甲防火墙管理台进行防护策略的配置。 2024.11.06 天翼AI云电脑投屏功能 天翼AI云电脑投屏功能支持全平台,实现任意设备间的轻松投屏。无需繁琐的数据线连接,也无需耗时的匹配投屏器,您只需简单操作就能将AI云电脑内容无缝分享到大屏幕上。 2024.11.06 天翼AI云电脑外设使用指南 介绍如何在天翼AI云电脑中使用外接打印机、音视频、存储等设备
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品动态
        产品动态
      • 规格和使用限制
        资源 限制 说明 每个云企业路由器可加载的VPC网络实例数 10 可通过工单申请提高配额 每个云企业路由器可加载的云专线网络实例数 5 可通过工单申请提高配额 每个云企业路由器可加载天翼云SDWAN网络实例数 1 此限制不能提高 每个云企业路由器可加载天翼云VPN连接实例数 5 可通过工单申请提高配额 每个云企业路由器可加载天翼云云电脑网络实例数 5 可通过工单申请提高配额 每个云企业路由器支持默认路由表数 1 此限制不能提高 每个云企业路由器支持自定义路由表数 5 可通过工单申请提高配额 每个云企业路由器支持创建路由策略数 20 可通过工单申请提高配额 每个云企业路由器支持创建流量策略数 10 可通过工单申请提高配额
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        规格和使用限制
      • 产品使用限制
        本文为您介绍使用虚拟私有云产品时的相关限制,请您务必仔细阅读后使用。 VPC服务使用限制 VPC在使用过程中存在一些限制,您可以单击以下链接,了解不同功能的限制说明。 VPC网段和扩展网段限制 路由表限制 虚拟IP限制 弹性网卡限制 安全组限制 网络ACL限制 对等连接限制 前缀列表限制 流量镜像限制 DHCP选项集限制 组播限制
        来自:
        帮助文档
        虚拟私有云 VPC
        产品简介
        产品使用限制
      • DDS会话管理
        功能 说明 会话统计 查看会话统计区域,支持按数据库、访问来源条件统计活跃会话数。 性能监控 查看性能监控区域,支持展示5分钟内的性能监控趋势,性能监控指标包括数据库实例的CPU使用率、连接使用率等信息。 活跃会话 选择活跃会话页签,查看活跃会话信息,支持通过OPID、HOST、NAMESPACE、TYPE、COMMAND等条件筛选会话。 kill会话 kill会话包含以下三个功能: kill选中会话:在会话列表中勾选待kill的会话,点击 kill选中会话 ,在弹出的对话框中预览并点击执行。 kill全部会话:点击 kill全部 ,在弹出对话框中点击 执行 ,kill当前用户有权限操作的全部会话。 查看kill历史纪录:点击 kill历史记录 ,按时间筛选查看kill历史记录。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        会话管理
        DDS会话管理
      • 数据导入工单列表
        任务状态 用于展示数据导入任务的状态、执行时间和当前进度,状态包括已创建、执行成功、执行中、执行失败四种状态。当任务执行失败时,可在这里查看失败原因。 用户点击执行日志,可查看当前任务的日志输出。执行日志保存有效期为7天。 预检查 用于展示数据导入工单的预检查详情,包括连接检查、权限检查。如选择了“安全模式”,还可能有SQL风险检查、SQL规范检查(导入工单的SQL审核结果保留最多7天)。 审批流程 用于展示数据导入工单的审批流程详情。当组织处于基础版时,用户提交的数据导入工单会触发数据导入任务直接执行,不会经过审批流程,所以没有需要展示的审批流程信息;当组织处于企业版时,用户提交的数据导入工单在通过预定的审批流程之后,才会执行数据导入任务,所以会展示具体的审批流程信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        数据导入工单列表
      • MySQL实例扩容及规格变更
        本页面主要介绍了MySQL实例扩容以及规格变更相关的问题。 MySQL实例在扩容和规格变更期间是否一直可用 目前,关系数据库MySQL版支持磁盘扩容和CPU/内存规格变更,磁盘扩容包括备份空间和存储空间扩容,在磁盘扩容期间实例不需要重启。但是实例在进行规格变更时需要重启实例,请选择业务低峰期处理,避免业务异常中断。 为什么端口变更后实例状态异常 现象描述 端口变更后该实例状态为"异常"。 使用变更后端口号无法连接实例。 可能原因 提交的数据库端口被临时占用。 处理步骤 使用该端口号,重试执行端口变更。 若变更成功,说明所需变更端口被临时占用,导致变更失败。 若仍然变更失败,请联系技术人员。 MySQL实例是否支持更换VPC 支持。 关系数据库MySQL版满足条件的实例已经支持切换VPC。具体方法和约束请参考:切换实例VPC。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        管理类
        MySQL实例扩容及规格变更
      • 产品优势
        本节主要介绍产品优势 数据管理服务支持MySQL等类型主流版本实例管理。提供优质的可视化操作界面,大幅提高工作效率,让数据管理变得既安全又简单。 随时随地 使用Web界面呈现,无需安装本地客户端,随时随地可用。 内核源码优化 围绕运维痛点,对内核进行优化和加强,提供了诸如连接被打满时的数据库紧急运维能力、全量SQL语句的记录和分析能力等。 操作安全保障 内置安全保护措施,有效保障数据库的稳定运行,让用户操作起来更安心。例如:用户执行一个慢SQL时,DAS会自动设置超时机制,防止因慢SQL执行时间过久而导致的数据库性能抖动。 特性丰富 DAS提供更多高级特性,例如:SQL语句诊断、SQL任务定时执行、10G容量的数据导入导出、跨实例的数据库表结构同步,支持MySQL等多种数据库类型。
        来自:
        帮助文档
        数据管理服务
        产品简介
        产品优势
      • 配置BGP路由
        操作场景 用户根据网络规划,配置BGP路由规则。 前提条件 您的链路设置中没有配置MPLS链路。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本节我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”;进入天翼云SDWAN总览页面。 4. 选择“智能网关”,单击目标智能网关实例名称,进入实例详情页面。 5. 单击“BGP路由”页签,单击“添加”,进入配置BGP路由协议规则界面。 6. 在配置BGP协议页面,根据页面提示配置参数,参数信息可参考下表: 7. 单击“确定”,完成对当前智能网关实例的BGP路由规则配置。 8. 完成BGP路由配置后,您可以进一步创建设备间的连接关系,建立BGP邻居。 参数 描述 本端AS 网关设备所属自治系统编号。取值范围:165535 Router ID 智能接入网关BGP进程路由器ID。 格式为IPv4地址格式,例如192.168.1.1。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关(硬件版)
        路由管理
        配置BGP路由
      • 配置了泛域名证书后,访问三级及以上域名时浏览器报错是什么原因
        本文介绍三级域名关联泛域名证书后访问报错可能的原因及解决方案。 背景说明 三级域名在客户控制台关联泛域名证书后,浏览器访问三级域名时提示“您与此网站建立的不是私密连接”,或提示其他证书错误问题。本文介绍可能的原因及解决方案。 可能原因及解决方案 若您为全站加速域名关联的证书属于泛域名证书,例如证书匹配为.ctyuncdn.cn格式域名的证书,只能支持关联通配符同样级别的域名,例如,document.ctyuncdn.cn、test.ctyuncdn.cn或ctyuncdn.cn域名,无法支持关联三级域名如example.document.ctyuncdn.cn。此问题为证书颁发机构与浏览器之间的限制。 如您需要为三级域名提供全站加速服务,且需开启HTTPS,则关联证书需要使用对应三级域名的泛域名证书。如.document.ctyuncdn.cn的泛域名证书可以支持关联三级域名example.document.ctyuncdn.cn。
        来自:
        帮助文档
        全站加速
        常见问题
        安全类
        配置了泛域名证书后,访问三级及以上域名时浏览器报错是什么原因
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 使用方式
        私有对象 URL格式 通过SDK的generatepresignedurl预签名接口,生成指定对象的getobject访问权限,然后在其生成的URL后面拼接图片处理请求。URL格式为: xzosprocessimage/:固定参数,表示该请求是图片处理相关请求。 action,paramvalue:图片处理的操作(action)、参数(param)和值(value),用于定义图片处理的方式。多个操作以正斜线(/)隔开,操作后的不同参数通过逗号(,)隔开,参数后接下划线()并拼接参数具体的值。ZOS按图片处理参数的顺序处理图片。例如,“image/resize,p30/rotate,90”表示将图片先按比例缩放至原图的30%,再将图片旋转90°。支持的参数,请参见图片处理参数。 示例 awk 上述请求为对bucket桶中的mypic.jpg图片对象进行缩放和旋转操作:首先将图片缩放为500 px500 px,然后再将其旋转180°。 注意 当前拼接请求操作仅支持v2认证方式,v4认证方式拼接URL后会导致请求失败。具体SDK预签名方式参考对应的SDK 通过SDK处理图片 操作场景 您可以通过在SDK中添加参数的方式来处理图片。 示例 以java为例,介绍了图片处理的简单使用方式,更多语言的图片处理SDK请参考开发者文档。 java import com.amazonaws.ClientConfiguration; import com.amazonaws.auth.AWSCredentials; import com.amazonaws.auth.AWSStaticCredentialsProvider; import com.amazonaws.auth.BasicAWSCredentials; import com.amazonaws.client.builder.AwsClientBuilder; import com.amazonaws.services.s3.AmazonS3; import com.amazonaws.services.s3.AmazonS3ClientBuilder; import com.amazonaws.Protocol; import com.amazonaws.services.s3.model.GetObjectRequest; import com.amazonaws.services.s3.model.S3Object; import java.io.; import java.util.Base64; public class picturedemo { // 访问凭证,填写用户的AK与SK public static String ACCESSKEY "ACCESSKEY"; public static String SECRETKEY "SECRETKEY"; // endpoint为控制台域名信息中的终端节点 public static String ENDPOINT "ENDPOINT"; // 填写桶名 public static String BUCKETNAME "BUCKETNAME"; // 填写待操作图片对象完整路径 public static String OBJKEY "OBJKEY"; // 填写处理后图片对象待保存至本地的路径 public static String SAVEPATH "./test.png"; public static void main(String[] args) { AmazonS3 s3Client; // 当使用HTTPS协议且采用自签名认证时,需关闭证书检查 // System.setProperty("com.amazonaws.sdk.disableCertChecking", "true"); // 使用凭据和配置建立连接 AWSCredentials credentials new BasicAWSCredentials(ACCESSKEY, SECRETKEY); ClientConfiguration awsClientConfig new ClientConfiguration(); // 使用V2签名时,采用"S3SignerType" awsClientConfig.setSignerOverride("S3SignerType"); // 使用V4签名时,采用"AWSS3V4SignerType" // awsClientConfig.setSignerOverride("AWSS3V4SignerType"); // 连接默认使用HTTPS协议,使用HTTP协议连接时需要显式指定 awsClientConfig.setProtocol(Protocol.HTTP); s3Client AmazonS3ClientBuilder.standard() .withCredentials(new AWSStaticCredentialsProvider(credentials)) .withClientConfiguration(awsClientConfig) .withEndpointConfiguration(new AwsClientBuilder.EndpointConfiguration(ENDPOINT, "")) .disableChunkedEncoding() .build(); GetObjectRequest request new GetObjectRequest(BUCKETNAME, OBJKEY); // 图片处理具体操作,将图片在(10,10)处裁剪300200大小的矩形,再旋转90° String imageop "image/crop,w300,h200,x10,y10/rotate,90"; request.setZosProcess(imageop); S3Object result s3Client.getObject(request); System.out.print("request successn"); // 将下载的图片保存到本地 try { InputStream in result.getObjectContent(); File outputFile new File(SAVEPATH); FileOutputStream outputStream new FileOutputStream(outputFile); byte[] readbuf new byte[1024 1024]; int readlen 0; while ((readlen in.read(readbuf)) > 0) { outputStream.write(readbuf, 0, readlen); } in.close(); outputStream.close(); } catch (IOException e){ e.printStackTrace(); } } }
        来自:
      • 入门概述
        网络实例通过连接至云间高速,可以实现云上网络互通、云上云下网络互通和跨地域网络互通。本文将介绍云间高速的入门场景。 环境要求 确保要互通的网段之间没有冲突。 入门场景 场景说明 相关文档 实现 IDC 与 VPC 高速互通。生产数据可快速上传至云进行分析,云上应用也能流畅调用本地数据,即使业务高峰,数据传输依然高效稳定,提升混合云业务协同效率,降低运营成本,推动企业数字化转型。 使用云间高速实现同地域云上云下网络互通(SDWAN方案) 打通跨地域、跨账号的 VPC 网络,实现数据高速稳定传输。实现企业不同区域公司业务系统间数据交互流畅,资源可灵活调用,显著提升跨区域业务协同效率,降低网络建设与运维成本,为集团一体化运营提供有力支撑。 使用云间高速实现跨地域跨账号VPC互通
        来自:
        帮助文档
        云间高速(标准版)EC
        快速入门
        入门概述
      • 云主机磁盘IO高负载
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录弹性云主机 控制台,进入目标实例的监控指标页,观测磁盘读速率、磁盘写速率指标。 2、业务应用验证: 检查应用日志,确认是否存在文件读写超时、数据库连接异常或请求处理缓慢等错误。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机磁盘IO高负载
      • 副本集测试数据
        本页介绍了文档数据库服务的副本集类型实例性能测试数据。 术语说明 threads:压测线程数,也对应了压测客户端到文档数据库服务的连接总数。 recordcount:数据总条数,每条数据长度为 1KB。 operationcount:请求总数。 OPS:数据库每秒操作数。 加载测试数据 主机及存储类型 CPU:Memory 实例规格 threads recordcount OPS c7 超高IO 1 : 2 2C4G 16 2000000 14996 c7 超高IO 1 : 2 4C8G 32 4000000 32396 c7 超高IO 1 : 2 8C16G 64 8000000 50393 c7 超高IO 1 : 4 2C8G 16 4000000 15371 c7 超高IO 1 : 4 4C16G 32 8000000 29677 c7 超高IO 1 : 4 8C32G 64 16000000 47426 c7 超高IO 1 : 4 16C64G 128 32000000 63362 c8 XSSD1 1 : 2 2C4G 16 2000000 17034 c8 XSSD1 1 : 2 4C8G 32 4000000 34826 c8 XSSD1 1 : 2 8C16G 64 8000000 69327 c8 XSSD1 1 : 4 2C8G 16 4000000 17512 c8 XSSD1 1 : 4 4C16G 32 8000000 29895 c8 XSSD1 1 : 4 8C32G 64 16000000 67629 c8 XSSD1 1 : 4 16C64G 128 32000000 63224
        来自:
        帮助文档
        文档数据库服务
        性能白皮书
        副本集测试数据
      • 删除集群
        本章节主要介绍删除集群。 操作场景 当您确认不再使用当前集群后,可以删除当前CDM集群。 删除CDM集群后集群以及数据都销毁且无法恢复,请您谨慎操作! 删除集群前,请您确认如下注意事项: 待删除集群确认已不再使用,且其中的连接和作业数据您已通过批量管理作业章节中的 导出作业功能 进行备份。 前提条件 已创建CDM集群。 删除集群 1.登录CDM管理控制台。单击左侧导航上的“集群管理”,进入集群管理界面。 集群列表详见下图 说明 “创建来源”列仅通过DataArts Studio服务进入数据集成界面可以看到。 2.选择集群操作列中的“更多 > 删除”,进入删除集群确认界面。 删除集群详见下图 3.点击“确认”,即开始删除CDM集群。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理集群
        删除集群
      • 接入全站加速后,需要对静态资源和动态资源做域名拆分,才能享受加速服务吗
        本文介绍是否需要拆分域名才能享受动静态加速服务。 接入全站加速后,需要对静态资源和动态资源做域名拆分,才能享受加速服务吗 完全不需要。 全站加速可对动静态资源一体化的源站做加速,源站无需拆分域名,只需要做CNAME解析即可接入全站加速平台享受动静混合的加速服务,静态资源就近节点获取缓存资源,动态资源通过全站加速平台的智能选路组件下发的最优链路快速回源获取,从而实现动静态混合的站点加速。 全站加速支持纯动态站点加速吗 全站加速支持纯动态站点的加速。如果请求的是动态数据,则基于全网节点相互探测,选出实时最优路径响应给客户端,保证动态业务采用最优链路回源,避免公网拥塞、抖动对传输造成影响。同时可启用长连接复用,节省TCP三次握手时间,提升动态请求的传输速度。
        来自:
        帮助文档
        全站加速
        常见问题
        功能类
        接入全站加速后,需要对静态资源和动态资源做域名拆分,才能享受加速服务吗
      • 查询用户登录记录列表v3
        接口功能介绍 假设endTime代表前一天23点59分59秒(UTC+8),时间范围相关说明如下: 可供查询的数据时间范围是:[endTime 180 天, endTime]。 startTime的默认值是:endTime 30天。 endTime的默认值是:endTime。 startTime和endTime与连接时间的关系:startTime < startConnectTime,startConnectTime < endTime。 考虑到存在延迟,如需要完整导出某天的连接会话记录,建议延后至少24小时进行导出,导出时指定时间范围(UTF+8):[此天0点, 此天23点59分59秒]。 单次查询的时间间距不可超过30天。 接口约束 无 URI GET /v3/statistic/describeDesktopConnectLog 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx pubUserOids 否 String 用户ID。取值由用户ID组成一个JSON数组,最多支持10个ID,ID之间用半角逗号(,)隔开。 startTime 否 String 起始时间。支持2种格式:秒级UNIX时间戳;以ISO 8601为标准,并使用UTC+0时间,格式为yyyyMMddTHH:mm:ssZ。 1700642186 endTime 否 String 结束时间。支持2种格式:秒级UNIX时间戳;以ISO 8601为标准,并使用UTC+0时间,格式为yyyyMMddTHH:mm:ssZ。 20231122T16:36:29Z limit 否 Integer 返回最大记录数。取值范围:[1, 100]。默认值:10。 10 cursor 否 String 游标。指定为上一个请求返回的nextCursor,获取下一页,达到翻页效果。未设置时默认返回首页数据。 ZWNwYzpudW1iZXI6MQ
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        查询统计
        查询用户登录记录列表v3
      • 恢复NameNode数据
        操作步骤 1.在FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 实例 > NameNode”,查看待恢复数据的NameNode角色实例是否已经停止,如果NameNode角色实例未停止,请停止NameNode角色实例运行。 2.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 3.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 4.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 5.单击“创建”。 6.在“任务名称”填写恢复任务的名称。 7.在“恢复对象”选择待操作的集群。 8.在“恢复配置”,勾选“NameNode”。 9.在“NameNode”的“路径类型”,选择一个备份目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示备份文件保存在主管理节点的本地磁盘上。 选择此参数值,还需要配置以下参数: “源端路径”:表示备份文件在本地磁盘中保存的完整路径。例如“ 备份路径/备份任务名任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “SFTP”:表示备份文件通过SFTP协议保存在服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “源端路径”:填写备份文件在OBS中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 说明 MRS 3.1.0及之后版本才支持将备份文件保存到OBS。 10. 单击“确定”保存。 11.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。 12.在FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 更多 > 重启服务”。 在弹出窗口中输入当前登录的管理员密码确认管理员身份,单击“确定”。界面提示“操作成功。”,单击“完成”,服务成功启动。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复NameNode数据
      • 恢复HDFS业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.在任务列表指定任务的“操作”列,选择“更多 > 查询历史”,打开备份任务执行历史记录。 在弹出的窗口中,在指定一次执行成功记录的“备份路径”列,单击“查看”,打开此次任务执行的备份路径信息,查找以下信息: “备份对象”表示备份的数据源。 “备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 3.在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 4.单击“创建”。 5.在“任务名称”填写恢复任务的名称。 6.在“恢复对象”选择待操作的集群。 7.在“恢复配置”,勾选“业务数据”下的“HDFS”。 8.在“HDFS”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “源端NameService名称”:填写备份数据集群的NameService名称。可以输入集群内置的远端集群的NameService名称:haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4;也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “源端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“ 备份路径/备份任务名数据源任务创建时间 ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NFS”:表示备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “CIFS”:表示备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “SFTP”:表示备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。例如,“ 备份路径/备份任务名数据源任务创建时间/版本号数据源任务执行时间.tar.gz ”。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。 “恢复点列表”:单击“刷新”,然后选择一个备集群上已备份的HDFS目录。 “目标NameService名称”:选择备份目录对应的目标NameService名称。默认值为“hacluster”。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 9.在“数据配置”中的“备份数据”列根据业务需要勾选一个或多个需要恢复的已备份数据,并在“目标路径”列,指定备份数据恢复后的位置。 “目标路径”建议选择一个与目的端路径不同的新路径。 10.单击“校验”查看恢复任务的配置是否正确。 如果队列名称不正确,校验失败。 如果不存在指定的恢复目录,校验失败。 11.单击“确定”保存。 12.在恢复任务列表已创建任务的“操作”列,单击“执行”,开始执行恢复任务。 恢复成功后进度显示为绿色。 恢复成功后此恢复任务不支持再次执行。 如果恢复任务在第一次执行时由于某些原因未执行成功,在排除错误原因后单击“重试”,重试恢复任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HDFS业务数据
      • 修改实例内网地址
        本章节将介绍如何修改实例内网地址。 数据库从本地或其他云迁移至文档数据库服务后,可能面临更改内网IP的问题,文档数据库服务提供修改内网地址功能,降低客户迁移成本。 使用须知 修改节点的内网IP地址会导致原内网IP地址失效,如果该节点绑定了弹性公网IP,修改内网IP地址过程中,请不要操作解绑弹性公网IP,修改完成后,查看新内网IP地址继续绑定至该弹性公网IP。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面选择指定实例,单击实例名称,进入基本信息页面。 您还可以在实例基本信息页面单击左侧导航栏“连接管理”,进入详细信息页面。 步骤 5 在“节点信息”区域的节点上,单击“修改内网地址”。 步骤 6 在弹出框中,填写未使用的新内网地址,单击“确定”。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        修改实例内网地址
      • 参数配置
        参数名称 取值范围 说明 appendfsync no,always,everysec 操作系统的fsync函数刷新缓冲区数据到磁盘。 Redis支持三种不同的调用fsync的方式: no:不调用fsync,由操作系统决定何时刷新数据到磁盘,性能最高。 always:每次写AOF文件都调用fsync,性能最差,但数据最安全。 everysec:每秒调用一次fsync。兼具数据安全和性能。 appendonly yes,no 指定是否在每次更新操作后进行日志记录(即持久化功能),Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。 有以下取值供选择: yes: 开启。 no: 关闭。 hashmaxziplistentries 1~10000 当hash表中只有少量记录时,使用有利于节约内存的的数据结构来对hashes进行编码。 hashmaxziplistvalue 1~10000 当hash表中最大的取值不超过预设阈值时,使用有利于节约内存的的数据结构来对hashes进行编码。 latencymonitorthreshold 0~86400000 延时监控的采样时间阀值(最小值),单位为毫秒。 阀值设置为0:不做监控,也不采样; 阀值设置为大于0:将记录执行耗时大于阀值的操作。 可以通过LATENCY等命令获取统计数据和配置、执行采样监控 luatimelimit 100~60000 Lua脚本的最长执行时间,单位为毫秒。 maxclients 1000~50000 最大同时连接的客户端个数。 maxmemorypolicy volatilelru,allkeyslru,volatilelfu,allkeyslfu,volatilerandom,allkeysrandom,volatilettl,noeviction 在达到内存上限(maxmemory)时实例将如何选择要删除的内容。有8个取值供选择: volatilelru:根据LRU算法删除设置了过期时间的键值。 allkeyslru:根据LRU算法删除任一键值。 volatilerandom:删除设置了过期时间的随机键值。 allkeysrandom:删除一个随机键值。 volatilettl:删除即将过期的键值,即TTL值最小的键值。 noeviction:不删除任何键值,只是返回一个写错误。 volatilelfu: 根据LFU算法删除设置了过期时间的键值。 allkeyslfu: 根据LFU算法删除任一键值。 protomaxbulklen 1048576~536870912 Redis协议中的最大的请求大小,单位为字节。 listcompressdepth 0~65535 列表中两端不被压缩的节点个数,取值范围0~65535。 0:默认值,表示都不压缩。 1~65535:表示list两端各有1~65535个节点不压缩,中间的节点压缩。 replbacklogsize 16384~1073741824 用于增量同步的复制积压缓冲区大小(单位为字节)。这是一个用来在从节点断开连接时,存放从节点数据的缓冲区,当从节点重新连接时,如果丢失的数据少于缓冲区的大小,可以用缓冲区中的数据开始增量同步。 replbacklogttl 0~604800 从节点断开后,主节点释放复制积压缓冲区内存的秒数。值为0时表示永不释放复制积压缓冲区内存。 repltimeout 30~3600 主从同步超时时间,单位为秒 setmaxintsetentries 1~10000 当一个集合仅包含字符串且字符串为在64位有符号整数范围内的十进制整数时,使用有利于节约内存的的数据结构对集合进行编码。 slowloglogslowerthan 0~1000000 用于设置Redis慢查询日志的阈值,单位是微秒。 slowlogmaxlen 100~10000 慢查询记录的条数。注意慢查询记录会消耗额外的内存。可以通过执行SLOWLOG RESET命令清除慢查询记录。 timeout 0~7200 客户端空闲N秒(timeout参数的取值)后将关闭连接。当N0时,表示禁用该功能。 zsetmaxziplistentries 1~10000 有序集合中只有少量记录时,使用有利于节约内存的的数据结构对有序序列进行编码。 zsetmaxziplistvalue 1~10000 当有序集合中的最大取值不超过预设阈值时,使用有利于节约内存的的数据结构对有序集合进行编码。 isopenflashback yes,no 是否开启闪回 isopendangercmdswitch yes,no 危险命令开关 hz 1~500 设置Redis后台任务执行频率,例如清除过期键任务。取值范围为1~500,默认值为10,即每秒执行10次。 aoftimestampenabled yes,no aof记录时间戳开关 activedefrag yes,no 自动清理内存碎片开关 activedefragignorebytes 104857600~10737418240 内存碎片占用空间达到设定值的时候开始清理 activedefragthresholdlower 10~100 内存碎片率大于设定值的时候开始清理 activedefragcyclemin 1~25 内存碎片清理所占用CPU时间的比例不低于设定值(%) activedefragcyclemax 1~25 内存碎片清理所占用CPU时间的比例不高于设定值(%) autoaofrewriteminsize 67108864~34359738368 设置自动重写AOF文件的最小值。注,当前运行值随规格变化,可不用关注默认值。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        参数配置
      • 1
      • ...
      • 83
      • 84
      • 85
      • 86
      • 87
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      轻量型云主机

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      应用托管

      一站式智算服务平台

      知识库问答

      人脸检测

      人脸实名认证

      推荐文档

      连接列表

      备案概述

      加入会议

      查看云间高速

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号