活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容审核_相关内容
      • 实例开通
        本页介绍天翼云TeleDB数据库实例开通相关操作。 在实例开通模块,可开通数据库引擎,可选关系型数据库和数据库生态工具等。 1. 以用户名和密码登录TeleDBDCP数据库管理平台。 2. 在左侧导航树选择实例管理 > 实例开通 ,进入实例开通页面。 3. 配置实例基本信息。 您需要注意如下参数: 引擎选项:您需要先填写引擎选项,即需要开通的引擎类型、引擎规格、性能规格。 实例设置:根据选择引擎,设置实例相关信息,不同数据库实例设置的内容不同,例如TeleDB需要填写实例名称、主备复制模式、字符集、root密码等。 4. 单击下一步 ,进入实例开通下一个页面。 5. 根据实际情况,填写基本信息。 > 您需要先选择主机组,将新建的实例与主机组进行绑定,初次分配以及后续的扩容等操作,都只允许选择该主机组当中的实例主机。其中,主机组中为running状态的主机,才可以用于分配使用。 > 主机选择可选自动分配 ,或单击选择主机手动选择主机。 > 填写主机配置相关信息。 6. 单击提交工单,完成实例开通。 7. 您可通过实例管理 > 工单管理,查看工单详情。 8. 您可通过实例管理 > 实例列表 ,查看实例详情信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据库资源与生命周期管理服务操作指南
        实例部署
        实例开通
      • 访问防护域名响应403状态码
        本文介绍访问DDoS高防(边缘云版)内容响应403状态码可能的原因及解决方案。 问题现象 请求DDoS高防(边缘云版)域名资源时,边缘节点响应403状态码,无法访问资源。 可能原因及解决方案 场景一:加速域名在DDoS高防(边缘云版)控制台上未配置 若域名未在DDoS高防(边缘云版)平台进行配置,该域名请求访问到边缘节点时,边缘节点会直接响应403。具体报错如下: 解决方案:针对加速域名未在DDoS高防(边缘云版)控制台配置的情况,可以将需要加速的域名在DDoS高防(边缘云版)控制台上配置,配置完成后,进行对应的CNAME ,再重新请求对应的资源。 场景二:源站响应403问题 当用户端对该资源发起请求,边缘节点转发回源,源站如果响应403状态码给边缘节点,边缘节点会将403响应给用户端。具体报错如下: 解决方案:针对源站响应的403,需要源站排查对应原因,源站修改对应响应后,用户端再重新发起请求。 场景三:防护策略拦截 若在DDoS高防(边缘云版)控制台上配置访问控制、频率控制、CC防护,当请求触发拦截策略时,边缘节点会响应403。具体报错如下: 解决方案:如果IP为正常请求IP,可以在DDoS高防(边缘云版)控制台调整防护策略,配置生效后,再重新发起请求。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        故障排查
        访问防护域名响应403状态码
      • 域名请求出现“504 Gateway Time-out”错误
        本文介绍域名请求出现“504 Gateway Timeout”错误可能的原因及解决方案。 问题现象 使用天翼云CDN加速之后,用户请求加速域名出现“504 Gateway Timeout”报错,导致无法正常访问。报错如下: 可能原因及解决方案 如源站因某种原因响应慢,超过CDN加速回源超时时间设置仍未向CDN节点返回内容,则会出现504报错。此时具体排查步骤如下: 1. 确认源站服务器的各个指标如CPU及带宽资源等是否正常,如是否有跑高等异常现象。软件服务是否有异常,如发现异常,请联系提供源站服务的相应技术人员进一步进行修复。 2. 可通过直接将域名指向源站IP的方式(修改本机HOSTS文件),不经过CDN请求对应的域名资源,确认源站能否正常响应,查看响应的具体情况。请求时可通过在浏览器打开开发者选项或通过Wireshark等抓包工具进一步查看,如下图示: 如上图,查看对应请求的元素,发现源站请求的响应时间time参数长达1min,确认为源站响应慢,需要进一步检查源站情况,确认源站能否降低响应时长(降低至CDN厂商回源超时时间范围内)。 当确认源站响应慢而且源站没有办法减少响应时间时,可以通过修改CDN域名的默认回源超时时长来缓解该问题,具体可提交工单联系天翼云客服进行配置。 3. 若按上述步骤验证后非源站问题,可参考:接入CDN后域名无法访问,进一步排查。 4. 如果问题还是无法解决,请提交工单联系天翼云客服进行人工确认。
        来自:
        帮助文档
        CDN加速
        常见问题
        刷新预取
        域名请求出现“504 Gateway Time-out”错误
      • 开发一个MRS Flink作业
        本章节主要介绍DataArts Studio的开发一个MRS Flink作业流程。 本章节介绍如何在数据开发模块上进行MRS Spark Flink作业开发。通过MRS Flink作业实现统计单词的个数。 前提条件 具有OBS相关路径的访问权限。 已开通MapReduce服务MRS,并创建MRS集群。 数据准备 下载Flink作业资源包"wordcount.jar"。 准备数据文件“in.txt”,内容为一段英文单词。 操作步骤 1. 将作业资源包和数据文件传入OBS桶中。 说明 本例中,WordCount.jar文件上传路径为:lkjtest/WordCount.jar;word.txt 文件上传路径为:lkjtest/input/word.txt。 2. 创建一个数据开发模块空作业,作业名称为“jobMRSFlink”。 新建作业 3. 进入到作业开发页面,拖动“MRS Flink”节点到画布中并单击,配置节点的属性。 配置MRS Flink节点属性 参数设置说明: Flink作业名称 wordcount MRS集群名称 选择一个MRS集群 运行程序参数 c org.apache.flink.streaming.examples.wordcount.WordCount Flink作业资源包 wordcount 输入数据路径 obs://dlfregion1/lkjtest/input/word.txt 输出数据路径 obs://dlfregion1/lkjtest/output.txt 其中: obs://dlfregion1/lkjtest/input/word.txt为wordcount.jar的传入参数路径,可以把需要统计的单词写到里面; obs://dlfregion1/lkjtest/output.txt为输出参数文件的路径(如已存在output.txt文件,会报错)。 4. 单击“测试运行”,执行该MRS Flink作业。 5. 待测试完成,执行“提交”。 6. 在“作业监控”界面,查看作业执行结果。 7. 查看OBS桶中返回的记录。(没设置返回可跳过)
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        开发一个MRS Flink作业
      • 作业开发
        如何查看DLI Spark作业的实际资源使用情况 查看Spark作业原始资源配置 登录DLI 控制台,单击左侧“作业管理”>“Spark作业”,在作业列表中找到需要查看的Spark作业,单击“作业ID”前的,即可查看对应Spark作业的原始资源配置参数。 说明 在创建Spark作业时,配置了“高级配置”中的参数,此处才会显示对应的内容。 查看Spark作业实时运行资源 查看Spark作业实时运行资源,即查看有多少CU正在运行。 1. 登录DLI 控制台,单击左侧“作业管理”>“Spark作业”,在作业列表中找到需要查看的Spark作业,单击“操作”列中的“SparkUI”。 2. 在SparkUI页面可查看Spark作业实时运行资源。 3. 在SparkUI页面还可以查看Spark作业原始资源配置(只对新集群开放)。 在SparkUI页面,单击“Environment”,可以查看Driver信息和Executor信息。 详见下图:Driver信息 详见下图:Executor信息 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库? 1.缺少pymysql模块,可以查看是否有对应的egg包,如果没有,在“程序包管理”页面上传pyFile。具体步骤参考如下: a.将egg包上传到指定的OBS桶路径下。 b.登录DLI管理控制台,单击“数据管理 > 程序包管理”。 c.在“程序包管理”页面,单击右上角“创建”可创建程序包。 d.在“创建程序包”对话框,配置如下参数: 包类型:PyFile。 OBS路径:选择1.aegg包所在的OBS路径。 分组设置和分组名称根据情况选择。 e.单击“确定”完成程序包上传。 f.在报错的Spark作业编辑页面,“依赖python文件”处选择已上传的egg程序包,重新运行Spark作业。 2.pyspark作业对接MySQL,需要创建跨源链接,打通DLI和RDS之间的网络。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业开发
      • 创建并提交Spark SQL作业
        本章节主要介绍数据湖探索创建并提交Spark SQL作业。 操作场景 DLI可以查询存储在OBS中的数据,本节操作介绍使用DLI提交Spark SQL作业查询OBS数据的操作步骤。 操作流程 使用DLI提交Spark SQL作业查询数据。基本流程如下: 1.上传数据至OBS 2.创建队列 3.创建数据库 4.创建表 5.查询数据 上传数据至OBS 使用DLI查询数据前,需要将数据文件上传至OBS中。 1.登录管理控制台。 2.在服务列表中,单击“存储”中的“对象存储服务OBS”,进入OBS管理控制台页面。 3.创建桶,本例桶名以“obs1”为例。 a. 单击页面右上角“创建桶”。 b. 进入“创建桶”页面,输入“桶名称”。其他参数保持默认值或根据需要选择。 创建OBS桶时,需要选择与DLI管理控制台相同的区域,不可跨区域执行操作。 c. 单击“立即创建”。 4.单击所建桶“obs1”,进入“对象”页面。 5.勾选左侧列表中的“对象”,选择“上传对象”,将需要上传的文件“sampledata.csv”上传到指定目录,单击“上传”。 “sampledata.csv”样例文件可以通过新建“sampledata.txt”,复制如下英文逗号分隔的文本内容,再另存为“sampledata.csv”。 12,test 文件上传成功后,待分析的文件路径为“obs://obs1/sampledata.csv”。 说明 关于OBS管理控制台更多操作请参考《 OBS上传文件指导,请参见《 针对大文件场景,由于OBS管理控制台对文件大小和数量限制较多,所以推荐使用OBS工具上传大文件,如OBS Browser+上传。 OBS Browser+是一个比较常用的图形化工具,支持完善的桶管理和对象管理操作。推荐使用此工具创建桶或上传对象。
        来自:
        帮助文档
        数据湖探索
        快速入门
        创建并提交Spark SQL作业
      • 数据导入导出
        本章节主要介绍操作类问题中的数据导入导出问题。 外表与GDS外表支持的数据格式有什么区别? OBS与GDS外表支持格式文件区别如下: OBS支持的文件格式:CSV、TEXT、ORC、CARBONDATA,缺省值为TEXT GDS支持的文件格式:CSV、TEXT,缺省值为TEXT 数据如何存储到数据仓库服务? DWS支持多数据源高效入库,典型的入库方式如下所示。详细指导请参见《数据仓库服务数据库开发指南》中的“导入数据”章节。 从OBS导入数据 数据上传到OBS对象存储服务中,再从OBS中导入,支持CSV,TEXT格式数据。 通过INSERT语句直接插入数据 用户可以通过DWS提供的客户端工具(gsql)或者JDBC/ODBC驱动从上层应用向DWS写入数据。DWS支持完整的数据库事务级别的增删改(CRUD)操作。这是最简单的一种方式,这种方式适合数据写入量不太大, 并发度不太高的场景。 从MRS导入数据,将MRS作为ETL 通过COPY FROM STDIN方式导入数据。 通过COPY FROM STDIN命令写数据到一个表。 使用GDS从远端服务器导入数据到DWS 当用户需要将普通文件系统(例如,弹性云主机)中的数据文件导入到DWS时,可以使用DWS提供的GDS导入数据的功能。 数据仓库可以存储多少业务数据? 数据仓库集群每个节点默认能够支持1.49TB、2.98TB、4.47TB、160GB、1.68TB、13.41TB六种规格的存储容量,一个集群支持的节点数范围为3~256,集群总的存储容量随集群规模等比例扩充。 为增强可靠性,每个节点都有一个副本,副本会占用一半的存储空间,选择容量时副本容量会自动翻倍存储。 数据仓库系统会备份数据,生成索引、临时缓存文件、运行日志等内容,并占用存储容量。每个节点实际存储的数据,大致为总存储容量的一半。
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据导入导出
      • 日志收集系统Flume接入Kafka
        本文主要介绍日志收集系统Flume接入Kafka。 最佳实践概述 场景描述 使用Flume+Kafka来完成实时流式日志处理,后面再连接上Storm/Spark Streaming等流式实时处理技术,从而完成日志实时解析的目标。如果Flume直接对接实时计算框架,当数据采集速度大于数据处理速度,很容易发生数据堆积或者数据丢失,而kafka可以当做一个消息缓存队列,可以把它理解为一个数据库,可以存放一段时间的数据。 因此数据从数据源( HTTP、Log 文件、JMS、监听端口数据等)到flume再到Kafka进行消息缓存,数据一方面可以同步到HDFS做离线计算,另一方面可以做实时计算,可实现数据多分发。 技术架构图 暂无。 方案优势 把数据存储到 HDFS 或者 HBase 等下游存储模块或者计算模块时需要考虑各种复杂的场景,例如并发写入的量以及系统承载压力、网络延迟等问题。Flume 作为灵活的分布式系统具有多种接口,同时提供可定制化的管道。在生产处理环节中,当生产与处理速度不一致时,Kafka 可以充当缓存角色。Kafka 拥有 partition 结构以及采用 append 追加数据,使 Kafka 具有优秀的吞吐能力;同时其拥有 replication 结构,使 Kafka 具有很高的容错性。所以将 Flume 和 Kafka 结合起来,可以满足生产环境中绝大多数要求。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 确认准备 Apache Flume环境(1.6.0以上版本兼容 Kafka)。 确认 Kafka 的 Source、 Sink 组件已经在 Flume 中。 资源规划 本实践方案内容仅涉及Kafka专享版实例。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 方案正文
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        日志收集系统Flume接入Kafka
      • 域名出现备案阻断如何处理
        本文介绍域名出现备案阻断的可能原因及处理方式。 详细说明 域名备案阻断的原因可能有多种,包括但不限于以下几种: 域名未备案或备案信息不完整。 域名备案信息与实际情况不符。 域名备案信息过期或被注销。 域名因以下原因被列入黑名单或被封禁: 违法违规行为:如果您的网站存在违法违规内容,例如涉黄、涉赌、涉毒、传播谣言等,那么您的域名可能会被列入备案黑名单或被封禁。 安全问题:如果您的网站存在安全问题,例如存在漏洞、遭受黑客攻击、被恶意软件感染等,那么您的域名可能会被列入备案黑名单或被封禁。 备案信息不真实或不完整:如果您的备案信息不真实或不完整,例如域名所有人信息不真实、网站备案信息与实际情况不符等,那么您的域名可能会被列入备案黑名单或被封禁。 其他原因:除了上述原因外,还可能存在其他原因导致域名被列入备案黑名单或被封禁,例如政策调整、技术问题等。 如果您的域名出现备案阻断,可以按照以下步骤进行解决: 1. 确认备案信息是否完整、准确。 2. 联系您的域名注册商或主机服务商,确认备案信息是否完整、准确,并及时进行备案。 3. 联系相关部门进行申诉。 4. 如果备案信息已经完整、准确,但仍然出现备案阻断的情况,或者发现您的域名被列入备案黑名单或被封禁。建议您及时联系相关部门进行申诉并配合进行处理,以尽快恢复域名的正常使用。同时,建议您加强网站安全防护,遵守相关法律法规,保证备案信息真实完整,以避免域名被列入备案黑名单或被封禁的风险。 总之,域名备案是一项非常重要的工作,如果您的域名出现备案阻断,直播将无法为其加速,一定要及时解决,以免影响您的网站访问和业务发展。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        域名出现备案阻断如何处理
      • 实时迁移
        分片集群MongoDB迁移前清除孤儿文档 什么是孤儿文档 MongoDB负载均衡器(Balancer)会根据集合的分片键(Shard key)均衡数据。Balancer的工作原理是:需要Balancer的数据块(Chunk)先复制到目标Shard,成功后再删除原Shard上的Chunk,来完成一次Chunk迁移,通过多次Chunk迁移来实现均衡。在Chunk迁移时,如果发生网络闪断等不可预知的场景,完成了复制但没有完成删除,那么对同一条文档会同时存在于两个Shard上。因为Chunk迁移在MongoDB上是感知的,config会更新这条文档应该在哪个Shard上,那么另一个Shard上的文档会存在但不会被感知,后续的update、delete操作都不会作用于这个错误的Shard上的文档,那么这条文档被称为孤儿文档(Orphaned Document)。 迁移影响 DRS在迁移集群时,会从Shard上抽取全量数据。正常文档和孤儿文档在不同的Shard上,DRS不会感知,都会迁移到目标库。DRS针对MongoDB迁移的冲突策略为忽略,因此最终目标库上的文档取决于哪个文档先被迁过去,会造成数据内容或行数不一致。 操作步骤 步骤 1 联系技术支持,获取用于清除孤儿文档的cleanupOrphaned脚本文件,然后解压。 步骤 2 修改cleanupOrphaned.js脚本文件,将test替换为待清理孤儿文档的数据库名。 步骤 3 执行以下命令,清理Shard节点下指定的数据库中所有集合的孤儿文档。 mongo host ShardIP port Primaryport authenticationDatabase database u username p passowrd cleanupOrphaned.js ShardIP:Shard节点的IP地址。 Primaryport:Shard节点中的Primary节点的服务端口。 database:鉴权数据库名,即数据库账号所属的数据库。 username:登录数据库的账号。 passowrd:登录数据库的密码。 如果您有多个数据库,您需要重复执行步骤步骤 2 和步骤步骤 3 ,分别为每个数据库的每个Shard节点清理孤立文档。
        来自:
        帮助文档
        数据库复制
        常见问题
        实时迁移
      • ALM-17004 Oozie堆内存使用率超过阈值
        本章节主要介绍ALM17004 Oozie堆内存使用率超过阈值的告警。 告警解释 系统每60秒周期性检测Oozie服务堆内存使用状态,当检测到Oozie实例堆内存使用率超出阈值(最大内存的95%)时产生该告警。堆内存使用率小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 17004 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 堆内存溢出可能导致服务崩溃。 可能原因 该节点Oozie实例堆内存使用率过大,或配置的堆内存不合理,导致使用率超过阈值。 处理步骤 检查堆内存使用率 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > Oozie堆内存使用率超过阈值”,检查该告警的“定位信息”。查看告警上报的实例主机名。 2.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Oozie > 实例”,选择上报告警实例主机名对应的角色,单击图表区域右上角的下拉菜单,选择“定制 > 内存”中的“Oozie堆内存使用率”,单击“确定”。 3.查看Oozie使用的堆内存是否已达到Oozie设定的阈值(默认值为最大堆内存的95%)。 是,执行步骤4。 否,执行步骤6。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务> Oozie > 配置”,选择“全部配置”。在搜索栏里搜索“GCOPTS”参数,将“Xmx”的值根据实际情况调大,并单击“保存”,单击“确定”。 说明 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 5.重启受影响的服务或实例,观察界面告警是否清除。 是,处理完毕。 否,执行步骤6。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-17004 Oozie堆内存使用率超过阈值
      • 管理客户端
        本章节主要介绍翼MapReduce的管理客户端操作。 操作场景 FusionInsight Manager支持统一管理集群的客户端安装信息,用户下载并安装客户端后,界面可自动记录已安装(注册)客户端的信息,方便查询管理。同时系统支持手动添加、修改未自动注册的客户端信息(如历史版本已安装的客户端)。 操作步骤 查看客户端信息 1. 登录FusionInsight Manager。 2. 选择“集群 >待操作集群的名称 > 客户端管理”,即可查看当前集群已安装的客户端信息。 用户可查看客户端所在节点的IP地址、安装路径、组件列表、注册时间及安装用户等信息。 在当前最新版本集群下载并安装客户端时,客户端信息会自动注册。 添加客户端信息 3. 如需手动添加已安装好的客户端信息,单击“添加”,根据界面提示手动添加客户端的IP地址、安装路径、用户、平台信息、注册信息等内容。 4. 配置好客户端信息,单击“确定”,添加成功。 修改客户端信息 5. 手动注册的客户端信息可以手动修改。 在“客户端管理”界面选择待修改的客户端,单击“修改”。修改信息后,单击“确定”完成修改。 删除客户端信息 6. 在“客户端管理”界面选择待删除的客户端,单击“删除”,在弹出的窗口中单击“确定”,即可删除客户端信息。 如需删除多个客户端信息,勾选待删除的客户端,单击“批量删除”,在弹出的窗口中单击“确定”,即可删除客户端信息。 导出客户端信息 7. 在“客户端管理”界面选择待操作的客户端,单击“导出全部”可导出所有已注册的客户端信息到本地。 说明 客户端管理界面上组件列表栏只展示有真实客户端的组件,因此部分没有客户端的组件和客户端特殊的组件不会显示在组件列表栏。 不显示的组件有: LdapServer、KrbServer、DBService、Hue、Mapreduce、Flume。 不显示的组件有: LdapServer、KrbServer、DBService、Hue、Mapreduce、Flume。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        客户端管理
        管理客户端
      • 通过公网连接副本集实例
        本文主要介绍 通过公网连接副本集实例 操作场景 本章节指导您使用MongoDB客户端和Robo 3T工具,通过公网连接副本集实例。 用户可以直接操作副本集主节点和备节点。主节点用于读写请求,您可以连接主节点对数据进行读写操作。备节点复制主节点数据,用于读请求,连接备节点仅可读取数据。 操作系统使用场景: 弹性云主机的操作系统以Linux为例,客户端本地使用的计算机系统以Windows为例。 前提条件 副本集实例绑定弹性公网IP,并设置安全组规则,确保可以通过弹性云主机或Robo 3T工具访问弹性IP。 安装MongoDB客户端或Robo 3T工具。 MongoDB客户端 创建并登录弹性云主机,请参见《弹性云主机用户指南》的内容。 在弹性云主机上,安装MongoDB客户端。 使用Robo 3T工具连接实例 步骤 1 打开Robo 3T工具,在连接信息页面,单击“Create”。 连接信息(非SSL方式) 在弹出的“Connection Settings”窗口,设置新建连接的参数。 在“Connection”页签,“Name”填写自定义的新建连接的名称,“Address”填写副本集实例绑定的弹性IP和实例的数据库端口。 Connection(非SSL方式) 在“Authentication”页签,“Database”填写admin,“User Name”填写rwuser,“Password”填写您创建副本集实例时设置的管理员密码。 Authentication(非SSL方式) 设置完成后,单击“Save”。 在连接信息页面,单击“Connect”,开始连接副本集实例。 副本集实例连接信息(非SSL方式) 成功连接副本集实例,工具界面显示如下图所示。 连接成功(非SSL方式)
        来自:
        帮助文档
        文档数据库服务
        快速入门
        副本集快速入门
        通过公网连接副本集实例
        通过公网连接副本集实例
      • 设置安全组
        本文主要内容介绍设置安全组 操作场景 为了保障数据库的安全性和稳定性,在使用文档数据库实例之前,您需要开通需访问数据库的IP地址和端口。本文将主要介绍设置安全组的操作步骤。 注意事项 安全组的默认规则是在出方向上的数据报文全部放行,同一个安全组内的弹性云主机和文档数据库可互相访问。安全组创建后,您可以在安全组中定义各种访问规则,当文档数据库服务加入该安全组后,即受到这些访问规则的保护。 当需要从安全组外访问安全组内的文档数据库时,需要为安全组添加相应的入方向规则。 操作步骤 步骤 1 在“实例管理”页面,选择指定的集群实例,单击实例名称。 步骤 2 在左侧导航树,单击“连接管理”。 步骤 3 在“安全组”区域,选择“入方向规则”页签,单击“添加规则”,弹出添加入方向规则窗口。选择“出方向规则”页签,单击“添加规则”,弹出添加出方向规则窗口。 单击,可以依次增加多条规则。 步骤 4 根据界面提示配置安全组规则。 表 参数说明 参数 说明 取值示例 ::: 协议 网络协议。支持全部放通、自定义协议、“TCP”、“UDP”、“ICMP”、“SSH”等协议。 TCP 端口 允许远端地址访问弹性云主机或外部设备的指定端口。 8635 类型 IP地址类型,目前支持IPv4和IPv6 IPv6地址:2001:0db8:3c4d:0015:0000:0000:1a2f:1a2b 源地址和目的地址 支持IP地址和安全组。 IP地址:该安全组规则在指定的IP地址范围生效。 xxx.xxx.xxx.xxx/32(IPv4地址) xxx.xxx.xxx.0/24(子网) 0.0.0.0/0(任意地址) 安全组:该规则授权特定安全组中的弹性云主机访问本安全组中的文档数据库,即该规则放通特定安全组中的弹性云主机所有的IP地址。 192.168.10.0/24 default
        来自:
        帮助文档
        文档数据库服务
        快速入门
        集群快速入门
        通过公网连接集群实例
        设置安全组
      • 设置SSL数据加密
        本节介绍了设置SSL数据加密的相关内容。 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器; 加密数据以防止数据中途被窃取; 维护数据的完整性,确保数据在传输过程中不被改变。 由于老版本客户端存在SSL兼容问题(客户端版本低于5.1),RDS for MySQL新实例默认关闭SSL数据加密,如果确认客户端无兼容性问题,开启SSL请参考开启SSL加密,开启SSL会增加网络连接响应时间和CPU消耗,开启前请评估对业务的性能影响。 通过客户端连接实例提供两种连接方式:加密连接和非加密连接。 SSL未开启(默认),使用非加密连接数据库。 SSL已开启,使用SSL加密连接。加密连接实现了数据加密功能,具有更高的安全性。 注意 开启或关闭SSL加密会导致实例重启,实例重启时客户端会断开连接,请谨慎操作。 加密套件建议使用ECDHERSAAES128GCMSHA256/ECDHERSAAES256GCMSHA384/DHERSAAES128GCMSHA256/DHERSAAES256GCMSHA384。 开启SSL加密 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在“基本信息”页面,在“SSL”处单击 。 步骤 6 在弹出框中,单击“确定”,开启SSL加密。 步骤 7 稍后可在“基本信息”页面,查看到SSL已开启。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        安全与加密
        设置SSL数据加密
      • 通过全量备份文件恢复到自建PostgreSQL数据库
        本节包含通过全量备份文件恢复到自建PostgreSQL数据库的相关内容。 本章节介绍将下载的RDS for PostgreSQL全量备份文件恢复到自建PostgreSQL数据库的操作步骤。 如果您希望在本地重新建立一个同样体量PostgreSQL数据库,并且将RDS for PostgreSQL数据全部迁移,可以使用本章节操作将下载的.tar.gz文件在本地进行重建。 操作流程 1. 下载RDS for PostgreSQL实例中对应时间点的全备文件。 2. 将全备文件上传到本地用以重建数据库。 3. 使用tar解压工具将全备文件解压。 4. 保留自建数据库相关配置文件并通过os命令将解压的全备文件覆盖到自建数据库的data目录中。 5. 重启数据库,等待数据库恢复完成。 约束限制 本章节仅使用从RDS for PostgreSQL所有版本实例下载的全量备份文件在本地恢复到对应版本自建数据库,不包括增量备份的恢复操作。 自建PostgreSQL数据库内核小版本需与RDS for PostgreSQL版本号一致。 通过psql V或psql version命令,可以查看PostgreSQL内核版本。 仅支持恢复到本地为Linux操作系统的数据库,系统上需要安装tar解压工具。 通过sudo yum install tar命令安装tar解压工具。 在进行恢复阶段请勿在本地自建数据库运行其他业务或保留业务数据。 RDS for PostgreSQL有部分增强特性(如Failover Slot等),使用云上的物理备份恢复到开源自建数据库时执行部分SQL报错,需要将用到的增强特性删除,详见常见问题。 本地自建数据库的操作系统与云数据库的操作系统可能不一致,而PostgreSQL数据库部分索引的排序规则依赖操作系统,恢复到自建数据库后需要重建索引,需要重建的索引排查方法见官方文档。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据恢复
        通过全量备份文件恢复到自建PostgreSQL数据库
      • SSL加密相关配置
        本节介绍了SSL加密相关配置的相关内容。 创建RDS for PostgreSQL实例时默认开启SSL,实例创建完成后,不支持关闭。使用SSL加密通信可确保客户端和服务器之间的所有通信都经过加密,防止数据被泄露和篡改,确保数据的完整性。 开启SSL加密对性能的影响 开启SSL加密连接数据库实例后,数据库的只读、读写性能大约有20%左右的影响。 具体的影响跟业务模型有关,如果是复杂SQL,大部分时间花在SQL处理上,使用SSL加密对性能影响不明显;但如果是非常简单的SQL,执行本身很快,使用SSL会加大影响。 服务端查看是否开启SSL加密 PostgreSQL实例服务端默认开启SSL,可登录数据库,使用sql命令查看: plaintext show ssl; 如果该参数的值为“on”,则表示服务端SSL连接已启用。 如果该参数的值为“off”,则表示服务端SSL连接未启用。 说明 服务端SSL默认开启,不支持关闭。 客户端查看是否开启SSL加密 客户端是否使用SSL加密,可通过以下方式查看: 使用psql连接数据库时,连接成功后出现如下信息: plaintext SSL connection (protocol: TLSv1.2, cipher: ECDHERSAAES256GCMSHA384, bits: 256, compression: off) − protocol表示SSL连接协议是TLSv1.2。 − cipher表示使用SSL连接的加密算法为ECDHERSAAES256GCMSHA384。 − bits表示密钥长度为256位。 可以通过查询“pgstatssl”视图来查看客户端连接是否使用SSL。如果客户端使用SSL连接,则该视图中会显示相应的连接信息。 plaintext SELECT FROM pgstatssl; 该查询将返回所有当前SSL连接的统计信息,包括连接的进程ID、客户端IP地址、SSL协议版本、SSL加密算法、客户端证书的有效性和到期时间等。如果客户端连接使用SSL,则可以在该视图中看到相关信息。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        连接管理
        SSL加密相关配置
      • RDS for MySQL 5.6版本升级到5.7
        约束限制 对于主备实例,复制延迟大于300秒无法升级大版本。 实例中存在异常节点,无法升级大版本。 MySQL 5.7及之后版本不再支持Sequence Engine,升级前请确认。 目前RDS for MySQL实例最大可支持50万张表,大于50万张表时,可能会导致大版本升级失败。 云数据库RDS for MySQL暂不支持已开启事件定时器功能的实例升级大版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 通过RDS界面升级大版本 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击主实例名称。 步骤 5 在“基本信息”页面的“数据库引擎版本”处,单击“升级数据库版本”。 步骤 6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库版本到当前5.7最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库版本到当前5.7最新版本。详情请参见设置可维护时间段。 结束 通过DRS升级大版本 RDS for MySQL支持通过DRS将RDS for MySQL 5.6版本数据迁移到5.7版本。使用该方式进行大版本升级,需要提前准备好待迁移到的目标版本数据库实例。 具体迁移操作,请参见《数据复制服务用户指南》的“创建迁移任务”内容。 表 MySQL数据库版本信息 源数据库版本 目标数据库版本 迁移类型 RDS for MySQL/自建MySQL/其他云MySQL 5.5.x 5.6.x 5.7.x 8.0.x RDS for MySQL 5.6.x 5.7.x 8.0.x MySQL数据库版本升级 说明 DRS仅支持从低版本迁移到高版本。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        RDS for MySQL 5.6版本升级到5.7
      • 功能特性
        服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        功能特性
      • 零基础使用开发者平台-边缘函数
        sectione521bd470e159d44) 详细介绍通过控制台将边缘函数绑定您的域名 在线开发、调试、发布边缘函数 详细介绍在控制台WEBIDE进行函数在线开发与发布上线 查看函数运行情况 详细介绍在控制台查看函数运行情况 边缘函数产品能力 边缘函数产品能力 说明 产品规格限制 介绍边缘函数使用过程中的规格限制 运行时能力 介绍边缘函数运行时API: Web标准能力:Web Standards 事件监听器:addEventListener、FetchEvent 编解码能力:Encoding 网络访问能力:Fetch 请求改写能力:Request 响应改写能力:Response 加解密能力:Web Crypto 示例代码 详细介绍多种场景下的函数示例代码和执行效果: 基本用法:返回HTML页面、返回JSON内容、HTTP路由器、发起网络请求获取远程资源 访问控制:边缘身份验证、UA黑白名单 防盗链:Referer防盗链、时间戳防盗链、热链保护 请求改写:HTTP头控制、修改请求、修改响应、请求聚合 重定向:URL重定向 加解密:HMACSHA256签名摘要 错误码帮助 介绍边缘函数错误码,方便您进行快速定位问题
        来自:
        帮助文档
        边缘安全加速平台
        快速入门
        开发者平台
        零基础使用开发者平台-边缘函数
      • 可视化大屏
        本章节为您介绍可视化大屏相关内容。 分类分级大屏 分级分类大屏集中展示了数据分类分级结果及安全评估概况,每五分钟系统自动刷新统计数值。具体展示模块如下: 重点数据源(安全风险):数据源风险综合评分TOP6、数据源弱口令风险数TOP5、数据源漏洞风险数TOP5、数据源配置基线风险数TOP5; 重点数据源(敏感数据):数据源敏感评分TOP6、数据源敏感字段数TOP5。 数据分类分级结果概览:数据源统计、重点数据源的分类分级和风险评估结果、数据分级分布、数据分类分布。 重点数据源(安全风险) 数据源风险综合评分TOP6: 数据源风险评分TOP6来源于风险检测中的风险评分排名。 鼠标悬停于数据源名称上,显示对应数据源的名称及各项风险数量。 单击数据源名称,可以跳转至相应的风险检测详情页面。 数据源弱口令风险数TOP5: 数据源弱口令风险数TOP5来源于风险检测中的弱口令风险数排名。 鼠标悬停于数据源名称上,显示对应数据源的名称及风险数量。 单击数据源名称,可以跳转至相应的风险检测详情页面。 数据源漏洞风险数TOP5: 数据源漏洞风险数TOP5来源于风险检测中的漏洞风险数排名。 鼠标悬停于数据源名称上,显示对应数据源的名称及风险数量。 单击数据源名称,可以跳转至相应的风险检测详情页面。 数据源配置基线风险数TOP5: 数据源配置基线风险数TOP5来源于风险检测中的基线风险数排名。 鼠标悬停于数据源名称上,显示对应数据源的名称及风险数量。 单击数据源名称,可以跳转至相应的风险检测详情页面。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        可视化大屏
      • 创建数据库
        本节介绍了创建数据库的操作场景、约束限制、操作步骤等内容。 操作场景 关系型数据库实例创建成功后,您可根据业务需要,创建更多数据库。 约束限制 恢复中的实例,不可进行该操作。 目前不支持创建同名数据库。 数据库创建完成后不支持修改库名。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页。 步骤 5 在左侧导航栏,单击“数据库管理”,单击“创建数据库”,在弹出框中填写数据库信息,单击“确定”。 数据库名称:长度可在1~63个字符之间,由字母、数字、或下划线组成,不能包含其他特殊字符,不能以“pg”和数字开头,且不能和RDS for PostgreSQL模板库重名。RDS for PostgreSQL模板库包括postgres, template0 ,template1。 字符集:默认utf8,您可根据业务进行选择。 template:指定模板数据库,将以该数据库为模板创建新的数据库。其中template1经RDS适配改造(默认选项),template0遵循社区PostgreSQL设置。 Collection:排序规则,默认enUS.utf8。请注意,不同的排序规则下,相同的比较其结果可能是不同的。例如,在enUS.utf8下, select 'a'>'A';为false,但在'C'下,select 'a'>'A';为true; 如果从oracle迁移到PostgreSQL,使用'C'才能得到一致的预期。支持的排序规则,可以查询系统表 pgcollation。 Ctype:要在新数据库中使用的字符分类(LCCTYPE)。这会影响字符的类别,如小写、大写和数字。默认是使用模板数据库的字符分类。 备注:长度可在0~512个字符之间。 步骤 6 数据库创建成功后,您可在当前实例的数据库列表中,对其进行管理。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        使用数据库
        数据库管理
        创建数据库
      • 连接类
        RabbitMQ专享实例是否支持公网访问? RabbitMQ专享实例支持公网访问。 在创建RabbitMQ实例时开启“公网访问”,或创建完后,在实例详情页中将公网访问开关打开。 RabbitMQ实例 是否支持跨Region部署 ? 当前支持跨AZ(可用区),不支持跨Region部署。 RabbitMQ实例 是否支持跨VPC访问 ? RabbitMQ实例支持跨VPC和子网访问,可以通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 RabbitMQ专享实例是否支持不同的子网 ? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 客户端与实例在不同VPC时,可通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问实例。 此外,可以为实例绑定公网地址,客户端访问实例公网地址即可。 SSL方式连接RabbitMQ实例失败? 首先排查安全组的入方向规则,是否放开了端口5671(SSL方式访问)或5672(非SSL访问)。 其次,参考如下内容配置SSL单向认证: ConnectionFactory factory new ConnectionFactory(); factory.setHost(host); factory.setPort(port); factory.setUsername(user); factory.setPassword(password); factory.useSslProtocol(); Connection connection factory.newConnection(); Channel channel connection.createChannel(); 客户端是否可以通过DNAT方式访问RabbitMQ实例? 不可以。客户端可以使用代理、VPN、专线、FullNAT或者反向代理等方式访问RabbitMQ实例。 RabbitMQ实例的Web管理页面无法打开? 可能原因:实例安全组配置不正确。 解决方案:重新配置安全组,具体步骤如下。 1. 在实例详情页面的“基本信息 > 网络”,单击安全组名称,跳转到安全组页面。 2. 选择“入方向规则”,查看安全组入方向规则。 实例未开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5672的访问。 如果是公网访问,需要允许端口15672的访问。 实例已开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5671的访问。 如果是公网访问,需要运行端口15671的访问。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        连接类
      • 创建实例
        本文介绍分布式消息服务RocketMQ的实例列表操作内容。 订购前准备 在创建天翼云分布式消息服务RocketMQ实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管RocketMQ实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证RocketMQ实例的安全性。 每个分布式消息服务RocketMQ实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理RocketMQ实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置RocketMQ实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: VPC与使用的天翼云分布式消息服务RocketMQ服务应在相同的区域。 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。 要注意的是: 如果用户需要创建ipv4实例,则VPC子网只需配置ipv4子网。 如果用户需要创建ipv6实例,则vpc子网只需配置ipv4/ipv6双栈子网。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        创建实例
      • 通用操作类
        扩大带宽会对DTS正在进行中的任务产生哪些影响? 当DTS任务进行过程中进行云连接带宽的扩大时,会导致网络不可用,此时是否会对DTS任务产生影响取决于网络断开的时间以及源库IP有没有发生变化。 如果网络不可用时间较短,且binlog日志未被清理,并且带宽链路更换完成后源库的VPN内的IP地址没有变,则对任务不产生影响;如果网络不可用时间过长,而且源库的binlog日志被清理(由用户设置的清理策略决定),则任务将无法继续,需要重新配置和运行任务。 DTS在多对一场景下应如何操作? DTS支持多对一的的数据迁移或同步,即从不同实例、不同表的数据迁移或同步到目标库的同一个表中。 操作建议: 由于是多个表的数据汇聚到目标库的同一个表中,所以需要确保目标库所在机器有足够的磁盘空间,建议目标库的剩余磁盘空间至少是源库待迁移数据量大小的1.5倍。 如果是数据同步任务,不支持DDL同步,否则可能会导致同步失败。 DTS在一对多场景下应如何操作? DTS支持一对多的数据迁移或同步,即从同一实例的数据迁移或同步到多个不同的实例。 操作建议: 由于需要创建多个数据迁移或同步任务,所以对源库造成较大的压力,因此在创建任务之前,提前评估源库业务压力,尽量减少任务数量。 如何查看DTS的操作日志? DTS支持查看操作日志,目前操作日志只记录了任务的管理类操作的相关信息,如:新增节点、启动节点、创建任务、编辑任务、暂停任务、预检查等。 用户可登录DTS的控制台,然后点击左侧菜单栏的【操作日志】,即可查看操作日志。 具体操作请参见帮助文档操作日志章节内容。
        来自:
        帮助文档
        数据传输服务DTS
        常见问题
        通用操作类
      • DeepSeek-V3
        本文为您详细介绍DeepSeekV3模型。 模型简介 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 使用场景 DeepSeekV3模型适用于多种自然语言处理任务,如文本生成、问答系统、文本摘要等,能够生成高质量的语言内容并支持多语言对话。此外,它在数学推理、代码生成等复杂任务中表现出色,可广泛应用于教育、商业决策和编程辅助等领域。 评测效果 基础模型评估 聊天模型评估 注:所有模型均在将输出长度限制为8K的配置中进行评估。包含少于1000个样品的基准使用不同的温度设置进行多次测试,以获得可靠的最终结果。DeepSeekV3是性能最佳的开源模型,并且与前沿的闭源模型相比也表现出有竞争力的性能。 技术亮点 创新的负载均衡策略和训练目标 除了DeepSeekV2的高效架构之外,DeepSeekV3开创了一种用于负载均衡的辅助无损策略,该策略可以最大限度地减少因鼓励负载均衡而引起的性能下降。 多标记预测(MTP)目标,并证明它对模型性能有益,可用于推理加速的推测解码。 迈向终极训练效率 通过算法、框架和硬件的协同设计,克服了跨节点MoE训练中的通信瓶颈,几乎实现了完全的计算通信重叠。显著提高训练效率并降低了训练成本。 DeepSeekR1的知识提炼 引入了一种创新方法,将长链思维(CoT)模型的推理能力,特别是DeepSeek R1系列模型之一的推理能力、验证和反射模式整合到DeepSeekV3,显著提高了它的推理性能。
        来自:
        帮助文档
        一站式智算服务平台
        模型简介
        DeepSeek-V3
      • 与其他服务的关系
        本文为您介绍VPC终端节点与天翼云其他云服务之间的关系。 VPC终端节点可以与其他云服务协同工作,实现不同云资源之间的高效通信。 相关服务 交互功能 相关内容 虚拟私有云 用户可以将其VPC内的服务资源配置为终端节点服务。 配置同帐号跨VPC通信的终端节点 配置不同帐号跨VPC通信的终端节点 VPN连接 通过VPN连接或云专线,您可以建立本地数据中心与VPC之间的连接,并使用VPC中的终端节点来通过内网访问云服务。 配置访问ZOS服务内网地址的终端节点 云专线 通过VPN连接或云专线,您可以建立本地数据中心与VPC之间的连接,并使用VPC中的终端节点来通过内网访问云服务。 配置访问ZOS服务内网地址的终端节点 对象存储ZOS 由系统配置为终端节点服务,可以购买终端节点访问该终端节点服务。 购买终端节点 内网DNS 由系统配置为终端节点服务,可以购买终端节点访问该终端节点服务。 购买终端节点 弹性负载均衡(内网) 支持将用户私有服务创建为终端节点服务,可以购买终端节点访问该终端节点服务。 创建终端节点服务 弹性云主机 支持将用户私有服务创建为终端节点服务,可以购买终端节点访问该终端节点服务。 创建终端节点服务 物理机 支持将用户私有服务创建为终端节点服务,可以购买终端节点访问该终端节点服务。 创建终端节点服务 虚拟IP 支持将用户私有服务创建为终端节点服务,可以购买终端节点访问该终端节点服务。 创建终端节点服务
        来自:
        帮助文档
        VPC终端节点
        产品简介
        与其他服务的关系
      • 网络
        本节介绍了虚拟私有云、子网、安全组、弹性IP等内容。 虚拟私有云 虚拟私有云(Virtual Private Cloud,以下简称VPC)为弹性云主机构建了一个逻辑上完全隔离的专有区域,您可以在自己的逻辑隔离区域中定义虚拟网络,为弹性云主机构建一个逻辑上完全隔离的专有区域。您还可以在VPC中定义安全组、VPN、IP地址段、带宽等网络特性,方便管理、配置内部网络,进行安全、快捷的网络变更。同时,您可以自定义安全组内与组间弹性云主机的访问规则,加强弹性云主机的安全保护。 子网 子网是用来管理弹性云主机网络平面的一个网络,可以提供IP地址管理、DNS服务,子网内的弹性云主机IP地址都属于该子网。 默认情况下,同一个VPC的所有子网内的弹性云主机均可以进行通信,不同VPC的弹性云主机不能进行通信。 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的弹性云主机提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 系统会为每个用户默认创建一个默认安全组,默认安全组的规则是在出方向上的数据报文全部放行,入方向访问受限,安全组内的弹性云主机无需添加规则即可互相访问。 图 默认安全组 默认安全组规则如下表所示。 表 默认安全组规则 方向 协议 端口范围 目的地址/源地址 说明 出方向 全部 全部 目的地址:0.0.0.0/0 允许所有出站流量的数据报文通过。 入方向 全部 全部 源地址:当前安全组(例如:sgxxxxx ) 仅允许安全组内的云主机彼此通信,丢弃其他入站流量的全部数据报文。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        网络
      • 操作系统升级
        本节介绍云容器引擎的最佳实践:操作系统升级。 操作系统升级指允许对集群中的工作节点进行操作系统版本升级。 升级方式 开通新集群 新建节点池并扩容 更换节点池操作系统 使用须知 通过更换节点池操作系统方式来升级操作系统采用节点重置方式实现,节点重置有关注意事项如下: 重置节点将对节点操作系统进行重置安装,节点上已运行的工作负载业务将会中断,请在业务低峰期操作。 节点重置后系统盘,挂载kubelet、containerd的数据盘将会被清空,重置前请事先备份重要数据。 用户节点如果有自行挂载了数据盘,重置完后会清除挂载信息,请事先备份重要数据,重置完成后请重新执行挂载行为,数据不会丢失。 节点上的工作负载实例的IP会发生变化,但是不影响容器网络通信。 操作过程中,后台会把当前节点设置为不可调度状态。 节点重置会清除用户单独添加的K8S标签和污点(通过节点池编辑功能添加的标签、污点不会丢失),可能导致与节点有绑定关系的资源(本地存储,指定调度节点的负载等)无法正常使用。请谨慎操作,避免对运行中的业务造成影响。 重置节点会导致与节点关联的localpv类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。重置节点时使用了本地持久存储卷的Pod会从重置的节点上驱逐,并重新创建Pod,Pod会一直处于 pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。节点重置完成后,Pod可能调度到重置好的节点上,此时Pod会一直处于creating状态,因为PVC对应的底层逻辑卷已经不存在了。 重置节点使用的相关配置是节点所在节点池的最新配置。 更多升级节点池和节点重置相关内容请参见升级节点池 、节点重置。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        节点和节点池
        操作系统升级
      • 管理筛选条件
        筛选条件用于筛选符合场景中过滤条件的结果,呈现匹配的结果列表。 例如筛选条件添加产品名称和资源类型两个条件,属性分别为“企业主机安全”和“云服务器”,则匹配的结果必须同时符合这两个条件属性。 目前可添加的条件及属性如下: 标题:检测结果的标题内容,可输入关键字。默认按标题搜索。 严重等级:检测结果的风险等级,包括“致命”、“高危”、“中危”、“低危”、“提示”。 业务领域:检测结果所属业务领域,包括“威胁告警”、“漏洞”、“合规检查”、“违法违规”、“风险”、“舆情”、“安全公告”。 状态:用户对检测结果的处理状态,包括“未处理”、“已忽略”、“已线下处理”。 资源名称:检测结果来源资源的名称,需输入资源名称。 资源类型:检测结果来源资源的类型,包括“云服务器”、“虚拟私有云”、“安全组”、“弹性公网IP”、“磁盘”、“其他”。 公司名称:检测结果来源产品所属公司,需输入公司名全称。 产品名称:检测结果来源安全产品,需输入产品名全称。 约束限制 一个筛选条件仅能包含一组“标题”关键字。 一个筛选条件仅能包含一个“资源名称”。 一个筛选条件仅能包含一个“公司名称”。 一个筛选条件仅能包含一个“产品名称”。 创建筛选条件 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检测结果”,进入全部结果管理页面。 4. 添加筛选条件。 在筛选框添加过滤条件,添加一项或多项过滤条件,并配置相应条件属性。 在时间筛选框中,选择时间范围。 5. 单击筛选框后“保存”,弹出筛选条件保存窗口。 6. 配置筛选条件信息。 设置“场景名称”,自定义筛选条件名称。 (可选)勾选“设为默认筛选条件”。 7. 单击“确定”,返回全部结果列表页面,即可在场景列框查看新建的筛选条件。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        管理筛选条件
      • 专属云退订与到期提醒
        本文向您介绍专属云(计算独享型)退订与到期提醒的相关内容。 专属云退订 说明 专属云(计算独享型)资源池与池内资源是独立管理的。退订资源池仅是释放资源池本身,并不会自动清理或关闭您创建在池内的云服务器、硬盘、网络等具体资源 在进行专属云(计算独享型)资源池(专属云单元自研,SELFGEC)退订时,请确保其中所有资源已被妥善处理,资源池内所有相关资源已被退订/删除。如果您在退订资源池前,未对其中的资源进行逐一退订或删除,这些资源将继续保留并正常运行,因此会持续产生费用。为避免此类情况,请优先确认资源池内已无任何有效资源后,再执行资源池本身的退订操作。退订成功后,该资源池的入口将从您的控制台列表移除。 到期提醒 专属云(计算独享型)到期前7天、3天系统向您发送提醒短信和邮件。 以华东1的专属云为例,当【专属云资源池】距离到期7或3天时,您的绑定手机号将会收到:【天翼云】尊敬的XXX:您在华东1的专属云单元自研(SELFGEC)将于XXXXXXXX到期,到期后您的计算资源将被冻结,资源保留15天,保留期内您可进行续费,保留期后未续费的专属云(计算独享型)资源将完全销毁,无法恢复。 当华东1专属云资源池中的【底层宿主机】距离到期7或3天时,您的绑定手机号将会收到:【天翼云】尊敬的XXX:您在华东1专属云资源池的计算单元自研(SELFEC)将于XXXXXXXX到期,到期后您的计算资源将被冻结,资源保留15天,保留期内您可进行续费,保留期后未续费的专属云(计算独享型)资源将完全销毁,无法恢复。
        来自:
        帮助文档
        专属云(计算独享型)
        用户指南
        专属云退订与到期提醒
      • SQL语句执行卡住类问题
        本页介绍天翼云TeleDB数据库SQL语句执行卡住类问题。 SQL语句执行卡住问题部分排查思路 平时正常执行的SQL,某个时刻执行了很长时间仍未返回结果。通常有以下几种情况: 1)SQL语句执行可能涉及到不同粒度级别的锁申请和对象锁定,也就是说不同的SQL语句执行时,如果访问相同对象可能会冲突,需要先排查锁冲突情况,SQL被哪些会话阻塞了,,表现为有阻塞会话(pid大于0); 2)SQL语句可能被2pc两阶段事务阻塞,表现为阻塞会话pid0; 3)SQL语句可能被同步事务阻塞,在配置了同步备机,但同步备机有异常或延迟的情况,表现为会话等待事件类型为SyncRep; 4)SQL语句没有被阻塞,可能因统计信息不准确而生成了差的执行计划,执行时间太长。 TeleDB分布式架构,在CN节点上显示为运行中的SQL,可能会在某个DN节点上执行被阻塞,所以需要检查每个DN节点该SQL的执行情况。 SQL语句被其它SQL语句阻塞问题 问题描述 平时正常执行的SQL,执行了很长时间仍未返回结果,通过pgblockingpids(pid)得到有阻塞的会话pid,且pid大于0。 每个CN、DN主节点上执行以下SQL,检查是否有会话阻塞: select pid,pgblockingpids(pid),EXTRACT(EPOCH FROM (now()querystart)), waiteventtype,waitevent,query from pgstatactivity where waiteventtype 'Lock' and pid!pgbackendpid(); 返回如下示例内容,pgblockingpids 返回非0,则表示该进程阻塞了当前SQL; pid pgblockingpids datepart waiteventtype waitevent query +++++ 1302 {11582} 102.134252 Lock transactionid INSERT INTO test (id, c1) VALUES (1, 1) (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        SQL语句执行卡住类问题
      • 1
      • ...
      • 119
      • 120
      • 121
      • 122
      • 123
      • ...
      • 148
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      弹性高性能计算 E-HPC

      AI Store

      应用托管

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      解决方案

      新建用户

      服务案例

      产品功能

      MySQL

      备案概述

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号