活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云容器引擎_相关内容
      • 查看实例信息
        本节主要介绍如何查看实例信息 本节介绍如何在管理控制台查看分布式缓存Redis实例的详细信息。 操作步骤 1. 登录 Redis管理控制台。 2. 在管理控制台左上角选择实例所在的区域。 3. 查询分布式缓存Redis实例。支持通过实例名称搜索对应的Redis缓存实例。直接在搜索栏输入关键字即可。 4. 在实例列表页,单击目标实例名称进入实例详情管理。 说明 在实例列表中可以查看租户当前地域所有实例。 实例详情页面具体内容说明如下: 信息类型 参数 说明 基本信息 实例名称 实例的名称。单击“名称”后的【修改】按钮可以修改实例名称。 基本信息 实例ID 实例的ID。 基本信息 维护时间 运维操作时间。单击参数后的【变更按钮】可以修改时间窗。 基本信息 实例类型 实例的类型,包括:标准版单机、标准版主备、集群版单机、集群版主备等类型。 基本信息 实例规格 实例的规格。 基本信息 引擎版本 实例引擎的内核版本。 基本信息 实例项目 实例所属的项目。 基本信息 部署模式 实例的部署模式,包括:标准等模式。 基本信息 CPU 架构 实例的CPU架构,包括:x86、arm等类型。 基本信息 主机类型 实例主机的类型。 基本信息 磁盘类型 实例磁盘的类型。 基本信息 实例描述 实例描述信息。 实例状态 运行状态 实例运行状态,包括:运行中等。 实例状态 已用内存及配额 实例已使用的内存以及配额。 实例状态 创建时间 实例的创建时间。 实例状态 到期时间 实例的到期时间。 实例状态 计费模式 实例的计费模式,包含:按需计费等。 实例状态 实例退订保护 是否开启实例退订保护。 网络信息 可用区 实例可用区信息。 网络信息 虚拟私有云 实例所属虚拟私有云信息。 网络信息 子网 实例所属子网信息。 网络信息 安全组 实例所关联的安全组。单击“安全组”后的【修改】按钮可以修改安全组。 连接信息 IPv4连接地址 实例IPV4连接地址。点击修改端口可修改实例端口,点击连接诊断可进行实例连接诊断。 连接信息 IPv6连接地址 实例IPV6连接地址。点击设置可设置IPV6连接地址。 连接信息 内网域名 实例的内网域名。点击修改可修改内网域名。 连接信息 公网IP 实例绑定的弹性IP地址。点击公网IP后面的【绑定】按钮可以绑定弹性公网IP,若绑定了弹性IP,则可以通过公网连接实例。 连接信息 密码 实例的密码(不展示),点击密码后的【重置密码】按钮图标可修改实例密码。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        查看实例信息
      • 网站域名如何接入Web应用防火墙(边缘云版)
        步骤2:域名接入WAF 此步骤需要进入WAF控制台,添加加速域名并配置 CNAME,操作详情请参考: 操作指导WAF接入。 步骤3:域名管理 对资源文件的回源地址进行管理以及配合源站实际业务场景进行更高级的配置,包括源站配置、缓存配置等,操作详情请参考:操作指导域名管理。 步骤4:配置防护策略 如上图所示,域名接入WAF后,您可根据网站业务需求选择合适的防护策略。 安全基础配置 选择适合您的网站防护模式,默认为告警模式;漏洞防护配置一般情况下建议选择敏感防护规则集,适用于常规网站,且允许少量误报的业务场景。更多配置详情请参考:设置规则防护。 高级防护 提供WAF的高级防护功能,包括CSRF防护、cookie防护、敏感词防护、攻击挑战、广告防护、网页防篡改等,高级防护功能默认为关闭状态,您可以根据业务需要选择开启响应的防护功能。配置详情请参考:安全防护配置。 账户安全防护 账户安全防护提供对网站账户的防护,包括撞库防护、暴力破解防护。配置详情请参考:安全防护配置账户安全防护。 访问控制 访问控制可针对IP,IP段,URI,METHOD,请求地区,请求参数,请求头部,请求协议进行组合,设置白名单和黑名单,对请求进行拦截和放行, 保证客户网站不受未知访问的攻击 。配置详情请参考:安全防护配置访问控制。 合规检测 合规检测功能可以根据用户实际配置的条件,检查HTTP协议头部,对HTTP请求信息中的方法以及参数长度等信息进行检测,对不符合要求的请求项进行拦截或告警。配置详情请参考:安全防护配置合规检测策略。 域名规则配置 使用基于正则的规则防护引擎和基于机器学习的 AI 防护引擎,进行 Web 漏洞和未知威胁防护, 您可以查看对应的防护规则 ,根据您的业务需求选择开启或关闭规则。 CC配置 CC防护根据访问者的URL,频率、行为等访问特征,迅速智能得识别CC攻击并进行拦截,在大规模CC攻击时可以避免源站资源耗尽,保证企业网站的正常访问。配置详情请参考:安全防护配置CC配置。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        网站域名如何接入Web应用防火墙(边缘云版)
      • 升级内核小版本
        说明:本章节会介绍如何升级内核小版本 操作场景 云数据库MySQL支持自动或手动升级内核小版本,内核小版本的升级涉及性能提升、新功能或问题修复等。 有新的内核小版本发布时,您可以在“实例管理”页面“数据库引擎版本”列看到内核小版本升级提示,单击“补丁升级”跳转到小版本升级页面。 内核小版本功能详情请参见MySQL内核版本说明。根据升级时间不同,升级内核小版本可以分为以下两种方式。 立即升级:您可以根据实际业务情况,在目标实例的“基本信息”页面手动升级内核小版本。 可维护时间段内升级:您可以在您设置的可维护时间段内进行升级,详情参见设置可维护时间段。 注意事项 升级数据库内核小版本会重启MySQL实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 升级主实例小版本时,如有只读实例,也会同步升级只读实例的小版本,升级完成会重启实例,请您选择合适的时间升级(不支持单独升级只读实例的小版本)。 升级内核小版本后,实例会升级到新的内核小版本,无法降级。 小版本升级过程中禁止event的ddl操作,如create event、drop event和alter event。 约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 实例中存在异常节点,无法升级小版本。 目前MySQL实例最大可支持10万张表,大于10万张表时,可能会导致小版本升级失败。 云数据库MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击主实例名称。 步骤5 在“基本信息”页面,“数据库信息”模块的“数据库引擎”处,单击“升级”。 步骤6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        实例管理
        升级内核小版本
      • 产品优势
        本小节介绍服务器安全卫士的产品优势。 扫描速度快 基于Agent扫描,执行主机资产清点和风险发现功能,扫描N台主机和1台所需时间一样。 精准检测 设立数万个监测指标,建立多维度、多层次的纵深检测体系,检测结果精准。 资源占用低 CPU占用率<1%,内存占用<40M,消耗极低。 强大的统一安全管控平台 服务器安全卫士是安全问题和安全事态的可视化实时分析平台,可实现统一策略管理,分角色管理,分账号管理,有效管理大批量主机系统。 精准查杀 结合多病毒检测引擎,实时监控病毒进程,查杀率高。多方分析“实锤”病毒信息,检测结果一站化体现,坚实可靠。 丰富的扩展功能 根据不同的业务需求(Web 服务器、存储服务器等),选择不同的功能组合,可根据需求灵活定制安全方案,做到最佳适应;根据用户的业务情况,通过用户自身的业务系统与我们的API 结合,向用户输出 API 集成开发的能力。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        产品介绍
        产品优势
      • 查询Postgresql实例列表
        名称 二级子节点 三级子节点 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存 pageNum Integer 当前页 pageSize Integer 页大小 total Integer 总记录数 pageTotal Integer 总页数 list Array 实例列表 createTime Long 创建时间 prodDbEngine String 数据库实例引擎 prodInstId Long 实例id prodInstName String 实例名称 prodRunningStatus Integer 实例当前的运行状态 0:运行中 1>重启中 2:备份中 3:恢复中 4:修改参数中 5:使用参数分组 6:扩展处理 7:扩展完成 8:修改端口中 9:切换主备中 alive Integer 实例是否存活, 0:存活,1:异常 优先级依次递减prodOrderStatus > prodRunningStatus > alive, 前面为0的情况下才会取下一个状态位 prodOrderStatus Integer 订单状态,0:正常,1:冻结,2:删除,3:操作中,4:失败 prodType Integer 实例部署方式0:单机部署,1:主备部署 readPort Integer 读端口 vip String 虚拟ip地址 writePort String 写端口
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        实例
        查询Postgresql实例列表
      • 相关术语解释
        本文介绍实时云渲染的相关专业术语。 区域 区域( Cluster Zone ):区域是一个或多个物理数据中心的集合,有独立的风火水电,逻辑上将计算、网络、存储等资源划分成多个集群。 目前,云渲染已在全国多个地域开放云渲染服务,您可以根据业务集中访问范围选择开通指定区域。 云渲染 通过实时渲染技术将应用内容的图形数据(顶点,颜色,纹理等)进行实时计算及输出。 资产 通过UE、Unity等渲染引擎打包输出的ZIP/RAR文件,是您3D、XR应用运行的应用包体。 渲染实例 渲染实例代表着一系列虚拟计算资源的集合,包含CPU、带宽、磁盘、GPU,云渲染平台发布的应用将会在云渲染GPU实例上运行,云渲染支持按需、包年包月两种方式开通使用渲染实例。 终端 终端是与计算机系统相连的一种输入输出设备,具备文件传输、远程计算功能,如手机、VR头盔、PC设备等等,用户可通过不同终端设备远程访问云端应用。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        产品简介
        相关术语解释
      • 比较参数模板
        本节主要介绍比较参数模板 您可以比较相同节点类型和数据库版本的参数模板,以了解该参数模板当前配置情况。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在左侧导航树,单击“参数模板管理”。 步骤 5 在“参数模板管理”页面,选择对应实例类型下用户创建的参数模板,单击“比较”。 步骤 6 选择同一数据库引擎的不同参数模板,单击“确定”,比较两个参数模板之间的配置参数差异项。 比较参数模板 存在差异项,则会显示差异参数模板的如下信息:参数名、对应参数模板下的该参数值。 不存在差异项,则不显示。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        参数模板管理
        比较参数模板
      • 版本发布说明
        本节介绍了文档数据库各版本的生命周期规划。 版本说明 目前文档数据库DDS兼容社区3.4、4.0、4.2、4.4和5.0版本,详情请参见文档数据库服务版本与社区版本的对应关系说明。 DDS各版本的生命周期规划 说明 在正式EOM/EOS前会发布公告,在此期间客户可以通过数据库复制DRS将文档数据库DDS版本在EOS之前切换到高版本。 EOM:End of Marketing,停止该版本的销售。 EOS:End of Service&support,停止该版本的服务,建议您在执行作业时选择最新版本的引擎。在该日期之后,不再提供该软件版本的任何技术服务支持。 表1 DDS各版本生命周期规划表 版本 当前状态 计划EOM时间 计划EOS时间 3.4 商用 2023年7月 2025年7月 4.0 商用 2026年4月 2028年4月 4.2 商用 2027年4月 2029年4月 4.4 商用 2028年4月 2030年4月 5.0 商用 暂无计划 暂无计划
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        版本发布说明
      • 日志配置管理
        本节介绍了日志管理的操作场景、注意事项、批量配置访问日志等内容。 操作场景 配置访问日志后,RDS实例新生成的日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 注意事项 确保与RDS实例相同region下的LTS服务已有日志组和日志流。 批量配置访问日志 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在左侧导航栏选择“日志配置管理”,选择“PostgreSQL”引擎。 步骤 5 选择一个或多个实例,单击“配置访问日志”。 步骤 6 在下拉框分别选择LTS日志组和日志流,单击“确定”。 说明 错误日志和慢日志不能使用同一个日志流。 配置完成后不会立即生效,存在10分钟左右的时延,请知悉。 步骤 7 如需解除LTS配置,选择一个或多个实例,单击“解除配置”。 步骤 8 在弹框中,单击“确定”。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        日志管理
        日志配置管理
      • Milvus产品使用手册
        Milvus产品使用手册 一、 产品概述 1.1 产品介绍 Milvus 作为一款开源的高性能向量数据库,具有出色的向量检索性能、高扩展性和易用性,在人工智能、机器学习、计算机视觉、自然语言处理等领域展现出了巨大的应用潜力。目标市场可以根据应用领域细分为自然语言处理、计算机视觉、推荐系统等多个市场。其客户群体主要包括互联网、电商、金融、医疗、安防等行业的企业,以及科研机构和高校等。 1.2 产品核心能力 Milvus 的核心能力是作为一个高性能、高扩展性的云原生向量数据库,专门为处理大规模非结构化数据和支持人工智能应用而设计。 它的能力主要围绕高效的向量相似性搜索展开,具体体现在以下几个方面: 1. 高效的向量搜索与检索 (1) 大规模相似性搜索(ANN): 能够从数十亿甚至千亿级的高维向量数据集中,快速、准确地找到与查询向量最相似的 K 个向量(K近邻搜索)。 (2) 异构计算支持 (Knowhere): Milvus 的核心向量执行引擎Knowhere 能够集成并优化各种流行的向量相似性搜索库(如 Faiss, Hnswlib, Annoy),并能控制在 CPU 或 GPU 上执行索引构建和搜索请求,以充分利用硬件能力。 (3) 多样化的搜索模式: 除了基础的 ANN 搜索,还支持过滤搜索(基于标量字段的条件过滤)、范围搜索和混合搜索(结合向量和标量数据),极大地满足了复杂的业务检索需求。 2. 高性能与底层优化 (1) C++ 搜索引擎: 使用 C++ 语言实现核心搜索引擎组件,以实现高性能、底层优化和高效的资源管理。 (2) 硬件感知优化: 集成了汇编级向量操作、多线程并行化和调度等优化,最大限度地利用硬件性能。 (3) 面向列的存储 (ColumnOriented): 采用面向列的数据库系统,在执行查询时只读取涉及的特定字段,大大减少了数据访问量,并有利于向量化操作。 3. 灵活的功能与应用支撑 (1) 多模态检索: 结合 AI 推理和 Embedding 模型,高效索引和检索图片、视频、文本、声纹等多种非结构化数据。 (2) 数据导入与管理: 支持高通量数据导入,并提供数据分片、分区键、可调一致性模型等管理功能。
        来自:
        帮助文档
        轻量型云主机
        产品简介
        应用使用手册
        Milvus产品使用手册
      • 查询流量,命中流量,流量命中率,回源流量数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询流量,命中流量,流量命中率,回源流量数据
      • 查询状态码请求数,请求状态码占比数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询状态码请求数,请求状态码占比数据
      • 查询回源带宽数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询回源带宽数据
      • 操作流程
        检查项 检查内容 gtidmode参数检查 检查源库和目标库的gtidmode参数是否为ON。 lowercasetablenames一致性检查 检查源车和目标库的lowercasetablenames变量是否一致。 mysql版本检查 检查源库和目标库的mysql版本是不是符合要求。 schema字符集检查 检查待迁移库的字符设置是否在要求范围内。 sqlmode参数一致性检查 检查源库和目标库的sqlmode参数是否一致。 logslaveupdates参数检查 如果源库为集群的从节点,检查源库的logslaveupdates参数是否设置为ON。 同名对象存在性检查 检查目标库中是否存在和待迁移库同名的库,若存在,检查该库下面是否存在同名的表、视图、函数和存储过程。 存储引擎检查 检查源库中待迁移的表的存储引擎。 待迁移表主键检查 检查待迁移表是否都存在主键。 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求。 源库serverid检查 查看源库的serverid是否大于0。 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 源库和目标库时区一致性检查 检查源库和目标库的时区设置的值是否一致。 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 源库连接数检查 检查源库的连接数是否满足任务要求。 源库连通性检查 检查数据传输服务能否连通源数据库。 目标库日志包大小检查 检查目标库的日志包大小是否符合要求。 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 目标库连接数检查 检查目标库的连接数是否满足任务要求。 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 视图依赖关系检查 检查待迁移视图所依赖的表是否都在待迁移对象中。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        本地MySQL迁移到RDS for MySQL
        操作流程
      • 如何配置客户端参数?
        参数 说明 fetch.min.bytes 消费者从服务端获取数据的最小字节数。设置该参数时请尽量评估消息发送端的消息量,若设置过大可能会导致消费端延迟增大,过小可能会导致消费端频繁拉取消息。单位:字节。 fetch.max.wait.ms 服务端等待的最大时间。单位:毫秒。如果使用Local存储引擎,配置了fetch.min.bytes参数,服务器会等待足够的数据才会返回。超过此时间即使没有足够数据也会返回。如果是云存储引擎,一旦有新数据发送进来, 服务器就会结束等待,不需要等待fetch.min.bytes的值。 max.partion.fetch.bytes 每个分区返回的最大字节数。单位:字节。 session.timeout.ms 消费端发送心跳的时间间隔,如果在心跳时间间隔内没有发送心跳,则服务端会认为消费者死亡,从而触发Rebalance,Rebalance期间客户端将会停止消费数据等待Rebalance完成。建议将此参数设置为3000060000。单位:毫秒。默认有效值:6000300000。 max.poll.records 每次Poll获取的最大消息数量,若此值设置过大则需要尽快处理业务逻辑,避免处理过慢影响下一次Poll数据,从而导致在session.timeout.ms时间内没有发送心跳引起Rebalance。建议该值小于<单个线程每秒消费的条数> <消费线程的个数> 的值。重要 在Java Client 0.10.1及其以上版本有单独的线程发送心跳,小于此版本或者其他语言的客户端都需考虑处理数据时间和发送心跳的间隔,防止频繁Rebalance影响正常消费。 max.poll.interval.ms 最大的Poll间隔时间,仅在Java Client 0.10.1及其以上版本需配置该参数。如果在间隔时间内消费者没有发送Poll请求,即使在session.timeout.ms参数设置的时间内发送了心跳。服务端也会认为消费者死亡,从而触发Rebalance。因此需注意此值需要合理设置,建议该值大于<消费一条消息花费的时间> 的值。通常使用默认值即可。单位:毫秒。默认值:300000。 enable.auto.commit 是否采用自动提交位点机制。true:默认采用自动提交机制。false:不采用自动提交机制。默认值:true。 auto.commit.interval.ms 自动提交位点时间间隔。默认值为1000,单位:毫秒。 auto.offset.reset 消费位点重置策略。latest:从最大位点开始消费。earliest:从最小位点开始消费。none:不做任何操作,即不重置。说明建议设置成latest,而不要设置成earliest,避免因位点非法时从头开始消费,从而造成大量重复。如果是您自己管理位点,可以设置为none。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        操作类
        如何配置客户端参数?
      • 磁盘使用率高问题排查
        本文主要介绍磁盘使用率问题排查 使用文档数据库服务时,如果实例的磁盘使用率过高或完全被使用,将会导致实例不可⽤。 本章节帮助您分析解决DDS实例磁盘使用率高的问题。 查看磁盘使用情况 DDS目前提供如下两种方法用于查看实例磁盘的使用情况。 1. 通过DDS控制台查看磁盘使用情况。 您可以登录DDS控制台,单击目标实例名称,进入“基本信息”页面,在“存储空间”区域可以查看到当前实例的磁盘使用情况。 图 查看磁盘使用情况 2. 通过查看监控指标(磁盘利用率和磁盘使用量)判断实例磁盘的使用情况。 如何查看监控指标请参见查看监控指标。 图 查看磁盘使用情况 解决方案 1. 对于集群实例,可能是因为选择和设置的分片不合理导致数据分布不均衡,从而引起磁盘空间使用率高的情况。 此时,可以对数据库集合进行合适的分片,具体操作请参见设置数据分片以充分利用分片性能。 2. 随着业务数据的增加,原来申请的数据库磁盘容量不足。此时建议扩容磁盘空间,确保磁盘空间足够。 集群实例,请参见扩容集群实例的磁盘空间。 副本集实例,请参见扩容副本集实例的磁盘空间。 如果原有实例规格的磁盘已是最大的,请先升级规格。 集群实例,请参见变更集群实例的CPU和内存规格。 副本集实例,请参见变更副本集实例的CPU和内存规格。 3. 存在大量过期的数据文件占用磁盘空间,此时需要及时处理过期数据文件。例如:如果整个库不需要了,则可以执行dropDatabase命令进行删除,从而快速释放磁盘空间。 4. 后台数据处理机制原因。 因为无论是写入、更新或删除等操作(包括索引插入和删除等操作),在后台实际上都会转成写入。因为底层的存储引擎(WiredTiger和RocksDB),采用都是appendOnly机制。只有当存储引擎内部数据状态满足一定条件后,会触发内部的compaction操作,进行数据压缩,进而释放磁盘空间。 所以有时候会发现,磁盘占用量比实际数据量大,实际上这只是“看起来大”,并不会影响用户的使用。因为内部有些数据压缩,是延时操作,没有立即执行。随着数据的继续写入,会触发后台执行数据压缩清理空间。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        磁盘使用率高问题排查
      • 计费模式
        码率(Mbps) 存储0天 存储3天 存储7天 存储15天 存储30天 存储60天 存储90天 存储180天 存储365天 0.5 7 9 10 14 20 33 45 83 161 1 7 10 13 20 33 58 83 159 315 2 7 13 19 33 58 109 159 311 623 3 7 15 25 45 83 159 235 463 931 4 7 18 31 58 109 210 311 615 1239 5 7 20 37 71 134 261 387 767 1547 6 7 23 43 83 159 311 463 919 1855 7 7 25 49 96 185 362 539 1071 2163 8 7 28 55 109 210 412 615 1222 2471
        来自:
        帮助文档
        智能视图服务
        计费说明
        计费模式
      • HBlock用户手册和安装包
        版本 发布日期 说明 4.0 2026年03月24日 1. 支持免费版本。 2. 新增调整HBlock服务占用服务器内存参数功能。 3. 上云卷新增挂起卷功能。 4. 支持通过API设置本地卷的扩展属性。 5. 增加设置鉴权方式。 3.10 2025年09月25日 1. 支持target访问权限,实现客户端和target端权限管理。 2. 支持备份,基于快照生成独立于源卷的数据备份文件。 3. 支持设置QoS规则,从带宽和IOPS维度管控流量。 3.9 2025年04月21日 1. 支持快照功能,实现数据的快速备份与恢复。 2. 支持克隆卷功能,用于数据复制、测试验证等场景。 3.8 2025年02月14日 1. API签名方法变更,提升安全性。 2. 存储卷和缓存卷支持将数据上传至兼容 S3 的对象存储。 3. 支持设置基础服务的数据存储目录。 4. Target增加回收策略,支持无卷关联后自动删除。 5. 针对智算、虚拟化以及高可用敏感度等场景,支持一键调整系统参数。 6. 支持设置折叠副本数,允许数据副本/分片放在同一个故障域中。 3.7 2024年08月08日 1. 支持设置集群拓扑。 2. 支持创建和管理多存储池。 3. 支持机房和机架级别故障域。 4. 支持设置卷的高速缓存池。 5. 支持基础服务迁移。 3.6 2024年06月03日 1. 支持存储卷和缓存卷,将数据从后端上传到天翼云对象存储(经典版)I型。 2. 硬件及HBlock监控数据支持对接到Prometheus。 3. 支持HBlock告警信息对接到智能运维平台。 4. 优化读写性能。 5. 增加对龙芯服务器的支持。 3.5 2024年03月04日 1. 支持服务器、数据目录级别的故障域,支持磁盘级别的数据服务。 2. 支持指定基础服务的安装节点。 3. 支持数据目录配额,设置HBlock可写入的数据量上限。 4. Target可被多个客户端发现并连接。 5. 设置卷的最小写入副本数,提高数据写入安全性。 6. 扩大纠删码EC N+M支持范围,满足N+M<128。 3.4 2023年07月12日 1. 卷连接支持一主多备,提高业务可用性。 2. 支持IPv6环境。 3. 控制台提供Dashboard一页式概览。 4. 支持通过命令行查询CHAP密码。 3.3 2022年12月23日 支持安全移除服务器。 3.2 2022年09月26日 1. 监控项增加,扩大覆盖范围。 2. 增加对告警、日志管理的支持。 3. 事件中增加对系统事件的支持。 3.1 2022年06月14日 1. 单机版支持添加多个数据目录。 2. 集群版支持创建Target时指定对应的服务器,支持Target迁移。 3. 支持用户事件的记录和查询。 3.0 2022年01月18日 1. 命令行变更为非交互式。 2. 支持WEB、API调用方式。 3. 卷操作:支持设置卷的高可用类型和卷的写策略。 2.1 2021年08月27日 1. 增加对ARM服务器的支持。 2. 软件许可证:查看许可证时,可以显示允许的容量。 3. 卷操作:支持对卷进行主备切换,即卷对应的Active Target和Standby Target切换。 2.0 2021年05月28日 1. 支持集群版部署。 2. 支持多副本和纠删码数据冗余。
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        HBlock用户手册和安装包
      • 灾难恢复能力等级
        灾难恢复能力等级 等级名 RTO RPO 1 基本支持 2天以上 1天至7天 2 备用场地支持 24小时以上 1天至7天 3 电子传输和部分设备支持 12小时以上 数小时至1天 4 电子传输及完整设备支持 数小时至2天 数小时至1天 5 实时数据传输及完整设备支持 数分钟至2天 0到30分钟 6 数据零丢失和远程集群支持 数分钟 0
        来自:
        帮助文档
        云容灾 CDR
        产品简介
        灾难恢复能力等级
      • 如何验证IP地址归属是否属于天翼云节点IP
        本文介绍如何验证IP地址是否属于天翼云节点IP。 问题概述 本文主要介绍针对指定的IP,如何验证该IP是否为天翼云节点的IP地址。 验证说明 当前天翼云支持采用调用API接口方式,验证IP是否属于天翼云IP,详情请参见:查询IP地址归属详情。 示例: 请求: 返回结果:参数cdnip:返回"true"表示属于天翼云IP;"false"表示不属于天翼云IP。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        如何验证IP地址归属是否属于天翼云节点IP
      • 边缘接入套餐超出资费
        弹性峰值(Gbps) 标准价格 0Gbps<弹性峰值≤10Gbps 860元/天 10Gbps<弹性峰值≤20Gbps 1760元/天 20Gbps<弹性峰值≤30Gbps 2660元/天 30Gbps<弹性峰值≤40Gbps 3260元/天 40Gbps<弹性峰值≤50Gbps 4060元/天 50Gbps<弹性峰值≤60Gbps 4960元/天 60Gbps<弹性峰值≤70Gbps 5760元/天 70Gbps<弹性峰值≤80Gbps 6560元/天 80Gbps<弹性峰值≤100Gbps 8160元/天 100Gbps<弹性峰值≤150Gbps 15060元/天 150Gbps<弹性峰值≤200Gbps 20160元/天 200Gbps<弹性峰值≤500Gbps 66660元/天 500Gbps<弹性峰值 98860元/天
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        边缘接入计费模式
        边缘接入套餐超出资费
      • 安全与加速扩展服务资费
        弹性峰值(Gbps) 标准价格 0Gbps<弹性峰值≤10Gbps 860元/天 10Gbps<弹性峰值≤20Gbps 1760元/天 20Gbps<弹性峰值≤30Gbps 2660元/天 30Gbps<弹性峰值≤40Gbps 3260元/天 40Gbps<弹性峰值≤50Gbps 4060元/天 50Gbps<弹性峰值≤60Gbps 4960元/天 60Gbps<弹性峰值≤70Gbps 5760元/天 70Gbps<弹性峰值≤80Gbps 6560元/天 80Gbps<弹性峰值≤100Gbps 8160元/天 100Gbps<弹性峰值≤150Gbps 15060元/天 150Gbps<弹性峰值≤200Gbps 20160元/天 200Gbps<弹性峰值≤500Gbps 66660元/天 500Gbps<弹性峰值 98860元/天
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        安全与加速计费模式
        安全与加速扩展服务资费
      • 修改集群组件鉴权配置开关
        本章主要介绍翼MapReduce的修改集群组件鉴权配置开关功能。 操作场景 集群部署为安全模式或者普通模式时,HDFS和ZooKeeper默认会对访问服务的用户进行鉴权,没有权限的用户无法访问HDFS和ZooKeeper中的资源。集群部署为普通模式时,HBase和Yarn默认不会对访问用户进行鉴权,所有用户可以访问HBase和Yarn中的资源。 管理员可以根据业务实际需要,在普通模式集群中配置开启HBase和Yarn鉴权,或关闭HDFS和ZooKeeper鉴权。 对系统的影响 修改开关后服务的配置将过期,需要重启对应的服务使配置生效。 开启HBase鉴权 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”。 3.单击“全部配置”。 4.搜索参数“hbase.coprocessor.region.classes”、“hbase.coprocessor.master.classes”和“hbase.coprocessor.regionserver.classes”。 将协处理器参数“org.apache.hadoop.hbase.security.access.AccessController”添加到以上参数原有参数值末尾,使用英文逗号与原有协处理器分隔。 5.单击“保存”,单击“确定”。 等待界面提示操作完成。 关闭HBase鉴权 关闭HBase鉴权后,原有的权限数据会继续保留。如果需要删除权限信息,请在关闭鉴权后,进入hbase shell删除表hbase:acl。 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”。 3.单击“全部配置”。 4.搜索参数“hbase.coprocessor.region.classes”、“hbase.coprocessor.master.classes”和“hbase.coprocessor.regionserver.classes”。 将协处理器参数“org.apache.hadoop.hbase.security.access.AccessController”去除。 5.单击“保存”,单击“确定”。 等待界面提示操作完成。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        帐户安全设置
        修改集群组件鉴权配置开关
      • 修改LDAP管理帐户密码
        本章主要介绍翼MapReduce的修改LDAP管理帐户密码功能。 操作场景 建议管理员定期修改集群LDAP管理帐户“cnkrbkdc,ouUsers,dchadoop,dccom”和“cnkrbadmin,ouUsers,dchadoop,dccom”的密码,以提升系统运维安全性。 对系统的影响 修改密码后需要重启KrbServer服务。 修改密码后需要确认LDAP管理帐户“cnkrbkdc,ouUsers,dchadoop,dccom”和“cnkrbadmin,ouUsers,dchadoop,dccom”是否被锁定,在集群主管理节点上执行如果下命令查看krbkdc是否被锁定(krbadmin用户方法类似): 说明 oldap端口查询方法: 1. 登录FusionInsight Manager,选择“系统 > OMS > oldap > 修改配置”; 2. “Ldap服务监听端口”参数值即为oldap端口。 ldapsearch H ldaps://OMSFLOAT IP地址:OLdap端口 LLL x D cnkrbkdc,ouUsers,dchadoop,dccom W b cnkrbkdc,ouUsers,dchadoop,dccom e ppolicy 输入LDAP管理帐户krbkdc的密码,出现如下提示表示该用户被锁定,则需要解锁用户,具体请参见解锁LDAP用户和管理帐户。 ldapbind: Invalid credentials (49); Account locked 前提条件 已确认主管理节点IP地址。 操作步骤 1.以omm用户通过管理节点IP登录主管理节点。 2.执行以下命令,切换到目录。 cd ${BIGDATAHOME}/omserver/om/meta0.0.1SNAPSHOT/kerberos/scripts 3.执行以下命令,修改LDAP管理帐户密码。 ./okerberosmodpwd.sh 输入旧密码后,再输入两次新密码。 密码复杂度要求: 密码字符长度为16~32位。 至少需要包含大写字母、小写字母、数字、特殊字符~!@
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        修改系统内部用户密码
        修改LDAP管理帐户密码
      • 角色管理
        本章节主要介绍翼MapReduce的角色管理操作。 操作场景 FusionInsight Manager最大支持5000个角色(包括系统内置角色,不包括租户自动创建的角色)。根据不同业务场景需要,管理员使用FusionInsight Manager创建并管理不同角色,通过角色对Manager和组件进行授权管理。 前提条件 管理员已明确业务需求。 登录FusionInsight Manager。 添加角色 1. 选择“系统 > 权限 > 角色”。 2. 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 “角色名称”由数字、字母、或下划线组成,长度为3~50位,不能与系统中已有的角色名相同。 3. 在“配置资源权限”列表,选择待增加权限的集群,为角色选择服务权限。 在设置组件的权限时,可通过右上角的“搜索”框输入资源名称,然后单击搜索图标显示搜索结果。 搜索范围仅包含当前权限目录,无法搜索子目录。搜索关键字支持模糊搜索,不区分大小写。 说明 对于已启用Ranger授权的组件(HDFS与Yarn除外),Manager上非系统默认角色的权限将无法生效,需要通过配置Ranger策略为用户组赋权。 HDFS与Yarn的资源请求在Ranger中的策略条件未能覆盖的情况下,组件ACL规则仍将生效。 设置组件的权限时,每次最大支持1000条权限。 4. 单击“确定”完成。 修改角色信息 在要修改信息角色所在的行,单击“修改”。 导出角色信息 单击“导出全部”,可一次性导出所有角色信息,可导出“TXT”或者“CSV”格式文件。 角色信息包含以下几个字段:角色名、描述、是否默认角色。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        权限设置
        角色管理
      • 产品概述
        本文简介什么是天翼云Web应用防火墙(边缘云版)。 产品定义 天翼云Web应用防火墙(边缘云版)依托天翼云边缘云节点形成云安全网络,结合云端大数据分析平台,通过 AI+规则双引擎识别恶意流量,为用户应对 Web 攻击、入侵、漏洞利用、挂马、篡改、后门、爬虫、域名劫持等网站及 Web 业务安全防护问题,从而保障网站安全。 区别于传统WAF需要在源站前端部署,Web应用防火墙(边缘云版)基于边缘云分布式架构,将WAF、BOT、CC、API等应用安全防护能力赋能于全国边缘云节点,实现安全能力赋能边缘,将安全能力下沉至最接近终端用户的边缘节点,在最靠近攻击源头的地方阻断恶意流量。 有效防御 SQL 注入、XSS 跨站脚本、木马上传、非授权访问等 OWASP 攻击。此外还可以有效过滤 CC 攻击、提供 0day 漏洞补丁、防止网页篡改等。 结合智能调度,实现动态调整边缘节点,无缝扩展QPS 防护能力,可达亿级别规模;应对敏感大流量攻击,无惧突发风险。 功能特性 功能 简介 常见Web应用攻击防护 防御OWASP TOP10Web安全威胁攻击:如SQL注入、XSS跨站脚本、CSRF 跨站请求伪造、非授权访问等常见Web服务器漏洞攻击。 0day补丁定期及时更新:及时更新漏洞补丁,防护网站安全。 CC攻击防护 频率控制:结合多维度频率控制,精确控制请求频率,控制核心接口被访问的频率。 人机挑战:通过人机识别验证,避免非法请求透传源站。 大数据分析:针对低频多变的攻击,根据内置算法模型,统计正常业务流量和攻击流量的特征,自动生成精准访问控制策略。 业务安全防护 网页防篡改:支持用户将核心网页内容缓存在边缘云节点,并对外发布缓存中的网页内容,实现网页防篡改效果,防止网页被篡改带来负面影响。 敏感词防泄漏:针对银行卡、身份证、手机号、邮箱进行页面过滤,防止网站敏感信息泄露。 CSRF防护:有效阻止因误触恶意链接、恶意扫描、简单爬虫限制造成的用户损失。 Cookie防护:支持对指定cookie字段的值进行加密,支持对cookie签名,防止因随意篡改导致的漏洞触发。 账户安全防护:支持防护撞库、批量注册、暴力破解等恶意攻击行为,保障用户账号安全。 广告防护:对检测到的广告进行清除或者记录告警日志处理,使展示给用户的界面没有广告。 攻击挑战:针对反复触发防护策略的IP,限制访问频率。 精准访问控制 可针对IP , IP段 , URI , 请求方式, 请求地区,请求参数,请求头部,请求协议进行组合,设置白名单和黑名单,对请求进行拦截和放行,保证客户网站不受未知访问。 IPv6防护 支持一键开启IPv6功能,无缝处理IPv4和IPv6流量,并且支持解决天窗问题。 Bot行为管理 通过多模块联动实时检测与机器学习相结合实现网站请求的实时检测和分析,识别真实用户请求和恶意爬虫,进而防止刷票、活动作弊、恶意注册等爬虫攻击行为的发生,保障企业业务稳定运行,避免经济利益受损。 智能防护 自学习异常用户行为:智能学习网站流量规律,学习正常用户访问行为,多维度识别异常访问情况。 内置多种业务场景学习模型:强化抢票、恶意爆破登录、恶意爬取等机器脚本行为识别,保证网站正常运行。 威胁情报 天翼云与国内外知名安全厂家恶意情报共享,更快更精确发现恶意探测以及威胁事件。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        产品介绍
        产品简介
        产品概述
      • 推送和拉取Helm Chart
        本节介绍了推送和拉取Helm Chart的用户指南。 概述 本文介绍使用helm推送和拉取Chart的方法。 使用helm推送和拉取Chart 1. 需要使用Helm 3.7及以上客户端版本推送和拉取Chart。对于Helm 3.7版本,需要在环境变量中设置HELMEXPERIMENTALOCI以启用OCI试验性支持: plaintext export HELMEXPERIMENTALOCI1 对于Helm 3.8及以上版本无需进行此设置 2. 登录容器镜像服务实例 plaintext helm registry login u tester testregistryhuadong1.crs.ctyun.cn 登录的用户名和密码为开通实例时设置的用户名和密码,如果忘记密码,可以在访问凭证页面重置密码。 3. 创建Chart并制作压缩包 plaintext helm create test tar zcvf test.tgz test 4. 推送 Chart plaintext helm push test.tgz oci://testregistryhuadong1.crs.ctyun.cn/testChart 5. 拉取Chart plaintext helm pull oci://testregistryhuadong1.crs.ctyun.cn/testChart/test version 6.解压压缩包 plaintext tar xzvf test .tgz
        来自:
        帮助文档
        容器镜像服务
        用户指南
        命名空间与镜像仓库
        推送和拉取Helm Chart
      • 单机旁挂动态路由入云
        操作场景 某企业已经在地域A创建了天翼云VPC并在其中部署了应用服务,现在该企业希望通过天翼云SDWAN服务访问地域A的云资源。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经在地域A创建了VPC,具体操作,请参见创建虚拟私有云VPC。 您已经完成云间高速(标准版)的创建,具体操作,请参见创建云间高速(标准版)实例。 您已经将地域A的VPC加载到同一云间高速(标准版)实例中,请参见加载网络实例。 操作步骤 步骤一:购买智能网关 您可以通过天翼云官网自行购买智能网关实例,也可以联系客户经理购买智能网关实例。通过天翼云官网自行下单,操作步骤如下: 1. 登录天翼云SDWAN控制台,选择“智能网关”,在“智能网关”页面单击“创建智能网关”,选择“创建智能网关”。 2. 根据页面提示配置参数,部分参数信息可参考如下: 参数 描述 实例名称 智能网关实例名称,长度为164字符,以大小写字母或中文开头,可包含数字、“.”、 “”、“”。 区域 选择设备接入的区域。 基础带宽 该分支接入SDWAN骨干网的带宽大小。 是否购买设备 表示是否需要从天翼云购买设备。选择“是”,则天翼云会为您准备一台设备;选择“否”,则需要用户自备设备。 网关形态 可选择硬件版、软件版,这里我们选择硬件版。 设备类型 购买设备时,需要选择设备的型号。可以选择经济版、标准版、企业版、企业增强版。 使用方式 表示设备的使用方式。这里选择“单机”。 地址信息 表示设备的装机地址。请准确填写地址信息。 购买数量 默认为1。这里设置为1。 3. 单击“提交订单”。确认订单信息无误后,勾选“我已阅读并同意相关协议《天翼云SDWAN产品服务协议》”,单击“确认下单”。 4. 订单支付成功后,完成购买。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        单机旁挂动态路由入云
      • 查看集群服务配置
        本章节主要介绍翼MR Manager的集群服务配置的查看操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab,即可查看该集群服务的所有配置。如图所示: 7. 对于隐私配置项,默认将加密展示,点击文本框右侧查看按钮,输入配置主密码即可查看。如果当前集群开通后未设置过主密码,请参考用户手册的配置管理主密码设置,设置主密码后,进行查看。 说明运维变量配置 在服务的default分组下,以vars.yaml后缀结尾的配置文件,为运维变量配置文件。运维变量配置文件不是服务本身的配置文件,而是存放Manager运维操作变量的文件,每个运维变量的含义如下表。 组件 运维变量名 是否建议修改 含义说明 HDFS activenamenode 否 部署时使用,在这台机器上执行format操作。 HDFS kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HDFS ldapGuestPassword 否 部署和扩容时使用,连接ldap的guest用户密码,此权限只能查看用户,不能创建用户。 HDFS ldapuri 否 部署和扩容时使用,配置ldap的连接地址。 HDFS dfsclusterId 否 部署时使用,ns的默认值。 HDFS pipelinejobretrytimes 是 流水线重试次数。 HDFS jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 YARN 无 共享HDFS运维变量。 ZooKeeper kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 ZooKeeper kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 ZooKeeper zksuperuser 否 部署和扩容时使用,配置zk的超级用户。 ZooKeeper zksuperuserpasswd 否 部署和扩容时使用,配置超级用户的密码。 ZooKeeper componentuser 否 暂未使用。 ZooKeeper dataLogDir 否 部署时使用,需要通过ansbile创建目录。 ZooKeeper dataDir 否 部署时使用,需要通过ansbile创建目录。 Kerberos kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 Kerberos kdcmaster 否 部署时使用,指定master节点,执行master节点的操作。 Kerberos kdcslave 否 部署时使用,指定slave节点,执行slave节点的操作。 Kerberos kerberosdatabasepasswd 否 部署时使用,配置kerberos的数据库密码。 Kerberos kerberosadminuser 否 部署时使用,配置kerberos的admin用户。 Kerberos kerberosadminpasswd 否 部署时使用,配置kerberos的admin用户密码。 OpenLDAP ldapmasterhostname 否 部署时使用,指定master节点,执行master节点的操作。 OpenLDAP ldapslavehostname 否 部署时使用,指定slave节点,执行slave节点的操作。 OpenLDAP olcRootDN 否 部署时使用,服务配置。 OpenLDAP olcSuffix 否 部署时使用,服务配置。 OpenLDAP ldapAdminPwd 否 部署时使用,admin用户的密码。 OpenLDAP ldapGuestPwd 否 部署时使用,guest用户的密码。 OpenLDAP ldapuri 否 部署时使用,ldap的连接信息。 OpenLDAP ldapBaseUgDN 否 部署时使用,服务配置。 OpenLDAP pipelinejobretrytimes 是 流水线重试次数。 OpenLDAP jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 HBase kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HBase pipelinejobretrytimes 是 流水线重试次数。 HBase jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Spark kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Spark ldapmaster 否 部署时使用,ldap的master节点。 Spark eventlogdir 否 部署时使用,通过ansible创建目录。 Spark sparkhome 否 部署时使用,通过ansible创建目录。 Hive kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Hive ldapmaster 否 部署时使用,ldap的master节点。 Hive databasepass 否 部署时使用,hive使用的数据库密码,需要用户填写。 Kafka kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 Kafka kerberosrealm 否 kerberos的realm的信息。 Kafka logdirs 否 (目前不再使用,通过从配置文件中渲染来创建目录)部署和扩容时使用,通过ansible创建目录。 Kafka pipelinejobretrytimes 是 流水线重试次数。 Kafka jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Kyuubi kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Kyuubi ldapmaster 否 部署时使用,ldap的master节点。 Kyuubi kyuubilogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubieventlogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubiworkdir 否 目录。部署时使用,通过ansible创建。 Kyuubi adminuser 否 目录的属主。 Kyuubi usergroup 否 目录的属组。 Kyuubi pipelinejobretrytimes 是 流水线重试次数。 Kyuubi jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Flink kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Flink ldapmaster 否 部署时使用,ldap的master节点。 Flink logDir 否 目录。部署时使用,通过ansible创建。 Flink HistoryServerDir 否 目录。部署时使用,通过ansible创建。 Flink pipelinejobretrytimes 是 流水线重试次数。 Flink jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Elasticsearch CERTNODE 否 部署时使用,指定证书节点,在节点上执行生成证书的操作。 Elasticsearch ESDATADIRS 否 目录。部署时使用,通过ansible创建。 Elasticsearch ESDEFAULTPASSWORD 否 部署时使用。默认的密码,随机密码。 Doris FEDEFAULTLEADERHOSTNAME 否 部署和扩容时使用,指定leader节点,在上面执行leader的相关操作。 Doris FEDEFAULTPASSWORD 是 部署时随机生成的Doris组件root密码。节点扩容需要使用该密码,如用户已修改,需要设置正确的值,否则会影响扩容操作。 Doris FEHTTPPORT 否 服务端口,不推荐修改。 Doris FEQUERYPORT 否 服务端口,不推荐修改。 Doris FEEDITLOGPORT 否 服务端口,不推荐修改。 Doris BESTORAGEROOTPATH 否 服务端口,不推荐修改。 Doris BEHEARTBEATSERVICEPORT 否 服务端口,不推荐修改。 Doris BROKERIPCPORT 否 服务端口,不推荐修改。 Trino datadir 否 目录。部署和扩容时使用,通过ansible创建。 Trino kerberosrealm 否 kerberos的realm的信息。 Trino kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Trino ldapmaster 否 部署时使用,ldap的master节点。 Trino coordinator 否 部署和扩容时使用,指定主节点,在上面执行主节点的相关操作。 Trino uiuser 否 ui的用户。 Trino uipassword 否 ui的密码,部署时随机生成。 Trino serveruser 否 server的用户。 Trino serverpassword 否 server的密码,部署时随机生成。 Trino pipelinejobretrytimes 是 流水线重试次数。 Trino jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Ranger dbhost 否 外置数据库信息,需要用户填写。 Ranger dbname 否 外置数据库信息,需要用户填写。 Ranger dbuser 否 外置数据库信息,需要用户填写。 Ranger dbpassword 否 外置数据库信息,需要用户填写。 Ranger dbrootuser 否 部署时使用,ranger使用的外置数据库信息。 Ranger dbrootpassword 否 部署时使用,ranger使用的外置数据库信息。 Ranger rangerpassword 否 ranger admin用户密码。 Ranger SYNCLDAPBINDPASSWORD 否 部署时使用,ranger访问ldap的密码。 Ranger SYNCSOURCE 否 用户同步方式,ldap。 Ranger kerberosrealm 否 kerberos的realm的信息。 Ranger kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Ranger SYNCLDAPURL 否 ldap相关信息。 Ranger POLICYMGRURL 否 ranger admin url信息。 Ranger separatedbamode 否 是否单独执行DBA,默认true,表示需要提前创建ranger使用的数据库和用户,并授权,不推荐修改。 Ranger pipelinejobretrytimes 是 流水线重试次数。 Ranger jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Knox kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Logstash pipelinejobretrytimes 是 流水线重试次数。 Logstash jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 JeekeFS kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI ldapGuestPassword 否 部署时使用,Openldap的guest用户密码。 Pushgateway PUSHGATEWAYPASSWORD 否 部署时使用,Pushgateway服务的密码。 Pushgateway PUSHGATEWYUSERNAME 否 部署时使用,Pushgateway服务的用户名。 TezUI pipelinejobretrytimes 是 流水线job最大重试次数。 TezUI jobretrybasedonpipelinetypes 否 基于的流水线类型。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        查看集群服务配置
      • 基于业务日志的运维分析
        步骤二:配置日志采集规则 1. 登录云日志服务控制台。 2. 左侧点击【日志接入】菜单,进入日志接入页面。 3. 点击【新增采集规则】,选择云主机文本日志。 4. 选择日志单元。 1. 点击“所属日志项目”后的目标框,在下拉列表中选择具体的日志项目,若没有所需的日志项目,点击“所属日志项目”目标框后的“新建”,在弹出的创建日志项目页面创建新的日志项目。 2. 点击“所属日志单元”后的目标框,在下拉列表中选择具体的日志单元,若没有所需的日志单元,点击“所属日志单元”目标框后的“新建”,在弹出的创建日志单元页面创建新的日志单元。 5. 选择主机组。 1. 点击【新建主机组】 2. 输入主机组名称。 3. 在已开通云主机列表中,选择您需要采集日志的目标云主机。选中的云主机将打包作为主机组。 4. 点击下一步。 6. 安装采集器。 1. Step1:创建终端节点。安装采集器前,您需要在云主机所在的VPC中创建终端节点,以建立与日志服务的连接通道。 您需要在当前页面检查云主机所在的VPC是否已创建终端节点。若终端节点状态为“未创建”,请点击页面中的【创建终端节点】按钮,并根据页面指引进行开通。 若终端节点状态为“已创建”,您可跳过该步骤。 2. Step2:安装采集器。 1. 首先获取您的AK和SK。如何获取AK/SK? 2. 复制页面中的命令,并使用获取的AK、SK手动替换 {inputyourak} 和 {inputyoursk}。填写值时不需要添加 {}。 3. 以root用户登录待安装采集器的云主机,执行上述命令。当显示“Installed lmtagent successfully”时表示安装成功。注意:目前仅支持X86架构的Linux天翼云云主机。 3. Step3:检查采集器状态中。 点击【检测】按钮,稍等片刻后查看采集器状态,确保所有目标云主机的采集器状态均为已连通。若多次重试后仍无法连通,请查看常见问题中的“云主机采集器无法连通”进行问题排查。 4. 点击下一步。 7. 配置采集规则,请按如下说明配置参数。参数配置完成后,点击下一步。 1. 采集规则名称:输入采集规则的名称,在所属的日志项目内不允许重复。 2. 采集路径:根据日志在服务器上的位置,设置日志目录和文件名称。 如本案例的日志路径为/var/log/nginx/access.log。 3. 设置采集黑名单:默认关闭 4. 采集策略:选择“全量”。 5. 切割模式:针对原始日志执行分词的模式,本案例选择“单行全文”,其它切割模式请查看日志结构化解析。 6. 最大目录深度:保持默认为“5”。 8. 索引配置。(可选项) 本案例中,索引配置保持默认即可,您可直接点击【下一步】。更多详情请查看索引配置。 9. 点击下一步后,接入成功,可以点击【返回接入配置列表】查看日志接入,也可单击【查询日志】查看该日志单元下的采集日志。
        来自:
        帮助文档
        云日志服务
        最佳实践
        基于业务日志的运维分析
      • 天翼云分布式融合数据库HTAP服务协议
        本页介绍天翼云分布式融合数据库HTAP服务协议。 天翼云分布式融合数据库HTAP服务协议获取地址:天翼云分布式融合数据库HTAP服务协议。
        来自:
        帮助文档
        分布式融合数据库HTAP
        相关协议
        天翼云分布式融合数据库HTAP服务协议
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        本教程将详细介绍如何借助天翼云 SDWAN 实现对 DeepSeek 的定向加速,以访问海外资源。 应用场景 企业在云上部署私有化DeepSeek平台,进行企业知识库、智能问答等大模型开发工作,在此过程中会使用到ollama、huggingface、github等境外开发工具或平台实现大模型高效迭代优化。 天翼云SDWAN通过优化对合规境外网站的访问过程,可以为客户提供更加流畅的海外资源访问体验。用户只需在云上DeepSeek主机业务环境中部署SDWAN软件CPE(vCPE),即实现可对定向海外资源的加速访问。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建了云主机用于部署DeepSeek服务,并通过网络配置将其加入到VPC子网中。 操作步骤 本教程的配置流程如下: 步骤一:部署 vCPE 1. 创建并配置云主机 :在天翼云控制台创建一台用于部署天翼云 SDWAN vCPE 的云主机,为其创建和绑定弹性公网 IP(EIP),并通过网络配置将其加入到创建的VPC子网中,请参考创建弹性云主机。 2. 创建vCPE资源,并部署到云主机中:您可通过以下两种方式开通 vCPE 资源。 天翼云官网自助开通:若选择通过天翼云官网自行下单,具体操作步骤如下: 1. 登录天翼云 SDWAN 控制台,在界面中选择“智能网关”选项,随后在“智能网关”页面点击“创建智能网关”按钮。 2. 按照页面给出的提示,选择“软件版”vCPE和接入带宽等关键业务配置。 3. 参数配置完毕后,点击“提交订单”。在确认订单信息准确无误后,勾选产品服务协议,接着点击“确认下单”。 4. 完成订单支付,支付成功即完成 vCPE 资源的购买。 客户经理协助开通:您也可以直接联系客户经理,由其协助完成 vCPE 资源的开通。 购买完成后,及时联系 SDWAN 客户经理进行交付。届时,天翼云 SDWAN 交付团队会协助您将创建好的 vCPE 实例资源部署到云主机上,并接入天翼云 SDWAN 网络。
        来自:
        帮助文档
        天翼云SD-WAN
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 1
      • ...
      • 113
      • 114
      • 115
      • 116
      • 117
      • ...
      • 331
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      公共算力服务

      人脸检测

      人脸实名认证

      推荐文档

      上报自定义指标并进行监控

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号