云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务-RocketMQ_相关内容
      • 约束与限制
        本文主要介绍约束与限制 测试资源组的说明与使用约束 测试资源组包含共享资源组和私有资源组两种类型,共享资源组为系统默认提供,私有资源组需要自行创建。 共享资源组的执行节点已绑定弹性IP,当被测应用有网络访问限制时,建议创建私有资源组。 当并发大于10000或者40000QPS或者总带宽大于100Mb时,建议创建私有资源组。 JMeter测试任务只可以使用私有资源组。 节点使用建议 用于测试资源组的节点不要运行任何应用或做其他用途,可能会导致应用运行异常。 至少需要2台空节点,1台用于压测资源组的调试机(即调试执行机的节点),1台用于压测资源组的执行机(即在压测过程中能够提供自身性能数据的施压目标机器)。请根据需要压测的并发用户数,创建对应规格的节点,节点规格推荐请参考下表。 如需要压测外部服务,请为执行节点绑定弹性IP。如需要调试外部服务,请为调试节点和执行节点都绑定弹性IP。 节点规格推荐 并发用户数 所需规格 数量 ::: 05000 调试节点:4U8G 1 05000 执行节点:4U8G 1 500110000 调试节点:4U8G 1 500110000 执行节点:8U16G 1 1000120000 调试节点:4U8G 1 1000120000 执行节点:8U16G 2 2000130000 调试节点:4U8G 1 2000130000 执行节点:8U16G 3 3000140000 调试节点:4U8G 1 3000140000 执行节点:8U16G 4 4000150000 调试节点:4U8G 1 4000150000 执行节点:8U16G 5 50001以上 调试节点:4U8G 1 50001以上 执行节点:8U16G 说明 每台8U16G的执行节点可支撑10000并发。 说明 以上节点规格推荐是通用规格,仅供参考。实际压测时,资源规格的需求受思考时间、压测的协议类型、请求和响应的大小数量、响应时间、结果验证等因素影响,用户可根据实际情况进行调整。 压测外部服务时,执行节点需要绑定弹性IP,测试带宽受限于创建的EIP带宽。 当集群上的节点已经被部署上了应用,创建私有资源组时,该节点无法被选用。 JMeter引擎不适用该规格。
        来自:
      • 资源组管理类
        本文主要介绍资源组管理类问题 测试资源配置建议 测试资源组的说明与使用约束 测试资源组包含共享资源组和私有资源组两种类型,共享资源组为系统默认提供,私有资源组需要自行创建。 共享资源组的执行节点已绑定弹性IP,当被测应用有网络访问限制时,建议创建私有资源组。 当并发大于10000或者40000QPS或者总带宽大于100Mb时,建议创建私有资源组。 JMeter测试任务只可以使用私有资源组。 节点使用建议 用于测试资源组的节点不要运行任何应用或做其他用途,可能会导致应用运行异常。 至少需要2台空节点,1台用于压测资源组的调试机(即调试执行机的节点),1台用于压测资源组的执行机(即在压测过程中能够提供自身性能数据的施压目标机器)。请根据需要压测的并发用户数,创建对应规格的节点,节点规格推荐请参考下表。 如需要压测外部服务,请为执行节点绑定弹性IP。如需要调试外部服务,请为调试节点和执行节点都绑定弹性IP。 节点规格推荐 并发用户数 所需规格 数量 ::: 05000 调试节点:4U8G 1 05000 执行节点:4U8G 1 500110000 调试节点:4U8G 1 500110000 执行节点:8U16G 1 1000120000 调试节点:4U8G 1 1000120000 执行节点:8U16G 2 2000130000 调试节点:4U8G 1 2000130000 执行节点:8U16G 3 3000140000 调试节点:4U8G 1 3000140000 执行节点:8U16G 4 4000150000 调试节点:4U8G 1 4000150000 执行节点:8U16G 5 50001以上 调试节点:4U8G 1 50001以上 执行节点:8U16G n 说明 每台8U16G的执行节点可支撑10000并发。 说明 以上节点规格推荐是通用规格,仅供参考。实际压测时,资源规格的需求受思考时间、压测的协议类型、请求和响应的大小数量、响应时间、结果验证等因素影响,用户可根据实际情况进行调整。 压测外部服务时,执行节点需要绑定弹性IP,测试带宽受限于创建的EIP带宽。 当集群上的节点已经被部署上了应用,创建私有资源组时,该节点无法被选用。 JMeter引擎不适用该规格。
        来自:
        帮助文档
        性能测试PTS
        常见问题
        资源组管理类
      • 创建函数流触发器
        本章介绍如何创建函数流触发器 本节介绍创建函数流触发器,函数流触发器当前支持APIG触发器、定时触发器。 创建定时触发器 1. 登录FunctionGraph控制台,进入“函数流”页面。 2. 在“函数流”流程列表页面,选择需要创建触发器的流程,单击“编辑”,进入编辑页面。 3. 单击“开始”节点,在右侧弹出的属性页面添加触发器,触发器类型选择“定时触发器”。 4. 填写触发器配置信息。如下表所示,带参数为必填项。 定时触发器配置信息 配置项 说明 触发规则 定时触发器的触发规则,当前只支持Cron表达式 Cron表达式 用于表示任务调度的表达式,能够表示特定周期进行的特定的时间、日期等。 附加信息 附加信息为json格式,输入必须包含input,在input内输入需要的json体。 input的内容会作为流程的输入参数。 5. 单击“创建”,完成定时触发器创建。 创建APIG(共享版)触发器 说明 首次使用API网关的用户不再支持共享版服务,老用户仍可继续使用共享版服务。即API网关当前已不提供共享版,目前只有存量用户可以使用共享版。 函数流APIG触发器目前仅支持IAM认证方式。 1. 登录FunctionGraph控制台,进入“函数流”页面。 2. 在“函数流”流程列表页面,选择需要创建触发器的流程,单击“编辑”,进入编辑页面。 3. 单击“开始”节点,在右侧弹出的属性页面添加触发器,触发器类型选择“APIG触发器(共享版)”。 4. 填写触发器配置信息。如下表所示,带参数为必填项。 5. 单击“创建”,完成APIG(共享版)触发器创建。 APIG触发器(共享版)信息 字段 填写说明 分组 API分组相当于一个API集合,API提供方以API分组为单位,管理分组内的所有API。 选择“APIGrouptest”。 发布环境 API可以同时提供给不同的场景调用,如生产、测试或开发。 API网关服务提供环境管理,在不同的环境定义不同的API调用路径。 选择“RELEASE”,才能调用。 API类型 API类型: 路径 接口请求的路径。 格式如:/users/projects 请求方式 接口调用方式:GET、POST、DELETE、PUT、PATCH、HEAD、OPTIONS、ANY 其中ANY表示该API支持任意请求方法。
        来自:
        帮助文档
        函数工作流
        用户指南
        函数流管理
        创建函数流触发器
      • GPU监控
        通过弹性云主机控制台查看GPU监控项 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,选择“GPU使用率”或"显存使用率"即可查看该台GPU云主机下全部显卡的这两个GPU监控项。 通过云监控控制台查看GPU监控项 目前有两种方式可以进入云监控控制台查看GPU监控项,具体如下: 方式一 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 > 弹性云主机”。 4. 在弹性云主机列表页点击某一GPU云主机的主机名称进入主机详情页。 5. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 6. 点击“操作系统监控>GPU”,查看全量的GPU监控项。若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 方式二 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“管理与部署> 云监控”。 4. 单击"主机监控>云主机监控",进入云主机监控列表页。 5. 选中所要查看的GPU云主机,点击“操作>查看监控图标”,进入云主机监控详情页。 6. 点击“监控”tab,点击"查看更多监控指标详情"跳转至云主机监控控制台。 7. 若该台GPU云主机挂载了多块显卡,则可在下拉框中选择对应的GPU查看该GPU的GPU使用率、GPU显存使用量、GPU显存使用率、GPU温度、GPU功耗。 注意 1. 如未安装驱动则GPU监控项将为空,请您安装驱动。 2. 目前图形加速基础型GPU云主机的GPU温度、GPU功率为空,无法提供监控告警。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        GPU监控
      • 修改RDS for PostgreSQL实例参数
        本章节会介绍RDS for PostgreSQL如何修改实例参数 为确保关系型数据库服务发挥出最优性能,用户可根据业务需求对用户创建的参数模板中的参数进行调整。 您可以修改用户创建的数据库参数模板中的参数值,但不能更改默认数据库参数模板中的参数值。对用户创建的参数模板参数模板中的参数所做的更改,将应用于与此数据库参数模板关联的所有数据库实例。 如果您更改一个参数值,则所做更改的应用时间将由该参数的类型决定。 关系型数据库服务的管理控制台显示与数据库实例关联的数据库参数模板的状态。例如,如果数据库实例未使用与其关联的数据库参数模板所做的最新更改,则关系型数据库服务的管理控制台将显示状态为“参数变更,等待重启”。您将需要手动重启数据库实例,以使最新的参数更改对该数据库实例生效。 说明 系统提供的默认参数模板不允许修改,只可单击参数模板名进行查看。当用户参数设置不合理导致数据库无法启动时,可参考默认参数模板重新配置。 修改当前实例的参数 步骤1:登录管理控制台。 步骤2:单击管理控制台左上角的,选择区域和项目。 步骤3:选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4:在“实例管理”页面,选择指定的实例,单击实例名称。 步骤5:在左侧导航栏中选择“参数修改”,在“参数”页签修改相应参数。 可进行的操作如下: 注意 根据参数列表中“是否需要重启”提示,进行相应操作: 是:在实例列表中,查看“运行状态”,如果显示“参数变更,等待重启”,则需重启实例使之生效。 修改主实例的某些参数(如果是主备实例,备实例的参数也会被同步修改),需重启主实例使之生效。 修改只读实例的某些参数,需要重启该只读实例使之生效。 否:无需重启,立即生效。 单击“保存”,在弹出框中单击“确定”,保存修改。 单击“取消”,放弃本次设置。 单击“预览”,可对比参数修改前和修改后的值。 参数修改完成后,您可查看参数修改历史。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数模板管理
        修改RDS for PostgreSQL实例参数
      • 设置自动备份策略
        本章节介绍如何设置自动备份策略。 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,用户也可以关闭备份,但是对于生产环境,强烈推荐开启备份,因为恢复功能依赖备份的打开。实例创建成功后,您可根据业务需要设置自动备份策略。关系型数据库服务按照用户设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 关系型数据库默认开启的自动备份策略设置如下: 保留天数:默认为7天。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为一周内的每一天。 开启或修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“修改备份策略”,如需开启自动备份策略,单击。保留天数是指自动备份可保留的时间,增加保留天数可提升数据可靠性,请根据需要设置。 减少保留天数的情况下,该备份策略对已有备份文件同时生效,即超出备份保留天数的已有备份文件会被删除。 保留天数为全量自动备份和Binlog备份的保留时长,范围为1~732天,备份时间段为间隔1小时,建议根据业务情况,选择业务低峰时段,备份周期默认全选,可修改,且至少选择一周中的1天。 步骤 6 单击“确定”,确认修改。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        设置自动备份策略
      • 级联平台管理
        本节主要介绍如何在智能视图服务控制台维护级联平台和设备。 在级联页面左侧目录树,可以对级联平台进行查看、编辑和删除操作。 在级联页面右侧的设备列表中,可以点击【移除】从级联列表中移除该视频资源;也可勾选复选框,点击列表正上方的【移除选中设备】进行批量移除操作。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        向上级联
        级联平台管理
      • SDK参考
        本页介绍了文档数据库服务产品支持的SDK,您可以根据实际业务需求进行集成。 各语言SDK下载及使用 支持语言 SDK附件 Java DDSSDKJAVA.zip(v1.0.0) GO DDSSDKGO.zip(v1.0.0) 说明 由于运行环境的多样性,部分接口在某些特定配置下可能存在适配差异,我们的技术团队将持续优化兼容性。如有问题,可提单咨询。
        来自:
      • 编辑安全组
        本页介绍了如何编辑实例安全组。 文档数据库服务支持修改实例的安全组,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”菜单,进入实例列表页。 3. 选择需要修改的实例,点击该实例的实例ID,进入实例详情。 4. 在“网络”栏中找到“安全组”信息,点击“编辑”按钮(部分资源池为“修改”按钮)。 5. 在“编辑用户安全组”弹窗中,选择需要修改的安全组,点击“确定”按钮,即可完成安全组修改。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库管理
        编辑安全组
      • 历史事件
        操作场景 文档数据库服务事件管理功能主要是用来便于用户查看相关实例系统通知的事件,事件管理分为计划内事件和历史事件,用户可以在“事件管理”中查看系统通知的事件。 操作步骤 1. 登录TeleDB数据库控制台首页。 2. 点击“DDS”>“事件管理",即可看到历史事件页面。 3. 历史事件列表显示的都是计划内事件变更过来的数据。 4. 用户可以在历史事件页面的搜索框根据实例ID搜索指定实例的历史事件。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        事件管理
        历史事件
      • 迁移计划移除
        本节为您介绍云迁移服务CMS迁移计划移除相关操作。 1.在[迁移计划]界面,您可以选中需要查看的迁移计划,点击【详情】按钮进入[迁移计划详情]界面,在迁移计划资源清单列表用户可以对已加入资源迁移计划清单进行移除资源操作。如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移计划
        迁移计划移除
      • 弹性IP绑定/解绑类
        本文主要介绍弹性IP绑定/解绑类问题。 如何通过外部网络访问绑定弹性IP的弹性云主机? 为保证弹性云主机的安全性,每个弹性云主机创建成功后都会加入到一个安全组中,安全组默认Internet对内访问是禁止的,所以需要在安全组中添加对应的入方向规则,才能从外部访问该弹性云主机。 在安全组规则设置界面用户可根据实际情况选择TCP、UDP、ICMP或All类型。 当弹性云主机需要提供由公网可以访问到的服务且知道对端IP地址或无需提供由公网可以访问到的服务时,建议根据业务需要,将源地址设置为允许已知IP地址所在的网段访问该安全组。 当弹性云主机需要提供由公网可以访问到的服务且不知道对端的IP地址时,建议使用默认的源地址0.0.0.0/0,再通过配置端口提高网络安全性。 建议将不同公网访问策略的弹性云主机划分到不同的安全组。 说明:源地址默认的IP地址0.0.0.0/0是指允许所有IP地址访问安全组内的弹性云主机。 如何通过扩展网卡绑定的弹性IP访问公网? 弹性IP绑定扩展网卡后,进入弹性云主机,执行route命令查询路由: route命令如果不清楚可以使用 route help 。 图查看路由信息 执行ifconfig命令查看网卡信息。 图查看网卡信息 配置默认通过扩展网卡访问公网。 a. 执行如下命令删除主网卡默认route。 route del net 0.0.0.0 gw 192.168.0.1 dev eth0 说明:此操作会导致虚拟机流量中断,请谨慎操作,推荐您参考步骤4配置。 b. 执行如下命令配置扩展网卡默认route。 route add default gw 192.168.17.1 按照访问的目标地址配置扩展网卡访问。 配置通过扩展网卡访问某一网段(xx.xx.0.0/16,该网段请按实际情况设置): route add net xx.xx.0.0 netmask 255.255.0.0 gw 192.168.17.1
        来自:
        帮助文档
        弹性IP EIP
        常见问题
        弹性IP绑定/解绑类
      • HTTPS配置概述
        简述天翼云边缘安全加速平台安全与加速服务的HTTPS相关功能及配置方法。 什么是HTTPS? HTTPS(全称:Hyper Text Transfer Protocol over Secure Socket Layer),是以安全为目标的HTTP通道,简单讲是HTTP的安全版。HTTPS相当于在HTTP下加入SSL层,HTTPS的安全基础是SSL,因此加密的详细内容就需要SSL。它是一个URI scheme(抽象标识符体系),句法类同HTTP体系。用于安全的HTTP数据传输。 HTTPS也叫安全的超文本传输协议,使用TCP端口443,他的数据会用PKI中的公钥进行加密,这样抓包工具捕获到的数据包也没有办法看到包中的内容,安全性大大提高,要解密数据的话就要用到PKI中的私钥。所以一些安全性比较高的网站如:网上银行,电子商务网站都需要用HTTPS访问。 HTTPS配置概述 HTTPS配置模块主要介绍如何配置开启HTTP2.0、OCSP Stapling、HSTS,如何选择TLS协议版本,以及HTTPS Keyless加速方案和边缘安全加速平台支持哪些国密算法。 相关功能 功能 说明 国密HTTPS 简述边缘安全加速支持的国密算法及配置方法。 HTTP2.0配置 简述HTTP2.0的定义和配置方法。 配置OCSP Stapling 简述OCSP Stapling功能的概念、使用前提和配置方法。 配置HSTS 简述HSTS功能和配置方法。 配置TLS协议版本 简述安全与加速服务支持的TLS协议版本和配置方法。 批量HTTPS证书配置 简述批量关联域名启用HTTPS加速服务的配置方法。 强制跳转 简述强制跳转的场景及配置方法。包括HTTP强制跳转HTTPS,HTTPS强制跳转HTTP。 HTTPS无私钥驻留加速方案 简述边缘加速节点无需部署私钥的情况下如何加速HTTPS业务。 支持的SSL/TLS加密套件 天翼云边缘安全加速支持的SSL/TLS加密套件及对应套件支持的最低版本的SSL/TLS协议。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        HTTPS配置概述
      • 恢复OMS数据
        本章主要介绍翼MapReduce的恢复OMS数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对FusionInsight Manager系统进行重大数据调整等操作后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,需要对Manager进行恢复数据操作。 管理员可以通过FusionInsight Manager创建恢复Manager任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的Manager数据。 对系统的影响 恢复过程中需要重启Controller,重启时FusionInsight Manager无法登录和操作。 恢复过程中需要重启所有集群,集群重启时无法访问。 Manager数据恢复后,会丢失从备份时刻到恢复时刻之间的数据,例如系统设置、用户信息、告警信息或审计信息。可能导致无法查询到数据,或者某个用户无法访问集群。 Manager数据恢复后,系统将强制各集群的LdapServer从OLadp同步一次数据。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查OMS资源状态是否正常,检查各集群的LdapServer实例状态是否正常。如果不正常,不能执行恢复操作。 检查集群主机和服务的状态是否正常。如果不正常,不能执行恢复操作。 检查恢复数据时集群主机拓扑结构与备份数据时是否相同。如果不相同,不能执行恢复操作,必须重新备份。 检查恢复数据时集群中已添加的服务与备份数据时是否相同。如果不相同,不能执行恢复操作,必须重新备份。 停止依赖集群运行的上层业务应用。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复OMS数据
      • 使用限制
        本页介绍了SSL证书使用常见问题。 SSL证书最长有效期是几年?可以签多年么? 按照CA行业内标准要求SSL证书的最大有效期不能大于13个月,为了满足用户的需求以及省去不少商务流转环节,我们现推出多年的证书服务,可以咨询商务了解更多详情。 购买的是多域名证书,为什么访问时会出现“此网站出具的安全证书是为其他网站地址颁发的”的错误? 多域名证书是用过SNI技术实现的,如果您的服务端或用户的客户端不支持SNI技术,就可能会出现改错误。 如果服务器换了IP地址,原来的SSL证书还能用吗? SSL证书都是绑定域名的,服务器更换IP地址没有任何关系,只要域名不变,更换IP之后,只需将域名重新解析到新的IP地址即可,原来的SSL证书当然照样可以用。但如果SSL证书是为IP地址申请的,则服务器换了IP地址,原来的SSL证书就不能用了。 能申请EV的通配符证书吗? 不行,根据规范要求不允许签发EV通配符的证书产品。
        来自:
        帮助文档
        SSL证书
        常见问题
        使用限制
      • 查看物理机信息
        操作步骤 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择“计算 > 物理机”。 3. 在物理机列表页,单击右上角的“导出”,在弹出的确认框中单击“确定”。系统会将您帐号下,当前区域的所有物理机信息自动导出,并下载至本地。 4. 在本地计算机的下载路径,可以获取到导出的物理机列表信息。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        查看物理机信息
      • 修改专有宿主机(1)
        1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 单击左侧导航栏“产品服务列表”,选择“计算 >弹性云主机 > 专有宿主机”,进入专有宿主机列表页。 4. 找到需要修改的专有宿主机,点击操作栏“更多”按钮,选择“修改”。 5. 在修改页面中编辑相关信息,确认后,点击页面“确定”。
        来自:
      • 平台说明
        本文为知识库问答的核心平台及其功能介绍。 平台 功能说明 说明文档 控制台 查看实例使用情况,进行实例创建、退订等操作。 控制台说明文档 实例 1个实例,代表着1个完整的知识库问答应用的完整系统,每个实例独立运行,互不影响,可确保服务的稳定性和安全性。
        来自:
        帮助文档
        知识库问答
        快速入门
        平台说明
      • 资产管理概述
        态势感知(专业版)支持对云上资产全面自动盘点,也可灵活纳管云外各种资产,点清所有资产,并呈现资产实时安全状态。 在资产管理中,可以查看当前工作空间所在region中所有资源的安全状态统计信息,包括资源的名称、所属服务、安全状况等,帮助您快速定位安全风险问题并提供解决方案。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        资产管理
        资产管理概述
      • 续费
        本章介绍天翼云关系型数据库的续费流程。 当产品实例到达到期时间,则会暂停相应的服务。此时,可以通过续订操作延后实例的到期时间。 1. 选择需要续订的实例,点开该实例的详情信息,点击“续费”链接 2. 选择续订的时长,并完成订单支付
        来自:
        帮助文档
        关系数据库SQL Server版
        计费说明
        续费
      • 主机资产
        自动导入天翼云上ECS资产 说明 目前仅“一类节点”区域的实例支持自动导入天翼云上ECS资产 。云堡垒机(原生版)支持的区域请参见支持的区域。 1. 使用“管理角色”账户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3. 选择“导入 > 天翼云ECS实例导入”,勾选需要导入的ECS资产。 4. 根据需求选择导入策略。 说明 跳过:若存在同名资产,则跳过该资产的导入。 覆盖:若存在同名资产,使用新资产覆盖旧资产。 建立副本:若存在同名资产,则为新资产增加后缀后导入(后缀新增为1;2……以此类推)。 5. 单击“导入”,完成天翼云ECS资产导入。 批量导入资产 1. 使用“管理角色”账户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3. 选择“导入 > 从本地文件导入”,在弹出的对话框中下载导入模板。 4. 在导入模板文件中填写内容,填写完成后保存。 说明 模板中红色标题为必填项。 多个资产组用英文逗号“,”隔开。 资产类型为Windows服务器或Unix/Linux服务器时只会判断录入黑色标题的端口协议。 资产类型为数据库时只会判断录入蓝色标题的端口协议且协议有填写时对应的服务名必填。 参数 参数说明 取值样例 资产名称 自定义新增的资产名称。 Test 资产类型 填写新增的资产类型:可填Windows服务器 、Unix/Linux服务器 或数据库。 Windows服务器 IP地址 填写纳管资产的IP地址,支持IPv4和IPv6。 0.0.0.0 资产组 填写新增资产所属的资产组。 资产描述 填写资产的描述。 协议 填写协议的端口: 资产类型为Windows服务器 或Unix/Linux服务器 时只会判断录入黑色标题的端口协议。 资产类型为数据库 时只会判断录入蓝色标题的端口协议且协议有填写时对应的服务名必填。 访问信息 填写资产的访问编码,仅支持填写“UTF8”或“GBK”。 GBK 5. 上传已经填写完成后的导入模板,根据需求选择导入策略。 说明 跳过:若存在同名资产,则跳过该资产的导入。 覆盖:若存在同名资产,使用新资产覆盖旧资产。 建立副本:若存在同名资产,则为新资产增加后缀后导入(后缀新增为1;2……以此类推)。 6. 单击“提交”,完成资产导入。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        主机资产
      • 入门必读
        本文主要介绍入门必读 性能测试是一项为基于HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTPFLV等协议构建的云应用提供性能测试的服务。服务支持快速模拟大规模并发用户的业务高峰场景,可以很好的支持报文内容和时序自定义、多事务组合的复杂场景测试,测试完成后会为您提供专业的测试报告呈现您的服务质量。 通过简单的四步操作,您就可以完成一次性能测试。 性能测试步骤 性能测试提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试的使用流程。 基本概念 测试工程: 性能测试为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。 事务: 事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点和HLS/RTMP/HTTPFLV报文部分。 报文: 报文是HTTP应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间: 为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间。 响应提取: 如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点: 检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数: 在性能测试工具中,并发用户数一般被称为虚拟用户数。注意“并发用户数”和“在线用户数”的区别:“并发用户数”会对服务器产生压力,“在线用户数”只是挂在系统上,对服务器不产生压力。 响应时间: 用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。在性能检测中一般以测试环境中压力发起端至服务器返回处理结果的时间为计量,单位一般为秒或毫秒,该时间不同于模拟真实环境的用户体验时间。 不同行业不同业务可接受的响应时间是不同的。一般情况下,互联网企业在500毫秒以下;金融企业1秒以下为佳;保险企业3秒以下为佳。
        来自:
        帮助文档
        性能测试PTS
        快速入门
        入门必读
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
        常见问题 如何将OpenClaw的Skills迁移至其他云电脑? Windows 系统迁移步骤:进入路径 C:UsersAdministrator.openclawskills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 C:UsersAdministrator.openclawskills;若目标路径不存在,可手动创建该目录。 Ubuntu/妙逸系统迁移步骤:进入路径 /home/ctyun/.openclaw/skills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 /home/ctyun/.openclaw/skills;若目标路径不存在,可手动创建该目录。 云电脑 OpenClaw 免费的 Tokens 额度是多少?消耗完是否支持购买 Tokens? 订购云电脑免费赠送 2500 万 Tokens,超出部分支持购买 Tokens 套餐,满足您 “轻度体验” 到 “重度使用” 的场景需求。 OpenClaw 云电脑开机后一直停留在黑色页面,没有进度。 这个黑框是后台服务,不要关闭,请点击桌面的 “OpenClaw 进入应用” 打开聊天页面。 OpenClaw 的后台服务打开后闪退 OpenClaw 执行指令时误删除了系统文件,如无重要数据建议重装系统恢复。 如果云电脑是内网,不能访问外网可以用吗? 不可以,必须要能访问公网。 云电脑 OpenClaw 默认打开谷歌浏览器,这个默认浏览器可以修改吗? OpenClaw 只是打开系统的默认浏览器,将您需要的浏览器设置为默认浏览器即可。
        来自:
        帮助文档
        天翼云电脑(公众版)
        最佳实践
        开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
      • 功能特性
        本文为您介绍Web应用防火墙(原生版)的功能特性。 通过Web应用防火墙(原生版)服务,可以轻松应对各种Web安全风险。功能特性如下: HTTP/HTTPS业务防护 支持防护HTTP/HTTPS业务,通过对HTTP/HTTPS请求进行检测,识别并阻断恶意攻击,保护Web服务安全稳定。 IPv4/IPv6防护 支持IPv6/IPv4双栈,针对同一域名可以同时提供IPv6和IPv4的流量防护。 Web基础防护 覆盖OWASP常见安全威胁,支持SQL注入、XSS、文件包含、远程命令执行、目录穿越、文件上传、CSRF、SSRF、命令注入、模板注入、XML实体注入等攻击检测和拦截。 CC攻击防护 支持默认防护策略及灵活的自定义防护策略。自定义策略支持依托精准访问控制规则进行特征识别,并根据访问源IP/SESSION控制访问频率,恶意流量通过阻断、人机验证等处置手段有效缓解CC攻击。 BOT防护 提供公开类型、协议特征、自定义会话特征等多种判定维度的防护策略,支持根据BOT会话行为特征设置BOT对抗策略,对BOT行为进行处理,有效防护搜索引擎、扫描器、脚本工具等爬虫攻击。 精准访问控制 支持基于IP、URL、Referer、UserAgent等请求特征进行多维度组合,定义访问匹配条件过滤访问请求,实现针对性的攻击阻断。支持全局精准访问控制、域名级精准访问控制。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        产品介绍
        功能特性
      • 添加签名
        短信服务支持根据用户需求创建符合要求的签名,一般建议将签名设置为账号主体所在机构的全称或简称。发送短信时,短信平台会将已审核通过的短信签名添加到短信内容中,再发送给短信接收方。本文将为您介绍个人用户如何添加签名。 前提条件 已开通短信服务。 当前登录账号已实名认证。 注意:个人认证用户和企业认证用户权限不同,具体区别,请参见 认证模式。 注意事项 用户短信签名名称已上线App名称、已在工信部备案的网站名称的,建议先用企业名称作为签名,待品未上线建议上线后再申请新的签名。 添加签名 1. 登录云通信控制台。 2. 在左侧导航栏中,单击签名管理 。 3. 在签名管理 页面左侧单击创建签名 。 4. 填写签名用途 、签名名称、签名类型等必填信息。 5. 填写场景说明 ,此信息是签名审核的参考信息之一,请详细描述签名的用途、场景等信息。信息完善的申请说明会提高签名的审核效率。 6. 单击提交,提交审核。审核流程,请参见流程签名审核。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        签名
        添加签名
      • 查看审计总览信息
        此小节介绍数据库安全查看审计信息。 添加的数据库连接到数据库安全审计实例后,您可以查看数据库的审计总览信息,包括数据库的总体审计情况、风险分布、会话统计以及SQL分布情况。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 已成功添加数据库并开启审计功能。 已成功添加并安装Agent。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台上方的“服务列表”,选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 3. 进入总览界面,操作步骤如下图所示。 4. 查看数据库的总体审计情况,以及数据库的风险分布、会话统计和SQL分布信息,在“选择数据库”下拉列表框中,选择“全部数据库”或指定的数据库,可以查看实例中所有的数据库或指定的某个数据库的总览信息。选择审计的时间(“近30分钟”、“近1小时”、“近24小时”、“近7天”或“近30天”);或者单击按钮,选择开始时间和结束时间,查看指定的时间段的总览信息。 会话统计 SQL分布
        来自:
        帮助文档
        数据库安全
        用户指南
        查看审计结果
        查看审计总览信息
      • 修改OpenSearch配置文件默认参数
        云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 操作步骤 1. 登录云搜索服务管理控制台,在左侧导航栏,选择对应的实例类型,进入管理列表页面。 2. 点击实例名称进入对应实例详情,并选择“配置管理”。 3. 点击“修改配置”进入编辑状态,对所需的参数进行修改,修改时请关注填写规则和样例。 4. 修改完成后,点击“提交”,并在弹出的窗口中核对修改信息,需要知晓并勾选重启过程中可能会导致服务短暂不可用,确认后等待对应参数修改记录变为成功,即为已生效。若为失败,则未成功修改,参数仍为改前值。 5. 可在下方参数修改记录中查看近10次的修改记录和状态。 6. 如果有需要修改的参数不在列表内,请提报工单申请,由工程师为您修改。 指标分类 参数名称 填写说明 跨域访问 http.cors.enabled true表示启用跨域资源访问,false表示不启用 跨域访问 http.cors.alloworigin 支持 host/IP 和 port 组合、域名或号,例如node1:9200,127.0.0.1:9200,限制1100个,逗号隔开;号表示全部放开 跨域访问 http.cors.maxage 浏览器默认缓存时间。如果超过设置的时间后,缓存将自动清除。数值,取值范围[01728000],单位秒 跨域访问 http.cors.allowcredentials 响应中是否允许返回allowcredentials取值true/false 跨域访问 http.cors.allowheaders 跨域访问允许的headers,XRequestedWith,ContentType,ContentLength中的任意一个或多个 跨域访问 http.cors.allowmethods 跨域访问允许的方法OPTIONS,HEAD,GET,POST,PUT,DELETE中的任意一个或多个 审计日志 plugins.security.audit.type 审计日志,默认关闭,开启后,系统会记录OpenSearch实例对应的操作产生的日志 Reindex索引迁移 reindex.remote.whitelist 添加远程集群的访问地址白名单,支持host/IP 和 port 组合,例如 node1:9200,127.0.0.1:9200,port必填。限制1100个,逗号隔开 索引自动创建、通配删除 action.destructiverequiresname 删除索引是否需要声明完整索引名 true:需要声明完整索引名 false:不需要声明完整索引名 自定义查询缓存 action.autocreateindex 是否允许自动根据文档创建索引 线程池 threadpool.forcemerge.size forcemerge场景下队列的大小 流量控制 flowcontrol.search.qps 每秒查询请求数,超过设定值,响应查询API则熔断 读写集群的线程池设置 threadpool.write.queuesize 写阈值线程池大小,整数类型,取值范围1100000 读写集群的线程池设置 threadpool.search.queuesize 读阈值线程池大小,整数类型,取值范围1100000 fielddata的堆内cache indices.fielddata.cache.size fielddata的cache size,百分比,取值范围1%39% 查询相关限制 indices.query.bool.maxclausecount 查询的bool语句允许的子语句大小,整数类型,取值范围11024
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        管理实例
        修改OpenSearch配置文件默认参数
      • 教程:已有数据的物理集群转换逻辑集群
        本章节主要介绍已有数据的物理集群转换逻辑集群. 场景介绍 大规模数据库集群通常会同时包含很多业务数据,不同业务有不同的数据表,可以通过资源管理功能创建多个资源池来实现不同业务的资源隔离。DWS支持将不同业务用户分配给不同资源池,以便减少业务之间资源(CPU资源、内存资源、IO资源和存储资源)竞争。 但随着业务规模不断扩大,集群系统中的业务数目越来越多,通过划分多个资源池来管理越来越难以控制资源竞争。由于DWS的分布式架构,业务数据被分散存储在多个节点上即每个表都会分布在数据库集群的所有DN节点上,因此每次数据表操作都可能会涉及所有DN节点,导致网络压力增大和系统资源大量消耗,仅通过扩大集群规模也很难解决,DWS建议用户划分多个逻辑集群来解决业务数量扩大带来的网络压力和资源消耗问题。 通过划分独立的逻辑集群,将新增的业务分配到独立的逻辑集群上,这样新增业务对原有业务的影响会很小。而原有逻辑集群中的业务规模如果扩大,也可以通过对原有逻辑集群扩容来解决。 如图 跨逻辑集群访问数据所示,假设某企业原有业务数据表都在原物理集群dwsdemo(绿色部分),切换到逻辑集群lc1(蓝色部分)后,物理集群再通过扩容方式,新增一套新的逻辑集群lc2,原有业务数据表统一切换到逻辑集群lc1,新的业务数据表统一写入到逻辑集群lc2,实现新老业务的数据隔离。而新的逻辑集群lc2关联的用户u2,通过授权可以跨逻辑集群访问逻辑集群lc1的表。 图 跨逻辑集群访问数据
        来自:
        帮助文档
        数据仓库服务
        用户指南
        逻辑集群管理
        教程:已有数据的物理集群转换逻辑集群
      • 导入API
        导入到已有分组注意事项 将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 适用于将一个新的API或者一个修改后的API导入到已有的分组。 导入API前,请注意以下事项: API网关中API的配额满足需求。 导入的API定义与已有的API定义冲突时,您可以选择使用导入的API定义覆盖已有的API定义,或者保留已有的API定义,此时导入的API定义会显示导入失败。 如果选择扩展覆盖,当导入API的扩展定义项名称与已有策略(ACL,流量控制等)名称相同时,则会覆盖已有策略(ACL,流量控制等)。 导入的API不会自动发布到环境,导入时可以选择“立即发布”或者“稍后发布”,您可以自行选择策略。 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API列表”。 步骤 4 单击导入API。 您也可以参考以下示例导入API到API网关: 导入HTTP类型后端服务API示例 导入HTTP VPC类型后端服务API示例 导入MOCK类型后端服务API示例 导入HTTP类型后端服务API示例 包含IAM认证和请求参数编排的GET方法API定义,后端服务类型为HTTP。 Swagger示例: swagger: "2.0" info: title: "importHttpEndpoint10" description: "import apis" version: "1.0" host: "api.account.com" paths: '/http/{userId}': get: operationId: "getUser3" description: "get user by userId" security: apigauthiam: [] schemes: https parameters: name: "test" description: "authorization token" type: "string" in: "header" required: true name: "userId" description: "user id" type: "string" in: "path" required: true responses: "200": description: "user information" xapigatewayrequesttype: "public" xapigatewaycors: true xapigatewaymatchmode: "NORMAL" xapigatewaybackend: type: "HTTP" parameters: name: "userId" value: "userId" in: "query" origin: "REQUEST" description: "user id" name: "XInvokeUser" value: "apigateway" in: "header" origin: "CONSTANT" description: "invoke user" httpEndpoints: address: "example.com" scheme: "http" method: "GET" path: "/users" timeout: 30000 securityDefinitions: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM OpenAPI示例: openapi: 3.0.0 info: title: importHttpEndpoint10 version: '1.0' servers: url: > url: > paths: '/http/{userId}': get: description: get user by userId operationId: getUser3 parameters: description: authorization token example: '' in: header name: test required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always description: user id example: '' in: path name: userId required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always responses: defaultcors: description: response example xapigatewayresultfailuresample: '' xapigatewayresultnormalsample: '' security: apigauthiam: [] servers: url: > xapigatewaybackend: httpEndpoints: address: example.com description: '' enableClientSsl: false method: GET path: /users retryCount: '1' scheme: http timeout: 30000 parameters: description: invoke user in: HEADER name: XInvokeUser origin: CONSTANT value: apigateway description: user id in: QUERY name: userId origin: REQUEST value: userId type: HTTP xapigatewaycors: true xapigatewaymatchmode: NORMAL xapigatewayrequesttype: public xapigatewayresponse: default components: responses: defaultcors: description: response example headers: AccessControlAllowOrigin: schema: default: '' type: string securitySchemes: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthappheader: in: header name: Authorization type: apiKey xapigatewayauthopt: appcodeauthtype: header xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM xapigatewayresponses: default: {}
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        导入API
      • 各阶段交付内容
        阶段 项目活动 工作内容 第一阶段:咨询服务启动 等保测评技术指导、讲解 介绍整体服务工作 第一阶段:咨询服务启动 等保测评技术指导、讲解 测评内容介绍 第一阶段:咨询服务启动 等保测评技术指导、讲解 确认保密管理内容 第一阶段:咨询服务启动 等保测评技术指导、讲解 介绍风险管理措施 第一阶段:咨询服务启动 等保测评技术指导、讲解 讲解等保要求细则 第一阶段:咨询服务启动 等保测评技术指导、讲解 输出《等保测评技术指导》 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 依据等级保护要求,对客户系统进行安全自评估,进行差距分析 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 安全物理环境 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 安全通信网络 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 安全区域边界 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 安全计算环境 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 差距分析 第二阶段:安全自测评 环境检查系统检查安全检查差距分析 输出《差距分析评估》 第三阶段:整改建议 (仅标准版提供) 根据差距分析,提供整改建议 差距分析整理,提供差距建议,输出《差距整改方案》
        来自:
        帮助文档
        等保咨询
        快速入门
        各阶段交付内容
      • 应用场景
        云防火墙的应用场景及限制。 约束限制 CFW ALG标签功能受限。 CFW默认不开启网络层流量类型DDoS攻击与IP欺骗防御功能。 域名防护依赖于用户配置的域名服务器。默认域名服务器可能存在域名解析对应的IP地址不全,建议优先使用自定义域名服务器。 CFW长连接业务场景限制,配置策略的时候需要同时开启双向放通的安全策略,如果只开启单向策略,部分场景(开启和关闭防护、扩容引擎)需要客户端重新发起连接。 外部入侵防御 通过云防火墙,对已开放公网访问的服务资产进行安全盘点,可一键开启入侵检测与防御。 主动外联管控 云防火墙支持基于域名的访问控制,可对主动外联行为进行精准管控。 VPC间互访控制 云防火墙支持VPC间流量的访问控制,实现内部业务互访活动的可视化与安全防护。 等保合规 云防火墙可满足《网络安全等级保护2.0》中对区域边界防护、网络入侵防范、网络访问控制、安全日志审计等检查要求。
        来自:
        帮助文档
        云防火墙
        产品介绍
        应用场景
      • 1
      • ...
      • 263
      • 264
      • 265
      • 266
      • 267
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      推荐文档

      报账单据

      域名解析

      手动备份

      如何设置和修改绑定手机?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号