活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云审计_相关内容
      • 产品类
        时间范围 统计周期 近1小时 1分钟、5分钟 近6小时 1分钟、5分钟、1小时 近1天 1分钟、5分钟、1小时 近1周 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近15天 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近30天 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近3月 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近6月 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近9月 1小时、1天 说明 1天只针对日志统计规则生成的指标。 近12月 1小时、1天 说明 1天只针对日志统计规则生成的指标。
        来自:
        帮助文档
        应用运维管理
        常见问题
        产品类
      • 修改集群组件鉴权配置开关
        本章主要介绍翼MapReduce的修改集群组件鉴权配置开关功能。 操作场景 集群部署为安全模式或者普通模式时,HDFS和ZooKeeper默认会对访问服务的用户进行鉴权,没有权限的用户无法访问HDFS和ZooKeeper中的资源。集群部署为普通模式时,HBase和Yarn默认不会对访问用户进行鉴权,所有用户可以访问HBase和Yarn中的资源。 管理员可以根据业务实际需要,在普通模式集群中配置开启HBase和Yarn鉴权,或关闭HDFS和ZooKeeper鉴权。 对系统的影响 修改开关后服务的配置将过期,需要重启对应的服务使配置生效。 开启HBase鉴权 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”。 3.单击“全部配置”。 4.搜索参数“hbase.coprocessor.region.classes”、“hbase.coprocessor.master.classes”和“hbase.coprocessor.regionserver.classes”。 将协处理器参数“org.apache.hadoop.hbase.security.access.AccessController”添加到以上参数原有参数值末尾,使用英文逗号与原有协处理器分隔。 5.单击“保存”,单击“确定”。 等待界面提示操作完成。 关闭HBase鉴权 关闭HBase鉴权后,原有的权限数据会继续保留。如果需要删除权限信息,请在关闭鉴权后,进入hbase shell删除表hbase:acl。 1.登录FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”。 3.单击“全部配置”。 4.搜索参数“hbase.coprocessor.region.classes”、“hbase.coprocessor.master.classes”和“hbase.coprocessor.regionserver.classes”。 将协处理器参数“org.apache.hadoop.hbase.security.access.AccessController”去除。 5.单击“保存”,单击“确定”。 等待界面提示操作完成。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        帐户安全设置
        修改集群组件鉴权配置开关
      • 修改LDAP管理帐户密码
        本章主要介绍翼MapReduce的修改LDAP管理帐户密码功能。 操作场景 建议管理员定期修改集群LDAP管理帐户“cnkrbkdc,ouUsers,dchadoop,dccom”和“cnkrbadmin,ouUsers,dchadoop,dccom”的密码,以提升系统运维安全性。 对系统的影响 修改密码后需要重启KrbServer服务。 修改密码后需要确认LDAP管理帐户“cnkrbkdc,ouUsers,dchadoop,dccom”和“cnkrbadmin,ouUsers,dchadoop,dccom”是否被锁定,在集群主管理节点上执行如果下命令查看krbkdc是否被锁定(krbadmin用户方法类似): 说明 oldap端口查询方法: 1. 登录FusionInsight Manager,选择“系统 > OMS > oldap > 修改配置”; 2. “Ldap服务监听端口”参数值即为oldap端口。 ldapsearch H ldaps://OMSFLOAT IP地址:OLdap端口 LLL x D cnkrbkdc,ouUsers,dchadoop,dccom W b cnkrbkdc,ouUsers,dchadoop,dccom e ppolicy 输入LDAP管理帐户krbkdc的密码,出现如下提示表示该用户被锁定,则需要解锁用户,具体请参见解锁LDAP用户和管理帐户。 ldapbind: Invalid credentials (49); Account locked 前提条件 已确认主管理节点IP地址。 操作步骤 1.以omm用户通过管理节点IP登录主管理节点。 2.执行以下命令,切换到目录。 cd ${BIGDATAHOME}/omserver/om/meta0.0.1SNAPSHOT/kerberos/scripts 3.执行以下命令,修改LDAP管理帐户密码。 ./okerberosmodpwd.sh 输入旧密码后,再输入两次新密码。 密码复杂度要求: 密码字符长度为16~32位。 至少需要包含大写字母、小写字母、数字、特殊字符~!@
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        帐户管理
        修改系统内部用户密码
        修改LDAP管理帐户密码
      • 单机串接静态路由入云
        步骤五:绑定天翼云SDWAN实例 完成以下操作,通过将智能网关实例加载到SDWAN网络中,实现组网。 1. 登录天翼云SDWAN控制台。 2. 选择“智能网关”,单击目标智能网关实例“操作”列的“绑定网络实例”。 3. 根据页面提示,选择要加入的天翼云SDWAN实例。 4. 单击“确定”,完成智能网关实例绑定天翼云SDWAN实例。 步骤六:绑定云间高速(标准版)实例 完成以下步骤,将SDWAN实例绑定云间高速(标准版)实例,实现企业线下分支访问天翼云VPC资源。 1. 登录天翼云SDWAN控制台。 2. 选择“天翼云SDWAN”,单击目标SDWAN实例“操作”列的“绑定云间高速(标准版)”。 3. 根据页面提示,选择待绑定的云间高速(标准版)实例和其下的云企业路由器实例。 4. 单击“确定”,完成绑定。 步骤七:访问测试 完成上述配置后,您可以通过在线下分支机构的客户端访问已连接的VPC中部署的云资源,验证配置是否生效。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        单机串接静态路由入云
      • 导入证书
        本章节主要介绍翼MapReduce的导入证书操作。 操作场景 CA证书用于FusionInsight Manager各个模块、集群的组件客户端与服务端在通信过程中加密数据,实现安全通信。FusionInsight Manager支持快速导入CA证书,以确保产品安全使用。适用于以下场景: 首次安装好集群以后,需要更换企业证书。 企业证书有效时间已过期或安全性加强,需要更换为新的证书。 对系统的影响 更换证书过程中集群需要重启,此时系统无法访问且无法提供服务。 更换证书以后,所有组件和Manager的模块使用的证书将自动更新。 更换证书以后,还未信任该证书的本地环境,需要重新安装证书。 前提条件 证书文件和密钥文件可向企业证书管理员申请或由管理员生成。 获取需要导入到集群的CA证书文件( .crt)、密钥文件( .key)以及保存访问密钥文件密码的文件(password.property)。证书名称和密钥名称支持大小写字母和数字。以上文件在生成以后需要打包成tar格式压缩包。 准备一个访问密钥文件的密码用于访问密钥文件。 密码复杂度要求如下,如果密码复杂度不满足如下要求,可能存在安全风险: − 密码字符长度最小为8位。 − 至少需要包含大写字母、小写字母、数字、特殊字符~!?,.;'(){}[]/<>@ $%^&+中的4种类型字符。 向证书管理员申请证书时,请提供访问密钥文件的密码并申请crt、cer、cert和pem格式证书文件,以及key和pem格式密钥文件。申请的证书需要有签发功能。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        导入证书
      • 用户组管理
        本章节主要介绍翼MapReduce的用户组管理操作。 操作场景 FusionInsight Manager最大支持5000个用户组(包括系统内置用户组)。根据不同业务场景需要,管理员使用FusionInsight Manager创建并管理不同用户组。用户组通过绑定角色获取操作权限,用户加入用户组后,可获得用户组具有的操作权限。用户组同时可以达到对用户进行分类并统一管理多个用户。 前提条件 管理员已明确业务需求,并已创建业务场景需要的角色。 已登录FusionInsight Manager。 添加用户组 1. 选择“系统 > 权限 > 用户组”。 2. 在组列表上方,单击“添加用户组”。 3. 填写“组名”和“描述”。 “组名”由数字、字母、或下划线、中划线()或空格组成,不区分大小写,长度为1~64位,不能与系统中已有的用户组名相同。 4. 在“角色”,单击“添加”选择指定的角色并添加。 说明 对于已启用Ranger授权的组件(HDFS与Yarn除外),Manager上非系统默认角色的权限将无法生效,需要通过配置Ranger策略为用户组赋权。 HDFS与Yarn的资源请求在Ranger中的策略条件未能覆盖的情况下,组件ACL规则仍将生效。 5. 在“用户”,单击“添加”选择指定的用户并添加。 6. 单击“确定”完成用户组创建。 查看用户组信息 用户组列表默认显示所有用户组。单击指定用户组名称左侧的箭头展开详细信息,可以查看此用户组中的用户数、用户以及绑定的角色。 修改用户组信息 在要修改信息用户组所在的行,单击“修改”,修改用户组信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        权限设置
        用户组管理
      • 境内门店访问海外云资源
        操作场景 某企业已经在海外区域A创建了天翼云VPC并在其中部署了应用服务,现在该企业希望通过天翼云SDWAN服务将境内线下分支机构接入海外天翼云资源池。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经在海外区域A创建了VPC,具体操作,请参见创建虚拟私有云VPC。 操作步骤 步骤一:购买软件智能网关 购买软件智能网关部署到海外资源池的VPC中。您可以通过天翼云官网自行购买智能网关实例,也可以联系客户经理购买智能网关实例。通过天翼云官网自行下单,操作步骤如下: 1. 登录天翼云SDWAN控制台,选择“智能网关”,在“智能网关”页面单击“创建智能网关”,选择“创建智能网关”。 2. 根据页面提示配置参数,部分参数信息可参考如下: 参数 描述 :: 实例名称 智能网关实例名称,长度为164字符,以大小写字母或中文开头,可包含数字、“.”、 “”、“”。 区域 选择设备接入的区域。这里需要选择海外资源池所在的区域,以便部署到海外VPC中。 基础带宽 该分支接入SDWAN骨干网的带宽大小。 是否购买设备 表示是否需要从天翼云购买设备。选择“是”。 网关形态 可选择硬件版、软件版,这里我们选择软件版。 使用方式 表示设备的使用方式。这里选择“单机”。 购买数量 默认为1。这里设置为1。 3. 单击“提交订单”。确认订单信息无误后,勾选“我已阅读并同意相关协议《天翼云SDWAN产品服务协议》”,单击“确认下单”。 4. 订单支付成功后,完成购买。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        境内门店访问海外云资源
      • 新增/测试/编辑/删除非天翼云数据库
        测试非天翼云数据库 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源管理”“数据库”,进入数据库列表页。 5. 点击列表上方标签页中“非天翼云数据库”栏,进入非天翼云数据库列表页。 6. 点击列表操作栏“测试”按钮,测试后状态会同步至列表栏的连接状态中。 编辑非天翼云数据库 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源管理”“数据库”,进入数据库列表页。 5. 点击列表上方标签页中“非天翼云数据库”栏,进入非天翼云数据库列表页。 6. 点击列表操作栏“编辑”按钮,弹出编辑非天翼云数据库弹窗。 7. 填写数据库相关信息,当前数据库实例已被容灾管理中心关联,不支持修改“所属分区”和“数据库类型”,可在解除关联后对其修改。各配置项与新增非天翼云数据库一致。 8. 点击“确认”按钮,完成编辑非天翼云数据库。 删除非天翼云数据库
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源管理
        同步数据库资源
        新增/测试/编辑/删除非天翼云数据库
      • 基于业务日志的运维分析
        步骤二:配置日志采集规则 1. 登录云日志服务控制台。 2. 左侧点击【日志接入】菜单,进入日志接入页面。 3. 点击【新增采集规则】,选择云主机文本日志。 4. 选择日志单元。 1. 点击“所属日志项目”后的目标框,在下拉列表中选择具体的日志项目,若没有所需的日志项目,点击“所属日志项目”目标框后的“新建”,在弹出的创建日志项目页面创建新的日志项目。 2. 点击“所属日志单元”后的目标框,在下拉列表中选择具体的日志单元,若没有所需的日志单元,点击“所属日志单元”目标框后的“新建”,在弹出的创建日志单元页面创建新的日志单元。 5. 选择主机组。 1. 点击【新建主机组】 2. 输入主机组名称。 3. 在已开通云主机列表中,选择您需要采集日志的目标云主机。选中的云主机将打包作为主机组。 4. 点击下一步。 6. 安装采集器。 1. Step1:创建终端节点。安装采集器前,您需要在云主机所在的VPC中创建终端节点,以建立与日志服务的连接通道。 您需要在当前页面检查云主机所在的VPC是否已创建终端节点。若终端节点状态为“未创建”,请点击页面中的【创建终端节点】按钮,并根据页面指引进行开通。 若终端节点状态为“已创建”,您可跳过该步骤。 2. Step2:安装采集器。 1. 首先获取您的AK和SK。如何获取AK/SK? 2. 复制页面中的命令,并使用获取的AK、SK手动替换 {inputyourak} 和 {inputyoursk}。填写值时不需要添加 {}。 3. 以root用户登录待安装采集器的云主机,执行上述命令。当显示“Installed lmtagent successfully”时表示安装成功。注意:目前仅支持X86架构的Linux天翼云云主机。 3. Step3:检查采集器状态中。 点击【检测】按钮,稍等片刻后查看采集器状态,确保所有目标云主机的采集器状态均为已连通。若多次重试后仍无法连通,请查看常见问题中的“云主机采集器无法连通”进行问题排查。 4. 点击下一步。 7. 配置采集规则,请按如下说明配置参数。参数配置完成后,点击下一步。 1. 采集规则名称:输入采集规则的名称,在所属的日志项目内不允许重复。 2. 采集路径:根据日志在服务器上的位置,设置日志目录和文件名称。 如本案例的日志路径为/var/log/nginx/access.log。 3. 设置采集黑名单:默认关闭 4. 采集策略:选择“全量”。 5. 切割模式:针对原始日志执行分词的模式,本案例选择“单行全文”,其它切割模式请查看日志结构化解析。 6. 最大目录深度:保持默认为“5”。 8. 索引配置。(可选项) 本案例中,索引配置保持默认即可,您可直接点击【下一步】。更多详情请查看索引配置。 9. 点击下一步后,接入成功,可以点击【返回接入配置列表】查看日志接入,也可单击【查询日志】查看该日志单元下的采集日志。
        来自:
        帮助文档
        云日志服务
        最佳实践
        基于业务日志的运维分析
      • 查看集群静态资源
        本章节主要介绍翼MapReduce的查看集群静态资源操作。 操作场景 大数据管理平台支持通过静态服务资源池对没有运行在Yarn上的服务资源进行管理和隔离。系统支持基于时间的静态服务资源池自动调整策略,使集群在不同的时间段自动调整参数值,从而更有效地利用资源。 系统管理员可以在FusionInsight Manager查看静态服务池各个服务使用资源的监控指标结果,包含监控指标如下: 服务总体CPU使用率 服务总体磁盘IO读速率 服务总体磁盘IO写速率 服务总体内存使用大小 说明 启用多实例功能后,支持管理HBase所有服务实例使用的CPU、I/O和内存总量。 操作步骤 1. 在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 静态服务池”。 2. 在“配置组列表”,单击一个配置组,例如“default”。 3. 查看系统资源调整基数。 “系统资源调整基数”表示集群中每个节点可以被集群服务使用的最大资源。如果节点只有一个服务,则表示此服务独占节点可用资源。如果节点有多个服务,则表示所有服务共同使用节点可用资源。 “CPU”表示节点中服务可使用的最大CPU。 “Memory”表示节点中服务可使用的最大内存。 4. 在图表区域,查看集群服务资源使用状态指标数据图表。 说明 可通过“为图表添加服务”,将特定服务的静态服务资源数据添至图表,最多可选择12个服务。 管理单个图表的操作,可参见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        静态服务池
        查看集群静态资源
      • 作业依赖详解
        时间点 作业B(小时调度,开始时间00:00,间隔时间10小时) 作业A(天调度,每天02:00执行) 第1天00:00 执行 第1天02:00 检查 [第0天00:00:00, 第1天00:00:00) 区间,无作业B实例运行,不执行 第1天10:00 执行 第1天20:00 执行 第2天00:00 执行 第2天02:00 检查[第1天00:00:00, 第2天00:00:00) 区间,有作业B实例运行完成,执行作业A 第2天10:00 执行 第2天20:00 执行 ... ... ...
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        作业依赖详解
      • 天翼云CDN服务协议
        本文介绍天翼云CDN服务协议。 天翼云全站加速产品采用《天翼云CDN服务协议》,详情请参见:天翼云CDN服务协议。
        来自:
        帮助文档
        全站加速
        相关协议
        天翼云CDN服务协议
      • 数据投递授权
        本节介绍如何执行数据投递投递授权。 操作场景 数据投递新增后,需进行投递权限授予操作,接受授权后,投递才会生效。 前提条件 已新增数据投递。 约束与限制 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面后,选择“数据投递管理”页签,进入数据投递管理页面。 5. 在数据投递管理页面,选择“投递权限授予”页签,进入投递权限授权页面后,单击目标投递任务所在行“操作”列的“接受”。 如需批量接受授权,可以勾选所有需要授权的任务,然后单击列表左上角的“接受”。 授权授予后,目标投递任务授权状态更新为“已授权”,更新后,可前往投递目的地查看投递情况,详细操作请参见查看数据投递情况。 相关操作 在跨租投递权限授权页面可以的投递权限进行拒绝 和取消授权操作: 操作 具体操作方法 拒绝 在目标投递任务所在行“操作”列,单击“拒绝”。 如需批量拒绝授权,可以勾选所有需要拒绝的任务,然后单击列表左上角的“拒绝”。 取消 1. 在目标投递任务所在行“操作”列,单击“取消”。 如需批量取消授权,可以勾选所有需要取消的任务,然后单击列表左上角的“取消”。 2. 在弹出的确认框中,单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        投递日志数据至其他数据管道
        数据投递授权
      • 查询流量,命中流量,流量命中率,回源流量数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询流量,命中流量,流量命中率,回源流量数据
      • 查询状态码请求数,请求状态码占比数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询状态码请求数,请求状态码占比数据
      • 查询回源带宽数据
        时间粒度 可查询历史数据时间范围 数据延迟 2 ≥ 聚合维度个数 ≥ 0 ,支持最大时间跨度 4 ≥ 聚合维度个数 >2 支持最大的时间跨度 1m 最近31天 5分钟 7天 3小时 5m 最近183天 20分钟 31天 1天 1h 最近183天 20分钟 93天 3天 24h 最近183天 20分钟 93天 3天
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询回源带宽数据
      • 使用OceanFS动态存储卷(sharePath模式)
        本节介绍了用户指南:使用OceanFS动态存储卷(sharePath模式)。 云容器引擎支持使用天翼云海量文件存储持久卷。cstorcsi插件支持使用海量文件服务动态存储卷和静态存储卷,通过将存储卷挂载到容器指定目录下,以满足数据持久化需求。 sharePath模式是指将完整的海量文件存储作为持久卷使用。当用户挂载持久卷声明时,海量文件的根目录会被挂载到容器中。 前提条件 已创建容器集群 已在插件市场安装存储插件cstorcsi,插件版本>3.6.0,且插件正常运行。(建议使用>4.0的CSI版本) 使用限制 参见海量文件使用限制 通过控制台使用海量文件动态存储卷 1、创建存储类(StorageClass) 登录“云容器引擎”管理控制台; 在集群列表页点击进入指定集群; 进入主菜单“存储”——“存储类”,单击左上角“创建”; 在创建对话框,配置存储类StorageClass的相关参数。配置项说明如下: 配置项 说明 名称 StorageClass的名称。 存储类型 当前支持云盘、弹性文件、对象存储、并行文件、海量文件,这里选择海量文件。 具体创建页中展示的存储类型由当前资源池支持情况决定。 存储驱动 采用默认CSI驱动 模式 新建海量文件:每次创建持久卷申明时,均创建一个新的海量文件与之对应。 新建子目录:基于某个已经存在的海量文件,每次创建持久卷申明时,在这个海量文件上创建一个子目录与之对应。 计费模式 可以选择按需计费或者包年包月 回收策略 回收策略,默认为Deleted。 Retained(保留):用户可以手动回收资源。当 PVC对象被删除时,PV 卷仍然存在,对应的数据卷被视为"已释放(released)"。 Deleted(删除):对于支持 Delete 回收策略的卷插件,删除动作会将 PV对象从 Kubernetes 中移除,同时也会从外部基础设施中移除所关联的存储资产。 如果对数据安全性要求高,推荐使用Retain方式,以免误删数据。 绑定策略 绑定策略,默认为Immediate。 Immediate 模式:表示一旦创建了 PVC,也就完成了卷绑定和动态供应。 对于由于拓扑限制而非集群所有节点可达的存储后端,PV会在不知道 Pod 调度要求的情况下绑定或者制备。 WaitForFirstConsumer模式: 该模式将延迟 PV的绑定和制备,直到使用该 PVC的 Pod 被创建。 PV会根据 Pod 调度约束指定的拓扑来选择或供应。 支持扩容 默认该开关是打开的,一般也建议打开。 如果关闭该开关,则使用该存储类的pvc,无法被扩容。 挂载选项 挂载参数,用户可根据自己的情况实际定制相关参数。 注意 请务必在挂载时使用noresvport参数,该参数可以在网络故障时自动切换端口,保障网络连接,防止文件系统卡住。挂载参数的说明参见 查看这里 参数 存储类型:参数键为type,支持参数值如下: massive :容量型 可用区:选择随机,或者指定具体的某个可用区。建议与存储产品确认,哪些可用区有对应的云硬盘类型,再进行选择。 存储标签:创建存储资源时,给存储资源添加对应的标签,注意,该标签不是K8S的label,而是存储侧的资源标签,需要在存储控制台或者云资源视图查看。 参数配置完成后,点击“确定”。创建成功后,可以在存储类列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        海量文件
        使用OceanFS动态存储卷(sharePath模式)
      • 使用Cubecni网络插件
        优缺点 Cubecni容器网络优点如下: 同个VPC内,集群外部网络资源可与容器IP互通; 没有解封包和节点路由消耗,容器网络性能优于隧道网络; SLB可直通容器后端,无需经节点NodePort转发,性能更优; 容器访问VPC网络资源,其源IP是容器IP,无需经过节点SNAT,减少节点netfilter连接跟踪表消耗,性能更优且便于审计。 Cubecni容器网络缺点如下: Pod直接使用VPC的IP地址,数量受限于VPC子网的可用IP数,需提前规划。 应用场景 Cubecni容器网络适用如下场景: 适用于需pod能与VPC集群外网络资源互通的场景,如部分业务部署在云主机部分部署在容器的复杂系统,可能需要打通云主机网络和容器网络; 适用于对网络带宽和时延要求高的业务场景,例如游戏、直播类应用; 高性能计算场景,IPVLAN等使用的CPU资源少于隧道网络,为业务本身留出更多计算资源。 容器IP地址段分配 订购使用Cubecni容器网络插件的集群,需为Cubecni选择一个VPC子网。该子网用于为容器提供IP地址,其空闲IP数直接决定可创建pod数上限。建议选择一个大子网给集群使用,如下所示,创建一个掩码为18位的子网,其可用IP为16382个,可为16382个pod分配IP地址: 订购时选择大子网作为pod子网:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        使用Cubecni网络插件
      • 基本详情
        本章节介绍数据库治理的基本详情 概述 数据库治理针对开发运维人员访问、使用数据库时的常见场景,提供SQL访问审计、数据库稳定性治理、数据流量治理三个方面的能力。MSE提供了SQL监控统计、SQL流量防护、连接池治理、数据库灰度、数据库读写路由等功能,可以从数据库服务维度进行开发提效和性能优化。 基本详情 基本详情页提供应用SQL访问流量和应用资源的实时统计数据。根据数据库相关的应用实时指标,可以及时发现由数据库访问引起的应用性能下降问题,并定位高并发或高RT的SQL以及异常的数据库连接,从而支撑后续SQL语句优化、SQL接口流量防护和连接池配置等系统调优操作。 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择数据库治理,在基本详情页签下可以查看应用的SQL流量概览、应用事件、Top SQL洞察和Druid连接池统计数据。 SQL流量概览 可以查看应用在一定时间内SQL流量的通过QPS、限流QPS、异常QPS指标、RT、并发数据。 应用事件 可以查看SQL请求触发的应用防护事件。 Top SQL洞察 可以查看相对高RT的SQL语句及其QPS、RT和并发数据,快速定位SQL对应用业务的具体影响。并且可以通过单击操作下方的SQL防护,管理和配置SQL接口的流量控制和并发隔离规则。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        数据库治理
        基本详情
      • 备份概述
        本节主要介绍备份简介、适用场景、备份原理以及备份优势等。 备份简介 备份提供基于异地快照技术的数据保护,目前支持系统盘和数据盘的备份,较之于快照,属于异地容灾,数据安全性更高,但成本也会更高。 适用场景 业务连续性和灾难恢复 发生硬件故障、系统崩溃、人为误操作或者遭受黑客攻击等风险时,可以快速从备份中恢复数据和系统配置,确保业务能够迅速恢复正常运行。 应用程序和数据库保护 企业内部部署在云上的关键应用程序以及相关的数据库(如MySQL、SQL Server、Oracle等),需要频繁且可靠的备份以防止数据丢失。 开发与测试环境 开发团队在构建新的软件版本或进行性能测试时,可以利用备份快速克隆生产环境的数据到测试环境中,提高工作效率并降低出错风险。 法规遵从性 对于需要遵循行业规定和法律法规的企业,定期备份数据是满足合规要求的重要手段,以确保数据安全和审计追踪。 备份原理 首次备份为全量备份,后续采用增量备份。如某磁盘大小为500GB,已使用空间为100GB,则备份的是100GB的已使用空间,压缩的原因实际占用略小于100G。后续备份均为增量备份,备份上次备份后变化的数据,缩短备份时长、节约备份空间。删除备份时,如果删除的是增量备份,可以直接删除;如果删除的是全量备份会导致依赖的增量备份不可用,故删除全量备份时需谨慎操作。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        备份
        备份概述
      • 功能特性
        本章主要介绍功能特性 表 软件开发生产线各服务功能特性 服务名 功能特性 需求管理 提供多项目管理、敏捷迭代管理、里程碑管理、需求管理、缺陷跟踪、多维度统计报表等功能。 迭代计划和时间线,有效管理项目计划。 树表、任务墙等多种视图,方便查看项目工作。 多种项目统计图表,随时掌握项目开展情况。 在线文件库,批量文档托管,信息传递不失真。 代码托管 提供安全、可靠、高效的分布式代码托管服务。包括代码克隆/下载/提交/推送/比较/合并/分支等功能。 基于Git的分布式版本控制,提升跨地域跨团队协同开发效率。 关联项目任务,保障项目高效交付。 增强的安全防护能力,IP白名单与代码仓库访问日志审计。 代码仓库提交信息统计,基于时间轴的贡献者代码提交统计。 代码检查 提供可协作的一站式代码检查服务。 一站式:覆盖主流编程语言、主流编码标准、SDLC集成等。 灵活易用的检查方式:支持代码提交检查、定时执行检查,支持多分支检查。 可协作:提供问题责任人自动归属、提供问题修改建议、可聚焦处理新问题等。 编译构建 快速、安全的云上编译构建服务。 内置C/C++/Java/…等主流语言的构建模板,并支持自定义构建模板。 可配置执行计划,支持开启提交代码触发执行、定时执行等多种构建执行计划。 界面傻瓜式配置,无需用户编写构建配置文件。 同时支持容器镜像和通用软件包的归档。 构建完成时支持消息通知。 内置支持主流语言的构建环境镜像,也可使用自定义构建环境镜像。 支持多个构建步骤,可实现构建过程的灵活编排。 部署 提供可视化、一键式部署服务,支持并行部署和流水线无缝集成。 提供丰富的部署步骤,满足用户不同的部署场景。 支持对虚拟主机部署、物理主机部署、容器部署以及微服务应用部署等多种部署形态。 支持文件的复制、删除、修改、解压;支持Ansible、Shell命令、Shell脚本等通用部署能力。 部署界面简洁化配置,无须编写部署脚本。支持部署步骤的拖拉拽灵活编排。 预置Tomcat、SpringBoot、Django等系统模板,同时支持用户创建自定义模板。基于部署模板库,可以制 标准的部署流程,实现的快速创建,方便团队内部推广。 提供错误日志分析能力,对于失败的情况,支持错误日志关键字匹配FAQ,并提供详细的排查解决方案。 支持自定义参数,在时由用户指定参数值,用指定值替换相应参数部署。 提供对主机和主机组管理能力。支持主机(组)的增删改查;支持主机批量删除,批量连通性验证;主机连通 支持EIP直连、代理机连接以及模式下的VPC直连。 和主机组均支持项目下角色和权限的二维矩阵。 测试计划 提供业内首推一站式自动化测试工厂解决方案,覆盖测试设计、测试用例、测试管理、接口自动化测试。 DevOps敏捷测试理念,打通测试计划、测试设计、测试用例、测试执行和测试报告的全流程测试活动,提供缺陷上报、质量看板等方式多维度评估产品质量,帮助用户高效管理测试活动,保障产品高质量交付。 测试设计:使用启发式思维导图的形式进行测试用例设计和评审,更加直观,效率更高。支持Xmind直接导入生成在线思维导图测试设计;支持在线编辑思维导图; 支持4层测试设计方法(特性场景功能点用例);一键批量生成测试用例;覆盖功能、接口、安全等全领域测试设计,输出测试方案;可以通过测试策略模板快速创建用例,也可以自定义模板形成自己的测试资产。 测试管理:成熟的测试用例管理系统,可以开展用例设计、测试执行、缺陷提交、质量报告,提高测试效率;记录修改历史,避免漏测、误测,易追溯审计,规范测试流程。融入全生命周期追溯、测试计划、团队多角色协作、敏捷测试、需求驱动测试等理念,覆盖测试需求管理、测试任务分配、测试任务执行、测试进度管理、测试覆盖率管理、测试结果管理、缺陷管理、质量报告、测试仪表盘,一站式管理功能,提供适合不同团队规模、流程的自定义能力。 接口自动化测试:基于接口URL或者Swagger文档生成的接口脚本模板快速编排接口测试用例,集成流水线,支持微服务测试。测试用例免代码编写,技术门槛低,适合接口开发者、接口消费者、测试人员、业务人员等不同角色使用。一键导入Swagger接口定义自动生成脚本模板,基于脚本模板组装编排、管理接口自动化测试用例。支持HTTP和HTTPS协议,可视化用例编辑界面,丰富的预置检查点、内置变量,支持自定义变量、参数传递、持续自动化测试。 制品仓库 面向软件开发者提供制品管理的云服务,提供软件仓库、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 支持文件重命名、批量删除、批量恢复、页面上传和下载、文件名搜索等文件操作。 编译构建属性自动关联软件包,编译构建的产物自动归档到软件发布库。 支持构建服务一键归档、部署服务从发布库一键获取软件包。 支持Maven、npm、Go、PyPI、RPM、Debian等多种制品类型仓库,支持新建仓库、上传下载制品、搜索制品等能力。 流水线 提供可视化、可编排的CI/CD持续交付软件生产线,帮助企业快速转型实现DevOps持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线自定义编排:可根据用户使用场景的需要,对构建、代码检查、子流水线、部署、流水线控制(延时执行、人工审核)、接口测试等多种类型的任务进行纳管和执行编排。 流水线可视化增删改查:提供图形化界面基础的流水线创建、编辑、删除和执行状态查看功能。其中,查看功能支持跳转到对应的自动化任务界面查看其日志等详情信息。 流水线权限管理:支持用户针对流水线任务设置指定帐号的权限控制,权限基于帐号所属角色操作权限进行控制,包含基础的查看、编辑、执行、删除权限控制。 流水线历史执行记录:支持查看流水线最近31天的历史执行记录。 流水线消息通知:用户可根据需要设置事件类型的通知状态,包括是否发送服务动态和邮件通知。 流水线部分任务执行:根据用户需求,可选择流水线中的某一个或多个任务单独执行。 流水线执行参数配置:流水线支持自定义参数,在执行时由用户指定参数值,任务用指定值替换相应参数执行。 流水线串/并行执行配置:根据用户需求,可配置同一阶段内的任务串行执行或并行执行。 说明 若您在使用软件开发生产线过程中所填写或上传的数据,可能有不确定的用户数据涉及敏感信息,为确保数据安全,请优先加密。
        来自:
        帮助文档
        软件开发生产线CodeArts
        产品介绍
        功能特性
      • 查看集群服务配置
        本章节主要介绍翼MR Manager的集群服务配置的查看操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab,即可查看该集群服务的所有配置。如图所示: 7. 对于隐私配置项,默认将加密展示,点击文本框右侧查看按钮,输入配置主密码即可查看。如果当前集群开通后未设置过主密码,请参考用户手册的配置管理主密码设置,设置主密码后,进行查看。 说明运维变量配置 在服务的default分组下,以vars.yaml后缀结尾的配置文件,为运维变量配置文件。运维变量配置文件不是服务本身的配置文件,而是存放Manager运维操作变量的文件,每个运维变量的含义如下表。 组件 运维变量名 是否建议修改 含义说明 HDFS activenamenode 否 部署时使用,在这台机器上执行format操作。 HDFS kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HDFS ldapGuestPassword 否 部署和扩容时使用,连接ldap的guest用户密码,此权限只能查看用户,不能创建用户。 HDFS ldapuri 否 部署和扩容时使用,配置ldap的连接地址。 HDFS dfsclusterId 否 部署时使用,ns的默认值。 HDFS pipelinejobretrytimes 是 流水线重试次数。 HDFS jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 YARN 无 共享HDFS运维变量。 ZooKeeper kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 ZooKeeper kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 ZooKeeper zksuperuser 否 部署和扩容时使用,配置zk的超级用户。 ZooKeeper zksuperuserpasswd 否 部署和扩容时使用,配置超级用户的密码。 ZooKeeper componentuser 否 暂未使用。 ZooKeeper dataLogDir 否 部署时使用,需要通过ansbile创建目录。 ZooKeeper dataDir 否 部署时使用,需要通过ansbile创建目录。 Kerberos kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 Kerberos kdcmaster 否 部署时使用,指定master节点,执行master节点的操作。 Kerberos kdcslave 否 部署时使用,指定slave节点,执行slave节点的操作。 Kerberos kerberosdatabasepasswd 否 部署时使用,配置kerberos的数据库密码。 Kerberos kerberosadminuser 否 部署时使用,配置kerberos的admin用户。 Kerberos kerberosadminpasswd 否 部署时使用,配置kerberos的admin用户密码。 OpenLDAP ldapmasterhostname 否 部署时使用,指定master节点,执行master节点的操作。 OpenLDAP ldapslavehostname 否 部署时使用,指定slave节点,执行slave节点的操作。 OpenLDAP olcRootDN 否 部署时使用,服务配置。 OpenLDAP olcSuffix 否 部署时使用,服务配置。 OpenLDAP ldapAdminPwd 否 部署时使用,admin用户的密码。 OpenLDAP ldapGuestPwd 否 部署时使用,guest用户的密码。 OpenLDAP ldapuri 否 部署时使用,ldap的连接信息。 OpenLDAP ldapBaseUgDN 否 部署时使用,服务配置。 OpenLDAP pipelinejobretrytimes 是 流水线重试次数。 OpenLDAP jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 HBase kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HBase pipelinejobretrytimes 是 流水线重试次数。 HBase jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Spark kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Spark ldapmaster 否 部署时使用,ldap的master节点。 Spark eventlogdir 否 部署时使用,通过ansible创建目录。 Spark sparkhome 否 部署时使用,通过ansible创建目录。 Hive kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Hive ldapmaster 否 部署时使用,ldap的master节点。 Hive databasepass 否 部署时使用,hive使用的数据库密码,需要用户填写。 Kafka kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 Kafka kerberosrealm 否 kerberos的realm的信息。 Kafka logdirs 否 (目前不再使用,通过从配置文件中渲染来创建目录)部署和扩容时使用,通过ansible创建目录。 Kafka pipelinejobretrytimes 是 流水线重试次数。 Kafka jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Kyuubi kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Kyuubi ldapmaster 否 部署时使用,ldap的master节点。 Kyuubi kyuubilogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubieventlogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubiworkdir 否 目录。部署时使用,通过ansible创建。 Kyuubi adminuser 否 目录的属主。 Kyuubi usergroup 否 目录的属组。 Kyuubi pipelinejobretrytimes 是 流水线重试次数。 Kyuubi jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Flink kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Flink ldapmaster 否 部署时使用,ldap的master节点。 Flink logDir 否 目录。部署时使用,通过ansible创建。 Flink HistoryServerDir 否 目录。部署时使用,通过ansible创建。 Flink pipelinejobretrytimes 是 流水线重试次数。 Flink jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Elasticsearch CERTNODE 否 部署时使用,指定证书节点,在节点上执行生成证书的操作。 Elasticsearch ESDATADIRS 否 目录。部署时使用,通过ansible创建。 Elasticsearch ESDEFAULTPASSWORD 否 部署时使用。默认的密码,随机密码。 Doris FEDEFAULTLEADERHOSTNAME 否 部署和扩容时使用,指定leader节点,在上面执行leader的相关操作。 Doris FEDEFAULTPASSWORD 是 部署时随机生成的Doris组件root密码。节点扩容需要使用该密码,如用户已修改,需要设置正确的值,否则会影响扩容操作。 Doris FEHTTPPORT 否 服务端口,不推荐修改。 Doris FEQUERYPORT 否 服务端口,不推荐修改。 Doris FEEDITLOGPORT 否 服务端口,不推荐修改。 Doris BESTORAGEROOTPATH 否 服务端口,不推荐修改。 Doris BEHEARTBEATSERVICEPORT 否 服务端口,不推荐修改。 Doris BROKERIPCPORT 否 服务端口,不推荐修改。 Trino datadir 否 目录。部署和扩容时使用,通过ansible创建。 Trino kerberosrealm 否 kerberos的realm的信息。 Trino kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Trino ldapmaster 否 部署时使用,ldap的master节点。 Trino coordinator 否 部署和扩容时使用,指定主节点,在上面执行主节点的相关操作。 Trino uiuser 否 ui的用户。 Trino uipassword 否 ui的密码,部署时随机生成。 Trino serveruser 否 server的用户。 Trino serverpassword 否 server的密码,部署时随机生成。 Trino pipelinejobretrytimes 是 流水线重试次数。 Trino jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Ranger dbhost 否 外置数据库信息,需要用户填写。 Ranger dbname 否 外置数据库信息,需要用户填写。 Ranger dbuser 否 外置数据库信息,需要用户填写。 Ranger dbpassword 否 外置数据库信息,需要用户填写。 Ranger dbrootuser 否 部署时使用,ranger使用的外置数据库信息。 Ranger dbrootpassword 否 部署时使用,ranger使用的外置数据库信息。 Ranger rangerpassword 否 ranger admin用户密码。 Ranger SYNCLDAPBINDPASSWORD 否 部署时使用,ranger访问ldap的密码。 Ranger SYNCSOURCE 否 用户同步方式,ldap。 Ranger kerberosrealm 否 kerberos的realm的信息。 Ranger kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Ranger SYNCLDAPURL 否 ldap相关信息。 Ranger POLICYMGRURL 否 ranger admin url信息。 Ranger separatedbamode 否 是否单独执行DBA,默认true,表示需要提前创建ranger使用的数据库和用户,并授权,不推荐修改。 Ranger pipelinejobretrytimes 是 流水线重试次数。 Ranger jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Knox kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Logstash pipelinejobretrytimes 是 流水线重试次数。 Logstash jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 JeekeFS kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI ldapGuestPassword 否 部署时使用,Openldap的guest用户密码。 Pushgateway PUSHGATEWAYPASSWORD 否 部署时使用,Pushgateway服务的密码。 Pushgateway PUSHGATEWYUSERNAME 否 部署时使用,Pushgateway服务的用户名。 TezUI pipelinejobretrytimes 是 流水线job最大重试次数。 TezUI jobretrybasedonpipelinetypes 否 基于的流水线类型。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        查看集群服务配置
      • 单机旁挂静态路由入云
        步骤四:配置静态路由 完成以下操作配置静态路由,使得云上云下能够互通。 1. 登录天翼云SDWAN控制台,选择“智能网关”,单击目标智能网关实例名称,进入智能网关详情页。 2. 在详情页,单击“静态路由 >添加”。 3. 根据页面提示,填写目的网段和下一跳等参数。 4. 单击“确定”,完成静态路由配置。 步骤五:绑定天翼云SDWAN实例 完成以下操作,通过将智能网关实例加载到SDWAN网络中,实现组网。 1. 登录天翼云SDWAN控制台。 2. 选择“智能网关”,单击目标智能网关实例“操作”列的“绑定网络实例”。 3. 根据页面提示,选择要加入的天翼云SDWAN实例。 4. 单击“确定”,完成智能网关实例绑定天翼云SDWAN实例。 步骤六:绑定云间高速(标准版)实例 完成以下步骤,将SDWAN实例绑定云间高速(标准版)实例,实现企业线下分支访问天翼云VPC资源。 1. 登录天翼云SDWAN控制台。 2. 选择“天翼云SDWAN”,单击目标SDWAN实例“操作”列的“绑定云间高速(标准版)”。 3. 根据页面提示,选择待绑定的云间高速(标准版)实例和其下的云企业路由器实例。 4. 单击“确定”,完成绑定。 步骤七:访问测试 完成上述配置后,您可以通过在线下分支机构的客户端访问已连接的VPC中部署的云资源,验证配置是否生效。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        单机旁挂静态路由入云
      • 解绑网络实例
        您可以根据需求将智能网关与天翼云SDWAN实例或者云专线进行解绑。 操作场景 用户将智能网关与天翼云SDWAN实例或者专线解绑。 解绑后,用户线下分支机构将无法通过智能网关实例接入天翼云。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成SDWAN实例、智能网关实例和云专线的创建,且完成绑定操作。 如果需要解绑SDWAN,请先解绑云专线。 操作步骤 解绑云专线 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本节我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”;进入天翼云SDWAN总览页面。 4. 选择“智能网关”,单击目标智能网关“操作”列的“解绑网络实例”。 5. 在解绑网络实例页面,网络类型选择“专线”。 6. 确认无误后,单击“确定”,完成解绑操作。 解绑SDWAN 1. 在天翼云SDWAN总览页面,选择“智能网关”,单击目标智能网关“操作”列的“解绑网络实例”。 2. 在解绑网络实例页面,网络类型选择“SDWAN”。 3. 确认无误后,单击“确定”,完成解绑操作。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关通用配置
        解绑网络实例
      • Skills
        技能:selfimproving 描述:让 AI“越用越顺手”的核心引擎。它能通过自我反思和记忆组织,逐渐适配你的个人风格,提供个性化的服务。 提示词:刚才那个任务你做得不够好,下次记得先找我确认方案再动手。 技能:skillvetter 描述:系统的安全守门员。在安装第三方技能前,它会自动进行安全审计,扫描是否存在恶意软件、隐私泄露风险或过度权限请求,确保你的 OpenClaw 环境安全无毒。 提示词:在装这个新技能之前,先帮我检查一下它安全吗? 技能:stockwatcher 描述:个人投资者的掌上助理。支持管理自定义的股票观察列表,实时查询个股的市场表现、价格波动及相关资讯,方便你随时追踪投资动态。 提示词:帮我看看腾讯控股(00700)今天的股价表现怎么样? 技能:summarize 描述:高效的信息降噪工具。支持处理多种格式的数据源,能快速提炼核心要点,节省阅读时间。 提示词:帮我总结这个链接里的文章重点:[粘贴网址]。 技能:tavilysearch 描述:专为 AI 代理优化的实时搜索引擎。只需简单配置,它能理解复杂的自然语言意图,从海量网页中筛选出最高质量的信息源,为回答提供准确的实时数据支持。 提示词:帮我搜索一下 2026 年最新的 AI 发展趋势。 配置方式: a.注册登录tavily:< b.进入首页,点击API Keys创建密钥,填好相关信息后提交。 c.复制API密钥,并粘贴到:C:UsersAdministrator.openclaw.env文件中。
        来自:
        帮助文档
        天翼云电脑(政企版)
        最佳实践
        OpenClaw云电脑指南
        Skills
      • Skills
        技能:selfimproving 描述:让 AI“越用越顺手”的核心引擎。它能通过自我反思和记忆组织,逐渐适配你的个人风格,提供个性化的服务。 提示词:刚才那个任务你做得不够好,下次记得先找我确认方案再动手。 技能:skillvetter 描述:系统的安全守门员。在安装第三方技能前,它会自动进行安全审计,扫描是否存在恶意软件、隐私泄露风险或过度权限请求,确保你的 OpenClaw 环境安全无毒。 提示词:在装这个新技能之前,先帮我检查一下它安全吗? 技能:stockwatcher 描述:个人投资者的掌上助理。支持管理自定义的股票观察列表,实时查询个股的市场表现、价格波动及相关资讯,方便你随时追踪投资动态。 提示词:帮我看看腾讯控股(00700)今天的股价表现怎么样? 技能:summarize 描述:高效的信息降噪工具。支持处理多种格式的数据源,能快速提炼核心要点,节省阅读时间。 提示词:帮我总结这个链接里的文章重点:[粘贴网址]。 技能:tavilysearch 描述:专为 AI 代理优化的实时搜索引擎。只需简单配置,它能理解复杂的自然语言意图,从海量网页中筛选出最高质量的信息源,为回答提供准确的实时数据支持。 提示词:帮我搜索一下 2026 年最新的 AI 发展趋势。 配置方式: a.注册登录tavily:< b.进入首页,点击API Keys创建密钥,填好相关信息后提交。 c.复制API密钥,并粘贴到:C:UsersAdministrator.openclaw.env文件中。
        来自:
        帮助文档
        天翼云电脑(公众版)
        OpenClaw云电脑指南
        Skills
      • 网格安全概述
        本章节进行网格安全能力概述 概述 单体应用发展成微服务架构带来了诸多便利,业务迭代更加敏捷,扩展性更好,同时为服务架构也带了新的安全考虑,如: 微服务之间通信安全问题,如何防止中间人攻击。 微服务之间的访问控制问题,对于敏感服务和信息,如何限制微服务之间的访问。 微服务之间访问频繁且关系复杂,如何追溯服务之间的调用情况,需要具备审计能力。 服务网格的安全机制提供了零信任的安全机制,很好地解决了以上问题。 服务网格安全架构 服务身份及证书管理 身份是安全的基础,只有给每个服务赋予一个身份才能在服务相互访问时对各方的身份进行认证以及对操作进行鉴权。服务网格使用证书作为网格内工作负载的身份标识,服务网格负载网格内工作负载的身份证书颁发、轮换等,为网格安全提供基础能力。 身份认证 服务网格提供两种认证机制: 对等身份认证:用于sidecar代理之间通信时的身份认证,解决sidecar之间身份认证和通信加密问题,支持基于工作负载证书的mTLS双向认证。 请求身份认证:用于外部请求进入网格内的身份认证,支持JWT及OIDC的认证方式。 授权 在微服务通信中,确定了双方的身份之后,我们还需要对客户端是否有权限访问服务端的资源进行权限检查。当前服务网格支持全局、命名空间和工作负载级别的授权策略控制,同时支持集成外部授权服务能力。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        网格安全概述
      • 表引擎概述
        VersionedCollapsingMergeTree VersionedCollapsingMergeTree引擎是云数据库ClickHouse的一种存储引擎,它是基于CollapsingMergeTree引擎的一种变体。VersionedCollapsingMergeTree引擎适用于需要对数据进行合并和聚合,并且需要保留历史版本的场景。 VersionedCollapsingMergeTree引擎的主要特点和功能包括: 1. 主键合并:具有相同主键值的行将被合并为一行,减少数据冗余和存储空间。 2. 数据排序:数据按照主键范围进行排序,以支持快速查询和按照主键范围删除数据。 3. 聚合函数:可以对合并后的行应用聚合函数,如SUM、MAX、MIN等,以获取合并后的结果。 4. 历史版本:VersionedCollapsingMergeTree引擎会保留历史版本的数据,可以按照版本进行查询和回溯。 5. 索引:引擎会为主键创建索引,提高查询和删除操作的效率。 下面是一个使用VersionedCollapsingMergeTree引擎创建表的示例: sql CREATE TABLE mytable ( date Date, id Int32, value Float64, flag Int8, version UInt32 ) ENGINE VersionedCollapsingMergeTree(8192, version) PARTITION BY toYYYYMM(date) ORDER BY (date, id) 在上述示例中,我们创建了一个名为mytable的表,它包含了日期(date)、ID(id)、值(value)、标志(flag)和版本(version)五个列。使用VersionedCollapsingMergeTree引擎,并根据版本(version)进行主键合并。表的数据按照日期和ID进行排序,并按照年月进行分区。 VersionedCollapsingMergeTree引擎适用于需要对具有相同主键值的数据进行合并和聚合,并且需要保留历史版本的场景,例如审计日志、数据变更记录等应用。它能够减少数据冗余,提供数据的历史版本查询和回溯功能,为数据分析和数据溯源提供便利。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        表引擎概述
      • 如何验证IP地址归属是否属于天翼云节点IP
        本文介绍如何验证IP地址是否属于天翼云节点IP。 问题概述 本文主要介绍针对指定的IP,如何验证该IP是否为天翼云节点的IP地址。 验证说明 当前天翼云支持采用调用API接口方式,验证IP是否属于天翼云IP,详情请参见:查询IP地址归属详情。 示例: 请求: 返回结果:参数cdnip:返回"true"表示属于天翼云IP;"false"表示不属于天翼云IP。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        如何验证IP地址归属是否属于天翼云节点IP
      • 边缘接入套餐超出资费
        弹性峰值(Gbps) 标准价格 0Gbps<弹性峰值≤10Gbps 860元/天 10Gbps<弹性峰值≤20Gbps 1760元/天 20Gbps<弹性峰值≤30Gbps 2660元/天 30Gbps<弹性峰值≤40Gbps 3260元/天 40Gbps<弹性峰值≤50Gbps 4060元/天 50Gbps<弹性峰值≤60Gbps 4960元/天 60Gbps<弹性峰值≤70Gbps 5760元/天 70Gbps<弹性峰值≤80Gbps 6560元/天 80Gbps<弹性峰值≤100Gbps 8160元/天 100Gbps<弹性峰值≤150Gbps 15060元/天 150Gbps<弹性峰值≤200Gbps 20160元/天 200Gbps<弹性峰值≤500Gbps 66660元/天 500Gbps<弹性峰值 98860元/天
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        边缘接入计费模式
        边缘接入套餐超出资费
      • 安全与加速扩展服务资费
        弹性峰值(Gbps) 标准价格 0Gbps<弹性峰值≤10Gbps 860元/天 10Gbps<弹性峰值≤20Gbps 1760元/天 20Gbps<弹性峰值≤30Gbps 2660元/天 30Gbps<弹性峰值≤40Gbps 3260元/天 40Gbps<弹性峰值≤50Gbps 4060元/天 50Gbps<弹性峰值≤60Gbps 4960元/天 60Gbps<弹性峰值≤70Gbps 5760元/天 70Gbps<弹性峰值≤80Gbps 6560元/天 80Gbps<弹性峰值≤100Gbps 8160元/天 100Gbps<弹性峰值≤150Gbps 15060元/天 150Gbps<弹性峰值≤200Gbps 20160元/天 200Gbps<弹性峰值≤500Gbps 66660元/天 500Gbps<弹性峰值 98860元/天
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        安全与加速计费模式
        安全与加速扩展服务资费
      • SparkSQL访问Hive分区表启动Job前耗时较长如何处理?
        本章节主要介绍翼MapReduce组件Spark使用的常见问题。 问题说明 使用Spark SQL 访问Hive 表的一个表分区,但是运行速度却很慢。 分析样例: select x,y from test where x1 (其中x是test表的 Partition 字段) 原因分析 按照spark 源码逻辑,在解析逻辑计划时候回去调用 getPartitionsByFilter方法 去hive中只提取 x1 分区信息。 但是由于一些原因,导致getPartitionsByFilter 的谓词下推失败,从而去全表扫描所有test的分区信息,并返回。 例如,我们x字段是String类型,但是我们的SQL中不是 where x’1’ ,而是where x1 ,这就导致了谓词下推失败。 出现hive分区表谓词下推失败的情况,我们可以做如下处理: 我们需要去检查sql中的写法是否正确。 可以关闭SQL逻辑计划解析过程中的谓词下推逻辑。 处理步骤 关闭SQL逻辑计划解析过程中的谓词下推逻辑,具体是Spark SQL默认开启基于分区统计信息的执行计划优化,相当于自动执行Analyze Table(默认开启的设置方法为spark.sql.statistics.fallBackToHdfstrue,可通过配置为false关闭)。 开启后,SQL执行过程中会扫描表的分区统计信息,并作为执行计划中的代价估算,例如对于代价评估中识别的小表,会广播小表放在内存中广播到各个节点上,进行join操作,大大节省shuffle时间。 此开关对于Join场景有较大的性能优化,但是会带来 获取分区表信息RPC请求 的增加。 在SparkSQL中设置以下参数后再运行: set spark.sql.statistics.fallBackToHdfsfalse; 或者在启动之前使用conf设置这个值为false: conf spark.sql.statistics.fallBackToHdfsfalse
        来自:
        帮助文档
        翼MapReduce
        常见问题
        大数据业务开发
        SparkSQL访问Hive分区表启动Job前耗时较长如何处理?
      • 1
      • ...
      • 77
      • 78
      • 79
      • 80
      • 81
      • ...
      • 280
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      推荐文档

      服务案例

      分布式消息服务的功能

      基本功能

      拍照核验相关问题

      迁移

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号