活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      边缘容器集群(ECK专有版)_相关内容
      • MongoDb监控
        本文主要介绍 MongoDb监控 介绍APM采集的MongoDb监控指标的类别、名称、含义等信息。 表 MongoDb监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 获取连接详情(connection,获取连接详情。) host 所连接的host 所连接的host ENUM LAST 获取连接详情(connection,获取连接详情。) concurrentMax 最大并发 最大并发 INT MAX 获取连接详情(connection,获取连接详情。) invokeCount 调用次数 调用次数 INT SUM 获取连接详情(connection,获取连接详情。) totalTime 总时间 总时间 INT SUM 获取连接详情(connection,获取连接详情。) errorCount 错误次数 错误次数 INT SUM 获取连接详情(connection,获取连接详情。) maxTime 最慢调用 最慢调用 INT SUM 获取连接详情(connection,获取连接详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 获取连接详情(connection,获取连接详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 获取连接详情(connection,获取连接详情。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM 获取连接详情(connection,获取连接详情。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM 获取连接详情(connection,获取连接详情。) range5 110s 响应时间在110s范围请求数 INT SUM 获取连接详情(connection,获取连接详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 获取连接详情(connection,获取连接详情。) openedCount 连接打开次数 连接打开次数 INT SUM 获取连接详情(connection,获取连接详情。) closedCount 连接关闭次数 连接关闭次数 INT SUM 获取连接详情(connection,获取连接详情。) idleClosedCount 因闲置过久被关闭次数 因闲置过久被关闭次数 INT SUM 获取连接详情(connection,获取连接详情。) lifeClosedCount 因存活超过限定时长被关闭次数 因存活超过限定时长被关闭次数 INT SUM 获取连接详情(connection,获取连接详情。) errorClosedCount 因错误被关闭次数 因错误被关闭次数 INT SUM 获取连接详情(connection,获取连接详情。) staleClosedCount 因连接池清除被关闭次数 因连接池清除被关闭次数 INT SUM 获取连接详情(connection,获取连接详情。) poolClosedClosedCount 因连接池关闭被关闭次数 因连接池关闭被关闭次数 INT SUM 异常(exception,MongoDb调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,MongoDb调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,MongoDb调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,MongoDb调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,MongoDb调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST 集群信息(clusterInfo,集群信息。) clusterId 集群id 集群id ENUM LAST 集群信息(clusterInfo,集群信息。) hosts 客户端设置的集群节点信息 客户端设置的集群节点信息 STRING LAST MongoDb调用监控(client,MongoDb调用监控。) namespace 命名空间 MongoDb操作所对应的命名空间 ENUM LAST MongoDb调用监控(client,MongoDb调用监控。) command 指令 在Mongo服务端运行的指令 ENUM LAST MongoDb调用监控(client,MongoDb调用监控。) concurrentMax 最大并发 最大并发 INT MAX MongoDb调用监控(client,MongoDb调用监控。) queryCount 读取行数 读取行数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) updateCount 更新行数 更新行数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) errorCount 错误次数 错误次数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST MongoDb调用监控(client,MongoDb调用监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST MongoDb调用监控(client,MongoDb调用监控。) invokeCount 调用次数 调用次数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) lastError 错误信息 错误信息 STRING LAST MongoDb调用监控(client,MongoDb调用监控。) maxTime 最大响应时间 最大响应时间 INT MAX MongoDb调用监控(client,MongoDb调用监控。) totalTime 总响应时间 总响应时间 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range5 110s 响应时间在110s范围请求数 INT SUM MongoDb调用监控(client,MongoDb调用监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM MongoDb版本(version,MongoDb版本。) version 版本 版本 STRING LAST MongoDb汇总(total,MongoDb调用的汇总信息统计 。) invokeCount 调用次数 总的调用次数 INT SUM MongoDb汇总(total,MongoDb调用的汇总信息统计 。) queryCount 总读取行数 总读取行数 INT SUM MongoDb汇总(total,MongoDb调用的汇总信息统计 。) updateCount 总更新行数 总更新行数 INT SUM MongoDb汇总(total,MongoDb调用的汇总信息统计 。) errorCount 总错误数 总错误数 INT SUM MongoDb汇总(total,MongoDb调用的汇总信息统计 。) totalTime 总响应时间 总响应时间 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) nodes 集群节点 集群节点信息 ENUM LAST MongoDb集群调用监控(cluster,MongoDb集群调用监控。) concurrentMax 最大并发 最大并发 INT MAX MongoDb集群调用监控(cluster,MongoDb集群调用监控。) errorCount 错误次数 错误次数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST MongoDb集群调用监控(cluster,MongoDb集群调用监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST MongoDb集群调用监控(cluster,MongoDb集群调用监控。) invokeCount 调用次数 调用次数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) lastError 错误信息 错误信息 STRING LAST MongoDb集群调用监控(cluster,MongoDb集群调用监控。) maxTime 最大响应时间 最大响应时间 INT MAX MongoDb集群调用监控(cluster,MongoDb集群调用监控。) totalTime 总响应时间 总响应时间 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range5 110s 响应时间在110s范围请求数 INT SUM MongoDb集群调用监控(cluster,MongoDb集群调用监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM 连接池监控(connectionPool,连接池监控。) host 连接地址 连接地址 ENUM LAST 连接池监控(connectionPool,连接池监控。) maxSize 连接池大小上限 连接池大小上限 INT AVG 连接池监控(connectionPool,连接池监控。) minSize 连接池大小下限 连接池大小下限 INT AVG 连接池监控(connectionPool,连接池监控。) availableCount 空闲连接数 空闲连接数 INT AVG 连接池监控(connectionPool,连接池监控。) inUseCount 正在使用的连接数 正在使用的连接数 INT AVG 连接池监控(connectionPool,连接池监控。) maxWaitTimeMs 获取连接最大等待时间(ms) 获取连接最大等待时间(ms) INT AVG 连接池监控(connectionPool,连接池监控。) maxConnectionLifeTimeMs 连接最大存活时间 连接最大存活时间 INT AVG 连接池监控(connectionPool,连接池监控。) maxConnectionIdleTimeMs 连接最大闲置时间 连接最大闲置时间 INT AVG MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) serverAddr 节点地址 节点地址 ENUM LAST MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) type 节点类型 节点类型 STRING LAST MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) concurrentMax 最大并发 最大并发 INT MAX MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) errorCount 错误次数 错误次数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) invokeCount 调用次数 调用次数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) lastError 错误信息 错误信息 STRING LAST MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) maxTime 最大响应时间 最大响应时间 INT MAX MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) totalTime 总响应时间 总响应时间 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range5 110s 响应时间在110s范围请求数 INT SUM MongoDb节点调用监控(serverNode,MongoDb节点调用监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        MongoDb监控
      • OpenClaw模型配置指南
        前置工作 已通过天翼云生态专区订购 OpenClaw 应用 。 说明 若 OpenClaw 版本过低,将导致无法在公有云生态专区页面中进行模型配置。 操作步骤 1.订购息壤模型推理服务 推荐使用息壤模型推理服务,本文以息壤模型推理服务为例,介绍配置步骤。 登录天翼云控制台,根据您的需求选择适合的模型,本文以DeepSeek模型为例,详细开通步骤可参考DeepSeek模型调用快捷版。 注意 为保障您的账户安全、避免额外损失,请妥善保管模型 API Key 等敏感数据。 OpenClaw 携带较多上下文会导致 Token 消耗偏高,建议您关注用量计费情况。 2.配置模型 2.1 进入OpenClaw应用管理 登录天翼云官网,进入生态专区控制台。在应用管理我的应用中,选中对应的OpenClaw实例,点击进入应用详情页面。 2.2 为OpenClaw配置模型 点击“应用配置”页签,进入OpenClaw应用配置页面。在“模型”模块中,您可以为OpenClaw配置所需模型。天翼云支持: 天翼云息壤:推荐购买天翼云息壤模型推理服务。填写完成后,点击“添加并应用”按钮,即可保存该模型配置,并将其设为 OpenClaw 应用的模型服务提供商。 说明 使用天翼云息壤作为模型来源时,请确保您已订购息壤模型推理服务。立即订购息壤模型推理服务 OpenClaw 运行时,可能导致Token消耗偏高,建议您提前了解息壤模型用量计费情况。 息壤为您提供了“模型体验”功能,具有免费Token额度,您可以选择服务组“模型体验”,即刻体验模型推理效果。 参数 填写说明 示例 模型来源 选择“天翼云息壤”。 模型 选择已订购的服务模型。 GLM5 服务组 选择需要使用的服务组。 test02 模型 App Key 根据服务组自动填充。 GPUStack 应用:GPUStack是生态专区提供的开源托管式AI模型部署平台,您可以通过订购GPUStack应用和GPU云主机资源,部署专属模型推理服务,保障数据的安全与服务的稳定。 说明 使用GPUStack前,请确保已购买GPUStack应用资源并正确部署模型,详细请参考通过GPUStack部署模型推理平台。 为保障OpenClaw稳定运行,推荐使用“GPUStack单机版”、“≥4 张英伟达GPU卡的云主机”、“Qwen332B”模型部署GPUStack应用为OpenClaw提供模型推理能力。 参数 填写说明 示例 模型来源 选择“GPUStack”应用。 GPUStack实例 为OpenClaw提供模型服务的GPUStack实例,支持自动获取已订购的GPUStack实例,可选择: GPUStack 单机版实例 GPUStack 集群版Server实例 GPUStack单机版39sh 模型 选择的GPUStack实例中,已部署的模型列表,支持自动获取。 说明 可根据您的使用场景、GPU云主机资源选择合适的模型。GPUStack单机版推荐使用模型“Qwen332B”。 Qwen332B 自定义模型配置:您可以自行配置其他模型,如Kimi、MiniMax等。本文以息壤模型推理服务为例。 填写模型所需的参数说明见下表。填写完成后,点击“添加并应用”按钮,即可保存该模型配置,并将其设为 OpenClaw 应用的模型服务提供商。 参数 填写说明 示例 模型来源 选择“自定义模型” 模型Provider 模型供应商名称,可自定义命名。 XiRang 模型Base url 模型服务调用地址。 说明 即息壤模型服务生成的 baseurl ,默认为“ 模型Api 模型提供商的 API 协议格式。 openaicompletions 说明 息壤模型推理服务提供的模型默认均支持“openaicompletions”协议格式。 模型Api Key 模型服务的API Key。 12356789 说明 即息壤模型服务生成的App Key,可在服务接入模块查看。 模型ID 调用模型的ID。 DeepSeekV3.2Standard 说明 息壤模型广场中,可在查看模型详情页顶部获取模型ID信息。 模型Name 调用模型的名称。 DeepSeekV3.2Standard 说明 息壤模型广场中,可在查看模型详情页顶部获取模型名称信息。 注意 如果您重复添加同一个模型提供商(Provider),后添加的API Key将自动覆盖之前设置的API Key,并以最新的配置为准。
        来自:
        帮助文档
        轻量型云主机
        最佳实践
        一键部署OpenClaw操作指南
        OpenClaw模型配置指南
      • 我的代码包
        对本地上传的代码包进行统一管理。 支持直接上传本地文件、本地压缩包。单次上传文件最多支持5个。 对于文件数量较多,建议使用压缩包上传。 上传完成后操作列点【在线编码】即可进入JupyterLab或VSCode进行编码。 说明 存储目录:/work目录可以被用作统一的文件管理,同时开发机中不同的实例或容器任务可以共享这个目录。 其中/work/mount目录是用于使用和挂载平台上的数据集模型、代码文件的,创建界面选择对应数据集和模型后,系统自动分配挂载路径,打开开发机即可看到这些路径,写代码直接读取这些路径即可读取数据和模型: a)存储时间:只在开发机运行中可使用,开发机关闭后mount目录会和容器取消挂载,也无法读取。 b)目录隔离:在不同开发机的目录内容是隔离的,每启动一个开发机都是自己的一套mount。 c)存储策略:mount 目录为挂载使用,用户在 mount 对应子目录下写入的代码或者拖入的文件会自动转存回原始数据集、代码包或者模型存储中。 【注意】: 自动转存的前提为文件或者文件夹写入到平台自动挂载的目录下,在/work/mount 目录下手动创建的目录(比如:/work/mount/abc)不会做自动转存,同时开发机销毁后自动清理。
        来自:
      • 物理机规格和价格
        V6规格和价格 规格名称 业务场景 CPU 内存 本地磁盘 扩展配置 价格 (元/月) ::::::: physical.c6s.xlarge 数据库、大数据、容器 52cores Intel Cascade Lake 2288X V5 (226 core CPU,2.60 GHz) 192GiB NA SDI3.0 13024 physical.c6s.3xlarge 数据库、大数据、容器 52cores Intel Cascade Lake 2288X V5 (226 core CPU,2.60 GHz) 384GiB NA SDI3.0 13984 physical.c6sd.3xlarge 大数据存算分离 52cores Intel Cascade Lake 2288X V5 (226 core CPU,3.0 GHz) 384GiB 43.2T NVMe SDI3.0(225GE) 17184 physical.pi6.3xlarge.6 异构图形图像,AI推理 52cores ATLAS G560V5 (226 core CPU,2.60 GHz) 448GiB 2 480G SATA SSD+11600G NVMe SSD 6T4 + 2Hi1822 31939 physical.s6.xlarge 数据库 24cores Intel Cascade Lake 2288X V5 (212 core CPU,2.20 GHz) 192GiB NA SDI3.0(225GE) 6528 physical.s6.3xlarge 数据库 24cores Intel Cascade Lake 2288X V5 (212 core CPU,2.20 GHz) 384GiB NA SDI3.0(225GE) 8073.5 physical.d6.xlarge 大数据 24cores Intel Cascade Lake 2288X V5 (212 core CPU,2.20 GHz) 192GiB 1210TB SATA HDD SDI3.0(225GE) 10994 physical.d6.3xlarge 大数据 24cores Intel Cascade Lake 2288X V5 (212 core CPU,2.20 GHz) 384GiB 1210TB SATA HDD SDI3.0(225GE) 12873.5 physical.h6.xlarge HPC 44cores Intel Cascade Lake 2288X V5 (222 core CPU,3.0 GHz) 192GiB NA SDI3.0(225GE) 12750
        来自:
        帮助文档
        物理机 DPS
        计费说明
        物理机规格和价格
      • 产品功能
        类别 说明 总览 提供ServiceStage产品总体看板,包含使用教程、应用、环境、组件等信息。 应用管理 应用列表提供应用生命周期管理的功能,如应用创建、新增组件、组件列表、环境视图、组件部署、组件详情页及运维入口等。 应用配置提供配置项管理和秘钥管理功能。 环境管理 环境是用于应用部署和运行的计算、存储、网络等基础设施的集合。 提供环境创建、编辑、删除等功能,以卡片形式展示已有环境包含的资源信息。 持续交付 提供工程构建、发布等功能。构建通过构建任务可以一键式生成软件包或者镜像包,实现“源码拉取>编译>打包>归档”的全流程自动化。 发布通过流水线工程可以完成一键部署,实现“源码拉取>编译>打包>归档>部署”的全流程自动化。利于集成环境统一、交付流程标准化。 仓库授权 : 用户可以新建仓库授权,使构建工程、应用组件可以使用授权信息访问软件仓库。 软件中心 提供组织管理、镜像仓库等功能。组织管理用于隔离镜像,并为租户下用户指定不同的权限(读取、编辑、管理)。 镜像仓库提供用于存储、管理Docker容器镜像的场所,可以让您轻松存储、管理Docker容器镜像。 基础设施 提供应用基础设施管理功能,如微服务引擎(CSE)等。 其中,在微服务引擎(CSE)界面,进入微服务引擎控制中心,可以进行微服务治理相关的操作。
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        产品功能
      • 云硬盘概述
        维度 弹性文件服务 对象存储 云硬盘 概念 弹性文件服务提供了一个高度可扩展的文件系统,可在云环境中共享文件数据。具有高可用性、持久性和可靠性。 对象存储具有高度的可扩展性和耐久性,可以存储任意类型的海量数据,并且能够自动处理数据冗余、故障恢复和数据分发。 云硬盘提供了高性能、低延迟、可扩展的块级存储。云硬盘可以被挂载到弹性云主机或物理机上,使其能够持久化地存储数据。 存储方式 弹性文件服务采用文件存储方式。文件存储将数据组织为层次化的目录和文件结构,用户可以通过文件路径和名称来操作文件和目录。 对象存储将数据存储为独立的对象。每个对象由数据本身和与之相关的元数据(例如文件名、文件类型、大小等)组成。 云硬盘采用块存储方式。块存储将数据分为固定大小的块(通常为几KB或几MB),并通过唯一的块地址进行访问。 访问方式 弹性文件服务通过网络共享的方式进行访问。用户可以在需要的弹性云主机实例或容器实例上挂载文件系统,并通过标准的文件系统接口(如NFS、SMB等)访问共享的文件系统。 对象存储需要指定桶地址,通过HTTP或HTTPS等传输协议进行访问。 云硬盘类似于PC机的硬盘,无法单独使用,通常通过挂载(Mount)的方式来访问。它可以被挂载到弹性云主机或物理机上,使其在操作系统中可见。 适用场景 如应用程序的配置文件、日志文件等需要共享的文件数据以及在容器化应用中支持多个容器实例之间的数据共享和同步。 如大数据分析,数据湖,数据备份和归档等大规模数据存储和分析场景;静态网站托管解决方案存储。 如作为弹性云主机或物理机的数据存储介质进行数据存储和持久化;大规模数据处理与分布式计算等高性能计算场景。 容量 弹性文件服务可按需扩展,单文件系统容量默认最大为32TB。如需更大容量的文件系统,可提工单申请。 对象存储服务没有容量限制,存储资源可无限扩展。 云硬盘支持按需扩容,最小扩容步长为1 GB,单个云硬盘可由10 GB扩展至32 TB。 是否支持数据共享 是 是 是 是否支持远程访问 是 是 否
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云硬盘
        云硬盘概述
      • OpenSearch实例云监控服务事件管理
        事件类型 推送事件 对象 集群健康类 实例健康状态异常 实例 集群健康类 节点磁盘使用率过高(90%) 节点 集群健康类 实例变为只读 实例 集群健康类 实例索引是否只读 实例 系统故障类 实例存在节点离线 实例 系统故障类 节点磁盘故障 节点
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        实例运维
        OpenSearch实例云监控服务事件管理
      • 元数据
        本章节主要介绍翼MapReduce服务的元数据功能。 当创建翼MR集群时选择部署Hive和Ranger组件时,翼MR提供多种元数据存储方式,您可以根据自身需要进行选择: 本地元数据:元数据存储于集群内的本地GaussDB中,当集群删除时元数据同时被删除,如需保存元数据,需提前前往数据库手动保存元数据。 数据连接:可选择关联与当前集群同一虚拟私有云和子网的RDS服务中的PostgresDB或MySQL数据库,元数据将存储于关联的数据库中,不会随当前集群的删除而删除,多个翼MR集群可共享同一份元数据。 说明 Hive组件可选元数据存储方式功能在翼MR 1.9.x及之后版本支持。 Ranger组件可选元数据存储方式功能目前仅在翼MR 1.9.x版本支持关联RDS服务中的MySQL数据库。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        元数据
      • 计费类
        智能网关型号 经济版 标准版 企业版 企业增强版 Ipsec隧道加密转发能力 最大可支持100Mbps 最大可支持500Mbps 最大可支持1Gbps 最大可支持5Gbps 资费(元/台/月) 150 330 410 780
        来自:
        帮助文档
        天翼云SD-WAN
        常见问题
        计费类
      • 高频类
        约束与限制 如果IP经过NAT,则只能获取到NAT转化后的IP地址,无法获取到NAT转化前的IP地址。 如果客户端为容器,只能获取到容器所在主机的IP地址,无法获取容器的IP。 四层监听器(TCP/UDP)开启“获取客户端IP”功能之后,不支持同一台服务器既作为后端服务器又作为客户端的场景。 独享型负载均衡的四层监听器(TCP/UDP)默认开启源地址透传功能,无需手动开启,且不支持关闭。 说明 如果客户端经过WAF+ELB访问服务器,则还可以通过WAF直接获取客户端真实IP。 七层服务 针对七层服务(HTTP/HTTPS协议),需要对应用服务器进行配置,然后使用XForwardedFor的方式获取来访者的真实IP地址。 实的来访者IP会被负载均衡放在HTTP头部的XForwardedFor字段,格式如下: XForwardedFor: 来访者真实IP, 代理服务器1IP, 代理服务器2IP, ... 当使用此方式获取来访者真实IP时,获取的第一个地址就是来访者真实IP。 配置Apache服务器 1. 安装Apache 2.4。 例如在CentOS 7.5环境下,可以执行如下命令执行安装: yum install httpd 2. 修改Apache的配置文件/etc/httpd/conf/httpd.conf,在最末尾添加以下配置信息。 LoadModule remoteipmodule modules/modremoteip.so RemoteIPHeader XForwardedFor RemoteIPInternalProxy 100.125.0.0/16 图 修改Apache的配置文件示例图 说明 将代理服务器的网段添加到 RemoteIPInternalProxy 。 共享型负载均衡需要添加的IP地址段为 100.125.0.0/16(100.125.0.0/16 是负载均衡服务保留地址,其他用户无法分配到该网段内,不会存在安全风险)和高防IP地址段。多个IP地址段用逗号分隔。 独享型负载均衡需要添加ELB实例关联的VPC子网网段。 3. 修改Apache的配置文件/etc/httpd/conf/httpd.conf,将日志输出格式修改为如下所示(%a代表源IP地址): LogFormat "%a %l %u %t "%r" %>s %b "%{Referer}i" "%{UserAgent}i"" combined 4. 重启Apache。 systemctl restart httpd 5. 查看httpd的访问日志,您可以获取真实的来访者IP。
        来自:
      • 设置应用生命周期
        本节主要介绍设置应用生命周期 部署应用组件时,在“基本配置”界面,“部署系统”选择“云容器引擎”的应用组件,ServiceStage提供了回调函数,在应用的生命周期的特定阶段执行调用,比如应用组件在停止前希望执行某项操作,就可以注册相应的钩子函数。 目前提供的生命周期回调函数如下所示。 启动命令:容器将会以该启动命令启动。 启动后处理:应用启动后触发。 停止前处理:应用停止前触发。 操作步骤 1、部署应用组件时,在“组件配置”界面,展开“高级设置 > 部署配置”。 2、单击“启动命令”,设置容器“运行命令”和“运行参数”。 Docker的镜像拥有存储镜像信息的相关元数据,如果不设置“生命周期”命令和参数,应用运行时将运行镜像制作时提供的默认的命令和参数,Docker将这两个字段定义为“Entrypoint”和 "CMD"。关于这两个参数的详细信息,请查看Docker的Entrypoint说明和CMD说明。 如果在部署应用组件时填写了应用的“运行命令”和“运行参数”,将会覆盖镜像构建时的默认命令 "Entrypoint"、"CMD",规则如表1所示。 3、单击“生命周期”,设置“启动后处理”和“停止前处理”参数,参数说明如表2所示。 表 启动命令参数说明 镜像Entrypoint 镜像CMD 应用运行命令 应用运行参数 最终执行 ::::: [touch] [/root/test] 未设置 未设置 [touch /root/test] [touch] [/root/test] [mkdir] 未设置 [mkdir] [touch] [/root/test] 未设置 [/opt/test] [touch /opt/test] [touch] [/root/test] [mkdir] [/opt/test] [mkdir /opt/test] 表 生命周期参数说明 参数 说明 :: 命令行方式 在组件实例中执行指定的命令,配置为需要执行的命令。命令的格式为Command Args[1] Args[2]…(Command为系统命令或者用户自定义可执行程序,如果未指定路径则在默认路径下需找可执行程序),如果需要执行多条命令,建议采用将命令写入脚本执行的方式。 需要执行的命令示例如下: exec: command: /install.sh installagent 请在执行脚本中填写: /install.sh installagent。 这条命令表示组件部署成功后将执行installagent安装。 Http请求方式 发起一个HTTP调用请求。配置参数如下: 路径:请求的URL路径,可选项。 端口:请求的端口,必选项。 主机地址:请求的IP地址,可选项,默认是应用所在的节点IP。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用高级设置
        设置应用生命周期
      • ALM-19011 RegionServer的Region数量超出阈值
        调整阈值 16.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HBase > 单个RegionServer的Region数目”,选中目前应用的规则,单击“修改”查看目前的阈值设置是否合理。 如果过小,则根据集群实际情况,增大阈值,执行步骤17。 如果阈值设置合理,则执行步骤18。 17.观察该告警是否清除。 是,处理完毕。 否,执行步骤18。 系统扩容 18.对HBase集群扩容,增加节点,并在节点上增加RegionServer实例,然后按照“负载均衡”小节中,打开负载均衡功能并手动触发。 19.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务”,单击产生该告警的HBase服务实例,单击“HMaster(主)”,打开该HBase实例的WebUI,刷新页面查看Region分布是否均衡。 是,执行步骤20。 否,执行步骤21。 20.观察该告警是否清除。 是,处理完毕。 否,执行步骤21。 收集故障信息 21.在主备集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 22.在“服务”中勾选待操作集群的“HBase”。 23.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 24.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19011 RegionServer的Region数量超出阈值
      • 节点已经绑定EIP,仍无法访问公网yum源进行安装更新?
        本节介绍了云容器引擎的其他类常见问题。 前提条件:确认对应节点已绑定EIP,并能通过EIP进行登录访问 问题现象:执行yum安装或者更新无响应 当出现上述问题,用户可以登录主机执行以下步骤修复;或者通过提工单方式,运维介入处理。 修复步骤 1、执行 cat /etc/dnf/dnf.conf,查看dnf配置: 2、删除下图中proxy相关配置: 3、重新执行yum命令,进行安装或更新,比如: 4、如上述步骤未能解决问题,请提工单介入处理。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        其他
        节点已经绑定EIP,仍无法访问公网yum源进行安装更新?
      • 设置挂载参数
        前提条件 Everest插件版本要求1.2.8及以上版本。 插件主要负责将挂载参数识别并传递给底层存储,指定参数有否有效依赖于底层存储是否支持。 约束与限制 挂载参数暂不支持安全容器。 在PV中设置挂载参数 在PV中设置挂载参数可以通过mountOptions字段实现,如下所示,mountOptions支持挂载的字段请参见文件存储挂载参数和对象存储挂载参数。 apiVersion: v1 kind: PersistentVolume metadata: name: pvobsexample annotations: pv.kubernetes.io/provisionedby: everestcsiprovisioner spec: mountOptions:umask0027uid10000gid10000 accessModes:ReadWriteMany capacity: storage: 1Gi claimRef: apiVersion: v1 kind: PersistentVolumeClaim name: pvcobsexample namespace: default csi: driver: obs.csi.everest.io fsType: obsfs volumeAttributes: everest.io/obsvolumetype: STANDARD everest.io/region: cnnorth4 storage.kubernetes.io/csiProvisionerIdentity: everestcsiprovisioner volumeHandle: obsnormalstaticpv persistentVolumeReclaimPolicy: Delete storageClassName: csiobs PV创建后,可以创建PVC关联PV,然后在工作负载的容器中挂载。 在StorageClass中设置挂载参数 在StorageClass中设置挂载参数同样可以通过mountOptions字段实现,如下所示,mountOptions支持挂载的字段请参见文件存储挂载参数和对象存储挂载参数。 apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csiobsmountoption mountOptions:umask0027uid10000gid10000 parameters: csi.storage.k8s.io/csidrivername: obs.csi.everest.io csi.storage.k8s.io/fstype: s3fs everest.io/obsvolumetype: STANDARD provisioner: everestcsiprovisioner reclaimPolicy: Delete volumeBindingMode: Immediate StorageClass设置好后,就可以使用这个StorageClass创建PVC,从而动态创建出的PV会默认带有StorageClass中设置挂载参数。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        设置挂载参数
      • 配置MRS多用户访问OBS细粒度权限
        前提条件 开启细粒度权限控制的用户,权限管理请参考创建MRS操作用户。 需要对IAM的委托(请参考统一身份认证用户指南有关委托的章节)和OBS细粒度策略有一定了解。 1. 给集群配置有OBS访问权限的委托 请参考配置存算分离集群(委托方式)配置OBS访问权限的委托。 配置的委托对该集群上所有用户(包括内置用户)及用户组生效,如需对集群上的用户及用户组访问OBS的权限进行控制请继续执行后续步骤。 2. 在IAM服务创建策略及委托 创建拥有不同访问权限的策略,并将策略与委托进行绑定,具体操作请参考下方 在IAM服务创建策略及委托。 3. 在MRS集群详情页面配置OBS权限控制映射关系 在MRS控制台,选择“集群列表 > 现有集群”并单击集群名称。 1. 在“概览”页签的基本信息区域,单击“OBS权限控制”右侧的“单击管理”。 2. 单击“添加映射”,并参考下表配置相关参数。 OBS权限控制参数 参数 说明 IAM委托 选择步骤2中创建的委托。 类型 User:在用户级别进行映射 Group:用户组级别进行映射 说明 用户级别的映射优先级大于用户组级别的映射。若选择Group,建议在“MRS用户(组)”一栏,填写用户的主组名称。 请避免同个用户名(组)出现在多个映射记录上的情况。 MRS用户(组) MRS中的用户(组)的名称,以英文逗号进行分隔。 说明 对于没有配置在OBS权限控制的用户,且没有配置AK、SK时,将以MRSECSDEFAULTAGENCY中的OBS Operator的权限访问OBS。对于组件内置用户不建议绑定在委托中。 如需对组件内置用户在以下场景提交作业时配置委托,要求如下: 如需对sparkbeeline的操作进行权限控制,安全集群时配置用户名“spark”,普通集群时配置用户名“omm”。 如需对hbase shell的操作进行权限控制,安全集群时配置用户名“hbase”,普通集群时配置用户名“omm”。 如需对Presto的操作进行权限控制,安全集群时配置用户名“omm”、“hive”和登录客户端的用户名,普通集群时配置用户名“omm”和登录客户端的用户名。 如需使用Hive在beeline模式下创建表时,配置内置用户“hive”。 3. 单击“确定”。 4. 勾选“我同意授权MRS用户(组)与IAM委托之间的信任关系。”,并单击“确定”,完成MRS用户与OBS权限的映射关系。 当集群详情页面“概览”页签的“OBS权限控制”后出现或OBS权限控制的映射表已刷新,表示映射生效(过程大约需要1分钟)。 在关系列表的“操作”列可以对已添加的关系进行编辑和删除。 说明 对于没有配置在OBS权限控制的用户,且没有配置AK、SK时,将以集群配置的委托在“对象存储服务”项目下所拥有的权限访问OBS。 无论用户是否配置OBS权限控制,只要配置AK、SK时,将以AK、SK的权限访问OBS。 映射关系的修改、创建、删除需要用户有Security Administrator权限。 修改映射关系后,若想使之在sparkbeeline中生效,需要重启Spark服务,若想使之在hive beeline中生效,需要退出beeline重新进入,若想使之在Presto服务中生效,需要重启Presto服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        配置MRS多用户访问OBS细粒度权限
      • 管理实例组
        修改实例组属性 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中待操作的服务名称。 4. 在“实例组”页签定位到指定的实例组。 单击,按照界面提示修改参数。 5. 单击“确定”完成修改。 默认实例组不支持修改。 删除实例组 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中待操作的服务名称。 4. 在“实例组”页签定位到指定的实例组。 5. 单击。 6. 在弹出窗口单击“确定”。 默认实例组不支持删除。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        实例组
        管理实例组
      • 翼MR集群是否支持Hive on Spark?
        本章节主要介绍翼MapReduce集群使用规则。 当前,翼MR集群中的Hive服务,默认提供的是Hive on MR的计算能力。 用户可以在开通好翼MR集群后,进入翼MR Manager的管控平台中,并在Hive服务的配置管理页中,修改相关配置参数,重启Hive服务,完成Hive on Spark的切换并生效。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR集群是否支持Hive on Spark?
      • Flink对接OBS文件系统
        本章节主要介绍Flink对接OBS文件系统 。 使用本章节前已参考配置存算分离集群(委托方式)或配置存算分离集群(AKSK方式)完成存算分离集群配置。 1. 使用安装客户端的用户登录Flink客户端安装节点。 2. 执行如下命令初始化环境变量。 source ${clienthome}/bigdataenv 3. 需要配置好Flink客户端。具体配置参考安装客户端(3.x及之后版本)。 4. 如果是安全集群,使用以下命令进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 用户名 5. 在Flink命令行显式添加要访问的OBS文件系统。 ./bin/flink run class com.xxx.bigdata.flink.examples.FlinkProcessingTimeAPIMain ./config/FlinkCheckpointJavaExample.jar chkPath obs:// OBS并行文件系统名称 说明 由于Flink作业是On Yarn运行,在配置Flink对接OBS文件系统之前需要确保Yarn对接OBS文件系统功能是正常的。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        使用存算分离集群
        Flink对接OBS文件系统
      • 使用延迟绑定的存储类实现跨AZ调度
        本节介绍了云容器引擎的最佳实践:使用延迟绑定的存储类实现跨AZ调度。 天翼云提供多种存储类型,如云硬盘、海量文件、弹性文件等。多数存储创建于特定可用区,若从其他可用区访问,部分存储类型将无法访问,部分虽可访问但存在性能损耗。尤其对于云硬盘或并行文件等对可用区要求严格的存储产品,若节点与存储的可用区不匹配,将导致存储无法正常挂载。为保障可用性与性能,建议多可用区业务采用延迟绑定策略,尽可能使存储与容器应用处于同一可用区。 注意 若工作负载的多个副本分布在多个可用区,且均使用同一支持延迟绑定及多机只读的PVC,则存储将基于首个被调度Pod所在的可用区进行挂载。 名词解释 延迟绑定(WaitForFirstConsumer)是存储类绑定策略的一种。选择该策略后,使用此存储类创建的PVC不会立即执行动态分配操作,而是等待有工作负载使用该PVC且Pod完成调度后,才触发动态分配流程。 Pod调度完成后,K8S会记录其所在节点的可用区信息。动态分配时,系统将根据Pod所在可用区为PVC分配存储并构建PV。 使用方法 创建一个新的存储类时,需根据实际需求选择存储产品并填写相关参数。在“绑定策略”一栏中,请选择延迟绑定(WaitForFirstConsumer)。 创建持久卷申明时,选择这个新的存储类,可以看到持久卷申明,状态会一直处于等待中,事件也是等待动态分配的状态。此时需要新建一个工作负载使用该PVC。 一段时间后可见,持久卷申请已成功绑定,无状态工作负载启动正常,云盘正常挂载。通过存储控制台查询可确认存储所在可用区与工作负载的可用区保持一致。
        来自:
      • 术语解释
        节点类型 功能 master节点 翼MR集群管理节点,用于管理集群服务,主要负责ResourceManager和NameNode等控制进程的部署。master节点组默认采用反亲和技术,以此保证业务高可用性。 core节点 翼MR集群工作节点,主要负责存储和计算数据。 task节点 翼MR集群计算节点,主要负责计算数据,不存储数据(如HDFS 数据)。默认不开启,按需使用。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        术语解释
      • 简介
        本章节主要介绍翼MapReduce的多租户功能。 定义 多租户是MRS集群中的多个资源集合(每个资源集合是一个租户),具有分配和调度资源的能力。资源包括计算资源和存储资源。 背景 现代企业的数据集群在向集中化和云化方向发展,企业级大数据集群需要满足: 不同用户在集群上运行不同类型的应用和作业(分析、查询、流处理等),同时存放不同类型和格式的数据。 某些类型的用户(例如银行、政府单位等)对数据安全非常关注,很难容忍将自己的数据与其他用户的放在一起。 这给大数据集群带来了以下挑战: 合理地分配和调度资源,以支持多种应用和作业在集群上平稳运行。 对不同的用户进行严格的访问控制,以保证数据和业务的安全。 多租户将大数据集群的资源隔离成一个个资源集合,彼此互不干扰,用户通过“租用”需要的资源集合,来运行应用和作业,并存放数据。在大数据集群上可以存在多个资源集合来支持多个用户的不同需求。 对此,MRS企业级大数据集群提供了完整的企业级大数据多租户解决方案。 优势 合理配置和隔离资源 租户之间的资源是隔离的,一个租户对资源的使用不影响其他租户,保证了每个租户根据业务需求去配置相关的资源,可提高资源利用效率。 测量和统计资源消费 系统资源以租户为单位进行计划和分配,租户是系统资源的申请者和消费者,其资源消费能够被测量和统计。 保证数据安全和访问安全 多租户场景下,分开存放不同租户的数据,以保证数据安全;控制用户对租户资源的访问权限,以保证访问安全。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        简介
      • 安装客户端
        本章节主要介绍安装客户端。 操作场景 该操作指导安装工程师安装MRS集群所有服务(不包含Flume)的客户端。MRS针对不同服务提供了Shell脚本,供开发维护人员在不同场景下登录其对应的服务维护客户端完成对应的维护任务。 说明 通过Manager界面修改服务端配置或系统升级后,建议重新安装客户端,否则客户端与服务端版本将不一致。 前提条件 安装目录可以不存在,会自动创建。但如果存在,则必须为空。目录路径不能包含空格。 客户端节点为集群外部服务器时,必须能够与集群业务平面网络互通,否则安装会失败。 客户端必须启用NTP服务,并保持与服务端时间一致,否则安装会失败。 对于下载所有组件客户端的情况,HDFS与Mapreduce是合一目录(“ 客户端目录 /HDFS/”)。 安装和使用客户端可以使用任意用户进行操作,用户名和密码请从管理员处获取,本章节以“userclient”进行举例。要求“userclient”用户为服务器文件目录(如“/opt/Bigdata/client”)和客户端安装目录(如“/opt/Bigdata/hadoopclient”)的“owner”,两个目录的权限为“755”。 使用客户端需要已从管理员处获取“组件业务用户”(默认用户或新增用户)和“密码”。 使用omm 和root以外的用户安装客户端时,若“/var/tmp/patch”目录已存在,需将此目录权限修改为“777”,将此目录内的日志权限修改为“666”。 操作步骤 1. 获取软件包。 登录FusionInsight Manager,具体请参考访问FusionInsight Manager(MRS 3.x及之后版本),在“集群”下拉列表中单击需要操作的集群名称。 选择“更多 > 下载客户端”,弹出“下载集群客户端”信息提示框。 详见下图:下载客户端 说明 在只安装单个服务的客户端的场景中,选择“集群 > 待操作集群的名称 > 服务 > 服务名称 > 更多 > 下载客户端”,弹出“下载客户端”信息提示框。 2. 选择客户端类型”中选择“完整客户端”。 “仅配置文件”下载的客户端配置文件,适用于应用开发任务中,完整客户端已下载并安装后,管理员通过Manager界面修改了服务端配置,开发人员需要更新客户端配置文件的场景。 平台类型包括x8664和aarch64两种: x8664:可以部署在x86平台的客户端软件包。 aarch64:可以部署在TaiShan服务器的客户端软件包。 说明 集群支持下载x8664和aarch64两种类型客户端,但是客户端类型必须和待安装节点的架构匹配,否则客户端会安装失败。 3. 是否在集群的节点中生成客户端文件? 是,勾选“仅保存到如下路径”,单击“确定”开始生成客户端文件,文件生成后默认保存在主管理节点“/tmp/FusionInsightClient”。支持自定义其他目录且omm用户拥有目录的读、写与执行权限。单击“确定”,等待下载完成后,使用omm用户或root用户将获取的软件包复制到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/client”。然后执行步骤5。 说明 当用户无法获取root用户权限,需要用omm用户操作。 否,单击“确定”指定本地的保存位置,开始下载完整客户端,等待下载完成,执行步骤4。 4. 上传软件包。 使用WinSCP工具,以准备安装客户端的用户(如“userclient”),将获取的软件包上传到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/client”。 客户端软件包名称格式为:“FusionInsightCluster ServicesClient.tar”。 后续步骤及章节以FusionInsightCluster1ServicesClient.tar进行举例。 说明 客户端所在主机可以是集群内节点,也可以是集群外节点。当该节点为集群外部服务器时,必须能够与集群网络互通,并启用NTP服务以保持与服务端时间一致。 例如可以为外部服务器配置与集群一样的NTP时钟源,配置之后可以执行ntpq np命令检查时间是否同步。 如果显示结果的NTP时钟源IP地址前有“”号,表示同步正常,如下: remote refid st t when poll reach delay offset jitter 10.10.10.162 .LOCL. 1 u 1 16 377 0.270 1.562 0.014 如果显示结果的NTP时钟源IP前无“”号,且“refid”项内容为“.INIT.”,或者回显异常,表示同步不正常,请联系技术支持。 remote refid st t when poll reach delay offset jitter 10.10.10.162 .INIT. 1 u 1 16 377 0.270 1.562 0.014 也可以为外部服务器配置与集群一样的chrony时钟源,配置之后可以执行chronyc sources命令检查时间是否同步。 如果显示结果的主OMS节点chrony服务IP地址前有“”号,表示同步正常,如下: MS Name/IP address Stratum Poll Reach LastRx Last sample ^10.10.10.162 10 10 377 626 +16us[ +15us] +/ 308us 如果显示结果的主OMS节点NTP服务IP前无“”号,且“ Reach ”项内容为“0”,表示同步不正常。 MS Name/IP address Stratum Poll Reach LastRx Last sample ^? 10.1.1.1 0 10 0 +0ns[ +0ns] +/ 0ns 5. 以userclient用户登录将要安装客户端的服务器。 6. 解压软件包。 进入安装包所在目录,例如“/opt/Bigdata/client”。执行如下命令解压安装包到本地目录。 tar xvf FusionInsightCluster1ServicesClient.tar 7. 校验软件包。 执行sha256sum命令校验解压得到的文件,检查回显信息与sha256文件里面的内容是否一致,例如: sha256sum c FusionInsightCluster1ServicesClientConfig.tar.sha256 FusionInsightCluster1ServicesClientConfig.tar: OK 8. 解压获取的安装文件。 tar xvf FusionInsightCluster1ServicesClientConfig.tar 9. 配置客户端网络连接。 a.确保客户端所在主机能与解压目录下“hosts”文件(例如“/opt/Bigdata/client/FusionInsightCluster ServicesClientConfig/hosts”)中所列出的各主机在网络上互通。 b.当客户端所在主机不是集群中的节点时,需要在客户端所在节点的“/etc/hosts”文件(更改此文件需要root用户权限)中设置集群所有节点主机名和业务平面IP地址映射,主机名和IP地址请保持一一对应,可执行以下步骤在hosts文件中导入集群的域名映射关系。 切换至root用户或者其他具有修改hosts文件权限的用户。 su root 进入客户端解压目录。 cd /opt/Bigdata/client/FusionInsightCluster1ServicesClientConfig 执行 cat realm.ini >>/etc/hosts ,将域名映射关系导入到hosts文件中。 说明 当客户端所在主机不是集群中的节点时,配置客户端网络连接,可避免执行客户端命令时出现错误。 如果采用yarnclient模式运行Spark任务,请在“ 客户端安装目录 /Spark/spark/conf/sparkdefaults.conf”文件中添加参数“spark.driver.host”,并将参数值设置为客户端的IP地址。 当采用yarnclient模式时,为了Spark WebUI能够正常显示,需要在Yarn的主备节点(即集群中的ResourceManager节点)的hosts文件中,配置客户端的IP地址及主机名对应关系。 10. 进入安装包所在目录,执行如下命令安装客户端到指定目录(绝对路径),例如安装到“/opt/hadoopclient”目录。 cd /opt/Bigdata/client/FusionInsightCluster1ServicesClientConfig 执行./install.sh /opt/hadoopclient命令,等待客户端安装完成(以下只显示部分屏显结果)。 The component client is installed successfully 说明 如果已经安装的全部服务或某个服务的客户端使用了“/opt/hadoopclient”目录,再安装其他服务的客户端时,需要使用不同的目录。 卸载客户端请删除客户端安装目录。 如果要求安装后的客户端仅能被该安装用户(如“userclient”)使用,请在安装时加“o”参数,即执行./install.sh /opt/hadoopclient o命令安装客户端。 如果安装NTP服务器为chrony模式,请在安装时加“chrony”参数,即执行./install.sh /opt/hadoopclient ochrony命令安装客户端。 由于HBase使用的Ruby语法限制,如果安装的客户端中包含了HBase客户端,建议客户端安装目录路径只包含大写字母、小写字母、数字以及?.@+字符。 客户端节点为集群外部服务器且此节点无法与主oms节点的业务平面IP互通时或者无法访问主节点的20029端口时,客户端可以正常安装成功,但无法注册到集群中,无法在界面上进行展示。 a.执行cd /opt/hadoopclient命令进入客户端安装目录。 b.执行source bigdataenv命令配置客户端环境变量。 c.如果集群为安全模式,执行以下命令,设置kinit认证,输入客户端用户登录密码;普通模式集群无需执行用户认证。 kinit admin Password for admin@HADOOP.COM:
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        配置客户端
        安装客户端
      • 功能特性
        本小节介绍日志审计(原生版)功能特性。 日志采集 全面采集网络行为及数据库操作日志、服务器主机及网络设备日志、常规应用及业务系统日志,并对日志进行统一归并处理,便于后续分析。 采集是日志审计(原生版)系统的重要功能模块,它承载了日志或事件采集标准化、过滤、归并功能,是系统进行分析的第一步,用户通过指定需要采集的目标、相关采集参数(Syslog、SNMPTrap等被动方式无需指定)、相关的过滤策略和归并策略等创建日志采集器,以收集相关设备或系统的日志。 不同的系统或设备所产生的日志格式是不尽相同的,这给分析和统计带了巨大的麻烦,所以在日志审计(原生版)系统中内置了众多的标准化脚本以处理这种情形;即便对于某些特殊的设备,如某个系统的新型号,您没有发现相关的解析脚本,日志审计(原生版)系统也提供了相应的定制方法以解决这些问题。 日志检索 基于海量数据的高速检索能力,可以实现多重条件组合的快速检索和精确定位,并且支持事件的交互式检索分析快速生成图表直观呈现分析内容,并能直接保存成仪表板展示。 亿级(TB)原始日志查询耗时低于1秒; 支持简单易用的日志查询普通模式,根据系统预置的查询条件,根据用户需求查询对应的日志,并且支持查询条件的保存,供后续快捷使用; 支持更加精确的高级模式查询,根据页面的指导提示,通过组合查询表达式完成精确查询。
        来自:
        帮助文档
        日志审计(原生版)
        产品介绍
        功能特性
      • 备份Kafka元数据
        本章主要介绍翼MapReduce的备份Kafka元数据功能。 操作场景 为了确保Kafka元数据安全,或者系统管理员需要对ZooKeeper进行重大操作(如升级或迁移等)时,需要对Kafka元数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 系统管理员可以通过FusionInsight Manager创建备份Kafka任务并备份元数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“Kafka”。 说明 若安装了多个Kafka服务,默认备份所有Kafka服务,可单击“指定服务”指定需要备份的Kafka服务。 7.在“Kafka”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。默认保存目录为“ 数据存放路径 /LocalBackup/”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 “LocalHDFS”:表示将备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端路径”:填写备份文件在HDFS中保存的目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为 “备份任务名任务创建时间” ,用于保存数据源的备份文件。备份文件的名称为 版本号数据源任务执行时间.tar.gz 。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Kafka元数据
      • 购买类
        一体机基础产品能力包含哪些? 一体机默认提供基础的计算、存储、网络、监控和管理服务,其中对象存储、文件存储为可选。 一体机是否需要单独服务器配置对象存储? 专业版支持对象存储,且对外有标准S3接口,可以和块存储融合部署,也可以用几个节点单独做对象存储集群,主要看对象存储和块存储的容量需求。 如果有多套一体机,可以用云管进行统一纳管吗? 可以,一体机上部署的混合云管支持纳管能力。但客户需要自行打通不同一体机的网络,并支付相应的线路费用。 一体机是否支持纯软售卖? 支持,一体机软件版不支持利旧设备,客户需按一体机标准配置进行硬件采购。 一体机是否提供等保软件套餐? 一体机默认不提供安全能力,如客户有等保需求,可以将官网安全专区中的等保套餐私有化部署到一体机里,为客户提供等保能力,此部分单独收费。等保能力会有资源占用,最终用户可用的资源等于一体机默认提供的资源减去等保能力占用的资源。
        来自:
        帮助文档
        混合云一体机
        常见问题
        购买类
      • 部门
        本节介绍部门的操作指导。 管理员可在管理控制台上创建部门,对用户进行部门管理。 创建部门 1.进入“AI云电脑(政企版)”控制台; 2.点击“组织管理”,选择“部门管理”,进入“部门管理”页面; 3.选中某一级部门,“新建部门”,弹出新增部门窗口; 4.填写“部门名称”和“描述”完成部门创建。 删除部门 1.进入“AI云电脑(政企版)”控制台; 2.点击“组织管理”,选择“部门管理”,进入“部门管理”页面; 3.选中某一级部门,点击“删除”; 4.在删除弹窗提示,点击“确定”即完成删除。 说明:当部门关联了用户账号,则不允许删除。需对用户取消关联部门后才允许删除。 设置配额 如当前租户订购了资源包,则可以对部门进行配额设置,把资源分配给部门。 1.进入“AI云电脑(政企版)”控制台; 2.点击“组织管理”,选择“部门管理”,进入“部门管理”页面; 3.选中某一级部门,点击“设置配额”,弹出“设置配额”窗口; 4.根据需求设置CPU、内存、存储的配额,点击“确定”即完成分配。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        组织管理
        部门
      • 包周期转按需
        本节介绍了包周期计费模式转为按需计费模式的约束限制、流程等内容。 创建一个包年/包月关系数据库 mysql版后,您可以将该云数据库的计费模式转为按需计费,同时更加灵活地按需使用关系数据库 mysql版。 注意 到期转按需需要等待包年/包月资费模式到期后,按需的计费模式才生效。 约束限制 关系数据库 mysql版实例计费方式变更时,同时会将实例规格、存储空间、镜像费用、专属资源的计费模式一起变更。 弹性IP的计费变更请在费用中心订单管理续订管理单独操作包周期转按需。 备份空间、跨区域备份的存储空间费用,当前仅支持按需,不支持变更计费方式。 操作步骤 1、登录管理控制台。 2、点击右上角账号,选择我的订单,进入费用中心。 3、在费用中心中,选择订单管理续订管理,找到需要转按需的订单,点击到期转按需,在跳转的页面中点击转按需。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        包周期转按需
      • 通过弹性公网IP访问
        本章节主要介绍通过弹性公网IP访问。 为了方便用户访问开源组件的Web站点,翼MapReduce集群支持通过为集群绑定弹性公网IP的方式,访问集群上托管的开源组件。该方式更加简便易操作,推荐使用该方式访问开源组件的Web站点。 绑定弹性公网IP 1. 在集群列表页面,单击“集群名称”列下需要绑定IP的集群名称,进入该集群信息页面。 2. 确定需要开通公网访问组件所在的节点。可以通过单击“访问链接与端口”,在“集群服务名称”中找到需要开通公网访问的组件,其“原生UI地址”中包含所在节点内网IP地址。 3. 单击“节点管理”,点击“节点组名称”列的下拉按钮,展开对应的节点信息,确定需要开通公网访问的节点,单击“操作”列的“更多”。 4. 单击“绑定弹性IP”,在“绑定弹性IP”的弹框中,如果您账号下没有可用的弹性公网IP,需要点击“+创建弹性公网IP”按钮跳转至新页面进行创建;如果您账号下有可用的弹性公网IP,可以通过下拉“弹性IP”的选择框选择IP后,点击“确认”进行绑定。 5. 绑定弹性IP后,根据需要对集群安全组规则进行相应的添加或修改,变更端口的访问权限。之后可以通过“公网IP:端口”的方式访问该开源组件的Web站点。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问组件Web页面
        通过弹性公网IP访问
      • 到期
        本页为您介绍WPS云文档天翼云版产品到期处理方法 该产品到期后如不续费将变为体验版,付费权益将失效。
        来自:
        帮助文档
        WPS云文档天翼云版
        计费说明
        到期
      • OBS数据迁移到DLI服务
        本章节主要介绍OBS数据迁移到DLI服务。 操作场景 数据湖探索(DataLake Insight,简称DLI)提供大数据查询服务,本章节介绍使用CDM将OBS的数据迁移到DLI,使用流程如下: 1.创建CDM集群 2.创建DLI连接 3.创建OBS连接 4.创建迁移作业 前提条件 已经开通了OBS和DLI,并且当前用户拥有OBS的读取权限。 已经在DLI服务中创建好资源队列、数据库和表。 创建CDM集群 参考创建CDM集群,创建CDM集群。 该场景下,如果CDM集群只是用于迁移OBS数据到DLI,不需要迁移其他数据源,则CDM集群所在的VPC、子网、安全组选择任一个即可,没有要求,CDM通过内网访问DLI和OBS。主要是选择CDM集群的规格,按待迁移的数据量选择,一般选择cdm.medium即可,满足大部分迁移场景。 创建DLI连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 2.连接器类型选择“数据湖探索(DLI)”后单击“下一步”,配置DLI连接参数,如下图“创建DLI连接”所示。 名称:用户自定义连接名称,例如“dlilink”。 访问标识(AK)、密钥(SK):访问DLI数据库的AK、SK。 项目ID:DLI所属区域的项目ID。 3.单击“保存”回到连接管理界面。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        OBS数据迁移到DLI服务
      • ALM-19006 HBase容灾同步失败
        本章节主要介绍ALM19006 HBase容灾同步失败的告警。 告警解释 告警模块每30s检查一次HBase容灾数据的同步状态,当同步容灾数据到备集群失败时,发送该告警。 当容灾数据同步成功后,告警清除。 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如HBase1服务不可用,则“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19006 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 无法同步集群中HBase的数据到备集群,导致主备集群数据不一致。 可能原因 备集群HBase服务异常。 网络异常。 处理步骤 观察告警是否自动修复 1.在主集群的FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 2.在告警列表中单击该告警,从完整的告警信息中的“产生时间”处获得告警的产生时间,查看告警是否持续超过5分钟。 是,执行步骤4。 否,执行步骤3。 3.等待5分钟后检查本告警是否自动恢复。 是,处理完毕。 否,执行步骤4。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19006 HBase容灾同步失败
      • 如何访问DWS
        本章节主要介绍 如何访问数据仓库服务。 数据仓库服务的基本使用流程如下图所示: 访问集群 DWS提供了Web化的服务管理平台,即管理控制台,还提供了基于HTTPS请求的API(Application programming interface)方式管理DWS集群。 访问集群数据库 DWS支持如下方式访问集群数据库: DWS客户端方式 用户使用DWS客户端访问集群数据库,请参见《数据仓库服务用户指南》中“连接集群”章节。 JDBC、ODBC等接口调用方式 支持调用JDBC(Java database connectivity)、ODBC(Open Database Connectivity)等标准接口开发应用程序访问DWS集群中的数据库。 详细内容请参见《数据仓库服务用户指南》中“使用JDBC和ODBC连接集群”章节。 端到端数据分析流程 数据仓库服务与云平台其他一系列服务已无缝集成,以便用户能够快速部署端到端的数据分析和解决方案。 端到端数据分析流程如下图所示,该流程展示了每个过程可以使用的云服务。 详见下图: 端到端数据分析流程
        来自:
        帮助文档
        数据仓库服务
        产品简介
        如何访问DWS
      • 1
      • ...
      • 114
      • 115
      • 116
      • 117
      • 118
      • ...
      • 327
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      训推服务

      AI Store

      模型推理服务

      知识库问答

      人脸实名认证

      身份证识别

      推荐文档

      VPN删除

      其他问题

      计费类

      云课堂 第十八课:天翼云函数服务之“Hello,World!”

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号