爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(边缘云版)_相关内容
      • 步骤八:配置流水线,实现持续交付
        本章主要介绍步骤八:配置流水线,实现持续交付 流水线服务提供可视化、可定制的自动交付软件生产线,支持代码检查、构建、部署等多种任务类型。 随着项目的进行,各个环节(构建、发布、部署)越来越标准化。但是每个环节都相对独立,是半成品,不能交付业务价值。将每一个环节有效的串联起来形成一套完整的持续交付流水线,才能够真正提高软件的发布效率与质量,持续不断的创造业务价值。 通过本章节,您将了解开发人员Chris如何将代码检查、构建、部署任务串联起来,实现持续交付。 预置流水线简介 样例项目中预置了如下表所示的5个流水线任务,可根据需要查看并使用。 预置流水线任务 预置流水线任务 任务说明 phoenixworkflow 基本的流水线任务。 phoenixworkflowtest 测试环境对应的流水线任务。 phoenixworkflowwork Worker功能对应的流水线任务。 phoenixworkflowresult Result功能对应的流水线任务。 phoenixworkflowvote Vote功能对应的流水线任务。 说明 关于Vote、Result、Worker的说明,请参见 section989mcpsimp 配置并执行流水线 为了更好地介绍操作流程,本章节将创建全新的流水线。 一条流水线通常由多个阶段构成,每个阶段中可以添加多个子任务,并可以配置阶段下子任务是串行执行还是并行执行。 步骤 1 创建流水线。 1. 进入“凤凰商城”项目,单击导航“构建&发布 > 流水线”。 2. 单击“新建流水线”,配置流水线信息。 选择流水线源:配置以下信息,单击“下一步”。 流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择“phoenixsample”。 默认分支 选择“master”。 选择模板:选择“空模板”,单击“确定”。 3. 选择“基本信息”页签,输入流水线名称“phoenixsamplepipeline”。 4. 选择“工作流”页签,配置工作流。 单击“构建和检查”阶段中的的“添加任务”。在右侧滑出框中配置代码检查任务,单击“保存”。 代码检查任务配置 配置项 配置建议 类型 选择“代码检查”。 名称 输入自定义名称。 请选择需要调用的任务 选择“phoenixcodecheckworker”。 检查模式 提供三种检查模式,根据需要选择。 Full:全量检查,扫描代码仓里的所有文件。 Incremental(last commit): 增量检查,基于最近一次commit文件进行扫描。 Incremental(last success):增量检查,基于最近一次门禁通过后的变更文件进行扫描。 按照同样的方式,在“构建和检查”阶段中添加构建任务“phoenixsampleci”,任务的参数配置与构建任务一致。 单击“构建和检查”阶段后的,添加一个阶段。 图 添加阶段 5. 单击新增阶段名称后的,在右侧滑出框中输入名称“部署”,单击“保存”。 6. 参照上述步骤 ,在部署阶段中添加应用“phoenixcdcce”,任务的参数配置与部署应用一致。 7. 单击“保存”,完成流水线的创建。 步骤 2 进入云容器引擎服务。找到目标集群,单击,选择“无状态负载”页签,确认列表中无记录。 若列表中有记录,则勾选全部记录,单击“批量删除”,并在弹框中勾选所有选项,单击“是”,将列表记录清空。 步骤 3 返回流水线列表页面,单击“phoenixsamplepipeline”所在行的,在滑出的窗口单击“运行”,启动流水线。 当页面中显示时,表示任务执行成功。 若任务执行失败,请于执行失败的任务处检查失败原因,可打开步骤详情查看任务日志,根据日志进行排查。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤八:配置流水线,实现持续交付
      • 常见问题
        本节介绍翼加密在管理员使用过程的的常见问题。 加密策略中没有找到需要加密的文件类型怎么办? 如有其他文件类型的加密需求,可与售前或运维人员反馈,或提交工单与我们沟通。申请开通更多文件类型的加密管控。 加密策略中配置的应用程序有什么用? 策略中配置的是加密授权的应用程序。加密文件只能被授权的应用软件明文打开和编辑(如下图所示)。未经加密授权或适配的第三方应用软件打开加密文件为密文数据。 备注:如果需要适配其他应用软件,可与售前或运维人员反馈,或提交工单与我们沟通。申请开通更多应用软件的加密授权。 为什么给AI云电脑开启加密时,提示版本过低? (1) 开启加密的AI云电脑需要agent版本高于1.31,并且安装加密驱动。 (2) agent和加密驱动版本在加密桌面管理处能看到版本号,如果提示“!”则说明版本过低或未安装。发现这种情况请联系运维处理。 批量全盘加密/解密AI云电脑时,提示无法提交 目前每个资源池可同时进行AI云电脑全盘加密/解密的上限是30个,如果您有大规模的AI云电脑全盘加密或解密需求,请提交工单联系运维专项处理。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        管理员指南
        常见问题
      • 事件监控
        事件监控支持的事件说明 表3 云数据库GeminiDB事件监控支持的事件说明 事件来源 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 NoSQL 创建实例业务失败 NoSQLCreateInstanceFailed 重要 一般是由于实例配额不足或底层资源不足等原因导致。 先释放不再使用的实例再尝试重新发放,或者提交工单调整配额上限。 无法创建数据库实例。 NoSQL 变更规格失败 NoSQLResizeInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试规格变更操作。 业务中断。 NoSQL 添加节点失败 NoSQLAddNodesFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,删除添加失败的节点,重新尝试添加新节点。 无 NoSQL 删除节点失败 NoSQLDeleteNodesFailed 重要 一般是由于底层释放资源失败导致。 重新尝试删除节点。 无 NoSQL 扩卷失败 NoSQLScaleUpStorageFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试扩卷操作。 如果磁盘满,会导致业务中断。 NoSQL 重置密码失败 NoSQLResetPasswordFailed 重要 一般是由于重置密码命令超时导致。 重新尝试重置密码操作。 无 NoSQL 修改参数模板失败 NoSQLUpdateInstanceParamGroupFailed 重要 一般是由于修改参数模板命令超时导致。 重新尝试修改参数模板操作。 无 NoSQL 设置备份策略失败 NoSQLSetBackupPolicyFailed 重要 一般是由于数据库连接异常导致。 重新重试设置备份策略操作。 无 NoSQL 创建手动备份失败 NoSQLCreateManualBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 NoSQL 创建自动备份失败 NoSQLCreateAutomatedBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 NoSQL 实例运行状态异常 NoSQLFaultyDBInstance 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 NoSQL 实例运行状态异常已恢复 NoSQLDBInstanceRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 NoSQL 节点运行状态异常 NoSQLFaultyDBNode 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 NoSQL 节点运行状态异常已恢复 NoSQLDBNodeRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 NoSQL 实例主备切换 NoSQLPrimaryStandbySwitched 重要 在手动触发的主备倒换或节点故障自动触发的故障倒换场景下,会上报该事件。 不需要处理。 无 NoSQL 出现热点分区键 HotKeyOccurs 重要 客观上是因为主键设置不合理,使得热点数据集中分布在一个分区。客户端不合理的应用程序设计,造成对某一key的频繁读写。 1. 选择合理的分区键。 2. 业务增加缓存,业务应用先从缓存中读取热点数据。 影响业务请求成功率,存在影响集群性能及稳定性的风险。 NoSQL 出现超大分区键 BigKeyOccurs 重要 主键设计不合理,单个分区的记录数或数据量过大,引起了节点负载不均。 1. 选择合理的分区键 2. 基于现有分区键,增加分区键散列。 随着数据量增长,集群稳定性会下降。 NoSQL 数据盘空间不足 NoSQLRiskyDataDiskUsage 重要 数据盘空间不足,产生此告警。 请参见对应服务用户指南中“扩容磁盘”的内容,进行磁盘扩容。 实例被设为只读模式,数据无法写入。 NoSQL 数据盘空间已扩容并恢复可写 NoSQLDataDiskUsageRecovered 重要 数据盘空间已扩容并恢复可写,产生此事件。 无需处理。 无 NoSQL 创建索引失败 NoSQLCreateIndexFailed 重要 业务负载超过实例规格瓶颈,此时再创建索引会耗费更多实例资源,导致响应变慢甚至卡顿,最终超时,引起索引创建失败。 1、根据业务负载,选择匹配的实例规格 2、在业务低峰期创建索引 3、使用后台方式创建索引 4、索引字段,结合业务进行合理选择。 索引创建失败或不完整,导致索引无效,需要删掉索引重新创建。 NoSQL 发生写入降速 NoSQLStallingOccurs 重要 写入速度快,接近集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 NoSQL 发生写入停止 NoSQLStoppingOccurs 重要 写入速度过快,达到集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 NoSQL 重启数据库失败 NoSQLRestartDBFailed 重要 一般是由于实例状态异常等原因导致。 提交工单让运维处理。 数据库实例状态可能存在异常。 NoSQL 恢复到新实例失败 NoSQLRestoreToNewInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,重新尝试添加新节点。 无法恢复到新的数据库实例。 NoSQL 恢复到已有实例失败 NoSQLRestoreToExistInstanceFailed 重要 一般是由于备份文件下载或恢复失败等原因导致。 提交工单让运维处理。 当前数据库实例可能处于不可用状态。 NoSQL 删除备份文件失败 NoSQLDeleteBackupFailed 重要 一般是由于备份文件从obs删除失败导致。 重新尝试删除备份文件。 无 NoSQL 切换慢日志明文开关失败 NoSQLSwitchSlowlogPlainTextFailed 重要 一般是由于接口不支持切换等原因导致。 请查阅NoSQL用户指南,确认接口支持打开慢日志明文开关。提交工单让运维处理。 无 NoSQL 绑定EIP失败 NoSQLBindEipFailed 重要 一般是由于节点状态不正常,节点已经绑定EIP或EIP非法等原因导致。 检查节点是否正常,EIP是否合法。 无法通过公网访问数据库实例。 NoSQL 解绑EIP失败 NoSQLUnbindEipFailed 重要 一般是由于节点状态不正常,节点已经未绑定EIP等原因导致。 检查节点和EIP状态是否正常。 无 NoSQL 修改参数失败 NoSQLModifyParameterFailed 重要 一般是由于参数取值非法等原因导致。 排查参数值是否符合在合法范围内,提交工单让运维处理。 无 NoSQL 参数模板应用失败 NoSQLApplyParameterGroupFailed 重要 一般是由于实例状态异常导致参数模板无法应用等原因导致。 提交工单让运维处理。 无 NoSQL 开启或关闭SSL失败 NoSQLSwitchSSLFailed 重要 一般是由于修改SSL命令超时导致。 重新提交一次或者提交工单处理,并先保持切换之前使用SSL的连接方式。 是否使用SSL连接。 NoSQL 单行数据量太大 LargeRowOccurs 重要 用户单行数据量过大,可能会导致查询超时,进而节点OOM挂掉等各种故障发生。 1. 对每列和每行的写入长度做限制,遵从规范,使得单行的的key和value长度和不超过阈值。 2. 排查业务是否出现异常写入和异常编码,导致写入大row。 过大的单行记录,随着数据量增长,集群稳定性会下降。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        监控与告警
        事件监控
      • 数据质量监控概述
        功能 说明 总览 默认首页是总览页面,显示了数据表的报警和阻塞情况。 主要包括以下几部分内容: 所选周期内的作业数、实例数、异常表数,以及各种实例运行状态的分布和变化趋势情况。 当天告警分类统计、当天数据表告警统计、最近7天规则告警分类趋势的统计和最近7天规则数量的趋势。 规则模板 质量规则模板是数据质量的核心功能,是配置规则的主要入口。它主要管理规则配置(内置模板和自定义模板)的相关功能。 质量作业 质量作业可将规则模板或自定义规则应用到表中,进行数据质量监控。 对账作业 对账作业可将创建的规则应用到两张表中进行质量监控,并输出对账结果。 运维管理 运维管理用于查看规则运行状态,处理运维问题。 质量报告 系统根据作业的结果,会自动生成质量报告。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        数据质量监控概述
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 账户同步策略
        此小节介绍云堡垒机的账户同步策略。 新建帐户同步策略 帐户同步策略用于对主机资源账户自动同步,管理主机上资源账户,及时发现僵尸帐户或未纳管帐户,加强对资源的管控。 帐户同步策略支持以下功能项: 支持通过策略手动、定时、周期同步主机上资源账户。 支持拉取目标主机上帐户,判断帐户的可用情况,并更新系统资源账户状态。 支持将系统资源账户信息同步到主机,更新主机上帐户密码、新建主机帐户、删除主机非法帐户。 约束限制 仅专业版云堡垒机支持执行帐户自动同步。 仅SSH协议类型的主机,支持通过策略进行资源账户同步。 每个目标资源主机仅限一个资源账户登录并执行拉取帐户任务。 前提条件 已获取“帐户同步策略”模块操作权限。 新建帐户同步策略 1 登录云堡垒机系统。 2 选择“策略 > 帐户同步策略 > 策略列表”,进入策略列表页面。 帐户同步策略列表 3 单击“新建”,弹出新建帐户同步策略窗口。 4 配置策略基本信息。 帐户同步策略基本信息参数说明 参数 说明 策略名称 自定义的帐户同步策略名称,系统内“策略名称”不能重复。 执行方式 选择帐户同步执行方式,可选择“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 l 手动执行:手动触发策略,修改资源账户密码。 l 定时执行:定期自动触发策略,修改资源账户密码。仅执行一次。 l 周期执行:周期自动触发策略,修改资源账户密码。可按周期执行多次。 执行时间 定期执行策略的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入同步周期。 l 可选择每分钟、每小时、每天、每周、每月。 l 需同时选择“结束时间”,否则将无限期执行周期改密。 同步动作 选择同步方式,默认选择“拉取帐户”。 l 拉取帐户:扫描目标主机的所有帐户,并统计所有正常、 异常帐户信息。 l 推送帐户:将资源账户同步到目标主机,更新主机密码、 或新建主机帐户、或删除主机非法帐户。 连接超时 自定义连接目标主机的超时时间,连接超时断开连接,中断帐户同步任务。 l 默认为10秒。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建资源账户或帐户组。 每个目标主机仅限配置一个帐户执行同步任务。 配置执行资源账户 6 单击“确定”,返回策略列表页面,查看新建的同步帐户策略。 帐户同步策略执行后,可以下载执行日志,获取同步的资源账户信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统策略
        账户同步策略
      • 管理弹性云主机组
        本节介绍了管理弹性云主机组的操作场景、约束与限制、创建云主机组、添加云主机到云主机组、从云主机组移出云主机、删除云主机组。 操作场景 云主机组是对云主机的一种逻辑划分,云主机组中的弹性云主机遵从同一策略。 当前云主机组支持以下策略: 反亲和性策略:同一云主机组中的弹性云主机分散地创建在不同的主机上,提高业务的可靠性。 使用反亲和性策略可以将业务涉及到的云主机分散部署在不同的物理服务器上,以此保证业务的高可用性和底层容灾能力。 云主机组支持以下操作: 创建云主机组 添加云主机到云主机组 − 在创建弹性云主机时,将弹性云主机加入云主机组。 − 在弹性云主机创建成功后,添加到云主机组。 仅支持添加到反亲和性策略组,不支持添加到故障域策略组。 从云主机组移出云主机 删除云主机组 导出云主机组列表 约束与限制 当前云主机组支持反亲和性策略。 反亲和性策略云主机组中,云主机置放层级为物理机层级。 创建的云主机组个数上限可调整,请联系客服扩大配额。 同一个云主机仅支持一种策略。 不同区域每个云主机组最多支持添加的云主机个数各不相同,请在云主机组列表页查看可添加的云主机个数。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        管理弹性云主机组
      • 使用自定义镜像扩展Sandbox服务(1)
        步骤三:编写Dockerfile 创建Dockerfile,这里以AIO作为基础镜像,将服务代码和配置文件复制到对应目录: plaintext FROM serverlesspublicregistry.crshuanan2.ctyun.cn/sandbox/ctyunaio:v1.1 USER root 拷贝自己应用supervisord的配置文件到容器 COPY conf/echoserver.conf /etc/supervisor/conf.d/echoserver.conf RUN chmod 644 /etc/supervisor/conf.d/echoserver.conf 创建echoserver输出的日志目录 RUN mkdir p /var/log/supervisor/echoserver 设置应用要用的环境变量 ENV ECHOSERVERHOST0.0.0.0 ECHOSERVERPORT9000 拷贝自己的应用到容器 COPY ./server /home/user/server RUN chmod 777 R /home/user USER user 其他基础镜像地址: serverlesspublicregistry.crshuanan2.ctyun.cn/sandbox/ctyunbase:v1.1 serverlesspublicregistry.crshuanan2.ctyun.cn/sandbox/ctyuncodeinterpreter:v1.1 serverlesspublicregistry.crshuanan2.ctyun.cn/sandbox/ctyunaio:v1.1 步骤四:构建并测试 shell docker build platform linux/amd64 t echoserver:v0.1 . f Dockerfile docker run d p 9000:9000 echoserver:v0.1 验证 curl 预期返回: ok 步骤五:推送镜像 将构建出来的镜像,推送到天翼云容器镜像服务CRS,后续创建自定义模板可从CRS里选择该镜像。 步骤六:创建自定义模板 进入控制台>创建沙箱模板,沙箱类型选择“自定义沙箱”,并选择上一步上传的镜像。 注意事项 端口冲突:自定义服务的内部端口不能与 AIO 内置服务冲突。AIO 内置服务端口: 沙箱管理代理envd:49983 Code Interpreter:49999、8888 BrowserTool:9223、9222 VncTool:6080、5900
        来自:
      • 简介
        本章节主要介绍翼MapReduce的多租户功能。 定义 多租户是MRS集群中的多个资源集合(每个资源集合是一个租户),具有分配和调度资源的能力。资源包括计算资源和存储资源。 背景 现代企业的数据集群在向集中化和云化方向发展,企业级大数据集群需要满足: 不同用户在集群上运行不同类型的应用和作业(分析、查询、流处理等),同时存放不同类型和格式的数据。 某些类型的用户(例如银行、政府单位等)对数据安全非常关注,很难容忍将自己的数据与其他用户的放在一起。 这给大数据集群带来了以下挑战: 合理地分配和调度资源,以支持多种应用和作业在集群上平稳运行。 对不同的用户进行严格的访问控制,以保证数据和业务的安全。 多租户将大数据集群的资源隔离成一个个资源集合,彼此互不干扰,用户通过“租用”需要的资源集合,来运行应用和作业,并存放数据。在大数据集群上可以存在多个资源集合来支持多个用户的不同需求。 对此,MRS企业级大数据集群提供了完整的企业级大数据多租户解决方案。 优势 合理配置和隔离资源 租户之间的资源是隔离的,一个租户对资源的使用不影响其他租户,保证了每个租户根据业务需求去配置相关的资源,可提高资源利用效率。 测量和统计资源消费 系统资源以租户为单位进行计划和分配,租户是系统资源的申请者和消费者,其资源消费能够被测量和统计。 保证数据安全和访问安全 多租户场景下,分开存放不同租户的数据,以保证数据安全;控制用户对租户资源的访问权限,以保证访问安全。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        简介
      • 搭建Spark应用
        步骤三:启动 Spark workers Spark workers 启动时需要 Master service处于运行状态,您可以通过修改replicas来设定worker数目(比如设定 replicas: 4,即可建立4个Spark Worker)。您可以为每一个worker节点设置了CPU和内存的配额,保证Spark的worker应用不会过度抢占集群中其他应用的资源。sparkworkerdeployment.yaml可参考如下: sparkworkerdeployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: sparkworkercontroller namespace: sparkcluster spec: replicas: 4 selector: matchLabels: component: sparkworker template: metadata: labels: component: sparkworker spec: containers: name: sparkworker image: index.caicloud.io/spark:1.5.2 imagePullPolicy: Always command: ["/startworker"] ports: containerPort: 8081 resources: requests: cpu: 100m $ kubectl create f sparkworkerdeployment.yaml deployment "sparkworkercontroller" created 查看 workers是否正常运行,通过kubectl查询状态(可看到sparkworker都已经正常运行): $ kubectl get pods nsparkcluster NAME READY STATUS RESTARTS AGE sparkmastercontrollerb3gbf 1/1 Running 0 1d sparkworkercontrollerill4z 1/1 Running 1 2h sparkworkercontrollerj29sc 1/1 Running 0 2h sparkworkercontrollersiue2 1/1 Running 0 2h sparkworkercontrollerzd5kb 1/1 Running 0 2h 通过WebUI查看: worker就绪后应该出现在UI中。 步骤四:提交Spark任务 1. 通过Sparkclient,可以利用sparksubmit来提交复杂的Python脚本、Java/Scala的jar包代码。 $ kubectl get pods nsparkcluster grep worker NAME READY STATUS RESTARTS AGE sparkworkercontroller1h0l7 1/1 Running 0 4h sparkworkercontrollerd43wa 1/1 Running 0 4h sparkworkercontrollerka78h 1/1 Running 0 4h sparkworkercontrollersucl7 1/1 Running 0 4h $ kubectl exec sparkworkercontroller1h0l7 it bash $ cd /opt/spark
        来自:
      • 组网和资源规划
        本文向您介绍通过企业版VPN实现云上云下网络互通(主备模式)的组网和资源规划。 数据规划 类别 规划项 规划值 VPC 待互通子网 192.168.0.0/24 192.168.1.0/24 VPN网关 互联子网 用于VPN网关和VPC通信,请确保选择的互联子网存在4个及以上可分配的IP地址。 192.168.2.0/24 VPN网关 HA模式 主备 VPN网关 EIP地址 EIP地址在购买EIP时由系统自动生成,VPN网关默认使用2个EIP。本示例假设EIP地址生成如下: 主EIP:1.1.1.2 备EIP:2.2.2.2 VPN连接 Tunnel接口地址 用于VPN网关和对端网关建立IPsec隧道,配置时两边需要互为镜像。 VPN连接1:169.254.70.1/30 VPN连接2:169.254.71.1/30 用户数据中心 待互通子网 172.16.0.0/16 对端网关 公网IP地址 公网IP地址由运营商统一分配。本示例假设公网IP地址如下: 1.1.1.1 对端网关 Tunnel接口地址 VPN连接1:169.254.70.2/30 VPN连接2:169.254.71.2/30 IKE/IPsec策略 预共享密钥 Test@123 IKE/IPsec策略 IKE策略 版本:v2 认证算法:SHA2256 加密算法:AES128 DH算法:Group 15 生命周期(秒):86400 本端标识:IP Address 对端标识:IP Address IKE/IPsec策略 IPsec策略 认证算法:SHA2256 加密算法:AES128 PFS:DH Group15 传输协议:ESP 生命周期(秒):3600
        来自:
        帮助文档
        VPN连接
        最佳实践
        通过企业版VPN实现云上云下网络互通(主备模式)
        组网和资源规划
      • 价格
        福建云专线业务资费由安装调测费和电路月租费组成。 1) 电路月租费指客户租用云专线所产生的月度使用费用,按照公式计算得到,电路月租费为: 销售品名称 速率(Mbps) 省政企授权价(元/月) MPLSVPN PON云虚电路10M 10 200 MPLSVPN PON云虚电路20M 20 300 MPLSVPN PON云虚电路30M 30 400 MPLSVPN PON云虚电路40M 40 500 MPLSVPN PON云虚电路50M 50 600 MPLSVPN PON云虚电路60M 60 700 MPLSVPN PON云虚电路70M 70 800 MPLSVPN PON云虚电路80M 80 900 MPLSVPN PON云虚电路90M 90 950 MPLSVPN PON云虚电路100M 100 1000 MPLSVPN LAN云虚电路10M 10 450 MPLSVPN LAN云虚电路20M 20 550 MPLSVPN LAN云虚电路30M 30 650 MPLSVPN LAN云虚电路40M 40 750 MPLSVPN LAN云虚电路50M 50 850 MPLSVPN LAN云虚电路60M 60 950 MPLSVPN LAN云虚电路70M 70 1050 MPLSVPN LAN云虚电路80M 80 1150 MPLSVPN LAN云虚电路90M 90 1250 MPLSVPN LAN云虚电路100M 100 1350 MPLSVPN LAN云虚电路200M 200 2700 MPLSVPN LAN云虚电路300M 300 4050 MPLSVPN LAN云虚电路400M 400 5400 MPLSVPN LAN云虚电路500M 500 6750 MPLSVPN LAN云虚电路600M 600 8100 MPLSVPN LAN云虚电路700M 700 9450 MPLSVPN LAN云虚电路800M 800 10800 MPLSVPN LAN云虚电路900M 900 12150 MPLSVPN LAN云虚电路1G 1000 13500 STN云专线10M 10M 600 STN云专线20M 20M 800 STN云专线30M 30M 1000 STN云专线40M 40M 1200 STN云专线50M 50M 1300 STN云专线60M 60M 1500 STN云专线70M 70M 1600 STN云专线80M 80M 1800 STN云专线90M 90M 1900 STN云专线100M 100M 2000 STN云专线200M 200M 3200 STN云专线300M 300M 4300 STN云专线400M 400M 5400 STN云专线500M 500M 6400 STN云专线600M 600M 7400 STN云专线700M 700M 8300 STN云专线800M 800M 9100 STN云专线900M 900M 9800 STN云专线1G 1G 10500 STN云专线2.5G 2.5G 21700
        来自:
        帮助文档
        云专线(福建)
        计费说明
        价格
      • 产品简介
        数据生态 支持翼起来办公协同生态互联:支持虚拟应用保存文件至翼共享盘,支持翼连访问打开翼共享盘的文件,以及保存文件至翼共享盘。支持翼文档打开翼共享盘的文件,以及保存文件至翼共享盘。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        产品简介
      • Cassandra监控
        参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 获取连接调用链上报时间阈值(ms) integer JAVA 1 2.2.9 borrowConnection()方法调用链上报阈值,不超过该阈值不上报。 是否采集原始cql radio JAVA false 2.2.9 是否采集原始cql。
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        Cassandra监控
      • 软件开发生产线使用流程
        配置流水线 流水线集成代码检查、编译构建、部署等任务,可根据需要灵活配置流水线中的任务。流水线为非必须操作,根据需要配置即可。 代码检查服务可以对代码进行静态检查和安全检查,代码检查为可选操作,根据需要配置即可。 编译构建服务将软件的源代码编译成目标文件,并把配置文件和资源文件等打包。构建为可选操作,对于一些项目,例如PHP、Node.js前端代码,无需配置构建任务。 部署服务将软件包或代码部署到虚拟机或者容器。部署为可选操作,对于一些项目,例如手机APP开发,无需此类部署方式。 步骤 1 创建代码检查任务。 1. 进入已创建的项目,单击导航栏“代码 > 代码检查”。 2. 单击“新建任务”,在页面中选择需要检查的代码仓库,单击仓库名称后的“新建任务”。 3. 任务创建成功后,进入“概览”页面,单击“开始检查”启动任务。 4. 待任务执行成功后,可以查看检查结果、问题列表、修改建议等。 代码检查服务更多操作请参考《代码检查用户指南》。 步骤 2 创建构建任务。 1. 进入已创建的项目,单击导航栏“持续交付 > 编译构建” 2. 单击“新建任务”,根据需要配置任务信息。 基本信息:配置以下信息,单击“下一步”。 表:构建任务基本信息 配置项 配置建议 任务名称 输入自定义名称。 源码源 选择“Repo”。 源码仓库 选择在配置代码仓库中创建的代码仓库。 分支 根据需要选择仓库分支。 构建模板:可选择内置模板,也可以选择“空白构建模板”,单击“下一步”。 3. 根据需要配置构建步骤、参数、执行计划,单击“新建并执行”。 4. 待任务执行完成后,可以在页面中查看构建结果与构建日志。 编译构建服务更多操作指导请参考《编译构建用户指南》。 步骤 3 创建部署应用。 1. 进入已创建的项目,在页面导航栏选择“设置 > 通用设置 > 基础资源管理”,新建主机集群,并将前提条件中准备的主机加入集群。 2. 进入已创建的项目,在页面导航栏选择“持续交付 > 部署”。 3. 单击“新建应用”,根据需要配置应用信息。 基本信息:输入自定义应用名称,单击“下一步”。 选择部署模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 4. 根据需要配置部署步骤、参数、环境等信息,单击“保存并部署”。 5. 待应用部署成功后,可以在页面中查看部署结果、部署日志、报错信息等。 部署服务更多操作指导请参考《部署用户指南》。 步骤 4 配置流水线。 1. 进入已创建的项目,单击导航栏“持续交付 > 流水线”。 2. 选择“流水线”页签,单击“新建流水线”,根据实际情况配置流水线信息。 基本信息:配置以下信息,单击“下一步”。 表:流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择在配置代码仓库中创建的代码仓库。 默认分支 根据需要选择仓库分支。 模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 3. 根据需要配置任务编排、参数、执行计划,单击“保存并运行”。 4. 待任务执行成功后,可单击各任务查看其执行详情。 流水线服务更多操作指导请参考《流水线用户指南》。
        来自:
      • 软件开发生产线使用流程
        配置流水线 流水线集成代码检查、编译构建、部署等任务,可根据需要灵活配置流水线中的任务。流水线为非必须操作,根据需要配置即可。 代码检查服务可以对代码进行静态检查和安全检查,代码检查为可选操作,根据需要配置即可。 编译构建服务将软件的源代码编译成目标文件,并把配置文件和资源文件等打包。构建为可选操作,对于一些项目,例如PHP、Node.js前端代码,无需配置构建任务。 部署服务将软件包或代码部署到虚拟机或者容器。部署为可选操作,对于一些项目,例如手机APP开发,无需此类部署方式。 步骤 1 创建代码检查任务。 1. 进入已创建的项目,单击导航栏“代码 > 代码检查”。 2. 单击“新建任务”,在页面中选择需要检查的代码仓库,单击仓库名称后的“新建任务”。 3. 任务创建成功后,进入“概览”页面,单击“开始检查”启动任务。 4. 待任务执行成功后,可以查看检查结果、问题列表、修改建议等。 代码检查服务更多操作请参考《代码检查用户指南》。 步骤 2 创建构建任务。 1. 进入已创建的项目,单击导航栏“持续交付 > 编译构建” 2. 单击“新建任务”,根据需要配置任务信息。 基本信息:配置以下信息,单击“下一步”。 表:构建任务基本信息 配置项 配置建议 任务名称 输入自定义名称。 源码源 选择“Repo”。 源码仓库 选择在配置代码仓库中创建的代码仓库。 分支 根据需要选择仓库分支。 构建模板:可选择内置模板,也可以选择“空白构建模板”,单击“下一步”。 3. 根据需要配置构建步骤、参数、执行计划,单击“新建并执行”。 4. 待任务执行完成后,可以在页面中查看构建结果与构建日志。 编译构建服务更多操作指导请参考《编译构建用户指南》。 步骤 3 创建部署应用。 1. 进入已创建的项目,在页面导航栏选择“设置 > 通用设置 > 基础资源管理”,新建主机集群,并将前提条件中准备的主机加入集群。 2. 进入已创建的项目,在页面导航栏选择“持续交付 > 部署”。 3. 单击“新建应用”,根据需要配置应用信息。 基本信息:输入自定义应用名称,单击“下一步”。 选择部署模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 4. 根据需要配置部署步骤、参数、环境等信息,单击“保存并部署”。 5. 待应用部署成功后,可以在页面中查看部署结果、部署日志、报错信息等。 部署服务更多操作指导请参考《部署用户指南》。 步骤 4 配置流水线。 1. 进入已创建的项目,单击导航栏“持续交付 > 流水线”。 2. 选择“流水线”页签,单击“新建流水线”,根据实际情况配置流水线信息。 基本信息:配置以下信息,单击“下一步”。 表:流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择在配置代码仓库中创建的代码仓库。 默认分支 根据需要选择仓库分支。 模板:可选择内置模板,也可以选择“空白模板”,单击“确定”。 3. 根据需要配置任务编排、参数、执行计划,单击“保存并运行”。 4. 待任务执行成功后,可单击各任务查看其执行详情。 流水线服务更多操作指导请参考《流水线用户指南》。
        来自:
        帮助文档
        软件开发生产线CodeArts
        快速入门
        软件开发生产线使用流程
      • 产品优势
        本文为您介绍分布式消息服务MQTT的产品优势。 分布式消息服务MQTT(Message Queuing Telemetry Transport)是一种轻量级的、发布/订阅模式的消息传递协议,通常用于分布式消息服务和物联网(IoT)应用。以下是MQTT的一些优势: 轻量级协议: MQTT是一种非常轻量级的协议,适用于各种网络环境,包括低带宽、高延迟或不稳定的网络。这使得它非常适合在IoT设备之间传递消息,因为这些设备通常有限的资源和能源。 发布/订阅模式: MQTT采用发布/订阅模式,允许客户端订阅感兴趣的主题,以接收与这些主题相关的消息。这种模式具有灵活性,能够支持多对多的通信,而不需要直接点对点的连接。 异步通信: MQTT允许异步通信,客户端可以发布消息而不必等待接收方的响应。这有助于提高系统的响应速度和吞吐量。 保留消息: MQTT支持保留消息,这意味着最新的消息可以保留在主题中,以便新订阅者可以立即获取到最新数据,而不必等待下一个消息发布。 服务质量(QoS): MQTT允许设置不同级别的服务质量,从不保证消息送达(QoS 0)到确保消息送达且不重复传递(QoS 2)。这使得可以根据应用的需求选择适当的传递质量。 可伸缩性: MQTT协议可以在大规模分布式系统中轻松扩展,支持成千上万的客户端同时连接到Broker,使其适用于大型IoT解决方案。 消息过滤: MQTT支持使用通配符来订阅主题,这允许客户端根据特定模式匹配多个主题,以接收相关消息。 支持遗愿消息: MQTT支持遗愿消息(Will Messages),允许客户端指定在异常断开连接时发送一条预定义消息。这对于检测设备在线状态非常有用。 跨平台和多语言支持: MQTT具有广泛的跨平台和多语言支持,因此可以在各种设备和编程语言上使用,使得它非常灵活。 安全性: MQTT可以与安全机制(如TLS/SSL)结合使用,确保消息在传输过程中的安全性和隐私。 总的来说,MQTT是一种高效、灵活和可靠的协议,特别适用于分布式消息传递和IoT应用,因此在物联网、远程监控、实时通信等领域得到广泛应用。它的轻量级特性和异步通信使得它成为连接数众多的设备的理想选择。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        产品优势
      • 性能调优
        本文主要介绍通过调整客户端实例以获得最佳性能的最佳实践。 建议您调整客户端实例以获得最佳性能,可以进行以下配置达到更好的性能表现: 1. 修改网络超时时间为2秒,网络异常时快速切换。 注意 强烈建议配置此参数,如使用默认配置在网络异常情况下,挂载耗时会较长。 plaintext echo 2 > /sys/module/ko2iblnd/parameters/timeout echo 2 > /sys/module/ksocklnd/parameters/socktimeout echo 'options ko2iblnd timeout2' >> /etc/modprobe.d/lustre.conf echo 'options ksocklnd timeout2' >> /etc/modprobe.d/lustre.conf 2. 对于超过8个vCPU核心的客户端实例类型,可以通过增加CPU分区,获取更好的性能。 plaintext echo 'options libcfs cpunpartitions4' >> /etc/modprobe.d/lustre.conf echo 'options libcfs cpupattern""' >> /etc/modprobe.d/lustre.conf 3. 对于内存超过64GiB的客户端实例类型,我们建议应用以下调整: plaintext sudo lctl setparam ldlm.namespaces..lrumaxage600000 sudo lctl setparam ldlm.namespaces..lrusize 4. 对于超过64 个vCPU核心的客户端实例类型,我们建议应用以下调整: plaintext echo "options ptlrpc ptlrpcdpercptmax32" >> /etc/modprobe.d/lustre.conf echo "options ksocklnd credits2560" >> /etc/modprobe.d/lustre.conf 挂载客户端后,需要应用以下调整: plaintext sudo lctl setparam osc.OST.maxrpcsinflight32 sudo lctl setparam mdc..maxrpcsinflight64 sudo lctl setparam mdc..maxmodrpcsinflight50 请注意,已知lctl setparam重启后不会继续有效。由于无法从客户端侧永久设置这些参数,因此建议实施启动cron作业,使用推荐的调整来设置配置。
        来自:
        帮助文档
        并行文件服务 HPFS
        最佳实践
        性能调优
      • 产品咨询类
        本页介绍分布式融合数据库HTAP的常见产品咨询类问题。 分布式融合数据库HTAP易用性如何? 首先,分布式融合数据库HTAP高度兼容MySQL 5.7的网络协议、SQL功能及语法,同时也与生态工具(如PHPMyAdmin、Navicat、MySQL Workbench、mysqldump、Mydumper/Myloader)无缝对接。这使得分布式融合数据库HTAP的使用非常简单,你可以将HTAP集群视为MySQL数据库来使用。无论是在现有的以MySQL作为后台存储服务的应用中,还是在新的应用开发中,基本上都不需要修改应用代码,同时,流行的MySQL管理工具也能够轻松地用于管理分布式融合数据库HTAP。 其次,分布式融合数据库HTAP拥有分布式数据库的诸多优点。它采用Raft一致性算法,保证了数据在各个节点之间的一致性,从而确保了数据的可靠性和准确性。同时它支持自动的水平扩展,能够根据实际需求灵活地增加或减少节点数量,从而有效地应对不断增长的数据量和访问量。 总体来看,它兼具了MySQL的易用性与分布式数据库的高可用性、可扩展性,是一个非常可靠和高效的数据存储和处理解决方案,能为用户提供了卓越的性能和便利性,为业务的发展提供了强有力的支持。 分布式融合数据库HTAP如何进行水平扩展? 当您的业务不断增长时,数据库可能会面临三方面瓶颈,第一是存储空间,第二是计算资源,第三是读写容量,这时可以对分布式融合数据库HTAP集群做水平扩展。 如果是存储资源不够,可以通过添加存储节点来解决,管理节点会自动将其他存储节点的部分数据迁移过去,无需人工介入。 如果是计算资源不够,可以查看计算节点和存储节点的 CPU 消耗情况,再考虑添加计算节点或者是存储节点来解决。 如果是读写容量跟不上,一般可以考虑同时增加计算节点和存储节点。
        来自:
        帮助文档
        分布式融合数据库HTAP
        常见问题
        产品咨询类
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 配置监控与告警阈值
        本章节主要介绍翼MapReduce 的配置监控与告警阈值功能。 操作场景 配置监控与告警阈值用于关注各指标的健康情况。勾选“发送告警”后,当监控数据达到告警阈值,系统将会触发一条告警信息,将在“告警管理”中出现此告警信息。 操作步骤 在MRS Manager,单击“系统设置”。 1. 在“配置”区域“监控和告警配置”下,单击“阈值配置”,依据规划选择监控指标并设置其基线。 2. 单击某一指标例如“CPU使用率”,单击“添加规则”。 3. 在“配置”对话框中填写监控指标规则参数。 详见下表:监控指标规则参数 参数名 参数解释 参数值 规则名称 规则名称 CPUMAX(举例) 参考日期 查看某指标的历史参考数据 2014/11/06(举例) 阈值类型 选择某指标的最大值或最小值,类型为“最大值”表示指标的实际值大于设置的阈值时系统将产生告警,类型为“最小值”表示指标的实际值小于设置的阈值时系统将产生告警。 l 最大值 l 最小值 告警级别 告警级别 l 致命 l 严重 l 一般 l 提示 时间范围 设置规则生效时监控指标的具体时间段 从00:00到23:59(举例) 阈值 设置规则监控指标的阈值 设置数值80(举例) 日期 设置规则生效的日期类型 l 工作日 l 周末 l 其它 添加日期 日期选择“其他”时该参数生效。可选择多个日期。 11/30(举例) 4. 单击“确定”。界面右上角弹出提示“模板保存成功。”。 “发送告警”默认已勾选。Manager会检查监控指标数值是否满足阈值条件,若连续检查且不满足的次数等于“平滑次数”设置的值则发送告警,支持自定义。“检查周期(秒)”表示Manager检查监控指标的时间间隔。 5. 在新添加规则所在的行,单击“操作”下的“应用”,界面右上角弹出提示规则xx应用成功,完成添加。单击“操作”下的“取消应用”,界面右上角弹出提示规则xx取消成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        告警管理
        配置监控与告警阈值
      • 恢复HBase业务数据
        本章主要介绍翼MapReduce的恢复HBase业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HBase进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HBase业务数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 对系统的影响 恢复过程的数据还原阶段,系统会把待恢复的HBase表禁用,此时无法访问该表。还原阶段可能需要几分钟时间,此时HBase的上层应用无法正常工作。 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HBase备份文件保存路径。 停止HBase的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • 管理Prometheus实例
        本文将指导您如何管理Prometheus实例,包括新建实例、卸载实例、设置存储周期。 前提条件 已开通应用性能监控。 功能入口 1. 登录应用性能监控APM控制台。 2. 在左侧导航栏单击Prometheus监控,选择实例列表页面。 3. 在实例列表页面,您可以新建或卸载Prometheus实例,并查看已创建的Prometheus实例具体信息。 创建实例 1. 在实例列表页面,单击页面左上角的创建实例。 2. 在新建实例页面,填写实例名称与存储天数,点击确定,即可完成实例创建。 编辑实例 默认存储时长为15天,如需调整存储时间,您可以在存储时长页面调整存储天数。 1. 在实例列表页面,点击目标实例名称进入实例详情页面。 2. 在设置菜单中,点击存储时长页签。 3. 在存储时长设置界面下,选择希望要存储的天数,然后单击保存。 卸载实例 在实例列表页面中,点击目标实例后的卸载,完成二次确认后,即可进行卸载操作。 注意 Prometheus实例被删除后,实例中的监控数据、大盘、告警、服务发现配置会被删除并且无法恢复,请谨慎操作。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        实例管理
        管理Prometheus实例
      • 数据脱敏
        修改数据脱敏配置 步骤 1 登录管理控制台。 步骤 2 单击左侧,选择“应用性能管理 APM”,进入APM服务页面。 步骤 3 在左侧导航栏选择“配置管理 > 数据脱敏”,并选择对应的服务节点。 步骤 4 单击操作列“编辑”按钮,对配置信息进行修改。 图 编辑数据脱敏配置 图 修改配置信息 步骤 5 单击“确定”,完成修改配置。 删除数据脱敏配置 步骤 1 登录管理控制台。 步骤 2 单击左侧,选择“应用性能管理 APM”,进入APM服务页面。 步骤 3 在左侧导航栏选择“配置管理 > 数据脱敏”,并选择对应的服务节点。 步骤 4 单击操作列“删除”按钮。弹出提示框,单击“确定”,删除当前行的脱敏配置。 图 删除数据脱敏配置 步骤 5 选择多个数据脱敏配置,单击“批量删除”。弹出提示框,单击“确定”,可以同时删除多个数据脱敏配置。 图 批量删除配置
        来自:
        帮助文档
        应用性能管理
        用户指南
        配置管理
        数据脱敏
      • 服务访问方式
        本章节主要介绍Kubernetes服务管理功能中的访问方式 概览 本章节主要介绍Kubernetes服务管理功能中的访问方式,在该页面可以查看服务的名称、IP地址、暴露的端口、访问方式以及服务的yaml配置 操作步骤 1. 登录应用应用服务网格控制台,单击应用服务网格的名称,进入网格详情页面 2. 在左侧导航栏选择“集群与工作负载 ”,单击“kubernetes服务管理” 3. 点击右上角下拉框选择服务所在的命名空间 4. 点击服务的名称进入服务详情页面 5. 点击服务详情页面的“访问方式”标签
        来自:
        帮助文档
        应用服务网格
        用户指南
        集群与工作负载
        Kubernetes服务管理
        服务访问方式
      • 数据库命令授权
        本章节为您介绍数据库授权的相关内容。 数据库命令授权是用于拦截数据库会话敏感操作,实现数据库运维操作的细粒度控制。授权用户登录策略关联的数据库资源,当数据库运维会话触发规则,将会拦截数据库会话操作。 数据库命令授权支持以下功能项: 支持按命令组列表排序区分优先级,排序数字越小优先级越高(优先级可选1~100)。 支持以下控制命令的动作。 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认拒绝执行或默认允许执行。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 约束限制 仅企业版堡垒机支持数据库运维操作审计。 仅针对MySQL、Oracle、Postgresql类型数据库,支持通过数据库命令授权设置操作细粒度控制。 新增命令组 您在新增数据库命令授权前需要进行新增命令组的操作。 1. 使用“管理角色”账户登录云堡垒机系统。 2. 在左侧导航栏选择“授权管理 > 数据库命令授权”,进入“数据库命令授权”页面。 3. 在页面上面选择“命令组”页签,单击“新增”,开始新增命令组。 参数 参数说明 名称 自定义命令组的名称。 SQL命令类型 根据您业务的需求,选择需要进行控制的命令,云堡垒机目前支持选择如下命令: SELECT、INSERT、UPDATE、DELETE、TRUNCATE、CREATE、DROP、ALTER、GRANT、REVOKE、SHOW、DESCRIBE、EXPLAIN、RENAME。 SQL库名 填写命令生效的SQL库名。 SQL表名 填写命令生效的SQL表名。 风险等级 选择该命令组的风险等级,共可选5个等级。 动作 选择该命令组中的命令触发时产生的动作: 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认拒绝执行或默认允许执行。 说明 对于包含“触发审批”动作的命令组,需要当前选择的用户(组)具有审批规则,否则无法配置“触发审批”动作,请先前往工单管理配置审核人。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 审批超时配置 设定审批时限,超时未处理则自动拒绝或通过。 授权有效期 填写该授权的有效期。审批通过后,在有效期内可多次执行符合该规则的命令。 说明 命令匹配上多条策略时,动作执行优先级:触发审批 > 断开连接 > 允许执行,若未匹配上任何策略则放行。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        授权管理
        数据库命令授权
      • 图形界面
        本文介绍如何通过 SDK 调用 Computer Use 能力完成图形用户界面自动化操作。 基本流程 图形用户界面自动化通常遵循以下流程: 1. 创建会话。 2. 截图观察当前界面。 3. 根据界面状态决定下一步动作。 4. 执行鼠标或键盘操作。 5. 等待应用响应。 6. 再次截图确认结果。 7. 关闭会话。 鼠标移动 plaintext await session.computer.movemouse({ x: 500, y: 300 }); 鼠标点击 plaintext await session.computer.clickmouse({ x: 500, y: 300, clickMode: 'left' }); 常用点击模式: clickMode 说明 left 左键单击 right 右键单击 middle 中键单击 doubleleft 左键双击 如需只按下或只释放鼠标,可使用: plaintext await session.computer.pressmouse({ x: 500, y: 300, clickMode: 'left' }); await session.computer.releasemouse({ x: 500, y: 300, clickMode: 'left' }); 拖拽 plaintext await session.computer.dragmouse({ startX: 500, startY: 300, endX: 800, endY: 500 }); 滚动 plaintext await session.computer.scroll({ startX: 500, startY: 300, direction: 'down', amount: 3 }); direction 支持 up、down、left、right。具体滚动效果会受目标系统和应用影响。 键盘按键 plaintext await session.computer.presskey({ key: 'Enter' }); 组合键可使用空格分隔: plaintext await session.computer.presskey({ key: 'ctrl c' });
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        Aluse云电脑
        SDK接入
        图形界面
      • 资源池及功能概览
        产品功能及支持资源池一览 功能模块 产品功能 Ⅰ类型资源池 Ⅱ类型资源池 计费模式 按需计费 支持 支持 计费模式 包周期 支持 支持 计费变更 按需转包周期 支持 支持 计费变更 包周期转按需 支持 支持 实例规格 单节点(单机版) 支持 支持 实例规格 三节点副本集(一主两从) 支持 支持 实例规格 五节点副本集(一主四从) 支持 不支持 实例规格 七节点副本集(一主六从) 支持 不支持 实例规格 副本集只读从 支持 不支持 实例规格 分片集群 支持 不支持 实例规格 集群只读从 支持 不支持 数据库版本 3.4 支持 支持 数据库版本 4 支持 支持 实例部署 副本集跨可用区部署 华东1、华北2支持 不支持 实例部署 分片集群跨可用区部署 华东1、华北2支持 不支持 实例部署 跨可用区备份 华东1、华北2支持 不支持 实例管理 实例创建 支持 支持 实例管理 实例变配 支持 支持 实例管理 实例退订 支持 支持 实例管理 实例续费 支持 支持 实例管理 实例重启 支持 支持 实例管理 分片集群实例节点重启 支持 不支持 实例管理 实例参数变更 支持 支持 实例管理 设置可维护时间段 支持 支持 实例管理 导出实例列表 支持 不支持 实例管理 实例回收站 支持 支持 实例管理 主子帐号及IAM授权管理 支持 不支持 实例管理 修改实例名称 支持 不支持 实例管理 升级内核补丁版本 支持 不支持 实例访问 VPC内网访问 支持 支持 实例访问 公网IP访问 支持 支持 实例访问 只读节点单独访问 支持 不支持 实例访问 mongo shell访问 支持 支持 数据安全 云盘加密 支持 不支持 实例变更 扩容存储空间 支持 支持 实例变更 扩容备份空间 支持 支持 实例变更 单节点规格升配 支持 支持 实例变更 副本集规格升配 支持 支持 实例变更 分片集群Shard节点规格升配 支持 不支持 实例变更 分片集群Mongos节点规格升配 支持 不支持 实例变更 副本集增加实例节点 支持 不支持 实例变更 副本集增加只读节点 支持 不支持 实例变更 分片集群增加Shard 支持 不支持 实例变更 分片集群增加Mongos 支持 不支持 实例变更 副本集手动切换主备 支持 不支持 实例变更 分片集群手动切换主备 支持 不支持 备份管理 单节点手动备份 支持 支持 备份管理 副本集手动备份 支持 支持 备份管理 分片集群手动备份 支持 不支持 备份管理 单节点自动备份 支持 支持 备份管理 副本集自动备份 支持 支持 备份管理 分片集群自动备份 支持 不支持 备份管理 副本集增量备份 支持 不支持 备份管理 分片集群增量备份 支持 不支持 备份管理 查看备份结果 支持 支持 备份管理 对象存储 支持 不支持 备份管理 删除备份 支持 支持 备份管理 跨区域备份 仅华东1到西南1的链路支持 不支持 恢复管理 单节点恢复至单节点 支持 支持 恢复管理 单节点恢复至单节点新实例 支持 不支持 恢复管理 副本集恢复至相同节点数副本集 支持 支持 恢复管理 副本集恢复至相同节点数副本集新实例 支持 不支持 恢复管理 分片集群恢复至Shard数相同的分片集群 支持 不支持 恢复管理 分片集群恢复至Shard数相同的分片集群新实例 支持 不支持 恢复管理 单节点和副本集互相恢复 支持 不支持 恢复管理 多节点副本集互相恢复 支持 不支持 恢复管理 副本集按时间点恢复 支持 不支持 恢复管理 集群版按时间点恢复 支持 不支持 恢复管理 跨区域恢复 仅华东1到西南1的链路支持 不支持 恢复管理 查看恢复记录 不支持 支持 参数组管理 创建参数组 支持 支持 参数组管理 修改参数组 支持 支持 参数组管理 比较参数组 支持 支持 参数组管理 复制参数组 支持 支持 参数组管理 还原参数组 支持 支持 参数组管理 应用参数组 支持 支持 参数组管理 删除参数组 支持 支持 参数组管理 查看参数历史记录 支持 支持 参数组管理 导出参数 支持 不支持 数据库实例管理 修改实例端口 支持 支持 数据库实例管理 创建实例帐号 支持 支持 数据库实例管理 创建数据库 支持 支持 数据库实例管理 开启SSL 支持 支持 数据库实例管理 关闭SSL 支持 支持 数据库实例管理 重置数据库用户密码 支持 支持 数据库实例管理 变更安全组 支持 支持 监控管理 查看监控信息 支持 支持 监控管理 主机告警配置 支持 支持 监控管理 数据库告警配置 支持 支持 监控管理 告警中心 支持 支持 事件管理 查看计划内事件 支持 支持 事件管理 查看历史事件 支持 支持 日志管理 查看错误日志 支持 支持 日志管理 查看慢日志 支持 支持 日志管理 查看运行日志 支持 不支持 日志管理 日志配置管理 支持 不支持 任务列表 查看任务列表 支持 支持 白名单管理 添加白名单分组 支持 不支持 白名单管理 修改白名单分组 支持 不支持 白名单管理 删除白名单分组 支持 不支持 DTS数据迁移 副本集到副本集迁移 支持 不支持 DTS数据迁移 分片集群到分片集群迁移 支持 不支持 DTS数据迁移 副本集到分片集群迁移 支持 不支持 数据库工具 DMS登录数据库 支持 不支持 标签管理 统一标签视图 支持 不支持 标签管理 创建标签 支持 支持 标签管理 绑定标签 支持 支持 标签管理 解绑标签 支持 支持 标签管理 删除标签 支持 支持 标签管理 标签过滤查询 支持 不支持
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        资源池及功能概览
      • 训练监控
        本节介绍如何查看训练监控。 操作步骤 一、在AI应用列表,选择离线训练,点击要查看的训练任务 二、进入训练任务详情页,点击监控,查看训练任务监控详情
        来自:
        帮助文档
        智算套件
        用户指南
        应用监控
        训练监控
      • 计费详情
        本文介绍如何查看计费详情数据,可以了解安全加速的套餐详情和资源包使用情况。 CDN部分计费按照1000进制从Byte换算到Gbps。 套餐详情管理 安全加速的计费方式、WAF防护的套餐与计费、抗D服务的套餐与计费。 图 计费详情 资源包管理 资源包购买成功后次日00:00时生效,自动抵扣所覆盖产品产生的数据,有效期为一年; 资源包购买后不支持退款,到期后未用完的资源将清零,不支持转移到其他资源包; 购买多个资源包时,当某个资源包用尽后默认自动开启下一个临近到期的相同类别的资源包; 当资源包用尽或者过期后,默认转为按需计费。 1.订购安全加速产品后,可支持订购安全加速的资源包,并根据所开功能对资源包进行抵扣。 使用条件: 1)计费方式为“流量“:开通安全加速和WAF防护的用户,可抵扣“安全加速流量包“、“防护请求数包”和”静态https请求数包“;开通安全加速和抗D服务的用户,可抵扣”安全加速流量包“和“静态https请求数包”。 2)计费方式为“日带宽“:开通安全加速和WAF防护的用户,可抵扣“防护请求数包”和“静态https请求数包”;开通安全加速和抗D服务的用户,可抵扣“静态https请求数包”;计费方式为“日带宽”不能抵扣流量包,需要变更计费方式为“流量”。 2.资源包可叠加购买,购买多个相同类型的资源包,抵扣顺序依据资源包的到期时间先后排序,有效期不叠加计算。 3.资源包不支持退订,资源包订购成功后,不支持退订退款;资源包到期后,未用完的资源自动清零,不支持结转。 4.资源包的有效期为自购买成功后一年内有效;“任一资源包用尽”或“有效期结束”,将自动转按量计费。 5.资源包中的”安全加速流量包“是供边缘节点上行和下行总流量使用;“日带宽”计费客户,如需使用“安全加速流量包”,需将计费方式变更为“流量”。可叠加购买:购买多个相同类型的资源包,抵扣顺序依据资源包的到期时间先后排序,有效期不叠加计算。 不支持退订:资源包订购成功后,不支持退订退款;资源包到期后,未用完的资源自动清零,不支持结转。 有效期:自购买成功后一年内有效;“任一资源包用尽”或“有效期结束”,将自动转按量计费。 图 资源包管理
        来自:
        帮助文档
        安全加速(文档停止维护)
        用户指南
        计费详情
      • 元数据迁移
        步骤二:创建元数据导入任务 1.登陆管理控制台。 2.在管理控制台左上角单击,选择区域(请选择Kafka实例所在的区域)。 3.在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka控制台页面。 4.单击集群迁移>元数据迁移>单击创建任务,进入实例详情页面。 5.输入任务名称,选择目标实例,单击上传元数据文件。 6.点击下一步,到Topic编辑页面,这里可以手动增加、删除、修改topic 7.点击下一步,到group编辑页面,这里可以手动增加、删除、修改group 8.点击创建,这样就生成了一条元数据迁移任务 步骤三:查看迁移结果 1.在左侧导航栏,单击实例列表。 2.在实例列表页面,单击目标实例名称。 3.查看资源列表。 4.在左侧导航栏,单击Topic 管理 ,在Topic 管理页面的Topic列表中查看已创建的Topic。 5.在左侧导航栏,单击消费组管理 ,在消费组管理页面的Group列表中查看已创建的Group。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        元数据迁移
      • 迁移上云
        分布式消息服务Kafka提供全托管、免运维的迁移上云服务,用于自建实例或跨云云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍迁移上云的源实例类型、使用限制、跨VPC数据同步以及使用流程。 背景信息 迁移上云可以把源云分布式消息服务Kafka集群的元数据(Topic和Group配置信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1. 此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移。 2. 单机版不支持迁移。 计费说明 分布式消息服务Kafka的迁移上云组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA,使用迁移上云所依赖的其他产品的SLA和费用说明请以对应产品为准。 环境要求 如果您需要通过迁移上云功能将公网的自建实例的数据同步到分布式消息服务Kafka或者跨地域将某个VPC内的分布式消息服务Kafka的数据同步到另一个VPC的分布式消息服务Kafka,您需要为该实例绑定弹性IP开启公网访问,然后在公网上进行数据同步。 如果您需要将某个VPC内的数据通过迁移上云功能同步到另一个VPC的分布式消息服务Kafka,需要手动打通VPC。具体步骤,请参见:使用VPCEP实现跨VPC访问Kafka
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        迁移上云
      • 1
      • ...
      • 245
      • 246
      • 247
      • 248
      • 249
      • ...
      • 613
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      多活容灾服务 MDR

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      Push方式的调用说明

      产品定义

      迁移准备

      如何提现?

      重启实例

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号