活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      商企云数据_相关内容
      • 算力网关侧的裸金属通过天翼云4.0侧的EIP访问公网
        本文主要介绍算力网关侧的裸金属通过天翼云4.0侧的EIP访问公网。 操作步骤 一、 前提 通过公共算力服务提前完成跨域互联的创建。 二、 云专线产品配置全0路由 1. 云专线产品创建工单 在天翼云4.0侧控制台搜索云专线产品,在云专线产品上创建工单,问题类型选择“云专线开通”。 说明: 专线网关在添加云侧路由配置时支持基于”其他”类型的自定义地址段添加,可以配置0.0.0.0/0,用于把IDC机房访问Internet的流量引入VPC。在VPC页签下,点击VPC后的其他目的网段配置,填写目的网段IPv4:0.0.0.0/0(如不支持,请提交工单申请)。 2. 等待工单实施完毕 三、 创建EIP 在天翼云4.0侧,创建弹性IP。 四、 创建NAT网关 1. 在天翼云4.0侧,创建公网NAT网关 2. 配置SNAT规则 说明: 源网段类型:选择“手动输入自定义网段”。 源网段:输入算力网关侧需访问公网的裸金属IP地址。 弹性IP:选择第3步创建的EIP。 3. 配置DNAT规则 说明: 弹性IP:选择第3步创建的EIP。 类型:选择手动输入自定义地址。 端口设置:选择具体端口。 内网地址:输入算力网关侧裸金属IP地址。 公网端口:输入NAT网关对外提供服务的端口。 内网端口:输入算力网关侧裸金属IP的所在端口。 支持的协议:根据客户需求选取。
        来自:
        帮助文档
        公共算力服务
        最佳实践
        跨域互联
        算力网关侧的裸金属通过天翼云4.0侧的EIP访问公网
      • 将MySQL迁移至TeleDB
        开启binlog并设置格式 binlogformatrow binlogrowimagefull expirelogsdays7 binlog日志保留时间 gtidmode on 开启gtid enforcegtidconsistency 1 defaulttimezone '+8:00' 设置时区,解决CST夏令时的问题 maxconnections 1000 设置最大连接数 4. 重启MySQL。 5. 确认待迁移对象中是否包含触发器。 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 6. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例:4C8G + 500G + SSD 目标库磁盘信息:例:4C8G + 500G + SSD 网络情况:例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量:例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例:一天的binlog日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。 注意 如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次,例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。 注意 实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 进入迁移页面单击TeleDBDCP数据库管理平台左上角,可跳转到DTS管理服务页面。 2. 数据页面列表实例开通后,存在待配置 状态实例,单击操作 列的 实例配置 ,进入配置页面。 3. 配置源库及目标库信息 1. 进入实例配置第一个步骤的配置源库及目标库信息 页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。TeleDB的连接信息可以从TeleDB管理控制台看到,选择协调节点的主节点信息进行连接。在测试环境下,源库所在主机可通过连接网线到测试样品内网,并指定IP地址后,填写相应信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的检测联通性并进行下一步按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置 源库和目标库连通性测试成功后,进入实例配置第二个步骤的配置迁移对象及高级配置页面,在“源库对象”中展开库后,选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查并启动。 完成迁移对象和高级配置后,单击 下一步预检查 ,进入实例配置第三个步骤的预检查并启动页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 > 检查项 检查内容 > > 待迁移表主键检查 检查待迁移表是否都存在主键。 > 存储引擎检查 检查源库中待迁移表的存储引擎是否满足要求。 > 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 > 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 > 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 > 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 > 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求 > 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 > 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 > 源库连通性检查 检查数据传输服务能否连通源数据库。 > 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 > 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 > 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 > 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。也可以直接单击 “数据迁移”页签,返回数据迁移列表。注意,如果预检查中有错误项,数据迁移将无法开始;如果有警告项,数据迁移任务可以运行,但可能会出现一些问题。 直接返回迁移列表,迁移任务将处于未启动状态。 勾选实例,然后单击 开始任务 ,直到数据迁移实例完成(没有增量迁移),或者处于增量迁移状态。运行到增量迁移后,如果显示未运行,稍等一会会进入增量运行中。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将MySQL迁移至TeleDB
      • Kafka消息格式
        JSONC格式 JSONC格式与JSON格式类似,区别是对于删除操作,JSON数据放在old上,JSONC放在data上。对于timestamp类型数据转换成yyyymmdd hh:mm:ss的字符串。 JSONC定义详情参考表: 表 JSONC参数说明 参数名称 说明 :: mysqlType 源端表字段名称和类型。 id DRS内部定义的事件操作的序列号,单调递增。 es 源库产生这一条记录的时间,13位Unix时间戳,单位为毫秒。 ts 写入到目标kafka的时间,13位Unix时间戳,单位为毫秒。 database 数据库名称(Oracle数据库填写schema)。 table 表名。 type 操作类型,比如DELETE,UPDATE,INSERT,DDL。 isDdl 是否是DDL操作。 sql DDL的SQL语句,在DML操作中,取值为""。 sqlType 源端表字段的jdbc类型。 data 最新的数据,为JSON数组,如果type参数是插入则表示最新插入的数据,如果是更新,则表示更新后的最新数据;如果是删除,则表示被删除的数据。 old 旧数据,如果type参数是更新,则表示更新前的数据;如果是插入,取值为null。 pkNames 主键名称。 JSON格式数据中常见的转义字符 表 转义字符 字符 转义字符 :: u003e & u0026 u003d ' u0027
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        Kafka消息格式
      • 全量数据恢复:恢复到指定时间点
        类别 说明 恢复范围 恢复整个实例。 恢复后实例数据 恢复后实例数据与用于恢复的“全备文件+增备文件”中的数据一致。 恢复到新实例会为用户重新创建一个和该时间点数据相同的实例。 恢复的时间点 可以恢复到全量备份保留时间内,最早的一个全量备份之后的任意时间点内的数据。 恢复类型 恢复到新实例 恢复到新实例各配置项 新实例的数据库引擎和数据库版本,自动与原实例相同。 其他参数需要重新配置。 恢复时长 恢复时长和实例的数据量有关,平均恢复速率为80MB/s。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据恢复
        恢复到云上MySQL数据库
        全量数据恢复:恢复到指定时间点
      • 连接实例失败如何解决?
        本文向您介绍在录入或者登录实例时失败的解决方案。 问题描述 连接实例失败,是在登录实例或者添加实例时常遇到的问题,如下。 登录失败:在查询窗口或者其他有实例登录功能的地方登录实例,提示“无法连接到数据库、请检查信息是否填写正确”。 添加失败:添加实例时,输入完所有实例信息后,点击测试连接提示连接失败 问题分析 连接实例失败有多种可能,涉及到用户输入、网络、账号密码等多个因素,针对不同因素所造成的实例连接失败问题,相应地有不同的解决方案。 解决方案 实例信息录入错误:这种情况是因为实例的连接地址包括IP和端口填写错误,请您检查IP和端口并填写正确地址。 账号密码输入错误:填写正确的有登录权限的数据库账号和密码。 实例白名单没有配置:对于云实例,一般会使用白名单访问的方式,只有在白名单内的IP,才允许访问该实例,因此需要在实例所在安全组中添加DMS服务的白名单。DMS服务的白名单地址如下: 117.89.250.178
        来自:
        帮助文档
        数据管理服务
        常见问题
        常见问题概览
        连接实例失败如何解决?
      • ALM-13009 ZooKeeper Znode容量使用率超出阈值
        本章节主要介绍 ALM13009 ZooKeeper Znode容量使用率超出阈值。 告警解释 系统每小时周期性检测ZooKeeper服务数据目录下二级znode状态,当检测到二级znode的总容量超过阈值时产生该告警。 告警属性 告警ID 告警级别 是否自动清除 13009 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 服务目录 产生告警的目录名称。 角色名 产生告警的角色名称。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 向ZooKeeper数据目录空间写入大量数据,导致ZooKeeper无法对外正常提供服务。 可能原因 往ZooKeeper数据目录空间写入大量数据。 自定义阈值设置不合理。 处理步骤 检查告警目录是否写入大量数据 1. 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,单击告警“ALM13009 ZooKeeper Znode容量使用率超出阈值”所在行的下拉菜单,在定位信息中确认告警上报的Znode。 2. 选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper”,单击“资源”,在精细化监控“资源使用(按二级Znode)”中,单击“按容量”查看顶级Znode目录是否被写入较多数据。 是,记录被写入较多数据的目录,执行步骤 3。 否,执行步骤 5。 3. 确认被写入较多数据的目录中数据是否可以进行删除。 说明 删除ZooKeeper中的数据为高危操作,请谨慎处理。 是,执行步骤 4。 否,执行步骤 5。 4. 登录ZooKeeper客户端,删除被写入较多数据的目录中的无用数据。 a.登录ZooKeeper客户端安装目录(例如“/opt/Bigdata/client”),并配置环境变量。 cd/opt/Bigdata/client source bigdataenv b.执行以下命令进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 c.执行以下命令登录客户端工具。 zkCli.shserver : d.执行以下命令删除无用数据。 delete 待删除文件路径 5. 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper > 配置 > 全部配置”,然后搜索“max.data.size”即“ZooKeeper目录的容量配额的最大值”,单位为Byte。然后搜索“GCOPTS”配置项,查看其中“Xmx”的值。 6. 比较“max.data.size”和“Xmx0.65”的值的大小,较小的值乘以80%为ZooKeeper Znode容量的阈值,可适当修改这两项配置,增大阈值。 7. 观察界面告警是否清除。 是,处理完毕 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-13009 ZooKeeper Znode容量使用率超出阈值
      • 协调节点缩容
        本节介绍了如何缩容云数据库GaussDB 的协调节点。 操作场景 随着业务下降,数据库协调节点利用率低,资源浪费严重。为提高资源利用率,需要对协调节点进行缩容。云数据库GaussDB 支持协调节点缩容操作。 注意事项 协调节点缩容操作不会中断业务。 仅支持独立部署实例。 协调节点至少需要保留一个。 缩容前请确认该节点不在JDBC连接配置中,避免影响JDBC连接高可用性能。 缩容过程中执行的DDL操作将被回滚。 缩容过程中PITR备份暂停,缩容结束后自动恢复。 缩容完成后将自动进行一次全量备份。 缩容前须保证实例状态正常,所有协调节点状态正常,否则无法进行缩容。 当选择首节点缩容时,将随机替换为其他协调节点进行缩容。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在“实例管理”页面,选择指定的实例,单击实例的名称。 步骤 3 在“基本信息”页面,进行缩容操作。 1. 单击“协调节点数量”后的“删除”。 2. 选择需要删除的协调节点。 3. 单击“下一步”,进入“删除协调节点”确认界面。 4. 确认要删除的协调节点正确无误后,单击“提交”进行协调节点缩容。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        实例管理
        协调节点缩容
      • 使用Logstash访问Elasticsearch/OpenSearch实例
        本文为您介绍如何通过云搜索加装Logstash组件连接Elasticsearch或OpenSearch实例。 Elasticsearch实例连接 HTTPS访问模式 input部分使用如下配置 plaintext input { elasticsearch { Elasticsearch实例的访问地址。 hosts > ["ip:9200","ip:9200","ip:9200"] 配置查询的索引名,示例如下。 index > "yourindex" 保留索引中的元数据。 docinfo > true 访问Elasticsearch实例的用户名和密码。 user > "admin" password > "" https模式需要配置ssl > true。 ssl > true } } output部分使用如下配置: xml output{ elasticsearch { Elasticsearch实例的访问地址。 hosts > ["ip:9200","ip:9200","ip:9200"] 配置写入的索引名。 index > "yourindex" 访问Elasticsearch实例的用户名和密码。 user > "admin" password > "" 如果是Elasticsearch实例的迁移任务,可以选择该配置,用来保留元数据的id。 documentid > "%{[@metadata][id]}" https模式需要配置ssl > true。 ssl > true } } HTTP访问模式 使用加装的Logstash访问Elasticsearch实例的配置相比HTTPS访问模式,只需要把input和output部分的ssl > true删除即可。示例配置如下: input部分使用如下配置: plaintext input { elasticsearch { Elasticsearch实例的访问地址。 hosts > ["ip:9200","ip:9200","ip:9200"] 配置查询的索引名,示例如下。 index > "yourindex" 保留索引中的元数据。 docinfo > true 访问Elasticsearch实例的用户名和密码。 user > "admin" password > "" } }
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash实例的加装与使用
        使用Logstash访问Elasticsearch/OpenSearch实例
      • 概览
        本文介绍了概览的相关功能。 概览概述 概览用于查看用户整体的裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群情况,提供各子页面的快速入口与常见问题解答。 概览说明 用户登录控制台后,默认进入概览页面,根据该资源池特性展示概览信息。 模块 说明 功能介绍 展示裸金属、NAT网关、虚拟私有云、弹性IP、息壤智算集群的功能介绍,并提供创建快捷入口。 资源概览 展示当前登录用户在当前资源池下的资源情况,包括计算(裸金属)、网络(弹性IP、虚拟私有云、NAT网关)、集群(息壤智算集群)的相应统计情况,点击可进入相应列表页查看细节。 产品推荐 展示当前热门产品推荐,点击后新开窗口跳转至相应导购页。 快捷访问 展示算力市场、裸金属、虚拟私有云、NAT网关、息壤智算集群、门户官网快捷入口,点击可进行快捷访问。 常见问题 展示通用计算使用中的出现的常见问题并解答。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        概览
      • 如何通过弹性公网IP或NAT网关访问公网
        操作步骤 云主机通过绑定弹性IP访问公网 配置方法 在创建子网路由表时已经默认生成了指向IPv4网关的缺省路由规则,所有的子网默认具备访问公网的能力。不需要再配置其他路由规则即可通过弹性IP访问公网。 子网1中的ECS可以通过弹性IP访问公网。 云主机通过SNAT访问公网 前提条件 在VPC内创建NAT网关实例。 配置方法 如果子网2、子网3需要通过SNAT主动访问公网,需要在子网2、子网3关联的路由表中增加一条目的地址为0.0.0.0/0指向NAT网关的路由规则。由于user类型的路由规则优先级高于系统类型的路由规则,这样可以保证可以通过NAT网关访问互联网。 从以上的例子可以看出,同一个子网内的云主机绑定弹性IP和NAT网关后,默认通过NAT网关访问公网,弹性IP无法访问公网。因此,不建议同一个子网内的云主机同时绑定弹性IP和NAT网关。
        来自:
        帮助文档
        弹性IP EIP
        最佳实践
        如何通过弹性公网IP或NAT网关访问公网
      • NAT网关相关术语解释
        本节主要介绍NAT涉及到的相关术语。 弹性IP 弹性IP地址为可以直接访问Internet的IP地址。私有IP地址为公有云内局域网络所有的IP地址,私有IP地址禁止出现在Internet中。 弹性IP是基于互联网上的静态IP地址,将弹性公网IP地址和子网中关联的弹性云主机绑定,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 一个弹性公网IP只能给一个弹性云主机使用。 SNAT连接 由源IP地址、源端口、目的IP地址、目的端口、传输层协议这五个元素组成的集合视为一条连接。其中源IP地址和源端口指SNAT转换之后的弹性公网IP和它的端口。连接能够区分不同会话,并且对应的会话是唯一的。 DNAT连接 DNAT功能绑定弹性公网IP,可通过IP映射或端口映射两种方式,实现VPC内跨可用区的多个云主机共享弹性公网IP,为互联网提供服务。
        来自:
        帮助文档
        NAT网关
        产品简介
        NAT网关相关术语解释
      • 函数+APIG:处理文件上传
        本章节以NodeJS和Python语言为例,指导用户如何开发后端解析函数,获取上传的文件。 应用场景 端侧文件上传云主机器是Web和App应用的一类场景,例如服务运行日志的上报,Web应用图片上传等,函数可作为后端,结合APIG提供通用的API处理这类场景。 约束与限制 1. 单次请求上传文件大小不超过6MB。 2. 函数逻辑处理时间不超过15分钟。 操作步骤 1. 创建函数。 1. 登录函数工作流控制台,在左侧导航栏选择“函数 > 函数列表”,单击“创建函数”。 2. 选择“创建空白函数”,填写函数信息,完成后单击“创建函数”。选择运行时:Node.js 14.18。 3. 在“代码”页签,复制如下代码替换默认的函数代码,并单击“部署”更新函数。 const stream require("stream"); const Busboy require("busboy"); exports.handler async (event, context) > { const logger context.getLogger() logger.info("Function start run."); if (!("contenttype" in event.headers) !event.headers["contenttype"].includes("multipart/formdata")) { return { 'statusCode': 200, 'headers': { 'ContentType': 'application/json' }, 'body': 'The request is not in multipart/formdata format.', }; } const busboy Busboy({ headers: event.headers }); let buf Buffer.alloc(0); busboy.on('file', function (fieldname, file, filename, encoding, mimetype) { logger.info('filename:' + JSON.stringify(filename)) file.on('data', function (data) { logger.info('Obtains ' + data.length + ' bytes of data.') buf Buffer.concat([buf, data]); }); file.on('end', function () { logger.info('End data reception'); }); }); busboy.on('finish', function () { //这里处理数据 logger.info(buf.toString()); return { 'statusCode': 200, 'headers': { 'ContentType': 'application/json' }, 'body': 'ok', }; }); //APIG(专享版)触发器默认对数据进行Base64编码,这里解码 const body Buffer.from(event.body, "base64"); var bodyStream new stream.PassThrough(); bodyStream.end(body); bodyStream.pipe(busboy); } 2. 配置函数依赖。 1. 制作依赖包。代码中选择busboy库解析上传的文件,需要生成Node.js14.18版本对应的依赖包busboy.zip。如果您使用Node.js语言其他版本,请制作对应版本的依赖包。 2. 创建依赖包。在左侧导航栏“函数 > 依赖包”管理页面,单击“创建依赖包”,配置完成后单击“确定”。 3. 添加依赖包。进入uploadfile1函数详情页面,在“代码”页签最底部,单击“添加依赖包”。在“私有依赖包”的包源中,选择上一步创建的busboy依赖包,单击“确定”,完成依赖包的添加。 3. 配置APIG(专享版)触发器。 1. 在uploadfile1函数详情页面,单击“设置 > 触发器”,开始创建触发器。 2. 单击“创建触发器”,触发器类型可以选择“API 网关服务(APIG 专享版)”。安全认证:此处为方便测试,配置“None”,实际业务请选择更安全的认证方式,例如IAM认证等。请求协议:选择“HTTPS”。请求方法:在下拉列表中根据需求选择。后端超时(毫秒):默认5000毫秒。 4. 端到端测试:以curl工具为例(curl F的方式主要用的是linux环境),您也可以选择postman等其他工具,在本地创建app.log文件,内容自定义。执行如下命令测试: curl iv {APIG(专享版)触发器URL} F upload@/{本地文件路径}/app.log
        来自:
        帮助文档
        函数工作流
        最佳实践
        函数+APIG:处理文件上传
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        步骤二:配置 VPC 路由 1. 创建路由表及规则:登录网络控制台,选择“路由表”选项,创建客户自定义子网路由表。在路由表中添加路由规则,将 DeepSeek 业务子网的默认路由指向 vCPE 所在的云主机;同时添加 IPv4 网关明细路由,将目的为 DeepSeek 业务子网的流量下一跳设置为 vCPE 所在的云主机。 2. 配置安全组规则:选择“访问控制 安全组”,为 vCPE 所在云主机添加安全组规则,确保放行 DeepSeek 业务子网的流量。 通过以上配置,可实现将 DeepSeek 业务流量经由 vCPE 接入天翼云 SDWAN 网络。 步骤三:配置跨境白名单 1. 告知白名单需求:联系 SDWAN 客户经理,明确告知需要访问的海外资源白名单,例如 github 等。 2. 白名单配置与通道绑定:天翼云 SDWAN 交付团队收到您的需求后,将协助您完成白名单配置工作,把 vCPE 所属的 SDWAN 网络绑定到高速跨境通道,并开启跨境加速功能。 步骤四:开启定向加速 流量分流实现加速:跨境定向加速功能开启后,vCPE 能够依据 DeepSeek 业务主机的访问类型对流量进行智能分流:对于映射到跨境白名单的流量,vCPE 会将其送入 SD WAN 高速跨境通道进行加速;对于普通上网流量,vCPE 则将其送入境内互联网。若客户购买了 SD WAN 入云服务,vCPE 还可将 SD WAN 内网访问流量送至云网关。 您可以通过DeepSeek访问海外资源验证配置是否生效。 返回DeepSeek专题导航。
        来自:
        帮助文档
        天翼云SD-WAN
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 统一身份认证
        本文主要介绍应用性能管理 统一身份认证服务(Identity and Access Management,以下简称IAM)实现用户认证信息的集中管理。用户可以管理自己的已验证邮箱、已验证手机、密码等信息。当用户在调用API接口申请云服务器或进行云资源管理以及使用多租户方式登录云平台时,也可实时查询所需的项目ID、访问密钥(AK/SK)以及帐户名。 通过云审计服务,您可以记录与统一身份认证服务相关的操作事件,便于日后的查询、审计和回溯。 注:统一身份认证服务属全局级服务,各二类节点统一身份认证的相关操作事件请在贵州资源池查看和操作。 表 云审计服务支持的IAM操作列表 操作名称 资源类型 事件名称 用户登录 user login 用户登出 user logout 登录重置密码 user changePassword 创建用户 user createUser 删除用户 user deleteUser 修改用户 user updateUser 创建用户组 userGroup createUserGroup 删除用户组 userGroup deleteUserGroup 修改用户组 userGroup updateUserGroup 创建idp identityProvider createIdentityProvider 删除idp identityProvider deleteIdentityProvider 修改idp identityProvider updateIdentityProvider 更新metadata identityProvider updateMetadata 更新帐号登录策略 domain updateSecurityPolicies 更新密码策略 domain updatePasswordPolicies 更新ACL domain updateACLPolicies 更新安全警告策略 domain updateWarningPolicies 创建AK/SK user addCredential 删除 AK/SK user deleteCredential 修改邮箱 user modifyUserEmail 修改手机 user modifyUserMobile 修改密码 user modifyUserPassword 登录开启双因子认证 user modifySMVerify 上传头像 user modifyUserPicture 创建信任 agency createAgency 删除信任 agency deleteAgency 修改信任信息 agency updateAgency 修改latch user modifyLatchVerify 修改mc user modifyMCConnectVerify 管理员设置用户密码 user setPasswordByAdmin 切换角色 user switchRole
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的服务及详细操作列表
        管理与部署
        统一身份认证
      • 产生无明文返回值的数据密钥(信封加密)
        接口功能介绍 生成数据密钥,不返回明文数据密钥 接口约束 请保证账户余额大于0 URI POST /v1/keyCompute/generateDataKeyWithoutPlaintext 路径参数 无 Query参数 无 请求参数 请求头header参数 请参见请求消息头 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id 474e569e8814474a948bdbcf6d853eff keySpec 否 String 指定生成的数据密钥的长度,取值范围: AES256:256比特的对称密钥 AES128:128比特的对称密钥 (也可通过numberOfByte是参数指定密钥长度,若均为空,默认返回AES256) AES256 numberOfBytes 否 String 生成的数据密钥长度,取值范围:11024,单位:字节 256 响应参数 参数 参数类型 说明 示例 下级对象 code String 返回码,取值范围: 200:成功 400:参数缺失或错误 401:用户验证错误 404:操作目标不可用 500:系统内部错误 200 errorCode String 错误码 KMS.0514 msg String 调用结果信息 生成数据密钥成功 data Object 接口返回结果 returnObj 表 returnObj 参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 密钥唯一标识id,可选对称密钥类型 474e569e8814474a948bdbcf6d853eff keyVersionId 是 String 密钥版本id f2ffbff9940a41a4ba9afe1fd8f22792 ciphertextBlob 是 String 数据密钥密文,即被指定CMK的主版本加密后的密文,且经过Base64编码后返回 itIb4kN84JKrbv8P5ZTZJyn3cbu0SLvblB5/csedLEchgF5ijFx9nEc5Y0DpzWba
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        密码运算
        产生无明文返回值的数据密钥(信封加密)
      • 数据源
        后续操作 检查数据源:单击“操作”列的“检查”,若数据源已成功录入,则提示“数据源数据存在”。反之,提示“数据源数据不存在”。 编辑数据源:单击“操作”列的“编辑”,在跳转的页面中修改相关参数,修改完成后,单击“确认”即可完成修改。 说明 不支持对“统计字段”和“分组字段”进行修改。 删除数据源:单击“操作”列的“删除”,在跳出的小对话框中单击“确定”,完成删除操作。 说明 若存在报表已经已经引用,则无法删除该数据源,提示“报表存在引用的数据源,不可删除!”。 清空:单击“清空”,提示“确认清空数据源已有数据”。确定后,该数据源内容被清空。 启用:打开 “启用”,系统将每天定时获取该任务数据。关闭“启用”,不再每天定时获取该任务数据。
        来自:
        帮助文档
        日志审计(原生版)
        用户指南
        审计报表
        数据源
      • 修复容灾复制
        本文为您介绍修复容灾复制的操作流程。 操作场景 当出现复制错误时,可以执行修复复制操作,进行错误修复。 前提条件 受保护的服务器处于“复制错误”状态。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障切换>修复复制”,进入确认对话框。 7. 在确认对话框,单击“确定”,进行修复复制。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        管理受保护的服务器
        修复容灾复制
      • 云原生网关
        本章节介绍云原生网关CGW子产品的应用场景 流量接入&服务治理 传统的服务架构中采用流量网关+业务网关实现流量接入与分发;云原生网关融合了流量网关和业务网关能力,作为微服务架构中东西向和南北向流量的入口,提供了tls卸载,服务发现,请求路由,负载均衡,熔断限流等流量治理能力。 认证鉴权 在云上发布的服务一般需要对前端的请求进行认证鉴权,云原生网关提供了jwt、oidc、ip黑白名单及一系列扩展插件,实现对应用请求的身份认证和访问控制。 可视化运维 微服务网关提供丰富的可观测能力,包括指标监控,日志监控及全链路追踪能力;无需特殊配置即可获取丰富的可观测能力。
        来自:
        帮助文档
        微服务引擎
        产品简介
        应用场景
        云原生网关
      • 删除规则
        用户还可以删除已经创建的防火墙规则,本文为您介绍具体操作步骤。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击控制中心顶部的,选择资源所在地,此例我们选择上海36。 3. 单击左侧导航栏“产品服务列表”,选择“计算>轻量型云主机”。 4. 进入轻量型云主机列表界面,单击目标主机“实例名称”进入目标主机详情页。 5. 单击“防火墙”页签,可以看到当前轻量型云主机的防火墙信息。 6. 在目标规则单击“删除”,弹出删除确认弹窗。 7. 单击“确认”,完成规则删除。
        来自:
        帮助文档
        轻量型云主机
        用户指南
        管理防火墙
        删除规则
      • 常见配置问题及解决方案
        本章节向您介绍VPN连接服务故障排查中常见配置问题及解决方案,帮助您加速解决连接问题。 PSK不一致:单独更新预共享密钥会在下一次IKE协商时生效,最长等待一个IKE的生命周期,须确认两端更新密钥一致。 协商策略不一致:请仔细排查IKE中的认证算法、加密算法、版本、DH组、协商模式和IPsec中的认证算法、加密算法、封装格式、PFS算法,特别注意PFS和云下配置一致,部分设备默认关闭了PFS配置。 感兴趣流:两端ACL配置不互为镜像,特别注意云下的ACL配置不能采用地址组名称,要使用真实的IP地址+掩码。 NAT配置:云下子网访问云上子网配置为NONAT,云下公网IP不能被二次NAT为设备的接口IP。 安全策略:放行云下子网访问云上子网的所有协议,放行两个公网IP间的ESP、AH及UDP的500和4500端口。 路由配置:添加访问云上子网的出接口路由为隧道接口或IPsec协商出口,注意出接口的下一跳ARP解析要可达。
        来自:
        帮助文档
        VPN连接
        故障排查
        常见配置问题及解决方案
      • 时间宏变量使用解析
        Where子句中的时间宏变量 以SQOOP.CDM20171016表为例,该表中存在表示时间的列DS,如下图“表数据”所示: 假设当前时间为“20171016”,要导出前一天的数据(即DS‘20171015’),则可以在创建作业时配置“Where子句”为 DS'${dateformat(yyyyMMdd,1,DAY)}' ,即可将符合DS‘20171015’条件的数据导出。 时间宏变量和定时任务配合完成增量同步 这里列举两个简单的使用场景: 数据库表中存在表示时间的列DS,类型为“varchar(30)”,插入的时间格式类似于“2017xxxx”。 定时任务中,重复周期为1天,每天的凌晨0点执行定时任务。配置“Where子句”为 DS'${dateformat(yyyyMMdd,1,DAY)}' ,这样就可以在每天的凌晨0点导出前一天产生的所有数据。 数据库表中存在表示时间的列time,类型为“Number”,插入的时间格式为时间戳。 定时任务中,重复周期为1天,每天的凌晨0点执行定时任务。配置“Where子句”为 time between {timestamp(1,DAY)} and {timestamp()} ,这样就可以在每天的凌晨0点导出前一天产生的所有数据。 其它的配置方式原理相同。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        时间宏变量使用解析
      • 恢复还原中断或挂起的卷(上云卷适用)
        参数 描述 n LUNNAME 或 name LUNNAME 指定需要继续还原或挂起的卷名称。 syncmode SYNCMODE 指定缓存模式卷的恢复数据范围。 取值: MetaOnly:仅更新卷索引中与云端数据索引差异的部分。 Full:更新卷索引与云端差异部分,以及本地所存热数据与云端的差异部分。 默认值为Full。 注意 此参数仅适用于缓存(cache)模式卷,如果本地没有数据,则不更新本地数据。 f 或 force 强制恢复卷。 注意 强制恢复,会产生部分本地数据丢失的风险,请谨慎操作。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        恢复还原中断或挂起的卷(上云卷适用)
      • 新建衍生指标
        管理衍生指标 进入数据架构的“技术指标 > 衍生指标”页面,您可以对衍生指标进行编辑、发布、下线、查看发布历史或删除操作。 1. 在数据架构控制台,单击左侧导航树中的“技术指标”,选择“衍生指标”页签,进入衍生指标页面。 2. 您可以根据实际需要选择如下操作。 当需要... 则... 新建 执行新建衍生指标并发布。 编辑 执行3。 发布 执行4。 查看发布历史 执行5。 预览SQL 执行6。 下线 执行7。 查看汇总表 执行8。 删除 执行9。 导入 执行10。 导出 执行11。 3. 编辑 a. 在需要编辑的衍生指标右侧,单击“编辑”,进入编辑衍生指标页面。 b. 根据实际需要编辑相关内容。 c. 在页面下方,单击“试运行”按钮,然后在弹出框中单击“试运行”按钮,测试所设置的衍生指标是否可以正常运行。 如果试运行失败,请根据错误提示定位错误原因,将配置修改正确后,再单击“试运行”按钮进行重试。 d. 如果试运行成功,单击“发布”,提交发布审核。 4. 发布 a. 在需要发布的衍生指标右侧,单击“发布”,弹出“提交发布”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 5. 查看发布历史 a. 在列表中,找到需要查看的衍生指标,在右侧单击“更多 > 发布历史”,将显示“发布历史”页面。 b. 在“发布历史”中,您可以查看衍生指标的发布历史和版本对比信息。 6. 预览SQL a. 在列表中,找到所需要的衍生指标,在右侧单击“更多 > 预览SQL”,弹出“预览SQL”对话框。 b. 在“预览SQL”中,您可以查看SQL语句,也可以复制SQL。 7. 下线 说明 下线衍生指标的前提是无依赖引用,即无复合指标引用。 a. 在需要下线的衍生指标右侧,单击“更多 > 下线”,系统弹出“提交下线”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 8. 查看汇总表 当前仅支持查看自动汇聚的汇总表详情。在需要查看汇总表的指标右侧,选择“更多 > 查看汇总表”,跳转到汇总表详情页面。 9. 删除 说明 删除衍生指标的前提是无依赖引用,即无复合指标引用。 a. 在衍生指标列表中,勾选需要删除的衍生指标,单击页面上方“更多 > 删除”,系统弹出“删除”对话框。 b. 单击“是”。 10. 导入 可通过导入的方式将衍生指标批量快速的导入到系统中。 a. 在汇总表上方,单击“更多>导入”,进入“导入配置”页签。 b. 下载衍生指标导入模板,编辑完成后保存至本地。 c. 选择是否更新已有数据。 说明 如果系统中已有的编码和模板中的编码相同,系统则认为是数据重复。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 d. 单击“添加文件”,选择编辑完成的导入模板。 e. 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 f. 单击“关闭”。 11. 导出 可通过导出的方式将衍生指标导出到本地。 a. 在衍生指标列表选中待导出的指标。 b. 在列表上方,单击“更多>导出”,即可将系统中的衍生指标导出到本地。 说明 在左侧主题树中选中某个主题,可以导出该主题下的所有衍生指标; 当该空间下不超过500条衍生指标数据时可以全部导出。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        指标设计
        技术指标
        新建衍生指标
      • 导出监控数据:站点监控
        接口功能介绍 导出指定时间段内的站点监控时序指标监控数据,导出格式为csv文件。 接口约束 regionID(资源池)、deviceUUIDList(站点监控资源)、itemNameList(待查监控项名称)存在。 URI POST /v4/monitor/exportsitemonitorhistorymetricdata 请求参数 请求体body参数 参数 参数类型 是否必填 示例 说明 下级对象 regionID String 是 81f7728662dd11ec810800155d307d5b 资源池ID itemNameList Array of String 是 ["pingaverageresponsems"] 待查的监控项名称 startTime String 是 1667815639 查询起始时间戳 endTime String 是 1667817639 查询结束时间戳 deviceUUIDList Array of String 是 ["hxfi20221027191319"] 查询设备ID列表 period Integer 否 300 聚合周期,单位:秒,默认300 响应参数 根据请求参数导出监控数据为csv文件。 文件内容按照设备deviceUUID分隔,不同设备的数据以栏(多个行)为单位竖向排列。 同一设备的不同指标,按照时间戳横向排列,无数据则为空。 请求失败,返回参数参考历史监控数据查询系列接口。 请求示例 POST /v4/monitor/exportsitemonitorhistorymetricdata 请求体body json { "regionID": "81f7728662dd11ec810800155d307d5b", "startTime": "1667815639", "endTime": "1667817639", "itemNameList": [ "pingaverageresponsems" ], "deviceUUIDList": [ "hxfi20221027191319" ] }
        来自:
        帮助文档
        云监控服务
        API参考
        API
        监控服务
        监控数据导出
        导出监控数据:站点监控
      • 如何配置规则防护引擎
        对于互联网中已经公布和尚未披露的0day漏洞,WAF会及时进行更新并发布在产品控制台,您可登录使用WAF产品进行防护,同时会在概览页最新消息内容中的威胁消息告知漏洞信息: 点击概览页最新消息中的漏洞消息可以进入到消息中心查看漏洞详情: 您可以查看您的网站是否会受到此漏洞的影响。如果受到漏洞的影响,可以联系天翼云安全专家沟通具体的解决方案,联系方式见服务保障。 如何查看防护数据报表 域名开启防护总开关后,您可以在安全分析中的WAF攻击报表中选择一个或者多个域名查看选中的域名匹配域名规则攻击内容。详情见WAF安全报表。 WAF攻击报表可以查询连续不间断的两个月的数据,报表内提供了多种攻击数据分析,包括:威胁分布、攻击趋势、攻击地区等多种数据分析图表,可以直观的查看WAF的防护效果。您可以根据图表内容来制定安全防护策略,维持域名的安全。 您也可以查询具体详细的日志内容,可以在日志管理中WAF攻击日志查看详细的攻击记录,可以根据攻击类型、规则id、防护模式等多项组合进行筛选出攻击日志记录,点击查看详情可以查看当前选择的攻击日志的详细内容。详情见WAF攻击日志。 如果您在攻击日志中发现WAF误拦截了正常业务流量数据,产生误报时,可以先通过WAF攻击日志 中,查看详情中 的添加白名单 对受影响的业务URL进行加白配置,先放行该业务请求。然后联系天翼云安全专家(联系方式见服务保障)沟通具体的解决方案。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        如何配置规则防护引擎
      • 使用协同签名服务保障数据安全
        数据传输过程中的机密性、完整性保护 数据安全传输实现说明如下: 1. APP集成协同签名客户端SDK; 2. 用户首次使用APP时下载SM2软证书(密钥分片)到本地; 3. APP端上传重要数据时通过服务端公钥进行数据加密,服务端通过私钥进行解密; 4. 服务端下发重要数据时通过用户公钥进行数据加密,APP端通过软证书以及协同签名服务实现数据解密。 密文采用数字信封方式封装,加解密过程中自动通过SM3算法实现数据完整性保护。 协同签名客户端SDK为二级软件密码模块,可达到与硬件智能密码钥匙相同的密钥保护安全强度,认证过程中用户无需使用任何硬件介质,满足等保3级系统应用和数据层面数据传输机密性相关要求。
        来自:
        帮助文档
        云密评专区
        最佳实践
        使用协同签名服务保障数据安全
      • 审批中心
        本章节主要介绍数据权限的 审批中心。 约束与限制 仅管理员角色的用户支持管理审批人,可新建和删除审批人。 审批管理 用户可在审批中心页面,查看自己提交的申请及进度,查看待自己审批的申请,查看已审批的历史记录并对审批人进行管理。 审批人管理 选择“数据权限 > 审批中心”,在“审批人管理”页签“新建”和“删除”审批人。审批人数据来源于工作空间中添加的人。 详见下图:管理审批人 待我审批 1.选择“数据权限 > 审批中心”,单击“待我审批”页签。在此页面查看当前需要用户审批的申请单。 2.单击操作栏的“审批”,查看申请单的详细信息并进行审批。 3.填写审批意见后,根据实际情况同意或拒绝该申请。 我已审批 1.选择“数据权限 > 审批中心”,单击“我已审批”页签。 2.单击操作栏中的“查看”,即可查看申请单的审批记录和申请内容等详细信息。 我的申请 1.选择“数据权限 > 审批中心”,单击“我的申请”页签。 2.单击操作栏中的“查看”,即可查看申请单的详细信息。 3.单击操作栏中的“重新申请”,即可重新授权。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据权限
        审批中心
      • 移动脚本/脚本目录
        本章节主要介绍(可选)管理脚本的 移动脚本/脚本目录。 您可以通过移动功能把脚本文件从当前目录移动到另一个目录,也可以把当前脚本目录移动到另一个目录中。 前提条件 已完成脚本开发。如何开发脚本,请参见开发脚本。 操作步骤 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 移动脚本或脚本目录。 通过右键的“移动”功能。 a. 在脚本目录中选择需要移动的脚本或脚本文件夹,右键单击脚本或脚本文件夹名称,选择“移动”。 b. 在弹出的“移动脚本”或“移动目录”页面,配置如下表所示的参数。 移动脚本/移动目录参数 参数 说明 选择目录 选择脚本或脚本目录要移动到的目录,父级目录默认为根目录。 c. 单击“确定”,移动脚本/移动目录。 通过拖拽的方式。 单击选中待移动的脚本或脚本文件夹,拖拽至需要移动的目标文件夹松开鼠标即可。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        (可选)管理脚本
        移动脚本/脚本目录
      • 指标浏览
        参数 说明 时间范围 需要监控的指标数据的时间范围。 统计周期 指标数据按照所设置的统计周期进行聚合。 统计方式 指标数据按照所设置的统计方式进行聚合。 说明 样本个数为指标数据点的计数。
        来自:
        帮助文档
        应用运维管理
        用户指南
        资源监控
        指标浏览
      • 按需计费
        本章节介绍关系型数据库按需计费的模式。 1、收费方式 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 例如:如果您在1点01分开通,那么时间到2点就算做一个自然小时;如果您在1点58分开通,那么时间到2点也算做一个自然小时,都是按照1个小时收费。所以为了避免您的时间损失,建议您整点后几分钟内开通,在整点前几分钟删除。 2 、删除规则 (1)删除关系型数据库时,数据库的CPU、内存的费用停止计费,其他关联资源继续计费。 (2)数据库删除后,数据不会保留会立即释放资源。 3 、账户欠费 如用户账户出现欠费,账户一旦充值,系统将会自动优先扣除欠费金额。 4 、提醒/通知规则 (1)账户欠费通知:当用户欠费时,系统会向用户发送1次欠费提醒,并在欠费的第2天、第4天、第6天各发送1次欠费提醒。
        来自:
        帮助文档
        关系数据库SQL Server版
        计费说明
        计费方式
        按需计费
      • 概述
        本文主要介绍概述 概述 APM Agent会周期性采集一些性能指标数据,用来衡量应用的总体健康状况。可以采集JVM、GC、服务调用、异常、外部调用、数据库访问以及其他中间件的指标调用等数据,帮助用户全面掌握应用的运行情况。 APM对指标数据的采集有严格的定义,每一种采集的数据类型对应一个采集器,比如采集java应用的JVM数据,那么对应有JVM采集器,一个采集器会采集多个指标集的数据。 采集器被部署到环境后形成监控项,在数据采集的时候监控项决定了采集的数据结构和采集行为。 采集周期:监控项具有数据采集器的周期属性。当前数据采集周期为一分钟,不支持用户调整。 监控项状态:默认为enable状态,用户可以将监控项设置为disable状态,这样Agent就不会拦截该指标数据,也不会上报数据。 采集状态:采集实例和监控项会有一个采集状态信息。如果出现采集错误,可以通过采集状态查看。常见错误是主键太多,导致客户端数据汇聚异常。 监控项类型 Agent会自动发现系统采集的插件类型,并且将采集器实例化,形成监控项。监控项是实例化在一个环境上的。 由于采集器种类较多,会导致用户区分困难。系统后台会定义一些类型,每种采集器都会归到一种类型下,这样方便用户查看数据。 根据采集器的作用可以将监控项分为以下几种类型: 接口调用:是指外部服务调用当前应用的监控类型。 基础监控:是用来监控系统性能的基础监控指标的监控类型。 异常:用来监控应用的异常信息。 外部调用:是指当前应用调用外部服务的监控类型。 数据库:是对数据库的访问进行监控。 缓存:是对Redis等缓存系统的监控,会采集指令级别的细粒度的指标数据。 web容器:是对tomcat等web容器的监控,一般会采集系统总的处理线程数,busy线程数,连接数等;用于衡量系统总的容量。 消息队列:是对kafka、RabbitMq等消息系统的监控,包含发送端和接收端的监控。在接收端的处理函数,可以产生调用链信息。 通信协议:是对websocket等通信协议的监控。
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        概述
      • 产品规格
        专属云Kafka的产品服务与公有云Kafka的产品规格保持一致,由两种服务资源组成,队列规格、队列存储。 其中队列计算规格按消息队列基准带宽分为4种分别是:100MB/s、300MB/s、600MB/s、1200MB/s; 存储类型分2种,分别如下:高I/O、超高I/O。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        计费说明
        产品规格
      • 1
      • ...
      • 225
      • 226
      • 227
      • 228
      • 229
      • ...
      • 591
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      推荐文档

      云课堂 第一课:玩转天翼云安全组

      代金券使用后是否可以退换?

      域名管理

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号