活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      智能商业平台_相关内容
      • 初始化
        参数 类型 描述 是否必须 storName String HBlock名称。 取值:长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 是 userName String HBlock的管理员用户名。 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小。默认值为storuser。 否 newPassword String 设置的新密码。初始化时必须修改密码。 取值:长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / < > ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 是 edition String 指定版本类型。 取值: Free:免费版。 Commercial:商业版。 默认值为Commercial。 否 iSCSIPort Integer iSCSI端口。 取值:[1, 65535],默认值为3260。 否 portRange String 指定端口范围。存储服务以及未指定端口的服务将从此范围中自动取值。 取值:[1, 65535],port1为端口范围最小值,port2为端口范围最大值,且 port1 < port2 。 port1 默认取值为20000, port2 默认取值为20500。 说明 建议指定的端口范围至少包含500个端口。 否 faultDomain String 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。 取值: room:机房级别。 rack:机架级别。 path:数据目录级别。 server:服务器级别。 默认值为server。 注意 如果故障域级别为room或者rack,则必须使用拓扑文件导入方式进行初始化。 否 ports.dataPort1 Integer 数据端口1(仅集群版支持)。 取值:[1, 65535]。 否 ports.managementPort1 Integer 管理服务端口1。 取值:[1, 65535]。 否 ports.managementPort2 Integer 管理服务端口2。 取值:[1, 65535]。 否 ports.managementPort3 Integer 管理服务端口3。 取值:[1, 65535]。 否 ports.managementPort4 Integer 管理服务端口4。 取值:[1, 65535]。 否 ports.managementPort5 Integer 管理服务端口5(仅集群版支持)。 取值:[1, 65535]。 否 ports.managementPort6 Integer 管理服务端口6。 取值:[1, 65535]。 否 ports.metadataPort1 Integer 元数据端口1(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort2 Integer 元数据端口2(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort3 Integer 元数据端口3(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort4 Integer 元数据端口4(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort5 Integer 元数据端口5(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort6 Integer 元数据端口6(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort7 Integer 元数据端口7(仅集群版支持)。 取值:[1, 65535]。 否 ports.metadataPort8 Integer 元数据端口8(仅集群版支持)。 取值:[1, 65535]。 否 topology String 导入集群拓扑文件内容(仅集群版支持)。 取值:拓扑文件需要采用UTF8编码,且为JSON文件格式,然后转换成字符串格式复制给该参数。拓扑文件的构成详见 否 servers Array of server HBlock服务器的属性集合,详见“ 表1 请求参数server说明(仅集群版支持 )”。 注意 “topology”与“servers”必须选一种,且只能选一种。如果故障域级别为room或者rack,则必须使用拓扑文件导入方式进行初始化。 否 services Array of server 服务地址的集合(仅集群版支持),详见“ 表3 请求参数service说明(仅集群版支持) ”。 否 clusterNetwork String 集群网络(仅集群版支持),用于集群间的数据通信。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,默认使用服务器列表中HBlock服务器IP,此时HBlock的服务器IP不能指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 取值:如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/24。 否 publicNetwork String 业务网络,用于客户端和HBlock之间的数据传输式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,默认使用服务器列表中HBlock服务器IP,此时HBlock服务器IP不能指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 取值:如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/24列表。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        初始化
        初始化
      • API调用指南
        本文介绍内容审核产品的API调用指南。 1.选择产品聚合页 点击【产品人工智能】,选择【内容审核】,打开对应的产品聚合页。 2.打开帮助中心 点击【产品文档】,跳转到对应的产品文档,产品文档中【API参考】章节介绍了API调用的相关说明。 3.查看API的请求地址 API的请求地址格式为:{终端节点地址}+{对应接口URL}。 3.1终端节点地址 3.2对应接口URL 以图片鉴黄为例,选择【API参考API图片鉴黄】,右侧即可查看URL。 4.查看接口文档 以图片鉴黄为例:点击【API参考API】,选择【图片鉴黄】,右侧即可查看、请求方法、接口要求、请求URL、请求参数、返回值说明、状态码等信息。 5.构造请求 点击【API参考如何调用API】,选择【构造请求】。 6.认证鉴权 在帮助中心菜单中点击【认证鉴权】,可根据右侧步骤完成认证鉴权。 具体步骤:信息的获取——基本签名流程——创建待签名字符串——构造动态密钥——签名应用及示例。 7.调试接口并查看状态码 调试后,如果API返回状态码为200,表示请求成功,API调试结束。
        来自:
        帮助文档
        内容审核(文档停止维护)
        用户指南
        API调用指南
      • 配置自定义词库
        本章节主要介绍如何配置自定义词库。 云搜索服务的自定义词库功能,支持对文本进行分词,使得一些特殊词语在分词的时候能够被识别出来,便于根据关键词搜索文本数据。例如,根据公司名称来查询;或者根据网络流行词来查询,如“喜大普奔”。 说明 l 自定义词库功能上线之前创建的集群,无法使用自定义词库功能。 l 自定义词库支持热更新,不需要重启集群即可生效。 l 自定义词库一般用于中文分词,如果用于英文分词,会按照除 &+.@外的特殊符号进行切分。 背景信息 自定义词库使用的分词器包括IK分词器和同义词分词器。IK分词器配备主词词库和停词词库;同义词分词器配备同义词词库。 主词词库 :主词为用户希望进行分词的特殊词语,如上文场景中的“智能手机”和“喜大普奔”。主词库则是这些特殊词语的集合。 停词词库 :停词为用户不希望进行分词或者关注的词语,如“的”、“什么”、“怎么”等。停词词库是停词词语的集合。 同义词词库 :同义词为意义相同的一组词语,如“开心”和“高兴”。同义词词库是同义词词语的集合。 其中,IK分词器包含ikmaxword和iksmart分词策略。同义词分词器使用的是iksynonym分词策略。 ikmaxword:会将文本做最细粒度的拆分,比如会将“昨夜西风吹折千林梢”拆分为“昨夜西风,昨夜,西风,吹折千林梢,吹折,千林梢,千,林,折千林,千林,吹”,会穷尽各种可能的分词组合。 iksmart:会做最粗粒度的拆分,比如会将“昨夜西风吹折千林梢”拆分为“昨夜西风,吹折千林梢”。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        自定义词库
        配置自定义词库
      • 将MySQL迁移至TeleDB
        开启binlog并设置格式 binlogformatrow binlogrowimagefull expirelogsdays7 binlog日志保留时间 gtidmode on 开启gtid enforcegtidconsistency 1 defaulttimezone '+8:00' 设置时区,解决CST夏令时的问题 maxconnections 1000 设置最大连接数 4. 重启MySQL。 5. 确认待迁移对象中是否包含触发器。 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 6. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例:4C8G + 500G + SSD 目标库磁盘信息:例:4C8G + 500G + SSD 网络情况:例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量:例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例:一天的binlog日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。 注意 如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次,例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。 注意 实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 进入迁移页面单击TeleDBDCP数据库管理平台左上角,可跳转到DTS管理服务页面。 2. 数据页面列表实例开通后,存在待配置 状态实例,单击操作 列的 实例配置 ,进入配置页面。 3. 配置源库及目标库信息 1. 进入实例配置第一个步骤的配置源库及目标库信息 页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。TeleDB的连接信息可以从TeleDB管理控制台看到,选择协调节点的主节点信息进行连接。在测试环境下,源库所在主机可通过连接网线到测试样品内网,并指定IP地址后,填写相应信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的检测联通性并进行下一步按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置 源库和目标库连通性测试成功后,进入实例配置第二个步骤的配置迁移对象及高级配置页面,在“源库对象”中展开库后,选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查并启动。 完成迁移对象和高级配置后,单击 下一步预检查 ,进入实例配置第三个步骤的预检查并启动页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 > 检查项 检查内容 > > 待迁移表主键检查 检查待迁移表是否都存在主键。 > 存储引擎检查 检查源库中待迁移表的存储引擎是否满足要求。 > 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 > 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 > 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 > 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 > 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求 > 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 > 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 > 源库连通性检查 检查数据传输服务能否连通源数据库。 > 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 > 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 > 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 > 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。也可以直接单击 “数据迁移”页签,返回数据迁移列表。注意,如果预检查中有错误项,数据迁移将无法开始;如果有警告项,数据迁移任务可以运行,但可能会出现一些问题。 直接返回迁移列表,迁移任务将处于未启动状态。 勾选实例,然后单击 开始任务 ,直到数据迁移实例完成(没有增量迁移),或者处于增量迁移状态。运行到增量迁移后,如果显示未运行,稍等一会会进入增量运行中。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将MySQL迁移至TeleDB
      • API调用指南
        本节介绍印刷文字识别产品的API调用方法。 1.选择产品聚合页 点击【产品人工智能】,选择【印刷文字识别】,打开对应的产品聚合页。 2.打开帮助中心 点击【产品文档】,跳转到对应的文档中心,文档中心内“API参考”章节介绍了API调用的相关说明。 3.查看API的请求地址 API的请求地址格式为:{终端节点地址}+{对应接口URI}。 3.1终端节点地址 3.2对应接口URI 对应印刷文字识别下的具体产品。 以通用型OCR为例,选择【API参考API通用型OCR】,右侧即可查看URI。 4.查看接口文档 以通用型OCR为例:点击【API参考API】,选择【通用型OCR】,右侧即可查看、请求方法、接口要求、请求URI、请求参数、返回值说明、状态码等信息。 5.构造请求 点击【API参考如何调用API】,选择【构造请求】。 6.认证鉴权 在帮助中心菜单中点击【认证鉴权】,可根据右侧步骤完成认证鉴权。 具体步骤:信息的获取——基本签名流程——创建待签名字符串——构造动态密钥——签名应用及示例。 7.调试接口并查看状态码 调试后,如果API返回状态码为200,表示请求成功,API调试结束。
        来自:
        帮助文档
        印刷文字识别
        用户指南
        API调用指南
      • 管理类
        每个账号可以创建多少个文件系统? 单用户在单地域内可创建的文件系统数量默认为10个,您可通过申请配额增加至20个或者更多。 如何选择NFS和CIFS文件系统协议? NFS(Nrtwork File System)是一种用户网络共享文件和目录的协议。NFS协议支持跨平台的文件共享,使得用户可以在任意操作系统上访问文件。 CIFS(Common Internet File System)是一种用户在计算机之间共享文件和打印机的网络协议,最初由微软开发,并成为Windows操作系统的默认文件共享协议。 天翼云建议您根据需求场景选择文件系统协议: 如果您要在Linux系统中实现共享文件,建议选择NFS协议创建文件系统。 如果您要在Wndwos系统中实现文件共享,建议选择CIFS协议创建文件系统。 文件系统支持跨域复制功能吗? 暂时不支持直接跨域复制文件系统数据。建议您在购买文件系统前提前规划好合适的地域后再下单。
        来自:
        帮助文档
        海量文件服务 OceanFS
        常见问题
        管理类
      • 功能特性
        弱口令检测 通过弱口令字典,检测用户SSH、RDP等服务是否使用了弱密码,及时更改弱口令有效防备暴力破解入侵。 配置脆弱性检测 配置脆弱性检测也就是基线检查,指针对IT设备的安全特性,选择合适的安全控制措施,定义不同IT设备的最低安全配置要求,则该最低安全配置要求就称为安全基线,天翼云漏洞扫描服务平台整合操作系统、数据库等系统环境基线规范,通过基线规范逐项比对主机安全配置项的配置情况,发现配置薄弱点,反馈检查参数,针对加固,避免因配置薄弱导致的入侵风险。 专业的漏洞分析 漏洞扫描结束后扫描器将自动输出扫描结果,描述漏洞风险、漏洞数量以及整改建议,电信云安全专家对扫描器结果结合应用环境、最新业界安全形势、大数据分析、威胁情报分析等整理输出一份有深度、有广度的专业漏洞扫描评估报告,并提出切实可行的安全整改建议,帮助客户全面掌握漏洞风险态势,合理高效安排加固工作。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 容器舰队概述
        本节介绍容器舰队概述。 容器舰队可提供多集群的统一管理,包括统一的权限管理、统一的安全策略、统一的配置管理以及统一的多集群编排等能力。 使用限制 一个注册集群只能加入一个容器舰队。 支持的功能 集群接入分布式容器云平台后,可以加入容器舰队并关联集群联邦能力,进行多集群管理。对容器舰队支持能力如下: 创建舰队:舰队是多个集群的集合,可以实现集群的分类,提供多集群的统一管理。 添加集群到舰队:舰队提供统一的权限管理、安全策略、配置管理以及统一的多集群编排等能力。集群加入舰队后,集群关联的权限将被更新为舰队的权限。 权限关联:舰队权限配置将同步舰队下所有成员集群。若舰队权限未配置,新签发子账号默认拥有只读权限。权限管理基于Kubernetes RABC控制体系的资源权限定义。 可观测性:提供舰队资源总览,包括集群数、节点数、CPU分配率、内存分配率等。 舰队关联已有联邦实例:舰队成员集群将自动注册为联邦实例的成员集群,提供集群联邦多集群管理。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        容器舰队
        容器舰队概述
      • 连接集群联邦
        本节介绍如何通过KubeConfig文件连接集群联邦。 前提条件 使用kubectl连接集群联邦,需要先开通集群联邦,并保证集群联邦已开启且状态正常。 当前既支持公网又支持内网访问联邦控制面。如果使用公网访问,则需要在联邦控制台绑定EIP,如果使用内网访问,则需要在联邦控制面VPC里创建客户端机器。 已下载kubectl命令行工具并上传至客户端机器。kubectl下载地址请参见Kubernetes 版本发布页面。 使用步骤 1. 登录到分布式容器云平台页面联邦列表页面,点击列表右方的【接入配置】选项。 2. 在连接信息页面需要配置文件的类型,点击【下载】,将接入配置保存到本地。 3. 在执行机上安装和配置kubectl。 拷贝kubectl及其配置文件到上述所选的vpc和子网下的执行机的/home目录下。 登录到您的执行机,配置kubectl。 shell cd /home chmod +x kubectl mv f kubectl /usr/local/bin mkdir p $HOME/.kube mv f defaultYaml.yaml $HOME/.kube/config
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        集群联邦
        连接集群联邦
      • 产品定义(1)
        VPC接入方式 天翼云提供了多种VPC连接方案,以满足用户不同场景下的诉求。 使用弹性IP或NAT网关,可以让虚拟私有云内的云主机或物理机与公网Internet进行互通。 在同一个区域内,使用对等连接功能可以让不同VPC之间的云主机或物理机互相访问。 通过虚拟专用网络VPN、云专线功能将VPC和您的本地数据中心连通。 更多信息,请参考VPC和外部网络连接。 如何访问虚拟私有云 在天翼云中,提供了两种方式访问虚拟私有云。 管理控制台方式:管理控制台提供了一个Web界面,您可以使用直观的界面进行相应的操作。登录“控制中心”,选择“网络>虚拟私有云”。 API方式(Application Programming Interface):用户可以使用云平台提供的API接口,来对虚拟私有云进行操作。可将虚拟私有云集成到第三方系统,用于二次开发,具体操作请参见《虚拟私有云API参考》。
        来自:
      • 实例概述
        本节描述了弹性云主机实例的概要内容。 实例即弹性云主机,是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。 弹性云主机创建成功后,您就可以像使用自己的本地PC或物理服务器一样,在云上使用弹性云主机,打造一个高效、可靠、安全的计算环境。弹性云主机的开通是自助完成的,您只需要指定CPU、内存、操作系统、规格、登录鉴权方式即可,同时也可以根据您的需求随时调整您的弹性云主机规格。 云平台提供了多种实例类型供您选择,不同类型的实例可以提供不同的计算能力和存储能力。同一实例类型下可以根据CPU和内存的配置选择不同的实例规格。 关于实例类型的信息,请参考实例类型。 了解实例从创建到释放历经的各种状态请参考实例生命周期。 更多实例规格(X86)清单请参考规格清单。 更多实例规格(鲲鹏)清单请参考规格清单(鲲鹏)。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例
        实例概述
      • 同城容灾(双活模式)最佳实践
        提前创建的云资源列表 • 虚拟私有云 • 弹性云主机 • 负载均衡 • 弹性公网IP • 对象存储 • 数据库 部署容灾业务操作流程 步骤一:创建命名空间 1. 在多活容灾服务平台首页,单击【命名空间> 创建命名空间】。 2. 在【创建命名空间】页面,根据界面提示配置参数。 3. 配置完成后,单击【立即创建】,创建完成后命名空间页面展示出对应项目。 步骤二:资源管理 1. 在【资源管理>负载均衡ELB】页面,单击【同步天翼云负载均衡】。 2. 选择资源所属地域,同步天翼云负载均衡实例。 3. 在【资源管理>云主机】页面,选择命名空间后,点击【同步天翼云云主机】。 4. 选择资源所属分区,同步天翼云云主机。 5. 在【资源管理>数据库】页面,选择命名空间后,点击【同步天翼云数据库】。 6. 选择资源所属地域、数据库类型后,同步天翼云数据库。
        来自:
        帮助文档
        多活容灾服务
        最佳实践
        同城容灾(双活模式)最佳实践
      • 查看集群状态
        本章节主要介绍如何查看集群状态。 集群列表显示MRS所有的集群,集群数量较多时,可采用翻页显示,您可以查看任何状态下的集群。 MRS作为一个海量数据管理和分析平台,数据处理能力在PB级以上。MRS支持创建多个集群,集群创建数量受弹性云主机数量限制。 集群列表默认按时间顺序排列,时间最近的集群显示在最前端。集群列表参数说明如下表所示。 现有集群:包括除了“失败”和“已删除”状态以外的所有集群。 历史集群:仅包含“已删除”的集群,目前界面只显示6个月内创建且已删除的集群,若需要查看6个月以前删除的集群,请联系支持人员。 失败任务管理:仅包含“失败”状态的任务。 −集群创建失败的任务 −集群删除失败的任务 −集群扩容失败的任务 −集群缩容失败的任务 −集群安装补丁失败的任务(仅MRS 3.x之前版本支持) −集群卸载补丁失败的任务(仅MRS 3.x之前版本支持) −集群升级规格失败的任务 集群列表参数 参数 参数说明 名称/ID 集群的名称,创建集群时设置。集群的ID是集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 :修改集群名称。 :复制集群ID。 集群版本 集群的版本号。 节点数 集群部署的节点个数,创建集群时设置。 状态 集群状态、进度信息。 创建集群进度包括: Verifying cluster parameters:校验集群参数中 Applying for cluster resources:申请集群资源中 Creating VMs:创建虚拟机中 Initializing VMs:初始化虚拟机中 Installing MRS Manager:安装MRS Manager中 Deploying the cluster:部署集群中 Cluster installation failed:集群安装失败 扩容集群进度包括: Preparing for cluster expansion:准备扩容中 Creating VM:创建虚拟机中 Initializing VM:初始化虚拟机中 Adding node to the cluster:节点加入集群中 Cluster expansion failed:集群扩容失败 缩容集群进度包括: Preparing for cluster shrink:正在准备缩容 Decommissioning instance:实例退服中 Deleting VM:删除虚拟机中 Deleting node from the cluster:从集群删除节点中 Cluster shrink failed:集群缩容失败 集群安装、扩容、缩容失败,会显示失败的原因,详情请参见创建自定义集群章节“集群创建失败” 中的“错误码表”。 创建时间 集群节点创建成功。 删除时间 集群节点停止时间,也是集群节点开始删除时间。仅“历史集群”会显示此参数。 可用区 集群工作区域下的可用区,创建集群时设置。 企业项目 集群所属的企业项目。 操作 删除:如果作业执行结束后不需要集群,可以单击“删除”,集群状态由“运行中”更新为“删除中”,待集群删除成功后,集群状态更新为“已删除”,并且显示在“历史集群”中。当MRS集群部署失败时,集群会被自动删除。 仅“现有集群”会显示此参数。 说明 一般在数据完成分析和存储后或集群异常无法提供服务时才执行删除操作。如果数据没有完成处理分析,删除集群会导致数据丢失,请谨慎操作。 按钮说明 按钮 说明 在下拉框中选择企业项目,筛选对应集群。 在下拉框中选择集群状态,筛选现有集群。 现有集群 − 所有状态:表示筛选所有的现有集群 − 启动中:表示筛选“启动中”状态的现有集群 − 运行中:表示筛选“运行中”状态的现有集群 − 扩容中:表示筛选“扩容中”状态的现有集群。 − 缩容中:表示筛选“缩容中”状态的现有集群。 − 异常:表示筛选“异常”状态的现有集群 − 删除中:表示筛选“删除中”状态的现有集群 选择“集群列表>现有集群”,单击进入“失败任务管理”页面。 Num:表示“失败”状态的任务数。 在搜索框中输入集群名称或ID,单击,搜索集群。 标签搜索 单击“标签搜索”输入待查询集群的标签,然后单击“搜索”搜索对应集群。 标签键或标签值可以通过下拉列表中选择,当标签键或标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 单击,手动刷新现有集群列表。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群状态
      • 项目管理类
        本节主要介绍项目管理类问题 IAM与企业项目管理的区别 统一身份认证(Identity and Access Management,简称IAM)服务是提供用户身份认证、权限分配、访问控制等功能的身份管理服务。 企业项目管理是提供给企业客户的与多层级组织和项目结构相匹配的云资源管理服务。主要包括企业项目资源管理和权限管理。 与IAM相同的是,企业项目管理可以进行人员管理及权限分配;企业项目管理对资源的授权粒度比IAM的更为精细,建议中大型企业使用企业项目管理服务。 IAM和企业管理的区别 开通方式 IAM是云平台的身份管理服务,注册系统后,无需付费即可使用。 企业管理是云平台的资源管理服务,注册系统后,需提交客服工单申请开通,开通后无需付费免费使用。 资源隔离 IAM通过在每一个区域中创建项目,隔离不同区域中的资源。以项目为单位进行授权,用户可以访问指定项目中的所有资源。 企业项目管理通过创建企业项目,隔离企业不同项目之间的资源,企业项目中可以包含多个区域的资源。企业项目还可以实现对特定云资源的授权,例如:将一台特定的ECS添加至企业项目,对企业项目进行授权后,可以控制用户仅能管理这台特定的ECS。 IAM与企业管理的关系 IAM和企业管理的创建用户以及用户组功能,两边是相互同步关系。 申请开通企业项目管理服务后,使用企业项目管理的用户组授权功能时,该功能依赖IAM的策略授权。如果企业项目管理中系统预置的策略不能满足您的使用要求,需要在IAM中创建自定义策略,自定义策略会同步到企业管理中,可以在IAM或者企业项目管理中给用户组授权自定义策略。 如果在IAM和企业管理中同时给用户组授权,用户同时拥有基于IAM项目的策略和基于企业项目的策略,在发起访问请求时,系统根据用户被授权的访问策略中的Action进行鉴权判断。 如果策略中包含相同的Action,以在IAM中设置的生效,例如:用户请求创建弹性云主机,鉴权结果为IAM中定义的Deny,不能创建弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Deny" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 如果策略中包含不同的Action,则IAM和企业管理中设置的都生效。以下示例表示用户可以创建弹性云主机以及删除弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:delete" ], "Effect": "Allow" }
        来自:
        帮助文档
        企业项目管理
        常见问题
        项目管理类
      • 项目管理类
        本节主要介绍项目管理类问题 IAM与企业项目管理的区别 统一身份认证(Identity and Access Management,简称IAM)服务是提供用户身份认证、权限分配、访问控制等功能的身份管理服务。 企业项目管理是提供给企业客户的与多层级组织和项目结构相匹配的云资源管理服务。主要包括企业项目资源管理和权限管理。 与IAM相同的是,企业项目管理可以进行人员管理及权限分配;企业项目管理对资源的授权粒度比IAM的更为精细,建议中大型企业使用企业项目管理服务。 IAM和企业管理的区别 开通方式 IAM是云平台的身份管理服务,注册系统后,无需付费即可使用。 企业管理是云平台的资源管理服务,注册系统后,需提交客服工单申请开通,开通后无需付费免费使用。 资源隔离 IAM通过在每一个区域中创建项目,隔离不同区域中的资源。以项目为单位进行授权,用户可以访问指定项目中的所有资源。 企业项目管理通过创建企业项目,隔离企业不同项目之间的资源,企业项目中可以包含多个区域的资源。企业项目还可以实现对特定云资源的授权,例如:将一台特定的ECS添加至企业项目,对企业项目进行授权后,可以控制用户仅能管理这台特定的ECS。 IAM与企业管理的关系 IAM和企业管理的创建用户以及用户组功能,两边是相互同步关系。 申请开通企业项目管理服务后,使用企业项目管理的用户组授权功能时,该功能依赖IAM的策略授权。如果企业项目管理中系统预置的策略不能满足您的使用要求,需要在IAM中创建自定义策略,自定义策略会同步到企业管理中,可以在IAM或者企业项目管理中给用户组授权自定义策略。 如果在IAM和企业管理中同时给用户组授权,用户同时拥有基于IAM项目的策略和基于企业项目的策略,在发起访问请求时,系统根据用户被授权的访问策略中的Action进行鉴权判断。 如果策略中包含相同的Action,以在IAM中设置的生效,例如:用户请求创建弹性云主机,鉴权结果为IAM中定义的Deny,不能创建弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Deny" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 如果策略中包含不同的Action,则IAM和企业管理中设置的都生效。以下示例表示用户可以创建弹性云主机以及删除弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:delete" ], "Effect": "Allow" }
        来自:
        帮助文档
        统一身份认证(二类节点)
        常见问题
        项目管理类
      • 修改私有IP地址
        本节介绍了修改私有IP地址的操作场景、约束与限制、操作步骤。 操作场景 云平台支持修改主网卡的私有IP地址,具体操作请参见本节内容。如需修改扩展网卡的私有IP地址,请删除网卡,并挂载新网卡。 约束与限制 弹性云主机已关机。 如果网卡绑定了虚拟IP或者DNAT规则,需要先解绑。 如果网卡上有IPv6地址,无法修改(包括IPv4和IPv6的)私有IP地址。 如需修改弹性负载均衡后端服务器的私有IP地址,请先移出后端服务器组后再修改私有IP。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 弹性云主机”。 3. 单击待修改私有IP地址的弹性云主机名称。 4. 系统跳转至该弹性云主机详情页面。 5. 选择“网卡”页签,并单击主网卡所在行的“修改私有IP地址”。系统打开“修改私有IP地址”窗口。 6. 请根据需要修改主网卡的“子网”、“私有IP地址”。 说明 只能在同一VPC下更换子网。 7. 如果未填写修改后的“私有IP地址”,系统会自动分配一个新的私有IP地址给主网卡使用。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        修改私有IP地址
      • 版本说明书
        本页简要介绍分布式数据库V5.0.0版本更新说明。 V5.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 5.0 2022年 12 月 新增和优化功能: 1. 支持重置实例密码,包括查看实例详情和重置实例root用户密码。 2. 支持备份数据加密。 3. 支持表空间管理,包括创建表空间、查看实例所有用户、检测挂载目录可用性、查看表空间列表、删除表空间和修改表空间。 4. 支持创建同规格实例,包括查看实例信息、创建同规格实例、软件包增加blocksize特性解析、升级时增加blocksize筛选、实例开通时提供多个不同的blocksize编译包、。创建实例时增加数据损坏检测和链接实例提供SSL加密功能。 5. 优化Oracle兼容性,包括支持NULLIF函数、支持TRIM函数、支持 physicalattributesclause函数、支持dual虚表、支持查询ORDER BY、允许插入字符串类型的数据(text/varchar.)转换为数字类型的列(int/nuemric)和支持运算符“”等。 6. 支持跨数据库数据访问、跨平台与Oracle数据库数据交换和多模式访问。 修改功能 无。 修复缺陷 无。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        版本说明书
      • 产品定义
        本文为您介绍密钥管理服务的定义及产品架构。 密钥管理服务(Key Management Service,KMS)是一站式密钥管理和数据加密服务平台,提供安全合规、可靠易用的资源托管及密码运算服务。同时与天翼云云硬盘、对象存储、弹性文件、关系型数据库MYSQL等云产品无缝集成,实现云上原生数据的加密保护。 产品架构 业务组件 业务组件 说明 参考文档 密钥管理 密钥管理组件提供密钥安全托管存储、生命周期管理以及密码运算能力。您可以在自建应用程序中,通过KMS提供的云原生接口实现数据加解密、签名验签等运算,同时KMS已对接天翼云云硬盘、对象存储、弹性文件、关系数据库MySQL版,为云服务提供服务端加密能力。 密钥管理概述 证书管理 证书管理组件提供高可用、高安全的密钥和证书托管能力,您可以通过KMS提供的云原生接口实现签名验签运算。 证书管理概述
        来自:
        帮助文档
        密钥管理
        产品介绍
        产品定义
      • 安全使用IAM
        授予最小权限 最小权限原则是标准的安全建议,您可以使用IAM提供的系统权限,或者自己创建自定义策略,给帐号中的用户仅授予刚好能完成工作所需的权限,通过最小权限原则,可以帮助您安全地控制用户对天翼云云资源的访问。 同时,建议为使用API、CLI、SDK等开发工具访问云服务的IAM用户,授予自定义策略,通过精细的权限控制,减小因访问密钥泄露对您的帐号造成的影响。 开启虚拟MFA功能 MultiFactor Authentication (简称MFA) 是一种非常简单的安全实践方法,建议您给天翼云帐号以及您帐号中具备较高权限的用户开启MFA功能,它能够在用户名和密码之外再额外增加一层保护。启用MFA后,用户登录控制台时,系统将要求用户输入用户名和密码(第一安全要素),以及来自其MFA设备的验证码(第二安全要素)。这些多重要素结合起来将为您的账户和资源提供更高的安全保护。 MFA设备可以基于硬件也可以基于软件,系统目前仅支持基于软件的虚拟MFA,虚拟MFA是能产生6位数字认证码的应用程序,此类应用程序可在移动硬件设备(包括智能手机)上运行,非常方便。 设置敏感操作 设置敏感操作后,如果您或者您帐号中的用户进行敏感操作时,例如删除资源,需要进行验证码验证,避免误操作带来的风险和损失。 定期修改身份凭证 如果您不知道自己的密码或访问密钥已泄露,定期进行修改可以将不小心泄露的风险降至最低。 定期更改账号密码可以通过账号中心密码修改进行。 轮换访问密钥可以通过创建两个访问密钥进行,将两个访问密钥作为一主一备,一开始先使用主访问密钥一,一段时间后,使用备访问密钥二,然后在控制台删除主访问密钥一,并重新生成一个访问密钥,在您的应用程序中定期轮换使用。
        来自:
        帮助文档
        统一身份认证(一类节点)
        最佳实践
        安全使用IAM
      • 准备工作
        (可选)创建密钥对 云平台使用公共密钥密码术来保护您的物理机的登录信息。如果选择密钥对登录方式,您需要在创建物理机时指定密钥对的名称,然后在SSH登录时提供私钥。如果选择密码登录方式,可以跳过该任务。 如果您尚未创建密钥对,可以通过管理控制台自行创建。 说明 如果您计划在多个区域创建实例,则需要在每个区域中创建密钥对。有关区域的更多信息,请参见可用分区。 1. 登录管理控制台。 2. 选择“计算 > 物理机服务”。 3. 在左侧导航树中,选择“密钥对”。 4. 在“密钥对”页面,单击“创建密钥对”。 5. 输入密钥名称,单击“确定”。 6. 您的浏览器会提示您下载或自动下载私钥文件。文件名是您为密钥对指定的名称,文件扩展名为“.pem”。请将私钥文件保存在安全位置。然后在系统弹出的提示框中单击“确定”。 注意 这是您保存私钥文件的唯一机会,请妥善保管。当您创建物理机时,您将需要提供密钥对的名称;每次SSH登录到物理机时,您将需要提供相应的私钥。
        来自:
        帮助文档
        物理机 DPS
        快速入门
        准备工作
      • 监控弹性云主机
        本文为您介绍监控弹性云主机的相关内容。 为保证弹性云主机的可靠性、可用性和可观测性,对云主机进行监控已经成为一种必要且重要的手段。天翼云控制平台提供的云主机监控功能,可方便用户更快、更直观的了解弹性云主机的运行情况、资源使用情况及其他性能指标,同时可根据实时监控情况,执行告警通知等操作,帮助客户更好的管理云主机 云主机监控分为基础监控、操作系统监控和进程监控。 1. 操作系统监控:通过在云主机中安装Agent插件,提供更细颗粒度的监控。除CPU与内存使用率等指标外,还可以支持CPU负载、磁盘和网卡等相关指标的监控服务。 2. 进程监控:通过在云主机中安装Agent插件,对主机内活跃的进程进行监控,默认监控进程数量、进程的CPU使用率,以及打开的文件数等具体信息。 说明 GPU实例分为图形加速基础型(G系列)和计算加速型(P系列)两类GPU云主机实例,若要对P系列云主机进行GPU监控,需要安装Agent的同时,对应的安装GPU的驱动。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        监控
        监控弹性云主机
      • 提升云主机安全性方法概述
        提升云主机的端口安全 安全组是云主机的守卫,是重要的网络安全隔离手段,可以保护云主机的网络安全。安全组可以控制进出云主机的网络流量。网络流量分为出方向和入方向,出方向是指您想访问别人,入方向就是别人想访问你。如果把云主机比作一个宫殿,那安全组就像是一个守卫者,谁能进出,都由安全组规则控制。 通过配置安全组规则,限定云主机出方向和入方向的访问端口,通常我们建议您关闭高危端口,仅开启必要的云主机端口。 常见的高危端口如表 93所示,建议您修改敏感端口为其它非高危端口来承载业务。 表 常见的高危端口 协议 端口 :: TCP 42 135 137 138 139 444 445 593 1025 1068 1434 3127 3128 3129 3130 4444 4789 5554 5800 5900 9996 UDP 135~139 1026 1027 1028 1068 1433 1434 4789 5554 9996 定期升级操作系统 云主机申请完成后,系统内的所有配置都是需要您自行维护,云平台不负责客户系统补丁的升级,对于官方发布的一些漏洞预警,我们会有安全公告,需要您自行升级维护。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        提升云主机安全性方法概述
      • 续费与退订
        本节介绍云下一代防火墙续费与退订。 云下一代防火墙支持续订,续订内容包含规格续订和功能续订,续订时间与订购计费模式一致,以包年/包月(预付费)方式进行,仅支持续订一个月时长。 注意 根据业务调整,云下一代防火墙已限制续订,单次续订只能选择1个月。 续订 1.用户需登录至官网,选择“产品 > 安全及管理 > 云下一代防火墙”,进入云下一代防火墙的产品页面。 2.单击“管理控制台”,进入云下一代防火墙实例管理页面。 2.勾选“我已阅读,理解并同意《云下一代防火墙》”,单击“确定”后进入支付页面,支付后等待订单完成即可。 说明 系统会提前1个月进行产品续订的提示; 云下一代防火墙建议最少提前3个工作日进行续订申请; 用户可通过登录天翼云官网或者拨打天翼云客服电话4008109889,由客服指导操作进行续订,在支付完服务费用之后即可申请续订天翼云平台【云下一代防火墙安全产品】服务。
        来自:
        帮助文档
        云下一代防火墙
        计费说明
        续费与退订
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • 知识库问答
        本文介绍知识库问答内容。 接口描述 依据知识库与大模型进行对话问答 请求方法 POST 接口要求 无 URI /openapi/v1/rag/talk 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json Accept 否 String 设置开启接收ServerSent Events (SSE) 格式的流式响应 text/eventstream tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 text 是 String 问题的文本内容 infobaseIds 否 Array[String] 通用知识库ID列表 customBaseIds 否 Array[String] 自定义知识库ID列表 modelId 是 String 模型ID contextId 否 String 上一轮会话的ID,需要多轮对话时使用 searchEnable 否 Boolean 是否开启联网搜索 index 否 Boolean 是否输出文档索引引用标签 prompt 否 String 用户自定义输入的prompt 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "Accept: text/eventstream" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "text": "总结下文档内容", "infobaseIds": [123456789, 987654321], "modelId": "d5f09a41d4584715a5d94a4892411c0f", "searchEnable": false, "index": true, "prompt": "请依据文档内容进行回答,不得使用超出文档内容的知识;n 确保您的回答既精确又实用且忠实于原文,同时覆盖所有相关的要点,以满足用户的查询需求;n 要求语句通顺,条理清晰,易于阅读;n 请不要随意发散,尽量以原文档内容输出;n 对于包含多个子问题的问题,请回答每一个子问题,不要遗漏问题; n下面是文档信息:n{chunks}n问题为:{question}n开始回答:n" }' 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 code Int 0表示成功 0 message String 返回success success result Object 对话结果 result表 result表 参数 参数类型 说明 示例 下级对象 input String 对话输入文本 介绍下定积分 output String 对话输出文本 定积分是一种.... contextId String 此轮对话的ID finishState String 会话状态 状态取值:start(开始)/continued(生成中)/stop(正常结束)/interrupt(中断) stop inferSource Array[Object] 拼入模型prompt的参考文档信息。请求体参数index为false时生效 inferSource对象 indexInfo Array[Object] 模型回复的参考引用片段。请求体参数index为true时生效 indexInfo对象 indexInfo表 参数 参数类型 说明 示例 下级对象 indexId int 引用下标 1 subTitle String 子标题 docTitlec String 文档标题 文档.doc docTitle String 来源 Knowledge content String 引用片段内容 fileName String 引用文档名称 文档.doc fileId String 引用文档id 133 inferSource表 参数 参数类型 说明 示例 下级对象 fileName String 检索到的参考文档名称 文档.doc fileId String 检索到的参考文档id 133 fileType String 文档类型 doc contentText String 参考文档的内容 score Float 参考文档和用户输入的相关性分数,取值[01] 0.33 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 该接口为SSE接口,返回值为流式返回,返回时ContentType为text/eventstream。 1.请求成功返回值示例(关闭引用开关indexfalse) plaintext data:{ 'statusCode': 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": " n好的,我现在需要处理用户的问题:“水泥的国标”。首先。。。", "finishState": "stop", "contextId": "2f963a77e58b467ead9223ddf2e4015b", "inferSource": [ { "fileName": "筑府办函xx号附件.wps", "fileId": 32432, "fileType": "doc", "contentText": "xxx", "score": 0.37754068 } ], "indexInfo": [] }, "details": null } } 2.请求成功返回值示例(开启引用开关indextrue) plaintext data:{ "statusCode": 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": "根据提供的文档内容,水泥的参考标准为GB 16780[[1]]。。。", "finishState": "stop", "contextId": "bcca2bb95b454d41b9b878a24659b3d5", "inferSource": [], "indexInfo": [ { "indexId": 1, "subTitle": "", "docTitle": "筑府办函xx号附件.wps", "from": "Knowledge", "content": "xxx", "fileName": "筑府办函xx号附件.wps", "fileId": 32432 } ] }, "details": null } } 3.请求失败返回值示例 plaintext data:{ "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40013 对话出现异常 无法进行正常交互
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库问答
      • Volcano调度器
        本文主要介绍Volcano调度器。 插件简介 Volcano调度器是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。(目前Volcano项目已经在Github开源) Volcano针对计算型应用提供了作业调度、作业管理、队列管理等多项功能,主要特性包括: 丰富的计算框架支持:通过CRD提供了批量计算任务的通用API,通过提供丰富的插件及作业生命周期高级管理,支持TensorFlow,MPI,Spark等计算框架容器化运行在Kubernetes上。 高级调度:面向批量计算、高性能计算场景提供丰富的高级调度能力,包括成组调度,优先级抢占、装箱、资源预留、任务拓扑关系等。 队列管理:支持分队列调度,提供队列优先级、多级队列等复杂任务调度能力。 项目开源地址: 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 Volcano ,单击“安装”。 步骤 2 该插件可配置“单实例”、“高可用”或自定义规格。 选择自定义时,volcanocontroller和volcanoscheduler的建议值如下: 小于100个节点,可使用默认配置,即CPU的申请值为500m,限制值为2000m;内存的申请值为500Mi,限制值为2000Mi。 高于100个节点,每增加100个节点(10000个Pod),建议CPU的申请值增加500m,内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 volcanocontroller和volcanoscheduler的建议值 节点/Pods规模 CPU Request(m) CPU Limit(m) Memory Request(Mi) Memory Limit(Mi) 50/5k 500 2000 500 2000 100/1w 1000 2500 1500 2500 200/2w 1500 3000 2500 3500 300/3w 2000 3500 3500 4500 400/4w 2500 4000 4500 5500 步骤 3 配置volcano默认调度器配置参数。 cacert: '' defaultschedulerconf: actions: 'allocate, backfill' tiers: plugins: name: 'priority' name: 'gang' name: 'conformance' plugins: name: 'drf' name: 'predicates' name: 'nodeorder' plugins: name: 'ccegputopologypredicate' name: 'ccegputopologypriority' name: 'ccegpu' plugins: name: 'nodelocalvolume' name: 'nodeemptydirvolume' name: 'nodeCSIscheduling' name: 'networkresource' servercert: '' serverkey: '' 插件 功能 参数说明 用法演示 binpack 将pod调度到资源使用较高的节点以减少资源碎片 binpack.weight:binpack插件本身在所有插件打分中的权重 binpack.cpu:cpu资源在资源比重的比例,默认是1 binpack.memory:memory资源在所有资源中的比例,默认是1l binpack.resources: plugins: name: binpack arguments: binpack.weight: 10 binpack.cpu: 1 binpack.memory: 1 binpack.resources: nvidia.com/gpu, example.com/foo binpack.resources.nvidia.com/gpu: 2 binpack.resources.example.com/foo: 3 conformance 跳过关键Pod,比如在kubesystem命名空间的Pod,防止这些Pod被驱逐 gang 将一组pod看做一个整体去分配资源 priority 使用用户自定义负载的优先级进行调度 overcommit 将集群的资源放到一定倍数后调度,提高负载入队效率。负载都是deployment的时候,建议去掉此插件或者设置扩大因子为2.0。 overcommitfactor: 扩大因子,默认是1.2 plugins: name: overcommit arguments: overcommitfactor: 2.0 drf 根据作业使用的主导资源份额进行调度,用的越少的优先 predicates 预选节点的常用算法,包括节点亲和,pod亲和,污点容忍,node ports重复,volume limits,volume zone匹配等一系列基础算法 nodeorder 优选节点的常用算法 nodeaffinity.weight:节点亲和性优先调度,默认值是1 podaffinity.weight:pod亲和性优先调度,默认值是1 leastrequested.weight:资源分配最少的的节点优先,默认值是1 balancedresource.weight:node上面的不同资源分配平衡的优先,默认值是1 mostrequested.weight:资源分配最多的的节点优先,默认值是0 tainttoleration.weight:污点容忍高的优先调度,默认值是1 imagelocality.weight:node上面有pod需要镜像的优先调度,默认值是1 selectorspread.weight: 把pod均匀调度到不同的节点上,默认值是0 volumebinding.weight: local pv延迟绑定调度,默认值是1 podtopologyspread.weight: pod拓扑调度,默认值是2 plugins: name: nodeorder arguments: leastrequested.weight: 1 mostrequested.weight: 0 nodeaffinity.weight: 1 podaffinity.weight: 1 balancedresource.weight: 1 tainttoleration.weight: 1 imagelocality.weight: 1 volumebinding.weight: 1 podtopologyspread.weight: 2 ccegputopologypredicate GPU拓扑调度预选算法 ccegputopologypriority GPU拓扑调度优选算法 ccegpu 结合CCE的GPU插件支持GPU资源分配,支持小数GPU配置 numaaware numa拓扑调度 weight: 插件的权重 networkresource 支持预选过滤ENI需求节点,参数由CCE传递,不需要手动配置 NetworkType: 网络类型(eni或者vpcrouter类型) nodelocalvolume 支持预选过滤不符合local volume需求节点 nodeemptydirvolume 支持预选过滤不符合emptydir需求节点 nodeCSIscheduling 支持预选过滤everest组件异常节点 步骤 4 单击“安装”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • CCE节点故障检测
        本文主要介绍CCE节点故障检测插件。 插件简介 CCE节点故障检测(nodeproblemdetector,简称npd)是一款监控集群节点异常事件的插件,以及对接第三方监控平台功能的组件。它是一个在每个节点上运行的守护程序,可从不同的守护进程中搜集节点问题并将其报告给apiserver。nodeproblemdetector可以作为DaemonSet运行, 也可以独立运行。 有关社区开源项目nodeproblemdetector的详细信息,请参见nodeproblemdetector。 约束与限制 使用NPD插件时,不可对节点磁盘进行格式化或分区。 节点上每个NPD进程标准占用30mCPU,100MB内存。 权限说明 NPD插件为监控内核日志,需要读取宿主机/dev/kmsg设备,为此需要开启容器特权,详见privileged。 同时CCE根据最小化权限原则进行了风险消减,NPD运行限制只拥有以下特权: capdacreadsearch,为访问/run/log/journal capsysadmin,为访问/dev/kmsg 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 npd ,单击“安装”。 步骤 2 根据下表配置参数,然后单击“安装”。 仅v1.16.0及以上版本支持配置。 npc.enable:是否启用npc,默认值为 false ,true表示启用。 NPD检查项 说明 当前检查项仅1.16.0及以上版本支持。 NPD的检查项主要分为事件类检查项和状态类检查项。 事件类检查项 对于事件类检查项,当问题发生时,NPD会向APIServer上报一条事件,事件类型分为Normal(正常事件)和Warning(异常事件) 故障检查项 功能 说明 KubeletStart 检查kubelet启动并上报 Normal类事件 DockerStart 检查Docker启动并上报 Normal类事件 ContainerdStart 检查Containerd启动并上报 Normal类事件 OOMKilling 检查oom事件发生并上报 Warning类事件 TaskHung 检查taskHung事件发生并上报 Warning类事件 KernelOops 检查内核0指针panic错误 Warning类事件 ConntrackFull 检查连接跟踪表是否满 Warning类事件周期:30秒阈值:80% 状态类检查项 对于状态类检查项,当问题发生时,NPD会向APIServer上报一条事件,并同步修改节点状态,可配合Nodeproblemcontroller故障隔离对节点进行隔离。 下列检查项中若未明确指出检查周期,则默认周期为30秒。 故障检查项 功能 说明 FrequentKubeletRestart 通过监听journald日志检测kubelet是否频繁重启 周期:5分钟 回溯时间:10分钟 阈值:10次即在回溯时间段内重启10次表示频繁重启,将会产生故障告警。 监听对象:/run/log/journal目录下的日志说明Ubuntu操作系统由于日志格式不兼容,暂不支持上述检查项。 FrequentDockerRestart 通过监听journald日志检测docker是否频繁重启 FrequentContainerdRestart 通过监听journald日志检测containerd是否频繁重启 CRIProblem 检查容器CRI组件状态 检查对象:Docker或Containerd KUBELETProblem 检查Kubelet状态 无 NTPProblem 检查ntp、chrony服务状态检查节点时钟是否偏移 时钟偏移阈值:8000ms PIDProblem 检查Pid是否充足 阈值:90% 使用量:/proc/loadavg中nrthreads 最大值:/proc/sys/kernel/pidmax和/proc/sys/kernel/threadsmax两者的较小值。 FDProblem 检查文件句柄数是否充足 阈值:90% 使用量:/proc/sys/fs/filenr中第1个值 最大值:/proc/sys/fs/filenr中第3个值 MemoryProblem 检查节点整体内存是否充足 阈值:90% 使用量:/proc/meminfo中MemTotalMemAvailable 最大值:/proc/meminfo中MemTotal ResolvConfFileProblem 检查ResolvConf配置文件是否丢失检查ResolvConf配置文件是否异常异常定义:不包含任何上游域名解析服务器(nameserver)。 检查对象:/etc/resolv.conf ProcessD 检查节点是否存在D进程 数据来源: /proc/{PID}/stat 等效命令:ps aux例外场景:ProcessD忽略BMS节点下的SDI卡驱动依赖的常驻D进程heartbeat、update ProcessZ 检查节点是否存在Z进程 ScheduledEvent 检查节点是否存在主机计划事件典型场景:底层宿主机异常,例如风扇损坏、磁盘坏道等,导致其上虚机触发冷热迁移。 数据来源: 网络连通类检查项 故障检查项 功能 说明 CNIProblem 检查容器CNI组件是否正常运行 无 KUBEPROXYProblem 检查Kubeproxy是否正常运行 无 另外kubelet组件内置如下检查项,但是存在不足,您可通过集群升级或安装NPD进行补足。 Kubelet内置检查项 故障检查项 功能 说明 PIDPressure 检查Pid是否充足 周期:10秒 阈值:90% 缺点:社区1.23.1及以前版本,该检查项在pid使用量大于65535时失效,详见issue 107107。社区1.24及以前版本,该检查项未考虑threadmax。 MemoryPressure 检查容器可分配空间(allocable)内存是否充足 周期:10秒 阈值:最大值100M 最大值(Allocable):节点总内存节点预留内存 缺点:该检测项没有从节点整体内存维度检查内存耗尽情况,只关注了容器部分(Allocable),在低。 DiskPressure 检查kubelet盘和docker盘的磁盘使用量及inodes使用量 周期:10秒阈值:90%
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        CCE节点故障检测
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • 数据架构示例
        本章节主要介绍数据架构示例。 DataArts Studio数据架构以关系建模、维度建模理论支撑,实现规范化、可视化、标准化数据模型开发,定位于数据治理流程设计落地阶段,输出成果用于指导开发人员实践落地数据治理方法论。 本章节操作场景如下: 对MRS Hive数据湖中的出租车出行数据进行数据模型设计。 数据库demosdidb中已具备出租车出行原始数据表sditaxitripdata。 原始数据表sditaxitripdata的数据字段介绍如下: 数据说明如下: 下表为出租车行程数据 序号 字段名称 字段描述 1 VendorID 供应商编号 取值如下: 1A Company 2B Company 2 tpeppickupdatetime 上车时间 3 tpepdropoffdatetime 下车时间 4 passengercount 乘客人数 5 tripdistance 行驶距离 6 ratecodeid 费率代码 取值如下: 1Standard rate 2JFK 3Newark 4Nassau or Westchester 5Negotiated fare 6Group ride 7 storefwdflag 存储转发标识 8 PULocationID 上车地点 9 DOLocationID 下车地点 10 paymenttype 付款方式代码 取值如下: 1Credit card 2Cash 3No charge 4Dispute 5Unknown 6Voided trip 11 fareamount 车费 12 extra 加收 13 mtatax MTA税 14 tipamount 手续费 15 tollsamount 通行费 16 improvementsurcharge 改善附加费 17 totalamount 总车费 数据架构的流程如下: 1. 准备工作 : 添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2. 数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 流程设计 :本例暂不涉及。流程设计是针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3. 标准设计 :新建码表&数据标准。 新建码表并发布 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 新建数据标准并发布 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4. 模型设计: 应用关系建模和维度建模的方法,进行分层建模。 关系建模:新建SDI 层和DWI层两个模型 。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 维度建模:在DWR层新建并发布维度 & 维度建模:在DWR层新建并发布事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5. 指标设计:新建并发布技术指标 :新建业务指标(本例不涉及)和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6. 维度建模:在DM 层新建并发布汇总表 。 DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 消息通知概览
        本文介绍消息通知的功能。 消息通知是什么 消息通知功能是网络管理与业务运营系统中的关键组件,它主要负责及时、精准地将各类重要事件信息传达给相关人员。无论是网络监测中带宽使用超量,还是业务流程出现异常状况,该功能都能自动生成对应的消息通知,让相关人员第一时间掌握情况,为后续处理争取时间,保障系统稳定运行和业务顺利开展。 消息通知特点 拥有高度灵活的配置能力,支持对消息类型、通知方式和接收对象进行自由组合设置。比如,针对带宽超量事件可选择短信通知特定网络管理员,针对业务订单异常可通过邮件通知负责人,满足多样化的业务需求。 通知方式丰富多样,如短信、邮件、客户端等,每种方式各有特点,能适配不同场景。像短信通知即时性强,可确保信息快速触达;邮件通知适合传递详细内容,方便接收者深入了解事件。 短信通知方面,支持接入如阿里短信网关等多种可靠的短信网关,借助成熟的短信服务平台,保证短信通知的高效性和稳定性,避免重要信息遗漏,提升整体系统的可靠性和响应速度。 消息通知功能 功能 功能说明 通知类型 产品识别并针对不同性质的事件生成相应的消息通知。例如,套餐用量使用方面,当短信使用出现超量事件时,系统会自动生成对应的通知消息,消息通知需要由客户进行设定通知的方式、通知对象以便更及时的进行消息传递。 通知渠道 为了实现高效、稳定的通知服务,产品除了自身携带的通知网关后,还支持接入多种网关,比如阿里云短信服务网关。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        设置
        消息通知
        消息通知概览
      • 使用多活容灾服务实现Redis容灾切换
        步骤一:准备Redis数据库 在使用MDR实现Redis故障切换前,需要提前准备一个多活实例和一个Redis数据库。 当前仅支持对云上资源进行故障切换, 因此需要购买一台规格类型为“主备”、“集群主备”、“Cluster主备”的天翼云Redis数据库。 创建数据库实例,具体请参考:创建实例。 步骤二:同步资源 在资源管理模块中同步数据库资源到多活容灾服务平台,具体参考:同步天翼云数据库。 步骤三:创建容灾管理中心 创建容灾管理中心的具体请参考:创建容灾管理中心。 步骤四:接入应用 将需要进行故障切换的Redis数据库接入创建好的容灾管理中心,具体操作请参考:应用接入。 步骤五:编排预案阶段和预案 1. 创建预案阶段,具体操作请参考:创建预案阶段。 2. 创建预案,具体操作请参考:创建预案。 步骤六:容灾切换 进行容灾切换,具体操作请参考:容灾切换。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        使用多活容灾服务实现Redis容灾切换
      • 如何卸载数据库安全审计Agent程序?
        在数据库端或应用端的节点安装Agent后,当不需要停止审计数据库时,您可以在安装Agent的节点卸载Agent。 前提条件 已在安装节点安装了Agent程序。 在Linux操作系统上卸载Agent 1. 使用跨平台远程访问工具(例如PuTTY)以root用户通过SSH方式,登录已安装Agent的节点。 2. 执行以下命令,进入Agent安装包“xxx.tar.gz”解压后所在目录。cd Agent安装包解压后所在目录 3. 执行以下命令,查看是否有卸载脚本“uninstall.sh”的执行权限。如果有卸载脚本的执行权限,请执行步骤4。如果没有卸载脚本的执行权限,请执行以下操作: 执行以下命令,添加卸载脚本执行权限。chmod +x uninstall.sh 确认有安装脚本执行权限后,请执行步骤4。 4. 执行以下命令,卸载Agent。sh uninstall.sh。如果界面回显以下信息,说明卸载成功。 uninstall audit agent... exist osrelease file stopping audit agent audit agent stopped stop auditagent success service auditagent does not support chkconfig uninstall audit agent completed! 在Windows操作系统上卸载Agent 1. 进入Agent安装文件的目录。 2. 双击“uninstall.bat”执行文件,卸载Agent。 3. 验证Agent已卸载成功。
        来自:
        帮助文档
        数据库安全
        常见问题
        Agent相关
        如何卸载数据库安全审计Agent程序?
      • 1
      • ...
      • 90
      • 91
      • 92
      • 93
      • 94
      • ...
      • 123
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      FTP访问

      方法调用说明

      产品特点

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号