活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      微消息队列MQTT版_相关内容
      • 扫描具有复杂访问机制的网站漏洞
        步骤二:设置网站“cookie登录”方式 请参照以下操作步骤设置“cookie登录”方式。 1. 登录管理控制台。 2. 进入网站登录设置入口,如下图所示。 3. 在弹出的“编辑”对话框中,将“获取cookie值”图中网站的cookie值完整复制到“cookie值”文本框中。 4. 在“验证登录网址”文本框中输入用于验证登录的网址。输入登录成功后才能访问的网址,便于VSS快速判断您的登录信息是否有效。 5. 单击“确认”,完成网站登录设置。 步骤三:创建扫描任务 注意 创建扫描任务时,请您保持网站的登录状态,以免cookie失效。 1. 在该域名所在行的“操作”列,单击“扫描”,如下图所示。 2. 在“创建任务”界面,根据扫描需求,设置扫描参数,如下图所示。 3. 单击“开始扫描”。 如果没有设置开始扫描时间,且此时服务器没有被占用,则创建的任务可立即开始扫描,任务状态为“进行中”;否则进入等待队列中等待,任务状态为“等待中”。 步骤四:查看扫描结果并下载扫描报告 扫描任务执行成功(域名的“上一次扫描结果”状态为“已完成”),您可以查看扫描结果并下载扫描报告。 1. 在该域名所在行的“上一次扫描结果”列,单击扫描得分。 2. 在扫描任务详情界面,查看扫描结果,如下图所示。 3. 单击右上角的,生成网站扫描报告。 如果报告已生成,则可跳过此步。 4. 单击右上角的,将网站扫描报告下载到本地,查看详细的扫描结果。 报告目前只支持PDF格式。
        来自:
        帮助文档
        漏洞扫描(专业版)
        最佳实践
        扫描具有复杂访问机制的网站漏洞
      • 管理索引组件GiServer参数
        您可以根据实际情况,管理GiServer的参数(属性)设置,也可以重置已修改的参数值。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击参数管理 ,然后单击全局索引组件GiServer参数页签,进入GiServer参数管理页面。 5. 在参数列表上方,选中目标分组或输入目标属性名称,单击查询。 6. 找到目标属性值,根据实际情况修改属性值。 说明 您也可以单击目标属性值操作 列的重置,即可重置属性值。 属性编码 属性名称 允许值 默认值 支持在线加载 rebuildOptimizeSwitch 是否开启重建索引流程优化开关 true/false false 是 skipBinlogRecover 是否绕过Binlog指定(GITD)位置恢复,如果为true,表示需要从头开复制 true/false false 否 recoverDataDir 索引数据恢复文件夹路径 ./recoverData 否 recoverBatch 索引数据恢复批次处理的大小,单位:个 12147483647 100 否 recoverInterval 索引数据恢复定时恢复的时间间隔(毫秒) 17200000 10000 否 fetchBatchSize 客户端提交重建索引请求时,指定重建索引一次批量处理的行数 12147483647 2000 否 serverPrintInterval GiServer服务器性能状态打印的时间间隔(毫秒) 17200000 5000 否 binlogDelay 更新Binlog位置记录到存储的延迟时间(毫秒) 17200000 300000 否 binlogCacheThread binlog索引写缓存的最大线程数 12147483647 128 否 binlogCacheQueueSize 单个binlog索引线程的缓存队列长度,单位:个 12147483647 128 否 rebuildCacheThread 重建索引写缓存的最大线程数 12147483647 128 否 parallelRebuildTasks 最大同时重建子任务数 12147483647 20 否 netWriteTimeout MySQL主机写binlog超时时间(毫秒) 17200000 60000 否 accessDb 数据库集群主从选择 master/slave master 否
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理索引组件GiServer参数
      • 增强版
        说明 分布式缓存Redis增强版支持订购如下类型 支持单机、主备、Cluster单机、Cluster主备、读写分离实例类型。 支持X86和ARM计算CPU架构类型。 支持各架构下通用型和计算增强型主机类型。 更多版本信息请查看 增强版目前在 华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3 资源池开放订购。 上述资源池实例新购和续订可享受1年83折,2年7折,3年5折优惠。 价格计算公式 分布式缓存服务Redis版增强版费用由规格费用和存储费用两部分组成,两者单价见下表实例规格单价和存储类型单价,计费公式为: 规格费用实例规格单价 单节点内存规格GB大小 节点数 存储费用存储类型单价 单节点存储空间GB大小 节点数 各实例类型节点数及计算公式如表所示 实例类型 节点数 单机 1 主备 2 Cluster单机 分片数 Cluster主备 分片数2 Proxy单机 分片数 Proxy主备 分片数2 读写分离 副本数 缓存实例规格按内存磁盘合适的的比例进行设置,每个规格固定单节点存储空间GB大小,如表所示 实例规格 单节点磁盘空间大小GB 1GB 20 2GB 20 4GB 40 8GB 40 16GB 80 32GB 160 64GB 320
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        产品资费
        增强版
      • 操作
        天翼AI云电脑在使用过程中需要注意的事项? 在使用AI云电脑过程中,请勿删除或关闭带有“天翼云”“ecloud”前缀的软件和进程,否则可能导致系统故障。 天翼AI云电脑有控制台吗? 天翼AI云电脑(公众版)无管理控制台管理能力。如需使用统一管理,集中管控能力,建议使用天翼AI云电脑(政企版),控制台地址:< 天翼AI云电脑支持1080p视频播放吗? 支持,天翼AI云电脑支持1920×1080P高清视频的流畅播放。 天翼AI云电脑的大文件处理性能流畅吗? 支持在30秒内打开100M大文件,浏览、缩放、编辑等操作顺滑流畅。 天翼AI云电脑连接时长一般需要多久? 网络正常情况,客户端登录后,支持在5s内,从AI云电脑列表页面进入到Windows系统。
        来自:
        帮助文档
        天翼云电脑(公众版)
        常见问题
        操作
      • 创建克隆卷
        参数 参数 描述 n LUNNAME 或name LUNNAME 指定克隆卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 s SNAPSHOTNAME 或snapshot SNAPSHOTNAME 指定克隆卷关联的快照名称。 取值:字符串形式,长度范围是1~256,只能由字母、数字、短横线( )、下划线( )组成,字母区分大小写,且仅支持以字母或数字开头。 t TARGETNAME 或 target TARGETNAME 指定克隆卷关联的iSCSI target名称,可以跟源卷的iSCSI target不同。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI target名称不存在,那么同时创建iSCSI target,新创建iSCSI target的回收策略默认为Delete。 p CAPACITY 或 capacity CAPACITY 指定克隆卷的容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 默认为快照时刻的源卷容量,如果重新设置,则必须大于等于快照时刻的源卷的容量。 priority SERVERID & 指定克隆卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI target名称已经存在,且指定的服务器必须是iSCSI target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的克隆卷主备分布优先级自动进行主备切换(仅集群版支持),即针对克隆卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 POOL 与CACHEPOOL不能设置为同一个存储池。 当克隆卷的POOL 与CACHEPOOL 配置与源卷一致,无需额外设置。若单独设置了克隆卷的POOL 或CACHEPOOL ,则不再沿用源卷的POOL 和CACHEPOOL ,而是采用所设参数值。例如,源卷同时有CACHEPOOL 和POOL ,若克隆卷仅重新设置了POOL 而未设置CACHEPOOL ,则克隆卷仅使用新设置的POOL ,无CACHEPOOL ;反之,若克隆卷设置了CACHEPOOL ,则必须同时设置POOL ,或者让POOL使用基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 POOL 与CACHEPOOL不能设置为同一个存储池。 当克隆卷的POOL 与CACHEPOOL 配置与源卷一致,无需额外设置。若单独设置了克隆卷的POOL 或CACHEPOOL ,则不再沿用源卷的POOL 和CACHEPOOL ,而是采用所设参数值。例如,源卷同时有CACHEPOOL 和POOL ,若克隆卷仅重新设置了POOL 而未设置CACHEPOOL ,则克隆卷仅使用新设置的POOL ,无CACHEPOOL ;反之,若克隆卷设置了CACHEPOOL ,则必须同时设置POOL ,或者让POOL使用基础存储池。 a HIGHAVAILABILITY或 ha HIGHAVAILABILITY 指定克隆卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为源卷的高可用类型。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 指定克隆卷的冗余模式(仅集群版支持)。 注意 如果设置了克隆卷的minreplica MINREPLICA 或redundancyoverlap REDUNDANCYOVERLAP,则必须同时指定该参数。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N +M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 指定克隆卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 注意 如果指定该参数,则必须指定克隆卷的localstorageclass LOCALSTORAGECLASS。 取值: 如果没有指定克隆卷的localstorageclass LOCALSTORAGECLASS:默认值为源卷的最小副本数。 如果指定了克隆卷的localstorageclass LOCALSTORAGECLASS:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定克隆卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localstorageclass LOCALSTORAGECLASS。 取值: 如果没有指定克隆卷的localstorageclass LOCALSTORAGECLASS:默认值为源卷的折叠副本数。 如果指定了克隆卷的localstorageclass LOCALSTORAGECLASS:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 指定克隆卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 o SECTORSIZE 或 sectorsize SECTORSIZE 指定克隆卷的扇区大小。 取值:512、4096,单位是bytes。默认值为源卷的扇区大小。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 克隆卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认为源卷的写策略。 P PATH 或 path PATH 指定存储克隆卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建克隆卷时不指定数据目录,默认与源卷配置保持一致。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建克隆卷
      • Redis节点内存高负载
        本章节介绍Redis节点内存高负载故障演练。 背景介绍 Redis 性能受节点可用内存限制。当内存异常占用时,Redis 可能触发内存淘汰、拒绝写入,甚至被操作系统终止。本演练模拟高内存占用场景,帮助您验证内存淘汰策略、应用容错能力及监控告警效果。 基本原理 在节点启动自定义程序不断申请内存,模拟主机内存负载升高。 注意 设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 预留资源 :强烈建议将目标内存占用率设置在90%以下,为操作系统内核和关键系统进程(如SSH服务)预留足够的内存。若内存被完全耗尽,可能导致主机失去响应,需要通过控制台强制重启才能恢复。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择内存高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 内存占用率:指定内存负载百分比(取值 0100)。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        数据库
        分布式缓存服务Redis版
        Redis节点内存高负载
      • Redis节点内存高负载(1)
        本章节介绍Redis节点内存高负载故障演练。 背景介绍 Redis 性能受节点可用内存限制。当内存异常占用时,Redis 可能触发内存淘汰、拒绝写入,甚至被操作系统终止。本演练模拟高内存占用场景,帮助您验证内存淘汰策略、应用容错能力及监控告警效果。 基本原理 在节点启动自定义程序不断申请内存,模拟主机内存负载升高。 注意 设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 预留资源 :强烈建议将目标内存占用率设置在90%以下,为操作系统内核和关键系统进程(如SSH服务)预留足够的内存。若内存被完全耗尽,可能导致主机失去响应,需要通过控制台强制重启才能恢复。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择内存高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 内存占用率:指定内存负载百分比(取值 0100)。
        来自:
      • 身份认证与访问控制
        本文描述云防火墙(原生版)用户身份认证与访问控制介绍 用户身份、角色、策略说明 用户在天翼云注册后自动创建主用户,该用户对其所拥有的资源具有完全的访问权限,拥有重置用户密码、分配用户等权限。若需多人共同使用天翼云资源,为确保账号安全,建议创建子用户来进行日常管理工作。子用户是由拥有IAM权限的用户在用户管理中心创建,创建初期是没有任何权限,需要先创建用户组授予相应的策略并把创建的用户加到用户组,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 根据授权分为角色、委托和策略。 角色:权限控制针对所有天翼云用户,IAM需要识别访问者的角色身份并赋予相应的委托权限策略。 委托:包括用户和用户之间的委托等操作用户的资源属于委托的范畴。 策略:是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 云防火墙的身份认证与访问控制 天翼云云防火墙(原生版)已经对接了统一身份认证服务(Identity and Access Management,IAM)服务。通过IAM的权限定义可实现对云资源权限的访问控制。 通过IAM,可以将用户加入到一个用户组中,并用策略来控制他们对云资源的访问范围,也可以将用户加入到企业项目中,为用户赋予企业项目的权限。
        来自:
        帮助文档
        云防火墙(原生版)
        产品介绍
        安全
        身份认证与访问控制
      • 跨地域恢复
        如果您已完成跨地域备份数据,可以使用备份文件将数据恢复到跨地域备份所在地域或者本地的新实例上。本文介绍关系数据库MySQL版跨地域恢复功能。 注意 仅西南1、华东1、华北2II类型资源池支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 前提条件 开启跨地域备份且要恢复的备份文件已成功同步至目标地域。 开启透明加密的实例不支持恢复操作。 待恢复资源池新订购的实例规格不能小于原实例。 操作步骤 按备份集恢复 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表页签。 5. 单击跨域备份列表页签。 您可以在跨域备份列表中查看备份文件。 6. 找到目标备份文件,单击操作 列的恢复。 7. 在实例恢复 面板中,设置恢复到新实例并选择地域,单击提交。 8. 提交后跳转到订单支付页面,支付后,将会恢复到跨区域备份文件所在的地域,您可以在新地域看到新实例。 说明 开启跨域备份后,如果不想恢复到异地,可以在基础备份列表中选择备份集,恢复到本地资源池。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        跨地域恢复
      • 快照备份
        步骤2:进行快照备份 自动快照备份 注意 由于快照备份的数据都是存在云硬盘存储库中的,所以进行快照备份需要先开通云硬盘备份的存储库。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,然后单击备份策略页签。 5. 单击快照备份策略右侧的编辑图标。 在备份策略中设置保留天数(1180天)、备份周期、备份开始时间和存储库等。 选择已创建的存储库,打开备份配置开关。 注意 备份配置开关是开启自动快照备份的开关,如果关闭,依然可以进行手动的快照备份。 6. 单击确定。 手动快照备份 注意 由于快照备份的数据都是存在云硬盘存储库中的,所以进行快照备份需要先开通云硬盘备份的存储库。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表页面。 5. 单击左上角的创建备份。 6. 配置如下备份参数,然后单击确定。 备份类型 :选择快照备份。 备份名称:设置备份文件名称。 描述:设置备份操作描述信息。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        备份
        快照备份
      • 实例受限使用命令
        本文介绍Redis实例受限使用命令 Cluter集群(直连模式)命令限制 Cluster集群实例支持多个Key的命令,但要求保持与开源Redis Cluster的行为一致,不支持跨SLOT访问REDIS命令。具体来说如下: 1.不支持多db,只能select 0。不支持select其他db。 2.要求单个命令操作的KEY都分布在同一个SLOT上。为了保证这个效果,建议可以使用hash tag等。 3.支持事务和PUB/SUB订阅,但要求相关操作的KEY都在同一个SLOT上。 表1 Cluster集群实例受限使用的Redis命令: 命令类型 命令 Strings MSETNX Set SINTER Set SINTERSTORE Set SUNION Set SUNIONSTORE Set SDIFF Set SDIFFSTORE Set SMOVE Sortedset ZUNIONSTORE Sortedset ZINTERSTORE HyperLogLog PFCOUNT HyperLogLog PFMERGE Keys RENAME Keys RENAMENX Keys BITOP Keys RPOPLPUSH 经典版集群命令限制 经典版集群模有如下的不同。 1.支持多DB,可以SELECT命令。 2.支持MSET,MSET等跨SLOT的多个KEY命令支持。 具体参考下面的表2。 3.不支持CLUSTER KEYSLOT以外CLUSTER的命令。 4.Client KILL和CLIENT LIST命令只能操作当前代理的客户端信息,不代表整个实例的。 5.代理模式下的事务、脚本执行都是按slot拆分发到对应节点执行的,同一个slot的事务不会被拆分,但不能保证跨SLOT事务一致性。 表2 代理模式集群支持多SLOT命令: 命令类型 命令 SCRIPTING SCRIPT SCRIPTING EVAL SCRIPTING EVALSHA GENERIC SCAN GENERIC DEL GENERIC UNLINK GENERIC DBSIZE STRING MSET STRING MGET SET SUNION SET SUNIONSTORE SET SDIFF SET SDIFFSTORE SET SINTER SET SINTERSTORE: PUB/SUB SUBSCRIBE PUB/SUB PSUBSCRIBE PUB/SUB PUBLISH PUB/SUB UNSUBSCRIBE PUB/SUB PUNSUBSCRIBE PUB/SUB PUBSUB CHANNELS PUB/SUB PUBSUB NUMPA PUB/SUB PUBSUB NUMSU STREAM XGROU STREAM XINFO STREAM XREAD STREAM XREADGROUP
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        开源命令兼容性
        实例受限使用命令
      • 本地验证
        本文为您介绍接入域名至Web应用防火墙(原生版)实例时,如何进行本地验证。 已在Web应用防火墙(WAF)中添加域名,但还未修改域名的DNS解析(将网站域名解析到WAF)时,建议您通过修改本地计算机的DNS解析,在本地计算机上验证WAF的域名接入设置正确有效。本文以Windows操作系统为例,介绍了在本地计算机验证域名接入设置的操作步骤。 前提条件 已通过CNAME接入模式手动添加网站域名。 背景信息 通过修改本地计算机的hosts文件,可以设置本地计算机的域名寻址映射,即仅对本地计算机生效的DNS解析记录。本地验证需要您在本地计算机上将网站域名的解析指向WAF的IP地址。这样就可以通过本地计算机访问被防护的域名,验证WAF中添加的域名接入设置是否正确有效,避免域名接入配置异常导致网站访问异常。 获取WAF IP 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏选择“接入管理”,默认进入“域名接入”页签。 5. 定位到已添加的防护对象,在操作列点击进入“详情”进入防护对象详情页。 6. 在“防护对象详情”页中,复制该域名对应的WAF CNAME地址。 7. 在Windows操作系统中,打开cmd命令行工具。 8. 执行命令:ping 。 9. 在ping命令的返回结果中,记录域名对应的WAF IP地址。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        接入WAF
        网站接入WAF防护(域名接入)
        本地验证
      • 编译运行Demo Java工程
        介绍连接Kafka编译运行Demo Java工程 kafkaclients引入依赖 在使用Kafka时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用Kafka之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用Kafka的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: org.apache.kafka kafkaclients 示例代码 1. 从控制台获取以下信息 连接地址 实例连接地址从控制台实例详情菜单处获取,在实例详情页面的接入点信息一栏。 Topic名称 在Topic管理页面,选择需要的Topic名称。 消费组名称 在消费组管理页面,选择需要的消费组名称。 2. 在实例代码中替换以上信息即可实现消息。 import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } } 3. 同样在实例代码中替换以上信息即可消费消息。 import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import java.util.Arrays; import java.util.Properties; public class Consumer { private org.apache.kafka.clients.consumer.Consumer consumer; private static final String GROUPID "testgroup"; private static final String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Consumer() { Properties props new Properties(); props.put(ConsumerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ConsumerConfig.GROUPIDCONFIG, GROUPID); props.put(ConsumerConfig.AUTOOFFSETRESETCONFIG, "earliest"); props.put(ConsumerConfig.ENABLEAUTOCOMMITCONFIG, "false"); props.put(ConsumerConfig.KEYDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUEDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); consumer new KafkaConsumer<>(props); } public void consume() { consumer.subscribe(Arrays.asList(TOPIC)); while (true){ try { ConsumerRecords records consumer.poll(1000); System.out.println("the numbers of topic:" + records.count()); for (ConsumerRecord record : records) { System.out.println("the data is " + record.value()); } }catch (Exception e){ // TODO: 异常处理 e.printStackTrace(); } } } public static void main(String[] args) { new Consumer().consume(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        编译运行Demo Java工程
      • 产品功能
        功能模块 功能项 功能点 智算版 异构资源管理 异构资源 GPU 支持 异构资源管理 异构资源 NPU 支持 异构资源管理 异构资源 RDMA 支持 异构资源管理 监控 GPU 利用率 支持 异构资源管理 监控 Job 监控 支持 异构资源管理 共享GPU eGPU 支持 AI 任务调度 调度策略 GANG 支持 AI 任务调度 调度策略 FIFO 支持 AI 任务调度 调度策略 Capacity 支持 AI 任务调度 调度策略 Binpack 支持 AI 任务调度 调度策略 Spread 支持 AI 框架 模型训练 PyTorch 支持 AI 框架 模型训练 TensorFlow 支持 AI 框架 模型训练 DeepSpeed 支持
        来自:
        帮助文档
        云容器引擎 智算版
        产品介绍
        产品功能
      • 网页防篡改
        约束限制 仅支持开启网页防篡改版防护后才支持防篡改相关操作。 前提条件 云服务器的“Agent状态”为“在线”且“防护状态”为“开启”。 操作步骤 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 4、在“主动防御 > 网页防篡改 > 防护配置”页面,单击目标服务器“操作”列的“查看报告”。 查看防护报告 5、在查看报告界面,查看防护记录详情。 网页防篡改防护记录 查看网页防篡改防护事件 开启静态网页防篡改防护后,主机安全服务将立即对您添加的防护目录执行全面的安全检测。您可以查看所有主机防护文件被非法篡改的记录。 约束限制 仅支持开启网页防篡改版防护后才支持防篡改相关操作。 前提条件 云服务器的“Agent状态”为“在线”且“防护状态”为“开启”。 已开启静态网页防篡改。 操作步骤 1、登录管理控制台。 2、在页面左上角选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。 3 、在弹窗界面单击“体验新版”,切换至主机安全服务页面。 说明 切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 4、在“主动防御 > 网页防篡改 > 防护事件”页面,查看主机防护文件被篡改记录。 防护事件
        来自:
        帮助文档
        企业主机安全
        用户指南
        主动防御
        网页防篡改
      • 边缘接入服务版本介绍
        本文介绍边缘安全加速平台边缘接入服务不同套餐版本适用的业务规模、支持的功能情况。 套餐和版本概述 天翼云边缘安全加速平台边缘接入服务支持包年包月计费模式。本文介绍不同套餐版本适用的业务规模、支持的功能情况。 边缘安全加速平台边缘接入服务的套餐版本分为:基础版、定制版。 适用的业务规模 下表描述了不同版本适用的业务规模。一般情况下,对于中小型规模的企业网站,推荐您选择基础版。 注意 定制版不支持线上订购,若需要订购,请提交工单给天翼云客服。 加速区域 中国内地 全球(不含中国内地) 全球 价格(元/月) 2000 3000 3400 适用场景 适合访问请求和源站都在中国内地的TCP/UDP等四层加速场景。 适合如下三种加速场景: 1. 源站在海外访问请求在国内的TCP/UDP等四层加速场景。 2. 源站在国内访问请求在海外的TCP/UDP等四层加速场景。 3. 源站和访问请求都在海外的TCP/UDP等四层加速场景。 全球范围内加速您的四层TCP/UDP应用,不限制访问区域与源站所在地。 上下行带宽/流量 中国内地:10Mbps/1TB 全球(不含中国内地):5Mbps/500GB 中国内地:2.5Mbps/250GB 全球(不含中国内地):2.5Mbps/250GB 四层DDoS防护 防护流量:40Gbps 防护次数:1次 平台级尽力防护 中国内地:防护流量:40Gbps;防护次数:1次 全球(不含中国内地):平台级尽力防护 IP应用加速域名个数 1 1 1 端口数 5 5 5
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品简介
        边缘接入服务版本介绍
      • 功能特性
        本文介绍云容器引擎的功能特性。 集群管理 支持1.15/1.18版本的Kubernetes 。 支持设置Master节点数量1个(基础版)或3个(高级版)。 支持50个Worker节点的集群规模。 支持绑定弹性IP,使用云主机、云硬盘、VPC作为集群的基础计算、存储、网络资源。 支持通过不同企业项目纳管集群。 支持挂载普通IO、高IO类型数据盘。 支持通过前端web界面及后台kubectl操控集群。 支持管理命名空间,可创建/删除命名空间。 节点管理 支持查看节点基本信息,节点事件记录,并进行节点重启等基本操作。 支持查看节点资源的使用情况,包括CPU、内存、网络速率、硬盘使用量等指标。 工作负载管理 支持创建与管理无状态应用(Deployment)、有状态应用(StatefulSet)。 支持最大100个实例数,支持同时多容器创建,支持用户自定义容器规格、容器镜像、环境变量等,支持容器生命周期处理,支持用户进行健康检查、本地存储卷HostPath,LocalVolume的容器数据存储挂载、容器日志挂载等设置。支持与节点、应用的亲和性、反亲和性调度策略。支持手动与自动触发应用伸缩,支持Pod级别的水平伸缩告警策略,可设置CPU使用率及物理内存使用率两种指标。支持迁移时间窗设置,支持通过YAML文件进行直接编辑应用。 支持负载应用的升级、版本回退功能。 支持查看应用资源的使用情况,包括CPU、内存、网络速率等指标,支持进行事件查看。 支持管理应用标签及注解,可自定义标签的key与value。 支持容器组管理,可查看容器组详细信息,并提供容器终端可实现对容器内部进行操控。
        来自:
        帮助文档
        云容器引擎(旧版)
        产品简介
        功能特性
      • 备份集导入(1)
        界面 1. 列表栏说明: 名称:显示该备份集发现对应的规则名称。 状态:显示该备份集发现规则的状态。 调度中:表示该规则处于生效状态,已加入调度服务器的队列中,等待执行。 执行中:表示该规则正在执行。 完成:表示任务运行完成,备份策略类型为一次性或者立即执行时,备份完成后展示此状态。 禁用:表示该规则不生效,不会触发备份集发现任务,已经发起的任务不受影响。 任务类型:显示该备份集发现规则对应的任务类型(仅发现或自动导入)。 存储单元:显示该备份集发现规则指定的存储单元。 存储单元类型:显示该备份集发现规则指定的存储单元类型。 最近任务开始时间:显示最近一次发现任务的开始时间。 最近任务消耗时间:显示最近一次发现任务执行所消耗的时间。 发现备份集数量:显示最近一次发现任务所发现的备份集数量。 2. 操作列说明: 手动执行:当规则处于“调度中”或“完成”状态,可执行 “手动执行”操作,让任务立即执行一次。 禁用/启用:当规则处于“禁用”时,此处显示“启用”;当规则处于“调度中&执行中”时,此处显示“禁用”。 修改:修改该备份集发现任务。 删除:删除该备份集发现任务。 3. 操作栏说明: 新建:新建备份集复制任务。 删除:删除备份集复制任务。 刷新:刷新当页备份集复制任务。 备份集导入 备份集导入页面,将显示通过备份集发现后获取到的备份集,针对已发现的备份集,用户可根据自己的需求,选择导入全部或部分备份集。 备份集导入完成后: 导入的备份集将从备份集导入页面删除; 当前备份域(备份集管理页面)将自动生成已导入完成的备份集。 该备份集后续可实现正常的备份数据生命周期管理(如备份集数据恢复、备份集复制/归档)。
        来自:
      • 资源栈状态说明
        执行计划状态 状态 状态类型 说明 等待创建 中间状态 执行创建任务和“创建中”之间的瞬时状态,准备好后状态将变为“创建中”。 队列中 中间状态 执行创建任务和“创建中”之间的瞬时状态,准备好后状态将变为“创建中”。 创建中 中间状态 创建执行计划时的状态,创建完成后,状态将变为“创建成功,待部署”或“创建失败” 创建过程中,您可单击取消创建,取消创建成功后状态将变为“取消创建”。 创建失败 稳定状态 创建执行计划失败后的状态,此时仅是创建执行计划失败,对资源栈本身没有影响。 此时可以通过两种方式解决问题: 方式一,请参考帮助文档常见问题进行自助修复; 方式二,请提交工单,由技术人员协助解决问题。 创建成功,待部署 稳定状态 创建执行计划成功的状态,此时您可单击部署 ,执行部署操作,参考部署资源栈。 已触发部署 中间状态 执行部署操作和“部署中”之间的瞬时状态,准备好后状态将变为“部署中”。 部署中 中间状态 部署执行计划时的状态,部署完成后,状态将变为“部署失败”或“部署成功” 部署过程中,您可单击取消部署,取消部署成功后,转台将变为“取消部署”。 部署成功 稳定状态 部署成功后的正常状态,用户可正常进行相关业务。 部署失败 稳定状态 部署失败后的状态,此时资源栈中的资源可能与计划不一致。用户更新并部署资源栈后,将重新流转部署状态。 此时可以通过两种方式解决问题: 方式一,请参考帮助文档常见问题进行自助修复; 方式二,请提交工单,由技术人员协助解决问题。 取消部署 稳定状态 用户执行取消部署后的状态。 取消创建 稳定状态 用户执行取消创建后的状态。
        来自:
        帮助文档
        资源编排ROS
        用户指南
        资源栈状态说明
      • 内存相关参数
        maintenanceworkmem (integer) 指定在维护性操作(例如VACUUM、CREATE INDEX和ALTER TABLE ADD FOREIGN KEY)中使用的 最大的内存量。其默认值是 64 兆字节(64MB)。因为在一个数据库会话中,一个时刻只有一个这样的操作可以被执行,并且一个数据库安装通常不会有太多这样的操作并发执行, 把这个数值设置得比workmem大很多是安全的。 更大的设置可以改进清理和恢复数据库转储的性能。注意当自动清理运行时,可能会分配最高达这个内存的 autovacuummaxworkers倍,因此要小心不要把该默认值设置得太高。通过独立地设置autovacuumworkmem 可能会对控制这种情况有所帮助。 replacementsorttuples (integer) 当要被排序的元组数比这个数字小时,排序将会使用替换选择而不是快速排序来产生其第一个输出。在内存受限的环境中这可能会有用,这种环境中被输入到大型排序操作中的元组具有很强的物理逻辑关联。注意,这不包括具有逆相关的输入元组。替换选择算法可能会产生一次不需要合并的长时间运行,其中使用默认策略会导致很多次运行并且必须被合并来产生最终的有序输出。这可以允许排序操作更快完成。默认是150,000 个元组。注意,更高的值通常不会更有效,并且可能产生反效果,因为优先队列对于可用的 CPU 高速缓存的尺寸很敏感,然而默认策略会使用一种高速缓存透明算法运行。这种性质允许默认的排序策略自动且透明地利用可用的 CPU 高速缓存。把maintenanceworkmem设置为其默认值通常会阻止工具命令外部排序(例如CREATE INDEX用来构建 B树索引的排序)使用替换选择排序,除非外部元组非常宽。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        内存相关参数
      • 导出导入作业
        导入作业 导入作业功能依赖于OBS服务,如无OBS服务,可从本地导入。 在作业目录中导入一个或多个作业 1. 单击作业目录中的 > 导入作业,选择已上传至OBS或者本地中的作业文件,以及重名处理策略。 说明 在硬锁策略下,如果锁在其他人手中,重名策略选择了覆盖,则会覆盖失败。软硬锁策略请参考 详见下图:导入作业定义及依赖 2. 单击“下一步”,根据提示导入作业。 说明 在导入作业过程中,若作业关联的数据连接、dli队列、ges图等在数据开发模块系统中不存在时,系统会提示您重新选择。 操作示例 背景信息: 在数据开发模块系统中创建一个DWS的数据连接“doctest” 在作业目录中创建实时作业“doc1”,作业中添加节点“DWS SQL”,配置节点的“数据连接”为“doctest”,配置“SQL脚本”和“数据库”。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业搜索框中搜索作业“doc1”,导出作业到本地,并上传作业至OBS文件夹中。 4. 在数据开发模块系统中删掉作业关联的dws数据连接“doctest”。 5. 单击作业目录中的 > 导入作业,选择上传至OBS文件夹中的作业,并设置重名处理策略。 6. 单击“下一步”,根据导入作业页面的提示重新选择数据连接。 7. 单击“下一步”,再单击“关闭”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        (可选)管理作业
        导出导入作业
      • 作业运维报错
        本章节主要介绍Spark作业相关问题中有关作业运维报错的问题。 Spark作业访问OBS数据时报ResponseCode: 403和ResponseStatus: Forbidden错误 问题现象 Spark程序访问OBS数据时上报如下错误。 Caused by: com.obs.services.exception.ObsException: Error message:Request Error.OBS servcie Error Message. ResponseCode: 403, ResponseStatus: Forbidden 解决方案 Spark程序访问OBS数据时,需要通过配置AK、SK的访问进行访问。具体访问方式可以参考上方:通用队列操作OBS表如何设置AK/SK。 有访问OBS对应的桶的权限,但是Spark作业访问时报错 verifyBucketExists on XXXX: status [403] 请排查“全局配置 > 作业配置” 对应OBS桶是否被设置为了DLI日志桶。 日志桶不能用于DLI的其他业务功能中。 Spark作业运行大批量数据时上报作业运行超时异常错误 Spark作业程序访问大批量数据,如访问DWS大批量数据库数据时,建议设置并发数,启动多任务的方式运行,避免作业运行超时。 使用Spark作业访问sftp中的文件,作业运行失败,日志显示访问目录异常 Spark作业不支持访问sftp。 建议将文件数据上传到OBS,再通过Spark作业进行读取和分析。 执行作业的用户数据库和表权限不足导致作业运行失败 问题现象 Spark作业运行报数据库权限不足,报错信息如下: org.apache.spark.sql.AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveException: MetaException(message:Permission denied for resource: databases.xxx,action:SPARKAPPACCESSMETA) 解决方案 需要给执行作业的用户赋数据库的操作权限,具体操作参考如下: 1. 在DLI管理控制台左侧,单击“数据管理”>“库表管理”。 2. 单击所选数据库“操作”栏中的“权限管理”,将显示该数据库对应的权限信息。 3. 在数据库权限管理页面右上角单击“授权”。 4. 在“授权”弹出框中,选择“用户授权”或“项目授权”,填写需要授权的用户名或选择需要授权的项目,选择相应的权限。 5. 单击“确定”,完成授权。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业运维报错
      • 作业开发
        Spark作业访问MySQL数据库的方案 通过DLI Spark作业访问MySQL数据库中的数据有如下两种方案: 方案1:在DLI中购买按需专属队列,创建增强型跨源连接,再通过跨源表读取MySQL数据库中的数据,该方案需要用户自行编写java代码或scala代码。 方案2:先使用云数据迁移服务CDM将MySQL数据库中的数据导入OBS桶中,再通过Spark作业读取OBS桶中的数据,如果用户已有CDM集群,该方案比方案1简单,且不会对现有数据库造成压力。 如何通过JDBC设置spark.sql.shuffle.partitions参数提高并行度 操作场景 Spark作业在执行shuffle类语句,包括group by、join等场景时,常常会出现数据倾斜的问题,导致作业任务执行缓慢。 该问题可以通过设置spark.sql.shuffle.partitions提高shuffle read task的并行度来进行解决。 设置spark.sql.shuffle.partitions参数提高并行度 用户可在JDBC中通过set方式设置dli.sql.shuffle.partitions参数。具体方法如下: Statement st conn.stamte() st.execute("set spark.sql.shuffle.partitions20") Spark jar 如何读取上传文件 Spark可以使用SparkFiles读取 –file中提交上来的文件的本地路径,即:SparkFiles.get("上传的文件名")。 说明 lDriver中的文件路径与Executor中获取的路径位置是不一致的,所以不能将Driver中获取到的路径作为参数传给Executor去执行。 lExecutor获取文件路径的时候,仍然需要使用SparkFiles.get(“filename”)的方式获取。 lSparkFiles.get()方法需要spark初始化以后才能调用。 代码段如下所示 package main.java import org.apache.spark.SparkFiles import org.apache.spark.sql.SparkSession import scala.io.Source object DliTest { def main(args:Array[String]): Unit { val spark SparkSession.builder .appName("SparkTest") .getOrCreate() // driver 获取上传文件 println(SparkFiles.get("test")) spark.sparkContext.parallelize(Array(1,2,3,4)) // Executor 获取上传文件 .map( > println(SparkFiles.get("test"))) .map( > println(Source.fromFile(SparkFiles.get("test")).mkString)).collect() } }
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业开发
      • 天翼云微服务云应用平台服务等级协议
        天翼云微服务云应用平台服务等级协议(SLA),详情请参见这里。
        来自:
        帮助文档
        微服务云应用平台
        相关协议
        天翼云微服务云应用平台服务等级协议
      • 态势感知与其他安全服务之间的关系与区别?
        服务名称 服务类别 关联与区别 防护对象 态势感知(专业版)(SA) 安全管理 SA着重呈现全局安全威胁攻击态势,统筹分析多服务威胁数据和云上安全威胁,并提供防护建议。 呈现全局安全威胁攻击态势。 AntiDDoS流量清洗(AntiDDoS) 网络安全 AntiDDoS集中于异常DDoS攻击流量的检测和防御。 同步相关攻击日志、防护等数据给SA。 保障企业业务稳定性。 企业主机安全(HSS) 主机安全 HSS着手于保障主机整体安全性,检测主机安全风险,执行防护策略。 同步相关告警、防护等数据给SA。 保障主机整体安全性。 Web应用防火墙(独享版)(WAF) 应用安全 WAF服务对网站业务流量进行多维度检测和防护,防御常见攻击,阻断攻击进一步威胁。 同步相关入侵日志、告警数据等给SA,呈现全网Web风险态势。 保障Web应用程序的可用性、安全性。
        来自:
        帮助文档
        态势感知(专业版)
        常见问题
        产品咨询
        态势感知与其他安全服务之间的关系与区别?
      • 操作日志
        此章节为您介绍日志审计(原生版)操作日志的相关内容 选择“系统配置 > 操作日志”,可查看系统内所有用户的操作情况包括访问的模块和操作的内容。 用户名称:进行此操作的用户。 登录IP:进行操作用户登录的IP地址。 访问模块:用户进行操作的模块。 操作内容:用户进行的动作。 详细内容:用户进行具体操作的详细数据内容。 发生时间:此操作发生的时间。 是否成功:操作是否成功进行。
        来自:
        帮助文档
        日志审计(原生版)
        用户指南
        系统配置
        操作日志
      • 事件定时器
        操作步骤 注意 开启事件定时器可能会导致实例短暂异常,稍后会恢复为运行中状态。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在配置信息 区域,在事件定时器参数右侧的开关处,打开或者关闭事件定时器。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        实例管理
        事件定时器
      • “自动封禁/解封攻击者”配置实践
        本文介绍如何实现对攻击者的自动封禁/解禁。 Web应用防火墙(原生版)的企业版及以上版本支持自定义BOT防护策略,通过智能BOT防护+攻击惩罚,帮助用户实现自动化动态拉黑攻击IP,实现业务的自动化防护。 用户可以结合业务情况进行自定义防护规则的配置,实现自动封禁和自动解禁。 示例场景 防护对象:“www.ctyun.cn”。 触发条件:来自“xxx.xxx.10.15”的请求中,5秒 内“请求URI中包含password”的请求次数大于等于10次。 处置措施:自动封禁“xxx.xxx.10.15”30分钟,30分钟后解封。 前提条件 已购买WAF SaaS模式企业版或旗舰版实例。 防护域名“www.ctyun.cn”已接入WAF并开启防护。 步骤一:配置并开启BOT防护 1. 开启BOT防护:在“防护配置 > 对象防护配置”页面,选择“安全防护”页签,定位到“BOT防护”模块,开启BOT防护。 2. 单击自定义规则右侧的“前去配置”,进入自定义防护规则页面。 3. 单击“新建防护规则”,添加一条自定义防护规则。 匹配条件:来自“xxx.xxx.10.15”的请求中,5秒 内请求URI中包含password的请求次数大于等于10次。 处置动作:动态拦截最大支持600秒(即10分钟)。 攻击惩罚:需要拦截超过10分钟,可以开启攻击惩罚。攻击惩罚功能可将多次触发自定义规则的会话对象进行自动拉黑封禁。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        最佳实践
        “自动封禁/解封攻击者”配置实践
      • 使用Packer制作私有镜像
        versionDEVEL Use graphical install graphical %packages @^minimalenvironment @standard %end Keyboard layouts keyboard vckeymapus xlayouts'us' System language lang enUS.UTF8 Network information network bootprotodhcp deviceens3 onbootoff ipv6auto activate network hostnamelocalhost.localdomain Use hard drive installation media harddrive dir partitionLABELctyunos22.06x8664 Run the Setup Agent on first boot firstboot enable System services services enabled"chronyd" ignoredisk onlyusevda Partition clearing information clearpart none initlabel Disk partitioning information part / fstype"xfs" ondiskvda size20959 System timezone timezone Asia/Shanghai utc Root password rootpw iscrypted $6$cPAfx8xCk0rxNiwG$3eKaNUZUJwsdSzn/2AqXYgtc7MuQs5Z0xXW5DVskb.5kTKwjUPW.fd4X0F3P//1h436THh0GnqAW3LGDu.9lO. %addon comredhatkdump disable reservemb'128' %end reboot %anaconda pwpolicy root minlen8 minquality1 strict nochanges notempty pwpolicy user minlen8 minquality1 strict nochanges emptyok pwpolicy luks minlen8 minquality1 strict nochanges notempty %end 5. 验证 Packer 模板有效性。 验证 Packer 模板文件的语法和配置是否正确。这个命令会检查模板文件的语法是否符合 Packer 的要求,并且会验证配置信息是否符合各个构建器(Builders)、配置器(Provisioners)等的要求。如果模板文件未通过验证,Packer 会输出所有的错误消息,帮助用户识别和修正问题。
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        使用Packer制作私有镜像
      • 授权书模板
        注意事项 被授权方为:入驻云通信的企业用户(企业用户为企业名称)。 授权方为:真实需要发送短信的一方(即资质以及短信内容所属方)。 授权书授权时间:因授权书到期需要补交授权,建议授权时间签署1年以上。 授权书法定代表人或负责人签名:授权方法人或授权方负责人签字。 授权书盖章:此处需要真实发送消息的一方的实体在此盖章。 所有证明文件必须为原件扫描件,公章必须为红色。 执照未过期、未涂改。 短信服务提供授权委托书的Word模板,请在申请页面单击授权委托书.docx。 证明文件必须为JPG、PNG、JPEG格式的图片,每张图片不大于5 MB。 范本案例 【案例】天翼云认证账号类型为:企业用户,认证企业名称为:A公司。 A公司在天翼云平台提交了一个名为“B”的签名,就需要获得B公司的授权。那授权书正确填写的内容应该为下图所示案例: 说明: 建议授权书有效期不能太短,如果授权书过期也会导致您平台短信内容需要重新提供授权,为了不影响您短信的正常使用,建议有效期时间保证在1年以上。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        资质
        授权书模板
      • 通过Remote Write地址将开源Prometheus数据写入Prometheus实例
        天翼云Prometheus监控服务提供了Remote Write标准接口,可通过该接口远程接入开源Prometheus的监控数据,以实现在天翼云Prometheus监控平台上收集和展示其自定义数据。本文将具体介绍如何使用Remote Write地址完成数据接入。 使用限制 Remote Write接口暂不支持HTTP/2。 前提条件 已创建Prometheus实例。 远程写入的客户端网络已经与暴露接口打通。 步骤一:获取AKSK 1. 通过实名认证的账号登录天翼云。 2. 进入天翼云账号中心。 3. 点击【安全设置】进入安全设置中心。 4. 在用户AccessKey模块,可创建AKSK,或直接查看已生成的AKSK。 步骤二:获取Remote Write地址 1. 登录Prometheus监控服务控制台。 2. 在左侧导航栏点击实例列表。 3. 单击目标实例名称。 4. 在设置页签上,即可获取Remote Write地址。 步骤三:配置开源版Prometheus 1. 安装Prometheus。 2. 编辑Prometheus.yml配置文件,并在文件末尾增加以下内容,将remotewrite链接替换为上文步骤二中获取的地址,然后保存文件。 plaintext global: scrapeinterval: 15s evaluationinterval: 15sscrapeconfigs: jobname: 'prometheus' staticconfigs: targets: ['localhost:9090'] remotewrite: 替换为您的Remote Write地址。 url: " basicauth: username和password分别对应您天翼云账号的AK和SK。 username: accesskeyid password: accesskeysecret 3. 重启开源版Prometheus服务。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        自定义数据接入
        通过Remote Write地址将开源Prometheus数据写入Prometheus实例
      • 与其它服务的关系
        本文为您介绍多活容灾服务与其它服务的关系。 弹性云主机 当保护组创建完成后,需要容灾的云主机可以添加到指定的保护组中。 在故障切换或容灾演练时,云上容灾恢复会部署云主机,确保业务的连续性。 具体产品详情请参考:弹性云主机。 虚拟私有云 虚拟私有云为弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境,提高云上资源的安全性并简化网络部署。 容灾的生产中心和容灾中心都需要配置VPC,以确保网络环境的隔离性和安全性。 具体产品详情请参考:虚拟私有云。 弹性IP 弹性IP(EIP)是可以独立申请的公网 IP 地址,可以实现 VPC 中的云资源通过固定的公网 IP 地址与互联网互通。 具体产品详情请参考:弹性IP。 弹性负载均衡 弹性负载均衡(ELB)可将访问流量自动分发到多台弹性云主机上,提高搭建在弹性云主机上应用系统对外的服务能力,提高应用程序容错能力。 具体产品详情请参考:弹性负载均衡。 数据库 数据库产品提供数据备份、实时同步等功能,为容灾服务提供基础支持。 容灾服务利用实时同步功能,确保在发生灾难时,备用数据库可以立即接管主数据库的工作,保证业务的连续性。 具体产品详情请参考:关系数据库MySQL版、分布式缓存服务Redis版。
        来自:
        帮助文档
        多活容灾服务
        产品介绍
        与其它服务的关系
      • 1
      • ...
      • 107
      • 108
      • 109
      • 110
      • 111
      • ...
      • 254
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      公共算力服务

      模型推理服务

      科研助手

      推荐文档

      Microsoft SQL Server

      适用场景

      查询日志

      如何修改和设置绑定邮箱?

      产品规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号