活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(融合版)_相关内容
      • 修改实例信息
        本章节主要如何介绍修改分布式消息服务RabbitMQ的实例信息。 创建RabbitMQ实例成功后,您可以根据自己的业务情况对RabbitMQ实例的部分参数进行调整。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击RabbitMQ实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 描述 企业项目 安全组 公网访问(公网访问的修改方法,请参考设置实例的公网访问。) 参数修改完成后,通过以下方式查看修改结果。 修改“公网访问”,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        修改实例信息
      • 重启Kafka Manager
        本文主要介绍 重启Kafka Manager。 操作场景 当Kafka Manager无法登录或者无法使用时,例如下图中的报错,可以通过重启Kafka Manager,使Kafka Manager恢复正常。 图 报错信息 说明 重启Kafka Manager不会影响业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重启Kafka Manager。 在待重启Manager的Kafka实例所在行,单击“更多 > 重启Manager”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重启Manager”。 步骤 5 单击“确定”。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示重启成功。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启Kafka Manager
      • 创建列存储引擎插件
        本页介绍天翼云TeleDB数据库列存储引擎的创建、查看和删除语法。 创建列存储引擎插件 使用列存储表之前,需要创建extension,插件创建完成之后,可以在 pgextension 系统表中看到新增的插件条目 teledb CREATE EXTENSION pax; CREATE EXTENSION teledb select from pgextension; extname extowner extnamespace extrelocatable extversion extconfig extcondition ++++++ plpgsql 10 11 f 1.0 teledbxcore 10 2200 t 1.0 pax 10 11 f 1.0 (3 rows) teledb dx List of installed extensions Name Version Schema Description +++ pax 1.0 pgcatalog pax access method plpgsql 1.0 pgcatalog PL/pgSQL procedural language teledbxcore 1.0 public core module of teledbx (3 rows) 查看系统表列存储引擎新增条目 创建列存储插件引擎后,在pgam 系统表中看到新增的表访问方式,在 pgnamespace 系统表中看到新增的辅助表命名空间 teledb select oid, from pgam; oid amname amhandler amtype +++ 403 btree bthandler i 405 hash hashhandler i 783 gist gisthandler i 2742 gin ginhandler i 4000 spgist spghandler i 3580 brin brinhandler i 2 heap heaptableamhandler t 16396 pax pgextaux.paxtableamhandler t (8 rows) teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        列存储引擎
        基础使用介绍
        创建列存储引擎插件
      • 通知周期概览
        本章节主要介绍通知管理的通知周期概览。 操作场景 用户可以按照天/周/月为调度周期配置通知任务,向相关人员发送通知。让相关人员可以定期跟踪作业的调度情况(作业调度成功数量,作业调度失败异常数量以及作业失败详情)。 约束限制 该功能依赖于OBS服务。 前提条件 已开通消息通知服务并配置主题,为主题添加订阅。 已提交作业,且作业不是“未启动”状态 已开通对象存储服务,并在OBS中创建文件夹。 配置通知 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“运维调度 > 通知管理”。 3. 在页面右侧的“周期概览”页签,单击“通知配置”,弹出“通知配置”页面,配置如下表所示的参数。 通知参数 参数 是否必选 说明 通知名称 是 设置发送的通知名称。 调度周期 是 选择通知发送的调度周期,可以设置为按“天”、“周”或“月”发送。 说明 按天发送,通知记录为以发送时间往前推24小时时间段的数据;按周发送,通知记录为往前推七天时间段的数据;按月发送,通知记录为往前推30天时间段的数据 选择时间 是 设置通知发送的具体日期。 当调度周期为周时,可设置为一周中星期一至星期日的某一天或某几天。 当调度周期为月时,可设置为一月中每月1号至每月31号的某一天或某几天。 具体时间 是 设置通知发送的具体时间点,可以精确设置到小时和分钟。 选择概览通知的主题 是 单击下拉选项,设置通知发送的主题。 选择OBS桶 是 单击“OBS”设置通知记录数据存储的位置。 开关 是 是否开启通知,默认开启。 4. 单击“确定”。 5. 通知配置完成后,您可以在通知的“操作”列进行如下操作。 单击“编辑”,打开“通知配置”页面,可以重新编辑通知。编辑完成后选择“确定”,保存修改。 单击“记录”,打开“查看记录”页面,可以查看作业的调度情况。 单击“删除”,打开“删除通知”页面,选择“确定”,删除通知。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        运维调度
        通知管理
        通知周期概览
      • 设置暴力破解防护
        功能介绍支持配置暴力破解防护策略防范攻击者通过撞库盗取用户的信息。 功能介绍 支持配置暴力破解防护策略,防范攻击者通过暴力破解盗取用户的信息。 暴力破解是什么? 暴力破解是指攻击者通过脚本等方式实现原有的尝试登录流程,不断重复尝试登录的一个过程,从理论上来看只要时间足够,所有的账号都有被暴力破解找到口令的可能,对普通用户爆破可以造成个人的财产损失,对网站管理员的账号爆破则可以危害公司资产。 暴力破解的防护原理 边缘云WAF主要通过爆破行为监控来防护。 前提条件 已开通Web应用防火墙(边缘云版)。 已新增域名并成功接入WAF,具体操作请见WAF接入。 开通套餐为基础版及以上版本,支持暴力破解防护相关功能。 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台,在左侧导航栏中选择【域名管理】—【域名列表】,单击域名列表操作【安全防护】进入高级防护页面; 2. 进入【账号安全防护】页面; 3. 进入新增暴力破解防护规则页面。 暴力破解防护配置说明 配置项 说明 开关 可以选择开启或者关闭暴力破解防护策略 处理动作 设置触发暴力破解策略的处理动作,可以选择拦截或告警 登录页URL 设置登录页面的URL 登录页数据请求URL 先单击键盘F12或者抓包,点击登录按钮,获取登录数据请求的url地址。(所获地址与登录页面URL可能是同一个,但是一般情况下动静态页面是分离的,所以大概率是不同的页面) 登录失败跳转URI 设置登录失败后需要跳转的URI 触发条件 在【防护统计频率】内的【作用域】的请求数,请求次数超过【拦截阈值】次数,则执行【处理动作】,处理动作持续时间【拦截时间】。其中,作用域支持CI、IP+UA、IP (1)CI:客户端ID,订购扩展服务BOT管理后支持该作用域 (2)IP+UA:客户端IP与客户端UA (3)IP:客户端IP 白名单 针对误拦设置白名单,可选粒度:IP、IPS、IPR等多个粒度,支持配置多条白名单规则,多个粒度为“且”的逻辑,多个范围为“或”的关系
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        操作指导
        安全防护配置
        设置账户安全防护
        设置暴力破解防护
      • 数据迁移工具适用场景
        本文介绍数据迁移工具适用场景。 媒体存储为客户提供在线迁移服务,客户可以通过在线迁移服务实现以下数据迁移场景: 将同个账号的媒体存储的某个Bucket数据迁移至另一个Bucket。 跨不同的天翼云账号迁移媒体存储间的数据。 将第三方数据,如阿里云、AWS等数据迁移到媒体存储。 目前在线迁移服务为内测能力,如有需要,可联系您的专属客户经理开通试用。
        来自:
        帮助文档
        媒体存储
        常见问题
        数据迁移
        数据迁移工具适用场景
      • 查看已归档事件
        本文主要介绍查看已归档事件 操作场景 云审计服务会定时将跟踪到的事件以事件文件的形式按周期保存至OBS桶。事件文件是按照服务、转储周期两个维度生成的事件集,系统会根据当前负载情况调整每个事件文件包含的事件数。 本节介绍如何在OBS中通过下载事件文件查看已保存至OBS桶的历史操作记录。 前提条件 已在云审计服务中成功配置追踪器。配置方法请参见《云审计服务用户指南》的“配置追踪器”章节。 操作步骤 1.登录管理控制台。 2.选择“服务列表 > 管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 3.单击左侧导航树的“追踪器”,进入追踪器信息页面。 4.单击“转储OBS桶”下的指定的OBS桶名称,页面跳转到OBS管理控制台中对应OBS桶的对象管理界面。 5.在OBS桶中选择需要查看的历史事件,按照事件文件存储路径选择“OBS桶名 > CloudTraces > 地区标示 > 时间标示:年 > 时间标示:月 > 时间标示:日 > 服务类型目录” ,文件将下载到浏览器默认下载路径,如需要将事件文件保存到自定义路径下,请单击右侧的“下载为”按键。 事件文件存储路径: OBS 桶名 >CloudTraces> 地区标示 > 时间标示:年 > 时间标示:月 > 时间标示:日 > 服务类型目录 例如:User Define>CloudTraces>region>2016>5>19>ECS 事件文件命名格式: 操作事件文件前缀 CloudTrace 区域标示 日志文件上传至 OBS 的时间标示:年 月 日 T 时 分 秒 Z 系统随机生成字符 .json.gz 例如: File Prefix CloudTraceregion20160530T162056Z21d36ced8c8af71e.json.gz 说明 OBS桶名和事件前缀为用户设置,其余参数均为系统自动生成。 关于云审计服务事件结构的关键字段详解,请参见“事件结构”和“事件样例”。 6.文件下载到本地后,通过解压可以得到与压缩包同名的json文件,下载解压后的json文件如图21所示,通过记事本等txt文档编辑软件即可查看到保存的追踪日志信息。 图下载解压后的json文件
        来自:
        帮助文档
        云审计
        快速入门
        查看已归档事件
      • STS相关接口
        STS即Secure Token Service 是一种安全凭证服务,可以使用STS来完成对于临时用户的访问授权。对于跨用户短期访问对象存储资源时,可以使用STS服务。这样就不需要透露主账号AK/SK,只需要生成一个短期访问凭证给需要的用户使用即可,避免主账号AK/SK泄露带来的安全风险。 获取临时token 在服务端生成临时token,可参考java、python、nodejs、CPP、donet、go、php SDK说明,请从 SDK概览 页面选择进入对应的开发指南查阅。 使用临时token 使用assumeRole请求申请临时凭证,使用服务端返回的accessKeyId,secretAccessKey和sessionToken来初始化s3对象。 使用过程中,需要更新凭证,保证凭证不过期。使用过期凭证的请求,服务端会返回403(AccessDenied)。 javascript let S3Demo { credentials: { accessKeyId: " ", secretAccessKey: " ", sessionToken: " ", }, s3Client: null, ​ // 初始化s3对象 init: function () { let config { credentials: this.credentials, endpoint: " ", }; this.s3Client new AWS.S3(config); }, } 参数说明: 参数 说明 credentials 用户账号信息,包含accessKeyId和secretAccessKey和sessionToken endpoint 天翼云资源池的地址,必须指定http或https前缀
        来自:
        帮助文档
        媒体存储
        SDK参考
        JavaScript SDK
        STS相关接口
      • 配置追踪器
        本章节介绍如何配置追踪器。 操作场景 云审计服务管理控制台支持对已创建的数据类追踪器增加OBS转储、LTS转储等相关配置。 用户可以选择是否将已记录的事件发送到OBS桶永久保存。 配置追踪器完成后,系统立即以新的规则开始记录操作。 本节介绍如何配置数据类事件追踪器。 前提条件 已开通云审计服务,且已创建一个数据类事件追踪器。 配置数据类事件追踪器 1. 登录管理控制台。 2. 在管理控制台右上角单击图标,选择区域和项目。 3. 单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务详情页面。 4. 单击左侧导航树的“追踪器”,进入追踪器信息页面。 5. 在数据类追踪器信息右侧,单击操作下的“配置”。 6. 在选择追踪对象页面,设置相关参数,参数详情见表 选择转储事件参数表,单击“下一步”。 7. 在配置转储页面可以修改该追踪器的转储信息。用户通过云审计控制台只能查询最近7天的操作记录,如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或配置转储到云日志服务(LTS)。具体参数说明参见表 配置转储到OBS参数列表和表 配置转储到LTS参数列表。 8. 单击“下一步 > 配置”,完成配置数据类事件追踪器。 追踪器配置成功后,您可以在追踪器信息页面查看配置的追踪器的详细信息。 说明 因为CTS所存储的事件是周期性转储到OBS桶的,因此当您配置了追踪器所对应的OBS桶后,当前转储周期内(通常为数分钟)已收到事件会转储到配置后的OBS桶中。例如当前转储周期为12:00~12:05,用户在12:02分修改了当前追踪器对应的OBS桶,那么12:00~12:02分之间收到的事件会在12:05分时转储到新配置的OBS桶中。 9. (可选)在追踪器页面,单击标签列下的,可以为该追踪器添加标签。 标签以键值对的形式表示,用于标识追踪器,便于对追踪器进行分类和搜索。此处的标签仅用于追踪器的过滤和管理。一个追踪器最多添加20个标签。 如果您的组织已经设定云审计服务的相关标签策略,则需按照标签策略规则为追踪器添加标签。详情参考表 标签说明。 表 选择转储事件参数表 参数名称 参数说明 数据事件来源 数据事件的存储容器,默认为OBS桶。 OBS桶名称 默认为您创建数据类追踪器时设置的OBS桶名称,不可以修改。 事件操作类型 数据操作类型分为“读操作”和“写操作”,读操作指的是从OBS桶中获取或下载对象数据,写操作指的是向OBS桶中上传或写入对象数据。 勾选“读操作”后,CTS只会记录读操作类型的数据事件。 勾选“写操作”后,CTS只会记录写操作类型的数据事件。 您可以在OBS服务的页面的“表2 云审计服务支持的OBS数据事件操作列表”中,查看当前支持云审计的全部OBS操作数据事件,以及查看具体有哪些读操作类型事件和写操作类型事件。 表 配置转储到OBS参数列表 参数名称 参数说明 转储到OBS 当“转储到OBS”开关打开时,您可以选择已存在的OBS桶,并配置事件文件前缀。 如果“转储到OBS”开关关闭时,则无需配置相应参数。 选择OBS 选择已有OBS桶:选择当前区域已创建的OBS桶。 OBS桶名称 当“选择OBS”选择“新建OBS桶”时,直接新建OBS桶名称。OBS桶名称不能为空,仅支持小写字母、数字、“”和“.”,且长度范围为363个字符。禁止两个“.”相邻(如“my..bucket”),禁止“.”和“”相邻(如“my.bucket”和“my.bucket”),禁止使用ip为桶名称。 当“选择OBS”选择“选择已有OBS桶”时,可以选择已存在的OBS桶。 保存周期 转储至OBS桶中日志的保存周期。该配置会修改被选择桶的桶策略,影响范围为桶内的所有文件。不同类型、不同级别的合规认证标准对审计日志的保存时间有不同的要求,建议设置保存周期不低于180天。 数据类事件追踪器:保存周期支持设置为30天、60天、90天、180天、三年和沿用OBS配置。 事件文件名前缀 用于标识被转储的事件文件,该字段支持用户自定义,会自动添加在转储事件文件的文件名前端,方便用户快速进行筛选。事件文件名前缀只能由英文字母、数字、下划线()、中划线()和小数点(.)组成,且长度范围为064个字符。 表 配置转储到LTS参数列表 参数名称 参数说明 转储到LTS 当“转储到LTS”开关打开时,表示操作事件将转储到日志流中。 日志组名称 当“转储到LTS”开关打开时,日志组名称默认为“CTS”。如果“转储到LTS”开关关闭时,则无需配置该参数。 表 标签说明 参数 说明 举例 标签键 输入标签的键,同一个追踪器标签的键不能重复。键可以自定义,也可以选择预先在标签服务(TMS)创建好的标签的键。 键命名规则如下: 长度范围为1到128个字符。 可以包含任意语种字母、数字、空格和.:+@,但首尾不能含有空格,不能以sys开头。 Key0001 标签值 输入标签的值,标签的值可以重复,并且可以为空。 标签值的命名规则如下: 长度范围为0到255个字符。 可以包含任意语种字母、数字、空格和.:/+@。 Value0001
        来自:
        帮助文档
        云审计
        用户指南
        数据类事件追踪器
        配置追踪器
      • 计费类问题
        本文汇总了云硬盘备份在使用过程之中会遇到的计费类问题。 云硬盘备份如何购买和续费? 购买: 云硬盘备份仅针对存储库这一项进行计费,支持按需计费和包年包月两种计费模式。按照用户购买存储库容量进行收费。 续费: 超过订购时间后,存储库及备份将会处于过期状态,无法继续使用,用户可通过续费操作,完成支付即可继续使用服务。 关于云硬盘备份更多计费信息请参见云硬盘备份计费说明。 云硬盘备份是如何计费的? 云硬盘备份通过存储库计费,支持按需计费和包年包月两种计费模式,云硬盘备份产生的备份副本将会放入存储库中,备份副本的容量不能超过存储库容量。 详细收费规则请阅读计费模式部分。 存储库支持扩容、续订、退订吗? 存储库支持扩容、续订以及退订。 扩容操作请参见扩容存储库。 续订操作请参见续订存储库。 退订操作请参见退订存储库。 通过备份创建的新盘计费模式是怎样的? 不是固定的。云硬盘为客户提供按需计费和包年包月计费两种模式,两种计费模式的区别请参见云硬盘计费模式。 通过备份创建新的云硬盘,用户可以根据需求选择新云硬盘的计费模式,在创建页面“付费方式”处选择按需计费或包年包月即可,具体操作请参见使用备份创建新的云硬盘。
        来自:
        帮助文档
        云硬盘备份 VBS
        常见问题
        计费类问题
      • 概述
        服务器安全卫士(原生版)的病毒查杀功能,支持对挖矿木马、蠕虫、勒索病毒等进行有效的检测,提供灵活的检测方式,支持一键检测和定时检测方式,通过简单操作即可完成对病毒的处理,支持对病毒文件进行隔离、删除和信任。 病毒检测模式 包含快速检测、全盘检测、自定义检测三种模式。 快速检测:扫描耗时短,对系统关键位置文件进行扫描。 全盘检测:对主机所有硬盘文件进行扫描,清理更彻底。 自定义检测:按指定位置有选择性扫描文件。 病毒扫描方式 提供实时检测、一键扫描、定时扫描三种扫描方式,方便用户基于实际使用场景进行操作。 病毒文件处理方式 服务器安全卫士(原生版)检测到病毒文件会立即产生告警,需要您根据告警详细信息对病毒文件作出处置,处置方式包括以下三种: 隔离:将病毒文件或恶意程序移动至隔离区域,进行加密处理,禁止正常运行。对于已隔离的文件,支持取消隔离。 删除:永久从系统中删除病毒文件或恶意程序,以确保不再有可能的威胁。 注意 文件删除后将不可恢复,请谨慎操作。 信任:经分析后确认为误报,可以选择将文件进行信任,信任后将不再对该文件进行检测告警。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        文件安全
        病毒查杀
        概述
      • 变更计费模式
        云服务备份存储库的计费模式包括按需计费和包年包月。您可以根据实际需求选择存储库的计费模式。 包年包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费是后付费模式,根据实际使用量进行计费,可以随时购买或删除存储库。费用直接从账户余额中扣除。 如果您需要长期使用当前存储库,可以将按需购买的存储库转为包周期计费模式,节省开支。按需转包周期的具体操作,请参考操作指导,存储库管理的按需转包周期章节。 目前不支持包周期存储库转按需。
        来自:
        帮助文档
        云服务备份
        计费说明
        变更计费模式
      • 如何通过XstorBrowser同时操作两个存储区域的资源
        本文介绍如何通过XstorBrowser同时操作两个存储区域的资源。 XstorBrowser中,一个操作账号仅支持操作一个存储区域的资源,如您需有多个存储区域,可添加多个操作账号进行操作。 如您需切换存储区域,可参考以下操作: 1. 点击菜单栏的账号图标。 2. 点击【添加账号】。 3. 在添加账号弹窗填写别名、AK(Access Key ID)、SK(Secret Access Key)、EndPoint信息,点击【确定】。 别名仅用于操作账号的本地管理,不参与鉴权,您可根据需要自行命名。 Access Key ID、Secret Access Key您可通过控制台的密钥管理菜单查询,具体参考:获取访问密钥。 EndPoint信息填写您具体需要访问的存储桶所在区域,可通过控制台存储桶的基础配置标签页查询,具体参考:基础信息查看。 4. 再次点击菜单栏的账号图标,即可选择对应的操作账号操作其他存储区域的资源。
        来自:
        帮助文档
        媒体存储
        常见问题
        工具相关
        如何通过XstorBrowser同时操作两个存储区域的资源
      • 挂载NFS协议类型文件存储到边缘虚拟机(Linux)
        参数 说明 vers 文件存储版本,支持 NFSv3 和 NFSv4。如果您的业务场景不包含多台实例同时编辑同一个文件,建议您选择 NFSv3,达到最优性能。 timeo NFS 客户端重传请求前的等待时间(单位为 0.1 秒)。建议值:600。 noresvport 指定 NFS 客户端向 NFS 服务端重新发起建立连接时使用新的 TCP 端口。强烈建议使用 noresvport 参数,这可以保障网络发生故障恢复事件后文件存储服务不会中断。 lock/nolock 选择是否使用 NLM 协议在服务器上锁文件。当选择 nolock 选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。建议值:nolock。如不加此参数,则默认为 lock,就会发生其他服务器无法对此文件存储写入的情况。ECX文件存储暂不支持非本地锁操作,需要显式添加 nolock 参数防止客户端调用非本地锁而导致抢锁失败的写入慢问题。 proto NFS 客户端向服务器发起传输请求使用的协议,可以为 UDP 或者 TCP。 挂载地址 文件存储的格式为:文件存储 ip:/ 路径,例如:192.168.0.10:/var/ecx/filenvmecv4lq0bkrj0lnj8u23n0。 本地路径 边缘虚拟机上用于挂载文件存储的本地路径,例如 “/localpath”。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        文件存储
        挂载NFS协议类型文件存储到边缘虚拟机(Linux)
      • 怎么删除存储桶中的全部文件?
        可以使用下列方式删除存储桶(Bucket)中的全部文件: 设置生命周期,配置文件过期规则,通过生命周期删除全部文件,详见生命周期管理存储桶文件。 直接选中文件,点击删除,详见删除文件或文件夹。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        存储桶(Bucket)和文件(Object)类
        怎么删除存储桶中的全部文件?
      • 库触发器
        本章节主要介绍库触发器 新建触发器 触发器是存储在数据库目录中的一组SQL语句。每当与表相关联的事件发生时,即会执行或触发SQL触发器,例如插入,更新或删除。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 4、在左侧导航栏中,单击“开发工具”,进入开发工具页面。 5、选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 6、在顶部导航栏选择“库管理”, 7、在页面右上方“当前所在库”右侧单击“切换库”,切换目标数据库。 8、在对象列表页签下选择“库触发器”,单击页面“新建触发器”。 9、在新建触发器编辑页面,单击“设置模板参数”。 10、在弹窗中设置参数信息,编辑完成单击“确定”。 11、在确新建触发器页面,编辑触发器主体信息,单击“保存”即可。 修改触发器 您可以在数据管理服务界面修改触发器的名称、触发表、触发时机、触发事件以及触发器定义SQL等信息。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 4、在左侧导航栏中,单击“开发工具”,进入开发工具页面。 5、选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 6、在顶部导航栏选择“库管理”, 7、在页面右上方“当前所在库”右侧单击“切换库”,切换目标数据库。 8、在对象列表页签下选择“库触发器”,单击页面操作栏的“修改触发器”。 9、在修改触发器页面,编辑触发器内容,修改完成单击“保存”即可。 删除触发器 如果您不再需要某个触发器,可以手动删除该触发器。
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL Server数据库管理(开发工具)
        库触发器
      • 创建Serverless集群
        本文介绍如何创建Serverless集群。 前提条件 已开通并授权云容器引擎。 已登录弹性容器实例控制台开通ECI服务。 步骤一:登录云容器引擎控制台 1.登录云容器引擎控制台。 2.在控制台的左侧导航栏中点击“集群”。 3.在集群列表页面中,单击页面右上角的“创建集群”,进入订购页后单击“Serverless版”,进入订购云容器引擎Serverless版界面。 步骤二:集群配置 在订购云容器引擎Serverless版页面中,完成集群的基本配置。部分配置说明如下: 配置项 描述 实例名称 填写集群的实例名称 企业项目 按需选择企业项目 计费模式 默认使用按需计费模式 Kubernetes版本 显示当前Serverless集群支持的Kubernetes版本 部署方式 支持单可用区部署、多可用区部署 可用区 按需选择可用区 API Server访问 API Server的访问需要依赖ELB实例,您可根据需要选择合适的ELB规格,系统将根据该规格创建一个私网ELB实例。同时,您也可以选择是否使用EIP暴露API Server,选择不开放时,则无法通过外网访问集群API Server 虚拟私有云 集群所使用的VPC,支持使用已有的VPC或创建虚拟私有云 所在子网 集群所使用的子网,支持使用已有的子网或创建子网 默认安全组 安全组是一种虚拟防火墙,能够控制实例的出入站流量,Serverless集群会自动生成一条默认的安全组,以确保容器之间能正常通信 启用IPv6 启用IPv6双栈将创建双栈Serverless集群 Service CIDR 设置Service CIDR。Service网段不能与VPC及VPC内已有集群使用的网段重复,并且Service地址段也不能和Pod地址段重复。集群创建成功后不能再修改该网段 自定义证书SAN 按需添加自定义的IP或域名,以实现对客户端的访问控制 集群本地域名 填写集群的本地域名 集群删除保护 设置是否启用集群删除保护,防止通过控制台或者API误删除集群 集群标签 为集群绑定标签,作为云资源的标识 集群描述 按需对集群进行描述说明 时区 集群所要使用的时区
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        集群
        创建Serverless集群
      • 备份弹性云主机
        本节介绍了备份弹性云主机的操作场景、云主机备份操作步骤、云硬盘备份操作步骤。 操作场景 云备份(Cloud Backup and Recovery,CBR)提供对云硬盘和弹性云主机的备份保护服务,支持基于快照技术的备份服务,并支持利用备份数据恢复服务器和磁盘的数据。云备份最大限度保障用户数据的安全性和正确性,确保业务安全。 云备份提供申请即用的备份服务,使您的数据更加安全可靠。例如,当磁盘或服务器出现故障或者人为错误导致数据误删时,可以自助快速恢复数据。 云主机备份操作步骤 1.登录管理控制台。 2.选择“存储 > 云备份 > 云主机备份”。 3.单击“创建云主机备份存储库”。 详细操作,请参见《云备份用户指南》中“创建存储库”章节。 4.云主机备份存储库创建后,通过向存储库绑定服务器来进行备份操作。 详细操作,请参见《云备份用户指南》中“绑定云主机或磁盘”章节。 5.创建备份。 详细操作,请参见《云备份用户指南》中“创建备份”章节。 云硬盘备份操作步骤 1.登录管理控制台。 2.选择“存储 > 云备份 > 云硬盘备份”。 3.单击“创建云硬盘备份存储库”。 详细操作,请参见《云备份用户指南》中“创建存储库”章节。 4.云硬盘备份存储库创建后,通过向存储库绑定磁盘来进行备份操作。 详细操作,请参见《云备份用户指南》中“绑定云主机或磁盘”章节。 5.创建备份。 详细操作,请参见《云备份用户指南》中“创建备份”章节。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        备份弹性云主机
      • 应用场景
        本小节介绍云解析的应用场景。 域名安全解析应用场景 针对各级政府、金融机构、新闻媒体、国有企事业单位的关键信息基础设施提供专业的权威解析服务。对重点域名提供安全监控服务,实时保证重点域名的解析以及用户访问可达。借助网站拨测功能,实现故障屏蔽,从而保障用户互联网服务的高可用。通过自研的DNS抗DDoS专用产品,可有效的对攻击DNS的DDoS报文实现准确识别和清洗。拥有多年国家顶级域名的运行经验,在域名系统的建设、运行、安全防护等方面积累了大量的运营和维护经验,参与并完成了多次重大活动期间域名解析安全保障工作。 实现功能 配置CNNIC自主研发的DNS专用产品,包括解析、抗攻击、安全监控等设备。 在多个城市部署域名安全服务系统监测节点,及时采集监测数据并回传到控制中心进行处理和分析,并根据预设条件进行必要的安全预警以及应急触发。 融合CNNIC多年DNS系统建设和维护的实践。 IPV6双栈应用场景 通过简单易用的操作平台,为企业和广大域名所有者提供安全稳定的DNS云解析服务。通过BGP + Anycast方式组网,使云解析具备完善的网络架构,使用CNNIC自主研发的DNS专用产品构建服务平台,包括抗攻击产品、权威解析产品和DNS实时流量监控产品。提供对IPv6的支持,可满足用户分区域、分运营商的精准解析,实现域名快速、稳定、安全的权威解析。 实现功能 系统运行IPv4/IPv6双栈,可同时提供IPv4和IPv6网络的解析请求。 网络架构采用BGP + Anycast技术跨区域、跨运营商异构部署。 配置CNNIC自主研发的DNS专用产品,包括解析、抗攻击、安全监控等设备。 全球部署多个节点,提供智能的、弹性的平台支持能力。
        来自:
        帮助文档
        云解析
        产品介绍
        应用场景
      • 变更实例规格
        步骤二:变更云主机规格 变更资产规格完成后,还需要再变更搭载堡垒机的云主机规格。 云主机对应规格详情请见云堡垒机(原生版)计费模式。 云主机升配规格请参见弹性云主机变更规格。
        来自:
        帮助文档
        云堡垒机(原生版)
        计费说明
        变更实例规格
      • 作业开发
        如何在DLI中运行复杂PySpark程序? 数据湖探索(DLI)服务对于PySpark是原生支持的。 对于数据分析来说Python是很自然的选择,而在大数据分析中PySpark无疑是不二选择。对于JVM语言系的程序,通常会把程序打成Jar包并依赖其他一些第三方的Jar,同样的Python程序也有依赖一些第三方库,尤其是基于PySpark的融合机器学习相关的大数据分析程序。传统上,通常是直接基于pip把Python库安装到执行机器上,对于DLI这样的Serverless化服务用户无需也感知不到底层的计算资源,那如何来保证用户可以完美运行他的程序呢? DLI服务在其计算资源中已经内置了一些常用的机器学习的算法库,这些常用算法库满足了大部分用户的使用场景。对于用户的PySpark程序依赖了内置算法库未提供的程序库该如何呢?其实PySpark本身就已经考虑到这一点了,那就是基于PyFiles来指定依赖,在DLI Spark作业页面中可以直接选取存放在OBS上的Python第三方程序库(支持zip、egg等)。 对于依赖的这个Python第三方库的压缩包有一定的结构要求,例如,PySpark程序依赖了模块moduleA(import moduleA),那么其压缩包要求满足如下结构: 压缩包结构要求 即在压缩包内有一层以模块名命名的文件夹,然后才是对应类的Python文件,通常下载下来的Python库可能不满足这个要求,因此需要重新压缩。同时对压缩包的名称没有要求,所以建议可以把多个模块的包都压缩到一个压缩包里。至此,已经可以完整的运行起来一个大型、复杂的PySpark程序了。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业开发
      • 通用类问题
        本章节介绍天翼云边缘重保服务的常见通用类问题。 如何获得天翼云边缘重保服务? 请联系专属客户经理提交服务开通申请,或者拨打天翼云客服电话4008109889进行订购,天翼云将根据您在天翼云上的产品及业务类型进行审核确认。 天翼云边缘重保服务具体针对哪些产品提供服务? 天翼云边缘重保服务目前覆盖的产品范围为:CDN 加速、视频直播、全站加速、边缘安全加速平台、安全加速、Web 应用防火墙(边缘云版)、DDoS 高防(边缘云版)、智能边缘云,不同服务版本可支持产品差异详见服务版本差异一览表。 天翼云边缘重保服务目前提供哪些服务版本?不同服务版本之间有何差异? 天翼云边缘重保服务提供体验版、基础护航服务、尊享护航服务、安全护航服务、尊享安全护航服务五个服务版本,不同版本差异详见服务版本差异一览表。 若某场需要重保的活动中,同时使用了边缘安全加速平台和视频直播产品,是否需要重复订购不同版本的边缘重保服务? 无需重复订购, 每一个服务版本均可支持其所覆盖范围中的一款或多款产品,请根据实际保障方式和需要保障的产品列表按需选择对应版本进行订购即可。
        来自:
        帮助文档
        边缘重保服务
        常见问题
        通用类问题
      • 查询媒体处理配置
        参数名 类型 名称 Output list 参数集 Output.Format string 图片格式 Output.Interval string 截图间隔时长 Output. SamplingSnapshot int 是否截关键帧 Output.OssFilePath string 截图存储路径 Output.OssFileName string 截图文件命名规则 OssRegion string OSS存储的Region名称 OssBucket string OSS存储的Bucket名称 OssEndpoint string OSS存储的Endpoint名称 OssExpiration int 存储时长
        来自:
        帮助文档
        视频直播
        API参考
        API
        直播媒体处理
        查询媒体处理配置
      • 查询域名媒体处理配置
        参数名 类型 名称 Output list 参数集 Output.Format string 图片格式 Output.Interval string 截图间隔时长 Output. SamplingSnapshot int 是否截关键帧 Output.OssFilePath string 截图存储路径 Output.OssFileName string 截图文件命名规则 OssRegion string OSS存储的Region名称 OssBucket string OSS存储的Bucket名称 OssEndpoint string OSS存储的Endpoint名称 OssExpiration int 存储时长
        来自:
        帮助文档
        视频直播
        API参考
        API
        直播媒体处理
        查询域名媒体处理配置
      • 查看数据集详情
        本文介绍如何在科研助手中查看数据集详情。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【数据存储】 3. 在【数据存储】弹出的选项中,选择【数据集管理】。 4. 选择一个数据集,在操作栏中单击【查看】按钮。 5. 在【文件管理】页面中可查看数据集中存储的内容。 6. 以下为数据集详情页面展示的字段和功能说明: 参数 说明 刷新 刷新当前存储文件管理展示页面。 完整路径 在文件存储服务器中的路径,支持复制。 文件名 文件名或者文件夹名。 大小 若为文件夹时,不显示;若为具体文件时,为文件大小。 修改时间 文件的最后修改时间。 操作 下载
        来自:
        帮助文档
        科研助手
        用户指南
        数据存储
        数据集管理
        查看数据集详情
      • 初始化SDK
        设置serviceclient 使用SDK访问对象存储服务,首先需要提供正确的AccessKey和SecretAccessKey以及服务端地址EndPoint,用于设置一个service client。 创建session 配置service client首先需要创建一个session, session包含了service client的配置信息,例如AccessKey、SecretAccessKey以及发送请求的附加信息等。一个session可以被用于创建多个service client。 代码示例: plaintext import ( "github.com/aws/awssdkgo/aws" "github.com/aws/awssdkgo/aws/credentials" "github.com/aws/awssdkgo/aws/session" "github.com/aws/awssdkgo/service/s3" ) ​ const ( Endpoint " " AccessKey " " SecretAccessKey " " ) ​ // BuildSession 创建并返回一个session func BuildSession() session.Session { conf : &aws.Config{ Endpoint: aws.String(Endpoint), // Set this to true to force the request to use pathstyle addressing, // i.e., By default, the S3 client // will use virtual hosted bucket addressing when possible // ( S3ForcePathStyle: aws.Bool(false), //Set this to true to disable SSL when sending requests. Defaults to false DisableSSL: aws.Bool(true), Credentials: credentials.NewStaticCredentials(AccessKey, SecretAccessKey, ""), LogLevel: aws.LogLevel(aws.LogDebug)} sess : session.Must(session.NewSessionWithOptions(session.Options{Config: conf})) return sess } 创建service client 代码示例: plaintext // BuildClient 创建并返回一个service client func BuildClient() s3.S3 { conf : &aws.Config{ Endpoint: aws.String(Endpoint), S3ForcePathStyle: aws.Bool(false), DisableSSL: aws.Bool(true), Credentials: credentials.NewStaticCredentials(AccessKey, SecretAccessKey, ""), LogLevel: aws.LogLevel(aws.LogDebug)} sess : session.Must(session.NewSessionWithOptions(session.Options{Config: conf})) svc : s3.New(sess) return svc }
        来自:
        帮助文档
        媒体存储
        SDK参考
        GO SDK
        初始化SDK
      • 如何获取OOS文件的访问地址?
        请确定存储桶(Bucket)开通时设置权限为公共读写或公共读权限: 如果存储桶为私有,需要在URL后加入加密串获取,具体参见:分享文件、生成共享链接。 如果Bucket为公共读写或者公共读,文件的域名地址(访问地址)构成规则如下: 例如:创建了一个名称为“examplebucket”的存储桶,且权限设置为公共读,在文件夹“test”中,上传一个名为“1.jpg”文件。其文件的域名地址为:
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        存储桶(Bucket)和文件(Object)类
        如何获取OOS文件的访问地址?
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 迁移概述
        数据所在位置 使用条件 迁移方法 迁移速度评估 使用限制 物理机文件系统 物理机可以访问待迁移数据; 物理机和HPFS网络互通,保证可挂载文件系统; 命令拷贝 速度速度取决于物理机网卡,可多台并行拷贝,提高速度。 只支持GPU裸金属物理机挂载 HPFSPOSIX 协议的并行文件系统。 弹性云主机文件系统 云主机可以访问待迁移数据; 弹性云主机和HPFS在同一VPC网络下,保证可挂载文件系统; 命令拷贝 速度取决于云主机配置的网络带宽,可多台并行拷贝,提高速度。 只支持云主机挂载NFS协议的并行文件系统。 对象存储ZOS ZOS数据可以在互联网/内网环境下载; 互联网/内网下载的客户端和HPFS互通,保证可挂载文件系统; 工具迁移 客户端测公网出口带宽直接影响上传时间。 通过互联网访问ZOS的数据,迁移过程会产生请求和流量等相关的费用。 客户本地 用户本地数据量巨大(几十TB),且数据归属于客户,可插拔盘操作; 用户在公有云有独立归属的数据迁移服务器可进行插盘操作; 数据迁移服务器和HPFS互通,保证可挂载文件系统; 数据快递 单USB口的机械硬盘可达到150MB/s。 专属资源的客户,拥有独立的机房设备。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        数据迁移
        迁移概述
      • 数据库实例存储类型
        本节介绍了云数据库GaussDB 的实例存储类型。 数据库系统通常是IT系统最为重要的系统,对存储IO性能要求高,云数据库GaussDB 支持“超高IO”存储类型,最大吞吐量为350MB/S。
        来自:
        帮助文档
        云数据库GaussDB
        产品简介
        实例说明
        数据库实例存储类型
      • 统一身份认证IAM介绍
        section469406ac4df2a1b8)”。 云硬盘备份接口对应权限表 如下是云硬盘备份服务相关权限三元组及生效范围: 控制台接口 权限三元组 配置支持 控制台接口 权限三元组 IAM(资源池/全局) 企业项目(资源组) 创建存储库 vbs:repository:create √ √ 创建存储库 vbs:backupStrategy:list √ √ 创建存储库 evs:volumes:list √ √ 续订/批量 vbs:repository:create √ √ 扩容/批量 vbs:repository:update √ √ 退订/批量 vbs:repository:delete √ √ 创建备份 vbs:backup:create √ √ 创建备份 vbs:backupStrategy:list √ √ 创建备份 evs:volumes:list √ √ 存储库列表 vbs:repository:list √ √ 存储库详情 vbs:repository:get √ √ 存储库详情 vbs:backupStrategy:list √ √ 存储库详情 vbs:backup:list √ √ 编辑存储库 vbs:repository:set √ √ 绑定备份策略 vbs:backupStrategy:binding √ √ 绑定备份策略 vbs:repository:list √ √ 绑定备份策略 vbs:backupStrategy:list √ √ 备份副本列表 vbs:backup:list √ √ 恢复数据 vbs:backup:restore √ √ 删除/批量删除 vbs:backup:delete √ √ 创建备份策略 vbs:backupStrategy:create √ √ 修改策略 vbs:backupStrategy:set √ √ 启用策略 vbs:backupStrategy:enable √ √ 停用策略 vbs:backupStrategy:pause √ √ 绑定存储库 vbs:backupStrategy:binding √ √ 绑定存储库 vbs:repository:list √ √ 绑定存储库 vbs:backupStrategy:list √ √ 解绑存储库 vbs:backupStrategy:unbinding √ √ 立即备份 vbs:backup:create √ √ 删除策略/批量删除 vbs:backupStrategy:delete √ √ 备份策略列表 vbs:backupStrategy:list √ √ 备份策略详情 vbs:backupStrategy:get √ √ 备份策略详情 evs:volumes:list √ √ 备份策略详情 vbs:repository:list √ √ 绑定云硬盘 vbs:backupStrategy:binding √ √ 绑定云硬盘 evs:volumes:list √ √ 解绑云硬盘 vbs:backupStrategy:unbinding √ √ 解绑云硬盘 evs:volumes:list √ √ 创建新盘 evs:volumes:create √ √ 任务列表 vbs:backupTask:list √ √ 任务列表备份任务取消 vbs:backupTask:stop √ √ 天翼云支持对用户组/子用户,进行资源池或全局维度的权限授权;同时也支持在企业项目中,对用户组进行资源组维度的权限授权。部分没有企业项目属性的接口或资源,授权只能以资源池或全局维度进行。以资源池或全局维度进行的授权判断,其优先级高于企业项目中的资源组维度授权。
        来自:
        帮助文档
        云硬盘备份 VBS
        用户指南
        权限管理
        统一身份认证IAM介绍
      • 存储过程修改名称
        本页介绍天翼云TeleDB数据库修改存储过程名称的语法。 修改不带参数的存储过程名称 plaintext teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello telebdxpg'; end; $$ LANGUAGE PLPGSQL; CREATE PROCEDURE teledb alter procedure proc1() rename to proc11; ALTER PROCEDURE teledb 修改带参数的存储过程名称 plaintext teledb CREATE OR REPLACE PROCEDURE proc1(aint int) AS $$ begin raise notice '%',aint; end; $$ LANGUAGE PLPGSQL; CREATE PROCEDURE teledb alter procedure proc1 (aint int) rename to proc11; ALTER PROCEDURE
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        存储过程修改名称
      • 1
      • ...
      • 113
      • 114
      • 115
      • 116
      • 117
      • ...
      • 411
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      概念

      云间高速的优势

      玩转天翼云⑥:Windows主机开启2个远程终端

      登录

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号