活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分析型数据库PostgreSql_相关内容
      • 日志采集
        为了减少内存、数据库和磁盘空间占用,您可以按需进行日志采集设置。日志采集开关用来控制是否对日志数据进行采集。 1. 在云日志服务管理控制台,单击“配置中心”,选择“ICAgent采集开关”。 2. 单击开启或关闭“ICAgent采集开关”。 图 日志采集开关 说明 采集开关默认打开,当您不需要采集日志时,可通过关闭采集开关来停止日志采集,以减少资源占用。 日志采集关闭后,ICAgent会停止采集日志,且在应用运维管理AOM控制台的“日志采集开关”也会同步关闭。
        来自:
        帮助文档
        云日志服务
        用户指南
        配置中心
        日志采集
      • 停用域名
        操作 说明 停用域名 对域名进行停用操作后,控制台上域名状态将变更为“已停止”。3天内,天翼云边缘云会将加速域名的CNAME解析至客户源站地址;3天后,天翼云边缘云会将加速域名的CNAME解析至不可用地址。 注意:对域名进行停用操作后,CDN节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作 删除域名 对域名进行删除操作后,天翼云边缘节点会直接删除加速域名在边缘节点的配置,域名对应CNAME入口地边缘节点址失效,此时域名请求如果仍访问至,则会响应403。
        来自:
        帮助文档
        安全加速(文档停止维护)
        用户指南
        停用域名
      • 查询实例绑定安全组
        接口功能介绍 用户查询实例绑定安全组列表 接口约束 需要提供数据库实例Id. URI GET /teledbdcp/v2/openapi/dcporderinfo/getInstanceSecurityGroups 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 instId 是 String 实例id 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 projectid 是 String 项目id 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 接口状态码,参考下方状态码 200 error String 错误码 TELEDBDCP1000 message String 描述信息 returnObj Object 返回对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 data Object 响应数据 data 表 data 参数 参数类型 说明 示例 下级对象 securityGroupName String 安全组名称 id String 安全组id description String 安全组描述信息 vpcId String 虚拟私有云网ID securityGroupRules Array of Objects 安全组规则信息 securityGroupRules 表 securityGroupRules 参数 参数类型 说明 示例 下级对象 direction String 出方向egress、入方向ingress etherType String IP类型:IPv4、IPv6 protocol String 协议: ANY、TCP、UDP、ICMP(v4) description String 安全组规则描述信息 id String 唯一标识ID securityGroupId String 安全组ID rangeMin String ICMP类型端口:最小值 rangMax String ICMP类型端口:最大值 action String 拒绝策略:允许accept 拒绝drop remoteIpCidr String 远端地址:0.0.0.0/0
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        2022-06-30
        II类资源池
        安全组
        查询实例绑定安全组
      • 到期与欠费
        本节介绍了云数据库TaurusDB的到期与欠费。 服务到期 若您购买的实例已到期,请参见费用中心的到期处理说明章节进行处理。 “按需计费”实例,没有到期的概念。 “包年/包月”实例到期后无法在TaurusDB管理控制台进行该实例的操作,相关接口也无法调用,自动化监控或告警等运维也会停止。如果在保留期结束时您没有续费,实例将终止服务,系统中的数据也将被永久删除。 欠费 若您购买的实例已欠费,请参见费用中心的按需欠费资源冻结规则章节进行处理。 “包年/包月”实例,没有欠费的概念。 “按需计费”实例是按每小时扣费,当余额不足,无法对上一个小时的费用进行扣费,就会导致实例欠费。您续费后解冻实例,可继续正常使用,请注意在保留期进行的续费,是以原到期时间作为生效时间,您应当支付从进入保留期开始到续费时的服务费用。
        来自:
        帮助文档
        云数据库TaurusDB
        计费说明
        到期与欠费
      • 备机管理
        本页介绍天翼云TeleDB数据库如何创建、删除、启动、停止和重启备份机。 操作步骤 1. 登录TelePG控制台。 2. 创建备份机 1. 在左侧导航树上,单击备机管理 ,进入备份机管理页面。 2. 在备份机管理页面,单击创建备份机 ,出现新增备份机 对话框。 3. 在新增备份机对话框填写基本信息,包括备份机名称 、IP地址 、服务端口 、安装目录 、数据目录 和版本号 。 4. 确认填写信息无误后,单击检查配置 ,通过后单击确定 。 5. 新建的备份机将出现在备机列表中。 3. 删除备份机 单击目标备份机所在行操作列的删除 ,即可删除备份机。 4. 启动备份机 单击目标备份机所在行操作列的更多> 启动 ,即可启动备份机。 5. 停止备份机 单击目标备份机所在行操作列的更多> 停止 ,即可停止备份机。 6. 重启备份机 单击目标备份机所在行操作列的更多> 重启 ,即可重启备份机。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        管理平台使用手册
        备机管理
      • 备机管理
        本页介绍天翼云TeleDB数据库如何创建备份机、删除备份机、启动备份机和重启备份机。 操作步骤 1. 登录TelePG控制台。 2. 创建备份机 1. 在左侧导航树上,单击备机管理 ,进入备份机管理页面。 2. 在备份机管理页面,单击创建备份机 ,出现新增备份机 对话框。 3. 在新增备份机对话框填写基本信息,包括备份机名称 、IP地址 、服务端口 、安装目录 、数据目录 和版本号 。 4. 确认填写信息无误后,单击检查配置 ,通过后单击确定 。 5. 新建的备份机将出现在备机列表中。 3. 删除备份机 单击目标备份机所在行操作列的删除 ,即可删除备份机。 4. 启动备份机 单击目标备份机所在行操作列的更多 > 启动 ,即可启动备份机。 5. 停止备份机 单击目标备份机所在行操作列的更多 > 停止 ,即可停止备份机。 6. 重启备份机 单击目标备份机所在行操作列的更多 > 重启 ,即可重启备份机。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.1.0版本产品文档
        管理平台使用手册
        备机管理
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 部署规划 在部署环境之前,硬件、网络及基础环境必须满足如下要求: 服务器芯片:支持国产鲲鹏、海光、龙芯 服务器规格:4C8G及以上 磁盘:推荐1T及以上,实例节点服务器建议使用SSD 网络:千兆网络,实例节点服务器建议万兆网卡 操作系统版本:麒麟V10 SP3、统信V20 部署机器SSH 版本要求 7.4以上 最小化部署主机数量:dcp控制台和TeleDB控制台一台主机,实例主机至少两台, 最小化资源部署需要三台主机 主机规格要求:控制台主机系统为centos7.6+intelx86 ,8c16g以上,建议为8c32g,实例主机系统可选择centos7.6+intelx86或者ctyunos201+鲲鹏920 准备一个数据盘,控制台主机建议500G,实例主机根据数据量判断 主机名 规格 目录及大小 系统及CPU类型 说明 A机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装dcp控制台和TeledbDBX控制台 B机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装实例主机 C机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装实例主机
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 在部署环境之前,硬件、网络及基础环境必须满足如下要求: 服务器芯片:支持国产鲲鹏、海光、龙芯 服务器规格:4C8G及以上 磁盘:推荐1T及以上,实例节点服务器建议使用SSD 网络:千兆网络,实例节点服务器建议万兆网卡 操作系统版本:麒麟V10 SP3、统信V20 部署机器SSH 版本要求 7.4以上 最小化部署主机数量:TeleDB控制台一台主机,实例主机至少两台, 最小化资源部署需要三台主机 主机规格要求:控制台主机系统为centos7.6+intelx86 ,8c16g以上,建议为8c32g,实例主机系统可选择centos7.6+intelx86或者ctyunos201+鲲鹏920 准备一个数据盘,控制台主机建议500G,实例主机根据数据量判断 主机名 规格 目录及大小 系统及CPU类型 说明 A机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装TeledbDB控制台 B机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装实例主机 C机器 8C32G 系统盘500G/app1T centos7.6+intelx86 用于安装实例主机
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 文件缺失类问题
        本页介绍天翼云TeleDB数据库文件缺失类问题。 clog(xact)文件缺失问题 问题描述 执行SQL、或节点启动报错: "could not access status of transaction xxx", "Could not open file ""pgxact/xxxx"": No such file or directory. 可能影响 部分SQL报错; 节点启动失败。 解决步骤 pgxact文件缺失,通常是由于服务器异常断电导致,可通过手动补全文件的方式修复 执行命令,生成种子文件: for i in {1..262144}; do printf '125'; done > committed 用该文件复制为缺失的文件: cp rp committed pgxact/xxxx pgcommitts文件缺失问题 问题描述 执行SQL、或节点启动报错: "could not access status of transaction xxx", "Could not open file ""pgcommitts/xxxx"": No such file or directory. 可能影响 部分SQL报错; 节点启动失败。 解决步骤 pgcommitts文件缺失,通常是由于服务器异常断电导致,可通过手动补全文件的方式修复 用pgcommitts目录下与缺失文件相近的文件复制为缺失的文件: cp rp xxx pgxact/xxxx
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        文件缺失类问题
      • 实例升级
        本页介绍天翼云TeleDB数据库实例升级。 操作场景 随着产品功能不断迭代升级,用户可根据自己业务需求选择升级内核版本。为了帮助您最大程度减少升级过程的繁琐及升级过程对业务的影响,您可在TeleDB控制台进行在线升级。 操作步骤 1. 切换至TeleDB控制台,在左侧导航单击实例详情 ,进入实例详情页面。 2. 在实例详情 页面,单击右上角操作下拉框的在线升级 ,出现实例升级对话框。 3. 在实例升级 对话框,填写任务名称 ,选择升级版本 及升级节点 ,单击下一步 。 4. 确认升级相关信息,单击原地升级或创建灰度升级 。 5. 单击立即前往 ,可跳转至任务管理页面查看任务执行详情。 说明 可以原地升级的场景,这种场景下客户也可以选择灰度升级。 无法一次直接升级成功的路径,需要原地升级至其中一个中间版本后再一次原地升级。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        维护管理实例
        实例升级
      • 重置迁移任务
        本节主要介绍重置迁移任务 DRS任务在迁移过程中由于不确定因素导致迁移任务失败,后台会进行多次断点续传的重试,无需人工干预。但有时候存在无法自动修复的场景,比如源日志被人为强制清理,导致无法继续迁移任务,则可通过重置功能,重新开始迁移而不用再次配置任务。 对于以下迁移状态的任务,可以重置迁移任务。 迁移失败状态 前提条件 已登录数据库复制服务控制台。 已成功创建迁移任务,并且迁移失败。 方式一 1、 在“实时迁移管理”页面的任务列表中,选择要启动的任务,单击操作列“重置”按钮。 2、 在弹出的“重置任务”窗口,将重新进行迁移任务预检查。 3、 预检查完成后,且预检查通过率为100%时,单击“开始重置”按钮,重新提交迁移任务。 方式二 1、 在“实时迁移管理”页面,选择需要启动的任务,单击任务名称。 2、 页面跳转至“基本信息”页签,切换至“迁移进度”页签,单击页面左上角“重置”按钮。 3、 继续执行方法一的步骤2至3。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        重置迁移任务
      • 数据库实例规格
        本页介绍了文档数据库服务提供了丰富的产品规格,用户可根据业务场景选择订购最合适的规格产品。 文档数据库服务提供了丰富的产品规格,用户可根据业务场景选择订购最合适的规格产品。 集群实例规格 系统角色架构 CPU(个) 内存(GB) 最大连接数 Mongos 2 4 2000 Mongos 2 8 2000 Mongos 4 8 4000 Mongos 4 16 4000 Mongos 8 16 16000 Mongos 8 32 16000 Mongos 16 64 16000 Mongos 32 128 16000 Mongos 64 256 16000 Shard 2 4 2000 Shard 2 8 2000 Shard 4 8 4000 Shard 4 16 4000 Shard 8 16 16000 Shard 8 32 16000 Shard 16 64 16000 Shard 32 128 16000 Shard 64 256 16000 Configserver 1 2 1000 Configserver 2 4 2000 Configserver 4 8 4000 Configserver 8 16 16000 副本集实例规格 其中三节点副本集等同于一主两从实例类型,五节点副本集等同于一主四从实例类型,七节点副本集等同于一主六从实例类型。 系统架构 CPU(个) 内存(GB) 最大连接数 三节点副本集 1 4 500 三节点副本集 2 4 1000 三节点副本集 2 8 1000 三节点副本集 4 8 3000 三节点副本集 4 16 3000 三节点副本集 8 16 8000 三节点副本集 8 32 8000 三节点副本集 16 64 16000 三节点副本集 32 128 16000 三节点副本集 64 256 16000 五节点副本集 1 4 500 五节点副本集 2 4 1000 五节点副本集 2 8 1000 五节点副本集 4 8 3000 五节点副本集 4 16 3000 五节点副本集 8 16 8000 五节点副本集 8 32 8000 五节点副本集 16 32 16000 五节点副本集 16 64 16000 五节点副本集 32 64 16000 五节点副本集 32 128 16000 五节点副本集 64 128 16000 五节点副本集 64 256 16000 七节点副本集 1 4 500 七节点副本集 2 4 1000 七节点副本集 2 8 1000 七节点副本集 4 8 3000 七节点副本集 4 16 3000 七节点副本集 8 16 8000 七节点副本集 8 32 8000 七节点副本集 16 32 16000 七节点副本集 16 64 16000 七节点副本集 32 64 16000 七节点副本集 32 128 16000 七节点副本集 64 128 16000 七节点副本集 64 256 16000 副本集只读节点 2 4 1000 副本集只读节点 2 8 1000 副本集只读节点 4 8 3000 副本集只读节点 4 16 3000 副本集只读节点 8 16 8000 副本集只读节点 8 32 8000 副本集只读节点 16 32 16000 副本集只读节点 16 64 16000 副本集只读节点 32 64 16000 副本集只读节点 32 128 16000 副本集只读节点 64 128 16000 副本集只读节点 64 256 16000
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        实例说明
        数据库实例规格
      • 取得视频文件
        参数 是否必填 参数类型 说明 示例 下级对象 videoId 是 String 源视频id 34c71dbaf2804f5ea05ff4daed837fef type 是 String 视频类型,包含 ORIGINAL(源视频)/MASTERM3U8(自适应的主m3u8文件)/TRANSCODED(转码后视频)。 TRANSCODED fileId 是 String 文件id 34c71dbaf2804f5ea05ff4daed837fef/100001.m3u8 url 是 String 视频播放的url,返回数据库中当前的url,如果没有调用签名接口签名,返回的是无签名的url,如果有调用则是上一次签名的url。 transcodeTemplateId 否 Long 视频对应的转码模板id,只有源视频存在转码后的文件集才会返回。 100000000003
        来自:
        帮助文档
        云点播
        API参考
        API
        点播模式API
        取得视频文件
      • 云通信产品隐私政策声明
        “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 云通信产品隐私政策声明 版本生效日期:20220223 “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 如您为未满18周岁的未成年人,请在法定监护人陪同下阅读本协议,并特别注意未成年人使用条款。 定义: 本隐私政策中涉及的个人信息,是指以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。 本隐私政策中涉及的个人敏感信息,主要是涉及在自助订购时的交易信息及财产信息。此类信息经过组合、关联和分析后可能产生高敏感程度的信息,遭到未经授权的查看或未经授权的变更,会对个人信息安全与财产安全造成严重危害。 本政策将帮助您了解以下内容: 一、隐私政策适用范围 二、我们如何收集和使用您的个人信息 三、信息使用 四、信息存储 五、信息共享、转移、公开披露 六、信息保护 七、信息管理 八、我们如何保护未成年人的信息 九、隐私政策的修订 十、联系方式 一、隐私政策的适用范围 本隐私政策适用于我们为您提供的短信服务。需要特别说明的是,本协议不适用于第三方向您提供的服务或产品。 二、个人信息的收集 短信业务功能的运行需要您向我们提供或允许我们收集以下信息,我们仅会出于本政策所述的以下目的,收集和使用您的个人信息,收集过程中我们将遵循合法、正当、必要、最小化的原则。 我们的角色:我们是您的数据的控制者。我们知道您关心如何使用和分享您的数据,同时我们感谢您的信任,我们将谨慎且理智地做到这一点。 2.1短信订购 为了能让您使用短信订购功能,我们将在你进行交易时记录您的交易信息(包括订单号、资源ID、订单创建时间、支付总金额、支付金额、支付状态、支付时间)及财产信息(包括优惠券ID)。如果不提供前述信息,可能无法使用本产品。 2.2操作日志 为了能让您使用操作日志功能,我们将在你进行短信操作时记录您的操作任务、资源名称、资源ID、操作时间、操作用户、地域。如果不提供前述信息,可能无法使用本产品。 2.3随着短信业务功能进一步丰富,后续新增功能如涉及获取用户授权权限时,我们将明确提示并在您授权同意后才会获取该功能所需权限。如未取得您的授权,我们将不会收集和使用相关信息。 2.4您充分知晓,以下情形中,我们收集、使用个人信息无需征得您的授权同意: • 为订立、履行个人作为一方当事人的合同所必需; • 为履行法定职责或者法定义务所必需; • 为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需; • 为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息; • 依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息; • 法律、行政法规规定的其他情形。 三、信息使用 3.1 为更好地向您提供服务,在严格按照法律法规遵循必要性原则基础上,我们将收集的信息用于以下目的和用途: (1)为您提供服务,包括但不限于应您的要求进行账号管理、变更;以及提供技术支持和客户服务; (2)开展内部审计、研究和分析,改善本平台和产品服务; (3)遵从和执行适用的法律法规要求,相关的行业标准或我们的政策; (4)其他为向您提供服务而需要使用您用户信息的情形。 四、信息存储 4.1 短信产品收集有关您的信息将保存在中华人民共和国境内(为本隐私政策之目的,不含香港、澳门、台湾地区)的服务器上。 4.2 对于所收集的信息,我们将在法律规定的最短期限内保存。在您的信息已经不再需要用于实现本隐私政策规定的目的和用途,也无需根据相关法律法规的规定保存时,我们将采取合理步骤以安全的方式销毁个人信息或使进行匿名化处理使其不可识别并不可被再次编辑、修改、使用。 4.3 当您自主删除个人信息或注销账户,我们将按照法律、法规规定的最短期限保留您的现有个人信息,在法律法规要求的最短保存期限内,我们将不再对您的个人信息进行商业化使用。当您的个人信息超出上述保存期限,我们将会对其进行删除或者匿名化处理。 五、信息共享、转移、公开披露 5.1 共享 未经您事先同意,我们不会与任何第三方共享您的信息,但以下情形除外: (1)在获取明确同意的情况下共享:经您事先明确同意,我们会与其他方共享您的信息; (2)根据相关法律法规的规定,或者行政、司法机关的要求,向行政以及司法机关披露您的信息; (3)对我们与之共享您的信息的组织和个人,我们会与其签署严格的保密协定,要求他们按照我们的说明、本隐私政策以及其他任何相关的保密和安全措施来处理您的信息。 5.2 转移 我们不会将您的个人信息转移给任何公司、组织和个人,但以下情况除外: (1)在获取明确同意的情况下转让:获得您的明确同意后,我们会向其他方转移您的个人信息; (2)在涉及合并、收购或破产清算时,如涉及到个人信息转让,我们会要求新的持有您的信息的公司、组织继续受此隐私政策的约束,否则我们将要求该公司、组织重新向您征求授权同意。 5.3 公开披露 我们仅会在以下情况下,公开披露您的个人信息: (1)获得您明确同意后; (2)基于法律的披露:在法律、法律程序、诉讼或政府主管部门强制性要求的情况下,我们可能会公开披露您的个人信息。 六、信息保护 6.1 我们对用户信息的保护 我们非常重视您的信息安全。我们采用适当的物理、管理和技术保障措施来防止您的信息遭到未经授权访问、披露、使用、修改、损坏或丢失。 例如,我们会使用混合加密技术提高信息的保密性;我们会使用受信赖的保护机制防止您的信息遭到恶意攻击;我们会部署访问控制机制,确保只有授权人员才可访问用户信息;我们会举办安全和培训,加强员工对于保护用户信息重要性的认识。 但请您理解,由于技术的限制以及可能存在的各种恶意手段,在互联网环境下,即便竭尽所能加强安全措施,也不可能始终保证信息百分之百的安全。若不幸发生信息泄露等安全事件,我们会立即启动应急预案,阻止事件扩大,及时采取补救措施,并推送通知、公告等多种形式告知您。 6.2 用户对信息的保管 尽管有前述安全措施,但请您妥善保管您的账户、密码及其他信息,避免您的个人信息泄露。如果您发现您的账号、密码或其他信息被他人非法使用或有使 用异常的情况的,应及时通知我们,我们将采取相应安全保障措施。 七、 信息管理 由于云通信产品不具备对用户信息进行管理功能,您需要使用天翼云官网对您的个人信息进行管理。 7.1 查询 您可以在天翼云APP我的账户管理模块查询、管理您向我们提交的基本信息,或者登录天翼云门户官网( 7.2 变更或者修正错误信息 您可以登录天翼云APP,在我的账户管理模块修改您的个人资料,或者登录天翼云门户官网的管理中心进行修改;如果您要变更实名认证信息,您可以通过在天翼云门户提交工单、联系业务受理渠道等方式要求我们对相关信息予以更正。验证身份和权限后,我们将会在5个工作日内为您完成实名认证信息变更。 7.3 删除 若您发现我们未按照法律法规的规定或者本隐私政策约定收集和使用您的信息,您可以通过工单、邮件等方式联系我们对相关信息(包含副本、数据备份)进行删除。验证身份和权限后,我们将会在5个工作日内为您完成信息删除。 7.4 改变或撤回您的授权信息 对于您已经授权同意我们收集和使用的终端设备权限信息,您可以通过在终端设备进行设置、改变或撤回您的授权同意;您改变或撤回授权同意后,可能无法使用相应的功能服务。 7.5 注销账户 您可以登录天翼云门户,在天翼云门户官网个人中心基本信息页面进行账户注销,或天翼云APP管理工具账户注销中提请工单要求注销账户。 在您仔细阅读《天翼云账号注销条款》( 7.6 个人信息副本获取权 如您需要您的个人信息的副本,您可以通过本隐私政策文末提供的方式联系我们,在核实您的身份后,我们将向您提供您在我们的服务中的个人信息副本(包括基本资料、身份信息),但法律法规另有规定的或本政策另有约定的除外。 7.7为保障安全,您申请查询、变更、删除您的信息或注销账户时,可能需要提供书面请求,或以其他方式证明您的身份。我们可能会先要求您验证自己的身份,然后再处理您的请求。 7.8 如果我们停止运营某一产品或者服务,我们将及时停止收集和使用该产品或服务所需的您的信息,同时将停止运营的通知通过天翼云门户进行发布,同时以短信、电话、邮件、站内信、APP消息推送等渠道告知您。对于该产品或服务运营期间已经收集的您的个人信息,我们将依法保存,并在保存期限届满后进行匿名化处理或删除。 7.9 如果我们发生合并、分立、收购、重组等变更,会将变更信息通过天翼云门户进行发布。变更后我们会继续履行信息保护的责任和义务,如果信息使用目的有所变化,我们将明确提示并在您授权同意后才会获取权限,如未取得您的授权,我们将不会收集和使用相关信息。 7.10 尽管有上述约定,但按照法律法规要求,在以下情形下,我们可能无法响应您的请求: (1)与国家安全、国防安全有关的; (2)与公共安全、公共卫生、重大公共利益相关的; (3)与犯罪侦查、起诉和审判等有关的; (4)有充分证据表明您存在主观恶意或滥用权利的; (5)响应您的请求将导致其他个人、组织的合法权益受到严重损害的。 7.11如您需要将您的个人信息转移至您指定的其他个人信息处理者,您可以随时联系我们。在符合相关法律规定且技术可行的前提下的,我们将根据您的要求向您提供转移的途径。 八、我们如何保护未成年人的信息 8.1 我们期望父母或监护人指导未成年人使用我们的服务。我们将根据国家相关法律法规的规定保护未成年人的信息的保密性及安全性。 8.2 如您为未成年人,建议请您的父母或监护人阅读本政策,并在征得您父母或监护人同意的前提下使用我们的服务或向我们提供您的信息。对于经父母或监护人同意而收集您的信息的情况,我们只会在受到法律允许、父母或监护人明确同意或者保护您的权益所必要的情况下使用或公开披露此信息。如您的监护人不同意您按照本政策使用我们的服务或向我们提供信息,请您立即终止使用我们的服务并及时通知我们,以便我们采取相应的措施。 8.3 如您为未成年人的父母或监护人,当您对您所监护的未成年人的信息处理存在疑问时,请通过上文中的联系方式联系我们。 九、隐私政策的修订 9.1 基于为您提供更好的服务的目的,并根据电信业务的发展或法律法规及监督政策变化的要求,我们可能会适时修订本隐私政策,对于本隐私政策的重大改动,我们会请您重新授权同意。 十、联系方式 10.1 如您对本隐私政策或您个人信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云门户端的在线客服、在线反馈留言、拨打我们的客服电话 4008109889 等多种方式与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn,与短信产品的个人信息保护负责人进一步沟通。 10.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        相关协议
        云通信产品隐私政策声明
      • 登录账号
        本文介绍登录数据管理服务DMS的账号。 本文介绍登录数据管理服务账号的方法。 登录方式 目前数据管理服务仅支持使用天翼云账号登录控制台。 前提条件 具备天翼云账号(主账号/子账号)。 注意 天翼云子账号进入DMS前,需确保该子账号对应的天翼云主账号已登录过DMS。 功能介绍 您可以使用天翼云账号登录、跳转,使用数据管理服务。 在开始使用数据管理服务之前,您需要先注册一个天翼云账号。请访问我们的官方网址并点击右上角“免费注册”按钮。在注册页面中,您需要填写您的个人信息,包括电子邮箱、密码、手机号码等。请确保您填写的信息真实有效,以便我们能够及时向您提供服务。注册成功后,您可以使用注册时填写的电子邮箱或其他可用的登录方式登录天翼云。在登录过程中,系统将验证您的账号信息。如果验证通过,您将成功登录到天翼云官网。 在天翼云官网页面,您可以通过产品 > 数据库 > 数据库生态工具 > 数据管理服务的层次树进入数据管理服务产品详情页。 您在数据管理服务产品详情页上首次点击“立即开通”或“管理控制台”按钮均可进入产品订购页。根据指引完成订购后,再次点击“管理控制台”即可跳转至数据管理服务控制台执行操作。 注意事项 输入正确的信息:仔细核对输入的邮箱和密码,确保无误。如果输入错误的信息导致登录失败,可以重新填写正确的信息进行尝试。 保持登录状态:成功登录数据管理服务后,您将保持登录状态,直到主动退出或关闭服务。请注意保护个人隐私和数据安全,避免在公共场合使用时泄露敏感信息。 定期更新密码:为了确保账户安全,建议定期更新您的账号密码。避免使用容易猜到的密码,如生日、姓名等。同时,也建议定期更换密码复杂的随机密码以提高安全性。 注意账户活动:如果发现有异常的账户活动或操作,请立即联系我们的客服支持团队以获取帮助和解决方案。我们会对您的账户活动进行监控和管理以确保您的数据安全。
        来自:
        帮助文档
        数据管理服务
        用户指南
        控制台首页
        登录账号
      • 识别结果
        敏感数据识别任务扫描完成后,可通过DSC服务的“识别结果”页面,查看数据资产的风险分布、风险等级以及敏感数据存在的位置。 前提条件 已至少执行过一次敏感数据识别任务。 操作步骤 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全>数据安全中心”,进入数据安全中心总览界面。 3. 选择左侧导航树中的“敏感数据识别 > 识别结果”,进入识别结果页面。 数据安全中心DSC统计了高风险、中风险和低风险对象的数量及分布图,分别包括大数据、数据库、OBS三个服务。 数据安全中心DSC针对扫描对象提供了详细的识别结果列表,同时,您可以在检测结果列表右上角筛选您想要查看的敏感数据识别结果,可通过风险等级、任务名称、数据类型或者对象名称进行筛选,识别结果列表参数说明如下表所示。 参数名称 参数说明 资产名称 敏感数据识别的对象名称。 数据类型 OBS、数据库、大数据 、MRS。 所属任务 任务名称,检测结果对象隶属的敏感数据检测任务名称。 未知风险信息 根据您设置的识别规则,经检测,未发现风险的资产数量。 低风险敏感信息 根据您设置的识别规则,经检测,统计的低风险(风险等级:1~3级)的资产数量。 中风险敏感信息 根据您设置的识别规则,经检测,统计的中风险(风险等级:4~7级)的资产数量。 高风险敏感信息 根据您设置的识别规则,经检测,统计的高风险(风险等级:8~10级)的资产数量。 上次识别时间 最近扫描该对象的时间。 操作 单击“查看详情”,查看该对象的识别结果明细。 4. 单击扫描对象所在行的“操作”列的“查看详情”,然后进入“结果明细”页面。 在页面的左上角的下拉框中选择任务名称、数据类型或者对象名称,可以通过筛选来查看具体扫描对象的识别结果。 单击页面的右上角的“下载识别结果”,下载风险结果报表。 敏感信息分布 可查看敏感信息的风险分布情况、对应风险等级资产的数量及其占比、Top10命中规则。 血缘图 可查看资产中敏感数据的具体名称、路径、风险等级。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(旧)
        识别结果
      • 主机资产
        本节介绍如何在主机资产页面管理终端。 管理终端 用户可在主机资产页面查看所有绑定该中心的主机信息,包括名称、分组、标签、IP、操作系统、终端版本等,并可查看终端详情、编辑终端、查看策略等操作。 查看终端详情 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 主机资产”,进入主机资产页面。 3. 选择需要查看的主机终端(须确保终端为在线状态),点击终端名称或者点击操作项 中的“查看”。 4. 进入终端详情页面,即可查看该主机终端的详细信息,并可进行远程重启主机、关闭主机及修改远程端口操作。 终端概况说明如下: 终端信息 说明 终端详情 对终端进行详细信息展示:包括网络信息、环境信息、其他信息等;并支持远程关闭主机、重启主机、停止防护等操作。 监听端口 对终端上的端口情况进行实时监控。 运行程序 对终端上的进程运行情况进行实时监控,并支持远程结束相关进程。 账号信息 对终端上的所有账号信息进行统计。 运行应用 对终端上运行的软件应用信息进行统计。 性能监控 对终端上的内存、CPU、磁盘、网络IO进行监控统计。 临时封锁IP 对终端上因为防暴力破解和防端口扫描而引发的临时封锁IP进行管理。 注册表启动项 对终端上所有的注册表启动项进行统计和管理。 Web框架 对终端上运行的Web框架进行统计。 Web服务 对终端上运行的Web服务进行统计。 数据库 对终端上运行的数据库进行统计。 Web应用 对终端上运行的Web应用进行统计。 在线统计 对终端的在线时间进行统计。 安装软件 对终端安装包名、版本号、类型、发布者、安装时间等进行统计。 Jar包 对终端安装所关联的jar包进行统计。 计划任务 对终端被制定了哪些计划任务进行统计。 环境变量 对终端的环境变量进行统计。 内核模块 对终端内核模块名称、版本号、模块路径和大小、模块依赖等进行统计。 Windows证书 对终端的各种证书进行统计。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        资产中心
        主机资产
      • 脚本模式生成API
        配置取数逻辑 “取数方式”选择“脚本方式”: 1.选择数据源、数据连接、数据库和队列,获取到需要配置的表。 说明 数据服务仅支持部分数据源,详情请参见图 DataArts Studio支持的数据源。您需提前在DataArts Studio管理中心中配置好数据源,按照脚本编辑提示要求输入SQL语句。 2.编写API查询SQL。 在脚本编辑页面,按照脚本编辑提示要求输入SQL语句。 说明 SELECT查询的字段即为API返回参数,支持返回别名。 WHERE条件中的参数为API请求参数,参数格式为${参数名}。 3.选择分页方式。 默认分页是指在创建API时输入了SQL,数据服务会自动基于SQL外层包装分页逻辑。例如输入的SQL脚本为: SELECT name as StudentName FROM tableofresults 数据服务在处理调试或者调用时,将自动在用户SQL外层包装分页逻辑,从而变成以下脚本: SELECT FROM (SELECT name as StudentName FROM tableofresults) LIMIT {pageSize} OFFSET {offsetValue} 其中pageNum、offsetValue为调试或者调用时传入参数的值。如果未定义pageNum参数的话,数据服务将默认给API设置一个pageNum参数;offsetValue是调试或者调用时传入参数pageSize的值计算得到,如果用户未定义pageSize参数的话,数据服务将默认给API设置一个pageSize参数。 自定义分页是指用户在创建API时,数据服务将不对用户SQL进行处理,分页逻辑完全由用户定义。如果用户需要创建分页的API的话,则可以在写SQL时加入分页逻辑。例如: SELECT name as StudentName FROM tableofresults LIMIT {pageSize} OFFSET {offsetValue} 4.添加排序参数。 在排序参数列表中,设置排序字段是否可选,排序方式和描述。单击,将入参和排序参数添加为SQL语句的API请求参数。 说明 添加排序参数前,请确保SQL语句正确。 5.编辑请求参数信息 编写好API查询SQL后,单击“测试SQL”,在数据库字段页签内绑定HTTP入参。参见配置取数逻辑中的6配置preorderby参数。 说明 preorderby是非必填参数,当未配置preorderby参数值时,则选取非可选排序字段作为排序的依据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        创建API
        脚本模式生成API
      • 使用V2签名时的HttpURLConnection开发
        本节主要介绍使用V2签名时的HttpURLConnection开发。 应用场景 V2签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.nio.charset.StandardCharsets; import java.text.SimpleDateFormat; import java.util.Arrays; import java.util.Base64; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Locale; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV2Signer { private static final String DATESTR "EEE, d MMM yyyy HH:mm:ss 'GMT'"; private static final SimpleDateFormat DATEFMT new SimpleDateFormat(DATESTR, Locale.ENGLISH); static { TimeZone gmt TimeZone.getTimeZone("GMT"); DATEFMT.setTimeZone(gmt); } private static final String OOSACCESSKEY "your ak"; private static final String OOSSECRETKEY "your sk"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int CONNTIMEOUT 30000; private static final int READTIMEOUT 30000; public void putObject(String bucket, String objectKey) { try { Map headers new HashMap<>(); headers.put("ContentType", "text/plain"); headers.put("xamzdate", "xxxx"); HttpURLConnection connection generateConnection("PUT", bucket, objectKey, headers); connection.setFixedLengthStreamingMode(OOSOBJECTCONTENT.length()); connection.setDoOutput(true); connection.connect(); byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { e.printStackTrace(); } } public void getObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("GET", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if (responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("DELETE", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } / 1 并不是headers里的所有头域,都参与计算签名。详情请参照 3.1.1章节StringToSign的构成说明 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。 PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 例:headers.put("xamzmetatest", "oos"); / private HttpURLConnection generateConnection(String method, String bucket, String objectKey, Map headers) throws Exception { if (headers null) { headers new TreeMap<>(); } if (!headers.containsKey("Date")) { String date DATEFMT.format(new Date()); headers.put("Date", date); } Map querys new HashMap<>(32); // 设置查询参数示例,可按需选择是否在请求url上设置查询参数。更多接口参数请参考《OOS开发者文档v6》 querys.put("responsecontenttype", "application/octetstream"); String authorization v2Sign(method, bucket, objectKey, headers, querys); String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, false); if (querys.size() ! 0) { requestUrl + "?" + encodeParameters(querys); } URL url new URL(requestUrl); HttpURLConnection connection (HttpURLConnection)url.openConnection(); connection.setRequestProperty("Authorization", authorization); connection.setConnectTimeout(CONNTIMEOUT); connection.setReadTimeout(READTIMEOUT); connection.setRequestMethod(method); if (null ! headers) { headers.forEach(connection::setRequestProperty); } return connection; } private String encodeParameters(Map querys) { StringBuilder builder new StringBuilder(); Iterator > pairs querys.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(urlEncode(pair.getKey(), false)); builder.append(""); builder.append(urlEncode(pair.getValue(), false)); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } // 以下是签名计算相关方法 / The set of request parameters which must be included in the canonical string to sign. / private static final List SIGNEDPARAMETERS Arrays.asList("acl", "torrent", "logging", "location", "policy", "requestPayment", "versioning", "versions", "versionId", "notification", "uploadId", "uploads", "partNumber", "website", "delete", "lifecycle", "tagging", "cors", "restore", "responsecachecontrol", "responsecontentdisposition", "responsecontentencoding", "responsecontentlanguage", "responsecontenttype", "responseexpires"); private String v2Sign(String method, String bucket, String objectKey, Map headers, Map querys) throws Exception { String canonicalString getCanonicalString(method, toResourcePath(bucket, objectKey), headers, querys); String signature sign(canonicalString); return "AWS " + OOSACCESSKEY + ":" + signature; } private String sign(String data) throws Exception { try { Mac mac Mac.getInstance("HmacSHA1"); mac.init(new SecretKeySpec(OOSSECRETKEY.getBytes(StandardCharsets.UTF8), "HmacSHA1")); byte[] bs mac.doFinal(data.getBytes(StandardCharsets.UTF8)); return Base64.getEncoder().encodeToString(bs); } catch (Exception e) { throw new Exception("Unable to calculate a request signature: " + e.getMessage(), e); } } / Calculate the canonical string for a REST/HTTP request to OOS. When expires is nonnull, it will be used instead of the Date header. / private String getCanonicalString(String method, String resource, Map headers, Map querys) { StringBuilder buf new StringBuilder(); buf.append(method).append("n"); SortedMap interestingHeaders new TreeMap<>(); if (headers ! null && headers.size() > 0) { for (Map.Entry entry : headers.entrySet()) { String key entry.getKey(); String value entry.getValue(); if (key null) { continue; } String lk key.toLowerCase(Locale.getDefault()); if ("contenttype".equals(lk) "contentmd5".equals(lk) "date".equals(lk) lk.startsWith("xamz")) { interestingHeaders.put(lk, value); } } } // Remove default date timestamp if "xamzdate" is set. if (interestingHeaders.containsKey("xamzdate")) { interestingHeaders.put("date", ""); } // These headers require that we still put a new line in after them, // even if they don't exist. if (!interestingHeaders.containsKey("contenttype")) { interestingHeaders.put("contenttype", ""); } if (!interestingHeaders.containsKey("contentmd5")) { interestingHeaders.put("contentmd5", ""); } // Any parameters that are prefixed with "xamz" need to be included // in the headers section of the canonical string to sign if (querys ! null) { for (Map.Entry parameter : querys.entrySet()) { if (parameter.getKey().toLowerCase().startsWith("xamz")) { interestingHeaders.put(parameter.getKey().toLowerCase(), parameter.getValue()); } } } for (Map.Entry entry : interestingHeaders.entrySet()) { String key entry.getKey(); Object value entry.getValue(); if (key.toLowerCase().startsWith("xamz")) { buf.append(key).append(':').append(value); } else { buf.append(value); } buf.append("n"); } buf.append(resource); if (querys ! null) { String[] parameterNames querys.keySet().toArray(new String[0]); Arrays.sort(parameterNames); char separator '?'; for (String parameterName : parameterNames) { // Skip any parameters that aren't part of the canonical signed string if (!SIGNEDPARAMETERS.contains(parameterName)) { continue; } buf.append(separator); buf.append(parameterName); String parameterValue querys.get(parameterName); if (parameterValue ! null && !"".equals(parameterValue)) { buf.append("").append(parameterValue); } separator '&'; } } return buf.toString(); } private String toResourcePath(String bucket, String objectKey) { String resourcePath "/" + ((bucket ! null && !"".equals(bucket)) ? bucket : "") + ((objectKey ! null) ? "/" + objectKey : ""); return urlEncode(resourcePath, true); } / @param keepPathSlash 实际上,根据RFC 3986规范,url中的 '/'和'~' 可以不用转译,URLEncoder做了转译,但是为了兼容浏览器解析文件名,要求 '/'和'~'不能做转译。 @param url 客户请求的url,也就是object key @return 转译后的url / private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, StandardCharsets.UTF8.toString()); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { // Web browsers do not always handle '+' characters well, use the wellsupported '%20' instead. encoded encoded.replaceAll("+", "%20"); // Change all "%2F" back to "/", so that when users download a file in a virtual folder by the presigned // URL, // the web browsers won't mess up the filename. (e.g. 'folder1folder2filename' instead of 'filename') encoded encoded.replace("%2F", "/"); encoded encoded.replace("%7E", "~"); } return encoded; } public static void main(String[] args) { String bucket "your bucket"; String objectKey "your object key"; OOSDemoForV2Signer v2 new OOSDemoForV2Signer(); v2.putObject(bucket, objectKey); v2.getObject(bucket, objectKey); v2.deleteObject(bucket, objectKey); } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V2签名时的HttpURLConnection开发
      • 典型场景说明
        本节为您介绍虚拟私有云服务的使用场景。 虚拟私有云就是为弹性云服务器构建隔离的、用户自主配置和管理的虚拟网络环境。 当弹性云服务器无需访问公网时,例如用于搭建网站的数据库节点或服务器节点的弹性云服务器无需连接公网,该类型弹性云服务器的虚拟私有云配置请参考配置无需访问公网的弹性云服务器的VPC。 当弹性云服务器需要访问公网时,可通过配置弹性IP实现,例如用于搭建网站时允许接受访客通过网络访问的业务节点,该类型弹性云服务器的虚拟私有云配置请参考配置通过弹性IP访问公网的弹性云服务器的VPC。
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        典型场景说明
      • 数据资产目录
        本章节为您介绍数据资产目录相关能力。 数据资产目录集中展示数据分类分级结果。展示范围主要是已同步并完成分类分级任务的数据源,不包括未同步的数据源; 针对已同步但未完成分类分级任务的数据源,只展示数据库结构信息(表、字段名等),分类分级相关信息由于尚未形成,相关统计数据显示默认值0。 每张卡片的展示字段包括:数据表名、数据表注释、数据源、主机、库名、Schema、行业模板、分类、分级、是否梳理、业务系统、部门、责任人、最后梳理时间、字段数、敏感字段数、已梳理占比等。 您可以通过输入表名/表注释、分类(表)、分级(表)、是否梳理(表)、业务系统、部门、责任人、最后梳理时间,查询数据表。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        数据资产管理
        数据资产目录
      • 使用咨询
        系统角色/策略名称 描述 类别 DLI FullAccess 数据湖探索所有权限。 系统策略 DLI ReadOnlyAccess 数据湖探索只读权限。 只读权限可控制部分开放的、未鉴权的DLI资源和操作。例如创建全局变量、创建程序包以及程序包组、default队列提交作业、default数据库下建表、创建跨源连接、删除跨源连接等操作。 系统策略 Tenant Administrator 租户管理员。 操作权限:具有所有云服务的管理和使用权限。创建后,可通过ACL赋权给其他子用户使用。 作用范围:项目级服务。 系统角色 DLI Service Admin DLI服务管理员。 操作权限:具有数据湖探索服务队列、数据的管理和使用权限。创建后,可通过ACL赋权给其他子用户使用。 作用范围:项目级服务。 系统角色
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        授权相关问题
        使用咨询
      • 应用上云
        本节主要介绍应用上云 应用场景 应用上云时,很多工作需要重复操作,例如环境的销毁和重建、在扩容的场景下重复完成多个新实例的配置等。同时应用上云时,很多操作非常耗时,例如创建数据库、创建虚拟机等,都需等待分钟级别的时间。一旦需要串行创建多个耗时任务,就需要您持续等待一段时间。而此时如果可以将整个流程自动化,可以减少您的等待过程,完成其他更有价值的任务。 价值 使用应用编排服务,通过模板对应用及应用所需资源进行统一描述,一键式自动完成部署或销毁操作。您可以同步进行资源规划、应用定义和业务部署,提升应用上云的效率
        来自:
        帮助文档
        应用编排服务
        产品简介
        应用场景
        应用上云
      • Redisson
        参数 默认值 说明 address 节点连接信息,ip:port database 0 选择使用的数据库编号 connectionMinimumIdleSize 32 连接每个分片主节点的最小连接数 connectionPoolSize 64 连接每个分片主节点的最大连接数 subscriptionConnectionMinimumIdleSize 1 连接目标节点的用于发布订阅的最小连接数 subscriptionConnectionPoolSize 50 连接目标节点的用于发布订阅的最大连接数 subcriptionPerConnection 5 每个订阅连接上的最大订阅数量 connectionTimeout 10000 连接超时时间,单位:毫秒 idleConnectionTimeout 10000 空闲连接的最大回收时间,单位:毫秒 pingConnectionInterval 30000 检测连接可用心跳,单位:毫秒, 建议值:3000ms timeout 3000 请求等待响应的超时时间,单位:毫秒 retryAttemps 3 发送失败的最大重试次数 retryInterval 1500 每次重试的时间间隔,单位:毫秒, 建议值:200ms clientName null 客户端名称
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Java客户端
        Redisson
      • 步骤二:AD域控制器部署
        本文介绍如何部署AD域控制器。 前提条件 在AD域控制器的云主机上已经安装AD域服务器。 操作步骤 1. 将域服务器升级升为域控制器。打开“服务器管理器”,点右上角点小旗子图标,点击“服务器提升为域控制器”。 2. 添加新林。由于是第一个AD控制器,点击“添加新林”,根域名处填域名sfs.com,点击“下一步”等待部署配置。 说明: 将域控制器添加到现有域:在现有的域控制器中添加新的域控制器。 将新域添加到现有林:在现有的林中新建域,与林中现有的域不同。 3. 设置目录服务还原密码。 说明: 林功能级别(包含Windows Server 2008到WindowsServer 2016级别):Windows Server 2012 R2。 域功能级别(只包含Windows Server 2012 R2域功能):Windows Server 2012 R2。 指定域控制器功能:默认即可。 键入目录服务还原模式(DSRM)密码:需设置复杂密码,否则无法通过规则校验。 4. 跳过DNS选项,点击“下一步”。用AD域服务器当DNS服务器,不需要单独指定。 5. NetBios域名保持默认,点击“下一步”。 6. 日志及数据配置保持默认,点击“下一步”。 说明: AD DS数据库是AD域服务器用来存放用户信息的地方。 AD DS数据库、日志文件夹和sysvol文件夹,出于安全考虑建议放在其他盘。 7. 检查配置信息,点击“下一步”。 8. 安装前自动进行先决条件检查,检查通过后点击“安装”,系统自动安装并重启。安装需要一段时间请耐心等待。 9. 查看是否安装成功。理论上重启后AD域即部署成功,打开“服务器管理器”,点击“工具>Active Directory用户和计算机”,在弹窗中依次点击“sfs.com>Domain Controllers”,若展示云主机名称即代表AD域部署成功。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        搭建AD域
        步骤二:AD域控制器部署
      • 科研助手解锁 OWL 智能体,启动任务 “开挂” 模式
        本文主要介绍了如何在科研助手上使用OWL智能助手。 概述 OWL CAMELAI‌的 OWL 是开源多智能体协作系统,通过逆向工程复刻并超越 Manus 的通用 Agent 功能,其核心采用六步工作流(Ubuntu 容器部署、数据挂载、动态生成 todo.md 等)实现任务自动化,并集成CRAB 技术‌支持跨平台多设备操作‌。项目以 ‌57.7% 的 GAIA 基准测试成绩‌超越主流开源框架,提供 ‌Ubuntu Toolkit‌ 和 ‌Memory Toolkit‌ 工具链,支持开发者快速定制智能体行为与集成第三方服务‌。目前完全开源,适用于企业自动化、科研辅助等场景,鼓励社区共同构建全能型 Agent 生态‌。 科研助手新增 OWL 能力概述 科研助手平台在 OWL 开源的基础上,为方便您的使用,增加了如下能力: 支持使用本地 QWQ32B 大模型,无需 API Key 外连其他大模型 支持 bing search toolkit,无需代理,在国内就可以进行问题搜索 修复了 OWL Web UI 回答框,只支持展示单行结果的问题 前置说明 1. 该文档为在科研助手上使用OWL快速代码生成的说明。OWL目前为开源测试版本,仍处于开发与优化阶段,可能存在功能不稳定或未完善的情况。用户在使用过程中需自行甄别潜在问题,并承担可能产生的风险。我们建议用户在关键任务中谨慎使用。感谢您的理解与支持! 2. OWL目前支持的Search API只有Google和duckduckgo,因网络等原因限制,暂不可用;科研助手已内置了 bing search toolkit,可以访问国内必应网站进行内容搜索。 3. 本产品中的模型由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责。 4. 如您在使用过程中遇到了问题或需要反馈的内容,可通过客服工单的方式,向我们进行咨询和反馈,我们将及时进行回复和处理。
        来自:
        帮助文档
        科研助手
        最佳实践
        科研助手解锁 OWL 智能体,启动任务 “开挂” 模式
      • 产品定义
        本节介绍了什么是弹性云主机服务、为什么选择弹性云主机、产品架构、访问方式,便于用户了解云主机的基础概念。 弹性云主机(Elastic Cloud Server,ECS)是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。弹性云主机创建成功后,您就可以像使用自己的本地PC或物理服务器一样,在云上使用弹性云主机。 弹性云主机的开通是自助完成的,您只需要指定CPU、内存、操作系统、规格、登录鉴权方式即可,同时也可以根据您的需求随时调整弹性云主机的规格,为您打造可靠、安全、灵活、高效的计算环境。 为什么选择弹性云主机 丰富的规格类型:提供多种类型的弹性云主机,可满足不同的使用场景,每种类型的弹性云主机包含多种规格,同时支持规格变更。 丰富的镜像类型:可以灵活便捷的使用公共镜像、私有镜像或共享镜像申请弹性云主机。 丰富的磁盘种类:提供普通IO、高IO、通用型SSD、极速型SSD、超高IO性能的硬盘,满足不同业务场景需求。 灵活的计费模式:支持包年/包月或按需计费模式购买云主机,满足不同应用场景,根据业务波动随时购买和释放资源。 数据可靠:基于分布式架构的,可弹性扩展的虚拟块存储服务;具有高数据可靠性,高I/O吞吐能力。 安全防护:支持网络隔离,安全组规则保护,远离病毒攻击和木马威胁;AntiDDoS流量清洗、Web应用防火墙、漏洞扫描等多种安全服务提供多维度防护。 弹性易用:根据业务需求和策略,自动调整弹性计算资源,高效匹配业务要求。 高效运维:提供控制台、远程终端和API等多种管理方式,给您完全管理权限。 云端监控:实时采样监控指标,提供及时有效的资源信息监控告警,通知随时触发随时响应。 负载均衡:弹性负载均衡将访问流量自动分发到多台云主机,扩展应用系统对外的服务能力,实现更高水平的应用程序容错性能。 更多选择理由,请参见弹性云主机的优势和弹性云主机应用场景。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        产品定义
      • 自定义词库管理
        本文为您介绍如何在云搜索服务控制台创建并修改自定义词库。 天翼云云搜索服务内置增强型IK分词插件,已进行中文分词增强,支持上传自定义词库,助力企业构建更精准、灵活的中文检索能力。 使用限制 词库数量及大小限制:词库支持增加主词分词词库和停用词词库,单个上传的词库文件大小不超过5MB。 上传词库格式:仅支持txt格式的文件。 使用前提 已在云搜索服务同资源池的对象存储中开通并上传词库文件,并对该文件开启“公共读”权限。 词库生效期间,需要保持词库文件在对象存储中存在,否则会导致云搜索服务拉取词库文件失败,分词错误的情况。 操作步骤 1. 登录云搜索服务管理控制台,在左侧导航栏,选择对应的实例类型,进入管理列表界面。 2. 点击实例名称,进入实例详情页,点击“自定义词库”。没有设置自定义词库时,实例使用默认词库。 3. 在需要进行配置词库行点击“配置”,将对象存储文件地址输入,点击上传词库。 4. 词库上传成功后,实例会对对应的自定义词库进行配置,配置期间实例将会重启,请在业务闲时操作。 5. 更新词库成功后,新词库大约2分钟生效,如需要更新词库文件,请在对应行点击“更新”,词库为覆盖更新;如需停用指定词库,请在对应行点击“停用”,停用后对应词库使用默认词库。更新词库文件和停用词库都会带来实例重启,请在业务闲时操作。新词库添加后,仅支持对新创建的索引进行分词,存量索引不会基于该词库进行重新分词。如需重新分词,请对目标索引进行重建索引。 6. 词库热更新:云搜索服务支持词库热更新,您只需更新自定义词库文件内的分词内容,并更新对象存储内的词库文件(保持文件名不变),即可实现词库热更新。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        管理实例
        自定义词库管理
      • 退订
        本章节主要介绍数据治理中心DataArts Studio的实例退订操作。 退订DataArts Studio实例 当用户不需要使用某个DataArts Studio实例时,可以参考如下操作退订该实例。 1.登录天翼云控制中心; 2.在“数据分析”项目下,单击【数据治理中心 DataArts Studio】; 3.找到创建成功的DataArts Studio实例,核实实例信息,点击“退订”即可。 详见下图:选择退订 删除作业 当用户不需要使用某个作业时,可以参考如下操作删除该作业,以减少作业的配额占用。 普通删除 1.登录数据治理中心控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发>作业开发”。 3.在作业目录中,右键单击作业名称,选择“删除”。 4.在弹出的“删除作业”页面,单击“确定”,删除作业。 批量删除 1.登录数据治理中心控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3.在作业目录顶部,单击,选择“显示复选框”,在作业目录前出现复选框。 4.选择需要删除的作业,再次单击,选择“删除作业”。 5.在弹出的“删除作业”页面,单击“确定”,批量删除作业。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        退订
      • 为什么控制台(或API)用量分析里的流量与日志统计的流量有差异
        本文介绍控制台(或API)用量分析里的流量与日志统计的流量有差异的原因。 客户控制台上可查询带宽、流量等统计数据,该数据同时也应用于生成计费账单,其流量会比基于访问日志统计的流量偏多。原因是全站日志中记录的流量数据是基于应用层日志中响应消息头+响应body体统计出的流量,而在实际网络请求中产生的网络流量,由于存在TCP/IP包头消耗和TCP重传,要比应用层统计到的流量数据高出7%~15%。因此按照业界标准,应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。 TCP/IP包头的消耗 HTTP请求是基于TCP/IP协议的,数据包是TCP/IP协议通信传输中的数据单位,我们在使用基于TCP/IP协议的网络时,网络中传递的其实就是数据包。每个数据包的大小最大是1500字节,这1500字节中包括了TCP和IP协议组成的40个字节的包头,这两个协议包头其实也会产生流量,但是却无法被应用层统计到,因此这40个字节的流量就不会被统计到日志里,这部分的流量会占到我们通过日志计算出流量的2.74%(40/1460)以上,即3%左右。 TCP重传 根据互联网中网络的负载情况,通常情况下,会有接近3%~10%的数据包会因为网络堵塞、设备故障等各种异常情况被丢弃。发生丢包后,服务器会对丢弃的数据包进行重传,这部分的具体操作是由内核层的协议栈处理完成的,通常无法被应用层统计到的,因此在一定程度上也会造成日志统计与实际网络响应流量的差异。 综上所述,天翼云全站加速产品取平均值10%作为网络层额外消耗的流量比例,即应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。
        来自:
        帮助文档
        全站加速
        常见问题
        其他类
        为什么控制台(或API)用量分析里的流量与日志统计的流量有差异
      • 创建环境
        本文主要介绍如何创建环境。 概念 环境即我们常说的开发环境、生产环境,是用于应用部署和运行的计算、网络、中间件等资源的集合。 例如可以把同VPC下的云容器引擎、注册中心、数据库等实例组成一个环境。 注意 默认项目下已内置了默认环境,无法创建自定义环境。 非默认项目下,您需要先创建环境才可完成应用接入。 操作步骤 1. 登录应用性能监控控制台,进入应用管理页面。 2. 点击“接入应用”,选择对应的语言。 3. 在应用归属中,点击“新增环境”。 4. 在新增环境弹窗中,输入以下信息。 1. 环境名称:输入合法环境名称。 2. 环境编码:自定义环境编码。 5. 点击确定按钮,完成环境创建。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        CMDB管理
        创建环境
      • 资源任务查看
        本节为您介绍云迁移服务CMS资源规划之资源任务查看。 云迁移服务CMS 提供资源管理功能,您可以通过左侧菜单栏选择资源规划点击【资源管理】进入[资源管理]界面。[资源管理]界面展示资源基本信息,如资源名称、资源状态、资源类型、采集方式、资源发现任务、迁移组、迁移计划名称、计划创建时间、备注、操作等信息。 资源名称 用于用户创建资源所取得名称,可修改。 资源状态 用于现实资源迁移状态分为未计划、待迁移、迁移中、迁移完成、迁移失败。 资源类型 用于评估源机资源类型可分为主机、数据库、对象存储。 采集方式 区分源端资源创建通过的采集信息方式分为离线采集和在线采集。 资源发现任务 创建资源发现任务的任务名称,用于更好识别任务的对象、用途等。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        资源管理
        资源任务查看
      • 1
      • ...
      • 217
      • 218
      • 219
      • 220
      • 221
      • ...
      • 270
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      AI Store

      公共算力服务

      模型推理服务

      科研助手

      一站式智算服务平台

      推荐文档

      如何变更账户信息

      错误日志

      个性化工作台

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号