活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云app_相关内容
      • 调用链关联日志
        应用性能监控支持在Java应用的业务日志中关联调用链的TraceId信息,当应用出现问题时,可通过调用链的TraceId快速关联业务日志,及时定位、分析并解决问题。 背景信息 在业务日志中关联调用链TraceId的功能基于MDC(Mapped Diagnostic Context)机制实现,支持主流的Log4j、Log4j2和Logback日志框架。 前提条件 1、应用已接入Java探针 2、已开通云日志服务并创建了对应的日志项目和单元,详情请参考管理日志项目与管理日志单元。 操作步骤 1. 开启关联业务日志与TraceId 登录应用性能监控控制台,在应用列表 页面点击具体应用进入应用详情,点击导航栏应用设置 进入应用设置页面,在左侧tab栏选择日志开启设置 即可看到开启按钮。开启后选择指定的日志项目与日志单元。 2. 在日志中打印TraceId Log4j配置文件log4j.properties的修改示例: plaintext log4j.appender.FILE.layout.ConversionPatterntraceId:%X{traceid} spanId:%X{spanid} [%d] %t %c %L %5p %m%n Log4j2配置文件log4j2.xml的修改示例: plaintext %d{yyyyMMdd HH:mm:ss.SSS} [%mdc{traceid}] [%mdc{spanid}] [%thread] %5level %logger{1.} %m%n Logback配置文件logback.xml的修改示例: plaintext
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        调用链查询
        调用链关联日志
      • 自建PostgreSQL迁移至中国电信TelePG
        本节为您介绍自建PostgreSQL迁移至中国电信TelePG任务配置。 目标端配置请参照自建PostgreSQL迁移至自建PostgreSQL
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建PostgreSQL为源的迁移任务配置
        自建PostgreSQL迁移至中国电信TelePG
      • 套餐概述
        套餐额度刷新重置规则 套餐额度在时间周期内耗尽后,需要等待下一个周期自动恢复额度,不会消耗其他资源包或账户余额。 每 5 小时可用量:滚动动态刷新,可用量在请求消耗 5 小时后刷新重置 每周可用量:自下单时开启,以 7 天为一个周期可用量刷新重置 每月可用量:下一个月可用量刷新重置 用量消耗进展查看暂不支持,如有需要请提交工单。 说明 受限于资源紧张,建议大家错峰使用。 GLM5、GLM5Turbo 作为高阶模型,调用时将按照 “高峰期 3 倍,非高峰期 2 倍” 系数消耗额度; 推荐在复杂任务上切换至 GLM5 处理,普通任务上继续使用 GLM4.7,以避免套餐用量额度消耗过快。(作为限时福利,GLM5.1、GLM5Turbo 将在非高峰期仅作为 1 倍抵扣,持续到 4 月底) 注:高峰期为每日的 14:00~18:00 套餐使用须知 严谨API调用:编码套餐额度仅在 AI 编程工具中生效,不可用于 API 调用的形式用于自动化脚本、自定义应用程序后端或任何非交互式批量调用场景。在非 AI 编程工具中使用编码套餐权益对应的 Base URL 和 APP Key 有可能被识别为滥用/违规,会导致停用或账号封禁。 账号购买限制:每个天翼云用户同时只能购买一个编码套餐(不区分包月/包年的Lite、Pro、Max),目前仅支持主账号发起购买。 账号使用规范:套餐为购买人专享使用,禁止共享。账号共享可能导致权益受限,甚至导致停用或账号封禁。 套餐并发限制:并发数限制与套餐等级相关,平台会根据资源进行动态调整,基本原则 Max> Pro > Lite。每个项目开发可使用 Subagent 等方式并发模型调用,我们的推荐使用项目数量如下: Lite : 建议同时进行单个项目的开发 Pro : 建议同时进行 12 个项目的开发 Max :建议同时进行 2+ 个项目的开发 说明 套餐用户在低峰期将享有更高的并发权益(动态提升),能够支撑更高数量的项目开发。 套餐升级/续费:即将支持,敬请期待。套餐过期后支持手动再次购买。 套餐退款规则:编码套餐一经购买成功即视为确认,不支持退订/退款。即使末使用套餐,费用也无法退回。建议根据使用需求选择合适的编码套餐和时间周期。
        来自:
        帮助文档
        模型推理服务
        用户指南
        编码套餐
        套餐概述
      • 字段规范
        本文为您介绍字段规范。 1. 字段类型越短越好(可以用int的则不能用bigint,能用tinyint的不能用int) 满足需求的情况下,字段类型越短,会占用更少的存储空间,更少的磁盘IO和网络IO,更少的MySQL计算空间和APP计算空间。常见的字段类型介绍如下: 2. 尽量不要使用default null,所有的字段尽可能都设定为not null并为其定义默认值: 索引不会包括NULL值。影响索引的统计信息,影响优化器的判断。 复合索引中只要有一列含有NULL值,则该列对于此复合索引将是无效的。 3. 需要多表 join的字段或直接比较的字段,数据类型保持绝对一致。 杜绝隐形转换,比如int同char进行比较,造成效率低下。 4. 当字段的类型为枚举型或布尔型时,建议使用tinyint类型。 5. 一般情况下不允许使用TEXT、BLOG,确实需要则拆分。 本质上说,不是MySQL不适合存储text,而是在太多的情况下我们期望MySQL能够更加高效的提供小数据查询/事务处理。 6. 同理,当varchar字段超过一定长度(256)时,建议拆分。 7. 内容明确,不做变更的类型代码可用枚举类型 8. 关于存储IP地址时字段类型的选择 如果是IPV4地址,存放使用int类型,而不是char(15)。Int只占4个字节,字符型占用16个字节,符合越短越好的原则。另外索引长度降低,检索效率更高。 如果是IPV6地址,请找DBA商量决定如何存储。 9. 关于存储时间字段类型的选择 对时间范围没有要求时,强烈建议采用TIMESTAMP取代DATETIME,因为TIMESTAMP更短(4个字节),而DATETIME占用8个字节 两者区别如下: 时间范围: datetime 以'YYYYMMDD HH:MM:SS'格式检索和显示DATETIME值。支持的范围为'10000101 00:00:00'到'99991231 23:59:59' TIMESTAMP值不能早于1970或晚于2037 存储方式: TIMESTAMP1.4个字节储存 2.值以UTC格式保存 3.时区转化,存储时对当前的时区进行转换,检索时再转换回当前的时区。datetime 1.8个字节储存 2.实际格式储存 3.与时区无关
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        SQL调优指南
        SQL基础规范
        字段规范
      • 使用ODBC连接数据库
        请修改该路径到client.crt的绝对路径 export PGSSLKEY"/YOUR/PATH/OF/client.key" 请修改该路径到client.key的绝对路径 将根证书cacert.pem文件放至客户端用户home目录下的.postgresql目录下(如果没有请创建该目录),并将cacert.pem重命名为root.crt,文件权限设置为600。 同时将数据源中的Sslmode选项调整至“require”。 步骤 5 配置环境变量。 vim ~/.bashrc 在配置文件中追加以下内容。 export LDLIBRARYPATH/usr/local/lib/:$LDLIBRARYPATH export ODBCSYSINI/usr/local/etc export ODBCINI/usr/local/etc/odbc.ini 步骤 6 执行如下命令使设置生效。 source ~/.bashrc 步骤 7 执行以下命令,开始连接数据库。 isql v GaussODBC GaussODBC为数据源名称 如果显示如下信息,表明配置正确,连接成功。 + Connected! sqlstatement help [tablename] quit + SQL> 若显示ERROR信息,则表明配置错误。请检查上述配置是否正确。 在Windows下使用ODBC连接数据库 Windows操作系统自带ODBC数据源管理器,无需用户手动安装管理器便可直接进行配置。 步骤 1 替换客户端云数据库GaussDB 驱动程序 将GaussDBKernelV500R001C20WindowsOdbcX86.tar.gz解压后,根据需要,点击psqlodbc.msi(32位)或者psqlodbcx64.msi(64 位)进行驱动安装。 步骤 2 打开驱动管理器。 在配置数据源时,请使用对应的驱动管理器(假设操作系统安装盘符为C盘,如果是其他盘符,请对路径做相应修改): 64位操作系统上进行64位程序开发,安装64位驱动程序后,使用64位的驱动管理器:C:WindowsSystem32odbcad32.exe 请勿直接使用“控制面板 > 管理工具 > 数据源(ODBC)”。 说明: WoW64的全称是"Windows 32bit on Windows 64bit",C:WindowsSysWOW64存放的是64位系统上的32位运行环境。而C:WindowsSystem32存放的是与操作系统一致的运行环境,具体的技术信息请查阅Windows的相关技术文档。 64位操作系统上进行64位程序开发,安装64位驱动程序后,使用64位的驱动管理器:C:WindowsSystem32odbcad32.exe 请勿直接使用“控制面板 > 管理工具 > 数据源(ODBC)”。 32位操作系统请使用:C:WindowsSystem32odbcad32.exe 或者点击“计算机 > 控制面板 > 管理工具 > 数据源(ODBC)”打开驱动管理器。 步骤 3 配置数据源。 在打开的驱动管理器上,选择“用户DSN > 添加 > PostgreSQL Unicode”(如果是64位驱动,将会有64位标识),然后进行配置: 须知: 此界面上配置的用户名及密码信息,将会被记录在Windows注册表中,再次连接数据库时就不再需要输入认证信息。但是出于安全考虑,建议在单击"Save"按钮保存配置信息前,清空相关敏感信息;在使用ODBC的连接API时,再传入所需的用户名、密码信息。 步骤 4 SSL模式。 将client.crt、client.key、client.key.cipher、client.key.rand文件放至%APPDATA%postgresql(该目录需手动建立)目录下,并且将文件名中的client改为postgres,例如client.key修改为postgres.key;将cacert.pem文件放至%APPDATA%postgresql目录,并更名为root.crt。 说明: %APPDATA% 该值在安装时由客户指定,默认位置在C:Users[username]AppData。 同时将步骤2中的设置窗口的“SSL Mode”选项调整至“require”。 表 sslmode的可选项及其描述 sslmode 是否会启用SSL加密 描述 disable 否 不使用SSL安全连接。 allow 可能 如果数据库服务器要求使用,则可以使用SSL安全加密连接,但不验证数据库服务器的真实性。 prefer 可能 如果数据库支持,那么首选使用SSL安全加密连接,但不验证数据库服务器的真实性。 require 是 必须使用SSL安全连接,但是只做了数据加密,而并不验证数据库服务器的真实性。 verifyca 是 必须使用SSL安全连接,并且验证数据库是否具有可信证书机构签发的证书。当前windows ODBC不支持cert方式认证。 verifyfull 是 必须使用SSL安全连接,在verifyca的验证范围之外,同时验证数据库所在主机的主机名是否与证书内容一致。当前windows odbc不支持cert方式认证。 步骤 5 点击Test进行测试连接。 如果显示如下,则表明配置正确,连接成功。 若显示ERROR信息,则表明配置错误。请检查上述配置是否正确。
        来自:
        帮助文档
        云数据库GaussDB
        快速入门
        使用驱动连接实例
        使用ODBC连接数据库
      • 获取对象元数据
        参数 是否必填 参数类型 说明 示例 下级对象 xamzmeta 是 String 以xamzmeta为前缀的参数作为用户自定义meta header。当用户在PostObject时设置了以xamzmeta为前缀的自定义meta,则响应中会包含这些自定义meta。 test LastModified 是 String 对象最新修改时间。 Thu, 15 Sep 2022 08:36:33 GMT XAmzStorageClass 是 String 对象的存储类型。 STANDARD xrgwobjecttype 是 String 对象Object的类型。如果是通过PutObject上传的Object类型为Normal,如果是appendObject上传的,那么类型为Appendable。如果对象为软连接,那么类型为 Symlink。 Normal xrgwnextappendposition 是 Integer 对于Appendable类型的Object会返回此Header,指明下一次请求应当提供的position。 1 xamznextappendposition 是 Integer 同xrgwnextappendposition。 1 xamzversionid 是 String Object的版本ID。只有查看Object指定版本的元数据信息时才显示该字段。 1dfasf xrgwobjectatime 是 String Object的最后一次访问时间。时间格式为HTTP 1.1协议中规定的GMT时间。开启访问追踪时,该字段的值会随着文件被访问的时间持续更新。如果开启后关闭了访问追踪,该字段的值保留为上一次最后更新的值。Object的最后一次访问时间是异步更新的,会保证在24小时内完成Object最后一次访问时间的更新。对于24小时内多次访问同一个Object,仅更新该Object的最早一次访问时间。 Thu, 15 Sep 2022 08:36:33 GMT xamzbucketowner 是 String 桶的拥有者。 test xamztaggingcount 是 String 对象关联的标签个数。仅当用户有读取标签权限时才会返回。 2
        来自:
        帮助文档
        媒体存储
        API参考
        API(OpenAPI)
        关于对象的操作
        基础操作
        获取对象元数据
      • 查询域名的IP列表/区域/运营商
        接口功能介绍 调用本接口查询域名的IP地址、ip对应的区域和运营商信息 使用说明 单个用户一分钟限制调用10000次,并发不超过100 接口详情 请求方式:post 请求路径:/auxiliarytools/queryvipsdetailbydomain 请求参数 参数 类型 名称 是否必传 说明 :::: domain list 域名列表 是 最多支持5个 响应参数 参数 类型 说明 ::: code int 状态码 message string 描述信息 result list 返回结果数组 result[].domain string 域名 result[].details list 域名对应的vip列表信息 result[].details[].vips string vip信息,多个用逗号“,”分割 result[].details[].cityName string 城市名称 result[].details[].nodename string 节点名称 result[].details[].provinceName string 省份名称 result[].details[].ispName string 运营商名称 示例 请求路径: 请求示例 { "domain": [ "ctyun.cn" ] } 正确响应示例 { "code": 100000, "message": "success", "result": [ { "domain": "ctyun.cn", "details": [ { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "呼和浩特市", "nodename": "xxx1", "provinceName": "内蒙古自治区", "ispName": "中国电信" }, { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "通州区", "nodename": "xxx2", "provinceName": "北京市", "ispName": "中国电信" } ] } ] }
        来自:
        帮助文档
        视频直播
        API参考
        API
        辅助工具
        查询域名的IP列表/区域/运营商
      • 云间高速相关术语解释
        什么是资源池互联专网? 资源池专网是中国电信建设的与公众互联网物理隔离的独立网络,用于连接全国天翼云资源池,为天翼云用户提供高可靠的跨域资源池之间的东西向高带宽能力。
        来自:
        帮助文档
        云间高速(尊享版)
        产品介绍
        云间高速相关术语解释
      • 备案所需资料
        备案时您需要提交备案主体及相关负责人的资料,管局会审核您提交的资料是否满足备案要求。备案前建议您参考本文准备好所需要的资料,提高信息提交效率和审核通过率。 备案时您需根据要求准备好基础资料和辅助资料,备案主体是个人和企业时,基础资料和辅助资料有差别。 备案主体为个人 备案主体为个人时,您需根据情况准备以下基本资料和辅助资料。基本资料必须提供,辅助资料需根据管局要求提供。 1.基本资料:需准备备案主体的身份证件原件,通过天翼云官网或天翼云APP上传备案资料。 身份 可用证件 中国居民 身份证/港澳居民来往内地通行证/台湾居民来往大陆通行证 其他国家和地区居民 护照 2.辅助资料:根据各地管局要求,因备案数目较多或其他ICP备案场景等,需准备部分辅助资料用于备案申请。 域名证书 部分省份管局要求提供,域名证书请到域名注册商处获取。 手持个人证件照片 个人进行ICP备案时,部分省市管局要求上传互联网信息服务负责人手持个人证件照片,如手持身份证、手持户口本等。 暂住证或居住证 部分省份,例如福建,当ICP备案申请人的身份证户籍地与申请ICP备案的省份不一致时,需要提供暂住证或居住证的电子材料,如原件彩色拍照照片。 网站建设方案说明书 部分省份管局要求,如果ICP备案主体下域名过多,需提供网站建设方案说明书,需包含以下内容: 1.网站服务内容介绍:包含网站内容截图或设计图、网站栏目及内容介绍、多网站(或域名)用途和域名扩展使用情况。 2.组网方案:包含设备配置、组网结构、使用技术及部署情况。 3.网络安全与信息安全管理制度:包含网络安全防御措施、信息安全管控制度和应急处理方案。 4.承诺:如备案成功后被发现主体信息有误、网站实际开办内容与备案信息不一致、域名有交易行为、网站内容涉及九不准等违法违规问题,自愿接受接入服务商关闭网站、主管部门注销备案并列入黑名单的处罚。需网站负责人签字、按手印。 备案主体为企业或组织 备案主体为企业或组织时,您需根据情况准备以下基本资料和辅助资料。基本资料必须提供,辅助资料需根据管局要求提供。 1.基本资料:需准备主办单位证件、主办单位负责人证件和互联网信息服务负责人证件等原件,通过天翼云官网或天翼云APP上传备案资料。 l 主办单位证件 营业执照等主办单位的资质证件材料。 注: 1、当主办单位为律师事务所时,上传的主办单位证件需为律师事务所执业许可证副本原件(包含副本首页、登记事项页、变更登记页、年检页)的电子材料,如原件彩色拍照照片。 2、当您提交备案变更(或变更主体)时,需同步在主体证件旁上传单位变更证明(工商变更证明、上级单位发文等) l 主办单位负责人(主体负责人)证件 部分省份管局要求主体负责人必须为法定代表人,并根据法定代表人身份提供对应的证件材料。 主体负责人身份 可用证件 中国居民 身份证/港澳居民来往内地通行证/台湾居民来往大陆通行证 其他国际和地区居民 护照 l 互联网信息服务负责人证件 互联网信息服务负责人可以是主体负责人,如果单位的互联网信息服务负责人与主体负责人不是同一人,则需要另外准备互联网信息服务负责人的证件材料。 互联网信息服务负责人身份 可用证件 中国居民 身份证/港澳居民来往内地通行证/台湾居民来往大陆通行证 其他国家和地区居民 护照 2.辅助资料:根据各管局要求,不同备案场景可能需要准备部分辅助资料用于备案申请。 辅助资料类型 适用场景 授权书 部分省市管局要求,当主体负责人或互联网信息服务负责人不是公司的法定代表人时,需提供主体负责人或互联网信息服务负责人授权书。 域名证书 部分省份管局要求提供,域名证书请到域名注册商处获取。 手持单位证件照片 单位进行备案时,部分省市管局要求上传互联网信息服务负责人手持单位证件照片,如手持营业执照等。 编办证明 部分省份管局要求事业单位和政府机关申请ICP备案时,需提供上级部门颁发的编办证明。 变更证明 备案主体为企业时,如果企业名称发生变更,此种场景下ICP备案时需要提供对应省份工商行政管理部门颁发的变更证明。 暂住证或居住证 部分省份,例如福建,当ICP备案申请人的身份证户籍地与申请ICP备案的省份不一致时,需要提供暂住证或居住证的电子材料,如原件彩色拍照照片。 网站建设方案说明书 部分省份管局要求,如果ICP备案主体下域名过多,需提供网站建设方案说明书,需包含以下内容: 1.网站服务内容介绍:包含网站内容截图或设计图、网站栏目及内容介绍、多网站(或域名)用途和域名扩展使用情况。 2.组网方案:包含设备配置、组网结构、使用技术及部署情况。 3.网络安全与信息安全管理制度:包含网络安全防御措施、信息安全管控制度和应急处理方案。 4.承诺:如备案成功后被发现主体信息有误、网站实际开办内容与备案信息不一致、域名有交易行为、网站内容涉及九不准等违法违规问题,自愿接受接入服务商关闭网站、主管部门注销备案并列入黑名单的处罚。需网站负责人签字、按手印。 资料下载
        来自:
        帮助文档
        备案指引
        备案准备
        备案所需资料
      • 注册与登录
        天翼云学堂( 注册 在天翼云官网没有账号的用户,请先注册一个账号,注册地址为[]( 登录 1) 在天翼云官网已经登录成功的用户,访问天翼云学堂时将会自动跳转并登录。 2) 没有在天翼云官网登录的用户,点击进入天翼云学堂后系统会跳转至天翼云官网登录页面,登录成功后将会返回天翼云学堂首页,此时天翼云学堂已经自动登录。 第一次进入天翼云学堂系统会跳转至身份认证页面,如下图所以: 1) 个人学习用户:点击【下一步】按钮直接进入首页,无需验证; 2) 中国电信员工: 点击【下一步】按钮需要进行企业邮箱验证,验证通过后进入首页;(员工务必选择准确所属公司,以免对学习数据统计造成影响) 3) 天翼云代理商:点击【下一步】按钮需要输入对应的企业邮箱和编号进行验证,验证通过后进入首页。 用户可以选择不进行验证,直接点击网页左上角的“天翼云学堂”logo进入首页,后期想要进行身份验证的时候,可以在[个人设置安全设置修改](
        来自:
        帮助文档
        天翼云学堂
        操作指导
        注册与登录
      • 使用查询参数验证
        功能 描述 Lowercase() 将字符串转换为小写。 Hex() 小写十六进制编码。 SHA256Hash() 安全散列算法(SHA)加密散列函数。 HMACSHA256() 使用提供的签名密钥的SHA256算法计算HMAC。这是最终的签名。 Trim() 删除任何前导或尾随空格。 UriEncode() URI编码每个字节。UriEncode()必须强制执行以下规则: URI编码除了下面字符之外的每个字节:'A' 'Z','a' 'z','0' '9',' ','.',' '和'〜'。 空格字符是保留字符,必须编码为“%20”(而不是“+”)。 每个URI编码字节由'%'和两位十六进制值组成。 十六进制值中的字母必须为大写,例如“%1A”。 除了文件名之外,对正斜杠字符'/'进行编码。例如,如果文件名称为photos/Jan/sample.jpg,则不对键名称中的正斜杠进行编码。 说明 建议您编写自己的自定义UriEncode函数,以确保您的编码可以正常工作。 以下是Java中的示例UriEncode()函数。 public static String UriEncode(CharSequence input, boolean encodeSlash) { StringBuilder result new StringBuilder(); for (int i 0; i < input.length(); i++) { char ch input.charAt(i); if ((ch > 'A' && ch < 'Z') (ch > 'a' && ch < 'z') (ch > '0' && ch < '9') ch ' ' ch '' ch '~' ch '.') { result.append(ch); } else if (ch '/') { result.append(encodeSlash ? "%2F" : ch); } else { result.append(toHexUTF8(ch)); } } return result.toString(); }
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        用户签名验证(V4)
        使用查询参数验证
      • 以SkyWalking方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过SkyWalking SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 SkyWalking是一款广受欢迎的国产APM(Application Performance Monitoring,应用性能监控)产品,主要针对微服务、Cloud Native和容器化(Docker、Kubernetes、Mesos)架构的应用。SkyWalking的核心是一个分布式追踪系统。 接入步骤 1、安装Agent plaintext dotnet add package SkyAPM.Agent.AspNetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供v3版本接入点(Skywalking 8.)的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、设置环境变量 plaintext ASPNETCOREHOSTINGSTARTUPASSEMBLIESSkyAPM.Agent.AspNetCore SKYWALKINGSERVICENAME 4、配置Agent属性 plaintext 安装SkyAPM.DotNet.CLI工具 plaintext dotnet tool install g SkyAPM.DotNet.CLI plaintext 生成配置文件skyapm.json plaintext dotnet skyapm config sampleapp 192.168.0.1:11800 plaintext skyapm.json文件内容如下 plaintext {   "SkyWalking": {     "ServiceName":  ,     "Namespace": "",     "HeaderVersions": [       "sw8"     ],     "Sampling": {       "SamplePer3Secs": 1,       "Percentage": 1.0     },     "Logging": {       "Level": "Information",       "FilePath": "logsskyapm{Date}.log"     },     "Transport": {       "Interval": 3000,       "ProtocolVersion": "v8",       "QueueSize": 30000,       "BatchSize": 3000,       "gRPC": {         "Servers":  ,         "Timeout": 10000,         "ConnectTimeout": 10000,         "ReportTimeout": 600000,         "Authentication": "Bearer  "       }     }   } } 属性说明: :服务名称 :获取的接入点 :获取的接入点鉴权令牌 Logging:日志记录与调试。Level表示日志级别,FilePath表示日志文件保存的位置以及文件名称 运行程序时,Agent的日志会记录在Logging设置的文件中,可以参考log文件进行调试和修改。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以SkyWalking方式接入
      • 工信部增加备案短信验证功能通知
        工信部增加全国备案短信验证功能通知 “备案短信核验”问题集锦 根据《工业和信息化部关于开展互联网基础管理专项行动的通知》工信部信管函[2016]485号文件要求,工业和信息化部将对通过 ICP/IP地址/域名信息备案管理系统提交备案申请的主体负责人及网站负责人的手机号码进行短信验证。即:备案信息通过天翼云审核后,天翼云在将备案信息提交管局审核时,备案主体负责人和(或)网站负责人手机号码中,将会收到工信部发出的短信息验证码。需在24小时内完成短信验证,备案申请才能进入省通信管理局的审核程序。 目前适用省份: 根据工信部最新要求,自2020年8月17日起,各省市进行以下类型的备案申请时需通过工信部备案管理系统进行短信核验,详情如下所示。 短信验证平台: 您在备案信息中填写的手机号码收到工信部发出的验证码后,需及时访问《工业和信息化部政务服务平台ICP/IP地址/域名信息备案管理系统》网站(以下简称公共查询网站) 填写证件号码、验证手机号和验证码,完成验证。 验证码发送及短信核验原则: 备案类型 验证逻辑 备注 新增备案 验证主体负责人手机号和网站负责人手机号。 若主体负责人与网站负责人为同一人,只发送一个验证码。 新增网站备案 验证网站负责人手机号码。 若主体信息有变更,则需要验证。 新增接入备案 验证网站负责人手机号码。(注意:该手机号码是通过其他接入商在管局侧备案时所提供的号码) 1、如果您更换了手机号码,需先到原备案接入服务商处变更手机号码,再进行接入备案。 2、如果您的网站为空壳网站(即无接入服务商),无法到原接入服务商处变更手机号码。只能注销备案后,再重新提交新增网站备案。 变更备案信息 验证主体负责人手机号或网站负责人手机号。 1、若变更主体信息,则验证主体负责人手机号码。 2、若变更网站信息,则验证网站负责人手机号码。 3、若同时变更了主体和网站信息,那么主体和网站负责人手机号码均需验证。 注销主体 主体负责人验证。 暂时无需验证。验证开放时间待定。 注销网站 无需验证。 暂时无需验证。验证开放时间待定。 取消接入 无需验证。 暂时无需验证。验证开放时间待定。 验证码有效时长: 验证码 24 小时以内有效。您需在 24 小时内,访问公共查询网站,并输入证件号码、验证手机号和验证码进行验证。 手机号码短信验证通过后,您的备案信息将流转至管局审核。 若 24 小时内,没有进行验证或验证失败,备案信息将会自动退回至接入商(天翼云)。需您重新提交备案申请,再次进入短信验证流程。完成短信验证后,备案申请信息才能递交至省管局审核。 验证码发送号码: 电信、联通、移动用户收到的短信验证码的发送号码为短信验证码的发送号码为12381或10612381。 1. 填写信息:验证码、手机号码、证件号码后六位数,完成图形验证,再单击 提交 。验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续成。 2. 验证通过后,系统提示核验完成。如果您的备案订单中,还有其他需验证的手机号,请继续完成。 注意: 1、如果您的信息输入错误,或输入的三条信息(证件号码、手机号码、验证码)不匹配,则系统找不到对应的订单。系统提示找不到记录。请核实信息后,重新输入。 2、如果负责人证件号码输错 3 次以后,系统提示短信核验失败。您的备案申请信息将被工信部系统退回。 未收到验证短信,怎么办? 在天翼云将您的备案信息提交管局审核的后,请注意查收工信部发出的验证短信。一般在 5 分钟内即可收到验证短信。若 5 分钟后仍然没有收到验证短信,请检查: 1、您的手机网络信号是否正常。 2、您是否设置了短信拦截或安装了垃圾短信拦截软件。 解决方法: 1、如果因手机网络信号不正常导致无法接收短信,请移到信号好的地方;或访问公共查询网站进行手动重发送验证短信。 2、如果因您设置了垃圾短信拦截,或安装了拦截软件,请关闭拦截。如果无法关闭拦截,建议您将您的 SIM 卡换至其他手机。 3、如果您误删了验证短信,可访问公共查询网站,进行手动重发。 4、如果您 24 小时未完成短信验证,备案系统会自动退回您的备案申请。您需重新提交备案申请。 如何操作手动重发验证码短信? 访问公共查询网站,单击网站页面上“短信核验”按钮。 单击 短信重发 ,进入核验短信重发页面。填写您需验证的手机号码和证件号码后 6 位数,然后单击 提交。 发送成功通知:您的短信已发送成功。
        来自:
        帮助文档
        ICP备案
        法律法规及公告
        公告
        工信部增加备案短信验证功能通知
      • 操作指引
        本小节介绍漏洞扫描服务流程。 网络要求 非电信客户的应用系统网络与扫描器网络可达,即可提供扫描服务(内网需提供用于部署扫描器的内网主机,内外网需保证路由可达)。 服务流程 业务受理单 客户应如实填写以下信息(必须填满): 1. 被检测的IP主机信息。 2. 被检测主机的操作系统类型及版本。 3. 业务接口人联系方式,客户需指定一个具有对漏洞扫描方案及漏洞扫描过程中出现的问题有决定权的业务接口联系人。 4. 客户提供扫描资产时需对所提交资产所有权负责,保证资产归提交人合法所有。 5. 客户需签订漏洞扫描授权书。 审核阶段 对委托单位提交的受理单信息进行核查,核查内容: 1. 判断资产所在环境是公网还是内网。 若是公网需要保证被扫描资产路由可达。 若是内网环境,需确认委托单位提供可访问到内网主机的跳板机。 2. 受理单审核通过后进入漏洞扫描实施阶段。 业务受理单无问题进入下一阶段;如有问题返回客服,由客服继续与客户沟通,直到业务受理单填满无问题。 说明 确认过程需1个工作日。 实施阶段 1.漏洞扫描实施方案 业务受理单确认无误后进入实施阶段,漏洞扫描操作人员接到客服的业务受理单后确认受理单信息:IP、版本、授权等并就扫描计划和受理单内容与客户确认。扫描任务实施前,分析客户主机情况,制定扫描方案,明确漏洞扫描任务具体实施时间、目标范围、合理的扫描方式以及最佳扫描策略,并就扫描方案与客户进行沟通确认,由于在漏洞扫描期间客户方未关闭安全防护设备所造成的漏扫结果不准确,乙方不承担责任。 注意 确认过程0.5个工作日。 2.实施漏洞扫描 扫描实施前若客户网络环境公网不能直达,需部署扫描器,也可配合客户自己部署,策略模板由我们提供,部署时间预计1个工作日。 关于扫描进度,目前扫描器扫描一个C段地址大约需要6个小时左右时间,扫描期间实时就扫描过程中发生的问题与客户沟通,最后扫描的结果将存放到扫描结果专用堡垒机上。 漏洞扫描的风险规避,由于漏洞扫描属于黑盒测试,因此可能对被测试目标造成不可预知的风险;此外对于性能比较敏感的测试目标,如一些实时性要求比较高的系统,由于扫描可能引起网络流量的增加,因此可能会引起被扫描目标的服务质量降低。因此需进行如下的风险规避措施: 扫描时段选择:一般会选择在夜间或安排在业务量不大的时段进行漏洞扫描。 扫描策略选择:根据系统的具体情况配置合理的扫描策略。 3.编写扫描报告 漏洞扫描完成后输出漏洞扫描服务报告,报告编写时间2个工作日。 4.报告审核修订 由专人对输出的漏洞扫描服务报告进行审核修订,审核修订时间1个工作日。 5.报告提交 报告提交方式采取邮件回复的方式提交:客户通过邮件向天翼云漏洞扫描平台发起报告接收申请,漏洞扫描服务报告以回复邮件方式给客户。 6.质保服务 在客户收到漏洞扫描服务报告后,乙方参与漏扫项目的专家为客户持续提供3天时间用于咨询报告中的不明事项。 7.结束服务 在完成以上各阶段工作后,漏洞扫描项目经理告知客服此次漏扫服务结束。
        来自:
        帮助文档
        漏洞扫描
        用户指南
        操作指引
      • 常见问题(1)
        小程序的AI云电脑的界面进入不了云电脑,显示订购页面 当前账号没有云电脑,可以参加活动领取一台,或新购一台云电脑。方法见快速入门(必看)中,新用户免费体验。 OpenClaw上下文超过模型处理上限 参考文档,压缩上下文: windosw 安装插件时找不到NPM问题 // 修改前 cpp const stdio resolveCommandStdio({ hasInput, preferInherit: true }); const child spawn(argv[0], argv.slice(1), { stdio, cwd, env: resolvedEnv, windowsVerbatimArguments, }); // 修改后 cpp const stdio resolveCommandStdio({ hasInput, preferInherit: true }); // On Windows, npm must be spawned with shell: true or use .cmd extension let command argv[0]; let useShell false; if (process.platform "win32" && path.basename(command) "npm") { useShell true; } const child spawn(command, argv.slice(1), { stdio, cwd, env: resolvedEnv, shell: useShell, }); 旧版本openclaw集成飞书后再升级openclaw导致 飞书失效解决方案 1. 停止openclaw后台服务; 2. 备份openclaw.json文件; 3. 删除openclaw.json关于feishu的配置项; 4. 删除 C:UsersAdministrator.openclawextensionsfeishu; 5. 删除 C:UsersAdministratorAppDataRoamingnpmnodemodulesopenclawextensionsfeishu; 6. 重新安装插件: openclaw plugins install @openclaw/feishu; 7. 重新添加飞书: openclaw channels add 按提示依次填入secret和appId,其他都选择No; 8. 启动openclaw后台服务。
        来自:
      • 天翼云AOne SDK儿童个人信息保护政策及监护人须知
        本文提供天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK 儿童个人信息保护政策及监护人须知 儿童个人信息保护政策及监护人须知发布日期:【2025年5月13日】 本须知仅适用于由天翼云科技有限公司提供的天翼云边缘安全加速平台零信任服务天翼云AOne SDK服务。 版本生效日期:【2025年5月13日】 如果您有任何疑问、意见或建议,请通过以下联系方式与我们联系: 电子邮件:service@chinatelecom.cn;ctpip.ctyun@chinatelecom.cn 电话:4008109889 天翼云门户:管理中心新建工单;智能客服 为了更好地在您使用我们服务的过程中保障您的个人信息,我们对《 天翼云AOne SDK儿童个人信息保护政策及监护人须知 》进行了更新,此版本主要更新内容包括: 1、更新天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK产品由天翼云科技有限公司(“天翼云”)运营,是一款为移动应用开发者(以下简称“开发者”)提供调用零信任内网连接等能力服务的软件开发工具包(SDK)。我们致力于保护儿童个人信息,本须知中的“儿童”,是指满14周岁的未成年人。为此,我们专门制定了《天翼云AOne SDK儿童个人信息保护政策及监护人须知》(简称“本须知”),向您说明我们处理儿童个人信息的规则。您作为儿童的父母或其他监护人(统称“监护人”),请在您或您所监护的儿童(简称“被监护人”)使用本应用前务必仔细阅读并充分理解本须知,特别是以粗体标识的条款应重点阅读,在确认充分理解并同意全部条款后再开始使用或允许您的孩子使用。 本须知为在《天翼云AOne SDK隐私和信息处理规则》基础上制定的特别规则,除另有约定外,本须知所用术语和缩略词与《天翼云AOne SDK隐私和信息处理规则》中的术语和缩略词具有相同的涵义;与《天翼云AOne SDK隐私和信息处理规则》如有不一致之处,以本须知为准;本须知未载明之处,适用《天翼云AOne SDK隐私和信息处理规则》。为了维护儿童的合法权益,儿童应当在其监护人的指导下使用我们的服务。 《天翼云AOne SDK隐私和信息处理规则》详见天翼云AOne SDK隐私和信息处理规则 监护人特别说明: 您的理解和配合对我们保护被监护人的个人信息和隐私安全非常必要,为了维护被监护人的合法权益,我们希望您可以协助我们,确保被监护人在您的同意和指导下使用本应用和向我们提交个人信息。我们将根据本须知采取特殊措施保护我们获得的被监护人的个人信息。请您仔细阅读和选择是否同意本声明。如果您不同意本须知的内容,请您要求被监护人立即停止访问/使用我们的产品及服务。 儿童特别说明: 任何儿童参加网上活动都应事先取得监护人的同意。如果您是儿童,请务必通知您的监护人共同阅读本须知,并在您使用我们的产品及服务、提交个人信息之前,寻求您的监护人的同意和指导。 我们严格按照《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》 《 电信和互联网用户个人信息保护规定》(工业和信息化部令第 24 号)《儿童个人信息网络保护规定》等法律法规的相关要求,在业务活动中处理儿童的个人信息。 本部分向您告知以下内容: 一、我们如何收集和使用儿童的个人信息 二、我们如何共享、转让和公开披露儿童的个人信息 三、我们如何存储儿童的个人信息 四、我们如何保护儿童的个人信息 五、我们如何管理儿童的个人信息 六、本须知的适用 七、本须知的修订 八、如何联系我们 一、我们如何收集和使用儿童的个人信息 1.1 在儿童使用我们的产品及服务过程中,我们会严格履行法律法规规定的儿童个人信息保护义务与责任,遵循正当必要、知情同意、目的明确、安全保障、依法利用的原则,在征得监护人的同意后收集和使用儿童个人信息。具体请查阅《天翼云AOne SDK隐私和信息处理规则》“各业务功能中的用户信息收集使用规则”章节,详细了解我们收集和使用的儿童个人信息。 1.2 此外,我们也会通过Cookie等同类技术自动收集您或被监护人的个人信息,具体请您查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何使用 Cookie和同类技术”章节进行详细了解。 1.3 我们提供的与儿童有关的服务是不断发展的。如我们需要超出上述收集范围收集您或被监护人的个人信息,我们将再次告知您,并征得您的同意。 1.4 根据相关法律法规规定,以下情形中收集儿童的信息无需征得儿童监护人的授权同意: (1)与我们履行法律法规规定的义务相关的; (2)与国家安全、国防安全、公共安全、公共卫生、重大公共利益有关的; (3)与犯罪侦查、起诉、审判和判决执行等有关的; (4)出于维护儿童的生命、财产等重大合法权益但又很难得到监护人同意的; (5)所收集的信息是儿童或监护人自行向社会公众公开的; (6)从合法公开披露的信息中收集信息的,如合法的新闻报道、政府信息公开等渠道; (7)根据与您或被监护人签订和履行相关协议或其他书面文件所必需的; (8)法律法规规定的其他情形。 请您理解,您可以选择是否填写或向我们提供特定的信息,但您如果不填写或提供某些特定的信息,将可能导致我们的产品及服务无法正常运行,或者无法达到我们拟达到的服务效果,您和被监护人可能无法正常使用我们的产品、服务或相关的具体业务功能。 二、我们如何共享、转让和公开披露儿童的个人信息 我们承诺对儿童个人信息进行严格保密,我们遵照法律法规的规定,严格限制共享、转让、披露儿童个人信息的情形,仅在《天翼云AOne SDK隐私和信息处理规则》约定和您明确授权同意的情况下对外提供儿童信息。 除了《天翼云AOne SDK隐私和信息处理规则》“我们如何共享、转让、公开披露您的个人信息”章节部分所述的内容外,对于儿童个人信息,我们还将会采取如下措施来保护儿童个人信息在共享、转让和公开披露过程中的安全: 2.1 如果为了本须知所述目的而需要将儿童信息共享至第三方,我们将评估该第三方收集儿童个人信息的合法性、正当性、必要性,并采用加密、匿名化、去标识化处理等手段保障您和被监护人的信息安全。 2.2 我们将要求第三方对儿童个人信息采取保护措施,并且严格遵守相关法律法规与监管要求。我们会要求接收儿童个人信息的第三方遵守严格的保密义务及采取有效的保密措施,禁止其将这些儿童个人信息用于未经儿童及其监护人授权的用途,并要求受托公司依法履行以下义务: (1)按照法律、行政法规的规定和我们的要求处理儿童个人信息; (2)协助我们回应儿童监护人提出的申请; (3)采取措施保障信息安全,并在发生儿童个人信息泄露安全事件时,及时向我们反馈; (4)委托关系解除时及时删除儿童个人信息; (5)不得转委托; (6)其他依法应当履行的儿童个人信息保护义务。 2.3 另外,我们会按照法律法规的要求征得您的同意,或确认第三方已经征得您同意。 三、我们如何储存儿童的个人信息 3.1 我们在中华人民共和国境内运营中收集和产生的儿童个人信息,将存储在中国境内(为本须知之目的,不含香港、澳门、台湾地区)。 3.2 我们会采取合理可行的措施,尽力避免收集和处理无关的儿童的个人信息。我们只会在达成本须知所述目的所需的期限内保留儿童的个人信息,除非法律有强制的留存要求。关于我们如何确定儿童个人信息存储期限请参见《天翼云AOne SDK隐私和信息处理规则》“我们如何保存您的个人信息或关联组织信息”章节。如我们终止服务或运营,我们将及时停止继续收集儿童个人信息的活动,同时会遵守相关法律法规要求提前向您通知,并在终止服务或运营后对儿童的个人信息进行删除或匿名化处理,但法律法规或监管部门另有规定的除外。 四、我们如何保护儿童的个人信息 我们非常重视儿童的隐私安全,并采取一切合理可行的措施保护儿童个人信息: 4.1 我们会严格控制儿童个人信息的访问权限,对可能接触到儿童个人信息的工作人员采取最小够用授权原则,并采取技术措施对处理儿童个人信息的行为进行记录和管控,避免违法复制、下载儿童个人信息。 4.2 我们会定期组织内部相关人员进行培训,使其掌握岗位职责和应急处置策略和规程。在不幸发生儿童个人信息安全事件后,我们将按照法律法规的要求,及时向您告知:安全事件的基本情况和可能的影响、我们已采取或将要采取的处置措施、您及被监护人可自主防范和降低风险的建议、对您及被监护人的补救措施等。我们将及时将事件相关情况以APP推送通知、发送邮件/短消息等方式告知您。难以逐一告知时,我们会采取合理、有效的方式发布相关警示信息。同时,我们还将按照监管部门要求,主动上报儿童个人信息安全事件的处置情况。若被监护人的合法权益受损,我们将承担相应的法律责任。 4.3 如您希望了解更多,请查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何保护您的个人信息或关联组织信息”章节,详细了解上述措施外,我们还采取了哪些措施保护儿童个人信息。 五、我们如何管理儿童的个人信息 5.1 为了您或被监护人在使用我们的产品及服务期间可以更加便捷地访问和管理被监护人的个人信息,同时保障注销账户的权利,我们在产品及服务中为您和被监护人提供了相应的操作设置,您和被监护人可以按照《天翼云AOne SDK隐私和信息处理规则》中的“您的权利及如何管理您的个人信息”章节指引进行操作。 5.2 如存在以下情况,您和被监护人可以请求我们删除收集、使用和处理的儿童个人信息。我们会在完成身份验证后,及时采取措施予以删除。 (1)若我们违反法律、行政法规的规定或者本须知的约定收集、存储、使用、转让、披露儿童个人信息; (2)若我们超出本须知目的范围或者必要期限收集、存储、使用、转让、披露儿童个人信息; (3)您撤回同意; (4)您或被监护人通过注销等方式终止使用产品或者服务的。 但请注意,若您和被监护人要求我们删除特定儿童个人信息,可能导致被监护人无法继续使用我们的产品和服务或产品和服务中的某些具体业务功能。 如您发现在未事先征得您同意的情况下收集了被监护人的个人信息,请及时联系我们,我们会设法尽快删除相关数据。 六、本须知的适用 绝大多数情形下我们无法识别且不会判断收集和处理的个人信息是否属于儿童个人信息,我们将按照《天翼云AOne SDK隐私和信息处理规则》收集和处理用户的个人信息。 七、本须知的修订 我们可能会根据我们的产品及服务的更新情况及法律法规的相关要求适时修改本须知的条款,该等修改构成本须知的一部分,我们会在专门页面上展示最新修改版本。当本须知的条款发生变更时,我们会以APP弹窗方式进行提示并再次取得您的同意,详见《天翼云AOne SDK隐私和信息处理规则》“本隐私和信息处理规则如何更新”章节的规定。 八、如何联系我们 8.1 如您对本隐私和信息处理规则或您信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云提交工单、联系智能客服、或拨打我们的客服电话4008109889与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn或ctpip.ctyun@chinatelecom.cn,与天翼云边缘安全加速平台零信任服务的个人信息保护负责人进一步沟通。 8.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。 8.3 如果您对我们的回复不满意,特别是我们的信息处理行为损害了您的合法权益,您还可以通过以下外部途径寻求解决方案:向被告所在地有管辖权的人民法院提起诉讼。
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne SDK儿童个人信息保护政策及监护人须知
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建应用及开通应用
        加入应用 1.根据需要选择应用,点击【开通】,跳转到应用详情页。 2.点击【去开通】,添加能力。 查看应用 点击确认开通,即反馈【能力已开通】,并返回应用详情,在能力管理中展示了已开通的能力。 获取应用的AppKey、AppSecret 点击应用,在应用详情页可以查看对应的AppKey、AppSecret。
        来自:
        帮助文档
        印刷文字识别
        用户指南
        创建应用及开通应用
      • 查询域名的IP列表、区域、运营商
        接口描述:调用本接口查询域名的IP地址,及ip对应的区域,运营商信息 请求方式:post 请求路径:/auxiliarytools/queryvipsdetailbydomain 使用说明: 单个用户一分钟限制调用10000次,并发不超过100 请求参数说明(json): 参数 类型 是否必传 名称 描述 domain list 是 域名列表 最多支持5个 返回参数说明: 参数 类型 是否必传 名称及描述 code int 是 状态码 message string 是 描述信息 result list 是 返回结果数组 result[].domain string 是 域名 result[].details list 是 域名对应的vip列表信息 result[].details[].vips string 是 vip信息,多个用逗号“,”分割 result[].details[].cityName string 是 城市名称 result[].details[].nodename string 是 节点名称 result[].details[].provinceName string 是 省份名称 result[].details[].ispName string 是 运营商名称 示例: 请求路径: 示例1: 请求参数: {     "domain": [         "ctyun.cn"     ] } 返回结果: {     "code": 100000,     "message": "success",     "result": [         {             "domain": "ctyun.cn",             "details": [                 {                     "vips": "xx.xx.xx.xx,xx:xx:xx:xx::",                     "cityName": "呼和浩特市",                     "nodename": "xxx1",                     "provinceName": "内蒙古自治区",                     "ispName": "中国电信"                 },                 {                     "vips": "xx.xx.xx.xx,xx:xx:xx:xx::",                     "cityName": "通州区",                     "nodename": "xxx2",                     "provinceName": "北京市",                     "ispName": "中国电信"                 }             ]         }     ] }
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询域名的IP列表、区域、运营商
      • 设置访问控制
        防护粒度说明 粒度 说明 示例 IPPORT 即客户端IP端口。支持填写多个IP:端口格式,多个用;隔开 192.168.1.0:443;192.168.2.0:8080 PATH 即目录路径。支持填写多个,多个PATH用;隔开。 /qr/;/app/verifyCode/ IP 即客户端IP。支持填写多个IP,多个IP间以;隔开。 170.101.1.1;192.178.1.1 IPS 即客户端IP段。支持填写多个IP段,多个IP段间以;隔开。 192.168.1.0/24;192.168.2.0/24 IPR 即客户端IP范围。支持填写多个IP范围,多个IP范围间以;隔开。 192.168.1.1192.168.1.10;192.168.1.12192.168.1.20 IP文件 1.支持上传TXT格式的文件。 2.文件内容支持以下格式的IP地址:1.1.1.1、2.2.2.0/24、3.3.3.33.3.3.5。 3.多个IP地址以分号;或换行符进行分割。(因操作系统差异,如有报错请切换分割符。) 4.IP地址最多支持3000条。 5.添加IP文件匹配字段后,不支持添加其他匹配字段。 URI URI不包括问号后参数。支持填写多个URI,支持正则和字符串匹配,字符串匹配多个URI间以;隔开,正则匹配多个URI间按回车确认隔开。当选择字符串时,支持下拉框选择对应域名的API资产。 /login.php REQUESTURI URI包括问号后参数。不支持填写多个REQUESTURI。支持正则和字符串匹配。 /login.php?id1 METHOD 即请求方式。支持填写多个请求方法,多个请求方法间以;隔开。 GET;POST ARGS 即URI问号后的参数名。支持正则和字符串匹配。 proid GEO 地理位置,即客户端IP区域。支持选择多个区域。 欧洲/德国 HEADER 即请求头部。支持正则和字符串匹配。 PROTOCOL 即请求协议。支持填写多个协议,多个协议用;隔开。支持正则和字符串匹配。 HTTP/1.0;HTTP/2.0;HTTP/0.9 SRCPORT 即客户端源端口。支持填写多个端口,多个端口以;隔开。 54375;8080 DESTIP 即请求的目的IP。支持填写IPv4/IPv6,多个IP以;隔开。 170.101.1.1;192.178.1.1 DESTPORT 即请求的目的端口。支持填写多个端口,多个端口以;隔开。 54375;8080 响应头 响应头,支持正则和字符串匹配。 支持”告警“、”攻击标记“动作。 当防护动作选择”攻击标记“时,对响应报文进行攻击检测。 状态码 响应报文状态码。支持选择2xx~5xx所有状态码,支持选择多个。 支持”告警“、”攻击标记“动作 当防护动作选择”攻击标记“时,对响应报文进行攻击检测。 200;404;500 REQUESTBODY 即请求体内容。支持填写多个,多个以英文分隔符;隔开。 JA3指纹 计算请求唯一的JA3指纹。注意:非 SSL 的 HTTP 请求对应 JA3 指纹为空值。 66918128f1b9b03303d77c6f2eefd128
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        访问控制/限流
        设置访问控制
      • 创建应用及开通应用
        加入应用 1.根据需要选择应用,点击【开通】,跳转到应用详情页。 2.点击【去开通】,添加能力。 查看应用 点击确认开通,即反馈【能力已开通】,并返回应用详情,在能力管理中展示了已开通的能力。 获取应用的AppKey、AppSecret 点击应用,在应用详情页可以查看对应的AppKey、AppSecret。
        来自:
        帮助文档
        内容审核(文档停止维护)
        用户指南
        创建应用及开通应用
      • 使用Authorization请求头验证
        功能 描述 Lowercase() 将字符串转换为小写。 Hex() 小写16进制编码。 SHA256Hash() 安全散列算法(SHA)加密散列函数。 HMACSHA256() 使用签名密钥,根据SHA256算法计算出的签名值。 Trim() 删除任何前导或尾随空格。 UriEncode() URI编码每个字节。UriEncode()必须强制执行以下规则: 除下列字符外,其他字符进行URI编码:'A' 'Z','a' 'z','0' '9',' ','.',' '和'~'。 空格字符是保留字符,必须编码为“%20”(而不是“+”)。 每个URI编码字节由'%'和两位十六进制值组成。 十六进制值中的字母必须为大写,例如“%1A”。 除了文件名之外,对正斜杠字符'/'进行编码。例如,如果文件名称为 photos/Jan/sample.jpg,则不对名称中的正斜杠进行编码。 说明 建议用户编写自己的自定义UriEncode函数,以确保您的编码可以正常工作。 以下是Java中的示例UriEncode()函数。 public static String UriEncode(CharSequence input, boolean encodeSlash) { StringBuilder result new StringBuilder(); for (int i 0; i < input.length(); i++) { char ch input.charAt(i); if ((ch > 'A' && ch < 'Z') (ch > 'a' && ch < 'z') (ch > '0' && ch < '9') ch ' ' ch '' ch '~' ch '.') { result.append(ch); } else if (ch '/') { result.append(encodeSlash ? "%2F" : ch); } else { result.append(toHexUTF8(ch)); } } return result.toString(); }
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        安全策略
        用户签名验证(V4)
        使用Authorization请求头验证
      • 创建应用及开通应用
        加入应用 1.根据需要选择应用,点击【开通】,跳转到应用详情页。 2.点击【去开通】,添加能力。 3.点击确认开通,即反馈【能力已开通】,并返回应用详情,在能力管理中展示了已开通的能力。 获取应用的AppKey、AppSecret 点击应用,在应用详情页可以查看对应的AppKey、AppSecret。
        来自:
        帮助文档
        智能语音交互
        用户指南
        创建应用及开通应用
      • 创建应用及开通应用
        加入应用 1.根据需要选择应用,点击【开通】,跳转到应用详情页。 2.点击【去开通】,添加能力。 查看应用 点击确认开通,即反馈【能力已开通】,并返回应用详情,在能力管理中展示了已开通的能力。 获取应用的AppKey、AppSecret 点击应用,在应用详情页可以查看对应的AppKey、AppSecret。
        来自:
        帮助文档
        人脸识别
        用户指南
        创建应用及开通应用
      • 内置保留字段
        在采集日志时,日志服务会将采集时间、日志类型、主机IP等信息以KeyValue对的形式添加到日志中,这些字段是云日志服务的内置字段。 说明 使用API写入日志数据或添加ICAgent配置时,请不要将字段名称设置为内置保留字段,否则可能会造成字段名称重复、查询不精确等问题。 用户自定义日志字段名称中不能使用双下划线,否则无法配置索引。 日志示例 如下是一条CCE日志,content字段值是日志原文,其他字段是常见的一些内置保留字段。 { "hostName":"epstestxx518", "hostIP":"192.168.0.31", "clusterId":"c7f3f4a5xxxx11eda4ec0255ac100b07", "pathFile":"stdout.log", "content":"levelerror ts20230419T09:21:21.333895559Z", "podIp":"10.0.0.145", "containerName":"configreloader", "clusterName":"epstest", "nameSpace":"monitoring", "hostIPv6":"", "collectTime":"1681896081334", "appName":"alertmanageralertmanager", "hostId":"318c02fexxxx4c91b5bb6923513b6c34", "lineNum":"1681896081333991900", "podName":"alertmanageralertmanager54d7xxxxwnfsh", "time":"1681896081334", "serviceID":"cf5b453xxxad61d4c483b50da3fad5ad", "category":"LTS" } 内置保留字段说明 表 1 内置保留字段说明 内置保留字段 数据格式 索引与统计设置 说明 collectTime 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为collectTime创建字段索引,索引数据类型为long类型。查询时输入collectTime : xxx。 采集时间,指日志被采集器ICAgent采集时的时间。示例中的"collectTime":"1681896081334",转换成标准时间是20230419 17:21:21 time 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为time创建字段索引,索引数据类型为long类型。该字段不支持查询。 日志时间,指的是日志在控制台页面展示的日志时间。例如示例中的"time":"1681896081334",转换成标准时间是20230419 17:21:21日志时间默认使用采集时间,也支持自定义日志时间。 lineNum 整型 索引设置:开启索引后,日志服务默认为lineNum创建字段索引,索引数据类型为long类型。 行号(偏移量),用来排序日志。非高精度日志会根据collectTime生成,默认是collectTime 1000000 + 1,高精度日志就是用户上报的纳秒值。例如示例中的"lineNum":"1681896081333991900"。 category 字符串 索引设置:开启索引后,日志服务默认为category创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入category: xxx。 日志类型,表示该日志的来源。例如ICAgent采集的日志该字段为LTS,某云服务例如DCS上报的日志该字段为DCS。 clusterName 字符串 索引设置:开启索引后,日志服务默认为clusterName创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入clusterName: xxx。 集群名称,k8s场景下集群名称。例如示例中的"clusterName":"epstest"。 clusterId 字符串 索引设置:开启索引后,日志服务默认为clusterId创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入clusterId: xxx。 集群ID,k8s场景下集群ID。例如示例中的"clusterId":"c7f3f4a5xxxx11eda4ec0255ac100b07"。 nameSpace 字符串 索引设置:开启索引后,日志服务默认为nameSpace创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入nameSpace: xxx。 命名空间,k8s场景下命名空间。例如示例中的"nameSpace":"monitoring"。 appName 字符串 索引设置:开启索引后,日志服务默认为appName创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入appName: xxx。 组件名称,k8s场景下工作负载的名称。例如示例中的"appName":"alertmanageralertmanager"。 serviceID 字符串 索引设置:开启索引后,日志服务默认为serviceID创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入serviceID: xxx。 工作负载ID,k8s场景下工作负载ID。例如示例中的"serviceID":"cf5b453xxxad61d4c483b50da3fad5ad"。 podName 字符串 索引设置:开启索引后,日志服务默认为podName创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入podName: xxx。 POD名称,k8s场景下POD名称。例如示例中的"podName":"alertmanageralertmanager0"。 podIp 字符串 索引设置:开启索引后,日志服务默认为podIp创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入podIp: xxx。 pod的ip,k8s场景下pod的IP地址。例如示例中的"podIp":"10.0.0.145"。 containerName 字符串 索引设置:开启索引后,日志服务默认为containerName创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入containerName: xxx。 容器名称,k8s场景下容器名称。例如示例中的"containerName":"configreloader"。 hostName 字符串 索引设置:开启索引后,日志服务默认为hostName创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入hostName: xxx。 主机名称,ICAgent所在主机的名称。例如示例中的"hostName":"epstestxx518"。 hostId 字符串 索引设置:开启索引后,日志服务默认为hostId创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入hostId: xxx。 主机ID,ICAgent所在主机的id,该id由ICAgent生成。例如示例中的"hostId":"318c02fexxxx4c91b5bb6923513b6c34"。 hostIP 字符串 索引设置:开启索引后,日志服务默认为hostIP创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入hostIP: xxx。 主机IP,日志采集器所在主机的ip(适用于ipv4场景)例如示例中的"hostIP":"192.168.0.31"。 hostIPv6 字符串 索引设置:开启索引后,日志服务默认为hostIPv6创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入hostIPv6: xxx。 主机IP,日志采集器所在主机的ip(适用于ipv6场景)例如示例中的"hostIPv6":""。 pathFile 字符串 索引设置:开启索引后,日志服务默认为pathFile创建字段索引,索引数据类型为string类型,分词字符为空。查询时输入pathFile: xxx。 文件路径,采集的日志文件的路径。例如示例中的"pathFile":"stdout.log"。 content 字符串 索引设置:开启全文索引后,会使用全文索引定义的分词符对content字段的value进行分词;不支持将content字段配置到字段索引中。 日志原文例如示例中的"content":"levelerror ts20230419T09:21:21.333895559Z" logContent 字符串 不支持将logContent字段配置到字段索引中。 不涉及。 logContentSize 整型 不支持将logContentSize字段配置到字段索引中。 不涉及。 logIndexSize 整型 不支持将logIndexSize字段配置到字段索引中。 不涉及。 groupName 字符串 不支持将groupName字段配置到字段索引中。 不涉及。 logStream 字符串 不支持将logStream字段配置到字段索引中。 不涉及。 receivetime 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为receivetime创建字段索引,索引数据类型为long类型。 上报日志的服务端时间,相当于LTS采集端接收到日志的时间。 clienttime 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为clienttime创建字段索引,索引数据类型为long类型。 端侧日志的客户端上报时间。 contentparsefail 字符串 索引设置:开启索引后,日志服务默认为contentparsefail创建字段索引,索引数据类型为string类型,分词字符为默认分词符。查询时输入contentparsefail: xxx。 上报日志解析失败的日志内容。 savetime 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为savetime创建字段索引,索引数据类型为long类型。 日志流引擎的时间字段,根据此时间拉取对应时间段内的日志数据。 time 整型,Unix时间戳(毫秒) 索引设置:开启索引后,日志服务默认为time创建字段索引,索引数据类型为date类型。 采集时间,用于兼容可视化查询。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志搜索与分析
        内置保留字段
      • 备案APP操作手册
        备案过程中任何问题都可以电话、工单、在线的形式咨询备案专员。 电话:40081098893 工单:天翼云官网(www.ctyun.cn)——右上角“我的”——工单管理——新建工单 在线客服:点击官网智能客服 1、登录天翼云门户www.ctyun.cn,点击备案 2、点击开始备案。 3、选择立即备案,填写单位信息 4、点击“详情”去录入信息 5、如实填写主办单位信息,单位名称要和取得域名的单位名称要保持一致 6、填写单位负责人信息,即单位的法人 7、点击下一步“填写网站/APP信息” 8、注意,如果单位的经营范围(以经营执照上的内容为准)涉及到前置审批,需要额外上传相应的经营许可证,如政府部门颁发的网络游戏许可证、金融许可证等。 9、填写备案的IP,如果IP在此提交备案的账号下,可以选择“使用自有接入服务号”,会直接弹出该IP的信息。如果IP不在此账号下,可以选择“使用他人接入服务号”。 他人接入服务号查询路径:登录IP所属天翼云账号,天翼云官网(ctyun.cn)首页备案我的备案接入服务号管理。 以上方法如无法查询到接入服务号,可以提交工单,工单中写明公网IP地址,由备案客服后台查询告知您接入服务号,多个服务号之间用英文分号分隔。 10、确认备案信息,点击“下一步,上传备案材料” 11、建议选择“通过微信小程序采集图片”,此步骤会通过手机进行网站负责人的活体验证,免去传统备案方式的邮寄幕布拍照过程,缩短备案所需时长,方便快捷 12、扫描二维码,进入微信小程序,以下操作均由网站负责人进行,务必使用网站负责人的手机和微信号进行操作 13、弹出如下界面 14、选择授权 15、上传单位负责人(法人)的身份证照片、营业执照的照片(要用高清照片拍摄,否则会提示翻拍导致识别失败),请在识别文字后确认单位名称文字显示是否准确,单位名称中带有标点符号,请注意输入格式 16、网站负责人进行活体验证,需要手机开启摄像头,进行点头,摇头等操作。注意,需要用白色背景拍摄 17、完成图片采集完成后会自动生成 18 位验证码,需将验证码填报至下图指定位置后,点击“确定”按钮,系统会自动将图片对应到相应位置 18、检查图片并提交审核,天翼云备案专员将会尽快审核您的信息是否符合备案要求。 审核符合要求的,天翼云会尽快代您将备案信息提交至管局进行审核;提交管局后,请主体和网站负责人收到验证短信后(发信号码12381),在24 小时内按照短信指引完成,否则会被管局退单;反之,审核拒绝,退回备案信息给备案发起人进行修改。
        来自:
        帮助文档
        ICP备案
        新手引导
        备案APP操作手册
      • 查询域名的IP列表,区域,运营商
        接口描述:调用本接口查询域名的IP地址,及ip对应的区域,运营商信息 请求方式:post 请求路径:/auxiliarytools/queryvipsdetailbydomain 使用说明: 单个用户一分钟限制调用10000次,并发不超过100 请求参数说明(json): 参数 类型 是否必传 名称 描述 ::::: domain list 是 域名列表 最多支持5个 返回参数说明: 参数 类型 是否必传 名称及描述 :::: code int 是 状态码 message string 是 描述信息 result list 否 返回结果数组 result[].domain string 否 域名 result[].details list 否 域名对应的vip列表信息 result[].details[ ].vips string 否 vip信息,多个用逗号“,”分割 result[].details[ ].cityName string 否 城市名称 result[].details[ ].nodename string 否 节点名称 result[].details[ ].provinceName string 否 省份名 result[].details[ ].ispName string 否 运营商名称 示例: 请求路径: 请求参数: { "domain":[ "test.ctyun.cn" ] } 返回结果: { "code": 100000, "message": "success", "result": [ { "domain": "test.ctyun.cn", "details": [ { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "呼和浩特市", "nodename": "xxx1", "provinceName": "内蒙古自治区", "ispName": "中国电信" }, { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "通州区", "nodename": "xxx2", "provinceName": "北京市", "ispName": "中国电信" } ] } ] } 错误码请参考:参数code和message含义
        来自:
        帮助文档
        CDN加速
        API参考
        API
        辅助工具
        查询域名的IP列表,区域,运营商
      • 企业证件认证
        企业用户可以通过企业证件认证快速完成账号实名认证。 企业证件认证需要提供企业证照,以及法定代表人及被授权人身份证等相关信息,并进行人脸识别。一个企业信息最多可以认证5个天翼云账号(含已注销3个月内的账号)。 注意事项 法定代表人操作需要提供企业营业执照,以及法定代表人身份证信息。 被授权人操作需提供企业营业执照、法定代表人身份证信息、被授权人身份证信息、授权书,提交后需要等待人工审核。 若系统未查询到企业信息,提交后需要等待人工审核。 注意 企业认证需上传营业执照原件。企业证件不能提供原件时,可提供加盖企业公章复印件作为原件使用,公章需加盖在企业证件文字上方,不得加盖在复印件空白处。 操作步骤 1、登录天翼云官网,进入实名认证页面。 2、选择“企业认证”。 3、在企业认证方式选择页面,选择“企业证件认证”。 4、选择企业证件类型,上传企业证件并核对信息。 注意 请务必根据上传的企业证件选择企业证件类型,若类型不匹配,可能导致认证失败。 上传后,系统会自动识别企业信息,若发现企业信息错误,可手动修改。 证件类型可选择以下几种: 5、选择操作人身份,并提供相应证件信息。 (1)法定代表人 选择法定代表人操作时,需要填写法定代表人姓名、身份证号码。 (2)被授权人(非法定代表人) 选择被授权人操作时,需要填写法定代表人姓名及身份证号码、授权书、被授权人姓名及身份证号码。 6、操作人信息填写无误后,勾选“确保提供的信息真实有效”,并点击下方“提交”,系统会弹出“身份认证”二维码对话窗。 7、使用天翼云APP或手机微信扫描二维码(请扫描页面实时弹出的“身份认证”对话框中的二维码,若过期请刷新),按照提示完成验证。 8、人脸识别通过后,系统进行信息校验,根据校验情况反馈结果。 (1)法定代表人操作 校验通过,则完成企业实名认证,跳转实名认证页面,显示已完成企业实名认证。 校验不通过,如信息不一致,则需要修改信息,重新提交校验。 若系统未查询到企业信息,可继续提交,等待人工审核,审核时间为13个工作日。 (2)被授权人操作(非法定代表人) 校验通过,提交后需要等待人工审核,审核时间为13个工作日。 校验不通过,如信息不一致,则需要修改信息,重新提交校验。 若系统未查询到企业信息,可继续提交,等待人工审核,审核时间为13个工作日。 人工审核通过,实名认证页面显示已完成企业实名认证;人工审核不通过,可在实名认证页面查看原因,调整后重新进行企业证件认证。
        来自:
        帮助文档
        账号中心
        操作指南
        实名认证
        企业实名认证
        企业证件认证
      • 集群高可靠推荐配置
        设置资源配额 建议为所有工作负载配置资源请求/限制,资源请求影响Kubernetes调度,资源请求和限制则声明Pod的QoS。 若资源请求/限制没有配置或配置不合理,则可能导致某个节点上调度了过多Pod或调度了较多消耗资源过多的Pod,使得节点负载太高,甚至产生节点OOM等异常,无法对外提供服务。 为避免这类问题,建议为每个Pod均配置资源请求(Request)及限制(Limit)。Kubernetes在部署Pod时,会结合Pod的资源请求和限制找一个具有充足空闲资源的节点部署。 Kubernetes采用静态资源调度方式,对于节点剩余资源的计算方式如下: 节点剩余资源节点总资源已经分配出去的资源 节点剩余资源并不是实际可使用的资源,若手动运行一个很耗资源的程序,Kubernetes并不能感知到。 对于没有声明resources的Pod,当该Pod被调度到某个节点后,Kubernetes并不会在对应节点上扣掉该Pod使用的资源,这可能导致节点上调度太多Pod,所以建议为所有Pod配置resources。 应用多可用区部署 建议在多个不同可用区的节点上运行Pod,避免应用受到单可用区故障影响。 订购集群时,部署模式选择多可用区部署: 部署应用时,可为Pod设置反亲和性规则,实现跨多个可用区多个节点调度Pod,详情请参见应用高可用部署。 设置容器健康检查 Pod内容器若异常退出,Kubernetes会自动重启容器,能避免部分Pod容器异常导致的服务中断。但Pod处于Running状态并不代表Pod能正常提供服务,例如Pod内进程可能访问RDB实例失败且没退出,此时Pod状态依然是Running。建议为Pod配置存活探针(Liveness Probe),探测Pod是否存活。如果存活探针失败超过阈值,Kubernetes会重启Pod。 就绪探针(Readiness Probe)用于探测Pod是否可以正常对外提供服务。应用一般在启动过程中需要做一些初始化动作才能对外提供服务,为Pod添加过就绪探针后,当就绪探针检测成功时该Pod才会加入Service。当Pod的就绪探针失败时,Pod会从对应Service移除,避免Service流量继续转到异常Pod。 启动探针(Startup Probe)用于探测应用容器是否启动成功。若配置了启动探针,启动探针成功后,Kubernetes才会进行存活探针和就绪探针检查。建议对于启动慢的容器配置启动探针,避免这类Pod在启动运行之前因存活探针失败就被终止。 工作负载配置探针的YAML示例如下: apiVersion: v1 kind: Pod metadata: labels: app: probedemo name: probedemo spec: containers: name: probedemo image: nginx:alpine args: /server livenessProbe: httpGet: path: /healthz port: 80 initialDelaySeconds: 10 periodSeconds: 10 readinessProbe: exec: command: cat /tmp/healthy initialDelaySeconds: 10 periodSeconds: 10 startupProbe: httpGet: path: /healthz port: 80 failureThreshold: 3 periodSeconds: 10
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        容灾
        集群高可靠推荐配置
      • 性能测试概述
        本文主要介绍关系数据库PostgreSQL版的性能概述及指标说明。 性能概述 天翼云关系数据库PostgreSQL版是一款基于云计算平台的在线关系型数据库服务,完全兼容PostgreSQL 12、13、14、15、16版本,提供单机、主备、一主两备、只读四种实例类型,提供备份、恢复、扩容、监控等数据库服务。 具有即开即用、稳定可靠、安全运行、弹性伸缩等特点,您仅需要简单的几步配置,就可在分钟级获得可用的生产数据库。天翼云数据库专家结合中国电信生产业务实践针对数据库内核及参数不断优化,不断提升服务质量,保证产品的高稳定、高可靠和高可用性。 指标说明 实例性能测试的指标包括: 每秒执行事务数TPS(Transactions Per Second) 数据库每秒执行的事务数,以COMMIT成功次数为准。 SysBench标准OLTP读写混合场景中一个事务包含18个读写SQL。 SysBench标准OLTP只读场景中一个事务包含14个读SQL(10条主键点查询、4条范围查询)。 SysBench标准OLTP只写场景中一个事务包含4个写SQL(2条UPDATE、1条DETELE、1条INSERT)。 每秒执行请求数QPS(Queries Per Second) 数据库每秒执行的SQL数,包含INSERT、SELECT、UPDATE、DETELE、COMMIT等。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        性能白皮书
        性能测试概述
      • Web页面访问类
        本章节主要介绍操作类问题中有关 Web页面访问的问题。 如何修改开源组件Web页面会话超时时间? 合理设置Web页面超时时间,可以避免由于Web页面长时间暴露造成的信息泄露。 确定集群是否支持调整会话时长 −MRS 3.x之前版本集群:在集群详情页面,选择“组件管理 > meta服务配置”,切换“基础配置”为“全部配置”,搜索配置项“http.server.session.timeout.secs”,如果有该配置项请参考如下步骤修改,如果没有该配置项则版本不支持动态调整会话时长。 −MRS 3.x及之后版本集群:登录FusionInsight Manager,选择“集群 > 服务 > meta”,单击“配置”,选择“全部配置”。搜索配置项“http.server.session.timeout.secs”,如果有该配置项请参考如下步骤修改,如果没有该配置项则版本不支持动态调整会话时长。 所有超时时长的值请设置为统一值,避免时长设置不一致导致的页面实际生效的超时时长和设置值的冲突。 修改Manager页面及认证中心的超时时长 −MRS 3.x之前版本集群: 1.分别登录集群所有Master节点,在所有Master节点中执行2.ii2.iv的修改。 2.修改“/opt/Bigdata/apachetomcat7.0.78/webapps/cas/WEBINF/web.xml”中的“20”,其中20为会话超时时间请根据需要修改,单位为分钟,超时时间最长不要超过480分钟。 3.修改“/opt/Bigdata/apachetomcat7.0.78/webapps/web/WEBINF/web.xml”中的“20”其中20为会话超时时间请根据需要修改,单位为分钟,超时时间最长不要超过480分钟。 4.修改“/opt/Bigdata/apachetomcat7.0.78/webapps/cas/WEBINF/springconfiguration/ticketExpirationPolicies.xml”中的“p:maxTimeToLiveInSeconds" {tgt.maxTimeToLiveInSeconds:1200}"”和“p:timeToKillInSeconds" {tgt.timeToKillInSeconds:1200}"”,其中1200为认证中心的有效时长请根据需要修改,单位为秒,有效时长不要超过28800秒。 5.在主管理节点重启Tomcat节点。 a.在主master节点上用omm用户执行 netstat anp grep 28443 grep LISTEN awk '{print $7}' 查询Tomcat的进程号。 b.执行 kill 9 {pid} ,其中{pid}为2.v.a中获得的Tomcat进程号。 c. 等待进程自动重启。可以执行netstat anp grep 28443 grep LISTEN查看进程是否重启成功,如果可以查到进程说明已经重启成功,如果未查到请稍后再次查询。 −MRS 3.x及之后版本集群: 1.分别登录集群所有Master节点,在所有Master节点中执行2.ii2.iii的修改。 2.修改“/opt/Bigdata/omserverxxx/apachetomcatxxx/webapps/web/WEBINF/web.xml”中的“20”,其中20为会话超时时间请根据需要修改,单位为分钟,超时时间最长不要超过480分钟。 3.修改“/opt/Bigdata/omserverxxx/apachetomcat8.5.63/webapps/cas/WEBINF/classes/config/application.properties”文件,在文件中新增配置“ticket.tgt.timeToKillInSeconds28800”,其中28800为认证中心的有效时长请根据需要修改,单位为秒,有效时长不要超过28800秒。 4.在主管理节点重启Tomcat节点。 a.在主master节点上用omm用户执行 netstat anp grep 28443 grep LISTEN awk '{print $7}' 查询Tomcat的进程号。 b.执行 kill 9 {pid} ,其中{pid}为2.iv.a中获得的Tomcat进程号。 c.等待进程自动重启。可以执行netstat anp grep 28443 grep LISTEN查看进程是否重启成功,如果可以查到进程说明已经重启成功,如果未查到请稍后再次查询。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        Web页面访问类
      • 导出API
        概述 网关支持将API分组下的API按照OAS2.0和OAS3.0的格式导出,方便用户实现跨账号,跨地域间甚至跨平台的数据迁移。 OpenAPI 规范(OAS),是定义一个标准的、与具体编程语言无关的RESTful API的规范。 导出标准OAS格式的API定义 网关目前支持两种API导出方式 通过分组导出API定义 1. 进入 API 托管 >分组管理 菜单页。 2. 点击 导出API定义 按钮 ,在弹出框中指定导出的数据格式,环境 以及是否需要 导出API网关拓展定义 。 3. 点击导出按钮后浏览器会下载API定义压缩包. 直接批量导出API定义 1. 进入 API 托管 >API管理 菜单页。 2. 批量勾选API后在批量操作 下拉框中点击导出API定义 按钮 ,在弹出框中指定导出的数据格式,环境 以及是否需要 导出API网关拓展定义 。 3. 点击导出按钮后浏览器会下载API定义压缩包. 注意 批量导出API定义时仅支持导出同一个分组下的API API扩展定义字段 如果在导出OAS规范的定义中选择了导出API网关扩展字段,在导出的API定义文件中会添加网关的扩展字段。扩展属性被设计为总是以 "x" 为前缀的模式字段,此字段的值可以是 null、原始类型、数组或对象。可以包含任意有效的 JSON 格式的值。 扩展字段 OAS中位置 说明 类型 xctyunapigatewayapiname Operation API名称 String xctyunapigatewayisantireplay Operation 是否设置防重放攻击 Boolean xctyunapigatewaybackend Operation 后端服务定义 Object xctyunapigatewaycommonparameters Operation 常量参数定义 Object xctyunapigatewaysystemparameters Operation 系统参数定义 Object xctyunapigatewayrequestargumentmode Operation 入参请求模式 String xctyunapigatewayresponsemessages Responses 错误码错误信息 String xctyunapigatewayparameterdemo Parameter 参数定义示例值 String xctyunapigatewaybackendlocation Parameter 后端服务参数映射位置 String xctyunapigatewaybackendname Parameter 后端服务参数映射名称 String xctyunapigatewaysuccessdemo Operation 返回结果示例 String xctyunapigatewayfaileddemo Operation 失败结果示例 String xctyunapigatewayrequestbodyschema Operation 请求body引用的模型名 String xctyunapigatewayrequestbodydescription Operation 请求body内容描述 String 说明 1. 导出OAS2格式的定义时,会导出分组的base path; 2. 每次可以导出的API数量限制为50个API; 3. 分组模型管理里中定义的模型定义如果无法解析,导出的内容中将不包含模型定义; 4. 以API为单位导出时,所有勾选的API会导出到一个文件中; 5. 未勾选导出API网关扩展字段时,导出OAS文件中的OperationId为API定义的请求path和请求method的拼接后的字符串,如“export1ByGET”; 6. 勾选导出API网关扩展字段后,在API网关定义API以外的内容,如绑定的插件、授权的APP、分组的域名、后端服务在各环境上的定义等,均不会被导出。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        API托管
        分组管理
        导出API
      • 1
      • ...
      • 29
      • 30
      • 31
      • 32
      • 33
      • ...
      • 417
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      轻量型云主机

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      科研助手

      一站式智算服务平台

      人脸实名认证

      人脸属性识别

      推荐文档

      免费注册

      产品优势

      文档下载

      登录

      基本概念

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号