活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云解析_相关内容
      • HTTP2.0配置
        本文介绍HTTP2.0的定义和配置方法。 功能介绍 HTTP/2也叫HTTP2.0,比HTTP1.1新增多路复用、压缩HTTP头、划分请求优先级和服务端推送等功能,解决在HTTP1.1中存在的一些问题,优化请求性能,同时可兼容HTTP1.1的语义。 HTTP2.0的优势包括: 1. 采用二进制格式传输数据,而非 HTTP1.1 的文本格式,二进制格式在协议的解析和优化扩展上带来更多的优势。 2. 对消息头采用 HPACK 进行压缩传输,能够节省消息头占用的网络的流量,而 HTTP1.1 每次请求,都会携带大量冗余头信息,浪费很多带宽资源,头压缩能够很好的解决该问题。 3. 多路复用,即多个请求都是通过一个 TCP 连接并发完成,HTTP1.1 虽然通过pipeline也能并发请求,但是多个请求之间的响应会被阻塞,所以 pipeline 至今也没有被普及应用,而 HTTP2.0做到真正的并发请求,同时,流还支持优先级和流量控制。 4. 服务端主动推送,服务端能够更快的把资源推送给客户端,例如服务端可以主动把 JS 和 CSS 文件推送给客户端,而不需要客户端解析 HTML 再发送这些请求。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【请求协议】。 5. 在【请求协议】模块,勾选【HTTPS】。 6. 单击右侧【HTTPS配置】。 7. 选择域名对应的证书。如果已经在【证书管理】上传证书,可直接选择对应域名证书。如果还未上传证书,可单击【点击上传】,添加自有证书。添加完毕后,再选择对应证书。 8. 在【HTTP2.0】模块,开启功能。 9. 单击【保存】,完成配置。 参数名 说明 HTTP2.0 默认关闭,即不开启HTTP2.0功能。开启HTTP2.0功能之前,需要先完成HTTPS证书配置。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        HTTPS配置
        HTTP2.0配置
      • Windows事件日志采集
        本文主要介绍如何采集Windows事件日志。 您可以通过天翼云云日志服务提供的lmtagent采集器采集Windows事件日志。本文介绍如何通过日志服务控制台采集Windows事件日志。 前提条件 已经在目标Windows云主机上安装日志采集器lmtagent。 目标云主机持续产生日志。 创建步骤 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“日志接入”,进入接入管理页面。 3. 在“数据导入”模块中,点击“Windows事件日志”。 4. 选择目标日志项目和日志单元,单击下一步。 5. 在选择主机组页面,选择目标主机组。 6. 在采集配置页面,设置事件采集规则,可以同时配置多个事件采集规则,每个采集规则的字段说明如下: 字段 说明 事件通道 指采集应用程序通道中的事件日志,包括Application、Security、Setup、System。可在Windows系统中查看通道名称信息。 采集起始点 支持设置自定义时间与全量采集。 事件ID过滤 支持正向过滤单个值(例:20)或范围(例:020),也支持反向过滤单个值(例:20)。多个过滤项之间可由逗号隔开,例:1200,100表示采集1200范围内除了100以外的事件日志 事件来源过滤 根据事件来源过滤日志。您可以使用半角逗号(,)指定多个事件来源名称,例如设置为App1, App2表示只采集来源名字为App1和App2的事件日志,其他事件日志都会被忽略。事件名称需为全称,默认为空,表示采集所有来源的事件。 事件等级 根据Windows事件等级过滤采集。仅支持Windows Vista及以上的操作系统。 7. 创建索引。默认开启全文索引,您也可以根据需要手动创建字段索引用于字段查询。 8. 点击完成,即可完成导入任务创建。等待1分钟左右,在查询日志界面能查询到日志,则说明接入成功。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        Windows事件日志采集
      • 管理Logstash实例
        本文主要介绍天翼云云搜索服务Logstash实例的基础信息查看方式。 查看Logstash实例信息 在Logstash实例的列表页和基本信息页,可以获取实例的状态、版本、节点等信息。 实例列表介绍 实例列表会展示当前账号下所有具备访问权限的各个状态的实例,可以点击实例名称查看详情。 参数 描述 实例名称 加装时设置的实例名称,单击实例名称可以进入实例详情页。 实例状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在开通部署中的实例 处理中:处于重启等正常操作下的实例,该状态下部分功能不可使用 已冻结:包周期已到期的实例,可续费或退订销毁 释放中:实例正在进行清理和退订流程,结束后即已销毁。 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用状态 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 管道数量 实例内目前存在的管道数量 运行中的管道数量 实例中目前处于运行中的管道数量 节点数量 当前实例部署的云主机节点数 版本 Logstash部署的版本号 计费模式 包年包月 关联实例 加装当前Logstash实例的Elasticsearch实例或OpenSearch实例 到期时间 包年包月实例使用,表示包周期可使用的截止时间,Logstash随关联实例时间到期 创建时间 实例的加装时间 操作 展示实例可执行的操作入口,包含重启、续订等针对实例的操作,当前实例无法操作某项时,按钮将置灰。已经销毁的实例可以点击删除按钮,该实例不会在列表中展示。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Logstash实例的加装与使用
        管理Logstash实例
      • 采集常见错误类型
        本文主要介绍采集常见错误类型。 以下为常见的错误类型以及对应的解决方法说明,可供参考。 LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为.。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content...:日志无法匹配配置中的正则表达式 match result count less...:匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • 日志接入
        本文主要介绍云日志服务如何采集日志。 以下将以弹性云主机为例完成日志采集接入。 前提条件 已创建日志项目与日志单元,详情参考创建日志项目与日志单元。 已开通可用的天翼云linux弹性云主机,且持续产生日志至特定的日志文件中。 操作步骤 1. 登录云日志服务控制台。 2. 左侧点击【日志接入】菜单,进入日志接入页面。选择云主机文本日志。 3. 选择日志单元。 1. 点击“所属日志项目”后的目标框,在下拉列表中选择具体的日志项目,若没有所需的日志项目,点击“所属日志项目”目标框后的“新建”,在弹出的创建日志项目页面创建新的日志项目。 2. 点击“所属日志单元”后的目标框,在下拉列表中选择具体的日志单元,若没有所需的日志单元,点击“所属日志单元”目标框后的“新建”,在弹出的创建日志单元页面创建新的日志单元。 4. 选择主机组。在主机组列表中选择一个或多个需要采集日志的主机组。 若没有所需的主机组,单击列表上方“新建主机组”,可参考主机组管理中的创建主机组方法。 5. 配置采集规则。请按如下说明配置参数。参数配置完成后,点击下一步。 1. 采集规则名称:输入采集规则的名称,在所属的日志项目内不允许重复。 2. 采集路径:根据日志在服务器上的位置,设置日志目录和文件名称。 如/var/log/nginx/access.log。 3. 设置采集黑名单:默认关闭。 4. 采集策略:选择“全量”。 5. 切割模式:针对原始日志执行分词的模式,本案例选择“单行全文”,其它切割模式请查看日志结构化解析。 6. 最大目录深度:保持默认为“5”。 6. 索引配置。(可选项) 本案例中,索引配置保持默认即可,您可直接点击【下一步】。更多详情请查看索引配置。 7. 点击下一步后,接入成功,可以点击【返回接入配置列表】查看日志接入,也可单击【查询日志】查看该日志单元下的日志数据。
        来自:
        帮助文档
        云日志服务
        快速入门
        日志接入
      • Nginx分词
        本文主要介绍如何使用Nginx分词模板。 Nginx 是一种常见的反向代理服务,实际业务中承载着大量服务请求。在运行过程中,服务会产生大量访问日志,通常导致用户面临日志分散、数据量庞大等问题。因此,如何高效地收集和管理这些日志数据,对业务的运维和运营具有重要意义。天翼云云日志服务支持Nginx日志提取采集。 Nginx 日志格式 Nginx 日志的格式可通过 logformat 命令进行定义,如下列格式: plaintext logformat main '$remoteaddr $remoteuser [$timelocal] ' '"$request" $status $bodybytessent ' '"$httpreferer" "$httpuseragent"'; 其中各字段含义为: 字段名 含义 remoteaddr 客户端 的IP 地址 remoteuser 客户端的名称 timelocal 服务器的本地时间 request HTTP 请求方法及 url 地址 status HTTP 请求的状态码 bodybytessent 发送给客户端的字节数 httpreferer 访问来源的页面链接地址 httpuseragent 客户端浏览器信息 Nginx 配置方式 在日志接入流程中创建采集配置步骤中,按如下参数说明配置切割模式: 在Nginx日志配置中,您需要填写 Nginx 配置文件(通常为 /etc/nginx/nginx.conf 或 /usr/local/nginx/conf/nginx.conf)中日志模板,通常以 logformat 开头,如以下所示: plaintext logformat main '$remoteaddr $remoteuser [$timelocal] ' '"$request" $status $bodybytessent ' '"$httpreferer" "$httpuseragent"'; LTS将根据 Nginx日志配置中的日志模板,自动生成日志提取正则表达式,如下所示 在正则表达式下方的样例日志中填写你需要采集的实际 Nginx 日志,并点击“验证”按钮,用来验证上述提取模式配置是否正确,如下所示 验证成功后,可在抽取结果中为每个字段设定名称或直接使用默认值:
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        日志结构化解析
        Nginx分词
      • 调用链搜索span信息
        查询条件 具体含义 必填/选填 自定义参数 已配置url监控项的拦截header指定key值、拦截url参数指定key值、拦截cookie指定key值参数后,在这里可以设置keyvalue进行搜索。 选填 全局Trace ID 调用链的全局TraceID,填写该搜索条件后,其他搜索条件全部失效,只根据该全局TraceID搜索。 选填 应用码 已配置url监控项的业务code采集长度限制、解析业务code的key、业务code的正确值参数后,会采集相应的应用码,这里可以根据应用码进行搜索。 选填
        来自:
        帮助文档
        应用性能管理
        最佳实践
        调用链搜索span信息
      • 如何删除WAF接入域名
        本文介绍如何删除WAF接入的域名。 域名还未完全接入WAF 如果要删除的防护域名没有完全接入WAF,可直接在域名列表删除防护域名。 域名已接入WAF进行防护 域名接入防护后,用户请求链路如下。如果要删除的防护域名已经接入WAF,请先到DNS服务商处,将该域名重新解析,指向源站服务器地址,然后再删除WAF上接入的域名,从而保证用户业务不中断,否则,如果直接删除WAF上接入的域名,将会导致用户业务不可用。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        常见问题
        管理类
        如何删除WAF接入域名
      • 应用场景
        本节介绍翼甲卫士的应用场景。 医疗行业,入侵防护+医患资料保护 实现病毒防护和入侵防御,保障医院业务稳定。 有效防止医患资料通过邮件、应用、网站等形式外发。 政务机关,病毒入侵防御+政务内网安全访问 保障政企单位办公环境不受到病毒入侵,保证数据安全。 搭建AI云电脑与政务内网的安全访问通道,保障内网办公。 教育行业,行为管控+实现绿色上网 实现病毒防护和入侵防御,保障教学环境安全。 对课室和电子教室的AI云电脑进行上网管控,限制AI云电脑访问非教育平台的网站。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼甲卫士
        应用场景
      • 自定义日志时间
        当日志接入云日志服务(LTS)时,您可以通过开启“自定义日志时间”开关,将日志中的时间字段设置为接入配置的时间。 开启自定义日志时间 1. 在左侧导航栏中选择“日志管理”。 2. 结构化日志以日志流为单位,在“日志管理”页面选择目标日志组和日志流。 3. 单击日志流名称进入日志流详情页面,单击右上角,在弹出页面中,选择“云端结构化解析”,进入日志结构化配置页面,选择对应的日志提取方法进行配置。 4. 配置完成后,开启自定义日志时间开关,配置如下参数。 表 1 参数配置表 参数 说明 示例 字段key 已提取字段的名称。单击下拉框选择已提取的字段,该字段为string或long类型。 test 字段value 已提取的字段value,选择字段key后,将自动填充。配置的字段value必须是当前时间前后24小时内的时间。 20220719 12:12:00 时间格式 请参考常见日志时间格式。 yyyyMMdd HH:mm:ss 操作 单击“校验”,提示“时间格式和字段value匹配成功”则表示校验成功。 说明 切换自定义日志时间开关时,可能会导致日志搜索界面在切换时间点附近出现时间偏差,请勿频繁切换自定义日志时间开关。 常见日志时间格式 支持的常见日志时间格式如下表所示。 说明 默认情况下,日志服务中的日志时间戳精确到秒,所以时间格式只需配置到秒,无需配置毫秒、微秒等信息。 表 2 时间格式 时间格式 说明 示例 EEE 星期的缩写。 Fri EEEE 星期的全称。 Friday MMM 月份的缩写。 Jan MMMM 月份的全称。 January dd 每月第几天,十进制,范围为01~31。 07, 31 HH 小时,24小时制。 22 hh 小时,12小时制。 11 MM 月份,十进制,范围为01~12。 08 mm 分钟,十进制,范围为00~59。 59 a AM或PM。 AM、PM hh:mm:ss a 12小时制的时间组合。 11:59:59 AM HH:mm 小时和分钟组合。 23:59 ss 秒数,十进制,范围为00~59。 59 yy 年份,十进制,不带世纪,范围为00~99。 04、98 yyyy 年份,十进制。 2004、1998 d 每月第几天,十进制,范围为1~31。如果是个位数字,前面需要加空格。 7、31 DDD 一年中的天数,十进制,范围为001~366。 365 u 星期几,十进制,范围为1~7,1表示周一。 2 w 每年的第几周,星期天是一周的开始,范围为00~53。 23 w 每年的第几周,星期一是一周的开始,范围为01~53。如果一月份刚开始的一周>4天,则认为是第1周,否则认为下一个星期是第1周。 24 U 星期几,十进制,范围为0~6,0代表周日。 5 EEE MMM dd HH:mm:ss yyyy 标准的日期和时间。 Tue Nov 20 14:12:58 2020 EEE MMM dd yyyy 标准的日期,不带时间。 Tue Nov 20 2020 HH:mm:ss 标准的时间,不带日期。 11:59:59 %s Unix时间戳。 147618725
        来自:
        帮助文档
        云日志服务
        用户指南
        日志搜索与分析
        云端结构化解析
        自定义日志时间
      • 云通信产品隐私政策声明
        “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 云通信产品隐私政策声明 版本生效日期:20220223 “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 如您为未满18周岁的未成年人,请在法定监护人陪同下阅读本协议,并特别注意未成年人使用条款。 定义: 本隐私政策中涉及的个人信息,是指以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。 本隐私政策中涉及的个人敏感信息,主要是涉及在自助订购时的交易信息及财产信息。此类信息经过组合、关联和分析后可能产生高敏感程度的信息,遭到未经授权的查看或未经授权的变更,会对个人信息安全与财产安全造成严重危害。 本政策将帮助您了解以下内容: 一、隐私政策适用范围 二、我们如何收集和使用您的个人信息 三、信息使用 四、信息存储 五、信息共享、转移、公开披露 六、信息保护 七、信息管理 八、我们如何保护未成年人的信息 九、隐私政策的修订 十、联系方式 一、隐私政策的适用范围 本隐私政策适用于我们为您提供的短信服务。需要特别说明的是,本协议不适用于第三方向您提供的服务或产品。 二、个人信息的收集 短信业务功能的运行需要您向我们提供或允许我们收集以下信息,我们仅会出于本政策所述的以下目的,收集和使用您的个人信息,收集过程中我们将遵循合法、正当、必要、最小化的原则。 我们的角色:我们是您的数据的控制者。我们知道您关心如何使用和分享您的数据,同时我们感谢您的信任,我们将谨慎且理智地做到这一点。 2.1短信订购 为了能让您使用短信订购功能,我们将在你进行交易时记录您的交易信息(包括订单号、资源ID、订单创建时间、支付总金额、支付金额、支付状态、支付时间)及财产信息(包括优惠券ID)。如果不提供前述信息,可能无法使用本产品。 2.2操作日志 为了能让您使用操作日志功能,我们将在你进行短信操作时记录您的操作任务、资源名称、资源ID、操作时间、操作用户、地域。如果不提供前述信息,可能无法使用本产品。 2.3随着短信业务功能进一步丰富,后续新增功能如涉及获取用户授权权限时,我们将明确提示并在您授权同意后才会获取该功能所需权限。如未取得您的授权,我们将不会收集和使用相关信息。 2.4您充分知晓,以下情形中,我们收集、使用个人信息无需征得您的授权同意: • 为订立、履行个人作为一方当事人的合同所必需; • 为履行法定职责或者法定义务所必需; • 为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需; • 为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息; • 依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息; • 法律、行政法规规定的其他情形。 三、信息使用 3.1 为更好地向您提供服务,在严格按照法律法规遵循必要性原则基础上,我们将收集的信息用于以下目的和用途: (1)为您提供服务,包括但不限于应您的要求进行账号管理、变更;以及提供技术支持和客户服务; (2)开展内部审计、研究和分析,改善本平台和产品服务; (3)遵从和执行适用的法律法规要求,相关的行业标准或我们的政策; (4)其他为向您提供服务而需要使用您用户信息的情形。 四、信息存储 4.1 短信产品收集有关您的信息将保存在中华人民共和国境内(为本隐私政策之目的,不含香港、澳门、台湾地区)的服务器上。 4.2 对于所收集的信息,我们将在法律规定的最短期限内保存。在您的信息已经不再需要用于实现本隐私政策规定的目的和用途,也无需根据相关法律法规的规定保存时,我们将采取合理步骤以安全的方式销毁个人信息或使进行匿名化处理使其不可识别并不可被再次编辑、修改、使用。 4.3 当您自主删除个人信息或注销账户,我们将按照法律、法规规定的最短期限保留您的现有个人信息,在法律法规要求的最短保存期限内,我们将不再对您的个人信息进行商业化使用。当您的个人信息超出上述保存期限,我们将会对其进行删除或者匿名化处理。 五、信息共享、转移、公开披露 5.1 共享 未经您事先同意,我们不会与任何第三方共享您的信息,但以下情形除外: (1)在获取明确同意的情况下共享:经您事先明确同意,我们会与其他方共享您的信息; (2)根据相关法律法规的规定,或者行政、司法机关的要求,向行政以及司法机关披露您的信息; (3)对我们与之共享您的信息的组织和个人,我们会与其签署严格的保密协定,要求他们按照我们的说明、本隐私政策以及其他任何相关的保密和安全措施来处理您的信息。 5.2 转移 我们不会将您的个人信息转移给任何公司、组织和个人,但以下情况除外: (1)在获取明确同意的情况下转让:获得您的明确同意后,我们会向其他方转移您的个人信息; (2)在涉及合并、收购或破产清算时,如涉及到个人信息转让,我们会要求新的持有您的信息的公司、组织继续受此隐私政策的约束,否则我们将要求该公司、组织重新向您征求授权同意。 5.3 公开披露 我们仅会在以下情况下,公开披露您的个人信息: (1)获得您明确同意后; (2)基于法律的披露:在法律、法律程序、诉讼或政府主管部门强制性要求的情况下,我们可能会公开披露您的个人信息。 六、信息保护 6.1 我们对用户信息的保护 我们非常重视您的信息安全。我们采用适当的物理、管理和技术保障措施来防止您的信息遭到未经授权访问、披露、使用、修改、损坏或丢失。 例如,我们会使用混合加密技术提高信息的保密性;我们会使用受信赖的保护机制防止您的信息遭到恶意攻击;我们会部署访问控制机制,确保只有授权人员才可访问用户信息;我们会举办安全和培训,加强员工对于保护用户信息重要性的认识。 但请您理解,由于技术的限制以及可能存在的各种恶意手段,在互联网环境下,即便竭尽所能加强安全措施,也不可能始终保证信息百分之百的安全。若不幸发生信息泄露等安全事件,我们会立即启动应急预案,阻止事件扩大,及时采取补救措施,并推送通知、公告等多种形式告知您。 6.2 用户对信息的保管 尽管有前述安全措施,但请您妥善保管您的账户、密码及其他信息,避免您的个人信息泄露。如果您发现您的账号、密码或其他信息被他人非法使用或有使 用异常的情况的,应及时通知我们,我们将采取相应安全保障措施。 七、 信息管理 由于云通信产品不具备对用户信息进行管理功能,您需要使用天翼云官网对您的个人信息进行管理。 7.1 查询 您可以在天翼云APP我的账户管理模块查询、管理您向我们提交的基本信息,或者登录天翼云门户官网( 7.2 变更或者修正错误信息 您可以登录天翼云APP,在我的账户管理模块修改您的个人资料,或者登录天翼云门户官网的管理中心进行修改;如果您要变更实名认证信息,您可以通过在天翼云门户提交工单、联系业务受理渠道等方式要求我们对相关信息予以更正。验证身份和权限后,我们将会在5个工作日内为您完成实名认证信息变更。 7.3 删除 若您发现我们未按照法律法规的规定或者本隐私政策约定收集和使用您的信息,您可以通过工单、邮件等方式联系我们对相关信息(包含副本、数据备份)进行删除。验证身份和权限后,我们将会在5个工作日内为您完成信息删除。 7.4 改变或撤回您的授权信息 对于您已经授权同意我们收集和使用的终端设备权限信息,您可以通过在终端设备进行设置、改变或撤回您的授权同意;您改变或撤回授权同意后,可能无法使用相应的功能服务。 7.5 注销账户 您可以登录天翼云门户,在天翼云门户官网个人中心基本信息页面进行账户注销,或天翼云APP管理工具账户注销中提请工单要求注销账户。 在您仔细阅读《天翼云账号注销条款》( 7.6 个人信息副本获取权 如您需要您的个人信息的副本,您可以通过本隐私政策文末提供的方式联系我们,在核实您的身份后,我们将向您提供您在我们的服务中的个人信息副本(包括基本资料、身份信息),但法律法规另有规定的或本政策另有约定的除外。 7.7为保障安全,您申请查询、变更、删除您的信息或注销账户时,可能需要提供书面请求,或以其他方式证明您的身份。我们可能会先要求您验证自己的身份,然后再处理您的请求。 7.8 如果我们停止运营某一产品或者服务,我们将及时停止收集和使用该产品或服务所需的您的信息,同时将停止运营的通知通过天翼云门户进行发布,同时以短信、电话、邮件、站内信、APP消息推送等渠道告知您。对于该产品或服务运营期间已经收集的您的个人信息,我们将依法保存,并在保存期限届满后进行匿名化处理或删除。 7.9 如果我们发生合并、分立、收购、重组等变更,会将变更信息通过天翼云门户进行发布。变更后我们会继续履行信息保护的责任和义务,如果信息使用目的有所变化,我们将明确提示并在您授权同意后才会获取权限,如未取得您的授权,我们将不会收集和使用相关信息。 7.10 尽管有上述约定,但按照法律法规要求,在以下情形下,我们可能无法响应您的请求: (1)与国家安全、国防安全有关的; (2)与公共安全、公共卫生、重大公共利益相关的; (3)与犯罪侦查、起诉和审判等有关的; (4)有充分证据表明您存在主观恶意或滥用权利的; (5)响应您的请求将导致其他个人、组织的合法权益受到严重损害的。 7.11如您需要将您的个人信息转移至您指定的其他个人信息处理者,您可以随时联系我们。在符合相关法律规定且技术可行的前提下的,我们将根据您的要求向您提供转移的途径。 八、我们如何保护未成年人的信息 8.1 我们期望父母或监护人指导未成年人使用我们的服务。我们将根据国家相关法律法规的规定保护未成年人的信息的保密性及安全性。 8.2 如您为未成年人,建议请您的父母或监护人阅读本政策,并在征得您父母或监护人同意的前提下使用我们的服务或向我们提供您的信息。对于经父母或监护人同意而收集您的信息的情况,我们只会在受到法律允许、父母或监护人明确同意或者保护您的权益所必要的情况下使用或公开披露此信息。如您的监护人不同意您按照本政策使用我们的服务或向我们提供信息,请您立即终止使用我们的服务并及时通知我们,以便我们采取相应的措施。 8.3 如您为未成年人的父母或监护人,当您对您所监护的未成年人的信息处理存在疑问时,请通过上文中的联系方式联系我们。 九、隐私政策的修订 9.1 基于为您提供更好的服务的目的,并根据电信业务的发展或法律法规及监督政策变化的要求,我们可能会适时修订本隐私政策,对于本隐私政策的重大改动,我们会请您重新授权同意。 十、联系方式 10.1 如您对本隐私政策或您个人信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云门户端的在线客服、在线反馈留言、拨打我们的客服电话 4008109889 等多种方式与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn,与短信产品的个人信息保护负责人进一步沟通。 10.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        相关协议
        云通信产品隐私政策声明
      • 主机名管理
        您可以根据云主机的位置、用途、所有者等信息规划主机名,并使用主机名为云主机添加内网解析记录,便于直观的获取云主机的信息,更利于管理云主机。 例如,您在某区域的某个可用区部署了20台ECS,其中10台用于网站A,10台用于网站B,则可以采用以下方式规划主机名和内网域名: 网站A:weba01.region1.az1.com~weba10.region1.az1.com 网站B:webb01.region1.az1.com~webb10.region1.az1.com 完成上述规划后,可以帮助您快速定位云服务的位置和用途,便于日常管理和维护。 您可以参考快速入门章节完成云主机主机名管理的相关操作。
        来自:
        帮助文档
        内网DNS
        产品简介
        内网DNS的应用场景
        主机名管理
      • 介绍类
        日志审计(原生版)有哪些核心功能和能力? 支持各类厂商多源异构的数据统一采集,进行支持正则表达式、分隔符,KeyValue、JSON日志解析解析,分类,过滤归并等操作,进行规范化成统一的结构化数据。 支持全文检索,条件检索对所有原始日志内容进行即时在线查询,多条件嵌套逻辑查询,收敛事件范围和事件时候溯源审计。依托大数据底层存储,支持查询结果秒级响应。 支持用户交互式检索审计,并通过柱状图、饼图、折线图、面积图、堆积图、环状图、数值图、地图等形式的统计信息可视化展示,并可将统计结果保存为仪表板和报表。 支持多事件的序列关系,逻辑关系,字段条件逻辑判断等配置,进行实时流的审计分析,关联分析,产生异常审计告警,并实时通知用户处置。 支持对系统中预置报表模板选择生产的时间进行预览、生成报表。支持在报表中以柱状图、曲线图、饼状图方式统计安全报警情况;报表格式支持PDF、Word等。 日志审计(原生版)有哪些应用场景? 采用日志审计监测、记录和存储网络运行状态和安全事件等信息,实现对系统的全面监控和细致记录,配合多种审计策略,快速定位溯源,全面提升系统服务水平以及网络安全管理水平,满足网络安全法规及等级保护的相关要求。 针对中大型企业设备多,系统多,难以统一监管问题,采用日志审计将所有设备、用户行为日志统一监管,贯穿从边界到核心资产的全流程,扩展对关键数据等资产的保护。 通过对多个不同来源的日志数据进行关联和分析,揭示隐藏在数据背后的模式和趋势,帮助企业识别异常行为和潜在威胁。在当前复杂多变的网络环境中,日志关联分析已经成为了保障网络安全和信息安全的一项重要技术手段。
        来自:
        帮助文档
        日志审计(原生版)
        常见问题
        介绍类
      • 迁移服务器上的基础服务(集群版适用)
        本节主要介绍如何使用API迁移服务器上的基础服务。 此操作用来迁移HBlock服务器上的基础服务,包括:mdm(元数据管理服务)、ls(日志服务)、cs(协调服务)。 应用场景:基础服务所在的服务器出现损坏、宕机等时,为了不影响HBlock服务,可以迁移服务器上的基础服务。 说明 可以通过查询指定服务器查询基础服务的状态。一次只能迁移一个基础服务,如果有正在迁移的基础服务进程,必须等待迁移完成,才可以执行其他服务迁移操作。 注意 迁移ls服务的时候,要确保两个mdm服务和其他两个ls服务都是up状态,除了源服务器之外的所有的其他节点的ms服务(管理服务)正常,服务状态可以通过查询服务器获取。 迁移mdm服务的时候,要确保另一个mdm服务是up,除了源服务器之外的所有的其他节点的ps服务(协议解析服务)和ms服务(管理服务)正常,服务状态可以通过查询服务器获取。 迁移cs服务的时候,要确保其他两个cs服务都up,除了源服务器之外的所有的其他节点的ps服务(协议解析服务)和ms服务(管理服务)正常,服务状态可以通过查询服务器获取。 请求语法 plaintext PUT /rest/v1/system/server/serverId/migrate HTTP/1.1 Date: date ContentType: application/json; charsetutf8 ContentLength: length Host: ip:port Authorization: authorization { "destServerId": serverId, "service": service, "metaDir": path } 请求参数 参数 类型 说明 是否必须 serverId String 源HBlock服务器的ID。 是 destServerId String 目的服务器ID。 是 service String 需要迁移的基础服务。 取值: mdm:元数据管理服务。 ls:日志服务。 cs:协调服务。 是 metaDir String 迁移服务的数据目录,用于存储基础服务的相关数据信息。 说明 为了提升读写性能,建议各基础服务的数据目录、安装目录、存储数据的数据目录相互独立。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。默认目录为安装目录。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        迁移服务器上的基础服务(集群版适用)
      • 通用类
        如何为函数添加依赖包? 1. 进入函数详情页面,在“代码”页签,单击“依赖代码包”所在行的“添加依赖包”。 公共依赖包:此处的依赖包为函数平台提供,您可以直接添加使用。 私有依赖包:此处的依赖包为用户自行制作上传的依赖包。 2. 完成后单击“保存”,完成依赖包的添加。 如何通过域名访问专享版APIG中注册的接口? 以域名www.test.com为例 ,具体请参考如下步骤。 1. 登录API网关控制台,在左侧导航栏选择“专享版”,单击实例名称,进入“实例概览”页面,在“入口地址”区域查看“弹性IP地址”,获取APIG的访问地址(ip格式)。 2. 在DNS控制台,配置用户域名www.test.com解析到apig地址的ipv4规则。 3. 最后在函数服务配置该域名的解析配置,这样就能在函数中通过域名(www.test.com)访问专享版APIG中注册的接口了。 函数工作流的常见使用场景? 1. Web类应用:比如小程序、网页/App、聊天机器人、BFF等。 2. 事件驱动类应用:文件处理、图片处理、视频直播/转码、实时数据流处理、IoT规则/事件处理等。 3. AI类应用:三方服务集成、AI推理、车牌识别。 函数工作流是否支持修改运行时语言? 不支持。函数一旦创建完成,就不能修改运行时语言。 已创建的函数是否支持修改函数名称? 不支持,函数一旦创建完成,就不能修改函数名称。 如何获取上传的文件? 以Python语言为例,如果用户用os.getcwd()查看当前目录的话,会发现当前目录是/opt/function,但实际代码是传到/opt/function/code里的。 有2种方法可以获取到上传的文件: 1. 函数里使用cd命令切换路径到/opt/function/code 2. 使用全路径(相关目录为RUNTIMECODEROOT环境变量对应的值)
        来自:
        帮助文档
        函数工作流
        常见问题
        通用类
      • 集群版客户端常见错误码有哪些?
        本文介绍Redis集群版客户端常见错误码 50010001:路由队列堵塞。 50010002:添加路由队列异常。 50010003: 路由处理异常。 50010004:注册客户端读失败。 50010005:超过允许的最大客户端连接数。 50010006:注册目标路由读事件异常。 50010007:单个客户端连接请求数大于规定值。 50010008:协议异常,一般为客户端发送了不支持的命令或者断开连接。 50010009:不完整的报文。 50010010:读取redis超时。表示已经发送给redis,redis处理超时;检查请求报文是否过大,如果请求报文过大,建议拆小。 50010011:网络io异常。 50010012:目标服务器繁忙,稍后再试。 50010013:获取目标路由主机失败,检查redis机器是否io繁忙。 50010014:路由主机配置端口不合法。 50010015:连接目标主机失败。 50010016:目标主机网络繁忙。 50010017:路由发送给目标主机时网络错误。 50010018:读取解析客户端请求失败。 50010019:注册redis服务端返回失败。 50010020:redis read io exception。 50010021:接入机内部异常。 50010022:内存池不够。 50010023:处理客户端报文异常。 50010024:route 程序bug。 50010025:没有该分组权限。 50010026:实例密码错误。 50010027:集群版鉴权实例名错误。 50010028:客户端IP不在IP白名单内。 50010029: 用户时间失效。 50010030:解析报文失败。 50010031:鉴权信息不完整。 50010032:尚未通过鉴权,未获取到鉴权通过信息。 50010033:尚未通过鉴权,未获取到鉴权分组信息。 50010034:尚未选择分组,未获取到选择分组信息。 50010036:dborder越界。 50010037:获取接入机对应用户名失败。 50010038:订单服务冻结,获取接入机服务失败。 50010039:该分组不存在。 50010040:操作的集合个数不能超过10个。 50010041:每个集合的大小不能超过1000个。 50010042:接入机改造命令限制30k。 50010043:该账户禁止写数据。 50010044:读取redis返回报文串包。 50010047:订阅连接超时错误码。 50010048:接入机不支持的命令。 50010049:接入机read only错误。 50010050:redis内存满。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis使用
        集群版客户端常见错误码有哪些?
      • 管理类常见问题
        接入WAF对现有业务和服务器运行有影响吗? 接入WAF不需要中断现有业务,不会影响源站服务器的运行状态,即不需要对源站服务站进行任何操作(例如关机或重启)。 注意 以CNAME方式接入WAF时,您需要修改DNS解析使流量经过WAF进行转发。修改DNS解析可能会影响网站访问业务,建议您在业务量少时进行修改,详细操作请参见修改域名DNS。 域名接入时,WAF回源是否需要放行所有客户端IP? 根据您的业务情况,您可以只放行WAF回源IP段,也可以放行所有客户端IP。 对于Web业务,建议您只放行WAF回源IP,实现源站保护。详细操作请参见放行WAF回源IP段。 对于客户端IP,如果有白名单需要,建议您通过WAF白名单配置进行放行,不建议直接放行所有客户端IP。 说明 WAF采用CNAME的方式将原本去向网站的请求转向到WAF,从而实现对网站访问的安全防护,这些用户请求将在WAF进行安全检测和过滤后,发送回源站。此时由于网站接入WAF,访问网站的IP实际上变成了WAF的回源IP段,从网站的角度来看,访问其的来源IP变得更加集中,访问频率变得更高,服务器上的防火墙或安全软件很容易认为这些IP在发起攻击,从而将WAF回源IP段拉黑。如果WAF的回源IP段被拉黑,WAF的请求将无法得到源站的正常响应。因此,在网站接入WAF后,您应确保源站服务器已将WAF的全部回源IP放行(即加入白名单),否则可能会出现网站无法打开或打开极其缓慢等情况。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        常见问题
        管理类
        管理类常见问题
      • 创建同步任务
        参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步类型 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见 标签管理。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        创建同步任务
      • 静态网站托管
        可以在OBS上托管我的静态网站吗? OBS支持静态网站托管。用户可以通过OBS管理控制台将自己的桶配置成静态网站托管模式,当客户端通过桶的website接入点访问桶内的对象资源时,浏览器可以直接解析出这些网页资源,呈现给最终用户。 哪些类型的网站适合使用OBS进行静态网站托管? 静态网站通常仅包含静态网页,以及可能包含部分可在客户端运行的脚本,如JavaScript、Flash等。 如何获取桶的静态网站托管地址? 您可以在控制台的静态网站托管页面上获取到桶的静态网站托管地址。 您也可以拼接桶的静态网站访问地址。拼接地址格式为: 。
        来自:
        帮助文档
        对象存储 OBS
        常见问题
        静态网站托管
      • 配置升级
        本章节主要介绍翼MapReduce服务如何升级节点配置。 当master、core或者task节点的规格(vCPU和内存)无法满足您的业务需求时,您可以使用配置升级功能提升节点规格。 背景信息 配置升级前需要前往Manager“集群服务—更多操作—停止所有集群服务”,手动关闭大数据集群服务。 操作步骤 1. 登录翼MapReduce管理控制台。 2. 从“我的集群”中 ,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3. 选择“节点管理”,在需要升级配置的节点组的“操作”列并单击“配置升级”,进入升级节点配置页面。只有运行中的集群才能进行配置升级操作。 4. 配置升级前需要前往Manager “集群服务—更多操作—停止所有集群服务”,手动关闭大数据集群服务,否则无法执行配置升级操作。 5. 在配置升级页面,选择“升级后配置”,确认配置升级金额,勾选协议,并单击确定。 6. 配置升级完成后,您可以按需前往Manager的"配置管理”页面进行配置更改。可以参考配置升级服务配置修改建议。配置修改完成后,要前往Manager“集群服务—更多操作—启动所有集群服务”手动拉起大数据集群服务。 说明 集群正在升级配置时,不支持进行升级节点配置/节点扩容/磁盘扩容等运维操作。 配置升级的操作会被记录在“集群日志”中,可以通过“状态”变化查看配置升级是否执行成功。 配置升级成功后,可以在“节点管理”查看集群的节点信息。 配置升级前一定要停止集群服务,否则无法执行配置升级操作。 配置升级时不能进行IAM用户同步操作,若操作IAM用户同步会出现同步失败。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        节点管理
        配置升级
      • 配置实例组参数
        本章节主要介绍翼MapReduce的配置实例组参数操作。 操作场景 在大集群场景中,用户可以在FusionInsight Manager通过实例组可批量配置多个实例的参数,减少实例配置项的冗余,提升系统性能。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中待操作的服务名称。 4. 选择“实例组”。 5. 在导航栏选择一个角色的实例组名称,切换至“配置”页签,调整需要修改的配置参数后单击“保存”,相关配置将对实例组内所有实例生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        实例组
        配置实例组参数
      • 查看主机进程及资源
        本章节主要介绍翼MapReduce的查看主机进程及资源操作。 总览 登录FusionInsight Manager页面,单击“主机”,在主机列表中选择指定的主机名称,进入主机详情页面,单击“进程”和“资源”页签进入相关页面。 主机进程 进程页面显示了当前主机上已部署服务实例的角色进程信息,例如进程状态、PID、进程运行时间等,并可直接在线查看各进程的日志文件内容。 主机资源 主机资源页面显示了当前主机上已部署服务实例的详细资源使用情况,包括CPU,内存,磁盘和端口情况。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        主机管理
        主机管理页面
        查看主机进程及资源
      • 运行Hue任务
        本章节主要介绍翼MapReduce运行Hue任务。 前提条件 1. 使用Hue WebUI编辑器前,请前往翼MR Manager集群服务Hue连接器管理页面,选择需要启用的连接器,启用成功后,请在页面右上角的运维操作中重启Hue集群服务。重启后,即可前往Hue WebUI页面进行使用。 2. 当前版本支持使用LDAP账号访问Hue。若使用admin、hdfs或hive等已有权限的用户登录Hue,无需进行Ranger授权,可以跳过此步骤;如果新建LDAP用户,需要通过Ranger授予Hive与HDFS权限,操作步骤如下: 1)前往翼MR Manager集群服务中点击Ranger插件启用启用Hive与HDFS,并重启Hive与HDFS服务; 2)登录Ranger WebUI界面给需要登录的用户授权HADOOP SQL/HDFS等权限。 注意 如果没有给登录用户授权,查询hive可能报错Error, Permission denied: usertest, accessWRITE等问题。 3. 修改coresite.xml文件,为Hue用户配置代理权限。在HDFS配置管理中修改coresite.xml文件配置,新增 hadoop.proxyuser.hue.hosts与hadoop.proxyuser.hue.groups配置项,配置值可按需设置为,保存并同步配置后,请重启HDFS与Hivehiveserver2。 注意 如果没有为Hue用户配置代理权限,可能会报错Failed to validate proxy privilege of hue for test(登录用户)。 4. 若通过公网访问Hue WebUI,需保障网络畅通,您可前往控制台节点管理,为Hue所在的master节点绑定弹性IP,为安全组配置入方向访问规则后,点击访问链接与端口页面中的链接,前往Hue WebUI页面。 5. Hue通过JDBC连接Trino 查询引擎。Trino支持多个Catalog(如 hive、mysql等),但Hue默认连接Trino自带system的系统Catalog ,仅用于监控和元数据查询,无法访问Hive表等业务数据。如何查询Hive或其他业务数据?您有两种方式: 方式一:修改Hue默认连接的Catalog(推荐) 编辑Hue配置文件hue.ini,将Trino URL中的system替换为您实际使用的Catalog名称(例如hive) plaintext [[[trino]]] nameTrino JDBC interfacejdbc options'{"url":"jdbc:trino://yourtrinohost:9808/hive", "driver": "io.trino.jdbc.TrinoDriver", "user": "trino", "passwordscript": "/path/to/passwordscript.sh"}' 保存后重启Hue,即可在查询编辑器中直接使用SQL plaintext SELECT FROM default.users 方式二:在SQL中显式指定Catalog(无需改配置) 即使默认Catalog是system,您仍可通过完整表名查询任意Catalog中的数据。 使用SQL查询Hive 中的表 plaintext SELECT FROM hive.default.users 注意 请确保Trino服务端已正确配置对应的Catalog(如 hive.properties)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Hue任务
      • 使用大模型学习机微调自己的文本生成模型
        2.2 原始文本数据(Raw text file) 原始文本数据直接将文章或对话的原文作为输入,没有格式转化的过程,框架自动进行切分和训练。 例如我们直接截取大模型学习机部署文档作为输入: 本文基于天翼云云主机,为您介绍通过镜像部署大模型学习机的具体操作。 购买云主机。 登录云主机控制台,选择创建云主机资源池,点击“创建云主机”按钮。 当前您可在重庆重庆2、宁夏中卫5购买GPU计算加速型云主机的Pi7规格;也可在重庆重庆2购买GPU计算加速型云主机的Pi2规格。 您需要将私有数据以utf8编码格式写入到文件中,并保存为[文件名].txt文件。例如xuexijidocdata.txt。 3. 数据上传到云主机 windows系统使用命令提示符, macos/linux系统使用终端,执行scp命令将数据文件上传到云主机的/root/textgenerationwebui/training/datasets目录下。 scp [本机文件路径] root@[ip]:/root/textgenerationwebui/training/datasets 如果您擅长使用linux系统,也可采用例如ftp,lrzsz等其他方式将数据从本地上传到云主机内。 4. 启动训练 4.1 加载基础大模型 由于小模型需要在基础大模型的基础上才能使用,因此在训练前也要先保证在Model页完成了基础大模型的加载。 1. Llama 27b模型在训练时,默认的fp16精度大约要消耗18G显存,入门款T4显卡机型无法支持。需要在加载基础模型时选择loadin8bit以降低内存占用。 2. 如果刚才进行过训练,则已加载进显存/内存的基础大模型也已经受到了训练的影响,需要先进行模型reload恢复初始状态。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        使用大模型学习机微调自己的文本生成模型
      • 脚本编写最佳实践
        本文为您介绍脚本编写最佳实践。 概述 多活容灾服务支持使用 Shell 与 Python2 脚本语言。您可以在数据库或非天翼云云主机上执行这些脚本。 脚本管理提供多种创建方式: 上传本地脚本:直接上传您已有的脚本文件。 手工录入:在平台提供的编辑器中直接编写脚本内容。 克隆现有脚本:基于一个已有脚本快速复制并修改。 脚本功能强大,支持以下高级特性: 定义脚本参数:通过参数化提升脚本的灵活性。 使用系统环境变量:内置平台提供的环境变量。 设计输入与输出:明确脚本的请求参数与返回结果。 设置成功标准:根据返回参数自定义脚本执行成功的判定条件。 使用介绍 一、脚本参数说明 通过定义脚本参数,可以极大增强脚本的灵活性和复用性。单个脚本可作为模板,通过为不同资源配置不同的参数值,轻松适配多种场景,无需重复编写。 脚本参数包含两种类型: 1. 此类参数由多活容灾平台预定义,例如 HostIP、HostPort、HostUser、DBIP 等(共12个)。脚本执行时,平台会自动获取 指定资源的对应信息并注入环境变量,无需用户手动设置。 说明 查看方法:目前支持HostIP、HostPort、HostUser、HostPwd、HostAuthKeyPath、HostOtherUser、HostOtherPwd、DBIP、DBPort、DBName、DBName、DBPwd。具体适用对象和备注等内容可通过左侧菜单栏的“系统环境变量”查看。 2. 用户可根据脚本逻辑自定义所需的参数,每个参数需配置参数名 、参数类型 和参数Key。 参数名:仅为便于管理界面识别和填写,不会在脚本执行过程中出现。 参数Key:脚本执行时实际使用的变量名。 用户自定义参数分为两种用途: 请求参数:作为脚本的输入,在执行前由用户配置具体值,用于初始化脚本中的变量。 返回参数:作为脚本的输出结果,平台将捕获此参数的值,并用于判断脚本执行是否达到用户定义的成功标准。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        脚本管理
        脚本库
        脚本编写最佳实践
      • 创建PON云专线
        创建PON云专线必须选择VPC及子网,选择装机地址,设置远端子网,选择云专线速率,核实订购详情,选择缴费账户等操作;其中需注意:1)VPC及子网不可与远端子网冲突;2)装机地址所搜并选择列出的带有门牌号的详细装机地址,否则将导致专线无法装机。 创建PON专线流程如下: 使用CTYUN账号及密码登录CTYUN官网; 在首页的产品项,选择福建云专线。 在云专线页面,单击【申请开通】,进入PON云专线开通页面,根据界面提示,配置云专线的相关信息; VPC及子网:选择云专线通达的VPC及云主机所在的VPC子网段; 装机地址:从列表中选择所在城市、区,然后使用具体到楼层的地址进行搜索,在搜索结果中选择带有具体门牌号的详细地址,此地址即为专线的具体安装地址; 远端子网:设置客户侧内网需要通过专线访问云侧资源的内网地址,可设置多个内网地址段,多个网段中间用英文逗号隔开,需注意:远端子网网段不可与云侧网段冲突; 云专线速率:选择您所需的专线带宽速率; 当前配置:在页面右侧当前配置栏,可查看此专线的配置信息,确认无误后,可点击“立即购买”,进入到订购详情页面。 订购详情:订购详情栏可查看云专线费用,配置,描述及价格信息; 需支付:所列费用为此专线每月资费,将通过缴费账户一次性收取包月费用; 立即开通:请详细阅读、理解并接受《天翼云云专线服务协议》,然后勾选“我已阅读”项,然后点击立即开通;专线将进行后台开通,在云侧及省网侧为自动化开通,外线施工人员联系您CTYUN账号绑定的联系人手机,沟通外线施工事宜,请保持此联系人及手机畅通。
        来自:
        帮助文档
        云专线(福建)
        操作指导
        创建PON云专线
      • 配置负载容忍策略
        默认容忍策略解析 Kubernetes默认会为Pod添加针对node.kubernetes.io/notready和node.kubernetes.io/unreachable污点的容忍度,并设置容忍时间为300秒。这意味着,当Pod所在节点被标记为这两种污点之一时,Pod仍可在5分钟内保持运行状态。 注意 在DaemonSet创建Pod时,针对上述污点自动添加的容忍度不会设定容忍时间,意味着在节点存在这些污点的情况下,DaemonSet中的Pod将始终不会被移除。 容忍度配置示例 进入创建负载的页面,在高级配置中,选择容忍策略,进行污点容忍配置。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        配置负载容忍策略
      • 创建内网域名
        参 数 说明 取值样例 域名 内网域名,可以自定义,支持创建顶级域,但需符合域名命名规范:由多个以点分隔的字符串组成,可包含字母、数字中划线,中划线不能在开头或末尾,单个字符串不超过63个字符,域名总长度不超过254个字符。 example.com VPC 内网域名关联的VPC,只有此VPC中的云主机才能解析创建的内网域名。 选择一个VPC。如果选框为空,请前往 描述 可选参数,域名描述。
        来自:
        帮助文档
        内网DNS
        快速入门
        创建内网域名
      • 创建站点监控
        本文为您介绍创建站点监控的操作场景、前提条件和操作步骤。 操作场景 站点监控用于模拟真实用户对远端服务器的访问,从而探测远端服务器的可用性、连通性等问题。业务场景主要包括“端口性能”及“页面性能”。其中端口性能支持HTTP(S)、PING、TCP、UDP四种类型。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击“网络分析与监控”,进入“站点监控”列表页。 5. 单击右上角“创建站点监控”按钮,在弹出的“创建站点监控”对话框中根据界面提示配置参数。 1、创建HTTP(S)类型拨测任务参数配置 “任务类型”模块参数配置如下: 参数 模块 参数说明 是否必填 取值样例 任务名称 该站点监控的自定义名称 是 类型 公网拨测 是 场景 选择站点监控任务使用场景,支持端口性能、页面性能 是 端口性能 协议信息 选择拨测任务协议 是 HTTP(S) 监控频率 执行一次站点监控探测任务的时间间隔。 是 1分钟 站点地址 1、请求方式 选择请求方式,支持选择: GET POST HEAD 2、站点地址 请输入待探测的目标公网地址。注意:选择类型为“http”时,请填写协议头 是 1、GET 2、 拨测点选择 选择公网拨测源,支持多选。建议选择多个分布式拨测点。 是 北京、成都 “拨测参数定义”模块参数配置如下(可选): 参数 模块 参数说明 是否必填 取值样例 拨测参数定义 请求参数 1、HTTP请求头 站点监控支持定制请求头内容,HTTP请求头格式为key1:value1,多项信息以回车换行分隔。 站点监控会在请求头中预置以下Header: UserAgent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3 Accept:text/html,application/xhtml+xml,application/xml;q0.9,image/webp,/;q0.8 2、cookies HTTP规则的Cookie信息,格式为:key:value,多项信息以英文逗号分隔 3、重定向次数 出现301或302状态码,跟随再次做重定向探测的次数限制。如填写0,即为不跟随跳转 4、跳过证书验证 勾选后将忽略 SSL/TLS 证书错误,如证书过期、证书与域名不匹配等,继续执行请求。 否 1、Pragma: nocache 2、sessionid:123 3、0 4、不勾选 拨测参数定义 Body 输入 HTTP(S) 请求中发送给服务器的数据部分,内容格式为JSONObject 否 { "userid": "123456", "username": "testuser", } 拨测参数定义 DNS服务器 指定一个自定义的 DNS 服务器地址,用于域名解析。如不填写即为系统默认 否 拨测参数定义 DNS劫持检查 填写DNS劫持白名单,冒号前为要判断的域名,冒号后为匹配的ip(暂不支持ipv6),多个以竖线分割。 否 www.ctyun.cn:180.163.200.96180.163.200.97 断言配置 定义拨测任务执行期间要检查的规则或条件。如果拨测节点拨测的响应结果满足了断言配置中定义的所有条件,则任务被视为成功;否则,任务被视为失败,最多支持配置5个 1、状态码 响应状态码是否符合预期条件 2、body的json字段 通过JSON解析(JSON Path)判断返回Body中的内容是否符合预期。 例如:response为{"code":"200","data":{"name":"test"}}时,code取值方式为$.code,name的取值方式为$++.++ data.name 当匹配方式为大于或小于时,会尝试将response参数值转为浮点数进行大小判断,如转换失败则断言失败。 否 状态码:大于400 body的json字段: $.a.b等于usertest 高级配置 1、超时时间 定义等待服务器返回响应数据的最长时间,单位ms 2、拨测周期 站点拨测任务执行的每周时段 3、拨测时段 站点拨测任务执行的每日时段 是 1、1000ms 2、星期天、星期一、星期二、星期三、星期四、星期五 星期六 3、00:00:0023:59:59 说明 HTTP(S) 拨测任务基于 HTTP 或 HTTPS 协议的 Web 服务,可以模拟用户从公网拨测源对目标网站的访问,以获取可用性、响应时间等关键性能指标。助您及时掌握网站运行状态、用户体验等。
        来自:
        帮助文档
        云监控服务
        用户指南
        站点监控
        创建站点监控
      • 将本地日志迁移到云日志服务
        解析方式 说明 单行全文 单行全文是指一条日志仅包含一行的内容,在采集的时候,将使用换行符来作为一条日志的结束符,即在日志文件中,以换行符分隔两条日志。日志数据本身不再进行日志结构化处理,也不会提取日志字段。每条日志都会存在一个默认的字段message,采集器会将日志内容存放在message中。详情请参考 多行全文 多行全文日志是指一条完整的日志数据可能跨占多行,您需要指定首行正则以进行匹配,当某行日志匹配上预先设置的正则表达式,就认为是一条日志的开头,而下一个行首出现则作为该条日志的结束标识符。日志内容同样也会存放在message字段中。详情请参考 单行正则 单行正则模式用于处理结构化的日志,针对包含一行内容的日志,您需要指定一个正则表达式,采集器按照正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考 多行正则 多行正则模式用于处理结构化的日志,针对包含多行内容的日志,您需要指定一个行首正则表达式用于匹配日志的开头,并指定一个正则表达式用于提取多个值,采集器按照该正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考 单行分隔符 单行分隔符模式支持通过配置的分隔符将一条日志分割成多个 keyvalue 键值,从而实现结构化处理,该模式仅适用于单行日志,每条完整的日志以换行符为结束标识符。详情请参考 JSON 支持解析Object类型的JSON日志,提取JSON日志内容作为KeyValue对,即Object首层的键作为Key,Object首层的值作为Value。详情请参考
        来自:
        帮助文档
        云日志服务
        最佳实践
        将本地日志迁移到云日志服务
      • SQL变更
        输入内容 说明 目标数据库(必填) 选择有变更权限的数据库/模式,支持MySQL、PostgreSQL、DRDS、Oracle数据源,其中MySQL、DRDS、Oracle可选择到库级别,PostgreSQL可选择到模式级别。 变更SQL(必填) 输入需要变更的SQL语句,或者上传SQL文件,上传后文件内容的语句会自动解析至文本输入框中。 自动执行(必填) 选择是,工单审批通过后立即执行;选择否,工单审批通过后手动执行。 最晚执行时间 选择SQL最晚执行时间,超过该时间后,即使工单已被审批通过也讲无法执行。 关联人 选择需要看到此工单的用户名,可多选,关联人可在 工单列表 页面查看此工单。 工单说明 描述工单备注内容。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        SQL变更
      • 添加域名/实例
        方式二:无域名接入 前提条件 已经订购边缘安全加速平台边缘接入服务,并且套餐+域名扩展包支持的域名数量未超过限制。 使用无域名接入方式时,不支持80、8080、443、8443端口的TCP请求端口,如需配置80、8080、443、8443端口的TCP请求端口请使用域名接入方式。 操作步骤 1. 登录边缘安全加速控制台,进入边缘接入控制台的【域名】【IP应用加速接入】,这个页面您可以查看已添加的域名/实例的信息,包括域名/实例名称、接入方式、CNAME、加速区域、状态、IPv6解析、DDoS防护、操作等信息。点击左上角【新增接入】。 2. 接入方式选择"无域名接入",必须填写实例名称,选择加速区域(中国内地、全球(不含中国内地)、全球),是否启用IPv6。基本信息详细介绍详见:基本信息。 3. 根据您的需要,配置【回源配置】、【访问控制】、【传递用户IP回源】等相关功能。回源配置详细介绍详见:回源配置。IP黑白名单详细介绍详见:IP黑白名单。传递用户IP回源详细介绍详见:传递用户IP回源。 4. 完成加速配置后,点击右下角的下一步,进入安全防护配置页面,按需开启DDoS防护后提交。 5. 新增接入完成后,可通过【IP应用加速接入】首页列表查看该域名所处状态。 6. 域名配置完成,生成域名CNAME,域名状态变更为【已启用】,即可以在【IP应用加速接入】首页列表中,查看对应域名的详情,进行停用/启用/删除等操作,也可以开启IPv6解析开关,修改加速配置或安全防护配置等。
        来自:
        帮助文档
        边缘安全加速平台
        快速入门
        边缘接入服务
        添加域名/实例
      • 1
      • ...
      • 53
      • 54
      • 55
      • 56
      • 57
      • ...
      • 276
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      弹性伸缩服务 AS

      AI Store

      应用托管

      科研助手

      一站式智算服务平台

      人脸实名认证

      推荐文档

      产品优势

      修改数据库端口

      云课堂 第十五课:解析天翼云IPsec VPN和SSL VPN的

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号