活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云日志服务_相关内容
      • 多行正则模式
        参数 描述 切割模式 针对原始日志执行分词的模式,选择“多行正则”。 日志样例 输入您需要采集的日志样例。 首行正则表达式 首行正则表达式用于匹配每一条日志的行首,以确认每条日志的开头位置。输入完成后,点击【验证】,系统将根据您输入的日志样例判断表达式是否通过以及成功解析的日志条数。 正则表达式 输入正则表达式,点击【验证】按钮,系统将根据您输入的正则表达式对日志样例进行字段切割。 日志提取内容 根据正则表达式切割的结果会展示在日志提取内容中,您需要为每个字段定义唯一的 key。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        日志结构化解析
        多行正则模式
      • URL函数
        本文主要介绍URL函数。 云日志服务支持如下URL函数。 函数列表 函数名称 语法 说明 urlencode urlencode(x) 对URL进行编码。 urldecode urldecode(x) 对URL进行解码。 urlextractfragment urlextractfragment(x) 从URL中提取Fragment信息。 urlextracthost urlextracthost(x) 从URL中提取Host信息。 urlextractparameter urlextractparameter(x) 从URL的查询部分中提取指定参数的值。 urlextractpath urlextractpath(x) 从URL中提取访问路径信息。 urlextractport urlextractport(x) 从URL中提取端口信息。 urlextractprotocol urlextractprotocol(x) 从URL中提取协议信息。 urlextractquery urlextractquery(x) 从URL中提取查询部分的信息。 urlencode函数 对URL进行编码。 语法 plaintext urlencode(x) 参数说明 参数名称 说明 类型 是否必选 x 参数值为具体的URL地址 string类型 是 返回值类型 string 示例 select urlencode(' urldecode函数 对URL进行解码。 语法 plaintext urldecode(x) 参数说明 参数名称 说明 类型 是否必选 x 参数值为编码过的URL地址 string类型 是 返回值类型 string 示例 plaintext select urldecode('https%3A%2F%2Fwww.ctyun.cn%2Fh5%2Fauth%2Flogin') urlextractfragment函数 从URL中提取Fragment信息。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        数据加工语法
        URL函数
      • URL函数
        云日志服务支持如下URL函数。 函数列表 函数名称 语法 说明 urlencode urlencode(x) 对URL进行编码。 urldecode urldecode(x) 对URL进行解码。 urlextractfragment urlextractfragment(x) 从URL中提取Fragment信息。 urlextracthost urlextracthost(x) 从URL中提取Host信息。 urlextractparameter urlextractparameter(x) 从URL的查询部分中提取指定参数的值。 urlextractpath urlextractpath(x) 从URL中提取访问路径信息。 urlextractport urlextractport(x) 从URL中提取端口信息。 urlextractprotocol urlextractprotocol(x) 从URL中提取协议信息。 urlextractquery urlextractquery(x) 从URL中提取查询部分的信息。 urlencode函数 对URL进行编码。 语法 plaintext urlencode(x) 参数说明 参数名称 说明 类型 是否必选 x 参数值为具体的URL地址 string类型 是 返回值类型 string 示例 select urlencode(' urldecode函数 对URL进行解码。 语法 plaintext urldecode(x) 参数说明 参数名称 说明 类型 是否必选 x 参数值为编码过的URL地址 string类型 是 返回值类型 string 示例 plaintext select urldecode('https%3A%2F%2Fwww.ctyun.cn%2Fh5%2Fauth%2Flogin') urlextractfragment函数 从URL中提取Fragment信息。 语法 plaintext urlextractfragment(x)
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        URL函数
      • ALM-14002 DataNode磁盘空间使用率超过阈值
        检查集群磁盘容量是否已满 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”页面,查看是否存在“ALM14001 HDFS磁盘空间使用率超过阈值”告警。 是,执行步骤 2。 否,执行步骤 4。 2.参考“ALM14001 HDFS磁盘空间使用率超过阈值”进行处理,查看对应告警是否清除。 是,执行步骤 3。 否,执行步骤11。 3.在“运维 > 告警 > 告警”页面查看本告警是否清除。 是,处理完毕。 否,执行步骤4。 检查DataNode节点平衡状态 4.在FusionInsight Manager首页,单击“主机”,查看各个机架上的DataNode节点数目分布是否大致相等,如果差异过大,调整DataNode节点所属机架,保证各个机架上的DataNode数量大致相等。重启HDFS服务生效。 5.选择“集群 > 待操作集群的名称 > 服务 > HDFS”。 6.在“基本信息”区域,单击“NameNode(主)”,进入HDFS WebUI页面。 说明 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 7.在HDFS WebUI的“Summary”区域,查看“DataNodes usages”中“Max”的值是否比“Median”的值大10%。 l是,执行步骤 8。 否,执行步骤11。 8.数据倾斜,需要均衡集群中的数据。以root用户登录MRS客户端。如果集群为普通模式,执行su omm切换到omm用户。执行cd命令进入客户端安装目录,然后执行 source bigdataenv 。如果集群采用安全版本,要进行安全认证。执行kinit hdfs命令,按提示输入密码。向管理员获取密码。 9.执行以下命令,均衡数据分布: hdfs balancer threshold 10 10.等待几分钟,检查本告警是否恢复。 是,处理完毕。 否,执行步骤 11。 收集故障信息 11.在FusionInsight Manager首页,选择“运维 > 日志 > 下载”。 12.在“服务”中勾选待操作集群的“HDFS”。 13.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 14.请联系运维人员,并发送已收集的故障日志信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14002 DataNode磁盘空间使用率超过阈值
      • 云容器集群节点网络丢包(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络丢包动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的HTTP请求错误数、HTTP状态码统计指标 2、业务应用验证: 观察运行在目标节点上的业务 Pod 与其他 Pod 或外部服务通信时,是否出现响应延迟增加或请求超时。 对于依赖 UDP 的服务(如DNS查询、部分音视频流),确认是否出现了功能异常或数据丢失。 检查应用日志,确认是否有因超时或重传而产生的错误。 确认 Kubernetes 的 liveness/readiness 探针是否因丢包而探测失败,导致 Pod 被重启。
        来自:
      • 运维中心
        本章节介绍运维中心相关功能 概述 微服务治理中心运维中心提供操作日志及事件中心功能。 操作日志 操作日志提供对治理过程中关键治理操作的记录,通过操作日志功能,用户可以进行行为追踪和问题排查,及时发现治理过程中的不当操作,定位治理操作对应用的影响。 功能入口 登录微服务治理控制台。 在控制台左侧导航栏中选择运维中心>操作日志。 在操作类型下拉框可以选择对应的操作类型,筛选操作。 在对应日志项的操作列单击详情,获取对应操作的额外信息。 事件中心 事件中心提供对微服务治理事件数据的统一展示能力,通过事件中心,用户可以从事件类型和事件来源维度查询事件记录,感知微服务治理中心下应用的状态,从而验证微服务治理配置的正确性,排查系统的异常问题。 功能入口 登录微服务治理控制台。 在控制台左侧导航栏中选择运维中心>事件中心。 在事件类型下拉框可以选择对应的事件类型,筛选对应类型的事件记录。 在应用名称下拉框可以选择对应的应用资源,筛选对应应用下的事件记录。 在对应事件记录项的操作列单击查看详情,获取对应事件记录的详细信息。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        运维中心
      • 查询日志配置详情
        参数 参数类型 说明 示例 下级对象 auditAttackId String 攻击日志单元ID auditAttackName String 攻击日志单元名称 auditEventId String 事件日志单元ID auditEventName String 事件日志名称 auditFlowId String 流量日志单元ID auditFlowName String 流量日志单元名称 auditGroupId String 日志组id auditGroupName String 日志组名称 firewallId String 防火墙ID logUserId String 日志用户id regionId String 资源池ID uid String 租户ID auditAvId String 防病毒日志单元ID auditAvName String 防病毒日志单元名称
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        日志管理
        查询日志配置详情
      • 模型压缩
        查看压缩任务 1. 查看任务详情:在任务列表点击任务名称,进入详情页面,可查看任务配置及任务日志。 2. 操作:可在列表操作列中点击【详情】以查看任务详情,点击【停止】以停止任务。 3. 获取压缩结果:压缩任务运行完成后,压缩后的模型会自动保存到用户指定的模型管理中的位置。可以通过开发机挂载模型、或者下载模型来查看模型文件本身。压缩后的模型可以直接通过我的服务进行服务部署,部署为推理效果更优的大模型服务。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型工具
        模型压缩
      • 日志记录
        本节介绍应用市场的日志记录功能。 普通用户可以通过弹窗查看被阻止运行的程序记录,可以在页面上直接申请应用放行,并能查看申请处理进度。管理员则可以在弹窗中查看到其他用户的推荐、放行、上架等申请,并可以在弹窗处直接处理。 注:目前仅天翼AI云电脑电脑客户端(支持版本:Windows、Linux、Mac)支持消息弹窗 阻止记录 在此页面,可查看所有桌面内应用运行被阻止的记录。 申请记录 申请记录分为三种:程序放行、应用推荐和应用发布。 在程序放行页面,可查看所有桌面应用被阻止后申请放行的记录。 在应用推荐页面,可查看所有用户提交的企业应用的推荐记录。 在应用发布页面,可查看管理员用户提交的所有企业应用的上架申请记录
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        应用市场
        管理员指南
        控制台其他功能
        日志记录
      • 搜索日志
        本节主要介绍搜索日志 当需要通过日志来分析和定位问题时,使用日志搜索功能可帮您快速在海量日志中查询到所需的日志,您还可结合日志的来源信息和上下文原始数据一起辅助定位问题。 操作步骤 步骤 1 在AOM左侧导航栏中选择“日志 > 日志搜索”。 步骤 2 在“日志搜索”页面中选择日志页签(即组件、系统、主机)并按照界面提示设置日志查询条件。 步骤 3 查看日志搜索结果。 搜索结果中,关键词会高亮显示,同时会根据日志的采集时间对搜索结果进行排序,以方便您查看。您可单击“时间”列的进行切换排序。 为默认排序,为按时间正序排序(即时间最新的日志显示在最后方),为时间倒序排序(即时间最新的日志显示在最前方) 1、单击日志列表左侧的箭头,可进一步查看该条日志的详细信息。 2、AOM支持查看上下文信息,您不用在原始日文文件中上下翻页查找日志,单击“操作”列的“上下文”,即可查看该日志的前若干条(即上文)或后若干条(即下文)的日志,方便您定位问题。 在“上下文显示行数”下拉列表框中,可设置该条日志的上下文原始数据显示行数。 说明 例如,设置“上下文显示行数”为“200”。 若该日志之前已打印的日志条数 ≥100,该日志之后已打印的日志条数 ≥99,则该日志之前的100条和之后的99条日志会被作为上下文显示。 若该日志之前已打印的日志条数 <100(例如,已打印90条日志),该日志之后已打印的日志条数 <99(例如,已打印80条日志),则该日志之前的90条和之后的80条日志会被作为上下文显示。 单击“导出本页”,可将已显示的日志上下文原始数据导出到本地。 说明 为了保障租户主机和组件的正常运行,租户的主机上会运行部分系统提供的组件(例如,kubedns)。查询租户日志时也会查询到这些组件的日志。 步骤 4 (可选)单击“”,选择导出格式,将搜索结果导出到本地。 导出的日志内容已按步骤3中您选择的排序方式进行了排序,且最多导出已排序的前5000条日志。例如,搜索结果中总共有6000条日志,已选择的排序方式是倒序,则只能导出时间最近的前5000条日志。 支持以CSV格式和TXT格式导出日志,您可根据需求灵活选择。CSV格式可导出日志的内容、主机IP、来源等详细信息。TXT格式只能导出日志的内容,每行为一条日志,如果单条日志内容较多时建议使用Notepad++编辑器打开。 以CSV格式导出日志 以TXT格式导出日志
        来自:
        帮助文档
        应用运维管理
        用户指南
        日志管理
        搜索日志
      • 以Llama 2为例进行大模型推理实践
        传到离线服务器上切换分支,安装特定版本peft cd peft git checkout 13e53fc 安装peft pip install . i trustedhost pypi.tuna.tsinghua.edu.cn 注意 安装相关依赖的耗时较久请您耐心等待。 6. 准备推理代码和启动脚本。 1. 进入/opt/llama目录下。 plaintext cd /opt/llama 2. 下载推理代码。 访问github网站,下载推理代码inferencehf.py并上传至云主机。 3. 新建启动脚本run.sh。 plaintext 新建空文件 vim run.sh 文件内新增如下内容 python inferencehf.py basemodel 7bchat tokenizerpath 7bchat withprompt gpus 0 步骤四:镜像打包 为了使您能更快的搭建模型运行环境,在完成步骤一和步骤二的操作后,我们对GPU云主机的系统盘进行了打包,生成了标准的GPU云主机镜像。目前已经上传至天翼云成都4、海口2资源池,您可直接对该镜像进行使用。 镜像打包步骤如下: plaintext echo "nameserver 114.114.114.114" > /etc/resolv.conf echo "localhost" > /etc/hostname 清除 machineid。 yes cp f /dev/null /etc/machineid 若有 /var/lib/dbus/machineid,则: rm f /var/lib/dbus/machineid ln s /etc/machineid /var/lib/dbus/machineid cloudinit clean l 清理 cloudinit。若此命令不可用,则可尝试:rm rf /var/lib/cloud rm f /tmp/.log 清除镜像脚本日志。 清理 /var/log 日志。 read r d '' script <<"EOF" import os def clearlogs(basepath"/var/log"): files os.listdir(basepath) for file in files: filepath os.path.join(basepath, file) if os.path.isfile(filepath): with open(filepath, "w") as f: f.truncate() elif os.path.isdir(filepath): clearlogs(basepathfilepath) if name "main": clearlogs() EOF if [ e /usr/bin/python ]; then python c "$script" elif [ e /usr/bin/python2 ]; then python2 c "$script" elif [ e /usr/bin/python3 ]; then python3 c "$script" else echo "
        来自:
        帮助文档
        GPU云主机
        最佳实践
        以Llama 2为例进行大模型推理实践
      • API风险监测快速入门
        步骤 步骤说明 参考链接 1.添加资源 新增需要进行风险管理的资源,并完成数据源同步 资源管理 2.处理风险 风险模块可以处理脆弱性风险和行为风险 风险 3.查询审计日志 查询分析模块包括审计日志以及报表分析,审计日志展示了所有审计日志,包括发生时间、API信息、服务端信息、客户端信息、概要(API请求与响应信息、请求结果以及对应数据标签),可以查看对应详情。 查询分析
        来自:
        帮助文档
        数据安全专区
        快速入门
        API风险监测快速入门
      • 迁移或同步失败
        本章介绍主机迁移服务迁移或同步失败常见问题。 迁移中源端有新增的数据如何处理? 启动目的端后,若源端有新增的数据,单击此服务器所在行的操作列的“同步”,开始下一次复制(增量数据),当迁移状态为“持续同步”时,单击“启动目的端”,迁移实时状态为“已完成”时,说明新增数据已同步到目的端。 “迁移模块异常中止,无法同步”怎么处理? 问题描述 持续同步过程中出现“SMS.1414 迁移模块异常中止,无法同步”。 问题原因 迁移模块异常终止可能是因为用户手动重启过Agent或者源端服务器被重启过。 源端有一个监控磁盘变化的进程,用于将源端变化的部分同步到目的端。重启之后该进程被终止,会导致无法正确的将源端服务器的变化同步到目的端。 解决方案 该场景下无法继续完成迁移任务,请删除该任务后,重新迁移。请注意迁移过程中不要重启源端服务器或Agent。 Windows迁移过程中,源端SMSAgent突然退出,导致与主机迁移控制台断开连接 问题描述 Windows服务器迁移过程中,源端突然与SMS控制台断开连接,查看源端发现是迁移用的SMSAgent程序退出。 问题分析 出现该问题,可能是因为源端服务器“客户体验改善计划”导致SMSAgent程序退出。 1. 查看SMSAgent迁移日志中断时间。(C:SMSAgentPy3SmsAgentInfo.log) 2. 在源端服务器,打开计算机管理。选择“事件查看器>Windows 日志>系统”。 3. 在系统日志中,查看与SMSAgent迁移日志中断时间对应的系统日志。发现是因为一条客户体验改善计划的用户登录通知,导致源端服务器自动重启。 解决方案 关闭“客户体验改善计划”。 1. 在源端服务器,打开运行窗口,输入:gpedit.msc,单击“确定”,打开“组编辑策略器”。 2. 在导航栏,选择“计算机配置>管理模板>系统>Internet通信管理>Internet 通信设置”,找到“关闭Windows 客户体验改善计划”。 3. 双击“关闭Windows 客户体验改善计划”,打开编辑窗口,选择“已启用”,单击“确定”。 4. 打开计算机管理,选择“系统工具>任务计划程序库>Microsoft>Windows>Customer Experience Improvement Program”,禁用所有任务。 5. 选择“系统工具>任务计划程序库>Microsoft>Windows>Application Experience”,禁用所有任务。 6. 禁用客户体验改善计划相关任务后,需要在SMS控制台删除迁移任务,重新创建并启动迁移任务。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        迁移或同步失败
      • 灰度升级
        本节介绍了灰度升级的相关内容。 操作场景 当涉及新功能或问题修复等需要进行版本升级时,云数据库GaussDB提供了灰度升级的方式,灰度升级支持升级自动提交和升级待观察两种操作方式。 升级自动提交是先升级所有备DN,再升级主DN,最后升级CN,升级完成后会自动提交升级。 升级待观察又名滚动升级。升级待观察方式升级完成后进入观察状态,可以在此期间观察业务状态,根据业务情况选择提交或回退本次升级。 − 分布式版实例按照分片进行滚动,操作请参见分布式版实例升级。 − 集中式版实例按照AZ进行滚动,操作参见集中式版实例升级。 操作流程 操作步骤 说明 步骤一:升级前检查 版本升级前需要检查实例状态和实例的CPU使用率、内存使用率、磁盘使用率等监控指标是否正常。 步骤二:升级操作 支持两种升级方式:升级自动提交和升级待观察。用户可以根据需要选择单个实例升级,也可以选择批量升级多个实例。 步骤三:升级后验证 升级完成后需要检查升级后的实例状态、备份创建、连接实例是否正常,能否进行正常的增加、删除、修改、查询操作。 注意事项 DN磁盘使用率不得高于设置磁盘使用率阈值减去10%的值。 说明 DN磁盘使用率可以通过管理控制台监控指标查看。 磁盘使用率阈值可以联系技术支持人员获取。 实例节点状态异常,不支持版本升级。 升级待观察方式支持手动回退操作,升级自动提交不支持手动回退操作。 版本升级/回退过程中不支持磁盘扩容、规格变更、备份、重置密码、重启实例、删除实例等操作。 建议在业务较小的时候执行版本升级操作,以确保CPU,磁盘,内存使用率等都有较大的空闲。 在大版本升级时如果使用升级自动提交方式,在执行升级前会关闭归档日志,用户无法通过归档日志进行PITR恢复,可能会造成数据丢失。 在大版本升级时如果使用升级待观察方式,升级过程中全量备份将无法触发,差量备份可能失败。升级观察期间待所有AZ都升级完成后才允许执行手动全量备份,在提交升级前仍会进行归档日志,用户可以通过归档日志进行PITR恢复,保证数据不会丢失。提交升级时会关闭归档日志。 如果升级过程中出现异常导致升级失败,系统会自动对实例进行回退,您可以联系技术支持,由工程师给出分析评估后重新执行升级。 在升级主DN和CN的过程中分别会有一次10秒左右的业务中断。 升级结束后会触发自动备份,开启关闭的归档日志。需要注意的是小版本升级不会触发自动备份。仅V2.02.2以上版本的实例才能进行归档日志。 说明 小版本升级,例如:从V2.01.a.x升级到V2.01.a.y或者V2.02.a.x升级到V2.02.a.y。 大版本升级,例如:V2.01.x升级V2.02.x或者V2.02.x到V2.02.y等。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        版本升级
        灰度升级
      • 产品定义
        Kafka是一个拥有高吞吐、可持久化、可水平扩展,支持流式数据处理等多种特性的分布式消息流处理中间件,采用分布式消息发布与订阅机制,在日志收集、流式数据传输、在线/离线系统分析、实时监控等领域有广泛的应用。 分布式消息服务Kafka是一款基于开源社区版Kafka提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。使用分布式消息服务Kafka,资源按需申请,按需配置Topic的分区与副本数量,即买即用,您将有更多精力专注于业务快速开发,不用考虑部署和运维。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        产品定义
      • 介绍类
        日志审计(原生版)有哪些核心功能和能力? 支持各类厂商多源异构的数据统一采集,进行支持正则表达式、分隔符,KeyValue、JSON日志解析解析,分类,过滤归并等操作,进行规范化成统一的结构化数据。 支持全文检索,条件检索对所有原始日志内容进行即时在线查询,多条件嵌套逻辑查询,收敛事件范围和事件时候溯源审计。依托大数据底层存储,支持查询结果秒级响应。 支持用户交互式检索审计,并通过柱状图、饼图、折线图、面积图、堆积图、环状图、数值图、地图等形式的统计信息可视化展示,并可将统计结果保存为仪表板和报表。 支持多事件的序列关系,逻辑关系,字段条件逻辑判断等配置,进行实时流的审计分析,关联分析,产生异常审计告警,并实时通知用户处置。 支持对系统中预置报表模板选择生产的时间进行预览、生成报表。支持在报表中以柱状图、曲线图、饼状图方式统计安全报警情况;报表格式支持PDF、Word等。 日志审计(原生版)有哪些应用场景? 采用日志审计监测、记录和存储网络运行状态和安全事件等信息,实现对系统的全面监控和细致记录,配合多种审计策略,快速定位溯源,全面提升系统服务水平以及网络安全管理水平,满足网络安全法规及等级保护的相关要求。 针对中大型企业设备多,系统多,难以统一监管问题,采用日志审计将所有设备、用户行为日志统一监管,贯穿从边界到核心资产的全流程,扩展对关键数据等资产的保护。 通过对多个不同来源的日志数据进行关联和分析,揭示隐藏在数据背后的模式和趋势,帮助企业识别异常行为和潜在威胁。在当前复杂多变的网络环境中,日志关联分析已经成为了保障网络安全和信息安全的一项重要技术手段。
        来自:
        帮助文档
        日志审计(原生版)
        常见问题
        介绍类
      • 停止服务器上的HBlock
        参数 描述 scope SCOPE &<1 n > 停止的HBlock服务范围。一次可以指定多个服务,以英文逗号隔开。 取值: All:停止服务器上的所有服务。 Min:仅停止服务器上的ms和ps服务。 mdm:元数据管理服务(仅集群版支持)。 fc:故障转移控制服务(仅集群版支持)。 ls:日志服务(仅集群版支持)。 ds:数据服务(仅集群版支持)。 dsx:磁盘的数据服务(仅集群版支持)。 cs:协调服务(仅集群版支持)。 ms:管理服务。 ws:监控服务。 ps:协议解析服务。 ag:数据采集服务。 ua:升级监听服务。 默认值为Min。 说明 各服务具体作用详见 f 或 force 强制停止当前服务器上的HBlock服务。 注意 当停止服务器上的HBlock失败时,可以强制停止HBlock服务,但可能会造成数据丢失。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        停止服务器上的HBlock
      • 通过EvalScope测试推理性能的操作指南
        3.1 关键指标解读 Throughput(吞吐量):单位时间内成功处理的请求数(req/s),反映服务负载能力,越高表明性能越优。 Latency(延迟): Mean Latency:平均响应时间,关注是否随并发升高而显著增加。 P95/P99 Latency:高百分位延迟,衡量服务稳定性(如P95表示95%请求的响应时间低于该值)。 Error Rate(错误率):超时、服务异常等失败请求占比,理想值为0%,超过1%需排查问题。 四、注意事项 1. 测试耗时 :全量测试包含多组并发和Token组合,耗时可能长达数小时,建议通过 nohup或任务调度工具执行。 2. 资源监控 :同步使用 nmon、htop等工具监控服务器CPU、内存、网络带宽,排除硬件瓶颈对测试结果的干扰。 3. API兼容性 :确保 api参数与模型服务协议一致(当前支持OpenAI格式),请求体结构需符合对应API规范。 4. 输入Token修正 :datasetinputlength设置值需比实际输入Token数少1(工具自动添加起始Token),例如预期输入1024 Token时,该参数应设为1023。 五、附录 工具文档 :EvalScope详细使用说明见官方文档。 日志示例:各测试场景的输出日志包含完整请求响应数据,可通过文本分析工具(如Grep、Excel)进行多维度对比。 本指南适用于大模型服务性能评估,旨在为技术人员提供标准化测试流程。实际操作中请根据具体环境调整参数,并结合业务负载特征设计测试用例。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        通过EvalScope测试推理性能的操作指南
      • 微服务治理中心
        核心功能 功能说明 专业版 企业版 服务查询 支持查看应用下服务的提供者、消费者和接口元数据等信息。 √ √ 微服务可观测 支持查看最近5分钟的监控数据。 √ √ 金丝雀发布 支持在应用发布时,可以为新版本的应用打上gray的标签,通过按流量比例路由或按内容路由的方式,将灰度流量引入带有gray标签的应用中,从而达到小规模验证的目的。 √ √ 标签路由 支持将每个服务打上一个标签,通过标签将标签相同的服务分为同一个分组,然后约束流量在同一个分组内流转。 √ √ 无损上下线 无损上线:支持在服务上线时,提供服务预热、延迟注册服务的能力解决流量损失问题。 无损下线:保证应用在下线、重启时流量零损耗。 √ √ 错误注入 支持模拟微服务间异常调用。 √ √ 离群实例摘除 支持监测下游实例的可用性,并摘除异常实例。 √ √ 推空保护 支持当注册中心返回了空列表,此时客户端忽略该空返回的变更,从缓存中获取上一次正常的服务端地址进行服务访问。 √ √ 服务鉴权 支持为提供者的服务设置鉴权规则,允许或拒绝某个消费者访问服务。 √ √ 服务测试 支持在控制台填写调用参数、发起服务调用,并得到服务调用的结果。 √ √ 自动化回归 支持通过用例管理和用例集管理能力实现功能快速回归。 √ √ 服务Mock 支持模拟真实后端服务。 √ √ 事件中心 支持通过事件类型和事件来源维度查询事件记录,感知微服务治理事件。 √ √ 操作日志 支持记录关键治理中心操作日志。 √ √ 流量防护 支持以流量为切入口,对请求流量进行流量控制、熔断降级和系统保护等操作。 × √ 网关防护 支持针对SpringCloud Gateway和Zuul应用实现流量控制。 × √ 全链路灰度 支持将多个相同版本的应用划分为同一个泳道,通过全链路流量控制的功能将相同版本的应用隔离成一个独立的运行环境(泳道)。 × √ 功能开关 提供了一个轻量级的动态配置框架,可以在项目中快速接入配置,并在控制台实时管理配置项。 × √ 数据库治理 支持SQL监控统计、SQL流量防护、连接池治理、数据库灰度、数据库读写路由等功能。 × √ 全局鉴权 支持通过创建鉴权规则,实现多个微服务之间通信的身份验证。 × √
        来自:
        帮助文档
        微服务引擎
        产品简介
        产品规格
        微服务治理中心
      • 功能概览
        本文主要介绍SQL Server实例的功能概览。 SQL Server实例主要包括如下功能: 连接数据库 连接SQL Server实例 申请或释放外网地址 查看或修改内外网地址和端口 管理实例 创建 SQL Server实例 重启实例 续订 手动续费 自动续费 实例规格变更 磁盘扩容 备份空间扩容 实例类型升级 绑定/解绑弹性公网IP 修改数据库端口 修改安全组 主备切换 退订 账号与权限 创建账号 重置密码 修改权限 删除账号 系统账号说明 管理参数 使用控制台设置参数 使用SQL命令设置参数 查看参数修改历史记录 参数模板管理 创建参数模板 比较参数模板 复制参数模板 重置参数模板 应用参数模板 修改参数模板描述 删除参数模板 修改参数模板中的参数 备份与恢复 备份 设置自动备份策略(合并备份清理) 数据备份 创建手动备份 备份清理 删除手动备份 恢复 恢复SQL Server数据 按备份集恢复数据 将数据恢复至指定时间点 服务可用性 手动切换主备切换 查看主备切换日志 查看数据复制方式 监控告警 查看资源和引擎监控 管理报警 管理数据库 创建数据库 删除数据库 SQL命令管理数据库 日志管理 查看日志 任务列表 任务列表
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        功能概览
      • 配置桶的日志记录
        本节主要介绍如何配置桶的日志记录。 当一个桶开启了日志记录功能后,OBS自动将该桶的日志按照固定的命名规则,生成一个对象写入用户指定的桶。 操作步骤 步骤 1 在桶列表单击待操作的桶,进入“对象”页面。 步骤 2 在左侧导航栏,单击“概览”,进入“概览”页面。 步骤 3 在“基础配置”区域下,单击“日志记录”卡片,系统弹出“日志记录”对话框。 步骤 4 选择“启用”,如下图所示。 步骤 5 选择“日志存储桶”(已经存在的桶),指定日志文件生成后将上传到哪个桶中。选定的日志存储桶的日志投递用户组会自动被赋予读取ACL权限和桶的写入权限。 步骤 6 设置“日志文件前缀”,指定日志文件的前缀。 启用日志记录功能后,生成的日志文件根据如下规则命名: YYYYmmDDHHMMSS 为用户指定的日志文件日志存储前缀。 YYYYmmDDHHMMSS为日志生成的日期与时间,各字段依次表示年、月、日、时、分、秒。 为OBS自动生成的字符串。 在管理控制台上,如果配置的目标前缀 以斜杠 / 结尾,则该桶生成的日志文件在目标桶中将统一存放在以 命名的文件夹中,方便您进行管理。 例如: 如果配置日志存储桶为 bucket ,日志文件前缀为 bucketlog/ ,则所有日志都将保存在bucket 内的文件夹bucketlog 中。日志命名举例: 20150629122207N7MXLAF1BDG7MPDV 。 如果配置日志存储桶为 bucket ,日志文件前缀为 bucketlog ,则所有日志都将直接保存在bucket 中。日志命名举例: bucketlog20150629122207N7MXLAF1BDG7MPDV 。 步骤 7 选择“IAM委托”,给OBS授予上传日志文件到日志存储桶的权限。 默认情况下,在为委托配置权限时只需设置日志存储桶的上传对象(PutObject)权限,示例如下(其中mybucketlogs为日志存储桶的桶名)。如果日志存储桶开启了默认加密功能,还需要委托同时具有日志存储桶所在区域的KMS Administrator权限。 { "Version": "1.1", "Statement": [ { "Action": [ "obs:object:PutObject" ], "Resource": [ "OBS:::object:mybucketlogs/" ], "Effect": "Allow" } ] } 您可以从下拉列表选择帐号下已有的IAM委托,也可以单击“创建委托”去创建一个新的委托。 步骤 8 单击“确定”。 日志记录设置成功后,大约15分钟后可在日志存储桶中查看到桶的操作日志。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        日志记录
        配置桶的日志记录
      • 将MySQL同步到MySQL
        参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。说明选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到MySQL
      • 开启/关闭流日志
        本章节指导用户开启/关闭企业路由器流日志。 说明 流日志开启后,系统将会在下个日志采集周期内开始采集流日志数据。 流日志关闭后,系统将会在下个日志采集周期内停止采集流日志数据。对于已经生成的流日志数据,仍然会正常上报。 步骤 1:登录管理控制台,进入企业路由器主页面。 步骤 2:通过名称过滤,快速找到目标企业路由器。 步骤 3:单击企业路由器名称,并选择“流日志”页签。 进入流日志列表页面。 步骤 4:在流日志列表中,单击目标流日志所在行的操作列下的“开启”或“关闭”。 弹出开启/关闭确认对话框。 步骤 5:确认无误后,单击“确定”,开启/关闭流日志。 返回流日志列表页面。 步骤 6:在流日志列表页面,查看流日志状态。 待流日志状态由“修改中”变为“已开启”/“未开启”,表示流日志开启/关闭成功。
        来自:
        帮助文档
        企业路由器
        用户指南
        流日志
        开启/关闭流日志
      • 重启服务器上的HBlock
        参数 描述 scope SCOPE &<1 n > 重启的HBlock服务范围。一次可以指定多个服务,以英文逗号隔开。 取值: All:重启服务器上的所有服务。 Min:仅重启服务器上的ms和ps服务。 mdm:元数据管理服务(仅集群版支持)。 fc:故障转移控制服务(仅集群版支持)。 ls:日志服务(仅集群版支持)。 ds:数据服务(仅集群版支持)。 dsx:磁盘的数据服务(仅集群版支持)。 cs:协调服务(仅集群版支持)。 ms:管理服务。 ws:监控服务。 ps:协议解析服务。 ag:数据采集服务。 ua:升级监听服务。 默认值为Min。 说明 各服务具体作用详见 f 或 force 强制重启当前服务器上的HBlock服务。 注意 强制重启HBlock服务,可能会造成数据丢失。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        重启服务器上的HBlock
      • OOS之间的数据迁移
        从OOS迁移文件 "srcEndpoint":"ooscn.ctyunapi.cn", 源OOS的Endpoint "srcAccessKey":"AccessKeyID", 源OOS的AccessKeyID "srcSecretKey":"SecretAccessKey", 源 OOS的SecretAccessKey "srcBucket":"srcoosbucket", 源 OOS 的 bucket "srcPrefix":"logs/", OOS 上要迁移文件的前缀,请根据实际填写 "srcMarker":"", 从第一个文件开始迁移 "srcStopObject":"", OOS 上要迁移的截止文件 "destEndpoint":"ooscn.ctyunapi.cn", 目标OOS的Endpoint "destAccessKey":"AccessKeyID", OOS的AccessKeyID "destSecretKey":"SecretAccessKey", OOS的SecretAccessKey "destBucket":"BucktName", 目标OOS 的Bucket名称 "isSkipExistFile":false 是否跳过目标资源池中已有的文件 } 执行迁移 对于 Windows 客户端,执行 import.bat 启动迁移。 1.打开开始菜单,搜索cmd,打开命令提示符窗口。 2.cd到压缩工具所在的目录下,例如 cd c:CTYUNOOSImport versionid 。 3.执行import.bat。 对于Linux客户端,进入CTYUNOOSImport versionid ,执行命令./import.sh启动迁移。 查看迁移状态 迁移任务创建后,会生成相应日志记录迁移情况: 迁移日志:migratelog文件夹下生成四种日志:异常日志、成功日志、跳过文件日志、其他日志。 运行日志:在logs/migrate文件夹下,根据log4j2.xml配置可生成server.log、error.log、dubug.log等。默认未开启debug, 不记录debug.log。 您可通过日志查看迁移失败的文件,并且可以配置migrate.conf文件中的migrateLogFile参数实现对失败文件的再次迁移。 说明 数据迁移工具支持断点续传,如果迁移过程中程序被终止了,可以重新启动迁移任务,从之前中断的位置继续开始迁移。继续迁移的步骤如下: 1. 保留上次迁移执行过程中产生的backup文件。如果是在另外一台服务器上重新开始迁移任务,需要将backup文件拷贝到新服务器的迁移工具所在目录下。 2. (可选)查看nextMarker.txt文件中记录的上次数据迁移位置。修改migrate.conf,设置srcMarker为上次迁移位置,如果不修改,则可能会造成文件重复迁移。
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        OOS之间的数据迁移
      • 日志分析
        本文介绍如何通过日志分析分析域名访问日志和Web攻击日志。 功能简介 日志分析模块主要是介绍和指导客户如何分析域名访问日志和Web攻击日志。为您提供一个月内的访问日志和Web攻击日志。 创建日志任务 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【数据分析】,进入【日志分析】菜单。 3. 单击页面左上角【新建日志任务】按钮。 4. 配置完成后,单击【确定】,保存日志任务。 注意 本产品相关数据从您成功配置任务后才开始生成和记录。若您尚未进行任务配置,将无法获取到任何数据。 请您在使用相关功能前,先完成任务配置,以确保正常使用。 配置项说明 配置项 说明 任务名称 配置任务的名称,支持中英文、数字、最长30个字符。 日志类型 配置需要创建的日志类型,支持配置业务访问日志和Web应用攻击日志。一个任务只能配置一种日志类型。 关联域名 配置日志任务的域名,默认为全部域名。 实时分析日志 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【运营管理】—【数据分析】,进入【日志分析】菜单。 3. 单击【日志任务列表】—【操作】中的【实时分析日志】按钮,进入实时分析日志页面。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        运营管理
        数据分析
        日志分析
      • 产品类
        本小节介绍安全专区产品类常见问题。 安全专区相比传统安全组件有什么优势? 与天翼云平台紧密集成,识别并管理云资产及安全状态; 集成多种满足等保合规的安全组件,单点登录,一键登录并管理所有安全组件; 提供全覆盖的安全态势管理能力,集中展现资产不同的安全状态信息; 集中管理云网边界、虚机、业务系统的漏洞、告警、用户行为和安全运行数据; 一键订购,产品自动交付,快速解决云上等保合规要求。 安全专区的防护功能是否就能满足等保合规需求? 安全专区可满足等保二级、三级的安全技术合规要求。 一套安全专区的防护能服务于多少个系统? 安全专区套餐可满足天翼云同个VPC甚至同数据节点的多个VPC的多个业务系统的安全防护要求; 根据资产数量的不同,可配置不同的安全组件授权及虚机资源,满足业务防护性能需求。 日志审计有没有整合在安全专区管理中心? 有的,日志审计通过部署agent在主机进行管理。 安全专区在多个VPC场景下,资产是否能共同管理? 多个VPC的情况下,通过VPC路由器进行对等连接打通安全专区VPC,安全专区VPC各功能组件对所有资产共同统一管理。 安全专区产品能否解耦订购? 支持。 安全专区防火墙防护流量最大能支持多少,如果客户所需流量超过最大防火墙防护流量怎么办? 目前防火墙最大防护流量能达到1.6G,如果客户所需流量超过1.6G,要先确认客户有多少个VPC,如果客户有多个VPC,可以采用防火墙下沉到各个VPC分别管理的解决方案,这种情况也要结合具体项目情况具体沟通。
        来自:
        帮助文档
        安全专区
        常见问题
        产品类
      • 资源及磁盘管理类
        RDS是否支持磁盘缩容 RDS暂时不支持磁盘缩容。您可以重新创建较低磁盘空间的数据库实例,并通过DRS将数据迁移到该实例。 哪些内容会占用用户所创建的RDS实例空间 用户正常的数据(不包括备份数据),以及关系型数据库实例正常运行所需的数据(比如系统数据库、数据库回滚日志、重做日志、索引等)。磁盘空间会有必要的文件系统开销,这些开销主要包括inode、reserved block,以及数据库运行必需的空间。同时,包含如下关系型数据库的必要日志文件: RDS for MySQL数据库产生的Binlog日志。 RDS for PostgreSQL数据库服务器产生的日志文件。 Microsoft SQL Server数据库产生的日志文件(Microsoft SQL Server日志、默认的Trace文件和代理日志文件等)。 这些文件保证关系型数据库实例正常稳定地运行。 DDL操作对磁盘空间的要求 为了确保业务正常,您应该避免在业务高峰进行DDL(Data Definition Language)等可能导致磁盘空间爆增的操作。必须进行DDL操作时,请务必确保磁盘空间大于等于表空间两倍大小+10GB,即:假设您的表空间为500GB,那么,您在进行DDL操作时,需确保磁盘空间大于等于5002+101010GB。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        资源及磁盘管理类
      • Flink SQL作业相关问题
        问题现象 在DLI上提交Flink SQL作业,作业运行失败,在作业日志中有如下报错信息: connect to DIS failed java.lang.IllegalArgumentException: Access key cannot be null 问题根因 该Flink SQL作业在配置作业运行参数时,有选择保存作业日志或开启Checkpoint,配置了OBS桶保存作业日志和Checkpoint。但是运行该Flink SQL作业的IAM用户没有OBS写入权限导致该问题。 解决方案 1.登录IAM控制台页面,单击“用户”,在搜索框中选择“用户名”,输入运行作业的IAM用户名。 2.单击查询到用户名,查看该用户对应的用户组。 3.单击“用户组”,输入查询到的用户组查询,单击用户组名称,在“授权记录”中查看当前用户的权限。 4.确认当前用户所属用户组下的权限是否包含OBS写入的权限,比如“OBS OperateAccess”。如果没有OBS写入权限,则给对应的用户组进行授权。 5.授权完成后,等待5到10分钟等待权限生效。再次运行失败的Flink SQL作业,查看作业运行状态。 Flink SQL作业读取DIS数据报Not authorized错误 问题现象 Flink SQL作业读取DIS数据,运行该作业时,语义校验失败。具体作业失败提示信息如下: Get dis channel xxx info failed. error info: Not authorized, please click the overview page to do the authorize action 问题原因 运行Flink作业前,没有对运行的用户账号授权获取DIS数据的权限。 解决方案 1.登录到DLI管理控制台,左侧导航栏选择“全局配置 > 服务授权”。 2.在服务授权管理界面,勾选“DIS Administrator”权限,单击“更新委托授权”完成对当前用户的DIS权限授权。 3.在“作业管理 > Flink作业”,单击对应的Flink SQL作业,重新启动和运行该作业。 Flink SQL作业消费Kafka后sink到es集群,作业执行成功,但未写入数据
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink SQL作业相关问题
      • ALM-12050 网络写吞吐率超过阈值
        检查阈值设置是否合理 1.在FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > 主机 > 网络写信息 > 写吞吐率”,查看该告警阈值是否合理(默认80%为合理值,用户可以根据自己的实际需求调节)。 是,执行步骤4。 否,执行步骤2。 2.根据实际服务的使用情况在“运维 > 告警 > 阈值设置 > 待操作集群的名称 > 主机 > 网络写信息 > 写吞吐率”,单击“操作”列的“修改”更改告警阈值。 如下图所示: 3.等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行步骤4。 检查网口速率是否满足需求 4.打开FusionInsight Manager页面,在实时告警列表中,单击此告警所在行的,获取告警所在主机地址及网口。 5.以root用户登录告警所在主机。 6.执行命令ethtool 网口名称 ,查看当前网口速率最大值Speed。 说明 对于虚拟机环境,通过命令可能无法查询到网口速率,建议直接联系系统管理确认网口速率是否满足需求。 7.若网络写吞吐率超过阈值,直接联系系统管理员,提升网口速率。 8.检查该告警是否恢复。 是,处理完毕。 否,执行步骤9。 收集故障信息 9.在主集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 10.在“服务”中勾选“OMS”,单击“确定”。 11.设置“主机”为告警所在节点和主OMS节点。 12.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。 13.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12050 网络写吞吐率超过阈值
      • ALM-12049 网络读吞吐率超过阈值
        检查阈值设置是否合理 1.在FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > 主机 > 网络读信息 > 读吞吐率”,查看该告警阈值是否不合理(默认80%为合理值,用户可以根据自己的实际需求调节)。 是,执行步骤2。 否,执行步骤4。 2.根据实际服务的使用情况在“运维 > 告警 > 阈值设置 > 待操作集群的名称 > 主机 > 网络读信息 > 读吞吐率”,单击“操作”列的“修改”更改告警阈值。 3.等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行步骤4。 检查网口速率是否满足需求 4.打开FusionInsight Manager页面,在实时告警列表中,单击此告警所在行的,获取告警所在主机地址及网口名称。 5.以root用户登录告警所在主机。 6.执行命令ethtool 网口名称 ,查看当前网口速率最大值Speed。 说明 对于虚拟机环境,通过命令可能无法查询到网口速率,建议直接联系系统管理确认网口速率是否满足需求。 7.若网络读吞吐率超过阈值,直接联系系统管理员,提升网口速率。 8.检查该告警是否恢复。 是,处理完毕。 否,执行步骤9。 收集故障信息 9.在主集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 10.在“服务”中勾选“OMS”,单击“确定”。 11.设置“主机”为告警所在节点和主OMS节点。 12.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。 13.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12049 网络读吞吐率超过阈值
      • 平台用量查询的流量与日志统计的流量相比,为什么会存在差异
        本文解释平台用量查询的流量与日志统计的流量差异产生的原因。 CDN控制台上可查询带宽流量等统计数据,该数据同时也应用于生成计费账单,其流量会比基于访问日志统计的流量偏多。 原因是CDN日志中记录的流量数据是基于应用层日志中响应消息头+响应body体统计出的流量,而在实际网络请求中产生的网络流量,由于存在TCP/IP包头消耗和TCP重传,要比应用层统计到的流量数据高出7%~15%。因此按照业界标准,应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。 TCP/IP包头的消耗: HTTP请求是基于TCP/IP协议的,数据包是TCP/IP协议通信传输中的数据单位,我们在使用基于TCP/IP协议的网络时,网络中传递的其实就是数据包。每个数据包的大小最大是1500字节,这1500字节中包括了TCP和IP协议组成的40个字节的包头,这两个协议包头其实也会产生流量,但是却无法被应用层统计到,因此这40个字节的流量就不会被统计到日志里,这部分的流量会占到我们通过日志计算出流量的2.74%(40/1460)以上,即3%左右。 TCP重传: 根据互联网中网络的负载情况,通常情况下,会有接近3%~10%的数据包会因为网络堵塞、设备故障等各种异常情况被丢弃。发生丢包后,服务器会对丢弃的数据包进行重传,这部分的具体操作是由内核层的协议栈处理完成的,通常无法被应用层统计到的,因此在一定程度上也会造成日志统计与实际网络响应流量的差异。 综上所述,天翼云CDN加速产品取平均值10%作为网络层额外消耗的流量比例,即应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。
        来自:
        帮助文档
        CDN加速
        常见问题
        订购计费
        平台用量查询的流量与日志统计的流量相比,为什么会存在差异
      • 1
      • ...
      • 48
      • 49
      • 50
      • 51
      • 52
      • ...
      • 637
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      科研助手

      人脸活体检测

      动作活体识别

      身份证识别

      推荐文档

      文档下载

      迁移准备

      恢复文件和文件夹备份

      新增实例

      产品优势

      加入会议

      全面了解天翼云⑤:勒索病毒尝试处理方案

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号