活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云日志服务_相关内容
      • 日志、告警外发设置
        本节指导用户通过Kafka将日志、告警外发至第三方。 日志外发功能为公测功能,新购用户可以限时免费体验。 为日志类型添加转发目标 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 集成配置”,进入集成配置页面。 3. 选择日志类型,点击“转发配置”列的【+】按钮,弹出“新增转发配置”窗口。 4. 选择“转发目标”,单击“保存”,自动返回集成配置页面。此时转发配置 开关为“关闭”,投递状态为“未开启”。 5. 单击“转发配置”开关,打开“转发配置”。 配置转发目标 1. 在新增转发配置页面,单击“转发目标配置”进入转发目标配置页面,单击“新增”,进入“转发目标编辑”页面。 2. 输入相关信息,单击“检测”。 说明 “加密类型”选择“不加密”时,会自动在目标Kafka创建相应的“队列名(topic)”。 “加密类型”选择“SASL加密”时,需要先手动在目标Kafka创建相应的“队列名(topic)”。 3. 检测通过后,单击“保存”。 保存成功,返回转发目标配置页面,可以看到已新增的转发目标。
        来自:
        帮助文档
        云安全中心
        快速入门
        日志、告警外发设置
      • 使用ICAgent采集容器日志
        本文主要介绍如何使用ICAgent采集容器日志。 集群kubesystem命名空间下名为icagent的DaemonSet),ICAgent负责收集工作负载的日志并上报到AOM,您可以在CCE控制台和AOM控制台查看工作负载的日志。 约束与限制 ICAgent只采集.log、 .trace和 .out类型的文本日志文件。 费用说明 AOM每月赠送每个账号500M免费日志采集额度。 使用ICAgent采集日志 在工作负载中可以单独配置日志采集策略,此策略需要使用ICAgent。 步骤 1 在CCE中创建工作负载时,在配置容器信息时可以设置容器日志。 步骤 2 单击添加日志策略。 以nginx为例,不同工作负载根据实际情况配置。 图 添加日志策略 步骤 2 存储类型有“主机路径”和“容器路径”两种类型可供选择: 表 配置日志策略 参数 参数说明 :: 存储类型 主机路径:HostPath模式,将主机路径挂载到指定的容器路径(挂载路径)。用户可以在节点的主机路径中查看到容器输出在挂载路径中的日志信息。 容器路径:EmptyDir模式,将节点的临时路径挂载到指定的路径(挂载路径)。临时路径中存在的但暂未被采集器上报到AOM的日志数据在Pod实例删除后会消失。 主机路径 请输入主机的路径,如:/var/paas/sys/log/nginx 挂载路径 请输入数据存储要挂载到容器上的路径,如:/tmp 说明 请不要挂载到系统目录下,如“/”、“/var/run”等,否则会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 AOM只采集最近修改过的前20个日志文件,且默认采集两级子目录。 AOM只采集挂载路径下的“.log”、“.trace”、“.out”文本日志文件。 容器中挂载点的权限设置方法,请参见为Pod或容器配置安全性上下文。 主机扩展路径 仅“主机路径”类型需要填写 通过实例的ID或者容器的名称扩展主机路径,实现同一个主机路径下区分来自不同容器的挂载。 会在原先的“卷目录/子目录”中增加一个三级目录。使用户更方便获取单个Pod输出的文件。 None:不配置拓展路径。 PodUID:Pod的ID。 PodName:Pod的名称。 PodUID/ContainerName:Pod的ID/容器名称。 PodName/ContainerName:Pod名称/容器名称。 采集路径 设置采集路径可以更精确的指定采集内容,当前支持以下设置方式: 不设置则默认采集当前路径下.log .trace .out文件 设置表示递归采集5层目录下的.log .trace .out文件 设置表示模糊匹配 例子: 采集路径为/tmp/ /test.log表示采集/tmp目录及其15层子目录下的全部以test开头的.log文件。 注意 使用采集路径功能请确认您的采集器ICAgent版本为5.12.22或以上版本。 日志转储 此处日志转储是指日志的本地绕接。 设置:AOM每分钟扫描一次日志文件,当某个日志文件超过50MB时,会立即对其转储(转储时会在该日志文件所在的目录下生成一个新的zip文件。对于一个日志文件,AOM只保留最近生成的20个zip文件,当zip文件超过20个时,时间较早的zip文件会被删除),转储完成后AOM会将该日志文件清空。 不设置:若您在下拉列表框中选择“不设置”,则AOM不会对日志文件进行转储。 说明 AOM的日志绕接能力是使用copytruncate方式实现的,如果选择了设置,请务必保证您写日志文件的方式是append(追加模式),否则可能出现文件空洞问题 当前主流的日志组件例如Log4j、Logback等均已经具备日志文件的绕接能力,如果您的日志文件已经实现了绕接能力,则无需设置。否则可能出现冲突 建议您的业务自己实现绕接,可以更灵活的控制绕接文件的大小和个数。 步骤 3 单击“确定”,并完成创建工作负载。
        来自:
        帮助文档
        云容器引擎
        用户指南
        运维管理
        使用ICAgent采集容器日志
      • 策略处置记录
        本文主要介绍使用零信任和终端管理时发现异常行为的终端处置记录功能。 背景说明 处置记录展示企业配置的零信任策略规则和终端管理合规检测的实时处置记录,以便于企业对异常登录、访问等行为的观察和处置。 操作步骤 1. 登录边缘安全加速控制台,进入对应服务; 2. 在左侧导航栏,选择日志>策略处置记录,可查看处置事件或进行取消处置操作; 3. 可根据业务需求进行相关操作。 功能说明 处置记录事件数据集来源于AOne零信任>安全>动态授权、AOne终端管理>安全>终端安全>合规检测。 将统计整体处置概览情况,包括处置动作分布情况,命中策略和处置对象统计。 字段 说明 备注 监控(观察) 若触发策略,则记录处置记录,并将该用户的内网访问行为记录到威胁防护日志 挑战认证 若触发策略,则不允许访问内网,触发挑战认证弹窗,用户需短信验证码校验通过后才允许继续访问内网,并将该用户的内网访问行为记录到威胁防护日志 访问阻断 若触发策略,处置周期内不允许访问内网,直到恢复处置时,才允许继续访问,在恢复处置前,将该用户的内网访问行为记录到威胁防护日志 注销登录 若触发策略,将对已经登录客户端用户进行注销登录,登出处理,用户再次登录后,待不再匹配到策略才会放行登录,否则会再次注销登录处理 处置中记录:根据企业在在不同模块配置的策略,若检测到匹配策略的行为,则触发处置动作,并在处置中记录该事件。 对于支持周期性检测,能够自动恢复处置的策略,若用户在新的检测周期已经不再匹配到规则,则该处置中记录将移动到已恢复记录。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        零信任网络日志
        策略处置记录
      • 表达式概述
        本章节主要介绍DataArts Studio的EL表达式操作。 数据开发模块作业中的节点参数可以使用表达式语言(Expression Language,简称EL),根据运行环境动态生成参数值。可以根据Pipeline输入参数、上游节点输出等决定是否执行此节点。数据开发模块 EL表达式使用简单的算术和逻辑计算,引用内嵌对象,包括作业对象和一些工具类对象。 作业对象:提供了获取作业中上一个节点的输出消息、作业调度计划时间、作业执行时间等属性和方法。 工具类对象:提供了一系列字符串、时间、JSON操作方法,例如从一个字符串中截取一个子字符串、时间格式化等。 语法 表达式的语法: {expr} 其中,“expr”指的是表达式。“ ”和“{}”是数据开发模块 EL中通用的操作符,这两个操作符允许您通过数据开发模块内嵌对象访问作业属性。 举例 在Rest Client节点的参数“URL参数”中使用EL表达式 “tableName {JSONUtil.path(Job.getNodeOutput("getcluster"),"tables[0].tablename")}”。 表达式说明如下: 1. 获取作业中“getcluster”节点的执行结果(“Job.getNodeOutput("getcluster")”),执行结果是一个JSON字符串。 2. 通过JSON路径(“tables[0].tablename”),获取JSON字符串中字段的值。 调试方法介绍 下面为您介绍几种EL表达式的调试方法,能够在调试过程中方便地看到替换结果。 后文以 {DateUtil.now()}表达式为例进行介绍。 1. 使用DIS Client节点。 前提:您需要具备DIS通道。 方法:选择DIS Client节点,将EL表达式直接写在要发送的数据中,点击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 2. 使用Kafka Client节点。 前提:您需要具备MRS集群,且集群有Kafka组件。 方法:选择Kafka Client节点,将EL表达式直接写在要发送的数据中,点击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 3. 使用Shell节点。 前提:您需要具备ECS弹性云主机。 方法:创建一个主机连接,将EL表达式直接通过echo打印出来,点击“测试运行”之后查看日志,日志中会打印出EL表达式的值。 4. 使用Create OBS节点。 如果上述方法均不可用,则可以通过Create OBS去创建一个OBS目录,目录名称就是EL表达式的值,点击“测试运行”后,再去OBS界面查看创建出来的目录名称。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        表达式概述
      • 创建Topic
        场景描述 RocketMQ的Topic是消息的逻辑分类单位,用于将消息进行分组和管理。创建Topic的场景可以根据具体业务需求来确定,以下是一些常见的场景描述: 消息发布与订阅:当需要实现消息发布与订阅模式时,可以创建一个主题来管理相关的消息。发布者可以将消息发送到该主题,而订阅者可以订阅该主题以接收感兴趣的消息。 事件驱动架构:在事件驱动的架构中,不同的模块之间通过事件进行通信。每个事件可以对应一个主题,模块可以将事件发送到相应的主题,其他模块可以订阅该主题以接收事件通知。 日志收集与分析:当需要收集大量的日志数据并进行分析时,可以创建一个主题来管理日志消息。日志产生者可以将日志消息发送到该主题,而日志消费者可以订阅该主题以进行实时分析或存储。 异步处理:当需要将某些操作异步处理时,可以创建一个主题来管理相关的异步消息。操作发起者可以将异步消息发送到该主题,而异步处理器可以订阅该主题以进行后续的异步处理。 分布式事务消息:在分布式系统中,当需要实现分布式事务消息时,可以创建一个主题来管理相关的事务消息。事务发起者可以将事务消息发送到该主题,而事务消费者可以订阅该主题以进行事务的处理和确认。 总的来说,创建主题的场景可以根据具体的业务需求来确定。主题可以帮助将消息进行逻辑分类和管理,实现不同的消息传递模式和业务场景。 新建Topic 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【创建Topic】按钮 5、 在弹出的创建Topic页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择Topic所在的Broker,按照实例创建时候选择的主备节点对数列出每个Broker,可复选。 3)填写Topic名称,名字限制2到64个字符,超过限制会导致创建Topic失败,用户创建Topic只能包含大小写字母数字以及和符号。 4)按照实际需求填写Topic备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个Broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择Topic的读写权限,支持读写、只读、只写3类权限。 8)完成Topic信息填写后,保存确认即可新增主题。 9)若希望批量创建Topic,可点击【导入Topic】按钮。 导入Topic 注意:输入的Topic名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【下载模板】按钮下载。 Topic模板 批量上传Topic的模板,必须使用模板,才能够上传成功,模板格式如下: TopicName QueueNums Perm MessageType Topic1 4 6 NORMAL Topic2 1 6 FIFO Topic3 4 6 DELAY Topic4 4 6 TRANSACTION
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        创建Topic
      • 开启慢日志
        本文介绍如何开启SQL Server的慢日志。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【慢日志】,进入慢日志页面。 5. 单击【慢日志】按钮,打开慢日志设置弹窗。打开慢日志采集开关,然后设置慢日志的采集阈值(默认1秒),单击确认,开启慢日志采集功能。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        慢日志
        开启慢日志
      • 批量自动配置)
        回显信息 说明 Total: {数量} Success: {数量} Failed: 0 全部弹性云主机完成检查并安装驱动成功。 Total: {数量} Success: {数量} Failed: {数量} Failed数量不为零,表示部分弹性云主机检查或者安装驱动失败,可按照提示查看日志(logs/execorigin.log)对应主机执行失败的原因。 Please check the format of hostlist.txt hostlist.txt文件填写不符合要求,需要重新按照步骤6要求进行填写。 [Error] resizeecsmodifylinux.sh not found. 步骤6中的驱动安装脚本尚未下载,需要重新操作下载。 Host(s) is unreachable, please check the network or password of user root. 当前云主机无法访问以上弹性云主机,需要确认网络是否互通,或者hostlist.txt文件中配置的root用户密码是否正确。 [Error] hostlist.txt not found. hostlist.txt文件尚未创建,需要按照步骤6进行操作。 [Error] keyfile {私钥文件} not found. 指定的私钥文件不存在,请确定私钥文件存在后,重新按照步骤6操作。 或者使用密码方式登录,重新按照操作流程步骤6进行操作。 Please confirm that the ansible has been installed. 步骤2中的运行所需依赖尚未安装,需要执行命令进行安装。
        来自:
      • 日志下载
        本文介绍日志下载。 客户控制台可选择域名和时间范围查询日志,最多支持近15天的日志下载,同时支持单个日志下载和批量下载。 单日志下载:选中单个域名后面的文件下载键进行单个日志文件下载。 批量下载:第一列选中多个域名,并点击【批量下载】可进行批量日志下载。
        来自:
        帮助文档
        应用加速(文档停止维护)
        用户指南
        日志下载
      • 日志下载
        本文介绍如何通过日志下载功能查看对应域名的相关日志。 日志文件延迟时间:一般情况下延迟在24小时之内,但是也有可能超过24小时; 日志每隔一小时生成一次。具体分割成的文件数量根据该小时生成的日志量动态调整; 您可以下载最近15天的日志数据; 日志命名规则:log加速域名年月日时开始时间结束时间,例如: logwww.ctyun.cn202001010100005959.gz 图 日志下载
        来自:
        帮助文档
        安全加速(文档停止维护)
        用户指南
        日志下载
      • 配置应用日志策略
        本节主要介绍配置应用日志策略 ServiceStage支持配置应用日志策略,你可以在应用运维管理AOM中查看相关运行日志。 在部署应用组件过程中,或者应用组件已经部署,都可以配置日志策略。 如果不做任何配置,则系统默认会采集应用标准输出日志。 操作步骤 1、进入配置日志策略界面: 在部署应用组件的组件配置过程中配置应用日志策略,请执行步骤6。 组件已经部署完成后配置应用日志策略,请执行步骤2。 2、登录ServiceStage控制台,选择“应用管理 > 应用列表”,可查看到所有应用。 3、单击应用名称,进入应用“概览”页。 4、在“环境视图”页签,选择“环境”,可以看到已经部署在该环境下的应用组件。 5、单击应用组件名称,进入应用组件实例“概览”页,单击“更新升级”。 6、展开“高级设置 > 运维监控”,在“日志采集”页签,单击“添加日志策略”并设置如下表所示参数。 参数 参数说明 :: 存储类型 选择存储类型。 “容器路径”:日志仅输出到容器路径,无需挂载主机路径。 主机路径 存储类型为“主机路径”时需要设置。 输入主机上的日志存储路径。 容器挂载 设置“挂载路径”:输入数据卷挂载到应用上的路径。 须知 请不要挂载在系统目录下,如“/”、“/var/run ” 等,会导致应用异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响应用启动的文件,否则文件会被替换,导致应用启动异常,应用创建失败。 挂载高危目录的情况下,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。设置“主机扩展路径”。 None:不配置拓展路径。 PodUID:Pod的ID。 PodName:Pod的名称。 PodUID/ContainerName:Pod的ID/容器名称。 PodName/ContainerName:Pod名称/容器名称。设置“老化周期”。 Hourly:每小时扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。 Daily:每天扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。 Weekly:每周扫描一次日志文件。如文件超过20MB,会将其压缩到一个历史文件中并转储到日志所在目录下,并清空原文件。 7、单击“确定”。 8、完成应用日志策略配置: 在部署应用组件的组件配置过程中配置日志策略,单击“下一步 规格确认”,完成组件部署。 组件已经部署完成后配置日志策略,单击“重新部署”。 说明 配置并部署完成后,可到应用运维管理AOM查看运行日志。具体操作请参考“帮助中心 > 应用运维管理 > 用户指南 > 日志管理”。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用运维
        配置应用日志策略
      • 云迁移与其他服务的关系
        云迁移服务CMS可与多种产品搭配使用,本节为您介绍云迁移与其他服务的关系。 云迁移与其他服务的关系如图所示 云迁移与其他服务的关系如表所示 服务名称 云迁移与其他服务之间的关系 相关内容 弹性云主机 利用云迁移服务,将源端服务器系统、应用及文件迁移至天翼云弹性云主机。 详见弹性云主机文档 关系数据库MySQL版 利用云迁移服务,将源端数据库数据迁移至天翼云数据库。 详见关系数据库MySQL版文档 对象存储 利用云迁移服务,将源端对象存储数据迁移至天翼云对象存储。 详见对象存储文档 弹性IP 弹性IP为云迁移服务提供网络服务。 详见弹性IP文档 云硬盘 云硬盘为云迁移服务提供存储服务。 详见云硬盘文档
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        云迁移与其他服务的关系
      • Kafka Broker节点磁盘IO高负载
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到Broker 磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 在演练运行详情 页的监控指标 页签,观测磁盘读/写速率指标。 登录分布式消息服务Kafka控制台,进入目标实例的监控指标页,观测磁盘读/写速率指标。 2、业务应用验证: 检查生产者和消费者应用的日志,确认是否存在因连接超时、请求处理缓慢或发送/拉取失败而产生的错误或警告。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点磁盘IO高负载
      • Kafka Broker节点CPU高负载
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到Broker CPU高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 在演练运行详情 页的监控指标 页签,观测CPU使用率指标。 登录分布式消息服务Kafka控制台,进入目标实例的监控指标页,观测CPU使用率指标。 2、业务应用验证: 检查生产者和消费者应用的日志,确认是否存在因连接超时、请求处理缓慢或发送/拉取失败而产生的错误或警告。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        中间件
        分布式消息服务Kafka
        Kafka Broker节点CPU高负载
      • Kafka Broker节点CPU高负载(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到Broker CPU高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 在演练运行详情 页的监控指标 页签,观测CPU使用率指标。 登录分布式消息服务Kafka控制台,进入目标实例的监控指标页,观测CPU使用率指标。 2、业务应用验证: 检查生产者和消费者应用的日志,确认是否存在因连接超时、请求处理缓慢或发送/拉取失败而产生的错误或警告。
        来自:
      • 配置日志外发
        本节介绍如何在漏洞扫描中进行Syslog日志外发配置。 前提条件 已购买漏洞扫描资源,且资源状态为“运行中”。 操作步骤 1. 登录云等保专区控制台,在左侧导航栏,选择“漏洞扫描”,在目标资源右侧操作列单击“配置”,进入漏洞扫描系统。 2. 在漏洞扫描左侧导航栏,选择“系统管理 > 配置”,选择“系统配置”页签,找到“syslog同步设置”。 3. 配置syslog同步设置参数,配置完成后,单击“确定”,即可完成Syslog外送配置。 状态:设置为“开启”。 syslog ip:配置外送目的地IP。 syslog端口:配置目的地端口。
        来自:
        帮助文档
        云等保专区
        用户指南
        漏洞扫描
        配置日志外发
      • 排查实例CPU使用率高问题
        本页介绍了排查实例CPU使用率高问题的方法。 CPU使用率过高的一般排查步骤如下: 1. 在DDS控制台找到目标实例,单击监控图标, 然后在CPU页签下,查看CPU使用率较高的时间段。 2. 登录对应的实例机器查看系统资源使用情况:首先使用Linux的系统监控工具(如top、htop)或Windows的任务管理器,查看系统整体的CPU使用率和其他资源使用情况。确认是否只有MongoDB进程占用大量CPU资源,还是其他进程也在竞争CPU资源。 3. 文档数据库服务查询性能分析工具与方式: 1. MongoDB Compass等工具来查看当前正在执行的查询(MongoDB Compass 的下载与使用请参见Mongodb的官网下载)。 2. 使用MongoDB shell的db.currentOp()命令,检查是否有某个查询或操作占用了大量CPU资源。 db.currentOp()命令解析: 例如:连接上Mongodb shell 执行以下操作: > db.users.find({ age: { $gte: 18 } }).limit(10) > db.currentOp() { "inprog" : [ { "opid" : 1290, // 操作的唯一标识符 "op" : "query", // 操作类型:查询 "ns" : "exampledb.users", // 操作涉及的命名空间 "query" : { "age" : { "$gte" : 18 } }, // 查询条件 "client" : "127.0.0.1:57852", // 客户端IP地址和端口 "desc" : "conn211", // 操作的描述信息 "active" : true, // 操作是否活动中 "secsrunning" : 5, // 操作已经运行的时间(以秒为单位) "oplog" : false, "numYields" : 0, "locks" : { "Global" : "r", // 全局读锁 "MMAPV1Journal" : "r" // MMAPv1引擎的日志读锁 }, "waitingForLock" : false, "msg" : "", "numYieldOps" : 0, "database" : "exampledb", "command" : { "find" : "users", // 执行的命令:查找操作 "filter" : { "age" : { "$gte" : 18 } }, // 过滤条件 "limit" : 10 // 限制结果数 }, "planSummary" : "COLLSCAN", // 查询执行计划摘要 "lsid" : { "id" : { "UUID" : "e45ea9176c614a5e86812da4af89aa29" }, // 会话ID "uid" : ObjectId("ea6a1a2570a062f88eac10f5") // 用户ID }, "$clusterTime" : { "clusterTime" : Timestamp(1657796621, 1), "signature" : { "hash" : { "BsonData" : "wDUTByvnZXjN+MJB/M9Rlg", "Length" : 28 }, "keyId" : 6963168194386045953 } }, "stale" : false, "txnNumber" : 11, "startAt" : ISODate("20230721T15:57:01.246Z"), "autocommit" : false, "lastWrite" : { "opTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "lastWriteDate" : ISODate("20230721T15:57:01Z"), "majorityOpTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "majorityWriteDate" : ISODate("20230721T15:57:01Z") }, "activeShards" : {}, "numShards" : 0, "shardName" : "", "hashed" : false, "batchSize" : 0, "mode" : "scanned" } ] } 4. 确认索引使用情况:检查数据库中的索引是否被有效使用。缺少索引或索引使用不当可能导致查询性能下降,从而导致高CPU使用率。 5. 长时间运行的查询:检查是否有长时间运行的查询,这些查询可能会占用大量CPU资源。优化查询性能或者对长时间运行的查询进行调整可能有助于降低CPU使用率。 6. 调整Write Concern:写操作的Write Concern设置会影响数据写入的确认方式,使用较高级别的Write Concern可能会导致CPU开销增加。根据应用需求,选择合适的Write Concern。 7. 硬件性能:确认文档数据库运行在性能良好的硬件上,包括CPU、内存和磁盘。如果硬件性能不足,可能会导致CPU使用率过高。 8. 日志记录级别:考虑降低文档数据的日志记录级别,减少日志输出对CPU的影响。 9. 压力测试:进行压力测试以模拟生产环境的负载,并观察CPU使用率的变化。通过压力测试可以更好地理解系统的瓶颈和性能问题。 10. 数据分片:如果数据量较大,可以考虑使用文档数据库服务的分片集群,将数据分散到多个节点上,以实现水平扩展和负载均衡。 11. 数据库版本和配置:确保使用的文档数据库服务版本是较新的稳定版本,并根据硬件资源和负载情况合理配置文档数据库服务的参数。 注意 高CPU使用率可能是复杂的问题,可能有多个因素共同导致。在进行问题排查时,建议先在测试环境中进行实验和测试,逐步排查可能的原因。如果问题持续存在,可以考虑寻求专业的文档数据库技术支持。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查实例CPU使用率高问题
      • 1.8 版本特性
        本节主要介绍 1.8 版本特性 托管版本支持扁平网络多集群 托管版本支持非扁平网络多集群 Mixer组件正式下线,访问日志、调用链和监控均基于数据面采集 EnvoyFilter增强,支持更多灵活的Insert操作 支持VM类型服务治理 启用基于AuthorizationPolicy的新的授权策略 详细内容请参阅:<
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格配置
        升级
        1.8 版本特性
      • 慢日志
        本文介绍了查看RDSPostgreSQL实例慢日志的方法。 操作场景 慢日志用来记录执行时间超过当前慢日志阈值的语句,您可以通过慢日志的日志明细、统计分析情况,查找出执行效率低的语句,进行优化。 慢日志阈值可通过参数设置中设置logmindurationstatement参数进行设置,单位为毫秒。 Ⅰ类资源池实例查看慢日志步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQLⅠ类资源池加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面点击对应的实例进入基本信息页。 6. 选择页面上方的“慢日志”切换到页面,即可以查看慢日志。 1. 您可单击页面左上角的“排序”筛选框选择排序方式。 2. 您可单击“排序”筛选框旁边的“时间范围”,查看不同时间段内的慢日志。 Ⅱ类资源池实例查看慢日志步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在实例管理页,点击需要查看慢日志的实例行中的“监控”按钮,进入监控页。 6. 在左边栏选择“日志监控”进入日志页面。 7. 在此页面点击上方的“慢日志”切换到页面,即可查看慢日志。 1. 您可通过搜索栏的“sql关键字”搜索需要查看的sql慢语句。 2. 您可通过左上角“自定义查询时间”,查看不同时间段内的慢日志。 3. 您可通过搜索栏的“执行时间”,查看耗时大于该时间的慢日志。 4. 您可以通过“导出”按钮对慢日志进行导出。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        日志监控
        慢日志
      • 套餐和版本说明
        版本功能列表 下表描述了WAF主要功能模块在不同套餐中的支持情况。 √:表示在当前版本中支持。 ×:表示在当前版本中不支持。 分类 功能模块 描述 体验版 基础版 标准版 专业版 旗舰版 业务接入 泛域名防护 支持接入泛域名。 × × √ √ √ 业务接入 HTTPS防护 支持HTTPS防护。 √ √ √ √ √ 业务接入 IPv6 防护 支持对IPv6访问流量安全检测与防护。 √ √ √ √ √ 业务接入 非标准端口防护 支持防护80、443以外的非标准端口上的业务。 × × × √,10个特殊端口转发 √,50个特殊端口转发 业务接入 HTTP2防护 支持防护使用HTTP/2协议的网站。 √ √ √ √ √ 业务接入 WebSocket防护 支持防护使用WebSocket协议的网站。 √ √ √ √ √ 业务接入 智能负载均衡 通过智能调度,实现网络自动容灾的高可靠性,提供智能路由选路+缓存能力,满足用户"加速"需求。 付费支持 付费支持 付费支持 付费支持 付费支持 基础安全防护 自定义防护界面 支持用户自定义响应给客户端的拦截界面。 √ √ √ √ √ 基础安全防护 访问控制 支持基于基础字段和高级字段进行组合,设置白名单和黑名单。 支持IP、URI、METHOD、PATH字段 支持IP、URI、METHOD、PATH、IP段、区域字段 支持IP、URI、METHOD、PATH、IP段、目的地IP、目的地端口、区域、URL参数自定义、常见HTTP头部 支持IP、URI、METHOD、PATH、IP段、目的地IP、目的地端口、区域、URL参数自定义、常见HTTP头部 支持IP、URI、METHOD、PATH、IP段、目的地IP、目的地端口、区域、URL参数自定义、常见HTTP头部 基础安全防护 访问控制 支持基于基础字段和高级字段进行组合,设置白名单和黑名单。 √,10条/域名 √,20条/域名 √,50条/域名 √,100条/域名 √,200条/域名 基础安全防护 合规性检测 支持对HTTP请求信息中的方法以及参数长度等信息进行检测。 √ √ √ √ √ 基础安全防护 CC防护 支持防护常见的CC攻击,支持阈值和永久模式。 × × √ √ √ 基础安全防护 规则防护引擎 支持防护常见的Web攻击。 √ √ √ √ √ 基础安全防护 0Day 漏洞虚拟补丁 自定更新0day漏洞攻击防护规则。 √ √ √ √ √ 基础安全防护 扫描防护 支持常见扫描工具封禁。 × √ √ √ √ 基础安全防护 特殊字符拦截 若请求的URI携带特殊字符,支持对其请求进行防护 × √ √ √ √ 业务安全防护 网页防篡改 支持锁定网站页面,防止源站页面内容被恶意篡改带来的影响。 × √ √ √ √ 业务安全防护 防敏感信息泄露 支持防止网站敏感信息泄露(银行卡、身份证、手机号、邮箱)。 × × × √ √ 业务安全防护 Cookie防护 支持Cookie加密和Cookie签名。 × × × √ √ 业务安全防护 广告防护 实现广告防护和监测功能。 × × × × √ 业务安全防护 账户安全 支持防护暴力破解、批量注册。 × √ √ √ √ 业务安全防护 防web挖矿 防止占用用户终端设备的系统资源和网络资源进行挖矿。 × × × × √ 业务安全防护 大数据深度学习引擎 基于网站访问流量深度学习,自动生成防护策略。 × × × × √ 业务安全防护 验证码 为网页、小程序开发者提供全面的人机验证,适用于登录注册、电商大促、数据保护等场景。 × × √ √ √ 业务安全防护 Bot管理 缓解大量针对网站的爬取和异常注册登录行为。 付费支持 付费支持 付费支持 付费支持 付费支持 业务安全防护 API安全 支持对已接入WAF的API资产进行全面安全防护。 付费支持 付费支持 付费支持 付费支持 付费支持 产品服务 日志服务 提供攻击日志、业务日志。 √ √ √ √ √ 产品服务 安全报表 提供Web攻击、CC攻击报表。 √ √ √ √ √ 产品服务 监控告警 支持自定义监控告警。 × √ √ √ √ 产品服务 安全VIP服务 提供专业安全专家主动运营服务,持续深入定制整体防护方案。 付费支持 付费支持 付费支持 付费支持 付费支持 产品服务 态势感知大屏 提供数据大屏服务,让安全攻防状态一目了然。 付费支持 付费支持 付费支持 付费支持 付费支持
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        产品介绍
        产品简介
        套餐和版本说明
      • 如何获取客户端真实IP
        本文介绍全站加速如何传递真实客户端ip回源以及服务器端如何获取真实ip。 获取真实客户端IP 使用全站加速后,获取客户端真实IP的方法会略有不同,我们会将客户端的真实IP通过HTTP请求头传递给源站。您可以通过特定的HTTP请求头来获取IP信息。 域名未改动过相关配置的情况下,默认会以xforwardedfor的请求头来传递真实客户端IP。您也可以自定义该头部名称。 配置说明 您如果需要修改全站加速传递客户端真实ip的头部,可以提交工单,联系天翼云技术支持操作。 源站配置 如果您需要修改源站获取客户端真实ip的头部为xforwardedfor,可以参考以下列举的几个服务器端获取真实ip的场景。 Nginx场景 打开nginx.conf配置文件,在logformat的日志配置中添加$httpxforwardedfor,将真实客户端IP记录到日志中。 eg: nginx logformat main '$httpxforwardedfor $remoteuser [$timelocal] ' '"$request" $status $bodybytessent "$httpreferer" ' '"$httpuseragent"'; Tomcat场景 可以设置server.xml文件,添加Connector中的RemoteIpValve字段。 useForwardedHeaders"true":设置tomcat使用请求头字段来获取IP。 remoteIpHeader:根据您全站加速侧设置,指定对应的头部获取IP。 eg: Apache场景 如果源站部署的Apache服务器为2.2及以下版本,可通过运行命令安装Apache的第三方模块modrpaf,并修改http.conf文件获取客户IP地址的头部。 eg: apache LoadModule rpafmodule modules/modrpaf2.0.so
        来自:
        帮助文档
        全站加速
        最佳实践
        如何获取客户端真实IP
      • ALM-27004 DBService主备数据不同步
        检查备DBService状态是否正常 6. 以root用户登录备DBService节点。 7. 执行su omm命令切换到omm用户。 8. 进入“${DBSERVERHOME}/sbin”目录,然后执行命令 ./statusdbserver.sh 检查备DBService的gaussDB资源状态是否正常,查看回显中,“ResName”为“gaussDB”的一行,是否显示如下信息: 例如:101010231 gaussDB Standbynormal Normal Activestandby 是,执行步骤9。 否,执行步骤16。 检查备节点磁盘是否已满 9. 以root用户登录备DBService节点。 10. 执行命令su omm切换到omm用户。 11. 进入“${DBSERVERHOME}”目录,执行以下命令获取DBservice的数据目录。 cd ${DBSERVERHOME} source .dbserviceprofile echo ${DBSERVICEDATADIR} 12. 执行df h命令,查看系统磁盘分区的使用信息。 13. 查看DBservice数据目录空间是否已满。 是,执行步骤14。 否,执行步骤16。 14. 对节点磁盘进行扩容。 15. 磁盘扩容后,等待2分钟检查告警是否清除。 是,操作结束。 否,执行步骤16。 收集故障信息 16. 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 17. 在“服务”中勾选待操作集群的“DBService”,单击“确定”。 18. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 19. 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-27004 DBService主备数据不同步
      • ALM-12039 OMS数据库主备不同步
        检查备OMS数据库状态是否正常 6.以root用户登录备OMS数据库节点。 7.执行su omm命令切换到omm用户。 8.进入“${BIGDATAHOME}/omserver/om/sbin/”目录,然后执行./statusoms.sh命令检查备OMS数据库资源状态是否正常,查看回显中,“ResName”为“gaussDB”的一行,是否显示如下信息: 例如: 101010231 gaussDB Standbynormal Normal Activestandby 是,执行步骤9。 否,执行步骤16。 检查备节点磁盘是否已满 9.以root用户登录备OMS数据库节点。 10.执行su omm 命令切换到omm用户。 11.执行echo ${BIGDATADATAHOME}/dbdataom命令获取OMS数据库的数据目录。 12.执行df h命令,查看系统磁盘分区的使用信息。 13.查看OMS数据库数据目录挂载磁盘是否已满。 是,执行步骤14。 否,执行步骤16。 14.进行磁盘扩容。 15.磁盘扩容后,等待2分钟检查告警是否清除。 是,操作结束。 否,执行步骤16。 收集故障信息 16. 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 17. 在“服务”中勾选“OmmServer”,单击“确定”。 18. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 19. 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12039 OMS数据库主备不同步
      • 开启审计日志
        操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【审计日志】。 5. 在审计日志页面,点击【审计日志】按钮,打开审计日志设置的弹窗。 6. 单击【审计日志采集】开关按钮,选择“开启”,然后单击确认,开启审计日志采集功能。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        审计日志
        开启审计日志
      • 按备份集恢复
        关系数据库MySQL版支持使用已有的自动备份或手动备份文件,将实例数据恢复到备份被创建时的状态。可通过选择备份集文件,将文件恢复至当前实例、已有实例、新实例。本文介绍关系数据库MySQL版如何通过全量备份文件恢复历史数据到实例。 注意 Ⅰ类型资源池仅支持将备份文件恢复至当前实例、已有实例,Ⅱ类型资源池支持将备份文件恢复至当前实例、已有实例和新实例,资源池具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 注意事项 如果选择将备份文件恢复至当前实例,当前实例将被覆盖性恢复,并按照备份集中的数据进行恢复,请谨慎操作。 如果选择将备份文件恢复至已有实例(非原实例),则目标实例将被覆盖性恢复,原有数据都会消失,并按照备份集中的数据进行恢复,务必提前妥善保存目标实例的数据,请谨慎操作。 恢复过程中实例将不可用,请选择适当时间执行恢复任务。 恢复到实例时,SQL拦截规则不会随之进行迁移,如需目标实例与当前实例的拦截规则一致,请手动保存当前实例的规则,并将其使用至目标实例。 恢复到云硬盘备份类型的新实例,新实例与原实例处于同一VPC,若备份类型选择为对象存储,可以为不同VPC。 恢复到新实例,数据库版本须一致,且性能规格须大于等于原实例规格。 恢复到任何实例,目标实例的错误日志文件、慢日志文件和审计等日志文件都会被清除。 恢复到其他实例,需要保证其他实例的磁盘空间充足,至少大于选择的备份集文件,否则将会恢复失败。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        按备份集恢复
      • 使用自建Logstash导入数据至Elasticsearch实例
        本文为您介绍如何使用Logstash组件将数据导入至天翼云云搜索服务Elasticsearch实例。 Logstash是一个开源的服务器端实时数据处理工具,支持从多个数据源中提取数据,经过处理后将数据导入到Elasticsearch中。它非常适合处理流数据,如日志、监控数据和指标数据。 适用场景 日志数据、监控数据、流数据等。 前提条件 已经开通天翼云云搜索Elasticsearch实例。 已经部署Logstash且打通和Elasticsearch实例之间的网络。 Logstash配置 Logstash可以接收很多数据源,可以根据实际的需求配置。 这里使用Filebeat作为Logstash的输入。 配置yourlogstash.conf管道文件。 Logstash需要接收Filebeat的输出并进行处理,示例配置如下: input { beats { port > 5044 } } 对数据进行处理。 filter { mutate { removefield > ["@version"] } } output{ elasticsearch{ Elasticsearch实例的访问地址。 hosts > [" " " 访问Elasticsearch实例的用户名和密码,如无安全机制可不配置。 user > "" password > "" 配置写入的索引名,示例如下。 index > "filebeatlogstashes%{+YYYY.MM.dd}" } } 启动Logstash导入数据 可以使用下面的命令在命令行来启动Logstash导入数据: ./bin/logstash f yourlogstash.conf
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        导入数据至Elasticsearch实例
        使用自建Logstash导入数据至Elasticsearch实例
      • 查看审计日志文件列表
        本文介绍如何查看审计日志文件列表。 注意事项 需要开启审计日志采集后才能查看审计日志文件列表。 审计日志文件文件大小最大为40M,超过40M会自动生成新文件。 审计日志文件文件列表最多为60个,超过60个后会自动覆盖最早的文件。 审计日志关闭后重新打开,会自动生成新文件。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【审计日志】。 5. 若审计日志采集开关已经打开,页面将自动展示审计日志文件列表。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        审计日志
        查看审计日志文件列表
      • 实时迁移
        如何确保业务数据库的全部业务已经停止 业务切换时可通过如下方法确保业务数据库的全部业务已经停止: 步骤 1 在源数据库端执行如下语句,查看当前是否还存在有业务连接。 show processlist; 图 查看是否存在业务连接 步骤 2 可选: 如果源数据库有业务连接,则通过结果中Host列的值来查找对应的业务进程并将其停止。 步骤 3 在源库执行如下语句,查看binlog位置并记录该值(file列取值:position列取值 ),此处将该值记为ckpt1。 show master status; 图 查看binlog位置 步骤 4 等待30s以上,在源库执行如下语句,查看binlog位置并记录该值(file列取值:position列取值 ),此处将该值记为ckpt2。ckpt1ckpt2时,表示源数据库业务已基本停写。 show master status; 使用定时启动任务失败,迁移日志提示can not get agency token 使用定时启动任务功能时,如果使用的是子账号,需要使用“账户委托”,否则任务启动失败,迁移日志报:can not get agency token。 解决方案 目前针对该情况,分别提供如下解决方案: 方法一:使用主账号重新创建任务,启动方式选择“定时启动”。 方法二:使用主账号在子账号所在的用户组添加Security Administrator权限后,重新创建任务,启动方式选择“定时启动”。 方法三:重新创建任务,启动方式选择“立即启动”。 RDS for MySQL不支持MyISAM引擎表,迁移时MyISAM如何处理 基于以下原因,RDS for MySQL目前不支持MyISAM引擎。 MyISAM引擎表不支持事务,仅支持表级别锁,导致读写操作相互冲突。 MyISAM对数据完整性的保护存在缺陷,且这些缺陷会导致数据库数据的损坏甚至丢失。 MyISAM在出现数据损害情况下,很多都需要手动修复,无法通过产品服务提供的恢复功能进行数据恢复。 MyISAM向InnoDB的迁移透明,大多数情况不需要改动建表的代码,云数据库自动转换InnoDB即可完成迁移。 DRS在迁移过程中,会自动将MyISAM转换为InnoDB。针对MyISAM引擎表不支持事务这一特点,为了确保MyISAM表的数据一致性, DRS会借助主键来实现最终数据的一致。如果需要迁移没有主键的MyISAM表,建议选择无业务期启动迁移任务,以确保数据的一致性。
        来自:
        帮助文档
        数据库复制
        常见问题
        实时迁移
      • 查看或下载审计日志文件
        本文介绍如何查看或下载审计日志文件。 注意事项 需要开启审计日志后才能查看或下载审计日志文件。 查看操作步骤 1. 使用SSMS工具连接到目标实例。 2. 执行如下SQL查看审计日志详情。 SELECT FROM sys.fngetauditfile('D:XEventLogsauditXXX', default, default); 说明: XXX为审计日志文件名称。 下载操作步骤 注意 【下载】功能暂未开放,如需使用,请提交工单申请访问权限。 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【审计日志】,进入审计日志页面。 5. 选择目标审计文件,单击【下载】,立即下载审计日志。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        审计日志
        查看或下载审计日志文件
      • PUT Bucket Logging
        响应示例1 HTTP/1.1 200 OK xamzrequestid: 0275747fbe8742a179ecdfeee3f0f2f8b7b9c3adafb1b3b5b7 Date: Mon, 03 Sep 2012 12:00:00 GMT Server: CTYUN 请求示例2 以下是取消日志的示例: PUT /?logging HTTP/1.1 Host: docs.ooscn.ctyunapi.cn Date: Mon, 03 Sep 2012 12:00:00 GMT Authorization: SignatureValue /UTCYYYYMMDDhhmmss唯一字符串id 其中YYYY,MM,DD,hh,mm,ss分别代表日志发送时的年,月,日,小时,分钟,秒。TargetPrefix是用户在启动Bucket日志时配置的,如果未配置,则该项不存在。唯一字符串是服务端生成的,某些场景下不会生成。id表示日志服务器序号。 系统不会删除旧的日志文件。用户可以自己删除以前的日志文件,可以在List Objects时指定prefix参数,挑选出旧的日志文件,然后删除。 当客户端的请求到达后,日志记录不会被立刻推送到TargetBucket中,会延迟一段时间。 日志名称 字段名称 示例 备注 ::: BucketOwner mailaddress@ctyun.cn 源Bucket的Owner。 Bucket名称 mybucket 请求的bucket,如果OOS收到一个错误的bucket名称,那么这个请求不会出现在任何log中。 Time 04/08/2012 22:34:02 zz 请求到达的时间格式是dd/MM/yyyy HH:mm:ss zz。 Remote IP 72.21.206.5 请求者的IP地址。中间的代理和防火墙可能会隐藏实际发出请求的机器的地址。 Requester 根用户邮箱:mailaddress@ctyun.cn。 子用户:arn:ctyun:iam::10rc2arpn6306:user/testuser。 匿名用户:Anonymous。 如果是根用户,显示根用户的邮箱,如:mailaddress@ctyun.cn。 如果是子用户,显示子用户的ARN,如:arn:ctyun:iam::10rc2arpn6306:user/testuser。 如果是匿名访问,显示“Anonymous”。 Request ID e4dd82b2f0994896 Request ID是OOS生成的一个字符串,用于唯一标示每个请求。 Operation REST.PUT.OBJECT REST.HTTPmethod. resourcetype。 Key /photos/2012/08/puppy.jpg 请求的“Key”部分,URL编码。如果请求中没有指定文件,显示“”。 RequestURI "GET /mybucket/photos/2012/08/puppy.jpg HTTP/1.1" HTTP请求中的RequestURI部分。 HTTP status 200 响应的HTTP状态码。 Error Code NoSuchBucket OOS错误码,如果没有错误,显示“”。 Bytes Sent 2662992 写请求或读响应发送的字节数,不包括HTTP协议的头。如果是0,显示“”。 Object Size 3462992 Object的总大小。 Time 70 从收到请求到发出响应的时间,单位是ms。 Referer " HTTP Referer请求头的值。 UserAgent "curl/7.15.1" HTTP UserAgent请求头的值。 Version Id 3HL4kqtJvjVBH40Nrjfkd 请求中的versionId参数,如果没有,显示“”。 TurnAround Time 1024 OOS处理请求的时间,单位毫秒。即OOS接到客户端请求最后一个字节的时间,至OOS向客户端发送第一个响应字节的时间。 响应码为200和206的GET Object请求显示处理请求时间,其他操作显示“ ”。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        PUT Bucket Logging
      • Flink Jar作业相关问题
        问题现象 Flink Jar作业运行异常,作业日志中有如下报错信息: org.apache.flink.shaded.curator.org.apache.curator.ConnectionState Authentication failed 问题原因 因为帐号没有在全局配置中配置服务授权,导致该帐号在创建跨源连接访问外部数据时因为权限不足而导致跨源访问失败。 解决方案 1.登录DLI管理控制台,选择“全局配置 > 服务授权”。 2.在服务授权界面,全选委托权限。 3.单击“更新委托授权”。界面会提示“委托权限更新成功”,表示修改成功。 4.委托授权完成后,重新创建跨源连接和运行作业。 Flink Jar作业设置backend为OBS,报错不支持OBS文件系统 问题现象 客户执行Flink Jar作业,通过设置checkpoint存储在OBS桶中,作业一直提交失败,并伴有报错提交日志,提示OBS桶名不合法。 原因分析 1.确认OBS桶名是否正确。 2.确认所用AKSK是否有权限。 3.设置依赖关系provided防止Jar包冲突。 4.确认客户esdkobsjava3.1.3.jar的版本。 5.确认是集群存在问题。 处理步骤 1.设置依赖关系provided。 2.重启clusteragent应用集群升级后的配置。 3.去掉OBS依赖,否则checkpoint会写不进OBS。 Hadoop jar包冲突,导致Flink提交失败 问题现象 Flink 提交失败,异常为: Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.obs.metrics.OBSAMetricsProvider not found at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2664) at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2688) ... 31 common frames omitted Caused by: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.obs.metrics.OBSAMetricsProvider not found at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2568) at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2662) ... 32 common frames omitted
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink Jar作业相关问题
      • 关闭慢日志
        本文介绍如何关闭慢日志。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【慢日志】,进入慢日志页面。 5. 单击【慢日志】按钮,打开慢日志设置弹窗,关闭慢日志采集开关,单击确认关闭慢日志采集功能。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        慢日志
        关闭慢日志
      • 节省成本
        本页介绍了关系数据库MySQL版产品节省成本优势。 关系数据库MySQL版产品的节省成本主要体现为:即开即用、弹性伸缩、全面兼容、维护方便。 即开即用 即开即用MySQL数据库服务是天翼云提供的一项优质服务,您不需要自行搭建和配置环境,仅需通过官网控制台快速生成目标实例,通过内网连接MySQL数据库能够有效节省公网流量并降低响应时间,还能够提高运维效率。 弹性伸缩 您可以根据业务情况对数据库实例资源进行弹性伸缩,按需计费,帮助您有效节省成本。 全面兼容 无需再次学习,关系数据库MySQL版支持各种原生数据库引擎的操作方法,让您能够快速上手。此外,MySQL版还兼容现有的程序和工具,您不必担心兼容性问题。 维护方便 关系数据库MySQL版提供了全面的日常维护和管理,包括软硬件故障处理等工作,确保数据库运转正常。专业的数据库管理控制平台,提供一键式功能,如重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等。此外,MySQL版的实例信息能够实时监控CPU利用率、IOPS、连接数、磁盘空间等,帮助您随时了解实例的动态情况。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        产品优势
        节省成本
      • 1
      • ...
      • 54
      • 55
      • 56
      • 57
      • 58
      • ...
      • 637
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      应用托管

      人脸活体检测

      人脸比对

      推荐文档

      数据库访问

      删除手动备份

      负载均衡停用

      Telnet/SSH/Rlogin访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号