云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云大数据paas服务_相关内容
      • 应用运维
        此小节介绍云堡垒机的应用运维。 运维用户获取应用发布资源访问操作权限后,即可在应用运维列表查看已授权资源,并设置资源标签。 查看应用运维列表并设置资源标签 约束限制 每个用户可自定义资源标签,资源标签仅能个人帐号使用,不能与系统内用户共用。 前提条件 已获取“应用运维”模块管理权限。 已获取资源访问控制权限,即已被关联访问控制策略或访问授权工单已审批通过。 操作步骤 1 登录云堡垒机系统 2 选择“运维>应用运维”,进入应用运维列表页面。 3 查询应用资源。 快速查询:在搜索框中输入关键字,根据自动识别、应用名称、应用地址等快速查询资源。 4 添加标签。 选择目标资源,在相应“标签”列单击,弹出标签编辑窗口。 输入标签类型回车选定标签,或选择已有标签类型。 单击“确认”,返回运维列表,即可查看已添加的标签。 5 批量添加标签。 选择多个目标资源,单击列表左下角“添加标签”,弹出标签编辑窗口。 输入标签类型回车选定标签,或选择已有标签类型。 单击“确认”,返回运维列表,即可查看已添加的标签。 6 删除标签。 选择一个或多个目标资源,单击列表左下角“删除标签”,弹出删除标签确认窗口。 确认信息无误后,单击“确认”,返回运维列表,标签已删除。 通过Web浏览器登录应用资源进行运维 通过Web浏览器登录应用资源,提供“协同分享”、“文件传输”、“文件管理”等功能。用户在应用上执行的所有操作,被云堡垒机记录并生成审计数据。 “协同分享”指会话创建者将当前会话链接发送给协助者,协助者通过链接登录创建者的会话中参与运维,实现运维协同操作。 “文件管理”指参与会话的用户获取操作权限后,可对云主机和主机网盘中文件或文件夹进行管理。 支持新建文件夹。 支持修改文件或文件夹名称。 支持批量删除。 “文件传输”指参与会话的用户获取操作权限后,可对云主机和主机网盘中文件进行上传或下载。 支持上传/下载文件。 支持上传文件夹。 目标地址为“主机网盘”,支持上传多个文件或一个文件夹到主机网盘,支持从主机网盘下载文件到本地保存。 本小节主要介绍如何通过Web浏览器登录应用资源,以及应用运维会话窗口操作说明。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        应用运维
      • 创建及管理索引
        本章节主要介绍云搜索服务如何创建及管理索引。 云搜索服务7.6.2以上版本的集群支持索引状态管理。索引状态管理(ISM)是一个插件,通过该插件,您可以根据索引使用期限,索引大小或文档数的变化触发这些定期的管理操作,从而使它们自动化。使用ISM插件时,您可以根据需要定义自动处理索引滚动或删除的策略。 创建索引策略 1.登录Kibana,在左侧选择IM,进入索引管理页面 。 2.单击 Create policy ,创建索引策略。 3.在Policy ID部分输入策略ID,Define policy部分输入您的策略。 4.单击 Create 。 创建策略后,下一步将此策略附加到一个或多个索引。您还可以将policyid在索引模板中包含,因此当创建与索引模板模式匹配的索引时,该索引将附加有策略。 PUT template/ { "indexpatterns": [ "indexname" ], "settings": { "opendistro.indexstatemanagement.policyid": "policyid" } } :需要替换为创建的索引模板名。 policyid:需要替换为3创建的Policy ID。 将策略附加到索引 1.选择 Indices 。 2.在Indices列表中选择您要附加策略的一个或多个索引。 3.单击右上角的 Apply policy ,添加应用策略。 4.从Policy ID菜单中,选择您创建的策略。 5.单击 Apply 。 将策略附加到索引后,ISM会默认创建每5分钟运行一次的作业,以执行策略操作,检查条件并将索引转换为不同的状态。
        来自:
        帮助文档
        云搜索服务
        用户指南
        索引状态管理
        创建及管理索引
      • 安装并配置Cloudbase-Init工具
        本节介绍了安装并配置CloudbaseInit工具的操作场景、前提条件、安装CloudbaseInit工具、配置CloudbaseInit工具。 操作场景 为了保证使用私有镜像创建的新云主机可以通过“用户数据注入”功能注入初始化自定义信息(例如为云主机设置登录密码),建议您在创建私有镜像前安装CloudbaseInit工具。 不安装CloudbaseInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 使用公共镜像创建的云主机,默认已经安装CloudbaseInit,不需要执行安装及配置操作。 使用外部镜像文件创建的云主机,请按照指导安装及配置CloudbaseInit。 前提条件 已为云主机绑定弹性公网IP。 已登录到云主机。 云主机的网卡属性为DHCP方式。 已安装一键式重置密码插件。 因为安装CloudbaseInit工具的操作步骤中如果有重启云主机的操作,可能导致密码被修改为一个随机密码,所以需要安装一键式重置密码插件重置密码。操作步骤请参考安装一键式重置密码插件。 安装CloudbaseInit工具 1. 在Windows操作系统中,单击“开始”,选择“控制面板 > 程序 > 程序和功能”查看是否安装CloudbaseInit。 − 是,无需重复安装,直接执行下文“配置CloudbaseInit工具”。 − 否,执行以下安装操作步骤。 2. 操作系统是否为Windows桌面版。 − 是,执行3。 − 否,若操作系统为Windows Server版本,请执行4。 3. 如果操作系统是Windows桌面版,如Windows 7或者Windows 10,那么需要在安装CloudbaseInit前确保Adminstrator账号未禁用。以Windows 7为例,具体操作请以实际为准。 a. 在操作系统中单击“开始”,选择的“控制面板 > 系统和安全 > 管理工具”。 b. 双击“计算机管理”。 c. 选择“系统工具 > 本地用户和组 > 用户”。 d. 右键单击“Administrator”,选择“属性”。 e. 确认已取消勾选“账户已禁用”选项。 4. 下载CloudbaseInit工具安装包。 根据Windows操作系统的不同位数,您需要下载不同版本的CloudbaseInit工具安装包。Cloudbase官网: CloudbaseInit分为稳定版本和Beta版本两种。 稳定版本获取路径: − 64位: − 32位: Beta版本获取路径: − 64位: − 32位: 5. 双击打开CloudbaseInit工具安装包开始安装。 6. 单击“Next”。 7. 勾选“I accept the terms in the License Agreement”,单击“Next”。 8. 使用CloudbaseInit默认安装路径进行安装,单击“Next”。 9. 在“Configuration options”窗口中,设置用户名为“Administrator”,日志输出串口选择“COM1”,且不勾选“Run CloudbaseInit service as LocalSystem”。如下图所示。 说明: 图片中的版本号仅供参考,请以实际情况为准。 设置参数 10. 单击“Next”。 11. 单击“Install”。 12. 在“Files in Use”窗口保留默认勾选“Close the application and attempt to restart them”,单击“OK”。 13. 操作系统是否为Windows桌面版。 − 是,执行15。 − 否,执行14。 14. 在“Completed the CloudbaseInit Setup Wizard ”窗口,请勿勾选“Run Sysprep to create a generalized Image. This is necessary if you plan to duplicate this instance, for example by creating a Glance image”及“Shutdown when Sysprep terminate”。如下图所示。 完成安装 说明: 图片中的版本号仅供参考,请以实际情况为准。 15. 单击“Finish”。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Windows操作系统相关操作
        安装并配置Cloudbase-Init工具
      • 客户端远程连接VPC
        步骤二:创建SSL服务端 创建VPN网关后,需要创建相应的SSL服务端,用于提供用户侧连接SSL VPN服务。服务端配置时需要注意,SSL客户侧地址池与VPC的子网网段没有交集,否则无法通信。 1. 登录控制中心。 2. 单击控制中心左上角的,选择VPN网关实例所在地域。 3. 在广域云网产品中选择“VPN连接”,进入VPN连接页面。 4. 在左侧网络控制台,选择“SSL VPN”,进入SSL VPN列表页面。 5. 进入SSL VPN列表页面中,单击“创建SSL服务端”。 6. 按照提示配置SSL服务端参数。 参数 说明 取值样例 名称 SSL服务端的名称。 SSLserver1 区域 VPN网关所在的资源池。 华东1 VPN网关 选择需要使用的VPN网关。 vpngatewaya5f1ssl 虚拟私有云 选择要使用的VPC作为本端资源。 vpca7f3 本端子网 选择本端需要连接的子网网段信息(可以复选,最多5个网段)。 subnetyl(192.168.0.0/24) 客户端地址池 配置客户端地址池范围。 10.0.0.0/24 协议 SSL VPN使用的协议。 默认:TCP TCP 启用UDP 是否启用UDP协议栈以提升转发效率。 默认:关闭 启用 端口 SSL VPN使用的端口,端口可配置范围:1024~4499,4501~49151。 默认:1194 1194 加密算法 SSL VPN使用的加密算法。 默认:AES256GCM AES256GCM 是否压缩 是否对传输数据进行压缩处理。 默认:否 否 自定义DNS SSL VPN需要配置的自定义DNS地址。 10.10.1.1 启用双因子认证 · 启用双因子认证,客户端登录不仅需要证书,同时需要输入密码。· 取消双因子认证,登录端登录只需要证书,无需密码。 开启 7. 点击“确定”,创建成功。
        来自:
        帮助文档
        VPN连接
        快速入门
        SSL VPN 快速入门
        客户端远程连接VPC
      • 通过公网连接集群实例
        本文内容主要介绍通过公网连接文档数据库集群实例 操作场景 本章节指导您使用MongoDB客户端和Robo 3T工具,通过公网连接集群实例。 操作系统使用场景:弹性云主机的操作系统以Linux为例,客户端本地使用的计算机系统以Windows为例。 前提条件 1.集群实例绑定弹性公网IP,并设置安全组规则,确保可以通过弹性云主机或Robo 3T工具访问弹性云主机。 2.安装MongoDB客户端或Robo 3T工具。 MongoDB客户端 a.创建并登录弹性云主机,请参见《弹性云主机用户指南》中“创建弹性云主机”的内容。 b.在弹性云主机上,安装MongoDB客户端。 若通过界面连接信息连接集群实例,建议使用4.0版本以上的MongoDB客户端。 使用Robo 3T工具连接实例 步骤 1打开Robo 3T工具,在连接信息页面,单击“Create”。 连接信息(非SSL方式) 在弹出的“Connection Settings”窗口,设置新建连接的参数。 3.在“Connection”页签,“Name”填写自定义的新建连接的名称,“Address”填写集群实例绑定的弹性IP和实例的数据库端口。 Connection 4.在“Authentication”页签,“Database”填写admin,“User Name”填写rwuser,“Password”填写您创建集群实例时设置的管理员密码。 Authentication 5.设置完成后,单击“Save”。 在连接信息页面,单击“Connect”,开始连接集群实例。 集群实例连接信息(非SSL方式) 成功连接集群实例,工具界面显示如图所示。 连接成功
        来自:
        帮助文档
        文档数据库服务
        快速入门
        集群快速入门
        通过公网连接集群实例
        通过公网连接集群实例
      • 通过配置文件设置参数
        本页介绍天翼云TeleDB数据库通过配置文件设置参数。 设置数据库参数最基本的方法是编辑postgresql.conf文件,该配置文件默认在节点数据目录下。 配置文件中每一行指定一个参数。名称和值之间的等号是可选的。空白是无意义的(除了在一个引号引用的参数值内)并且空行被忽略。井号( )指示该行的剩余部分是一个注释。非简单标识符或者数字的参数值必须用单引号包围。要在参数值里嵌入单引号,要么写两个单引号(首选)或者在引号前放反斜线。 以这种方式设定的参数为实例提供了默认值。除非这些设置被覆盖,活动会话看到的就是这些设置。下面的小节描述了管理员或用户覆盖这些默认值的方法。 主服务器进程每次收到SIGHUP信号(最简单的方法是从命令行运行pgctl reload或调用 SQL函数pgreloadconf()来发送这个信号)后都会重新读取这个配置文件。主服务器进程还会把这个信号传播给所有正在运行的服务器进程,这样现有的会话也能采用新值(要等待它们完成当前正在执行的客户端命令之后才会发生)。另外,你可以直接向一个单一服务 器进程发送该信号。有些参数只能在服务器启动时设置,在配置文件中对这些条目的修改将被忽略,直到下次服务器重启。配置文件中的非法参数设置也会在SIGHUP处理过程中被忽略(但是会记录日志)。 除postgresql.conf之外,数据目录还包含一个文件postgresql.auto.conf,它具有和postgresql.conf相同的格式。这个文件保存了通过ALTER SYSTEM命令修改的参数设置。每当postgresql.conf被读取时这个文件会被自动读取,并且它的设置会以同样的方式生效。postgresql.auto.conf中的设置会覆盖postgresql.conf 中的设置。 如果SIGHUP信号没有产生预期效果,那么系统表pgfilesettings 有助于对配置文件的预测试更改,或者诊断问题。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        参数设置说明
        通过配置文件设置参数
      • 防攻击处理预案说明
        本文介绍当攻击发生且触发平台稳定性红线时的处理预案。 场景说明 天翼云CDN是公共的加速服务,平台承载着成千上万的域名加速业务,是一个多客户共用的加速平台,默认不提供防攻击服务。当某个客户的域名遭受攻击(例如CC攻击),而出现带宽或QPS异常大幅上涨触发平台稳定性红线时,CDN系统有权(根据域名业务情况、攻击影响程度等因素综合判断)将对应客户的域名切入专用隔离资源池以隔离异常业务,避免影响其他正常用户的加速服务。在攻击较严重的情况下,同账户下的其他域名也会切入隔离资源池。 域名被切入隔离资源池后,天翼云CDN将不再保证服务质量,部分时段可能会出现无法服务的情况。 说明 隔离资源池是天翼云CDN的一组特殊节点,这组节点与常规节点之间相互隔离,用于隔离有风险的业务。 注意事项 因被攻击导致域名被切入隔离资源池后,用户访问带来的流量仍然会产生计费账单。 相关建议 如您的域名存在潜在被攻击风险,不希望在上述场景下被切换至隔离资源池,请在CDN加速基础上,叠加购买Web应用防火墙(边缘云版),或切换至安全类加速产品,例如:边缘安全加速平台。 相关概念: DDoS:分布式拒绝服务攻击(Distributed Denial of Service,简称DDoS)是指攻击的发出点是分布在不同地方,且所请求的服务往往要消耗大量的系统资源,造成目标主机无法为用户提供正常服务。 CC攻击:攻击者借助代理服务器生成指向受害主机的合法请求,以实现DDoS和伪装的,称为CC(Challenge Collapsar),CC主要是攻击页面,属于应用层攻击。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        防攻击处理预案说明
      • 服务端加密
        本文主要介绍OBS服务端加密相关问题。 我对存储在OBS上的数据加密时,可支持哪些加密技术? 您在将数据上传到OBS中前,可以事先对数据进行加密,以保证传输和保存的安全性。OBS不限定客户端加密的技术。 用户可根据需要对对象进行服务端加密,使对象更安全的存储在OBS中。 需要上传的对象可以通过数据加密服务器提供密钥的方式进行服务端加密。用户首先需要在KMS中创建密钥(或者使用KMS提供的默认密钥),当用户在OBS中上传对象时使用该密钥进行服务端加密。 当启用服务端加密功能后,用户上传对象时,数据会在服务端加密成密文后存储。用户下载加密对象时,存储的密文会先在服务端解密为明文,再提供给用户。 OBS支持通过接口提供KMS托管密钥的服务端加密(SSEKMS)。
        来自:
        帮助文档
        对象存储 OBS
        常见问题
        服务端加密
      • 查看监控指标
        本章节会介绍如何查看数据库监控指标。 操作场景 云服务平台提供的云监控,可以对关系型数据库的运行状态进行日常监控。您可以通过管理控制台,直观地查看关系型数据库的各项监控指标。您可以查看主实例监控和查看备实例监控。 由于监控数据的获取与传输会花费一定时间,因此,云监控显示的是当前时间5~10分钟前的关系型数据库状态。如果您的关系型数据库刚创建完成,请等待5~10分钟后查看监控数据。 前提条件 关系型数据库正常运行。 故障、删除状态的关系型数据库,无法在云监控中查看其监控指标。当关系型数据库再次启动或恢复后,即可正常查看。 说明 故障24小时的关系型数据库,云监控将默认该关系型数据库不存在,并在监控列表中删除,不再对其进行监控,但告警规则需要用户手动清理。 关系型数据库已正常运行一段时间(约10分钟)。 对于新创建的关系型数据库,需要等待一段时间,才能查看上报的监控数据和监控视图。 查看主实例监控 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击操作列中的“查看监控指标”,跳转到云监控页面。 您也可以在“实例管理”页面,单击目标实例名称,在页面右上角,单击“查看监控指标”。 步骤 5 查看实例监控信息。 通过“设置监控指标”框可选择您在页面中要展示的指标名称并排序。 您也可根据业务需求,拖动其中的监控视图,调整监控视图的顺序。 云监控支持的性能指标监控时间窗包括:近1小时、近3小时、近12小时、近24小时、近1周或者自定义周期。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        查看监控指标
      • 查看任务迁移记录
        本文为您介绍如何查看任务的迁移记录。 操作场景 迁移任务支持通过“开始 ”操作多次执行,也支持对失败对象进行重试迁移。当一个迁移任务被再次执行或重试后,前一次迁移的任务信息会保存在“任务迁移记录”中,方便您查看该任务多次执行迁移的历史信息。 前提条件 您的任务首次开始迁移后,仅在“任务结束 ”、“任务结束 存在失败对象 ”或“任务中断 ”状态,任务才会生成第一条迁移记录。手动“暂停 ”并“恢复”任务不会生成迁移记录。 该任务保留在迁移任务列表中,未被删除。 注意 若任务被删除,则该任务的迁移记录也会被删除。 操作指导 在单个迁移任务详情页面,你可以查看该任务的全部迁移记录,以及每次迁移记录的任务相关信息。 说明 对任务手动进行“暂停”操作,不会视作迁移的结束,不会生成迁移记录。仅有“任务结束”、“任务结束 存在失败对象”和“任务中断”状态的迁移任务,会生成相应的记录。 1.登录控制中心,点击控制中心左上角的,选择地域(服务入口目前仅开放“华东1”地域)。 2.单击“对象存储>对象存储迁移服务>迁移任务 ”进入迁移服务的迁移任务控制台。您可以通过点击任务名称,进入该任务的详情页面,在“任务迁移记录”部分查看相应的迁移记录。迁移记录的具体信息如下表: 信息 说明 : 执行记录ID 每条迁移记录的ID。 执行类型 本次迁移的类型,包括“迁移”和“失败重试”两种类型。 执行结束时的状态 展示本次迁移结束时任务的状态,可用于了解迁移是正常结束,还是存在失败对象。 若迁移因异常中断而结束,也会展示任务中断的原因。 本次待迁移的对象总数 展示任务本次待迁移的对象总数。 已迁移对象数 展示本次已迁移的对象数。 失败对象数 展示本次迁移中,迁移失败的对象数。 忽略对象数 展示本次迁移中忽略的对象数。 迁移数据总量 展示本次迁移的数据总量。 迁移开始时间 展示本次迁移开始的时间。 迁移结束时间 展示本次迁移结束的时间。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        查看任务迁移记录
      • 微服务引擎仪表盘中的数据通过ServiceStage对接到AOM
        背景信息 部署到微服务引擎的Java Chassis应用,在微服务引擎仪表盘上的实时监控数据默认保留5分钟。如果需要持久化存储历史监控数据用于后续查询分析,可以使用ServiceStage的自定义指标监控功能,将微服务显示到微服务引擎仪表盘中的数据对接到AOM。 本章节以软件包部署应用为例,指导您完成将微服务引擎仪表盘中的数据通过ServiceStage对接到AOM。 操作步骤 1.添加依赖 在开发环境中,打开需要持久化存储历史监控数据的应用项目,在微服务pom文件中添加如下依赖: org.apache.servicecomb metricscore org.apache.servicecomb metricsprometheus 2.将添加依赖后的应用项目重新编译打包并上传。 3.部署组件 4.更新已部署组件来源 5.对接监控指标到AOM a. 登录ServiceStage控制台,选择“应用管理 > 应用列表”。 b. 单击组件所在应用名称,进入应用“概览”页。 c. 在“环境视图”页签,选择部署了组件的“环境”。 d. 单击组件名称,进入组件实例“概览”页。 e. 单击“更新升级”。 f. 选择“高级设置 > 运维监控 > 自定义指标监控”,填写下表参数: 参数名称 参数值 上报路径 /metrics 上报端口 9696 6.单击“重新部署”,等待组件重新部署成功。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        微服务引擎仪表盘中的数据通过ServiceStage对接到AOM
      • SSH密码方式登录
        本节介绍了SSH密码方式登录的操作场景、前提条件、本地使用Windows操作系统登录流程、本地使用Linux操作系统。 操作场景 本节操作介绍在Windows和Linux环境中使用SSH密码方式远程登录Linux云主机的操作步骤。 前提条件 弹性云主机状态为“运行中”。 弹性云主机已经绑定弹性IP,绑定方式请参见绑定弹性公网IP。 如果Linux弹性云主机采用密钥方式鉴权,已获取root用户的密码,具体操作请参见获取Windows弹性云主机的密码。 所在安全组入方向已开放22端口,配置方式请参见配置安全组规则。 使用的登录工具(如PuTTY)与待登录的弹性云主机之间网络连通。例如,默认的22端口没有被防火墙屏蔽。 本地使用Windows操作系统 如果本地主机为Windows操作系统,可以按照下面方式登录云主机。 下面步骤以PuTTY为例。 1. 在以下路径中下载PuTTY和PuTTYgen。 2. 运行PuTTY。 3. 单击“Session”。 a. Host Name (or IP address):输入云主机的弹性IP。 b. Port:输入 22。 c. Connection Type:选择 SSH。 d. Saved Sessions:任务名称,在下一次使用putty时就可以单击保存的任务名称,即可打开远程连接。 图 单击“Session” 4. 单击“Window”,在“Translation”下的“Received data assumed to be in which character set:”选择“UTF8”。 5. 单击“Open”。 如果首次登录服务器,PuTTY会显示安全警告对话框,询问是否接受服务器的安全证书。单击“是”将证书保存到本地注册表中。 6. 建立到云主机的SSH连接后,根据提示输入用户名和密码登录云主机。 说明 如果是公共镜像(包括CoreOS),首次登录时,登录用户名、密码如下: 用户名:root 密码:购买云主机时,您设置的密码
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        登录Linux弹性云主机
        SSH密码方式登录
      • 查询伸缩活动
        本文主要介绍如何查询伸缩活动。 伸缩活动是指在伸缩组内由于伸缩条件满足而触发的云主机实例数量变更的活动,可能是增加或减少几台云主机实例。 以下场景会触发伸缩活动: 系统检测到伸缩策略中配置的条件满足要求。 手工修改伸缩组的最大/最小实例数,导致当前组内实例数超过该最大/最小的限制。 手动添加或移除实例。 下面介绍如何查看伸缩组的伸缩活动: 1. 登录天翼云控制中心,切换到需要查询伸缩活动的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击在【监控】页签中,展示伸缩活动详情。可以查看实例数量、CPU使用率等监控指标的变化情况。 4. 【活动历史】标签,进入【伸缩活动标签页】,查看伸缩活动详情,该页签展示进行伸缩活动的历史记录,支持查看实例伸缩和ELB迁移这两种伸缩活动的记录。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩活动管理
        查询伸缩活动
      • 数据目录
        项目 描述 数据目录 具体数据目录路径。 时间范围 可以选择相对时间: 近2小时 近6小时 近1天 近7天 近1年 自定义时间段,选择开始日期和结束日期,精确到天。 注意 起始时间必须早于结束时间,且起始时间不能早于服务器当前时间一年。 数据目录使用率 数据所在磁盘使用率。 容量配额使用率 HBlock容量配额使用率。 数据目录容量 数据目录所在磁盘的容量。 数据目录已用容量 数据目录所在磁盘已用容量。 容量配额 HBlock的容量配额。 已用容量配额 HBlock已使用的容量配额。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        数据目录
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 申请和修改内网域名
        本章节主要介绍申请和修改内网域名 DDS支持内网域名,您可以通过内网域名连接DDS。 使用须知 内网域名生成后,修改内网地址将会导致数据库连接中断,请谨慎操作。 使用和申请内网域名需要具有相应的操作权限。您可联系天翼云客服人员申请内网域名的操作权限。 申请内网域名 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 步骤 5 在“基本信息”页“节点信息”模块单击“申请内网域名”。 您也可以在左侧导航栏,单击“连接管理”,在“内网连接”页面中,在“基本信息”模块单击“申请内网域名”。 申请内网域名 步骤 6 在“基本信息”页“节点信息”模块“内网域名”处,查看生成的内网域名。 您也可以在左侧导航栏,单击“连接管理”,在“内网连接”页面中,在“基本信息”模块“内网域名”处查看生成的内网域名。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        申请和修改内网域名
      • 绑定云间高速(标准版)实例
        本文介绍如何通过天翼云SDWAN访问云上资源。 操作场景 用户通过天翼云SDWAN服务访问云上资源,需要将天翼云SDWAN实例绑定云间高速(标准版)实例。 操作步骤 1. 登录天翼云SDWAN控制台; 2. 选择“天翼云SDWAN”,进入天翼云SDWAN实例列表页面; 3. 选中目标SDWAN实例,单机其“操作”列的“绑定云间高速(标准版)”; 4. 根据页面提示,选择待绑定的云间高速(标准版)实例及云间高速(标准版)实例下的云网关实例; 5. 单击“确定”,完成绑定。
        来自:
        帮助文档
        天翼云SD-WAN
        天翼云SD-WAN实例
        绑定云间高速(标准版)实例
      • 创建存储网络
        本文介绍科研助手的存储网络创建操作。 1.概述 科研助手提供非持久化的智能边缘云存储,如果您需要持久化存储数据,需要先创建存储网络后方可申请智能边缘云存储,具体创建说明如下: 2.操作步骤 1)登录科研助手管理控制台。 2)在控制台左侧导航栏中,选择【数据存储】。 3)在【数据存储】菜单的选项中,选择【存储网络】。 4)在【存储网络】页面,点击左上角的【创建存储网络】按钮。 5)在【初始化存储网络】页面,选择对应的资源池和可用区后,点击【初始化】,完成存网络创建;点击【 取消 】,放弃存储网络创建。
        来自:
        帮助文档
        科研助手
        用户指南
        数据存储
        存储网络
        创建存储网络
      • 恢复副本集库表到指定时间点
        操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择副本集实例,单击实例名称。 步骤 5 在左侧导航树,单击“备份恢复”。 步骤 6 在“备份恢复”页面,单击“库表级时间点恢复”。 步骤 7 在弹出框中,填选相关信息。 库表信息 配置项 说明 恢复日期 实例自动备份所在的日期。 可恢复的时间区间 指定自动备份日期下,可恢复的时间区间。 基准时间点 指定可恢复的时间区间下,自动全量备份的时间点。 基准可恢复的时间区间 基于该自动全量备份,能够将库表恢复到的时间区域。 选择恢复库表 在左侧库表区域,显示查询到的基于基准时间点的自动全量备份下的库表。勾选左侧库表名,库表信息将同步到右侧区域。 要恢复到的时间点 指定基准可恢复的时间区间下的某一时间点。 自定义库表 您可以根据需要添加自定义库表。 由于系统库不可进行恢复,库名不能为系统库admin和local。 库名不能包含特殊字符"./ 和空格。 表名不能包含特殊字符“ $”,不能以“system.”作为前缀。 “库名.表名”长度小于等于120字符,“库名.表名.索引名”长度小于等于128字符,请您确保恢复后的库表名和索引名长度符合要求,避免恢复失败。 请您确保恢复后的表名和已有表名不同,避免恢复失败。 恢复成功后,默认会在实例上生成以“原表名bak时间戳”命名的新表,如果有索引,索引的ns会相应的变成“原库名.原表名bak时间戳”,请您根据实际情况对表进行重命名或者后续的数据处理。 对于已添加的自定义库表,建议您将该类库表对应的恢复到时间点,区别于同步到右侧的库表对应的恢复到时间点,设置为不同时间值。系统将按时间点恢复库表数据到该自定义库表。 恢复类型 选择将数据恢复到库或恢复到表。选择表级恢复,如果对应时间不存在该表,则系统会创建一个空表,选择库级恢复,数据将单独恢复到库,不会创建该表。 单击“确定”,开始恢复库表数据。恢复后的新库表数据与所选要恢复到时间点下库表数据一致。 选择恢复库表 步骤 8 在“实例管理”页面,可查看该实例状态为“恢复中”,恢复过程中该实例业务不中断。 步骤 9 恢复成功后,您可根据实际情况对库表进行处理。 如果您的业务需要继续使用原先的库表名,可以通过rename操作,备份原库表,并将您的业务切换到恢复后的库表。确保业务正常后,再删除原库表。 重命名单个库表示例: db.adminCommand({renameCollection: "db1.test1", to: "db2.test2"}) 该命令表示将db1库下的表test1移动到db2下,并重命名为test2。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到指定时间点
        恢复副本集库表到指定时间点
      • 如何处理暴力破解告警事件?
        本节介绍如何处理暴力破解告警事件。 暴力破解是一种常见的入侵攻击行为,攻击者通常使用暴力破解的方式猜测远程登录的用户名和密码,一旦破解成功,即可实施攻击和控制,严重危害资产的安全。 态势感知联动企业主机安全服务(HSS),接收HSS检测到的暴力破解行为,集中呈现和管理告警事件,提升运维效率。 处理告警事件 HSS通过暴力破解检测算法和全网IP黑名单,若发现暴力破解主机的行为,对发起攻击的源IP进行拦截,并上报告警事件。 当接收到来源于HSS的告警事件时,请登录HSS管理控制台确认并处理告警事件。 若您的主机被爆破成功,检测到入侵者成功登录主机,账户下所有云服务器可能已被植入恶意程序,建议参考如下措施,立即处理告警事件,避免进一步危害主机的风险。 1. 请立即确认登录主机的源IP的可信情况。 2. 请立即修改被暴力破解的系统账户口令。 3. 请立即执行检测入侵风险账户,排查可疑账户并处理。 4. 请及时执行恶意程序云查杀,排查系统恶意程序。 若您的主机被暴力破解,攻击源IP被HSS拦截,请参考如下措施,加固主机安全。 1. 请及时确认登录主机的源IP的可信情况。 2. 请及时登录主机系统,全面排查系统风险。 3. 请根据实际需求升级HSS防护能力。 4. 请根据实际情况加固主机安全组、防火墙配置。
        来自:
        帮助文档
        态势感知(专业版)
        常见问题
        产品咨询
        如何处理暴力破解告警事件?
      • 微服务治理
        本节主要介绍微服务治理 业务场景 ServiceStage中的微服务引擎CSE,可提供负载均衡、降级、限流、容错、熔断、错误注入、黑白名单等服务治理策略。 用户可以根据实际的业务场景提前配置相应的治理策略,灵活应对业务需求变化,保障应用的稳定运行。 降级:在本实践中,假设前台请求剧增,导致系统响应缓慢甚至可能崩溃,在这样的场景下,我们可以在fusionweather对forecast使用降级策略,对forecast 进行降级处理,只请求比较重要的实时天气weather的数据,保障重要业务功能的正常运行,等流量洪峰过去再进行复原。 体验微服务降级 ServiceStage支持从界面上设置按微服务或接口粒度降级。 以对forecast微服务降级为例,操作步骤如下。 1、登录ServiceStage控制台,选择“基础设施 > 微服务引擎 CSE”。 2、选择在实践“使用ServiceStage托管微服务应用”中创建环境时选择的微服务引擎,单击“查看控制台”。 3、单击“服务治理”,进入服务治理页面。 4、单击创建应用时创建的应用名称(例如weathermap)。 5、配置降级策略: 1. 选择fusionweather微服务。 2. 选择“降级”。 3. 单击“新增”。 4. “降级对象”选择“forecast”和“所有方法”。 5. “降级策略”设置为“开启”。 单击“确定”。 6、配查看效果。 在浏览器中访问应用,原天气预报页面右侧天气预测部分显示空白。 7、单击,删除降级策略,以免对后续体验造成影响。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        使用微服务引擎管理应用
        微服务治理
      • 查看同步日志
        本节主要介绍查看同步日志 同步日志记录了实时同步过程中的信息,包含告警、错误和提示等类型的信息。实时同步过程中,可以通过查看同步日志信息,帮助您分析系统中存在的问题。 前提条件 已登录数据复制服务控制台。 操作步骤 步骤 1 在“实时同步管理”界面,选择指定的同步任务,单击任务名称。 步骤 2 在“同步日志”页签,查看当前同步任务的日志。 您可查看到日志对应的时间,级别和描述。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        查看同步日志
      • 支持的监控指标
        本页介绍了天翼云关系数据库MySQL版支持的监控指标。 关系数据库MySQL版支持的监控指标如下。 注意 关系数据库MySQL版实例中的Agent只用于监控实例运行的指标、状态,不会收集除监控指标外的其它数据。 功能说明 本文定义了关系数据库MySQL版上报云监控的监控指标的命名空间,监控指标列表和维度定义。用户可以通过云监控提供的API接口来检索关系型数据库产生的监控指标和告警信息。 监控指标频率目前支持15秒、60秒、300秒,默认监控频率为30秒。 注意 部分监控指标支持设置为10秒,详细信息,请参见设置监控频率 实例监控指标 关系数据库MySQL版实例性能监控指标,如下表所示。 指标名称 指标含义 取值范围 CPU使用率(系统空间) 该指标用于统计测量对象的CPU使用率(系统空间占用),以比率为单位。 0100% CPU使用率(用户空间) 该指标用于统计测量对象的CPU使用率(用户空间占用),以比率为单位。 0100% CPU使用率(等待I/O) 该指标用于统计CPU在等待磁盘I/O请求完成时处于空闲状态的时间百分比。 0100% CPU总使用率 该指标用于统计测量对象的CPU总使用率,以比率为单位。 0100% MySQL CPU使用率 该指标用于统计MySQL进程的CPU使用率。 0100% 内存使用率 该指标用于统计测量对象的内存使用率,以比率为单位。 0100% MySQL服务进程占用的内存使用率 该指标用于统计MySQL服务进程占用的内存使用率。以比率为单位。 0100% 实例总空间使用量 该指标用于统计实例的空间占用情况,以GB为单位。 ≥ 0 GB 备份空间使用量 该指标用于统计云硬盘实例备份空间的使用情况,以GB为单位。 ≥ 0 GB 磁盘读速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(数据盘) 该指标用于统计当前实例数据盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 磁盘读速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘读速率(平均值)。 ≥ 0 kb/s 磁盘写速率(系统盘) 该指标用于统计当前实例系统盘,单位时间内系统处理的磁盘写速率(平均值)。 ≥ 0 kb/s 数据盘读次数 该指标用于统计数据盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 数据盘写次数 该指标用于统计数据盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 系统盘读次数 该指标用于统计系统盘,单位时间内系统处理的I/O读扇区请求数量(平均值)。 ≥ 0 counts 系统盘写次数 该指标用于统计系统盘,单位时间内系统处理的I/O写扇区请求数量(平均值)。 ≥ 0 counts 磁盘使用率(数据盘) 该指标用于统计数据盘的磁盘使用率,以比率为单位。 0100% 磁盘使用率(系统盘) 该指标用于统计系统盘的磁盘使用率,以比率为单位。 0100% 磁盘平均队列长度(数据盘) 该指标用于统计数据盘平均队列长度。以s为单位。 ≥0s 磁盘平均队列长度(系统盘) 该指标用于统计系统盘平均队列长度。以s为单位。 ≥0s IO操作等待时间(数据盘) 该指标用于统计数据盘IO操作等待时间。 ≥0 ms IO操作等待时间(系统盘) 该指标用于统计系统盘IO操作等待时间。 ≥0 ms 网络接收字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输入的流量,以千字节为单位。 ≥ 0 kb/s 网络发送字节数 该指标用于统计平均每秒从测量对象的所有网络适配器输出的流量,以千字节为单位。 ≥ 0 kb/s 数据库总连接数 该指标用于统计试图连接到MySQL服务器的总连接数,以个为单位。 ≥ 0 counts 当前活跃连接数 该指标用于统计当前打开的连接的数量,以个为单位。 ≥ 0 counts 执行次数(select) 该指标用于统计平均每秒select语句执行次数 ≥ 0 counts 执行次数(insert) 该指标用于统计平均每秒insert语句执行次数 ≥ 0 counts 执行次数(update) 该指标用于统计平均每秒update语句执行次数 ≥ 0 counts 执行次数(delete) 该指标用于统计平均每秒delete语句执行次数 ≥ 0 counts QPS 该指标用于统计SQL语句查询次数,含存储过程,以次/秒为单位。 ≥ 0 queries/s TPS 该指标用于统计事务执行次数,含提交的和回退的,以次/秒为单位。 ≥ 0 transactions/s 缓冲池利用率 该指标用于统计空闲的页与InnoDB缓存中缓冲池页面总数的比例,以比率为单位。 0100% 缓冲池命中率 该指标用于统计读命中与读请求数比例,以比率为单位。 0100% 缓冲池脏块率 该指标用于统计InnoDB缓存中脏数据与InnoDB缓存中使用的页比例,以比率为单位。 0100% InnoDB读取吞吐量 该指标用于统计Innodb平均每秒读字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB写入吞吐量 该指标用于统计Innodb平均每秒写字节数,以字节/秒为单位。 ≥ 0 bytes/s InnoDB文件读取频率 该指标用于统计Innodb平均每秒从文件中读的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB文件写入频率 该指标用于统计Innodb平均每秒向文件中写的次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志写请求频率 该指标用于统计平均每秒的日志写请求数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志物理写频率 该指标用于统计平均每秒向日志文件的物理写次数,以次/秒为单位。 ≥ 0 counts/s InnoDB日志fsync()写频率 该指标用于统计平均每秒向日志文件完成的fsync()写数量,以次/秒为单位。 ≥ 0 counts/s 临时表创建数量 该指标用于统计在硬盘上创建的临时表数量,以个为单位。 ≥ 0 counts Insert语句执行频率 该指标用于统计平均每秒Insert语句执行次数,以次/秒为单位。 ≥ 0 queries/s Delete语句执行频率 该指标用于统计平均每秒Delete语句执行次数,以次/秒为单位。 ≥ 0 queries/s Select语句执行频率 该指标用于统计平均每秒Select语句执行次数。 ≥ 0 queries/s Update语句执行频率 该指标用于统计平均每秒Update语句执行次数,以次/秒为单位。 ≥ 0 queries/s 行删除速率 该指标用于统计平均每秒从InnoDB表删除的行数,以行/秒为单位。 ≥ 0 rows/s 行插入速率 该指标用于统计平均每秒向InnoDB表插入的行数,以行/秒为单位。 ≥ 0 rows/s 行读取速率 该指标用于统计平均每秒从InnoDB表读取的行数,以行/秒为单位。 ≥ 0 rows/s 行更新速率 该指标用于统计平均每秒向InnoDB表更新的行数,以行/秒为单位。 ≥ 0 rows/s 历史行锁平均等待时间 该指标用于统计innodb历史行锁平均等待时间。 > 0ms 当前行锁等待数 该指标用于统计innodb当前行锁等待数,以个为单位。表示当前正在等待行锁的事务个数。 ≥ 0 counts 长事务个数统计 该指标用于统计长事务的个数 ≥ 0 counts 连接使用率 该指标用于统计当前已用的MySQL连接数占总连接数的百分比。 0100% 主从复制延迟 该指标用于统计多节点实例,主从复制延迟时间,以s为单位。 ≥0 s 每秒DDL次数 该指标用于统计对象每秒钟ddl次数 ≥ 0 counts 平均每秒InsertSelect语句执行次数 该指标用于统计对象平均每秒InsertSelect语句执行次数 ≥ 0 counts 平均每秒ReplaceSelect语句执行次数 该指标用于统计对象平均每秒ReplaceSelect语句执行次数 ≥ 0 counts 平均每秒replace语句执行次数 该指标用于统计对象平均每秒replace语句执行次数 ≥ 0 counts Innodb打开文件数 该指标用于统计对象Innodb打开文件数 ≥ 0 counts 打开表数 该指标用于统计对象打开表数 ≥ 0 counts 打开的文件数 该指标用于统计对象打开的文件数 ≥ 0 counts 执行全表搜索查询的数量 该指标用于统计对象执行全表搜索查询的数量 ≥ 0 counts InnoDB 平均每秒fsync操作次数 该指标用于统计对象InnoDB 平均每秒fsync操作次数 ≥ 0 counts InnoDB每秒写入redo log日志量(B) 该指标用于统计对象InnoDB每秒写入redo log日志量(B) ≥0 B mdl锁阻塞的连接数 该指标用于统计对象mdl锁阻塞的连接数 ≥ 0 counts relay log使用量 该指标用于统计对象relay log使用量 ≥0 MB redo log使用量 该指标用于统计对象redo log使用量 ≥0 MB 系统数据库数据量 该指标用于统计系统数据库数据量 ≥0 MB 用户数据库数据量 该指标用于统计对象用户数据库数据量 ≥0 MB 临时文件数据量 该指标用于统计对象临时文件数据量 ≥0 MB undo log使用量 该指标用于统计对象undo log使用量 ≥0 MB binlog使用量 该指标用于统计对象binlog使用量 ≥0 MB slow log使用量 该指标用于统计对象slow log使用量 ≥0 MB 平均每秒从所有客户端接收到的字节数 该指标用于统计对象平均每秒从所有客户端接收到的字节数 ≥0 KB 平均每秒发送给所有客户端的字节数 该指标用于统计对象平均每秒发送给所有客户端的字节数 ≥0 KB 当前全部会话 该指标用于统计当前全部会话 ≥ 0 counts 当前活跃会话 该指标用于统计当前活跃会话 ≥ 0 counts InnoDB Buffer Pool 刷Page请求数量 该指标用于统计对象InnoDB Buffer Pool 刷Page请求数量 ≥ 0 counts InnoDB 表总等待row locks次数 该指标用于统计对象InnoDB 表总等待row locks次数 ≥ 0 counts 从系统启动到现在锁定的总时间 该指标用于统计对象从系统启动到现在锁定的总时间 ≥0 ms InnoDB 表每秒等待row locks时间 该指标用于统计对象InnoDB 表每秒等待row locks时间 ≥0 ms InnoDB 表每秒等待row locks次数 该指标用于统计对象InnoDB 表每秒等待row locks次数 ≥ 0 counts InnoDB 表平均等待row locks时间 该指标用于统计对象InnoDB 表平均等待row locks时间 ≥0 ms 监控行锁个数 该指标用于统计对象监控行锁个数 ≥ 0 counts 读取源二进制日志的I/O线程是否正在运行 该指标用于统计对象读取源二进制日志的I/O线程是否正在运行 ≥ 0 counts 执行中继日志中事件的SQL线程是否正在运行 该指标用于统计对象执行中继日志中事件的SQL线程是否正在运行 ≥ 0 counts MySQL读写次数 该指标用于统计对象MySQL读写次数 ≥ 0 counts IOPS使用率 该指标用于统计对象IOPS使用率 0100% 慢查询 该指标用于统计对象的慢查询数量 ≥ 0 counts 等待表锁次数 该指标用于统计对象的等待表锁次数(dml级) ≥ 0 counts
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        监控与告警
        支持的监控指标
      • 通过DMS打开DDS审计日志
        本页介绍如何通过数据库管理服务DMS开启文档数据库服务DDS审计日志。 操作场景 创建文档数据库服务DDS实例后,可以通过登录数据库管理服务DMS对数据库实例进行数据库审计操作。 前置条件 快速创建文档数据库服务DDS实例。 创建数据库用户。 操作步骤 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”,通过控制台登录DMS,详细参考通过DMS登录DDS实例。 3. 进入DMS页面,点击左侧“数据源管理”进入实例元数据。 4. 选在需要审计的数据库实例,在数据库审计一栏,点击开关按钮,开启数据库审计功能。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库工具
        通过DMS打开DDS审计日志
      • 数据架构示例
        关系建模:新建SDI层和DWI层两个模型 在关系建模中,分别新建SDI层和DWI层两个关系模型,并通过逆向数据库导入原始数据表到SDI层的关系模型中,在DWI层模型中新建一个“标准出行数据”的标准化的业务表。 1. 在数据架构控制台,单击左侧导航树中的“关系建模”。 如果当前未创建过关系模型,系统会弹出“新建分层治理模型”提示框。您可以新建一个SDI层关系模型,命名为“sdi”,再新建一个DWI层关系模型,命名为“dwi”。单击“确定”即可。 如果不是首次创建,单击新建物理模型,如下图所示。 a. 先新建一个SDI层关系模型,命名为“sdi”。在物理模型页签中,单击,新建模型,配置如下参数,单击“确定”。 b. 再新建一个DWI层关系模型,命名为“dwi”。在物理模型页签中,单击,新建模型,配置如下参数,单击“确定”。 2. 在“数仓分层”页签中,单击新建的SDI关系模型,展开,选中业务对象“城市交通 > 行程记录 > 原始记录”,单击“逆向数据库”,通过逆向数据库,导入原始表。 在“逆向数据库”窗口中,配置如下所示参数,然后单击“确定”。在本示例中选择贴源层数据库demosdidb中的原始数据表。 逆向数据库成功后,单击“关闭”。您可以在列表中查看导入的表: 3. 请参照以下步骤,新建一个“标准出行数据”的标准化的业务表。 a.在“数仓分层”页签中,单击新建的DWI关系模型,展开,选中DWI模型中的业务对象“城市交通 > 行程记录 > 原始记录”,然后在右侧列表上方单击“新建”按钮,进入新建表页面。 b.在新建表的“基本配置”标签页中,配置如下: c.进入“表字段”标签页,单击“新建”,在标准出行数据表中,依次添加如下表所示的字段,并单击字段供应商编号、费率代码、付款方式的“数据标准”列中的按钮,分别关联数据标准“供应商”、“费率代码”和“付款方式”。 下表为标准出行数据表字段 序号 名称 编码 数据类型 数据标准 主键 分区 不为空 标签 1 供应商编号 vendorid 长整型(BIGINT) 供应商 不勾选 不勾选 勾选 2 上车时间 tpeppickupdatetime 时间戳类型(TIMESTAMP) 不勾选 不勾选 勾选 3 下车时间 tpepdropoffdatetime 时间戳类型(TIMESTAMP) 不勾选 不勾选 勾选 4 乘客人数 passengercount 字符类型(STRING) 不勾选 不勾选 勾选 5 行驶距离 tripdistance 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 6 费率代码 ratecodeid 长整型(BIGINT) 费率代码 不勾选 不勾选 勾选 7 存储转发标识 storefwdflag 字符类型(STRING) 不勾选 不勾选 勾选 8 上车地点 pulocationid 字符类型(STRING) 不勾选 不勾选 勾选 9 下车地点 dolocationid 字符类型(STRING) 不勾选 不勾选 勾选 10 付款方式代码 paymenttype 长整型(BIGINT) 付款方式 不勾选 不勾选 勾选 11 车费 fareamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 12 加收 extra 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 13 MTA税 mtatax 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 14 手续费 tipamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 15 通行费 tollsamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 16 改善附加费 improvementsurcharge 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 17 总车费 totalamount 高精度(DECIMAL)(10,2) 不勾选 不勾选 勾选 对于标准出行数据表中的字段,您可以执行以下操作。 关联数据标准 在新建表或编辑表时,进入“表字段”标签页,在字段所在行的“数据标准”列,单击按钮可以选择一个数据标准与字段相关联。将字段关联数据标准后,表发布上线后,就会自动生成一个质量作业,每个关联了数据标准的字段会生成一个质量规则,基于数据标准对字段进行质量监控,您可以前往DataArts Studio数据质量模块的“质量作业”页面进行查看。有关关联数据标准的更多信息,请参见用户指南中的“数据架构> 关系建模 > 物理模型设计”中的“新建表并发布”。 添加标签 标签是用户自定义的标识。添加标签后,您就可以在DataArts Studio数据目录模块中通过标签搜索相关的数据资产。 在新建表或编辑表时,进入“表字段”标签页,在字段所在行的“标签”列,单击按钮可以添加标签,在弹出框中,您可以输入新的标签名称后按回车,也可以在下拉列表中选择已有标签。 关联质量规则 完成表的新建后,您可以在表中为字段关联质量规则,完成关联后,当表发布成功后,就会在DataArts Studio数据质量中自动创建质量作业,如果当前表已经发布,则系统会自动更新质量作业。有关关联质量规则的更多信息,请参见用户指南中的“数据架构> 关系建模 > 关联质量规则”。 d.接下来,进入“映射”标签页,通过新建映射设计表的数据来源。 如果表中的字段数据来源于不同的关系模型,您需要创建多个映射。在每个映射中,您只需要为来源于当前映射的字段设置源字段,其他字段可以不设置。 如果表中的字段数据来源于同一个关系模型中的多个表,您可以新建一个映射。在该映射的“源表”中,您可以将多个表设置Join,然后再为表中的字段设置源字段。 本示例只需要新建一个映射。单击“新建”,新建一个映射,如下图。 映射名称 :新建映射时会自动生成,您也可以修改。 来源模型 :本示例选择“sdi”。 源表 :本示例选择原始数据表“sditaxitripdata”,标准出行数据表的数据均来源于该原始数据表。 字段映射 : 在“字段映射”区域,依次为表中的字段设置源字段,所选择的源字段应与表中的字段代表相同含义,一一对应。如下图所示,在字段映射的底部,会显示生成的SQL语句,可供参考。 说明 如果在“数据架构 > 配置中心 > 功能配置”页面中开启了“模型设计业务流程步骤 > 创建数据开发作业”(默认为关闭),发布表时,系统支持根据表的映射信息,在数据开发中自动创建一个ETL作业,每一个映射会生成一个ETL节点,作业名称以“ 数据库名称表编码 ”开头。当前该功能处于内测阶段,仅支持DLI>DLI和DLI>DWS两种映射的作业创建。 已创建的ETL作业可以进入“数据开发 > 作业开发”页面查看。ETL作业默认每天0点启动调度。 在本示例中,不支持自动创建ETL作业,映射信息仅为数据开发提供数据的ETL流向。在做数据开发的过程中,可以参考此处的映射关系编写SQL脚本。 e.完成映射的配置后,出租车行程数据表配置完成,单击“保存”。 4. 模型创建好之后,勾选已创建的模型,选择“更多 > 导出”,然后在弹出框中选中“表”并单击“确定”,可以将整个模型导出。参考同样的方法导出模型“sdi”。导出后的模型,可以作为备份,今后可用于模型导入。 5. 发布表模型。 a.发布步骤2中通过逆向数据库导入SDI模型的原始表,发布后,就可以通过DataArts Studio对原始表进行管理和监控。 返回关系建模页面,在模型目录选择“sdi”模型,然后在右侧的列表中,勾选表sditaxitripdata,再单击“发布”,然后在弹出框中选择审核人,单击“确认提交”,等待审核人员审核通过后,“sdi”模型发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。 b.发布DWI模型中的表。 返回关系建模页面,在模型目录中选择“dwi”模型,然后在右侧的列表中,勾选表“标准出行数据”,再单击“发布”,然后在弹出框中选择审核人,单击“确认提交”,等待审核人员审核通过后,“dwi”模型发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。 6. 当表模型发布成功后,进入数据架构的“关系建模”页面可以查看表的“状态”和“同步状态”。 发布是一个异步操作,您可以单击按钮刷新状态。表发布并通过审核后,系统会依据“配置中心 > 功能配置”页面中的“模型设计业务流程步骤”进行创建表、同步技术资产、同步业务资产等操作,在表的“同步状态”一列中将显示同步状态。 “同步状态”若均显示成功,则说明表发布成功。鼠标移至“同步状态”中的图标之上,若显示“创建表: 创建成功”说明该表在对应的数据源下已经创建成功。 “同步状态”若显示某一项或某几项失败,可以先刷新状态。如果仍失败,可以选择操作列的“更多 > 发布历史”,然后进入“发布日志”标签页查看日志。 请根据错误日志定位失败原因,问题解决后,再返回“关系建模”页面,在列表中勾选需同步的表,然后选择“更多 > 同步”尝试重新同步。如果仍同步失败,请联系技术支持人员协助解决。 在列表中单击表名,可以查看表的详情,其中“数据源”显示了表的位置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 用量分析
        回源状态码 回源状态码支持客户按加速类型、标签、域名、运营商、地区(大区/省份)、加速区域【中国内地/全球(不含中国内地)】、协议类型(HTTP/HTTPS/QUIC)、协议版本(IPv4/IPv6)、查询时间粒度(1分钟/5分钟/1小时/1天)、时间等搜索条件,查询状态码的分布情况以及各状态码的占比,以及单独查询2XX、4XX、5XX等的趋势图。占比支持通过占比表和饼图两种方式展示。 PV/UV 浏览量/访问量(PV/UV)支持按加速类型、标签、域名、地区(大区/省份)、加速区域【中国内地/全球(不含中国内地)】、时间等搜索条件,查看浏览量/访问量的情况。 地区运营商 地区运营商支持客户按加速类型、标签、域名、运营商、地区(大区/省份)、加速区域【中国内地/全球(不含中国内地)】、时间等搜索条件,自定义查询地区、运营商粒度的峰值带宽、流量、流量占总比、请求数和请求数占总比。 高性能网络 高性能网络支持客户按加速类型、标签、域名、时间等搜索条件,自定义查询高性能网络的带宽或者流量数据。需要先开通高性能网络增值服务才能查看到对应的数据分析,如需开通,详情请见:高性能网络开通。 用量汇总 用量分析模块,支持客户按日查询或者按月查询汇总数据,选择您需要查询的日期或者月份,单击【查询】查看。 按日查询:选择需要查询的具体日期的起始时间和结束时间,即可查看当日的用量汇总数据。 按月查询:选择需要查询的目标月份的起始时间和结束时间,即可查看当月的用量汇总数据。 明细导出 每一个维度的统计数据均支持导出用量明细,您可参照本文“查询维度说明”中每个维度包括的搜索条件进行过滤,单击下图的导出控件,即可导出格式为csv的文件在本地查看。 以【带宽流量】的带宽为例: 汇总导出 通过如上方式导出的数据中,除了明细数据外,在数据的最后一行还包含汇总数据,方便客户按需使用。
        来自:
        帮助文档
        CDN加速
        用户指南
        数据分析
        用量分析
      • 配置说明
        设置项 说明 Agent开关设置 用于控制Agent总开关和插件开关,由此控制是否监控该应用,以及对哪些指标集进行监控 调用链采集设置 用于控制是否采集调用链,采样率是多少,限流阈值是多少 Java方法设置 用于设置Java拦截方法 Kafka设置(即将上线) 用于设置Kafka消费类 URL采集设置 用于设置URL采集。包括URL拦截、黑名单、慢请求响应阈值设置、code定义 SQL设置 用于设置慢SQL查询阈值 日志开启设置 用于设置是否关联日志。在已购买云日志服务的情况下,开启关联日志可以查看trace的日志详情
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用设置
        配置说明
      • 字符审计
        此小节介绍云堡垒机字符审计。 审计对象为授权的资产数据角色产生的字符访问会话(ssh、telnet),支持查看命令列表,回放访问录屏,中断活动会话,实时播放会话,下载会话审计文件。 操作步骤 1.管理员登录并切换至“审计角色”,选择“会话日志 > 字符审计”。 2.单击“操作”列的“查看”可打开详细命令列表。 3.单击“操作”列的“播放”可使用浏览器在线播放会话。结束时间为空说明是活动会话,单击“播放”可实时观看会话,单击“中断”可中断该会话。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        会话日志
        字符审计
      • 邮件通知激活
        本节介绍通过邮件通知激活的用户管理。 操作场景 通过邮件通知激活的用户,您可以查看用户已有云手机数,也可以对已创建的用户进行修改用户信息、邮箱、数据导出、重置密码、解锁帐户、重发激活邮件、删除帐户等操作。 创建账户 1.进入“云手机”控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.点击“创建用户”,进入“创建用户”页面; 4.选择“邮件通知激活”; 5.填写用户的”通知邮箱“和“用户账号“,可批量导入; 6.点击“确定”,完成用户的创建。 修改用户信息 1.进入“云手机”控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.在需要修改邮箱信息的用户所在行,点击“修改”。弹出“修改用户信息”对话框; 4.在“用户名称”文本框输入修改后的用户名称; 5.在“通知邮箱”文本框输入修改后的通知邮箱; 6.点击“确认”,完成云手机用户信息的修改。 重置密码 1.进入“云手机”控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.在需要重置密码的用户所在行,点击“更多”,在下拉菜单中点击“重置密码”; 4.系统会自动将包含重置密码地址链接的邮件发送至用户的预留邮箱,用户按照邮件指引即可完成密码重置。 解锁账户 当用户连续输入错误密码导致账户被锁定时,可执行该操作解锁用户。 1.进入“云手机”控制台; 2.点击“组织管理”,选择“用户管理”,进入“用户管理”页面; 3.在需要解锁账户的用户所在行,点击“更多”,下拉菜单中点击“解锁账户”,即可解锁账户。
        来自:
        帮助文档
        天翼云手机
        云手机(政企版)
        管理用户
        邮件通知激活
      • 批量查询卷
        响应结果 名称 类型 描述 luns Array of lun 卷信息集合,详见“表1 响应参数lun说明”。 表1 响应参数lun说明 名称 类型 描述 lunName String 卷名称。 status String 卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Recovering:卷正在还原中。 RecoverFailed:卷还原失败。 Rollbacking:卷正在回滚。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Suspended:卷挂起。 Suspending:卷正在挂起。 SuspendFailed:卷挂起失败。 progress Double 卷还原进度百分比。 仅卷状态为Recovering时显示。 recoverFailedReason String 卷还原失败的原因。 仅卷状态为RecoverFailed时显示。 deleteFailedReason String 卷云上数据删除失败的原因。 仅卷状态为DeleteFailed时显示。 wipeFailedReason String 卷清空失败的原因。 仅卷状态为WipeFailed时显示。 waitUploadBytes String 待上传数据量,单位是bytes。 仅卷状态为Suspending时显示。 SuspendFailedReason String 卷挂起失败的原因。 仅卷状态为SuspendFailed时显示。 storageMode String 卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 capacity Integer 卷容量,单位是GiB。 createTime Long 卷创建时间。unix时间戳(UTC),精确到毫秒。 iSCSITargets Array of iSCSITarget iSCSI target属性集合,详见“表2响应参数说明iSCSITarget”。 cloud.bucketName String OOS存储桶的名称(仅上云卷支持)。 cloud.endpoint String OOS Endpoint(仅上云卷支持)。 cloud.signVersion String 上云签名认证的类型(仅上云卷支持): v2:V2签名认证。 v4:V4签名认证。 cloud.region String Endpoint资源池所在区域(仅上云卷支持)。 cloud.provider String 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 config.minReplica Integer 卷的最小副本数(仅集群版支持)。 config.sectorSize Integer 扇区大小: 512。 4096。 config.highAvailability String 高可用模式类型(仅集群版支持): ActiveStandby:主备,该卷关联对应target下的所有IQN。 Disabled:禁用,该卷关联对应target下的1个IQN。 config.writePolicy String 卷的写策略: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。 config.cachePool String 缓存存储池(仅集群版支持)。 config.pool String 存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。 config.redundancyOverlap Integer 卷的折叠副本数(仅集群版支持)。 config.reclaimPolicy String 卷回收策略: Delete:当卷关联的快照全部删除后,卷自动删除。 Retain:当卷关联的快照全部删除后,卷仍然保留。 config.serverAffinity Object 卷主备分布优先级设置,详见“表4 响应参数config.serverAffinity说明”。 config.qosPolicy Object 卷关联的QoS策略信息,详见“表5 响应参数config.qosPolicy说明”。 config.qosPolicyforLUN Object 卷所在存储池中卷的默认QoS策略信息(仅集群版支持),详见“表6 响应参数config.qosPolicyforLUN”。 说明 如果卷的缓存存储池和存储池同时存在时,展示缓存存储池的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 如果卷只有存储池:展示存储池的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 config.ECfragmentSize String 分片大小。如果冗余模式为EC N +M,则会返回此项。 config.path String 数据目录(仅单机版支持)。 dataHealth.normal Double 卷正常数据的百分比。 dataHealth.lowRedundancy Double 卷降级数据的百分比。 dataHealth.error Double 卷错误数据的百分比。 dataHealth.reconstructionProgress Double 当卷存在降级状态的数据时,数据重建进度的百分比。 dataHealth.ETR Long 当卷存在降级数据时,预计剩余的数据重建时间。单位为秒。如果返回值为负数,说明数据无法重建,需用户尽快修复。 number String 卷编号。 isClone Boolean 是否是克隆卷: true:是克隆卷。 false:不是克隆卷。 sourceSnapshotName String 对应的快照名称(仅克隆卷支持)。 sourceLunName String 克隆卷的源卷名称(仅克隆卷支持)。 snapshots.snapshotNumbers Integer 卷快照的数量(仅本地卷支持)。 snapshots.snapshotSize Long 卷关联的快照大小的总和(仅本地卷支持),即快照记录的数据量。单位是bytes。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 WWID String 卷的唯一标识符。 表2 响应参数iSCSITarget说明 名称 类型 描述 iqn String iSCSI target IQN。 status String 卷对应的target的状态: Active:主target。 Standby:热备target。 Offline:离线target。 Unavailable:冷备target。 ips Array of ip iSCSI target的IP属性集合,详见“表3 响应参数ip说明”。 serverId String IQN所在的服务器ID。 表3 响应参数ip说明 名称 类型 描述 ip String iSCSI target的IP。 port Integer iSCSI target的端口号。 表4 响应参数config.serverAffinity说明 名称 类型 描述 autoFailback String 针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换(仅集群版支持): Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 priority Array of string 卷主备分布优先级的服务器ID(仅集群版支持),系统根据指定的服务器ID顺序来选择卷的主备IQN。 表5 响应参数config.qosPolicy 名称 类型 描述 qosName String QoS策略名称。 表6 响应参数config.qosPolicyforLUN 名称 类型 描述 qosName String QoS策略名称。 poolName String 存储池名称。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        批量查询卷
      • 云备份服务协议
        云备份服务协议 天翼云云备份服务协议
        来自:
        帮助文档
        云备份 CBR
        相关协议
        云备份服务协议
      • 使用密钥
        密钥创建后,可在工作负载环境变量和数据卷两个场景使用。 须知: 如下密钥为CCE系统使用的,请勿对其做任何操作。 不要操作kubesystem下的secrets。 不要操作任何命名空间下的defaultsecret、paas.elb。其中,defaultsecret用于SWR的私有镜像拉取,paas.elb用于该命名空间下的服务对接ELB。 使用密钥配置Pod的数据卷 使用密钥设置Pod的环境变量 本节以下面这个所Secret为例,具体介绍Secret的用法。 apiVersion: v1 kind: Secret metadata: name: mysecret type: Opaque data: username: myusername 用户名 password: 需要用Base64编码 说明:在Pod里使用密钥时,需要Pod和密钥处于同一集群和命名空间中。 使用密钥配置Pod的数据卷 密钥可以在Pod中作为文件使用。如下面的Pod示例所示,mysecret密钥的username和password以文件方式保存在/etc/foo目录下。 apiVersion: v1 kind: Pod metadata: name: mypod spec: containers: name: mypod image: redis volumeMounts: name: foo mountPath: "/etc/foo" readOnly: true volumes: name: foo secret: secretName: mysecret 另外,还可以指定密钥的目录路径和权限,username存放在容器中的/etc/foo/mygroup/myusername目录下。 apiVersion: v1 kind: Pod metadata: name: mypod spec: containers: name: mypod image: redis volumeMounts: name: foo mountPath: "/etc/foo" volumes: name: foo secret: secretName: mysecret items: key: username path: mygroup/myusername mode: 511 挂载Secret到数据卷还可以在界面上进行操作,在创建工作负载时,设置容器的高级设置,选择数据存储,添加本地磁盘,选择Secret即可配置。具体请参见密钥(Secret)挂载.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        配置中心
        使用密钥
      • 1
      • ...
      • 265
      • 266
      • 267
      • 268
      • 269
      • ...
      • 704
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      科研助手

      知识库问答

      人脸实名认证

      人脸活体检测

      推荐文档

      Windows方程式漏洞ACL策略配置说明

      分布式消息服务的功能

      重启实例

      实例管理

      大事记

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号