活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云主机控制台_相关内容
      • 采集堆栈信息
        本章节主要介绍翼MapReduce的采集堆栈信息操作。 操作场景 为了满足实际业务的需求,管理员可以在FusionInsight Manager中采集指定角色或实例的堆栈信息,保存到本地目录,并支持下载。采集内容包括: 1. jstack栈信息。 2. jmap histo堆统计信息。 3. jmap dump堆信息快照。 4. 对于jstack和jmaphisto信息,支持连续采集以便对比。 操作步骤 采集堆栈 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务 > 待收集服务的名称 ”。 3. 选择“更多 > 采集堆栈”。 说明 采集多个实例的堆栈信息:进入实例列表,勾选要采集的实例名称,选择“更多 > 采集堆栈”。 采集单个实例的堆栈信息:单击要采集的实例,选择“更多 > 采集堆栈”。 4. 根据界面提示,在弹框中选择需要采集的角色,采集内容,配置高级选项(若无特殊需求,保持默认配置即可),单击“确定”。 5. 采集成功后,单击“下载”。 下载堆栈信息 6. 选择“集群 > 待操作集群的名称 > 服务 > 待操作服务的名称 ”。选择右上角“更多 > 下载堆栈信息”。 7. 选择需要下载的角色和内容,单击“下载”,可直接下载相关堆栈信息到本地。 清理堆栈信息 8. 选择“集群 > 待操作集群的名称 > 服务 > 待操作服务的名称 ”。 9. 选择右上角“更多 > 清理堆栈信息”。 10. 选择需要清理的角色和内容,并配置“文件目录”。单击“确定”执行清理操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        采集堆栈信息
      • 配置资源池的队列容量策略
        本章节主要介绍翼MapReduce的配置资源池的队列容量策略操作。 操作场景 添加资源池后,需要为Yarn任务队列配置在此资源池中可使用资源的容量策略,队列中的任务才可以正常在这个资源池中执行。每个队列只能配置一个资源池的队列容量策略。 管理员可以在任何一个资源池中查看队列并配置队列容量策略。配置队列策略后,Yarn任务队列与资源池形成关联关系。 前提条件 已添加队列,即已创建关联了计算资源的租户。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 动态资源计划”。 默认显示“资源分布策略”。 3. “集群”参数选择待操作的集群名称,然后在“资源池”,选择待操作的资源池。 4. 在“资源分配”表格,指定租户资源名队列的“操作”列,单击“修改”。 5. 在“修改资源分配”窗口设置任务队列在此资源池中的资源容量策略。 “资源容量(%)”:表示当前租户计算资源使用的资源百分比。 “最大资源容量(%)”:表示当前租户计算资源使用的最大资源百分比。 6. 单击“确定”保存配置。 说明 删除队列的资源容量值并保存,可以取消队列在此资源池中的资源容量策略,表示解除队列与资源池的关联关系。需要先将队列的默认资源池更改为其他资源池,请参见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理资源
        配置资源池的队列容量策略
      • 模板市场
        本节介绍了模板市场的用户指南。 模板市场是云容器引擎基于Kubernetes Helm提供的应用模板管理和应用发布的能力,您可以将模板(Chart)上传到模板市场,然后利用模板市场实现模板的快速部署与后期管理,大幅简化Kubernetes资源的配置部署过程。 操作场景 上传模板和发布模板均使用到“模板市场”。上传模板需将模板上到“模板市场”容器镜像服务(CRS)实例命名空间中。发布模板则使用已经上传的模板部署工作负载。 前提条件 上传模板前,您需要存在一个可用集群。 发布模板前,您需要先上传模板。 操作步骤 上传模板: 步骤 1,登录云容器引擎控制台,在左侧导航栏中选择“模板市场”。 步骤 2,在左侧二级导航栏中选择“模板市场”,点击“上传模板”按钮。 步骤 3,在上传界面中,选择“镜像服务实例”,如需新增实例请到容器镜像服务控制台。 步骤 4,在上传界面中,选择“命名空间”,如需新增实例请到容器镜像服务控制台。 步骤 5,上传模板包(chart),完成后使用helm package 命令打包。 步骤 6,点击“提交”按钮,完成上传。 发布模板: 步骤 1,登录云容器引擎控制台,在左侧导航栏中选择“模板市场”。 步骤 2,在左侧二级导航栏中选择“模板市场”,选择具体的模板包。 步骤 3,在模板版本列表中选择具体的模板包版本。 步骤 4,在模板包版本中点击“发布”按钮。 步骤 5,在右侧的弹窗中填写“实例名称”,选择待发布的“集群名称”和“命名空间”,按需编辑“values”,点击“确认”完成发布。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        模板市场
        模板市场
      • 集群监控
        本页介绍天翼云TeleDB数据库集群监控。 操作场景 集群监控页面展示整个集群监控指标,可以从实例的整体全局上了解实例的运行状态。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击实例监控 ,选择集群监控页签。 2. 选择需要查看的时间范围。 集群监控页面包含了以下指标信息: 容量占用率:所有节点数据目录大小之和 / 所有节点磁盘总量之和。 总请求数:所有DN节点总请求数之和。 读请求数:所有DN节点读请求数之和。 写请求数:所有DN节点写请求数之和。 其他请求数:所有DN节点其他请求数之和。 总连接数:所有DN节点连接数之和。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        实例监控
        集群监控
      • MySQL教学与实践
        本实践基于科研助手教学环境,进行MySQL安装、基础命令教学。 场景描述 实践内容 MySQL是一个关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。本实践基于科研助手教学环境,进行MySQL安装、基础命令教学。 步骤简介 教程包括如下步骤: 应用商城选购:在科研助手的应用商城中选购自己所需的教学与实践镜像 创建开发机:购买开发机,选择所需的资源规格 访问开发机并开始实践:在开发机中进行相应的教学与实践 实践步骤 应用商城选购 步骤1:进入科研助手控制台,点击【找应用】。 步骤2:在【找应用】中筛选【教学与实践】类型: 步骤3:选择自己所需的教学与实践内容,我们以“MySQL教学与实践”为例进行实操。 创建开发机 步骤1:选择应用后,会跳转至【创建开发机】页面。 在购买过程中, 【主机规格】请按需选择 【存储配置】【科研文件】如有外部持久化需求,请按需选择 【主机规格】本次案例使用CPU卡即可 【镜像框架】默认已选择,无需修改 步骤2:点击【确认订单】,完成开发机创建并启动。
        来自:
        帮助文档
        科研助手
        最佳实践
        MySQL教学与实践
      • 创建共享带宽
        本文介绍如何创建共享带宽。 操作步骤 1. 登录网络控制台。 2. 在系统首页,单击“网络>虚拟私有云”。 3. 在网络控制台选择“共享带宽”,进入共享带宽页面。 4. 在共享带宽页面,单击“购买共享带宽”,进入订购页面,按照提示配置参数。 相关配置说明如下所示: 参数 说明 取值样例 地域 区域指虚拟私有云所在的物理位置。同一区域内可用分区间内网互通,不同区域间内网不互通。可以在网络控制台右上角切换区域 江苏>南京3 名称 共享带宽的名称 Bandwidth001 付费方式 购买共享带宽时使用的计费模式,分为以下两种:包年包月:按月、年订购并支付费用按量付费:按照共享带宽的使用时长进行计费 包年包月 计费方式 共享带宽的计费方式,目前仅支持按带宽计费 按带宽计费 带宽 共享带宽的大小,单位Mbps,5M起售 15 购买时长 包年包月场景需要选择,购买共享带宽的时长 2个月 自动续订 开启后,会自动动共享带宽续订。 启用 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 default 5. 单击“立即申请”按钮。 6. 在购买确认页,勾选服务协议,单击“去支付”按钮,进入订单列表。 7. 在订单页面,单击“立即付款”,支付成功后,进行开通共享带宽。 8. 共享带宽创建成功后,可以新建弹性IP选择已创建的共享带宽,实现弹性IP添加到共享带宽中;或直接在共享带宽中添加已有的弹性IP。
        来自:
        帮助文档
        共享带宽 SBW
        用户指南
        创建共享带宽
      • 对象存储到本地
        本文为您介绍对象存储到本地的相关介绍。 概要 此功能提供普通恢复方式。通过执行本地到对象存储或者同步与比较规则,从本地存储同步到对象存储的数据或文件进行恢复。 应用场景:对象存储上的数据同步至本地文件系统/NAS存储。 前置条件 对象存储到本地·普通恢复的环境要求如下: 1. 部署有DTO程序的DTO主机,注册在控制台上,并处于在线状态; 2. MDR控制台上有可用的对象存储; 3. MDR控制台有dto的许可,并且许可剩余传输量不为0。 新建对象存储到本地 1. 点击左侧菜单栏“资源同步管理”“对象存储数据灾备”“对象存储到本地”,进入对象存储到本地列表页,点击“新建”按钮,进入新建页面。 2. 基础设置页面各配置项如下: 名称:任意指定,便于管理即可。 同步主机:下拉框中会列出已注册至MDR控制台的DTO同步主机供选用。 普通恢复:当同步类型选择普通恢复时,支持两种场景: 对象存储到本地文件系统/NAS存储:可以将对象存储中的数据同步到本地文件系统/NAS存储中。 对象存储到ZFS文件系统:可以将对象存储中的数据同步到ZFS文件系统中,并结合ZFS快照对每次同步的数据打快照,形成可恢复的快照点实现历史数据的恢复。 同步策略类型:“手动同步”“定期同步”和“间隔同步”。 手动同步:需手动启动规则。 定期同步:可指定每个月的某几天或者每个星期的某几天中的某几个时间点开始同步,规则会在设置的时间自动开始运行。 间隔同步:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 定期同步策略:用户自行添加定期同步策略。可以设定多个不重叠的定时同步策略,彼此独立。 间隔同步策略:指的是从上一次规则完成到下一次规则启动之间的间隔,最小间隔时间单位为秒。 源存储:用户自行选择想要同步至本地的数据所在的对象存储。 同步路径映射:将源路径的数据同步到目标路径上。 源路径:对象存储源存储上需要同步的数据路径。 目标路径:同步主机的本地存储路径。 文件后缀名过滤:以后缀名为过滤条件,格式为“文件扩展名”,若多个过滤条件则用逗号隔开,如:“.txt”,“.doc”,“.rtf”。 排除:不同步源路径中该过滤项中定义的文件类型。 包含:只同步源路径中该过滤项中定义的文件类型。 文件日期过滤:通过正则表达式对同步路径下文件的日期进行筛选,文件日期符合正则表达式要求的文件被过滤出来。 排除:不同步源路径中符合筛选条件的文件。 包含:只同步源路径中符合筛选条件的文件。 3. 同步设置各配置项如下: 比较类型:重镜像时的校验方式。 文件大小:通过源、目标的文件大小进行比较。 MD5校验:通过源、目标的文件MD5进行比较。 忽略目标端存在的文件:DTO不再扫描目标端存储,直接拿源端拆解过后的目录进行传输,传输之前check目标端文件是否存在,如果不存在,就同步,否则跳过该文件;这种类型,可以支持对象存储单一目录上千万的文件。 传输线程数量:可指定传输线程个数。一个线程处理一个目录。 对象存储扫描线程数量:可指定110的扫描线程个数。 ACL同步:此配置默认关闭,开启后,在对象同步至本地的过程中,会记录对象的ACL信息一并同步到本地文件中(后续可以通过本地到对象存储规则将记录了ACL的本地文件同步到同构的对象存储中,完成ACL的同步)。 备端文件解压:允许要恢复的对象储存上的文件是通过dto压缩过的, 勾选后,系统会自动从对象存储上下载文件到本地后解压。 备端文件解密:将通过DTO规则加密的文件解压后同步到目标端存储中。 标准解密:通过设置的解密密钥对源端的加密文件进行解密并同步到目标端。 解密密钥:填写解密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。一般与对应规则的加密密钥相同。 COS服务端解密:通过对接COS对象存储API接口,将该对象存储桶中使用对应加密方式的对象解密后同步到目标存储中,需额外选择解密密钥类型: 解密密钥类型:支持两种解密密钥类型: SSECOS:使用SSECOS解密密钥类型进行解密,无需额外配置; SSEC:使用SSEC解密密钥类型进行解密,需要额外填写解密密钥; 解密密钥:填写解密密钥,密钥要求:32字节的字符串作为密钥,支持数字、字母、字符的组合,不支持中文。 记录流水:默认关闭,开启后会将规则同步的所有文件相关信息(大小、MD5/etag、传输耗时、修改/更新时间)记录在同步主机/usr/drbksoft/dto/data/db/ .db文件中(默认路径),可供审计查看。 4. 带宽设置各配置项如下: 全选:开启后,将会选择一周内的所有时间。此选项默认关闭。 时间范围:用户自行勾选具体的生效日。 选择带宽:根据用户需求选择需要执行限速的时间段,可以设定多个不重叠的限速规则,彼此独立,如果带宽设定为0,表示禁止传输。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        对象存储到本地
      • 容器镜像服务企业版使用Helm Chart发布工作负载到容器集群
        本节介绍了容器镜像服务:容器镜像服务企业版使用Helm Chart发布工作负载到容器集群。 操作场景 将应用打包成Helm Chart,推送到容器镜像服务仓库后,发布到容器集群。 前提条件 已开通容器镜像服务企业版实例 已开通云容器引擎集群 操作步骤 准备Helm Chart 用户可以根据自身的业务需求,将涉及的Deployment、ConfigMap、Secret、Service等打包成一个Helm Chart。 使用一个nginx的helm chart作为示例。 plaintext nginxchartdemo ├── Chart.yaml ├── templates │ ├── deployment.yaml │ └── service.yaml └── values.yaml 创建Helm Chart命名空间 登录容器镜像服务控制台,选择企业版实例进入,左侧菜单Helm Chart 命名空间 ,点击创建命名空间按钮。 推送Helm Chart到容器镜像仓库。 plaintext 登录容器镜像服务 helm registry login myinstanceregistryhuabei2.crs.ctyun.cn 推送Chart helm push nginxchartdemo0.1.0.tgz oci://myinstanceregistryhuabei2.crs.ctyun.cn/mychartns 推送成功后,可以在容器镜像服务控制台查看到Chart。 在云容器引擎部署Helm Chart 登录云容器引擎控制台,点击菜单模板市场我的模板,选择容器镜像服务实例和命名空间,可以看到上一步骤上传的Helm Chart。 选择Chart指定版本后,点击发布,选择容器集群和集群的命名空间,即可把Chart部署到云容器引擎集群中。 发布后可以在模板市场模板实例看到发布后的Chart实例。
        来自:
        帮助文档
        容器镜像服务
        最佳实践
        容器镜像服务企业版使用Helm Chart发布工作负载到容器集群
      • 账号管理
        $%^&()+ 认证类型 数据库账号密码的认证方式,目前控制台可视化界面仅支持SHA256。 访问限制类型 提供的访问类型限制,包含无限制、ip限制、域名限制。 访问限制 根据访问限制类型的选择,配置不同的值。 修改密码 1. 登录云数据库ClickHouse控制台,并选择实例所在地域。 2. 在实例列表页面,点击目标实例ID所在行的"管理"按钮进入详细信息页面。 3. 在实例详细信息页面上方导航栏中,选择"账号管理"选项。 4. 点击目标账号所在行的右上角的"修改密码"按钮。 5. 根据页面提示,输入旧密码,并输入两次新密码。 6. 点击"确定"按钮完成密码修改。 删除账号 1. 登录云数据库ClickHouse控制台,并选择实例所在地域。 2. 在实例列表页面,点击目标实例ID所在行的"管理"按钮进入详细信息页面。 3. 在实例详细信息页面上方导航栏中,选择"账号管理"选项。 4. 点击目标账号所在行的右上角的"删除"按钮。 5. 点击"确定"按钮完成账号删除。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        账号管理
      • Agent安装与启动
        迁移日志中提示 [ERROR]xxx Permission denied是什么原因? 通常是由于当前用户缺少执行该文件或文件夹的权限而导致的: 文件或文件夹的权限不够。 当前用户不是文件或文件夹的所有者。 文件或文件夹不存在。 如何重启Agent? 迁移源显示离线,表明CMSAgent未有效在迁移源运行。 您需先修复迁移源状态为在线后,再新建迁移任务,修复方法如下: Linux系统中: 1. 查看服务进程:ps ef grep moveCloud 或 movecloud status。 2. 重启进程服务:movecloud restart。 Windows系统中: 1. 查看服务进程:任务管理器中查看movecloudManage进程。 2. 重启进程服务:moveCloud。 迁移日志中提示 [ERROR]No space left on device该如何解决? 问题描述 用户正常启动CMS进行迁移后,日志提示: ERROR:No space left on device 问题分析 迁移源端本身存储不合理存在空间不足情况造成报错; 迁移过程中会存在一定空间占用,windows建议预留总据量10%空间; linux注意源机使用率即可,无需特意预留。 解决方案 1. 登录迁移源端云主机,在迁移源端检查存储空间使用情况。 2. 如果可用存储空间剩余不多,可删除部分无用的文件或者扩容迁移源端存储空间。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        服务器迁移服务模块
        Agent安装与启动
      • 新增自建数据库
        如果您需要添加RDS和云数据库以外的自建数据库资产,可参考本章节进行操作。 添加自建数据库资产前,需要获取自建数据库的引擎、版本、主机等相关信息。 前提条件 已完成数据库资产委托授权,参考云资源委托授权/停止授权进行操作。 已获取自建数据库的引擎、版本、主机等相关信息,且自建数据库子网下含有可用的IP配额。 约束条件 只能添加数据安全中心支持的数据库类型及版本,DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostGreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全 >数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中选择“资产列表”,并选择“数据库 > 未授权”,进入未授权数据库资产列表页面。 5. 在未授权数据库资产列表左上角,单击“添加自建数据库”。 6. 在弹出的“添加自建数据库”对话框中,参考下表配置数据库参数。 参数名称 参数说明 取值样例 资产名称 输入数据库对象名称。 区域 默认为当前帐号登录的区域。 ECS实例 在下拉框中选择已在ECS服务里创建的数据库实例。 安全组 选择对应的ECS实例所在的安全组名称。 default 数据库引擎 选择数据库引擎。可选择“MySQL”、“PostgreSQL”、“SQLServer”和“Oracle”。 MySQL 版本 选择数据库引擎对应的版本。 5.6 模式名 输入数据库模式名。 主机 输入数据库服务器IP地址。 端口 输入数据库服务器的端口号。 数据库名称 输入自建数据库名称。 用户名 输入访问数据库服务器的用户名。 密码 输入访问数据库服务器的密码。 7. 点击按钮“确定”,即可将数据库添加完成,并展示在已授权的数据库列表中。在数据库添加完成后,该数据库的“连通性”为“检查中”,此时,DSC会测试数据库的连通性。 数据安全中心DSC能正常访问已添加的数据库,该数据库的“连通性”状态为“成功”。 数据安全中心DSC不能正常访问已添加的数据库,该数据库的“连通性”状态为“失败”。单击“原因”查看失败的原因或者参照如何排查添加数据库连通性失败解决。
        来自:
        帮助文档
        数据安全中心
        用户指南
        资产管理
        资产中心
        数据库资产清单
        新增自建数据库
      • 基本概念
        僵尸主机 僵尸主机亦称傀儡机,是由攻击者通过木马蠕虫感染的主机,大量僵尸主机可以组成僵尸网络(Botnet)。攻击者通过控制信道向僵尸网络内的大量僵尸主机下达指令,令其发送伪造包或垃圾数据包,使攻击目标瘫痪并“拒绝服务”,这就是常见的DDoS攻击。此外,随着虚拟货币(如比特币)价值的持续增长,以及挖矿成本的逐渐增高,攻击者也开始利用僵尸主机进行挖矿和牟利。 异常行为 异常行为主要指在主机中发生了一些不应当出现的事件。例如,某用户在非正常时间成功登录了系统,一些文件目录发生了计划外的变更,进程出现了非正常的行为等。这些异常的行为事件很多是有恶意程序在背后作乱。所以在发生这类异常行为时,应当引起重视。态势感知中的异常行为数据主要来源于主机安全服务。 漏洞攻击 漏洞是指计算机系统安全方面的缺陷,可导致系统或应用数据遭受保密性、完整性、可用性等方面的威胁。攻击者利用漏洞获取计算机权限、盗取敏感数据、破坏软硬件系统等行为均可称为漏洞攻击。
        来自:
        帮助文档
        态势感知(专业版)
        产品介绍
        基本概念
      • 创建用户并授权使用ES
        本章节主要介绍创建用户并授权使用ES。 本章节介绍创建ES用户操作,将ES服务的策略授予用户组,并将用户添加至用户组中(一个用户组下面的用户具有相同的权限),从而使用户拥有对应的ES权限,操作流程如下图所示。 ES具有两种类型用户权限(ES管理员权限和只读权限),在权限规划的时候请规划这两种类型的用户组。 前提条件 给用户组授权之前,请您了解用户组可以添加的ES系统策略,请参见权限管理。 示例流程 1. IAM用户指南中创建用户组授权 在IAM控制台创建用户组,并授予云搜索服务权限。 2. IAM用户指南中创建用户并加入用户组 在IAM控制台创建用户,并将其加入"1.创建用户组并授权"中创建的用户组。 3. 用户登录并验证权限 新创建的用户登录控制台,验证云搜索服务的权限。
        来自:
        帮助文档
        云搜索服务
        用户指南
        权限管理
        创建用户并授权使用ES
      • 什么是HSS的Agent?
        本小节介绍Agent。 Agent是企业主机安全(Host Security Service, HSS)提供的Agent,用于执行检测任务,全量扫描主机/容器;实时监测主机/容器的安全状态,并将收集的主机/容器信息上报给云端防护中心。 Agent的作用 每日凌晨定时执行检测任务,全量扫描主机/容器;实时监测主机/容器的安全状态;并将收集的主机/容器信息上报给云端防护中心。 根据您配置的安全策略,阻止攻击者对主机/容器的攻击行为。 说明 如果未安装Agent或Agent状态异常,您将无法使用企业主机安全服务。 网页防篡改与主机安全共用同一个Agent,您只需在同一主机安装一次。 Linux Agent相关进程 Agent进程运行账号:root。 Agent包含以下进程: Agent进程名称 进程功能 进程所在路径 hostguard 该进程用于系统的各项安全检测与防护、Agent进程的守护和监控。 /usr/local/hostguard/bin/hostguard upgrade 该进程用于Agent版本的升级。 /usr/local/hostguard/bin/upgrade Windows Agent相关进程 Agent进程运行账号:system。 Agent包含以下进程: Agent进程名称 进程功能 进程所在路径 HostGuard.exe 该进程用于系统的各项安全检测与防护。 C:Program Files (x86)HostGuardHostGuard.exe HostWatch.exe 该进程用于Agent进程的守护和监控。 C:Program Files (x86)HostGuardHostWatch.exe upgrade.exe 该进程用于Agent升级。 C:Program Files (x86)HostGuardupgrade.exe
        来自:
        帮助文档
        企业主机安全
        常见问题
        咨询类
        什么是HSS的Agent?
      • 资源监控
        本章节主要介绍翼MapReduce的资源监控操作。 集群中部分服务提供服务级别的资源监控项,默认显示12小时的监控数据。用户可单击自定义时间区间,缺省时间区间包括:12小时、1天、1周、1月。单击可导出相应报表信息,无数据的监控项无法导出报表。支持资源监控的服务及监控项如下表所示。 登录FusionInsight Manager以后,选择“集群 > 待操作集群的名称 > 服务”后,选择待操作的服务,单击“资源”,进入资源监控页面。 服务资源监控 服务 监控指标 说明 HDFS 资源使用(按租户) l 按租户统计HDFS的资源使用情况。 l 可选择按“容量”或“文件对象数”观察。 HDFS 资源使用(按用户) l 按用户统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件对象数”观察。 HDFS 资源使用(按目录) l 按目录统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件对象数”观察。 l 单击配置空间监控,可以指定HDFS文件系统目录进行监控。 HDFS 资源使用(按副本) l 按副本数统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件数”观察。 HDFS 资源使用(按文件大小) l 按文件大小统计HDFS的资源使用情况。 l 可选择按“已使用容量”或“文件数”观察。 HDFS 回收站(按用户) l 按用户统计HDFS回收站的使用情况。 l 可选择按“回收站容量”或“文件对象数”观察。 HDFS 操作数 l 统计HDFS中操作数。 HDFS 自动balance l 统计HDFS自动balancer的执行速度以及本次balancer当前迁移的总容量大小。 HDFS NameNode RPC连接数(按用户) l 按用户统计连接到NameNode的Client RPC请求中,各个用户的连接数。 HDFS 慢DataNode节点 集群中数据传输或处理慢的DataNode节点。 HDFS 慢磁盘 集群中DataNode节点上数据处理慢的磁盘。 HBase 表级别操作请求次数 所有RegionServer上的所有表中put、delete、get、scan、increment、append操作请求次数。 HBase RegionServer级别操作请求次数 RegionServer中put、delete、get、scan、increment、append操作请求次数以及所有操作请求次数。 HBase 服务级别操作请求次数 RegionServer上所有Region中put、delete、get、scan、increment、append操作请求次数。 HBase RegionServer级别HFile数 所有RegionServer中HFile数。 Hive HiveServer2BackgroundPool线程数(按IP) 周期内统计并显示Top用户的HiveServer2BackgroundPool线程数。 Hive HiveServer2HandlerPool线程数(按IP) 周期内统计并显示Top用户的HiveServer2HandlerPool数监控。 Hive MetaStore使用数(按IP) Hive周期内统计并显示Top用户的MetaStore使用数。 Hive Hive的Job数 Hive周期内统计并显示用户相关的Job数目。 Hive Split阶段访问的文件数 统计Hive周期内Split阶段访问底层文件存储系统(默认:HDFS)的文件数。 Hive Hive基本操作时间 Hive周期内统计底层创建目录(mkdirTime)、创建文件(touchTime)、写文件(writeFileTime)、重命名文件(renameTime)、移动文件(moveTime)、删除文件(deleteFileTime)、删除目录(deleteCatalogTime)所用的时间。 Hive 表分区个数 Hive所有表分区个数监控,返回值的格式为:数据库
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        资源监控
      • 设置资源配额与限制
        本节介绍了设置资源配额与限制的用户指南。 资源配额与限制是对用户资源使用量的管控机制,主要用于实现资源的合理分配管理、成本的有效控制以及系统整体稳定性的保障。通过配额管理,云容器引擎能够对容器的计算、存储等资源进行统一的配额管控,确保不同项目或团队间的资源公平分配,防止因误操作或恶意行为导致的资源过度消耗,同时避免单用户过度占用资源而影响平台性能。您可为命名空间配置包括CPU、内存、Pod数量等资源的额度,更多信息请参见资源配额。 操作步骤 1. 登录云容器引擎控制台,单击集群名称进入集群。 2. 在左侧导航栏中选择“命名空间”。 3. 单击对应命名空间后的“更多”,下拉点击"设置资源配额"。 4. 在弹出的弹窗中设置资源配额与资源限制,然后单击“确定”。 参数说明 资源配额 资源类型 说明 CPU申请(requests.cpu) 所有非终止状态的 Pod,其 CPU 申请总量不能超过该值 CPU限制(limits.cpu) 所有非终止状态的 Pod,其 CPU 限制总量不能超过该值 内存申请(requests.memory) 所有非终止状态的 Pod,其内存申请总量不能超过该值 内存限制(limits.memory) 所有非终止状态的 Pod,其内存限制总量不能超过该值 存储空间(requests.storage) 所有持久卷声明的申请总量不能超过该值 持久卷声明数量(persistentvolumeclaims) 在该命名空间中允许存在的 PVC 的总数上限 配置项数量(configmaps) 在该命名空间中允许存在的 ConfigMap 总数上限 容器组数量(pods) 在该命名空间中允许存在的非终止状态的 Pod 总数上限 服务数量(services) 在该命名空间中允许存在的 Service 总数上限 负载均衡型服务数量(services.loadbalancers) 在该命名空间中允许存在的 LoadBalancer 类型的 Service 总数上限 主机端口型服务数量(services.nodeports) 在该命名空间中允许存在的 NodePort 或 LoadBalancer 类型的 Service 的 NodePort 总数上限 保密字段数量(secrets) 在该命名空间中允许存在的 Secret 总数上限 RC数量(replicationcontrollers) 在该命名空间中允许存在的 ReplicationController 总数上限 资源配额数量(resourcequotas) 在该命名空间中允许存在的 ResourceQuota 总数上限 Deployment数量(deployments.apps) 在该命名空间中允许存在的无状态负载(Deployment)的总数上限 Daemenset数量(daemonsets.apps) 在该命名空间中允许存在的守护进程(Daemonset)的总数上限 Statefulset数量(daemonsets.apps) 在该命名空间中允许存在的有状态负载(Statefulset)的总数上限 Job数量(jobs.batch) 在该命名空间中允许存在的任务(Job)的总数上限 Cronjob数量(cronjobs.batch) 在该命名空间中允许存在的定时任务(Cronjob)的总数上限
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        命名空间
        设置资源配额与限制
      • 使用IPv6
        本文介绍天翼云SQL Server对开通具备IPv6的实例,以及如何使用IPv6地址访问数据库。 SQL Server实例支持IPv6,支持通过IPv6连接地址访问数据库。 注意事项 要开通具备IPv6 连接地址的实例,请在订购SQL Server实例时,选择已经开启IPv6的VPC(虚拟私有云),系统将自动分配IPv6连接地址。 VPC开启IPv6请参考开启/关闭虚拟私有云IPv6。 连接数据库 内网连接 通过IPv6的连接地址及数据库端口访问数据库(比如通过SSMS),请确保客户端所在机器本身具备IPv6。 外网连接 通过公网访问IPv6地址连接数据库,请确保SQL Server实例IPv6地址已经绑定IPv6带宽,IPv6带宽需要购买,具体参考购买IPv6带宽。 绑定IPv6带宽前,请创建IPv6网关,否则IPv6无法公网访问且无法绑定带宽,具体参考创建IPv6网关。 请确保客户端所在机器本身具备IPv6且能够访问公网IPv6。 绑定解绑IPv6带宽 前提条件 SQL Server实例已开通IPv6地址。 请提前创建IPv6网关并购买IPv6带宽,详细操作请参考创建IPv6网关和购买IPv6带宽。 说明 订购SQL Server实例时,请选择开启IPv6的VPC,系统将自动为SQL Server实例分配IPv6连接地址。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理实例
        使用IPv6
      • 按需计费
        产品类型 保留期 超过保留期 计算、存储、网络、数据库、终端类产品 15天 存储数据将被删除、云服务资源将被释放
        来自:
        帮助文档
        费用中心
        总览说明
        计费模式
        按需计费
      • 容量调整
        本节主要介绍如何进行容量调整。 当用户认为文件系统的总容量不足或太大时,用户可以通过执行扩容或缩容操作来增加或者缩减文件系统的容量。容量调整规则如下: 增加容量规则:扩容后的文件系统的总容量 该文件系统已使用的容量。例如,云帐号B已创建文件系统SFS1,该文件系统的总容量为50TB,当前使用容量为10TB。当用户执行缩容操作时,设置的新容量数值不能小于10TB。 操作步骤 1、登录天翼云控制中心; 2、在产品列表中选择“弹性文件服务”; 3、在文件系统列表中,单击指定文件系统所在行的“容量调整”,弹出“容量调整”对话框; 4、根据业务需要,在“新容量”文本框中重新设置文件系统的容量,单击“确定”。具体设置要求如下表所示: 参数 说明 :: 当前容量(GB) 当前文件系统的容量。 新容量(GB) 扩容或缩容后文件系统的容量。取值范围: 输入值不能等于当前容量。 输入值是1~512000之间的整数。 5、在弹出对话框中确认容量调整信息后,单击“确定”; 6、在文件系统列表中查看文件系统调整后的容量信息。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        容量调整
      • 产品定义
        本小节介绍日志审计(原生版)产品定义。 产品介绍 日志审计(原生版)(LAS Log Audit Service)通过实时不间断采集设备、主机、操作系统、数据库以及应用系统产生的海量日志信息,进行集中化存储,为您提供安全存储、检索、审计、告警、报表等能力,帮助您满足等保合规要求。 产品功能 天翼云日志审计(原生版)系统具备资产管理、日志检索、日志审计、多维报表等功能。 资产集中管理:提供集中化的统一管理平台,将所有的日志信息收集到平台中,进行信息资产的统一日志管理。 高速日志检索:基于海量数据的高速检索能力,可以实现多重条件组合的快速检索和精确定位。 实时日志审计报警:对归并处理的日志进行实时动态分析,及时发现网络非法访问、数据违规操作、系统进程异常、设备故障等高危安全事件通过邮件、短信等方式进行报警。 丰富多维日志报表:丰富合规报表预设,支持全方位自定义报表导出,实现数据库系统、数据库服务器、网络设备的多维立体审计。 产品架构 天翼云日志审计(原生版)系统产品架构包含数据采集层、处理层、存储层、引擎层、业务层、可视化。 采集层:提供开放式的信息采集接口,实现对用户环境内各类IT资产以及所采用的各厂商安全产品或安全系统进行主动或被动的日志采集。 处理层:实现对采集到的数据做统一规范化,对数据进行关键信息提取,标签化分类,过滤,归并等数据ETL操作,为后续的数据分析做准备。 存储层:实现海量安全大数据的分布式存储,提供结构化数据和非结构化数据的存储能力,并为上层的数据分析应用提供高效的数据库功能支撑。 引擎层:综合数据处理分析的能力提供层,提供由大数据技术和架构支撑的快速检索和数据关联发掘功能。是支撑上层数据呈现和分析结果输出的计算引擎层,提供丰富的大数据统计、关联分析、数据挖掘以及态势分析能力,是系统的分析处理的核心。该层提供了基础数据处理引擎,包括流式计算引擎、复杂事件处理引擎、全文检索引擎、关联分析引擎等。 业务层:实现用户基于平台的标准化数据,依托平台报表工具,日志检索工具,分析引擎,实现用户自身业务相关的安全管理以及数据分析,监控,处置,保障业务的安全稳定。 可视化:实现对平台的数据处理,数据分析,报表分析,处置结果等通过图表可视化的方式呈现。
        来自:
        帮助文档
        日志审计(原生版)
        产品介绍
        产品定义
      • 查看告警规则
        本文带您了解如何查看报警规则。 操作场景 告警规则是一种定义在监控系统中的规则,用于检测和触发特定事件或条件的警报。您可以在云监控控制中心查看创建的告警规则。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已完成告警规则的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“管理与部署”,单击“云监控”,进入监控概览页面。 4. 单击“告警服务”下“告警规则”,进入“告警规则”界面。 5. 在“告警规则”页面,可以查看告警规则的监控对象、策略、状态等内容。
        来自:
        帮助文档
        云监控服务
        快速入门
        查看告警规则
      • 计费FAQ
        本文主要介绍云日志服务常见计费FAQ。 云日志服务如何计费? 当前计费模式仅支持按需计费。即先使用再付费,按照实际使用的日志存储量、读写流量等计费项结算费用,每个月有一定的免费额度,在每个结算周期生成账单并从账户中扣除相应费用。 开通云日志服务时,账户是否需要有余额? 在开通云日志服务时,您的天翼云账户中需要有100元及以上的余额。建议先充值后再进行开通。 如何关闭云日志服务? 若您不再使用云日志服务,您可以将您的日志项目全部删除,无需注销账号。详情操作请查看管理日志项目。 若您需要退订云日志服务,请在云日志服务控制台日志管理首页日志总览相关明细中,点击右上角【退订】按钮进行退订操作。 免费额度如何计算? 关于500M免费额度的具体说明如下: 日志读写流量:按流量计费,每月免费赠送500MB额度,超过后将进行按需收费。 日志存储量:按存储空间计费,每月免费赠送您500MB额度,超过后将进行按需收费。
        来自:
        帮助文档
        云日志服务
        计费说明
        计费FAQ
      • 权限管理
        本文为您介绍数据库审计的权限管理能力,支持通过IAM实现对数据库审计的访问控制、权限分配。 天翼云提供统一身份认证(Identity and Access Management,简称IAM)服务,是提供用户进行权限管理的基础服务,可以帮助您安全的控制云服务和资源的访问及操作权限。通过IAM服务定义企业项目、创建子用户,轻松实现IAM子用户对数据库审计资源的访问控制、权限分配等。 默认情况下,天翼云主账号拥有管理员权限,而主账号创建的IAM用户没有任何权限。IAM用户需要加入用户组,并给用户组授权相应策略后,IAM用户才能获得策略对应的权限,才可以基于被授予的权限对云服务进行操作。 数据库审计支持企业项目管理,若您需要对数据库审计资源进行分组和管理,形成逻辑隔离,您可以创建企业项目,并将资源划分至不同的企业项目中,不同的企业项目可以绑定不同的用户组,并给用户组授予数据库审计产品的权限策略(包括系统策略和自定义策略),从而实现对特定资源的授权。 说明 仅“一类节点”区域的实例支持企业项目管理。 IAM应用场景 IAM策略主要面向同一主账号下,对不同IAM用户授权的场景: 您可以为不同操作人员或应用程序创建不同IAM用户,并授予IAM用户刚好能完成工作所需的权限,比如查看权限,进行最小粒度授权管理。 新创建的IAM用户可以使用自己的登录名和密码登录控制台,实现多用户协同操作时无需分享账号密码的安全要求。 数据库审计IAM策略说明 天翼云为数据库审计提供如下系统策略 。如果系统策略不满足授权要求,可以创建自定义策略 ,自定义策略是对系统策略的扩展和补充,详情请参见创建自定义策略。 策略名称 策略描述 类别 授权范围 数据库审计admin策略 数据库审计admin策略,拥有产品所有操作权限。 系统策略 全局级 数据库审计系统管理员策略 数据库审计系统管理员策略。 系统策略 全局级 数据库审计审计员策略 数据库审计审计员策略,只具备查看权限。 系统策略 全局级 数据库审计安全员策略 数据库审计安全员策略。 系统策略 全局级 数据库审计业务管理员策略 数据库审计业务员管理员策略,仅支持使用数据库审计实例,不支持订购相关操作。 系统策略 全局级
        来自:
        帮助文档
        数据库审计
        用户指南
        实例管理
        权限管理
      • 删除目的端配置
        本章介绍如何删除目的端配置。 操作场景 当目的端设置错误或因业务需求需要修改目的端配置时,可以参考本章节删除目的端配置,然后重新设置目的端。 删除目的端配置后,服务器列表会保留迁移任务,但目的端信息会被清除,无法进行同步。可以重新设置目的端,将源端所有数据重新迁移。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面选择需要删除目的端配置的服务器,在“操作”列单击“更多 > 删除目的端配置”。或勾选需要删除目的端配置的服务器,单击服务器名称/ID列上方的“更多 > 删除目的端配置”。 4. 在弹出的“删除目的端配置”窗口,单击“确定”。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        删除目的端配置
      • 证书绑定域名
        本文介绍证书绑定域名的方法。 功能介绍 天翼云全站加速支持HTTPS加速服务,当您完成新增证书后,可以通过控制台绑定域名启用HTTPS加速服务,实现全网数据加密传输。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【证书管理】【证书列表】。 3. 在【证书列表】页面,找到目标证书,例如,【证书备注名】为test12345的证书。单击【操作】列【绑定域名】进入域名选择页面。 4. 选择需绑定该证书的域名,单击【提交绑定】即可。 注意事项 HTTPS证书绑定域名,一次最多能关联100个域名,筛选范围仅包含域名状态为已启用且无在途工单的域名。 域名绑定证书后会开启域名HTTPS功能。
        来自:
        帮助文档
        全站加速
        用户指南
        证书管理
        证书绑定域名
      • 启动实例
        本页介绍如何启动分布式融合数据库HTAP的实例。 操作步骤 1. 天翼云官网首页右上角选择控制中心,登录进入控制中心界面。 2. 控制中心产品概览页左上角单击管理控制台,选择区域。 3. 选择数据库 > 分布式融合数据库HTAP,进入分布式融合数据库HTAP控制台。 4. 进入实例列表页面,对已停止的实例,点击操作 > 更多 > 启动,在弹出的对话框里点击确认按钮启动该实例。 5. 在执行启动实例的过程中,实例状态处于启动中,稍等片刻后实例状态为正常。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        实例管理
        启动实例
      • 部署第一个 CAE 应用
        本文介绍如何使用云应用引擎,帮助您快速了解云应用引擎以及各方面的实践教程。 云应用引擎使用流程 1. 在首次在云应用引擎部署应用前,需要完成快速入门准备工作中的内容。 2. 在云应用引擎控制台创建应用。 3. 在应用基本信息界面配置基础信息和容量设置。 4. 在高级设置页面可以配置高阶的k8s功能。 5. 应用启动成功后,能够在应用详情界面为应用绑定ELB,生成公网或私网访问IP。 6. 为应用启用更多进阶功能。 例如,微服务治理、持久化日志、应用监控等功能。
        来自:
        帮助文档
        云应用引擎
        快速入门
        部署第一个 CAE 应用
      • 快速创建一个CAE应用(1)
        本文介绍如何使用云应用引擎,帮助您快速了解云应用引擎以及各方面的实践教程。 云应用引擎使用流程 1. 在首次在云应用引擎部署应用前,需要完成快速入门准备工作中的内容。 2. 在云应用引擎控制台创建应用。 3. 在应用基本信息界面配置基础信息和容量设置。 4. 在高级设置页面可以配置高阶的k8s功能。 5. 应用启动成功后,能够在应用详情界面为应用绑定ELB,生成公网或私网访问IP。 6. 为应用启用更多进阶功能。 例如,微服务治理、持久化日志、应用监控等功能。
        来自:
      • 校验迁移后的Redis数据的完整性
        Redis数据迁移完成后(即迁移结束),可以通过redisfullcheck工具检查源Redis与目标Redis的数据一致性(源Redis数据为目标Redis数据的子集,即表示数据一致)。 前提条件 数据迁移已完成(即迁移结束)。 准备工作 开通一台ECS云主机,要求能在ECS上访问通源和目标Redis实例。 下载redisfullcheck执行文件(建议:1.4.8版本,示例:redisfullcheck1.4.8.tar.gz),用以接下来校验源和目标Redis数据。 操作步骤 1. 登录ECS云主机,进入redisfullcheck解压目录。 2. 解压redisfullcheck1.4.8.tar.gz(tar xvf redisfullcheck1.4.8.tar.gz),解压后的redisfullcheck即为可执行文件。 3. 命令说明: 参考命令: ./redisfullcheck s {源Redis连接地址} p {源Redis密码} t {目标Redis连接地址} a {目标Redis密码} 实际执行: ./redisfullcheck s sourceaddress p sourcepassword t targetadress a targetpassword 说明:源/目标连接地址为集群时,多个连接地址以英文分号(;)分隔 4. 命令参数(可选)说明: 选项 说明 示例 s 或者 source 源Redis连接地址,如果是集群时,多个地址间以英文分号(;)分隔。 s sourceaddress1;sourceaddress2 p 或者 sourcepassword 源Redis连接密码(不支持指定username)。 p password sourcedbtype 源Redis架构系列;0:标准主备/单机(默认),1:集群,2: aliyun proxy, 3: tencent proxy。 sourcedbtype 0 sourcedbfilterlist 源Redis需要对比的db,1:表示对比所有db(默认),db1;db2:表示对比db1和db2。 sourcedbfilterlist 0;1 t 或者 target 目标Redis连接地址,如果是集群时,多个地址间以英文分号(;)分隔。 t targetaddress1;targetaddress2 a 或者 targetpassword 目标Redis连接密码(不支持指定username)。 a password targetdbtype 目标Redis架构系列;0:标准主备/单机(默认),1:集群,2: aliyun proxy, 3: tencent proxy。 targetdbtype 0 targetdbfilterlist 目标Redis需要对比的db,1:表示对比所有db(默认),db1;db2:表示对比db1和db2。 targetdbfilterlist 1 comparetimes 对比轮数,默认:3,最小:1。 comparetimes 3 m 或者 comparemode 校验模式,1:全量比较,2:只对比value的长度(默认),3:只校验key是否存在,4:全量比较,但是忽略大key的比较。 m 2 q 或者 qps 最大的qps限制(默认:15000)。 q 15000 interval 相邻两轮校验的间隔时间(秒)(默认:5)。 interval 5 loglevel 日志级别,'debug', 'info', 'warn', 'error'(默认:info)。 loglevel info f 或者 filterlist 需要比较的key列表,以竖线分割。 f abc v 或者 version 输出redisfullcheck版本。 v 5. 运行结果 出现以下字样时,表示校验完成。 all finish successfully, …… 校验明细。 sqlite3 result.db.3(3表示对比轮数) select from key; select from field; 说明:表key,field记录了数据冲突情况
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        校验迁移后的Redis数据的完整性
      • 概念类
        本节主要介绍弹性文件服务的概念类常见问题。 什么是弹性文件服务? 弹性文件服务(Scalable File Service, SFS)提供按需扩展的高性能文件存储,支持同时为多个弹性云主机提供文件共享服务。SFS容量型提供标准的NFS/CIFS文件访问协议,SFS Turbo提供标准的NFS文件访问协议,用户可以将现有应用和工具与SFS无缝集成。 弹性文件服务提供简单易用的操作界面,用户可以快捷地创建和管理文件系统,无需操心文件系统的部署、扩展和优化等运维事务。 此外,弹性文件服务还具备高可靠和高可用的特点,支持根据业务需要弹性扩容,且性能随容量增加而提升。 弹性文件服务、对象存储服务和云硬盘有什么区别? 对比维度 弹性文件服务 对象存储服务 云硬盘 :::: 概念 提供按需扩展的高性能文件存储,可为云上多个云服务器提供共享访问。弹性文件服务就类似Windows或Linux中的远程目录。 提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。 可以为云服务器提供高可靠、高性能、规格丰富并且可弹性扩展的块存储服务,可满足不同场景的业务需求。云硬盘就类似PC中的硬盘。 存储数据的逻辑 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 存放的是对象,可以直接存放文件,文件会自动产生对应的系统元数据,用户也可以自定义文件的元数据。 存放的是二进制数据,无法直接存放文件,如果需要存放文件,需要先格式化文件系统后使用。 访问方式 在ECS/BMS中通过网络协议挂载使用,支持NFS和CIFS的网络协议。需要指定网络地址进行访问,也可以将网络地址映射为本地目录后进行访问。 可以通过互联网或专线访问。需要指定桶地址进行访问,使用的是HTTP和HTTPS等传输协议。 只能在ECS/BMS中挂载使用,不能被操作系统应用直接访问,需要格式化成文件系统进行访问。 使用场景 如高性能计算、媒体处理、文件共享和内容管理和Web服务等。 说明: 高性能计算:主要是高带宽的需求,用于共享文件存储,比如基因测序、图片渲染这些。 如大数据分析、静态网站托管、在线视频点播、基因测序和智能视频监控等。 如高性能计算、企业核心集群应用、企业应用系统和开发测试等。 说明: 高性能计算:主要是高速率、高IOPS的需求,用于作为高性能存储,比如工业设计、能源勘探这些。 容量 PB级别 EB级别 TB级别 时延 3~10ms 10ms 亚毫秒级
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        概念类
      • 创建虚拟节点
        本文介绍如何创建虚拟节点。 1. 在弹性容器实例控制台左侧导航栏中选择“虚拟节点”,进入虚拟节点列表页。 2. 点击“创建虚拟节点”,进入虚拟节点订购页。 3. 完成相关参数配置,单击确定。 参数 描述 虚拟私有云、子网、安全组 VNode所属的虚拟私有云、子网、安全组 可用区 VNode所属的可用区 KubeConfig VNode要连接的Kubernetes集群的kubeconfig 标签 VNode绑定的标签信息 污点 VNode绑定的污点信息
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        虚拟节点
        创建虚拟节点
      • Go
        环境准备 1. 下载Demo包kafkaconfluentgodemo.zip。 2. 使用开发工具导入Demo。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改kafka.json文件。(security.protocol仅在ssl连接时需要配置) { "topic": "XXX", "topic2": "XXX", "group.id": "XXX", "bootstrap.servers" : "XXX:XX", "security.protocol" : "SSL" } 生产消息 发送以下命令发送消息。 go run modvendor producer/producer.go 生产消息示例代码如下: package main import ( "encoding/json" "fmt" "github.com/confluentinc/confluentkafkago/kafka" "log" "os" "path/filepath" "strconv" "time" ) const ( INT32MAX 2147483647 1000 ) type KafkaConfig struct { Topic string json:"topic" Topic2 string json:"topic2" GroupId string json:"group.id" BootstrapServers string json:"bootstrap.servers" SecurityProtocol string json:"security.protocol" SslCaLocation string json:"ssl.ca.location" } // config should be a pointer to structure, if not, panic func loadJsonConfig() KafkaConfig { workPath, err : os.Getwd() if err ! nil { panic(err) } configPath : filepath.Join(workPath, "conf") fullPath : filepath.Join(configPath, "kafka.json") file, err : os.Open(fullPath); if (err ! nil) { msg : fmt.Sprintf("Can not load config at %s. Error: %v", fullPath, err) panic(msg) } defer file.Close() decoder : json.NewDecoder(file) var config &KafkaConfig{} err decoder.Decode(config); if (err ! nil) { msg : fmt.Sprintf("Decode json fail for config file at %s. Error: %v", fullPath, err) panic(msg) } json.Marshal(config) return config } func doInitProducer(cfg KafkaConfig) kafka.Producer { fmt.Print("init kafka producer, it may take a few seconds to init the connectionn") //common arguments var kafkaconf &kafka.ConfigMap{ "api.version.request": "true", "message.max.bytes": 1000000, "linger.ms": 500, "sticky.partitioning.linger.ms" : 1000, "retries": INT32MAX, "retry.backoff.ms": 1000, "acks": "1"} kafkaconf.SetKey("bootstrap.servers", cfg.BootstrapServers) switch cfg.SecurityProtocol { case "PLAINTEXT" : kafkaconf.SetKey("security.protocol", "plaintext"); case "SSL": kafkaconf.SetKey("security.protocol", "ssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem") case "SASLSSL": kafkaconf.SetKey("security.protocol", "saslssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism); kafkaconf.SetKey("enable.ssl.certificate.verification", "false") case "SASLPLAINTEXT": kafkaconf.SetKey("security.protocol", "saslplaintext"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism) default: panic(kafka.NewError(kafka.ErrUnknownProtocol, "unknown protocol", true)) } producer, err : kafka.NewProducer(kafkaconf) if err ! nil { panic(err) } fmt.Print("init kafka producer successn") return producer } func main() { // Choose the correct protocol cfg : loadJsonConfig(); producer : doInitProducer(cfg) defer producer.Close() // Delivery report handler for produced messages go func() { for e : range producer.Events() { switch ev : e.(type) { case kafka.Message: if ev.TopicPartition.Error ! nil { log.Printf("Failed to write access log entry:%v", ev.TopicPartition.Error) } else { log.Printf("Send OK topic:%v partition:%v offset:%v content:%sn", ev.TopicPartition.Topic, ev.TopicPartition.Partition, ev.TopicPartition.Offset, ev.Value) } } } }() // Produce messages to topic (asynchronously) i : 0 for { i i + 1 value : "this is a kafka message from confluent go " + strconv.Itoa(i) var msg kafka.Message nil if i % 2 0 { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic2, Partition: kafka.PartitionAny}, Value: []byte(value), } } else { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic, Partition: kafka.PartitionAny}, Value: []byte(value), } } producer.Produce(msg, nil) time.Sleep(time.Duration(1) time.Millisecond) } // Wait for message deliveries before shutting down producer.Flush(15 1000) }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Go
      • 1
      • ...
      • 229
      • 230
      • 231
      • 232
      • 233
      • ...
      • 608
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      轻量型云主机

      天翼云CTyunOS系统

      应用托管

      一站式智算服务平台

      知识库问答

      人脸检测

      推荐文档

      如何申请发票?

      续订

      云课堂 第十二课:再论ORACLE上云通用技术方案

      错误日志

      查看业务关键性能指标

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号