活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云堡垒机_相关内容
      • 通过ISO文件创建系统盘镜像
        本文档为您提供通过ISO文件创建系统盘镜像的操作步骤。 操作场景 通常您从操作系统官网上获取的镜像文件为.iso格式的原始镜像文件,该镜像文件无法直接用于安装弹性云主机实例。您需要通过一台虚拟机将其制作为可以用于安装弹性云主机的私有镜像格式,如raw / qcow2 / vhd / vmdk。 本功能在控制台为您提供通过.iso格式的原始镜像文件制作为可以用于安装弹性云主机镜像文件的操作过程。通过使用临时云主机,辅助您制作私有镜像文件。 前提条件 您已开通对象存储,并创建类型为“标准存储”的桶; 您已将iso镜像文件上传到对象存储。 注意 为确保正确导入镜像,对象存储桶名与iso文件名称中请不要包含中文字符、特殊字符及空格; 对于没有多可用区的资源池,本功能不支持; 对于有多可用区可选的资源池,本功能的支持情况以资源池为准;不支持的资源池正在建设中。 操作步骤 步骤1:导入ISO格式的镜像文件 进入【镜像服务控制台】,点击【创建私有镜像】按钮,并按下述内容设置: 镜像类型:ISO镜像; 镜像源:镜像文件; 镜像文件地址:在对象存储桶中,使用iso文件的【复制URL】功能; 操作系统:选择操作系统版本,此处请确保操作系统类型准确;例如您需要制作一个CTyunOS的镜像,下拉选项中不包含,因此您可以选择任意Linux版本即可保证后续功能正常使用,如CentOS、Ubuntu的某个版本; 系统架构:当前仅支持x86,海光、ARM等架构暂不支持,产品正在努力完善中; 企业项目:按需选择; 镜像名称:不可以和已有镜像名称重复 是否编辑标签:用于镜像分类,按需编辑; 描述:按需输入镜像描述; 点击下一步,勾选协议并完成导入。 注意 如果是通过系统盘镜像或数据盘镜像下的镜像文件导入的,该iso镜像无法创建临时云主机,同样创建普通云主机也会失败。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        私有镜像
        创建私有镜像
        通过ISO文件创建系统盘镜像
      • 切换操作系统
        本节介绍了切换操作系统的操作场景、约束与限制、切换须知、不同操作系统切换须知、前提条件、操作步骤、后续处理。 操作场景 切换操作系统是为您的弹性云主机重新切换一个系统盘。切换完成后弹性云主机的系统盘ID会发生改变,并删除原有系统盘。 如果弹性云主机当前使用的操作系统不能满足业务需求(如软件要求的操作系统版本较高),您可以选择切换弹性云主机的操作系统。 公有云平台支持不同镜像类型(包括公共镜像、私有镜像、共享镜像)与不同操作系统之间的互相切换。您可以将现有的操作系统切换为不同镜像类型的操作系统。 约束与限制 云硬盘的配额需大于0。 切换须知 切换操作系统后,弹性云主机将不再保留原操作系统,并删除原有系统盘。 切换操作系统会清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 切换操作系统不影响数据盘数据。 切换操作系统后,您的业务运行环境需要在新的系统中重新部署。 切换操作系统成功后弹性云主机会自动开机。 切换操作系统后不支持更换系统盘的云硬盘类型。 切换操作系统后弹性云主机IP地址和MAC地址不发生改变。 切换操作系统后,当前操作系统内的个性化设置(如DNS、主机名等)将被重置,需重新配置。 切换操作系统时,对于安装了密码注入插件的镜像,切换操作系统耗时大约为1~2min。对于未安装密码注入插件的镜像,需要创建临时虚拟机,耗时大约为10~20min。切换操作系统过程中,弹性云主机会显示任务状态为“切换操作系统中”。 切换操作系统后的几分钟,系统正在注入密码或密钥信息,再此期间请勿对云主机执行其他操作,避免密码或密钥信息注入失败导致云主机无法登录。 切换弹性云主机的操作系统后,由于所选镜像不同,系统盘的容量可能会增大 切换操作系统时支持设置系统盘加密。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        切换操作系统
      • 创建工作负载及服务
        本节介绍了:创建一个无状态工作负载——创建工作负载及服务的用户指引。 进入云容器引擎控制台,在集群选项卡中选择一个集群进入集群详情界面。选择工作负载 > 无状态 > 新增 选择命名空间,创建一个Deployment 配置项说明 配置项 说明 Deployment名称 工作负载的名称 数据卷(选填) 为容器提供存储,目前支持临时路径、主机路径、配置文件、本地卷(Local PV)、NFS、Ceph,还需挂载到容器的指定路径中。 实例数量 工作负载的副本数,可选择手动设置或自动伸缩。 实例内容器 工作负载中的容器实例配置,可配置一个或多个。 容器名称 容器实例的名称 镜像及镜像版本 支持选择容器镜像服务企业版、容器镜像服务个人版的镜像。 CPU/内存限制 Request用于预分配资源,当集群中的节点没有request所要求的资源数量时,容器会创建失败。Limit用于设置容器使用资源的最大上限,避免异常情况下节点资源消耗过多。 环境变量(选填) 支持配置容器的环境变量。 启动执行(选填) 启动执行命令:对应镜像的ENTRYPOINT命令,将会覆盖镜像的ENTRYPOINT命令;每个输入框仅输入一个命令或参数。 启动执行参数:对应镜像的CMD命令,将会覆盖镜像的CMD命令;每个输入框仅输入一个命令或参数。 启动后处理 容器启动后执行,注意由于是异步执行,无法保证一定在ENTRYPOINT之后运行;每个输入框仅输入一个命令或参数。 停止前处理 容器停止前执行,常用于资源清理;每个输入框仅输入一个命令或参数。 容器健康检查 存活检查:检查容器是否正常,不正常则重启实例。 就绪检查:检查容器是否就绪,不就绪则停止转发流量到当前实例。 特权级容器 容器开启特权级,将拥有宿主机的root权限。 Container安全上下文 为Container设置安全上下文,仅适用于该Container:若Pod、Container层面都设置了用户、用户组、Selinux上下文,Container的设置会覆盖Pod的设置。 访问设置 配置Service访问负载
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        快速入门
        创建一个无状态工作负载
        创建工作负载及服务
      • 操作指导
        本节介绍云等保专区产品的主机安全。 主机安全v1.0(简称“EDR”)是一款集成了丰富的系统防护与加固、网络防护与加固等功能的主机安全产品。EDR通过自主研发的文件诱饵引擎,有着业界领先的勒索专防专杀能力;能通过内核级东西向流量隔离技术,实现网络隔离与防护;并拥有补丁修复、外设管控、文件审计、违规外联检测与阻断等主机安全能力。 功能介绍 EDR具有以下功能模块: 防御已知和未知类型勒索病毒 EDR不仅可以阻止已知勒索病毒的执行,而且面对传统杀毒软件束手无策的未知类型勒索病毒时,EDR采用诱饵引擎,在未知类型勒索病毒试图加密时发现并阻断加密行为,有效守护主机安全。 防御高级威胁全流程攻击 EDR根据ATT&CK理论,对攻防对抗的各个阶段进行防护,包括单机扩展、隧道搭建、内网探测、远控持久化、痕迹清除。不仅可以做到威胁攻击审计,而且还可以防止黑客进行渗透攻击,实现攻防对抗360度防御。 管控全局终端安全态势 服务器、PC和虚拟机等终端安装了客户端软件后,上传资产指纹、病毒木马、高危漏洞、违规外联、安全配置等威胁信息到管理控制中心。用户在管理控制中心可以看到所有安装了客户端软件的主机及安全态势,并进行统一任务下发,策略配置。 全方位的主机防护体系 EDR不仅包含传统杀毒软件的病毒查杀、漏洞管理、性能监控功能,在系统防护方面还可做到主动防御、系统登录防护、系统进程防护、文件监控,还支持网络防护、Web应用防护、勒索挖矿防御、外设管理等多个功能点。 流量可视化,安全可见 EDR通过流量画像的流量全景图,展示内网所有流量和主机间通信关系,梳理通信逻辑,以全局视角对策略进行规划,便于用户第一时间发现威胁,一键清除威胁。 简单配置,离线升级,补丁管理 EDR支持用户自主进行安全配置,能够明确、有效的进行主机防护。主程序、病毒库、漏洞库、补丁库、Web后门库、违规外联黑名单库全部支持离线导入升级包、一键自动升级,可在专网使用。
        来自:
        帮助文档
        云等保专区
        用户指南
        主机安全
        主机安全v1.0
        操作指导
      • 创建数据库和表
        本章节主要介绍创建数据库和表。 数据库和表说明 数据库是按照数据结构来组织、存储和管理数据的建立在计算机存储设备上的仓库。 表是数据库最重要的组成部分之一。表是由行与列组合成的。每一列被当作是一个字段。每个字段中的值代表一种类型的数据。 数据库是一个框架,表是其实质内容。一个数据库包含一个或者多个表。 DLI中数据库的概念、基本用法与Oracle数据库基本相同,是DLI管理权限的基础单元,赋权以数据库为单位。 用户可通过管理控制台或SQL语句创建数据库和表。本章节介绍在管理控制台创建数据库和表的操作步骤。 说明 View只能通过SQL语句进行创建,不能通过“创建表”页面进行创建。 注意 当OBS的目录下有同名文件夹和文件时,创建OBS表指向该路径会优先指向文件而非文件夹。 创建数据库 1.创建数据库的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 在“数据管理”页面创建数据库。 a. 在管理控制台左侧,单击“数据管理”>“库表管理”。 b. 在库表管理页面右上角,单击“创建数据库”可创建数据库。 在“SQL编辑器”页面创建数据库。 a. 在管理控制台左侧,单击“SQL编辑器”。 b. 在左侧导航栏单击“数据库”页签右侧可创建数据库。 2.在“创建数据库”页面,参见下表输入数据库名称和描述信息。 详见下表:参数说明 参数名称 描述 示例 数据库名称 数据库名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 数据库名称大小写不敏感且不能为空。 输入长度不能超过128个字符。 说明 “default”为内置数据库,不能创建名为“default”的数据库。 DB01 描述 该数据库的描述。 3.单击“确定”,完成数据库创建。 数据库创建成功后,您可以在“库表管理”页面或者“SQL编辑器”页面查看和选择使用对应的数据库。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        创建数据库和表
      • 使用GPU弹性云主机训练ViT模型
        本文为您介绍如何在GPU云主机上进行ViT模型训练,完成CV领域中图像分类任务。 背景信息 ViT全称Vision Transformer,该模型是在2020年由 Alexey Dosovitskiy 等人提出,将Transformer应用在图像分类的模型,虽然不是第一次将Transformer应用在视觉任务,但模型结构效果好,可扩展性强,成为了Transformer在CV领域应用的里程碑。模型示意图如下: 实例环境如下表所示。 实例类型 pi2.2xlarge.4 所在地域 上海7 系统盘 40GB 数据盘 10GB 操作系统 Ubuntu 18.04.5 LTS 公网弹性IP带宽 5Mbps 操作步骤 1. 配置PyTorch开发环境。 a. 安装NVIDIA GPU驱动、CUDA和CUDNN组件。 执行以下命令,安装NVIDIA显卡驱动。 apt install tar gcc g++ make buildessential chmod +x NVIDIALinuxx8664515.65.01.run ./NVIDIALinuxx8664515.65.01.run noopenglfiles 安装完成后执行nvidiasmi命令,查看是否安装成功。 ./cuda11.7.0515.43.04linux.run tar xJvf cudnnlinuxx86648.5.0.96cuda11archive.tar.xz cd cudnnlinuxx86648.5.0.96cuda11archive sudo cp include/ /usr/local/cuda11.7/include/ sudo cp lib/ /usr/local/cuda11.7/lib64/ sudo chmod a+r /usr/local/cuda11.7/include/cudnn sudo chmod a+r /usr/local/cuda11.7/lib64/libcudnn b. 配置conda环境。 依次执行以下命令,配置conda 环境。 wget c chmod +x Miniconda3py394.12.0Linuxx8664.sh ./Miniconda3py394.12.0Linuxx8664.sh c. 编辑~/.condarc 文件,加入下图配置信息,将 conda 的软件源替换为清华源。 channels: defaults showchannelurls: true defaultchannels: customchannels: condaforge: msys2: bioconda: menpo: pytorch: pytorchlts: simpleitk: deepmodeling: 详情请参见:清华大学开源软件镜像站 执行conda info,确认软件源已替换。 d. 执行以下命令替换pip源为清华源。 pip config set global.indexurl e. 安装Pytorch组件。 执行以下命令,安装 PyTorch。 pip install torch1.13.1+cu117 torchvision0.14.1+cu117 torchaudio0.13.1 extraindexurl 依次执行以下命令,查看PyTorch 是否安装成功。 2. 实验数据。 CIFAR10(Canadian Institute for Advanced Research10)是一个常用的计算机视觉数据集,用于图像分类任务。它由60000个32x32彩色图像组成,这些图像均来自于10个不同的类别,每个类别包含6000个图像。数据集被分为两个部分:训练集和测试集,其中训练集包含50000个图像,测试集包含10000个图像。CIFAR10数据集中的图像涵盖了广泛的对象类别,包括飞机、汽车、鸟类、猫、鹿、狗、青蛙、马、船和卡车。每个图像都有一个标签,表示它所属的类别。这个数据集被广泛用于计算机视觉领域的算法开发、模型训练和性能评估。 3. 使用ColossalAIExamples模型训练。 本文在分布式训练框架 ColossalAI 的基础上进行模型训练和开发。ColossalAI 提供了一组便捷的接口,通过这组接口能方便地实现数据并行、模型并行、流水线并行或者混合并行。 a. 安装ColossalAI和其他组件。 pip install colossalai timm titans b. ViT示例模型训练。 git clone cd ColossalAIExamples/image/visiontransformer/dataparallel 由于单卡T4显存有限,修改config.py文件,将BATCHSIZE设置为32。执行以下命令启动训练: colossalai run nprocpernode 1 trainwithcifar10.py config config.py 模型运行过程如下图所示:
        来自:
        帮助文档
        GPU云主机
        最佳实践
        使用GPU弹性云主机训练ViT模型
      • NAT网关概述
        本节介绍NAT网关应用场景和使用限制。 NAT(Network Address Translation, NAT)网关能够为虚拟私有云(Virtual Private Cloud, VPC)内的计算实例提供网络地址转换服务,实现多个资源实例使用共享弹性公网IP访问Internet(Source NAT, SNAT)或资源实例使用弹性公网IP面向Internet提供服务(Destination NAT, DNAT)。VPC内的实例出方向访问通过SNAT规则控制,入方向访问通过DNAT规则控制,一个NAT网关可以创建多个SNAT和DNAT规则。 产品优势 避免业务公网暴露 VPC下的资源实例如果需要访问公网,通过NAT网关,实例无需单独绑定公网IP即可访问公网,从而避免将业务直接暴露在公网,从而实现安全防护作用。 降低成本 通过NAT网关,VPC下的资源实例可以共享弹性公网IP和带宽实例,无需单独为每个资源实例分配弹性公网IP和带宽实例,可以有效降低成本。 灵活部署,即开即用 NAT网关支持按需部署。SNAT或DNAT规则配置后,可实时生效。 应用场景 使用SNAT访问公网 当VPC内的资源实例需要访问公网,为节省弹性公网IP资源并且避免将资源实例绑定的公网IP直接暴露在公网上,您可以使用NAT网关的SNAT功能实现公网访问。VPC中一个子网对应一条SNAT规则,一条SNAT规则配置一个弹性公网IP。您可以通过创建SNAT规则,以实现共享弹性公网IP资源。 面向公网提供服务 当VPC内的资源实例需要面向公网提供服务时,可以使用NAT网关的DNAT功能。DNAT功能绑定弹性公网IP,可通过端口映射方式,NAT网关将以指定的协议和端口访问该弹性公网IP的请求转发到目标实例的指定端口上。也可通过IP映射方式,为资源实例配置一个弹性公网IP,任何访问该弹性公网IP的请求都将转发到目标虚拟机实例上。如果有多个实例需要提供外网访问服务,可以通过配置多条DNAT规则来共享一个或多个弹性IP资源。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        NAT网关
        NAT网关概述
      • SQL类
        解决方案 在使用distinct或group by的时候,尽量在合理的情况下,创建可以包含所有依赖字段的索引。 为什么有时候用浮点数做等值比较查不到数据 原因分析 浮点数的等值比较问题是一种常见的浮点数问题。因为在计算机中,浮点数存储的是近似值而不是精确值,所以等值比较、数学运算等场景很容易出现预期外的情况。 MySQL中涉及浮点数的类型有float和double。如下示例中遇到的问题: 解决方案 1. 使用精度的方法处理,使用字段与数值的差值的绝对值小于可接受的精度的方法。示例: 2. 使用定点数类型(DECIMAL)取代浮点数类型,示例: 表空间膨胀问题 场景描述 在使用TaurusDB过程中,经常遇到表空间膨胀问题,例如:表中只有11774行数据,表空间却占用49.9GB,将该表导出到本地只有800M。 原因分析 场景1:DRS全量迁移阶段并行迁移导致 原因:DRS在全量迁移阶段,为了保证迁移性能和传输的稳定性,采用了行级并行的迁移方式。当源端数据紧凑情况下,通过DRS迁移到云上TaurusDB后,可能会出现数据膨胀现象,使得磁盘空间使用远大于源端。 场景2:大量删除操作后在表空间留下碎片所致 原因:当删除数据时,mysql并不会回收被删除数据占据的存储空间,而只做标记删除,尝试供后续复用,等新的数据来填补相应空间,如果短时间内没有数据来填补这些空间,就造成了表空间膨胀,形成大量碎片; 可以通过如下SQL语句,查询某个表详细信息,DATAFREE字段表示表空间碎片大小: select from informationschema.tables where tableschema'dbname' and tablename 'tablename'G
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        SQL类
      • SSL VPN远程拨入
        VPN用户配置 登录云墙,打开【对象→用户→本地用户】,单击“新建 > 用户”,输入名称、密码、确认密码。 配置VPN安全域 打开【网络→安全域】,使用VPN安全域。 新建SSL VPN隧道接口 打开【网络→接口】,单击“新建 > 隧道接口”。 配置接口名称:tunnel10。 安全域:VPNHub。 IP地址配置:10.1.1.1/24。 注意 该IP地址是用于VPN登录时的网关地址,一般默认是XX.XX.XX.1/24的地址。 该地址网段涉及到下面SSL VPN地址池的配置,请根据自身网络进行规划。 逆向路由:关闭,防止出现环路。 配置出向策略 SNAT配置:VPN地址池转换为防火墙接口地址。 安全策略访问:VPN安全域(被转换接口安全域)。 VPN登录 1. 配置完成后,在PC1的浏览器中输入 Networks,Inc.”中的“WebVPN.cab”...请单击这里”。 2. 鼠标右键单击此提示信息,并点击“为此计算机上的所有用户安装此加载项”。系统提示下载并安装Hillstone Secure Connect,下载链接: 3. 安装完成后,安装SSL VPN拨号客户端,填写相应信息进行拨号后,即可访问内网业务,其中SSL VPN拨号客户端由云防火墙(原生版)工程师提供。 服务器地址:指本配置的VPN地址,具体内容由本单位管理员提供。 端口:指本配置的端口地址,具体内容由本单位管理员提供,默认为4433。 用户名:指本配置的用户信息,具体内容由本单位管理员提供。 密码:指本配置的密码信息,具体内容由本单位管理员提供。
        来自:
        帮助文档
        云防火墙(原生版)
        最佳实践
        N100最佳实践
        SSL VPN远程拨入
      • 关系数据库MySQL版内存使用率过高怎么处理
        本文介绍了关系数据库MySQL版的内存使用率过高的一些处理方法以及MySQL的内存分配方式。 对于用户核心业务相关的但是配置相对较低的数据库实例 建议您扩容实例规格,具体请参见规格扩容。 对于非用户核心业务相关的数据库实例 查看实例虚拟机内存使用率的相关监控,内存使用率曲线持续平缓,则无需处理。 对于用户核心业务相关但是数据库规格配置高的数据库实例 1. 通过控制台监控,观察实例的内存使用趋势情况,如果实例的内存使用率仍持续保持较高: 扩容实例规格。 调整数据库参数innodbbufferpoolsize的值: 数据库实例内存为2GB规格,参考值256MB。 数据库实例内存为4GB规格,参考值1GB。 数据库实例内存为8GB规格,参考值3GB。 数据库实例内存大于8GB规格,则无需调整。 说明 根据实际业务实际情况和内存使用情况,调整参数innodbbufferpoolsize的值。 MySQL本身具有内存动态平衡机制,系统内存使用率90%以下时可无需关注。 MySQL的内存分配可划分为Engine层与Server层。 Engine层的内存包括InnoDB Buffer Pool、Log Buffer、Table Cache、Table definition Cache,其中InnoDB Buffer Pool主要用于缓存表数据页、索引页、数据字典等常用数据,数据库的绝大部分内存都被此占用,这类缓存一般都为常驻内存。InnoDB缓冲池是一个内存区域,可以通过参数innodbbufferpoolsize改变缓冲池大小。 Server层的内存占用较高的包括Thread Cache、Binlog Cache、Sort Buffer、Read Buffer、Join Buffer,read buffer等线程缓存,针对每个数据库连接会话独立分配的缓存,独立缓存的总量与连接数成正比,连接数越高,总的独立缓存便越大,但是这类缓存往往会随着连接关闭而释放,并非常驻内存。 以上内存的分配导致MySQL实例运行时内存使用率在80%左右。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        性能调优
        关系数据库MySQL版内存使用率过高怎么处理
      • 移动办公
        本节介绍了移动办公使用的最佳实践介绍。 天翼AI云电脑支持手机、Pad等多种移动终端,使用3/4/5G、WIFI网络登录AI云电脑,即可随时随地访问AI云电脑资源,随时进行收发文件,及时处理办公问题,实现移动办公。 前提条件 已开通天翼AI云电脑,详情请参见快速订购AI云电脑。 注意事项 天翼AI云电脑支持多终端适配:适配PC、Mac、iOS、安卓等多种终端,多外设支持:鼠标、键盘、打印机、扫描仪等外设无缝衔接(备注:手机、Pad等移动终端不支持USB外设),详情可查看外设兼容性建议清单。 应用场景说明 其常用方式: (1)外出无需携带电脑,通过手机等移动客户端接入AI云电脑进行操作,轻松调用云端资源进行移动办公; (2)天翼AI云电脑客户端支持接入扩展坞、键盘、鼠标等主流外设,与传统PC一致的使用体验。 操作步骤 步骤一:以天翼AI云电脑移动客户端为例,帮助您快速登录连接AI云电脑。步骤详见:登录连接AI云电脑 执行结果 当用户通过手机等移动客户端接入AI云电脑进行操作,轻松调用云端资源进行移动办公。例如:文档编辑,邮件接收和发送,浏览网页,日程办公软件使用等场景都可以轻松实现。 场景一:文档编辑 (1)和传统PC一样,可以在AI云电脑内正常使用文档编辑器,进行文档编辑。 (2)在编辑过程中可以使用AI云电脑内的键盘功能,更便捷的进行编辑输入。 场景二:邮件接收和发送 可以在AI云电脑内通过浏览器或安装邮箱客户端实现邮件的查收和发送。
        来自:
        帮助文档
        天翼云电脑(政企版)
        最佳实践
        移动办公
      • 使用文件存储卷
        参数 参数说明 云存储类型 文件存储:文件存储适用于多种使用场景,包括媒体处理、内容管理、大数据和分析应用程序等。 分配方式 使用已有存储 云存储名称:选择已创建的存储,您需要提前创建存储,创建存储步骤请参见 创建文件存储卷 。 子类型:已创建的文件存储子类型。 存储容量:该容量值为PVC的属性值,若在IaaS侧实施过存储扩容后,容量值不一致是正常的。CCE1.13集群开始支持端到端容器存储扩容功能后,PVC容量才会和存储实体容量一致 自动分配存储 自动创建存储,需要输入存储的容量。 子类型:文件存储子类型为NFS。 存储容量:单位为GB。请不要超过存储容量配额,否则会创建失败。 添加容器挂载 配置如下参数: 1. 子路径:输入文件存储的子路径,如:tmp。 Kubernetes中数据卷挂载的subpath,指引用卷内的子路径而不是其根,不填写时默认为根。现只支持文件存储,必须是相对路径,且不能以“/”或“../”开头。 2. 挂载路径:输入挂载路径,如:/tmp。 数据存储挂载到容器上的路径,请不要挂载在系统目录下,如“ / ”、“ /var/run ” 等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 须知: 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 3. 设置权限。 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。 单击“添加容器挂载”可增加多条设置,单击“确定”完成配置。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        存储管理
        文件存储卷
        使用文件存储卷
      • 微服务部署
        业务场景 基于ServiceStage可以方便快捷的将微服务部署到容器(如CCE)、虚拟机(如ECS)或无服务器(如CCI),同时支持源码部署、jar/war包部署或docker镜像包部署。同时,ServiceStage支持 Java、PHP、Node.js、Go、Python 多种编程语言应用的完全托管,包括部署、升级、回滚、启停和删除等。本实践中使用了Java开发的后台组件和Node.js开发的前台组件。 用户故事 在本实践中,您可以通过容器部署的方式部署应用并将微服务实例注册到微服务引擎CSE中,weathermap应用需要创建以下组件: 1. 前台组件:weathermapweb,基于Node.js语言开发的界面。 2. 后台组件:weather、forecast、fusionweather,基于Java语言开发。 创建并部署后台应用组件 此处需要创建3个应用组件,对应后台构建任务生成的3个软件包:weather、forecast、fusionweather。 这里以weather包为例介绍操作步骤,其余应用组件的具体步骤不再详述。 1. 登录ServiceStage控制台,选择“应用管理 > 应用列表”。 2. 单击创建应用时创建的应用名称(例如weathermap)“操作”栏的“新增组件”。 3. “配置方式”选择“自定义配置”,“选择组件类型”选择“微服务”,单击“下一步”。 4. “选择运行时”选择“Docker”,单击“下一步”。 5. 选择Java Chassis框架/服务网格。 6. 设置组件信息,“组件名称”输入weather。 7. 单击“创建并部署”,部署组件。 a. “环境”:选择创建环境时创建的环境(例如testenv)。 b. “部署版本”:输入1.0.0。 c. “部署系统”:选择“云容器引擎”。 d. “实例数量”:设置为1。 e. 其他参数使用默认 8. 单击“下一步 组件配置”,进行组件配置。 a. “镜像”:单击“选择镜像”,在“我的镜像”页签搜索“weather”,选择创建组织创建的组织名称下的weather镜像包及其版本号,单击“确定”。 b. “微服务引擎”:默认选择创建环境时选择的微服务引擎。 c. 其他参数使用默认。 9. 设置环境变量。 选择“高级设置 > 组件配置”,进入“环境变量”,单击“添加环境变量”,添加如下环境变量。 10. 单击“下一步 规格确认”,确认规格。 11. 单击“部署”,部署组件。 12. 参考以上步骤,创建并部署forecast和fusionweather组件,需要设置的参数如下表所示。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        使用ServiceStage托管天气预报微服务应用
        微服务部署
      • 部署HBlock
        本节主要介绍部署单机版HBlock。 部署HBlock的主要步骤为: 1. 安装前准备:准备一个或多个目录作为HBlock数据目录,安装HBlock的用户对这些目录有读写权限,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器或者龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock。 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { s server } { SERVERIP [:PORT ]:PATH & } [ { P publicnetwork } CIDR ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport6 MANAGEMENTPORT6 ] 说明 可以通过web、命令行和API进行初始化HBlock。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号。 ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] 说明 如果允许 iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询卷 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] [ { { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-单机版
        部署HBlock
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 注意 在进行数据迁移前,请确保所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据将无法完成迁移。 1. 选择数据迁移 页签,单击 创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入 任务名称 、 源节点 、目标节点 和 迁移类型 。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务 ,出现创建清理任务对话框。 2. 选择 源节点 、清理开始时间 和清理结束时间 ,单击确定 。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务对话框。 2. 选择回收节点 、设置回收开始时间 和 回收结束时间 ,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务 页签,单击 创建任务 ,出现创建数据重平衡任务对话框。 2. 输入任务名称 ,选择节点组 ,单击确定 ,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 , 并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1. 不能以pg开头。 2. 只支持大小写字母、数字和下划线。 3. 只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 下一代防火墙v1.0
        本节介绍云等保专区产品的下一代防火墙配置类问题。 下一代防火墙如何进行接入策略设置? 首先明确资源池区域,如果资源池为:南宁23、华东1、上海36、武汉41、青岛20、华北2、长沙42、西南1、南昌5,进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 完成弹性IP绑定工作后需要进行子网路由绑定,进入到天翼云控制台,选择“网络 > 虚拟私有云”进入配置页面。 3. 选择“路由表 > 创建路由表”,进行路由表创建。填写路由名称,以及需要防护的VPC之后,在关联资源类型处选择“子网”。 4. 创建完成后,根据刚才创建的名称选择刚才创建的路由,点击名称进入子网路由配置页面,点击“创建”按钮,进行子网路由创建操作。 5. 在路由规则创建处填写对应的IP地址,在云主机选择是选择下一代防火墙的云主机。 6. 进行子网关联设置,点击“关联子网”模块,选择需要关联的子网,点击“确定”按钮即可。 7. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 8. 点击“新建”创建新的一体化策略。 其余资源池进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 确认需要防护的资产在子网内的IP地址。 3. 完成弹性IP绑定操作之后,点击进入下一代防火墙配置,进入下一代防火墙配置页面,点击“NTA策略”“策略”“新建”,进入NAT配置新建一条DNAT规则。 4. 建立防火墙上端口到资产业务端口的端口映射(以防火墙开放10022端口映射到资产22端口为例)。 5. 配置完毕点击右上角保存按钮保存。 6. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 7. 点击 创建新的一体化策略。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        下一代防火墙
        下一代防火墙v1.0
      • 索引存储设置
        您可以根据实际情况,配置索引的存储节点信息,支持设置为Redis或MySQL类型。 注意事项 修改存储设置后,需要重新启动GiServer服务并重建索引。 启动GiServer也将重启该节点的DBProxy服务,启动期间该节点不可用,可能影响查询效率,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 在GiServer设置区域,根据实际情况,配置如下存储节点信息。 存储类型 设置为redis: 参数 描述 redis类型 Redis类型,取值范围: 单机版 集群版 host IP地址。 说明 单机版只能输入一个IP地址。 集群版可以输入多个IP地址,使用英文逗号(,)分隔,例如127.0.0.1,127.0.0.2。 port 端口号。 说明 只需输入一个端口号即可。 password 密码。 说明 只需输入一个密码即可。 minIdle 最小空闲连接数。 maxIdle 最大空闲连接数。 maxTotal 最大连接数。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 存储类型 设置为mysql: 参数 描述 使用已开通的RDS 是否使用已开通的MySQL实例。 如果您使用已开通的MySQL实例,则只需打开该开关,在选择MySQL 中配置目标MySQL实例,即可自动获取该MySQL实例的数据库IP 和数据库端口。 数据库IP 已部署MySQL数据库的机器IP地址。 注意 只有从Giserver能连接到MySQL数据库的机器IP地址才有效,建议输入与Giserver相同VPC下的IP地址。 数据库端口 MySQL数据库的访问端口。 数据库用户 MySQL数据库用户。 数据库密码 MySQL数据库的密码。 初始连接数 Giserver初始化时创建的数据库连接数(数据库连接池参数)。 最小空闲连接数 连接池里始终保持的最小空闲连接数。 说明 即使Giserver性能压力很小,连接池仍会保证至少可用的数据库连接数,以快速响应新请求。 最大活跃连接数 连接池里允许的最大并发连接数。 说明 通过限制连接池最多可以支持同时建立的数据库连接数,可以防止Giserver性能压力较大时,MySQL数据库因数据库资源耗尽或过载出现的异常。 获取链接超时时间(毫秒) Giserver从连接池中获取的MySQL数据库连接的最大等待时间。当超过等待时间,Giserver与MySQL数据库还未建立连接,则会报错。 索引查询超时时间(秒) DBProxy执行SQL查询时,使用全局索引的最大允许时间。当超过最大允许时间,DBProxy会跳过索引,使用广播查询。 元数据库名 MySQL数据库的元数据库名称。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 6. 单击检测,并等待检测通过。 注意 存储类型 设置为redis时,无法检测redis,请自行确保redis信息填写正确。 存储类型 设置为mysql 时,必须检测通过后,才能单击保存。 7. 单击保存。 8. 在确认启动GiServer节点 对话框中,确认启动的GiSever节点信息无误后,单击确认启动。 启动成功后,您可以在索引服务管理 页签下,查看已启动的GiServer节点信息,其中,节点初始化状态 为已初始化 、节点状态 为运行中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引存储设置
      • 版本说明书
        本页简要介绍分布式数据库V2.0.0版本更新说明。 版本说明 V2.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 2.0 2021年 07 月 新增和优化特性: 1. 新增软件包管理模块,包括查看软件包列表、上传软件包、删除软件包、搜索软件包和增加对软件包进行md5校验。 2. 新增主机管理模块,包括添加服务器、查看服务器列表、删除服务器列表、测试服务器连通性、检测服务器状态接口、编辑服务器信息和根据IP地址搜索服务器。 3. 新增资源模版管理,包括新建资源模版、查看模版列表、编辑资源模版、删除资源模版、检测模版是否被使用和根据模版名称搜索模版。 4. 新增服务器指标,包括服务器CPU使用率、服务器CPU负载、服务器内存占用率、服务器平均每次设备I/O操作服务时间、服务器平均设备I/O队列、服务器设备I/O操作等待时间、服务器入流量、服务器出流量、服务器TCP连接数、服务器数据库文件句柄数和服务器进程数。 5. 新增实例管理模块,包括实例操作、节点操作和健康检查。 6. 支持用户登录和退出数据库管理平台。 7. 新增参数管理和鉴权配置,包括查看数据库参数、自定义配置数据库参数、支持批量修改数据库参数、查看鉴权配置、修改鉴权配置、增加鉴权配置和删除鉴权配置。 8. 新增监控模块,包括集群预览、集群监控和节点监控。 9. 支持任务管理、用户管理和租户管理。 10. 新增备份恢复模块,包括备份策略、备份管理和恢复管理。 11. 新增分布式数据库能力,包括引入TeleDB分布式数据库内核和优化Oracle兼容性。 12. 优化Oracle兼容性。 修复漏洞 CVE20181115 漏洞名称:TeleDB:Quest DR Series Disk Backup软件操作系统命令注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181058 漏洞名称:TeleDB:PostgreSQL 提权漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE202132029 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201810915 漏洞名称:TeleDB:PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910208 漏洞名称:TeleDB:Postgresql PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201712172 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715098 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715099 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20201720 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910130 漏洞名称:TeleDB:PostgreSQL 访问控制错误漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181052 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 修复缺陷 1. 在indexonly场景下,修复删除数据脱敏列功能不生效的问题。 2. 修复在聚合操作(带有去重)下添加一个排序节点的操作。 3. 在cn上vacuum表时,有cn计算frozenxid,保证集群范围内的统一xid回卷。 4. 修复因为释放的指针未置空导致coredump;优化过程中不能正确获取表的行数导致执行计划不准确的问题。 5. squeue故障时,consuer退出,CN回滚事务时,置空连接状态,避免无限的嵌套循环。 6. 修复查询串格式化时可能导致coredump的问题。 7. 修复等待轻量级锁(lwlock)的进程不进入pgstaterror处理的问题。 8. 修复分布式事务prepare时,未持久化2pc的上下文信息,导致pgclean无法清理一些二阶段事务问题。 9. 考虑空值和已删除的列,将已删除的属性、空值(NULL)以及缺失的值设置为NULL值。 10. 修复没有删除列的之间映射的bug。 11. 在pgsubscriptiontable中同步修改的bug。 12. 逻辑复制在master上新加入的表的数据变更到消费端直接被丢弃。 13. 逻辑复制ALTER SUBSCRIPTION xxx REFRESH PUBLICATION相关BUG。 14. 去掉Pooler调试过程无必要的sleep逻辑。 15. 确保在连接到连接池之前进行事务处理,并确保当前的事务状态是正确的。 16. 删除子表回归测例缺失。 17. 使用GCC版本7.3时遇到编译器错误。 18. 数据节点上通过VACUUM分区表产生的错误的索引信息。 19. 为gtm的 synchronousstandbynames 修正警告信息的if条件。 20. 修复TOAST表相关问题。 21. 修复空指针导致的core dump。 22. 修复一条日志"skip delete portal resowner"打印的if条件。 23. 修复一个在处理Gather 节点的左子树时,未能正确将目标(target)添加到其目标列表(targetlist)中的问题。 24. 在rtables(关系表列表)中搜索之前,没有正确检查变量的层级(level)的bug。如果变量是分布式列,并且其层级正确,那么函数返回 true。 25. 在构建初始快照时,避免recovery时的重复XIDs。 26. 在子事务precommit时使用独立的memorycontext,避免类似plpsql场景下因为子事务导致OOM。 27. 在cn节点调用pgclearnodecoldaccess函数会产生coredump。 28. 在poolerasyncbuildconnection中,在建立连接前检查管道中空间的bug。 29. 增加一条LOG信息,用于记录关于逻辑复制应用在特定数据库和表上的错误或问题的详细信息。 30. 支持在聚合算子下面增加sort算子。 31. 指针和数据的使用不当。 32. 指针和数据的释放函数使用不当。 33. copy tuple时置分片id相关问题。 34. FlushXlogTrack的coredump。 35. 修复GTM备机每次收到主机的时间戳位置都进行持久化的问题。 36. 修复GUC中的coordinatorlxid参数由于超出INTMAX的范围而导致的溢出问题。 37. 修复MergeAppend/Append算子下推时,如果有一个子算子下推到所有DN(nodes为NULL),在通过并集计算之后反而会丢失部分DN节点,从而导致查询结果不完整的问题。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        版本说明书
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • xlog(WAL)堆积类问题
        本页介绍天翼云TeleDB数据库xlog(WAL)堆积类问题。 xlog(WAL)堆积问题总体排查思路 问题描述 xlog(WAL)堆积,明显超过预期大小,导致磁盘空间使用率上涨,甚至打满磁盘,影响实例运行。 可能影响 占用更多的磁盘空间; 可能会打满磁盘,影响实例运行。 解决步骤 1. 首先检查WAL和归档相关参数,核实参数是否符合预期; > 连接到WAL日志堆积的节点,执行以下SQL: > > select currentsetting('walkeepsegments') as walkeepsegments,(select count(1) > from pglsdir('./pgwal/')) as walcount; > WAL相关参数中,walkeepsegments为保留WAL日志文件的数量,通常实际统计的WAL日志文件数量比walkeepsegments稍多,相差几百内都属于正常范围,明显超出则确定WAL日志有堆积; 2. 检查WAL日志增长量是否符合预期; > 登录WAL日志堆积的节点所在服务器,进入pgwal目录,执行以下shell命令,按纬度统计WAL数量; > 统计每小时日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7" "$8}'awk F: '{print $1}'sort uniq c > 统计每天日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7}'awk F: '{print $1}'sort uniq c 3. 检查复制槽状态,是否有activefalse的复制槽; > 连接到WAL日志堆积的节点,执行以下SQL: > > select from pgreplicationslots where activefalse; > 如果有activefalse的复制槽,那么就会导致WAL堆积,需要核实并解决复制槽问题; 4. 如果不是复制槽问题,可以继续检查归档配置是否正确; > 连接到WAL日志堆积的节点,执行以下SQL: > > show archivestatuscontrol; > 如果参数查询结果为break,那么WAL日志文件不会被正常删除,需要核实并更正参数为continue; 5. 检查归档执行状态是否正常; > 登录WAL日志堆积的节点所在服务器,检查archiver进程状态是否正常,进程显示的last 归档的文件是否在更新。 > > ps fegrep archiver > 查询结果显示为archiver process failed on xxx,则说明归档败了,需要进一步排查归档失败原因; > 也可以执行以下SQL查询归档执行状: > > select from pgstatgetarchiver(); > 其中failedcount>0表示有归档失败。 6. 检查归档速度是否正常; > 如果归档正常,那需要检查归档速度是否正常,归档速度是否能赶上WAL日志生成的速度,如果归档速度比生成的慢,那么WAL日志会逐渐堆积起来,可以从减少WAL日志生成量和加快WAL日志文件归档两个方面入手进行优化; 7. 检查是否有长事务/长时间执行未结束的SQL; > 连接到WAL日志堆积的节点,执行以下SQL: > > select pid,clientaddr,statechange,querystart,statechange,EXTRACT(EPOCH FROM > (now()querystart)),query,state,usename,applicationname from pgstatactivity where > EXTRACT(EPOCH FROM (now()querystart))>600 and state!'idle'; > 如果有长时间执行未结束的SQL或事务,需要核实后清理掉,避免影响WAL日志文件的清理。 8. 如果影响业务,需要快速恢复,可以先手动清理,再定位原因; > 登录WAL日志堆积的节点所在服务器,进入pgwal/archivestatus目录,执行以下shell命令,修改.ready 的扩展名称.done > > find .ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done > 或 > > ls lrt grep .ready awk F' ' '{print $NF}' xargs i rename ready done ./{} > 如果提示有太多的bash: /usr/bin/find: Argument list too long,则需要分批修改,具体前缀可以 top看一下 Arichve 进程当前在处理哪个WAL,然后取其前缀就行,例如: find 00000001000005[19].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done find 00000001000005[AF].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        xlog(WAL)堆积类问题
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 域名接入视频直播之后,如何绑定CNAME
        本文介绍如何绑定CNAME。 要启用视频直播服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到直播节点上,达到加速效果。 当您在天翼云直播控制台添加加速域名后,系统会为您分配一个天翼云CDN的CNAME域名,例如 .ctdns.cn。 您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctdns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云视频直播的节点,实现加速的目的。 具体操作步骤请参考:配置CNAME。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        域名接入视频直播之后,如何绑定CNAME
      • 创建主题和订阅组
        本文介绍分布式消息服务RocketMQ入门指引的创建主题和订阅组内容。 背景信息 在实例创建完成后,需要创建主题和订阅组来进行消息实例的日常功能运转。 主题:在RocketMQ中,主题(Topic)是消息发布的逻辑分组。它类似于一个消息的分类或者标签,帮助用户将不同类型的消息进行归类和管理。通常情况下,一个主题可以包含多个消息生产者和多个消息消费者。通过使用主题,RocketMQ能够实现高效的消息发布和订阅机制,帮助用户更好地管理和组织消息。 订阅组:订阅组是 RocketMQ 中的一个重要概念,用于实现消息的发布与订阅模式。一个订阅组可以包含多个消费者实例,这些实例共同消费同一个主题下的消息。当消息被发送到主题时,订阅组中的每个消费者实例会按照一定规则来均衡地接收消息,并进行相应的处理。订阅组是 RocketMQ 提供的一种灵活且可扩展的方式,用于实现消息的发布与订阅模式,并保证消息在消费者之间的均衡分配和可靠处理。 集群:RocketMQ集群是一种由多个节点(或者称为Broker)组成的分布式消息中间件系统。每个节点都具有相同的功能并且可以处理和存储消息。通过将消息分发到不同的节点,RocketMQ集群能够实现高可用性和可伸缩性。通过使用RocketMQ集群,可以实现消息传输的并行处理、容错性和高可用性,满足高并发场景下的消息传递需求。 创建主题 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入主题管理菜单,点击【新建主题】按钮 5、 在弹出的新建主题页面,填写如下字段信息 1)默认展示当前集群名称,不可修改。 2)选择主题所在的Broker,按照实例创建时候选择的主备节点对数列出每个broker,可复选。 3)填写主题名称,名字限制2到64个字符,超过限制会导致创建主题失败,用户创建主题只能包含大小写字母数字以及和符号。 4)按照实际需求填写主题备注。 5)填写每个Broker分区数,分区数必须大于0,小于等于8,创建严格顺序队列时,设置分区数为1,且只能选择一个Broker。 6)选择生产模式,RocketMQ是一个开源的分布式消息中间件,它支持两种消息生产模式:有序和无序。 有序消息生产模式(Ordered Message)是指按照特定规则将消息发送到相同的Message Queue中,并且确保消息在消费者端按照相同的顺序进行消费。这种模式适用于那些需要严格按照消息顺序进行处理的场景,比如订单处理、流程审批等。 无序消息生产模式(Unordered Message)是指消息发送到不同的Message Queue中,每个Queue都是独立的。消费者可以并行地从多个Queue中消费消息,而无需关心消息的顺序。这种模式适用于那些不需要严格按照消息顺序处理的场景,比如日志收集、异步通知等。 需要注意的是,无论是有序还是无序消息生产模式,RocketMQ都提供了高可靠性的消息传输和存储,并支持水平扩展和高吞吐量的特性。根据具体的业务需求,选择适合的消息生产模式能够更好地满足应用的要求。 7)选择主题的读写权限,支持读写、只读、只写3类权限。 8) 完成主题信息填写后,保存确认即可新增主题。 9) 若希望批量创建主题,可点击【批量创建】按钮 批量创建 注意:输入的主题名不要带空格等特殊字符。 通过上传csv文件,批量创建主题。格式:点击【主题模板】按钮下载。 主题模板 批量上传主题的模板,必须使用模板,才能够上传成功,模板格式如下:
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建主题和订阅组
      • 权限管理
        本节主要介绍OBS的权限管理。 如果您需要对OBS资源,为企业中的员工设置不同的用户访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云服务资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并授权控制他们对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有OBS的使用权限,但是不希望他们拥有删除OBS资源等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用OBS,但是不允许删除OBS资源的权限,控制他们对OBS资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用OBS的其它功能。 IAM是云平台提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见《天翼云统一身份认证服务用户指南》“产品介绍”章节。 OBS权限 默认情况下,新建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略,才能使得用户组中的用户获得策略定义的权限,这一过程称为授权。授权后,用户就可以基于策略对云服务进行操作。IAM系统预置了各服务的常用权限,例如完全控制权限、只读权限,您可以直接使用这些系统策略。 OBS部署时不区分物理区域,为全局级服务。授权时,在全局项目中设置策略,访问OBS时,不需要切换区域。 RBAC策略:RBAC策略是将服务作为一个整体进行授权,授权后,用户可以拥有这个服务的所有权限,如访问整个服务、管理整个服务,RBAC策略无法针对服务中的具体操作做权限控制。 说明 由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的RBAC策略后,大概需要等待10~15分钟策略才能生效。 下表为OBS的所有系统策略。 策略名称 描述 策略类别 Tenant Administrator 操作权限:对帐号拥有的所有云资源执行任意操作。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 Tenant Guest 操作权限:对帐号拥有的所有云资源的只读权限。OBS策略在“全局服务>对象存储服务”下配置。 RBAC策略 用户拥有OBS资源权限后,对应在OBS上可以执行的具体操作下表所示。 操作名称 Tenant Administrator权限 Tenant Guest权限 列举桶 可以 可以 创建桶 可以 不可以 删除桶 可以 不可以 获取桶基本信息 可以 可以 管理桶访问权限 可以 不可以 管理桶策略 可以 不可以 修改桶存储类别 可以 不可以 列举对象 可以 可以 列举多版本对象 可以 可以 上传文件 可以 不可以 新建文件夹 可以 不可以 删除文件 可以 不可以 删除文件夹 可以 不可以 下载文件 可以 可以 删除多版本文件 可以 不可以 下载多版本文件 可以 可以 修改对象存储类别 可以 不可以 恢复文件 可以 不可以 取消删除文件 可以 不可以 删除碎片 可以 不可以 管理对象访问权限 可以 不可以 设置对象元数据 可以 不可以 获取对象元数据 可以 不可以 管理多版本控制 可以 不可以 管理日志记录 可以 不可以 管理标签 可以 不可以 管理生命周期规则 可以 不可以 管理静态网站托管 可以 不可以 管理CORS规则 可以 不可以 管理防盗链 可以 不可以 管理跨区域复制 可以 不可以 管理图片处理 可以 不可以 设置对象ACL 可以 不可以 设置指定版本对象ACL 可以 不可以 获取对象ACL 可以 可以 获取指定版本对象ACL 可以 可以 多段上传 可以 不可以 列举已上传段 可以 可以 取消多段上传任务 可以 不可以
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        权限管理
      • 管理自动备份
        本节主要介绍管理自动备份。 GeminiDB Influx支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 说明 GeminiDB Influx自动备份时,不会对 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 图1 开启备份策略 1.保留天数: 自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。对于系统中最近一个全量备份文件,如果在新的全量备份未超过保留天数前系统会一直保留,直至新的全量备份超过保留天数后才会删除。 增加保留天数,可提升数据可靠性,请根据需要设置。 减少保留天数,会针对已有的备份文件生效,即超出备份保留天数的已有备份文件(包括全量备份和增量备份)会被自动删除,但手动备份不会自动删除,请您谨慎选择。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如12:00~13:00 。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 假如保留天数设置为“2”,表示超过两天的全量备份和增量备份会被自动删除。即周一产生的备份会在周三删除,同理,周二产生的备份会在周四删除。 全量备份文件自动删除策略: 已有备份文件超出备份天数后会自动删除,考虑到数据完整性,自动删除时仍然会保留最近的一次超过保留天数的全量备份,保证在保留天数内的数据可正常恢复。 假如备份周期选择“周一”、“周二”,保留天数设置为“2”,备份文件的删除策略如下: 本周一产生的全量备份,会在本周四当天自动删除。原因如下: 本周二的全量备份在本周四当天超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即本周二的备份会被保留),因此周四当天删除本周一产生的全量备份文件。 本周二产生的全量备份,会在下周三当天自动删除。原因如下: 下周一产生的全量备份在下周三超过保留天数,按照全量备份文件自动删除策略,会保留最近的一个超过保留天数的全量备份(即下周一的备份会被保留),因此下周三当天删除本周二产生的全量备份。 2.备份周期: 默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 增备周期:系统默认自动将每隔15分钟的离散时间点上的增量数据进行备份。您也可以根据需要设置增量备份周期,目前支持设置为5分钟,10分钟,15分钟。增备周期目前为公测阶段,如需使用,请联系客服申请开通相应的操作权限。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        数据备份
        管理自动备份
      • 测试方法
        本节主要介绍测试方法。 本章基于GeminiDB Influx实例,进行性能测试,具体包括测试环境,测试步骤,以及测试结果。 测试环境 区域:天翼云资源池 可用区:可用区一 弹性云主机(Elastic Cloud Server,简称ECS):规格选择内存优化型m6.2xlarge.8,8U64GB,操作系统镜像使用CentOS 7.6 64位版本。 被测试集群实例的配置:每个实例包含3个节点。 被测试集群实例的规格:4U16G、8U32G、16U64G、32U128G。 测试工具 本次测试采用了开源社区的Time Series Benchmark Suite (TSBS)。 测试指标 写入性能测试关注每秒写入点数(points/sec)。 查询性能测试关注时延和OPS(Operation Per Second)。 测试步骤 1. 执行如下命令,生成需要执行写入的数据。 tsbsgeneratedata usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:00Z" loginterval"10s" format"influx" gzip > /tmp/influxdata.gz 说明 scale:需要生成的时间线数量。 loginterval:数据采样间隔。 2. 执行如下命令,进行写入性能测试,获取写入性能数据。 NUMWORKERS${numWorkers} BATCHSIZE${batchSize} DATABASEHOST${influxIP} DATABASEPORT${influxPORT} BULKDATADIR/tmp scripts/loadinflux.sh 3. 执行如下命令,生成查询语句。 tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries20 querytype"highcpuall" format"influx" gzip > /tmp/influx20querieshighcpuall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries1000000 querytype"singlegroupby181" format"influx" gzip > /tmp/influx1000000queriessinglegroupby18112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"doublegroupby1" format"influx" gzip > /tmp/influx500queriesdoublegroupby112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries50 querytype"doublegroupbyall" format"influx" gzip > /tmp/influx50queriesdoublegroupbyall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries200 querytype"lastpoint" format"influx" gzip > /tmp/influx200querieslastpoint12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"groupbyorderbylimit" format"influx" gzip > /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz 说明 usecase, seed,scale,timestampstart 的值与上面步骤中生成写入数据时设置的值保持一致。 timestampend:数据生成结束后一秒。 queries:生成的查询数。 queriestype:生成的查询类型,具体模型含义参见下表。 4. 执行如下命令,查询性能,获取查询性能数据。 cat /tmp/influx20querieshighcpuall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx1000000queriessinglegroupby18112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10000 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesdoublegroupby112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx50queriesdoublegroupbyall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx200querieslastpoint12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT}
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        性能白皮书
        测试方法
      • 在CTS事件列表查看云审计事件
        本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 场景描述 云审计服务能够为您提供云服务资源的操作记录,记录的信息包括发起操作的用户身份、IP地址、具体的操作内容的信息,以及操作返回的响应信息。根据这些操作记录,您可以很方便地实现安全审计、问题跟踪、资源定位,帮助您更好地规划和利用已有资源、甄别违规或高危操作。 什么是事件 事件即云审计服务追踪并保存的云服务资源的操作日志,操作包括用户对云服务资源新增、修改、删除等操作。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 约束与限制 用户通过云审计控制台只能查询最近7天的操作记录,过期自动删除,不支持人工删除。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 用户对云服务资源做出创建、修改、删除等操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 在CTS查看审计事件 1. 登录控制台,单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 4. 事件列表支持通过筛选来查询对应的操作事件。 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 支持的资源类型请参见“支持云审计的CFW操作列表”。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 支持审计的操作事件的名称请参见“支持云审计的CFW操作列表”。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 5. 选择完查询条件后,单击“查询”。 6. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 7. 在需要查看的事件左侧,单击展开该记录的详细信息。 8. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        云防火墙
        用户指南
        使用CTS审计CFW
        在CTS事件列表查看云审计事件
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 产品功能
        模块 特性名称 详细说明 直播推流 场景 支持主播/客户采用推流工具将直播流推至视频直播边缘节点。 直播推流 协议 支持RTMP和RTMPS。 直播拉流 场景 支持用户通过播放器从视频直播边缘节点进行拉流播放直播流。 直播拉流 协议 支持RTMP、FLV和HLS。 协议转换 场景 支持将推流或回源协议通过视频直播产品转换成多种直播协议。 协议转换 协议 支持将RTMP、RTMPS、FLV协议转换成FLV、RTMP和HLS协议。 访问控制 Referer防盗链 基于HTTP请求头中Referer字段来设置访问控制规则,实现对访客的身份识别和过滤,防止资源被非法盗用。 访问控制 IP黑/白名单 通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 访问控制 UA防盗链 通过识别HTTP请求头中的UA字段,可以识别特定终端,从而限制用户行为,拦截或允许某一类用户的访问,实现防盗链、防盗刷、防攻击的目的。 访问控制 URL鉴权 通过对访问URL中的加密串及时间戳进行校验,从而有效地保护用户站点资源。 访问控制 远程鉴权 将请求转发回提前设定的鉴权源站,视频直播节点依据源站返回的鉴权结果应答用户请求,从而实现用户鉴权规则由源站全权定义。 访问控制 HTTPS HTTPS是HTTP的安全版,通过开启HTTPS协议,将实现客户端和天翼云直播加速节点之间请求的HTTPS加密。 访问控制 批量域名IP封禁 支持一次对多个域名批量进行IP黑名单配置。 媒体处理 直播转码 为适配不同用户终端或者不同网络环境,视频直播支持输出不同码率、帧率、分辨率等直播流,同时支持对原始流增加水印。 媒体处理 直播录制 支持将直播流录制为点播文件并存储在媒体存储中,实现直播转点播文件,便于客户进行二次传播。 媒体处理 直播时移 支持体育赛事/游戏赛事等直播场景下,通过时移回看精彩瞬间。 媒体处理 直播截图 支持对直播流进行截图,并将图片保存在媒体存储中。 流管理 禁推 当客户监控发现某主播推送非法内容,可通过禁推功能实时中止并封禁该直播,封禁时长支持自定义。 流管理 解禁 支持对封禁中的流进行解禁。 流管理 断流 支持通过自助操作断开正在推的直播流,但主播如果用相同流名再次推流时可以推流成功。 直播控制台 概览 展示今日或本月的流量/带宽、近七天流量/带宽趋势、证书统计、域名统计、信息中心。 直播控制台 域名管理 支持添加域名,并对域名进行编辑、停用、启用或删除等操作。 如果有开通全球(不含中国内地),支持变更加速区域。 支持HTTPS相关功能配置。 支持IP黑白名单、Referer防盗链和URL鉴权功能自助配置。 支持HLS切片配置。 直播控制台 证书管理 支持新增证书、查看证书、删除证书和替换过期证书等操作。 直播控制台 功能配置 支持自助创建转码、录制、截图和回调模板,并支持将模板绑定到域名上。 直播控制台 流管理 支持查询在线推流和历史推流。 支持禁推、解禁和断流自助操作。 直播控制台 统计分析 支持客户对日常关注的带宽流量、回源、请求数、状态码、地区运营商、在线人数等维度进行自定义查询,实时感知业务运营状态。 支持查看热门URL、域名排行、热门Referer、TOP客户端IP。 支持对转码、录制和截图使用量进行查询。 支持查看流粒度带宽、以及推流域名的平均码率和帧率。 直播控制台 日志下载 支持下载直播加速域名的访问日志。 直播控制台 计费详情 支持自助更新计费方式、查询资源包使用详情、查看历史记录和账单等相关信息。 直播控制台 地址生成器 支持自定义流名和发布点并生成URL示例;如果有配置URL鉴权,还可以生成鉴权URL示例。
        来自:
        帮助文档
        视频直播
        产品介绍
        产品功能
      • 创建节点伸缩策略
        本文主要介绍创建节点伸缩策略。 CCE的自动伸缩能力是通过节点自动伸缩组件autoscaler实现的,可以按需弹出节点实例,支持多可用区、多实例规格、多种伸缩模式,满足不同的节点伸缩场景。 当节点伸缩中创建的策略和autoscaler插件中的配置同时生效时(比如不可调度和指标规则同时满足时),将优先执行不可调度扩容。 若不可调度执行成功,则会跳过指标规则逻辑,进入下一次循环。 若不可调度执行失败,将执行指标规则逻辑。 前提条件 使用节点伸缩功能前,需要安装autoscaler插件,插件版本要求1.13.8及以上。 约束限制 仅按需计费节点池支持弹性伸缩。 弹性伸缩的策略作用在节点池,当节点池中节点为0时,且按CPU/内存弹性伸缩时,不会触发节点伸缩。 缩容节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。缩容节点时使用了本地持久存储卷的Pod会从缩容的节点上被驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。 操作步骤 步骤 1 在CCE控制台,单击集群名称进入集群。 步骤 2 单击左侧导航栏的“节点伸缩”,进入创建节点伸缩策略页面。 若插件名称后方显示“未安装”,请单击插件后方的“安装”,根据业务需求配置插件参数后单击“安装”,等待插件安装完成。 若插件名称后方显示“已安装”,则说明插件已安装成功。 步骤 3 单击右上角“创建节点伸缩策略”,参照如下参数设置策略。 策略名称:新建策略的名称,请自定义。 关联节点池:选择要关联的节点池。您可以关联多个节点池,以使用相同的伸缩策略。 说明 节点池新增了优先级功能,弹性扩容时CCE将按照如下策略来选择节点池进行扩容: 1. 通过预判算法判断节点池是否能满足让Pending的Pod正常调度的条件,包括节点资源大于Pod的request值、nodeSelect、nodeAffinity和taints等是否满足Pod正常调度的条件;另外还会过滤掉扩容失败(因为资源不足等原因)还处于15min冷却时间的节点池。 2. 有多个节点池满足条件时,判断节点池设置的优先级(优先级默认值为0,取值范围为0100,其中100为最高,0为最低),选择优先级最高的节点池扩容。 3. 如果有多个节点池处于相同的优先级,或者都没有配置优先级时,通过最小浪费原则,根据节点池里设置的虚拟机规格,计算刚好能满足Pending的Pod正常调度,且浪费资源最少的节点池。 4. 如果还是有多个节点池的虚拟机规格都一样,只是AZ不同,那么会随机选择其中一个节点池触发扩容。 5. 如果出现优先选择的节点池资源不足,会按照优先级顺序自动选择下一个节点池。 节点池优先级功能详情请参见创建节点池。 执行规则:单击“添加规则”,在弹出的添加规则窗口中设置如下参数: 规则名称: 请输入规则名称,可自定义。 规则类型: 可选择“指标触发”或“周期触发”,两种类型区别如下:指标触发: 触发条件:请选择“CPU分配率”或“内存分配率”,输入百分比的值。该百分比应大于autoscaler插件中配置的缩容百分比。 说明 分配率 节点池容器组(Pod)资源申请量 / 节点池Pod可用资源量 (Node Allocatable) 。 如果多条规则同时满足条件,会有如下两种执行的情况: 如果同时配置了“CPU分配率”和“内存分配率”的规则,两种或多种规则同时满足扩容条件时,执行扩容节点数更多的规则。 如果同时配置了“CPU分配率”和“周期触发”的规则,当达到“周期触发”的时间值时CPU也满足扩容条件时,较早执行的A规则会将节点池状态置为伸缩中状态,导致B规则无法正常执行。待A规则执行完毕,节点池状态恢复正常后,B规则也不会执行。 配置了“CPU分配率”和“内存分配率”的规则后,策略的检测周期会因autoscaler每次循环的处理逻辑而变动。只要一次检测出满足条件就会触发扩容(当然还要满足冷却时间、节点池状态等约束条件)。 周期触发: 触发时间:可选择每天、每周、每月或每年的具体时间点,如下图所示,则为每天15:00触发。 图 周期触发时间 执行动作 :与上述“触发条件”或“触发时间”相对应,达到触发条件或触发时间值后所要执行的动作。 您可以单击“添加规则”,设置多条节点伸缩策略。您最多可以添加1条CPU使用率指标规则、1条内存使用率指标规则,且规则总数小于等于10条。 步骤 4 设置完成后,单击“确定”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        集群/节点弹性伸缩
        创建节点伸缩策略
      • DWS权限管理
        本章节主要介绍数据仓库服务的权限管理。 如果您需要对云上的DWS资源,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云资源的访问。 通过IAM,您可以在云帐号中给员工创建IAM用户,并授权控制他们对云资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有DWS的使用权限,但是不希望他们拥有删除集群等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用DWS,但是不允许删除集群的权限,控制他们对DWS资源的使用范围。 如果云帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用DWS服务的其它功能。 IAM是云提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见统一身份认证用户指南中的“产品介绍”。 DWS权限 默认情况下,IAM管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 DWS部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DWS时,需要先切换至授权区域。 角色 :IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略 :IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对DWS服务,IAM管理员能够控制IAM用户仅能对某一类资源进行指定的管理操作。 如下表所示,包括了DWS的所有系统权限。 DWS系统权限 系统角色/策略名称 描述 类别 依赖关系 DWS ReadOnlyAccess 数据仓库服务只读权限,拥有该权限的用户仅能查看数据仓库服务资源。 系统策略 无 DWS FullAccess 数据仓库服务数据库管理员权限,拥有数据仓库服务所有权限。 系统策略 无 DWS Administrator DWS数据库管理员权限,拥有对数据仓库服务的所有执行权限。 拥有VPC Administrator权限的DWS用户可以创建VPC或子网。 拥有云监控Administrator权限的DWS用户,可以查看DWS集群的监控指标信息。 系统角色 依赖Tenant Guest和Server Administrator策略,需要在同项目中勾选依赖的策略。 DWS Database Access DWS数据库访问权限,拥有该权限的用户,可以基于IAM用户生成临时数据库用户凭证以连接DWS集群数据库。 系统角色 依赖DWS Administrator,需要在同项目中勾选依赖的策略。 下表列出了DWS常用操作与系统权限的授权关系,您可以参照该表选择合适的系统策略。 说明 每个区域的每个项目首次使用弹性IP绑定功能时,系统将提示创建名称为“DWSAccessVPC”委托以授权DWS访问VPC。授权成功后,DWS可以在绑定弹性IP的虚拟机故障时切换至健康虚拟机。 在实际业务中,除了具备策略权限外还需要给不同角色的用户授予不同的资源操作权限。例如创建快照、重启集群等操作,详情请参见《数据仓库服务用户操作指南》中“策略语法:细粒度策略”章节。 默认情况下,只有云帐号或拥有Security Administrator权限的用户才具备查询委托和创建委托的权限。帐号中的IAM用户,默认没有查询委托和创建委托的权限,在使用弹性IP绑定功能时页面会屏蔽绑定按钮,此时需联系有“DWS Administrator”权限的用户在当前页面完成对DWS的委托授权。 DWS常用操作与系统权限的关系 操作 DWS FullAccess DWS ReadOnlyAccess DWS Administrator DWS Database Access 创建/恢复集群 √ x √ x 获取集群列表 √ √ √ x 获取单个集群详情 √ √ √ x 设置自动快照 √ x √ x 设置安全参数/参数组 √ x √ x 重启集群 √ x √ x 扩容集群 √ x √ x 重置密码 √ x √ x 删除集群 √ x √ x 设置可维护时间段 √ x √ x 绑定EIP x x √ x 解绑EIP x x √ x 创建DNS域名 √ x √ x 释放DNS域名 √ x √ x 修改DNS域名 √ x √ x 创建MRS连接 √ x √ x 更新MRS连接 √ x √ x 删除MRS连接 √ x √ x 添加/删除标签 √ x √ x 编辑标签 √ x √ x 创建快照 √ x √ x 获取快照列表 √ √ √ √ 删除快照 √ x √ x 复制快照 √ x √ x
        来自:
        帮助文档
        数据仓库服务
        产品简介
        DWS权限管理
      • 1
      • ...
      • 288
      • 289
      • 290
      • 291
      • 292
      • ...
      • 312
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      应用托管

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      配置采样率

      如何申请发票?

      操作类

      公告

      登录

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号