活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云云安全_相关内容
      • 应用场景
        本文主要介绍云日志服务的应用场景。 运维管理 在集群的运维工作中,企业应用的运维日志分散在不同的节点上,通过云日志服务提供的采集器将分散在集群各个节点的重要日志数据采集到日志服务平台进行集中化统一管理,享受全托管式服务。 全托管式:日志集中统一管理,提供日志采集、存储、检索与分析能力。 海量日志管理:支持每天百TB级日志的接入,十亿级日志秒级搜索。 提升运维效率:通过关键词检索可快速搜索出异常事件的日志,定位问题节点,结合上下文查询能力将异常事件的调用链完整还原,全面提升运维效率。 日志数据统计分析 云日志服务支持对日志内容进行结构化处理,按照指定的分词规则将日志原文格式化解析为键值对,即可更方便地日志数据进行统计分析,包括网站或应用程序的访问分析、业务数据分析、安全事件分析等,帮助企业更全面、更便捷地了解系统、业务和用户等方面的情况,优化运营和决策,从而提高企业的业务价值和竞争力。 多种结构化解析:针对日志记录格式不规范、不统一的问题,云日志服务提供JSON、分隔符、正则等格式结构化解析能力,使日志具备可读性与可分析性。 灵活构造分析条件:支持SQL语句或可视化方式构造不同的分析条件,提供丰富的查询分析语句,学习成本低,可灵活构造各类数据分析场景。 可视化分析结果展示:提供柱状图、饼图、时序图、流图等多种图表对日志数据进行直观化分析展示,有助于迅速发现趋势、异常和潜在问题,更好地了解业务运行状况,及时做出相应的决策。
        来自:
        帮助文档
        云日志服务
        产品介绍
        应用场景
      • 开启AOne会议服务
        本文主要介绍如何开启使用AOne会议服务。 前提条件 已开通AOne会议服务。如何开通,请参见:开通AOne会议服务。 操作步骤 按照以下步骤完成初始配置,即可开始使用AOne会议: 步骤 操作内容 操作指引 1 登录会议控制台 进入客户控制台 2 设置企业标识。首次订购使用AOne会议或订单已销毁后重新订购,需要先设置企业标识。企业标识为登录客户端的重要标识,建议使用企业名称等方便企业办公终端用户记忆的信息作为企业认证标识,暂不允许控制台修改,若有需要可提交工单进行配置。 设置企业标识 3 添加用户和组织。为确保企业登录AOne会议客户端人员身份合法性,以及提升企业办公安全性,企业员工在登录AOne会议客户端时需要进行身份认证。因此需要先创建用户与组织信息,在该列表的用户才可登录使用AOne会议。 用户管理 4 提交工单完成会议配置。完成用户组织添加后,请提交工单联系我们的技术团队,以完成会议配置的下发。 —— 5 设置高级账号和云录制空间配额。步骤3中新增的用户默认为免费账号,仅可加入会议,不支持发起会议。若用户需要发起会议,请在资源管理模块为其分配高级账号与云录制空间配额。若高级账号用户的云空间配额为0,则其发起的会议将无法使用云录制功能。 资源管理 6 登录使用AOne会议。在导入列表中的用户,属于企业用户,可直接下载AOne会议客户端并登录使用。没有在导入列表中的用户如果需要加入会议,则需要自行注册个人用户账号后再登录。 下载登录AOne会议 免费注册个人用户账号
        来自:
        帮助文档
        AOne会议
        快速入门
        开启AOne会议服务
      • 新增DML审计规则
        为确保DRDS高效、稳定运行,需对应用可能运行的SQL语句进行审计,找出不符合规范的语句,拒绝语句执行或者对用户提示警告,即通过DML审计规则可以实现SQL黑名单的功能。除默认常用的DML审计规则外,您还可以根据实际情况新增DML审计规则。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击数据库审计 页签,进入DML审计页面。 您可以在审计日志列表中查看目标分组和分片的审计日志,包括时间、数据库、语句、用户、客户端、审计方式和审计信息。 5. 选中目标分组,单击查看或修改审计 规则,进入DML审计规则面板。 6. 在审计规则列表上方,单击新增DML审计配置。 7. 在对话框中,配置审计规则参数,然后单击确定。 参数 说明 DML审计规则 审计规则的名称。 审计类型 审计匹配规则,取值范围: 参数化sql匹配 原始sql匹配 正则式匹配 SQL 当审计类型 设置为参数化sql匹配 或原始sql匹配时,需要输入审计的SQL语句。 正则表达式 当审计类型 设置为正则式匹配时,需要输入审计的正则表达式。 审计方式 支持配置为拒绝 或警告。 注意 对于审计方式 为拒绝 的审计规则,DRDS实例直接向前端提示报错信息,拒绝语句执行。 对于审计方式 为警告的审计规则,DRDS实例会将语句的相关信息记录到审计日志中,该日志可提供给开发人员对SQL语句进行参考优化,您可以在审计日志中查看相关信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        DML审计
        新增DML审计规则
      • 管理应用用户生产消费权限
        场景描述 Kafka管理应用用户生产消费权限的场景描述如下: 应用开发和测试:在应用开发和测试阶段,需要为开发人员和测试人员提供适当的生产和消费权限,以便他们能够读取和写入Kafka主题。这样可以确保他们能够有效地测试和验证应用程序的功能。 应用部署和运维:在将应用程序部署到生产环境中时,需要为运维团队提供适当的生产和消费权限。运维团队可以使用这些权限来监控和管理Kafka集群,并处理任何可能的故障或问题。 数据分析和报告:对于数据分析师和报告人员,他们可能需要从Kafka主题中读取数据进行分析和生成报告。为他们提供适当的消费权限可以帮助他们获取所需的数据,并进行相关的数据分析和报告工作。 数据集成和同步:在数据集成和同步的场景中,可能需要为特定的应用或系统提供生产和消费权限。这样可以确保数据的可靠传输和同步,以满足不同系统之间的数据需求。 多租户环境:在多租户环境中,需要管理不同租户之间的生产和消费权限。为每个租户分配独立的权限可以确保数据的隔离和安全性,同时满足不同租户的需求。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页的操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入用户管理界面,该页面展示用户列表。 (5)选择相应的用户,点击其右侧的”用户权限“按钮进行权限管理。 (6)生产权限。先点击”添加生产权限“按钮,在弹窗的左侧选择需要添加生产权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。 (7)消费权限。左上角切换消费权限,点击”添加消费权限“按钮,在弹窗的左侧选择需要添加消费权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • 操作跟踪API请求结构
        本节主要介绍操作跟踪API请求结构。 接入地址 对象存储网络:ooscncloudtrail.ctyunapi.cn,对象存储网络2:ooscn2cloudtrail.ctyunapi.cn,香港精品网和香港普通网:ooscnhkcloudtrail.ctyunapi.cn。 通信协议 为了保证通信的安全性,操作跟踪仅支持HTTPS。 HTTP请求方法 操作跟踪支持HTTP POST请求方法发送请求。 请求参数 每个请求都需要指定如下信息: 每个操作接口都需要包含的公共请求参数。 操作接口所特有的请求参数。 本节主要描述公共请求参数和请求结果。 说明 在后续提到具体操作跟踪API时,举例中都会有公共请求头 、 公共响应头 ,但是不对其进行描述和解释。 公共请求头 在每个请求中,都需要携带公共参数和对应的接口参数。公共请求参数如表所示: 名称 描述 是否必须 ::: Host 操作跟踪访问域名。 对象存储网络:ooscncloudtrail.ctyunapi.cn。 对象存储网络2:ooscn2cloudtrail.ctyunapi.cn。 香港精品网和香港普通网:ooscnhkcloudtrail.ctyunapi.cn。 是 Authorization V4请求头签名。 类型:字符串 是 XAmzDate 日期和时间格式必须遵循ISO 8601标准,并且必须使用“yyyyMMddT HHmmssZ”格式进行格式化。例如,如果日期和时间是“08/01/2018 15:32:41.982700”,则必须首先将其转换为UTC(协调世界时),然后提交为“20180801T083241Z”。 是 XAmzTarget 操作跟踪请求目标,格式为cn.ctyunapi.ooscncloudtrail.v20131101.CloudTrail20131101.Target。 例如创建操作跟踪的请求为: XAmzTarget:cn.ctyunapi.ooscncloudtrail.v20131101.CloudTrail20131101.CreateTrail 是 ContentType 请求内容类型。 类型:字符串 取值:application/json。 是 Connection 客户端与OOS服务器之间的连接状态。 取值: keepalive:长连接,请求结束后继续保持连接。 close:短连接,请求结束后关闭连接。 默认值为:keepalive。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        操作跟踪
        操作跟踪API请求结构
      • (停止维护)CCE发布Kubernetes 1.21版本说明
        本文主要介绍 CCE发布Kubernetes 1.21版本说明。 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.21版本所做的变更说明。 版本升级说明 CCE针对Kubernetes 1.21版本提供了全链路的组件优化和升级。 表 核心组件及说明 集群类型 核心组件 版本号 升级注意事项 :::: CCE集群 Kubernetes 1.21 无 CCE集群 Docker CentOS:18.9.0 Ubuntu:18.09.9 无 CCE集群 操作系统 CentOS Linux release 7.6 1.21版本开始CCE集群 Centos7.6节点docker存储模式使用overlayfs CCE集群 操作系统 Ubuntu 18.04 server 64bit 无 资源变更与弃用 社区1.21 ReleaseNotes CronJob现在已毕业到稳定状态,版本号变为batch/v1。 不可变的Secret和ConfigMap现在已升级到稳定状态。向这些对象添加了一个新的不可变字段,以拒绝更改。此拒绝可保护集群免受可能无意中中断应用程序的更新。因为这些资源是不可变的,kubelet不会监视或轮询更改。这减少了kubeapiserver的负载,提高了可扩展性和性能。更多信息,请参见Immutable ConfigMaps。 优雅节点关闭现在已升级到测试状态。通过此更新,kubelet可以感知节点关闭,并可以优雅地终止该节点的Pod。在此更新之前,当节点关闭时,其Pod没有遵循预期的终止生命周期,这导致了工作负载问题。现在kubelet可以通过systemd检测即将关闭的系统,并通知正在运行的Pod,使它们优雅地终止。 具有多个容器的Pod现在可以使用kubectl.kubernetes.io/默认容器注释为kubectl命令预选容器。 PodSecurityPolicy废弃,详情请参见 BoundServiceAccountTokenVolume特性进入Beta,该特性能够提升服务账号(ServiceAccount)Token的安全性,改变了Pod挂载Token的方式,Kubernetes 1.21及以上版本的集群中会默认开启。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.21版本说明
      • 人员监管
        本章节为您介绍人员监管相关内容。 人员监管模块可查看人员的总体风险情况,对人员、账号、部门等进行管理。 人员总体风险 1.在数据安全运营中心上方导航栏选择“人员监管”进入人员监管页面。 2.在左侧导航栏选择“人员看板 > 人员总体风险”即可进入人员总体风险管理页面。 人员总体风险对日志、告警中的人员访问行为进行监测,实时监控和管理人员的风险状况,对人员的风险评分进行排名;展示活跃用户数、最近一周活跃用户数、最近一周高风险用户数和日志总数的概览信息,呈现用户风险排行、最近一周趋势变化以及不同风险类型分布情况,并支持展示风险Top5用户列表。 页面展示项 展示项介绍 活跃用户 显示最近一个月活跃的人员数量。 最近一周活跃用户数 显示最近一周活跃的人员数量。 最近一周高风险用户数 显示最近一周存在过高风险的人员数量。 日志总数 显示总的原始日志数量。 用户风险排行 显示根据用户风险进行排行; 显示用户的风险评分、最新访问时间; 单击用户卡片可打开查看该人员用户的档案。 关注用户 显示人员管理中关注程度等于重要的用户的风险评分情况点击用户卡片可打开查看该人员用户的档案。 离职用户 显示人员管理中人员状态等于离职的用户的风险评分情况点击用户卡片可打开查看该人员用户的档案。 最近一周趋势图 显示最近 7 天的每日高风险人员数、每日活跃人员数的趋势变化折线图。 用户风险分布图 显示当天的无风险、低风险、中风险、高风险人员数量分布情况。 风险类型分布图 显示当天的风险类型分布TOP5,及单风险的TOP5 人员姓名,点击用户姓名可打开查看该人员用户的档案。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据安全运营中心
        人员监管
      • POST请求签名(V2版本)
        此文档介绍通过POST请求上传对象所需的V2版本签名方法。 POST V2签名说明 POST签名是指使用POST方式上传文件时,要求每个请求都必须附带一个签名(Signature)。POST V2签名是通过访问密钥(Secret Access Key)对一系列请求参数(上传策略policy等)进行加密计算得到的。当请求发送时,会验证签名的合法性,只有签名验证成功的请求才会被接受,否则请求将被拒绝。 POST V2签名表单独有参数 POST V2签名除了POST上传对象中说明的公共表单元素外,会有一些独有的表单元素: 参数 参数类型 说明 AWSAccessKeyId String Bucket拥有者的Access Key ID,当Bucket为非publicreadwrite或者提供了Policy(或Signature)表单域时,必须提供AWSAccessKeyId表单域 Signature String 根据AccessKey Secret和Policy计算的签名信息,验证该签名信息从而验证该Post请求的合法性。注意: 当Bucket为非publicreadwrite或者提供了AWSAccessKeyId(或Policy)表单域时,必须提供Signature表单域,同时表单域的值对大小写敏感,但是表单域对大小写不敏感 Policy说明 Policy表单域是一种安全策略,若请求不包含Policy,则只能访问publicreadwrite的Bucket, 当Bucket为非publicreadwrite或者提供了AccessKeyId(或Signature)表单域时,必须提供Policy表单域 。 Policy由JSON格式来定义,可以通过多项参数来限制上传的相关操作,比如允许上传的Bucket、Key前缀等。 其中,policy中有两个字段是必须的: expiration:指定policy的过期时间(ISO8601 GMT格式)。例如指定为20241216T13:00:00.000Z,表示必须在2024年12月16日13点之前发起POST请求。 conditions:指定POST请求表单域的合法值。
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        POST上传
        POST请求签名(V2版本)
      • 示例场景
        本节主要介绍示例场景 前提条件 请确保您已拥有天翼云帐号,若您还没有帐号,请先进行注册并实名认证。 请确保您已开通企业项目管理服务EPS,如服务未开通,请首先在天翼云网门户提交申请开通工单。 创建企业项目的用户必须是管理员,或在IAM侧已被授予EPS FullAccess权限的IAM用户。 操作场景 企业项目管理支持通过配置IAM用户对云资源进行分类管理。 若您拥有多种云资源,为了方便云资源的管理和使用的安全性,可以通过创建不同的企业项目和IAM用户并授予不同云服务的管理权限,从而实现IAM用户对云资源的分类管理。 本节以一个案例让您了解如何通过企业项目管理实现IAM用户拥有独立、隔离的云资源管理权限。 操作规划 操作项目 描述 创建用户组 在IAM控制台分别创建用户组TestECSA和TestECSB。 创建IAM用户并添加至用户组 在IAM控制台分别创建用户TestUserA和TestUserB。 将用户TestUserA添加至用户组TestECSA; 将用户TestUserB添加至用户组TestECSB。 创建企业项目并将用户组添加至项目 在企业项目管理页面分别创建企业项目projectA和projectB。 将用户组TestECSA添加至企业项目projectA; 将用户组TestECSB添加至企业项目projectB。 企业项目迁入资源 在企业项目管理页面分别给企业项目projectA和projectB迁入对应的云资源。 操作流程
        来自:
        帮助文档
        企业项目管理
        快速入门
        示例场景
      • 性能指标
        类型 指标 描述 主要评价指标 整体性能 平均响应时间,该值越小,则响应时间越短。 主要评价指标 服务可用性 访问成功率,该值越高,则可靠性越强。 网络指标 DNS解析时间 通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。 网络指标 TCP建连时间 浏览器或客户端和WEB服务器建立TCP/IP连接的消耗时间。 网络指标 SSL握手时间(按需) 浏览器或客户端和WEB服务器建立安全套接层(SSL)连接的消耗时间。 网络指标 首包时间 浏览器或客户端发送HTTP请求结束开始,到收到WEB服务器返回的第一个数据包的消耗时间。 网络指标 内容下载时间 监测一个页面时,从页面角度看,浏览器或客户端接收WEB服务器返回第一个数据包,到所有内容传输完成的时间。 CDN平台指标 回源率 回源率分为回源请求数比例及回源流量比例两种。 1. 回源请求数比例:指CDN节点上没有缓存、缓存过期和不可缓存的请求占全部请求记录的比例。 注意 对于开启分片回源功能的域名,因为CDN回源做了分片,而用户访问CDN没有分片,可能会出现CDN节点回源请求数远大于用户访问CDN的请求数的情况。这种情况下回源请求率的数据将没有参考意义。 2. 回源流量比例:回源流量是CDN节点回源请求内容时产生的流量。回源流量比回源流量/用户请求访问的流量,比值越低,性能越好。 CDN平台指标 缓存命中率 缓存命中率包括流量命中率和请求命中率。CDN缓存命中率低,会导致源站压力大,静态内容访问效率低。 统计方式: 流量命中率 1 回源流量/流量(5分钟粒度)。 请求命中率 1 回源请求数/请求数(5分钟粒度)。
        来自:
        帮助文档
        CDN加速
        产品简介
        性能指标
      • 术语解释
        分布式表(Distributed Table) 分布式表是云数据库ClickHouse中本地表的集合,将多个本地表抽象为一张统一的表,对外提供写入和查询功能。当写入分布式表时,数据会被自动分发到集合中的各个本地表中;当查询分布式表时,集合中的各个本地表都会被分别查询,最终结果会被汇总后返回。分布式表具备良好的横向扩展能力,可以利用多台服务器的存储和计算资源来处理大规模数据。 表引擎 表引擎即表类型,决定数据的存储方式和位置、支持的查询以及访问、索引、主备复制等特性。云数据库ClickHouse提供了多种表引擎,主要为以下4个系列。MergeTree系列:核心存储引擎,最通用和功能最强大的表引擎,支持数据Replicated和Distributed。Log系列:功能相对简单,主要用于快速写入小表(1百万行左右的表),然后全部读出的场景。Integration系列:主要用于将外部数据如Kafka、HDFS、Mysql导入到云数据库ClickHouse中,或者在云数据库ClickHouse中直接操作外部数据源。Special系列:为特定场景而定制,如数据内存存储、为目标表配置buffer、数据存本地文件等。 单机表 单机表的数据只会存储在当前机器上,不会被复制到其他机器。单机表适用于对数据的冗余存储要求较低的场景,适合小规模数据集的处理和分析。 复制表 复制表的数据会被自动复制到多台机器上,形成多个副本。复制表通过数据冗余和备份提高数据的可靠性和容错能力。当其中一个副本节点出现故障时,系统可以切换到其他副本节点,确保数据的持久性和可用性。复制表适用于对数据可靠性和冗余要求较高的场景,确保数据的安全性和高可用性。
        来自:
        帮助文档
        云数据库ClickHouse
        产品简介
        术语解释
      • 云审计服务支持的关键操作
        此小节介绍云审计服务支持的关键操作。 如何查看云审计日志 开启了云审计服务后,系统开始记录DBSS资源的操作。云审计服务管理控制台保存最近7天的操作记录。 查看DBSS的云审计日志 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“管理与监管 > 云审计服务”,进入云审计服务信息页面。 3. 单击左侧导航树的“事件列表”,进入事件列表信息页面。 4. 单击事件列表上方的“Region”,设置对应的操作事件条件。当前事件列表支持四个维度的组合查询. “操作用户”:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 “事件级别”:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 可在页面右上角选择查询最近1小时、最近1天、最近1周及自定义时间段的操作事件。 5. 单击“查询”,查看对应的操作事件。 6. 在需要查看的记录左侧,单击展开该记录的详细信息,展开记录如图所示。 7. 在需要查看的记录右侧,单击“查看事件”,弹出一个窗口,如图所示,显示了该操作事件结构的详细信息。 云审计服务支持的DBSS操作列表 数据库安全服务通过云审计服务(Cloud Trace Service,CTS)为用户提供云服务资源的操作记录,记录内容包括用户从管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供用户查询、审计和回溯使用。 云审计服务支持的DBSS操作列表如表所示。 操作名称 资源类型 事件名称 创建实例 dbss createInstance 删除实例 dbss deleteInstance 开启实例 dbss startInstance 关闭实例 dbss stopInstance 重启实例 dbss rebootInstance 实例状态变化 dbss cloudServiceInstanceStatus 创建包周期实例 dbss cloudServiceInstanceCreate 实例元数据变化 dbss updateMetaData
        来自:
        帮助文档
        数据库安全
        用户指南
        云审计服务支持的关键操作
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 使用限制
        本文简要介绍组播的使用限制及使用前提。 使用限制 在VPC中创建的弹性网卡,如果未绑定到云服务器,不支持加入组播网络。 弹性网卡被指定为组播成员后,如果您在VPC中删除该弹性网卡,则该弹性网卡关联的组播对象关系自动解除,当前弹性网卡(辅助网卡)仅支持动态加入。 在云间组播场景时,若组播成员同时选择IGMPv2和IGMPv3加入组播组,则只会接受IGMPv2的(,G)的report。 同地域的多个组播域之间互不相通。 一个VPC下仅支持创建一个组播域。 一个组播域下支持创建多个组播组,各个组播组的IP地址不能相同。 仅支持弹性网卡的主私网IP地址作为组播网络通信对象,弹性网卡其余IP地址不支持组播通信。 当前不支持IPv6类型组播,仅支持IPv4类型。 对于知名组播地址(224.0.0.0~224.0.0.255,239.0.0.0~239.255.255.255)会做下发限制,暂不允许添加,如您的页面不支持添加知名组播地址的特殊入口,联系工单开放白名单功能。 组播资源的配额限制如下表所示。 资源 默认配额 提升配额 单个租户可以创建的组播域数量 50 不可申请 单个组播域可以创建的组播组数量 30 不可申请 使用前提 1、您已创建虚拟私有云、云服务器等实例。如有云上云下建立组播的需求,需提前准备好云专线。 2、您已配置好客户侧路由及云内专线与VPC的关系(专线的配置仅当云上云下建立组播的时候需要)。 3、确保安全组已放通组播源和组播成员对应的端口号。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        使用限制
      • 镜像和备份有什么区别?
        对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云主机的“装机盘”,它提供了启动云主机所需的所有信息,其目的是为了创建云主机,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云主机/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原主机/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的主机/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将主机的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的主机,数据盘镜像可以创建新的磁盘,实现业务迁移。 是否可以导出至本地:部分可以,整机镜像不支持导出至本地,详见 应用场景 适用场景: 数据备份与恢复 业务快速部署和迁移 适用场景: 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据。 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像和备份有什么区别?
      • 执行角色
        执行角色 概述 使用云工作流构建应用时,您需要创建执行委托角色并授予相应权限,若不配置委托角色,云工作流默认使用 服务内联委托 角色 。云工作流在执行流程时将以该角色身份代表您访问云服务,例如执行函数、发送消息或调用其他流程。 云工作流基于统一身份认证IAM的委托权限管理机制。授权原理如下:策略定义了访问某项服务的能力,将策略绑定到委托后,该委托便具备访问该服务的权限。第三方只需扮演具备所需权限的角色即可访问服务,无需长期密钥,从而提升系统安全性。 操作步骤 创建委托角色 1. 使用 IAM管理员 登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页面,单击 创建委托。 4. 在 创建委托 页面,选择 可信实体类型 为 服务委托, 点击下一步。 5. 在配置委托页面, 输入 委托名称 ,选择委托服务选 一类节点函数计算cf。 6. 输入完成后点击 完成,即可创建完成。 配置委托权限 1. 使用IAM管理员登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页,选择需要授权的委托,点击旁边的 授权 按钮。 4. 在 选择策略 页面, 搜索/选择你需要的云服务策略, 本例子授权 对象存储 的 只读 权限 。 如果需要更精细的权限控制,可以先创建自定义策略,详情请查阅创建自定义策略 5. 授权范围将默认勾选全局范围,您可以直接点击“确定”完成授权。 6. 创建完成委托角色后, 即可在 工作流设置 中下拉选择设置。工作流设置详见工作流执行器关于 工作流配置 说明。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        执行角色
      • 概念与功能问题
        是否支持对本地代码进行检查、构建及部署? 部分支持。 代码检查、编译构建服务支持代码托管、通用Git等源码源,可选择在本地搭建的网络通用标准的Git,且需本地网络能访问互联网。 部署服务所使用的软件包,需要从制品仓库服务“软件发布库”中取得,因此需要先将待部署的软件包上传到软件发布库中。 能否将本地或其它平台代码及工作项迁移到软件开发生产线上? 能。 工作项迁移:需求管理服务提供批量上传功能。在需求管理服务中下载模板,按照模板内容填写工作项信息后上传即可。相关操作可参考“《需求管理用户指南》>Scrum项目>管理工作项”。 代码迁移:代码托管服务支持本地、线上Git仓库的迁移。相关操作可参考“《代码托管用户指南》>迁移到代码托管仓库”。 项目结束后如何回收/归档项目资料到本地 ? 软件开发生产线中提供云端项目归档功能,归档后的项目对所有成员只读,不能进行工作项的增删改等操作。 软件开发生产线具有完备的数据安全管理机制,保证云端的数据不丢失,且随时可见。 此外,各服务提供以下项目资料下载操作,满足本地资料归档诉求。 批量导出工作项:详细操作请参考“《需求管理用户指南》>Scrum项目>管理工作项” 下载文件:详细操作请参考“《需求管理用户指南》>Dolphin知识库>文件操作” 克隆代码到本地:详细操作请参考“《代码托管用户指南》>迁移到代码托管仓库” 下载软件包:详细操作请参考“《制品仓库用户指南》>软件发布库>软件发布库基础操作” 导出测试用例:详细操作请参考“《测试计划用户指南》>测试用例>手工测试用例>迁移手工测试用例”
        来自:
        帮助文档
        软件开发生产线CodeArts
        常见问题
        概念与功能问题
      • 超出备份空间免费额度怎么办?
        本文介绍如何处理超出备份空间免费额度的问题。 备份空间免费额度为订购新实例时所选择的存储空间大小,比如,订购SQL Server实例时,存储空间选择了100GB,则赠送100G的备份空间用于存储备份数据。当备份文件大小超出备份空间免费额度时,可以增加备份存储空间或减少备份空间的使用量。 增加备份存储空间(推荐) 通过扩容备份空间,来增加备份存储空间。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例管理】,选择需要扩容的实例,点击【更多】菜单,点击【备份空间扩容】,进入扩容页面。 2. 在备份空间扩容页面,选择扩容空间大小,点击确认并支付。 3. 等待一段时间后,通过实例基本信息页面确认备份空间是否已扩容至已订购的大小。 减少备份空间的使用量 减少备份保留天数,系统会自动删除保留天数之前的备份集以减少空间占用。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例基本信息页面,点击【备份恢复】,进入备份恢复子页面。 2. 点击备【份策略】,修改备份保留天数。 减少备份周期,可以设置一周2~3次备份,为了您的数据安全,数据备份不可关闭且一周至少需要2次备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击实例列表,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击备份策略,修改备份周期。 删除手动备份,可以删除保留天数之前的手动备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击数据备份,选择需要删除的手动备份,点击删除。注意,并非所有保留天数之前的手动备份都可以删除,必须保证该手动备份不被后续的备份所依赖。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        备份/恢复
        超出备份空间免费额度怎么办?
      • 管理自动备份
        本节介绍了GeminiDB Redis的自动、修改、关闭、删除自动备份等操作说明。 GeminiDB Redis支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 保留天数:自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如01:00~02:00,12:00~13:00等。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        备份与恢复
        管理自动备份
      • Spring Cloud和Dubbo框架应用无缝迁移上MSAP
        本章节介绍如何将Spring Cloud和Dubbo框架应用无缝迁移上微服务云应用平台MSAP 概述 对于Spring Cloud和Dubbo框架的微服务应用,无需修改任何一行代码即可迁移至微服务云应用平台。该应用将拥有全生命周期管理的运维能力,监管控一体化、调用链查询和限流降级等微服务治理能力,以及金丝雀发布、离群实例摘除、无损下线和服务鉴权等微服务治理的差异化能力。 迁移方案架构 迁移优势 使用开源框架自建的微服务应用迁移至MSAP后将支持以下能力: 1. 在云原生K8s之上,以应用视角一站式完成开源微服务治理和K8s集群中应用的轻量化运维: 应用为中心视角,管理K8s的原生工作负载如Deployment、Pod等,提供多AZ实例打散的高可用部署。 提供分批发布、按流量比例、请求参数的金丝雀灰度发布,借助MSAP全维度监控的发布变更单,让您的变更记录可跟踪。 微服务云应用平台对接了主流DevOps系统,助力企业CD落地,降本增效。 2. 在开源微服务体系之上,对于使用Spring Cloud和Dubbo框架自建的微服务应用无需修改任何代码即可迁移至MSAP,支持所有应用框架的微服务治理: 支持应用发布过程中的无损下线、服务压测。 应用运行时的服务鉴权、限流降级、离群实例摘除。 应用运维的服务查询、服务测试。 3. 通过产品化的方式,实现可观测、可灰度、可回滚,让您的企业立即落地安全生产。 可观测:通过应用总览、新版发布变更记录和发布后自动生成发布报告来实现多维度全流程监控。 可灰度:支持金丝雀发布,支持应用按照流量比例或请求内容策略配置实现灰度。 可回滚:支持发布过程一键回滚,并支持已运行应用回退至某历史版本。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        Spring Cloud和Dubbo框架应用无缝迁移上MSAP
      • 产品咨询
        本页介绍了文档数据库服务产品咨询类相关常见问题。 文档数据库服务和社区版MongoDB有什么关系 文档数据库服务是天翼云基于社区版MongoDB提供的高性能NoSQL数据库服务,完全兼容MongoDB协议。文档数据库服务在容灾、备份、恢复、监控、报警等方面提供全套数据库解决方案。可降低管理维护成本,方便您专注于应用开发和业务发展。 使用文档数据库服务要注意什么 使用文档数据库服务需要综合考虑安全性、性能、可用性和数据一致性等方面,合理配置和管理数据库,确保应用程序能够高效稳定地使用文档数据库服务。 当您评估业务对服务可用性有较高的要求时,建议优先选择副本集与分片集群的架构,副本集与分片集群提供了更高的数据可靠性与服务可用性,当发生主节点宕机时,其他的节点可以接替主节点继续提供服务,不影响业务侧的读写。 实例侧的弹性云主机,对用户是不可见的,您只需参考实例基本信息页的连接串配置数据库连接进行数据库服务的访问即可。 在对数据库进行不熟悉的操作时,建议先对数据进行备份,方便数据回档。 您不需要进行数据库的基础运维,但是可以留意一下性能监控,比如机器的磁盘、内存使用率等情况,规格不足时可以进行扩容更好满足业务需求。 什么是文档数据库服务的可用性 文档数据库服务的可用性通常是指数据库系统在正常运行时可以对外提供服务的能力,以及系统在遇到故障或意外情况时能够保持部分或全部功能的可用性。文档数据库服务提供多节点副本集与分片集群的高可用架构。集群节点之间数据自动同步,提升了数据的高可靠性与服务的高可用性。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        咨询类
        产品咨询
      • 实例覆盖性恢复-I类型资源池
        本页介绍I 类型资源池恢复到已有实例,对已有实例进行覆盖性恢复。 关系数据库MySQL版I 类型资源池支持按时间点或者备份集将备份文件恢复到已有实例(已有实例包含原实例)。将覆盖已有实例的数据内容。 操作场景 若由于误操作,希望将数据恢复到此前某时间点,或者恢复某全量备份文件,在不开通新实例的情况下,可以将实例恢复到目标实例,且覆盖目标实例的内容。 前提条件 实例状态为运行中。 影响 此恢复方式指定的备份数据创建之后产生的数据将会全部丢失!请谨慎操作! 覆盖性恢复会在恢复数据前删除旧数据文件,建议恢复前对被覆盖的实例进行手动备份,确保数据安全。 在实例恢复阶段实例将暂时不可用,请妥善安排您的业务。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 备份管理,进入备份列表页面。然后在顶部菜单栏,选择区域和项目。 3. 单击单条记录操作 列的恢复,进入恢复确认页面。 4. 选择目标实例,信息确认后提交即可。 5. 信息提交成功之后,等待一段时间,可以在基础恢复列表页面查看该次恢复操作的结果信息。 注意 1. 目前 2. 已有实例包括原实例本身和该租户该资源池下的其他满足恢复条件的实例。 3. 由于目标实例本身含有数据文件,将实例覆盖性恢复到目标实例,目标实例原有的文件将全部丢失。因此请确保目标实例无用,或已经做好目标实例数据的备份工作。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        实例覆盖性恢复-I类型资源池
      • 修改数据库端口
        本章节将介绍如何修改数据库端口的方法。 使用须知 为确保安全性,以下情况不可修改数据库端口: 租户被冻结 重启中 节点扩容中 切换SSL中 规格变更中 删除节点中 存储扩容中 异常 对于集群实例,数据库实例的端口即mongos节点的端口,默认为8635,实例创建成功后可修改。shard节点的端口为8637,config节点的端口为8636,不支持修改。 对于副本集实例,默认端口为8635,实例创建成功后可修改。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 进入实例“基本信息”页面,在“网络信息”区域的“数据库端口”处单击,修改数据库端口。 修改数据库端口 您还可以在左侧导航树,单击“连接管理”,在“基本信息”区域的“数据库端口”处单击,修改数据库端口。 修改实例端口 说明 数据库端口修改范围为2100~9500,27017,27018,27019。 单击,提交修改。此过程约需1~5分钟。 单击,取消修改。 步骤 6 稍后可在“基本信息”区域,查看修改结果。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        修改数据库端口
      • 开启Redis公网访问并获取公网访问地址
        本节介绍开启Redis公网访问并获取公网访问地址。 Redis 4.0及以上版本实例暂不支持绑定弹性IP,可以通过绑定弹性负载均衡(ELB)实现Redis公网访问,本章节介绍开启Redis 4.0及以上版本实例公网访问、获取公网访问连接地址和端口、以及Redis实例或ELB添加IP白名单的操作指导。 约束与限制 仅单机、主备、读写分离、Proxy集群实例支持开启公网访问,Cluster集群实例暂不支持。 客户端公网访问Redis,与处于同一VPC下的客户端访问Redis相比,网络时延会增加。 因公网性能问题造成的客户端访问异常不计入SLA。 客户端通过ELB公网访问Redis,如果Redis配置了IP白名单,需要将ELB内网IP地址添加到Redis实例的IP白名单中,以确保ELB可以访问Redis实例。添加方式请参见配置ELB内网IP到Redis实例IP白名单(可选)。 客户端通过ELB公网访问Redis,如果需要添加公网IP白名单,请将访问Redis实例的公网IP添加到ELB的IP地址组,添加到Redis实例白名单无效。详情请参见配置客户端公网IP到ELB IP白名单(可选)。 前提条件 准备弹性负载均衡ELB,创建ELB的操作,请参考创建独享型负载均衡器。创建的ELB必须符合以下条件。如果已有符合条件的ELB,无需重复创建。 ELB的实例类型必须选择“独享型”,且必须开启“IP类型后端(跨VPC后端)”。 ELB的规格中必须包含“网络型(TCP/UDP)”。 ELB必须选择与Redis实例相同的VPC。 ELB必须绑定弹性IP(EIP)。 ELB必须有可用的端口。 单个ELB挂载多个实例时,Redis的性能会受限于ELB的规格。 为保护Redis实例的网络安全性,Redis实例必须配置访问密码,免密访问的实例不支持开启公网访问。如需修改免密访问的实例为密码访问,请参考重置缓存实例密码。
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        配置Redis网络连接
        开启Redis公网访问并获取公网访问地址
      • 什么是QUIC协议
        本文简述什么是QUIC协议。 什么是QUIC协议 QUIC全称:Quick UDP Internet Connections,是一种传输层网络协议,其安全性可以与TLS/SSL相媲美,并且具备更低的延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。 QUIC的主要优势如下: 优势1:握手建连更快 QUIC建连时间大约0~1 RTT,在两方面做了优化: 传输层使用了UDP,减少了1个RTT三次握手的延迟。 加密协议采用了TLS 协议的最新版本TLS 1.3,相对之前的TLS 1.11.2,TLS1.3允许客户端无需等待TLS握手完成就开始发送应用程序数据的操作,可以支持1RTT和0RTT。 对于QUIC协议,客户端第一次建连的握手协商需1RTT,而已建连的客户端重新建连可以使用之前协商好的缓存信息来恢复TLS连接,仅需0RTT时间。因此QUIC建连时间大部分0RTT、极少部分1RTT,相比HTTPS的3RTT的建连,具有极大的优势。 优势2:避免队首阻塞的多路复用 QUIC同样支持多路复用,相比HTTP/2,QUIC的流与流之间完全隔离的,互相没有时序依赖。如果某个流出现丢包,不会阻塞其他流数据的传输和应用层处理,所以这个方案并不会造成队首阻塞。 优势3:支持连接迁移 什么是连接迁移?举个例子,当你用手机使用蜂窝网络参加远程会议,当你把网络切换到WLAN时,会议客户端会立马重连,视频同时出现一瞬间的卡顿。这是因为,TCP采用四元组(包括源IP、源端口、目标地址、目标端口)标识一个连接,在网络切换时,客户端的IP发生变化,TCP连接被瞬间切断然后重连。连接迁移就是当四元组中任一值发生变化时,连接依旧能保持,不中断业务。QUIC支持连接迁移,它用一个(一般是64位随机数)ConnectionID标识连接,这样即使源的IP或端口发生变化,只要ConnectionID一致,连接都可以保持,不会发生切断重连。 优势4:可插拔的拥塞控制 QUIC是应用层协议,用户可以插拔式选择像Cubic、BBR、Reno等拥塞控制算法,也可以根据具体的场景定制私有算法。 优势5:前向纠错(FEC) QUIC支持前向纠错,弱网丢包环境下,动态的增加一些FEC数据包,可以减少重传次数,提升传输效率。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        QUIC协议
        什么是QUIC协议
      • Windows AD认证
        本文介绍Windows AD的认证源创建方式。 功能介绍 Windows AD 是 Microsoft 提供的本地化用户目录管理服务。在AOne中配置AD认证源,可实现用户使用AD的账户密码登录的功能。本文介绍如何使用AD作为认证源。 注意 目前该能力暂未全面开放至控制台,若想要进行该能力配置,可 客户端集成AD认证源版本为:PC客户端版本(windows、macOS、Linux图形化)为2.12.0及以上版本,移动端(安卓、IOS)为1.14.0版本。 操作步骤 管理员创建AD认证源 即AD当作认证源,其管理登录认证验证,AOne客户端登录时进行转发给AD进行认证,因零信任需要针对用户、组织进行精细化授权,建议采用AD同步提前将用户信息导入,配置对应权限。 1、添加认证源 进入扩展认证源列表,点击“添加认证源”,进行AD认证源添加。 2、选择认证源类型 选择AD 认证源类型。输入配置参数,完成AD认证源配置。 配置参数说明: 参数 说明 认证源名称 必填,默认值“AD”,输入限制为16个字。 服务器地址 必填,分为链接方式、服务器地址和端口三个部分: 下拉选择域名为ldap:// 或者 ldaps://。 输入服务器地址。 输入端口号。 同步密码到 AD 时必须开启 StartTLS 或 ldaps,非同步密码场景也推荐开启,可以有效提高数据传输的安全性。一般使用 389 或 636 端口。 管理员账户 必填,请输入登录名,如admin@example.com。支持DN格式,并请确保该账户至少拥有全部节点的读取权限;如需同步账户或密码到 AD,还需分配写入权限。 管理员密码 必填,该账户的登录密码。 User DN 必填,AD服务器的根目录,通常是DN(Distinguished Name)的路径。例如:dctest,dclocal。 查询条件 必填,无特殊情况一般为objectclass,查询User DN下所有的对象。 此处也可定义搜索条件,确定哪些条目(Entry)符合查询要求,例如: (objectClassperson):查找所有对象类为“person”的条目。 (cnJohn Doe):查找常见名称(cn)为“John Doe”的条目。 (uid):查找所有具有“uid”属性的条目。 &(和)、(或)、!(非)等逻辑运算符可以用来组合多个条件。 用户登录标识 必填, 会同步至AOneId的username(账号)字段,也是用户使用AD登录时账号字段。 用户信息映射规则 必填,同步AD数据至AOneId的映射关系,支持多个,目前AOneId仅支持配置name、mobile、email、nickname 4个字段的映射规则。 例如:namedisplayName;mobilehomePhone;emailmail; nicknamegivenName。 注意: AOneId中的name(姓名)同步AD中的displayName字段 AOneId中的mobile(手机号)同步AD中的homePhone字段 AOneId中的email(邮箱)同步AD中的mail字段 AOneId中的nickname(昵称)同步AD中的givenName字段 登录模式 必填,目前支持登录注册。 适用范围 必填,目前支持PC端和移动端。 logo 非必填,用于在认证源列表展示的logo。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        身份管理
        第三方组织
        扩展认证源
        Windows AD认证
      • 功能概述
        功能类型 功能项 功能描述 相关文档 加速范围 TCP/UDP加速 支持基于TCP/UDP协议的所有应用,甚至私有协议的应用加速。 加速范围 HTTPS无证书加速 HTTPS协议,无需部署证书,即可实现加速,保证数据安全不被篡改。 访问控制 IP黑白名单 通过配置访问的IP黑白名单来对访问者身份进行识别和过滤,屏蔽非法访问。 访问控制 区域访问控制 天翼云边缘接入服务IP应用加速区域访问控制功能可通过设置区域访问控制黑白名单,从而仅允许或者限制部分区域的用户访问。 访问控制 全网带宽控制 支持全网边缘总带宽限制,支持分时段控制,您可以根据自身带宽需求选择对应的限制策略。带宽超出设置值后,可选择对请求进行限速或者拒绝操作。 回源相关 域名/IP回源方式 支持域名方式回源,或者IP方式回源。 回源相关 源站负载均衡 支持主备、择优、按权重轮询、基于客户端IP哈希等多种源站负载均衡策略。 回源相关 传递用户IP回源 支持tcpoption、proxyprotocol传递用户IP回源。 日志管理 日志下载 日志下载模块,支持客户下载加速域名的访问日志,支持批量下载。 性能优化 内容优化 通过智能压缩技术,优化传输内容,提升传输效率。 性能优化 多路传输 支持多路传输功能,开启多路传输功能后,有利于提升数据传输效率,在单条路径质量波动较大时有显著的效果。 智能选路 实时探测 节点间实时探测获取当前网络状况,并上报智能选路中心,作为选路依据。 智能选路 快速选路 利用加速节点间实时探测的RTT值,结合天翼云自研的最优链路算法,获取最优传输路径,保障回源效果。 智能选路 稳健选路 利用加速节点间实时探测的RTT和丢包率数据,结合天翼云自研的最优链路算法,获取最优传输路径,保障回源效果。 可靠传输 多点覆盖 边缘节点采用多点覆盖,避免单节点故障造成访问故障,提高可靠性。 可靠传输 零时延切换 当边缘节点与下一跳节点建连时,若发现下一跳节点故障时,零时延切换到其他回源链路去。
        来自:
        帮助文档
        边缘安全加速平台
        边缘接入
        功能概述
      • 节点访问(NodePort)
        操作场景 节点访问 ( NodePort )是指在每个节点的IP上开放一个静态端口,通过静态端口对外暴露服务。节点访问 ( NodePort )会路由到ClusterIP服务,这个ClusterIP服务会自动创建。通过请求 : ,可以从集群的外部访问一个NodePort服务。 约束与限制 “节点访问 ( NodePort )”默认为VPC内网访问,如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 创建service后,如果服务亲和从集群级别切换为节点级别,连接跟踪表将不会被清理,建议用户创建service后不要修改服务亲和属性,如需修改请重新创建servcie。 同一个节点内的容器不支持访问externalTrafficPolicy为local的service。 工作负载创建时设置 您可以在创建工作负载时通过控制台设置Service访问方式,本节以nginx为例进行说明。 步骤 1 参考创建无状态负载(Deployment)、创建有状态负载(StatefulSet)或创建守护进程集(DaemonSet),在“工作负载访问设置”步骤,单击“添加服务”。 访问类型:选择“节点访问 ( NodePort )”。 说明: 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 Service 名称:自定义服务名称,可与工作负载名称保持一致。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载实际监听的端口,取值范围为165535。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 2 完成配置后,单击“确定”。 步骤 3 单击“下一步:高级设置”进入高级设置页面,直接单击“创建”。 步骤 4 单击“查看工作负载详情”,在访问方式页签下获取访问地址,例如“192.168.0.160:30358”。 工作负载创建完成后设置 您可以在工作负载创建完成后对Service进行配置,此配置对工作负载状态无影响,且实时生效。具体操作如下: 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,在工作负载列表页单击要设置Service的工作负载名称。 说明: 如果当前Service被关联到Ingress,则更新Service的端口信息后Ingress将不可用,需要删除重建。 步骤 2 在“Service”页签,单击“添加Service”。 步骤 3 在“添加Service”页面,访问类型选择“节点访问 ( NodePort )”。 说明: 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 步骤 4 设置节点访问参数: Service 名称:自定义服务名称,可与工作负载名称保持一致。 集群名称:工作负载所在集群的名称,此处不可修改。 命名空间:工作负载所在命名空间,此处不可修改。 关联工作 负载:要添加Service的工作负载,此处不可修改。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载程序实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 5 单击“创建”。工作负载已添加“节点访问 ( NodePort )”的服务。 验证访问方式 步骤 1 在管理控制台首页,单击“计算 > 弹性云主机”。 步骤 2 在弹性云主机页面,找到同一VPC内任意一台云服务器,并确认连接到访问地址中IP与端口的安全组是开放的。 步骤 3 单击“远程登录”,弹出登录页面,输入用户密码登录。 步骤 4 使用curl命令访问工作负载验证工作负载是否可以正常访问。 说明: 节点访问(NodePort)会在集群内节点上分配一个虚拟IP,即可以在集群内部通过虚拟IP的验证方式验证。其中,虚拟IP访问端口默认与容器端口一致。 如果需要使用弹性IP通过公网访问该服务,请提前在集群的节点上绑定弹性IP。 curl 192.168.0.160:30358 其中“192.168.0.160:30358”为步骤4中获取到的访问地址,即节点虚拟IP+访问端口。 回显如下表示访问成功。 Welcome to nginx! body { width: 35em; margin: 0 auto; fontfamily: Tahoma, Verdana, Arial, sansserif; } Welcome to nginx! If you see this page, the nginx web server is successfully installed and working. Further configuration is required. For online documentation and support please refer to Thank you for using nginx. 更新Service 您可以在添加完Service后,更新此Service的端口配置,操作步骤如下: 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”,在Service页签下,选择对应的集群和命名空间,单击需要更新端口配置的Service后的“更新”。 步骤 2 在更新Service页面,访问类型选择“节点访问 ( NodePort )”。 步骤 3 更新节点访问参数: Service 名称:您创建的Service名称,此处不可修改。 集群名称:工作负载所在集群的名称,此处不可修改。 命名空间:工作负载所在命名空间,此处不可修改。 关联工作负载:要添加Service的工作负载,此处不可修改。 服务亲和: − 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 − 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置: − 协议:请根据业务的协议类型选择。 − 容器端口:容器镜像中工作负载程序实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 − 访问端口:容器端口映射到节点私有IP上的端口,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 步骤 4 单击“更新”。工作负载已更新Service。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        Service
        节点访问(NodePort)
      • 实例服务器初始化及实例开通
        本页介绍天翼云TeleDB数据库实例服务器初始化及实例开通。 前提条件 每台实际主机均已进行环境初始化。 操作步骤 1. 登录管理控制台 (1) 以admin用户名和密码登录控制台。登录地址: 。 (2) 进入TeleDBDCP控制台管理页面,单击立即使用 。 2. 创建实例 ① 在左侧导航树选择 系统管理 > 授权管理 ,进入授权管理页面。 ② 单击导入授权 ,出现 新增/更新授权对话框 。 ③ 在新增/更新授权 对话框,单击 立即上传 ,在弹出的窗口选择license文件,单击下一步 ,进入导入分类模式 。 ④ 在产品名称 下拉框选择对应的产品,单击下一步 ,进入license详情页面。 ⑤ 在license详情 页面,确认信息无误后,单击确定 ,完成导入license。 3. 创建开通实例租户用户 ① 在左侧导航树中选择安全中心 > 用户管理 ,进入用户管理页面。 ② 单击创建用户 ,出现创建用户弹框。 填写用户账号 、 用户名称 、选择用户角色 为 租户管理员 、填写 用户密码 、 确认密码 和邮箱 ,单击确定新创建的用户将出现在用户列表中。 ③ 单击新建用户所在行的编辑,可修改用户信息。 4. 添加主机管理 说明 每台待添加的主机需安装JDK环境。 每台待添加的主机需创建好用户,如teledb。 每台待添加的主机需对环境进行初始化。可参考准备工作章节对环境进行初始化。 ① 在左侧导航树中选择资源管理 > 主机管理 ,进入主机管理页面。 ② 单击添加主机 ,出现添加主机弹框。 ③ 填写 IP地址 、 SSH端口 、 SSH用户名 、 SSH用户密码 、 监控插件端口 、 监控插件部署目录 ,CPU类型 和操作系统等必填信息。 IP地址:部署规划的实例主机ip。 SSH端口:填写SSH端口。 SSH用户名:根据您创建的用户名填写。填写机器的用户名 不要用root账号,需使用有sudo权限的账号。 SSH密码:根据您设置的密码填写。 监控插件端口:端口不能被占用,如占用需更换端口。 监控插件部署目录:系统默认自动填写,无需修改。 CPU类型:请选择您的实际使用的类型。 操作系统类型:请选择您实际使用的类型。 ④ 单击 测试联通及硬件检测 ,出现绿色标识,单击 确定 ,完成主机的添加。 5. 添加VIP ① 在左侧导航树选择 资源管理> VIP管理 ,进入VIP管理页面。 ② 单击 添加VIP ,弹出添加VIP弹框。 ③ 填写 IP类型 、 IP地址 ,单击 确定 ,完成VIP的添加。 6. 导入sql语句至dcp库中prodtemplate配置表。 ① 查找sql语句。 打开dcp安装包中Readme.md文件,查找teleDBX标题的sql语句。具体内容如下: INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012001, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主一备,主备自动切换,企业业务生产首选 ', '企业版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":2,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":2,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL);INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012002, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主两备,支持两地三中心部署模式,达到金融级高可用 ', '灾备版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":3,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":3,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL); ② 在配置库导入表数据。 执行如下命令查找prodtemplate 配置表所在目录。 ps ef grep mysqld 执行如下命令,进入sql语句所在目录。 cd /app/monitor/teledb/mysqlinstall/bin/ 执行如下命令,导入sql语句中内容。 ./mysql u root S /tmp/mysql6301.sock p 导入后,输入exit退出。 说明 这里dcp的sql导入的teledbx版本是6.14,如果你后面上传的teledbx的内核版本是6.15的 话,请把6.14改为6.15,请按照您实际版本修改。 7. 导入软件包 ① 以admin用户名和密码登录控制台。单击立即使用进入实例管理页面。 ② 单击图标,切换至TeleDB控制台。 ③ 选择 资源管理 > 软件包管理 ,进入软件包管理页面。 ④ 在软件包管理页面,单击 添加软件包 ,弹出添加软件包弹框。 ⑤ 填写基本信息。 包类型:根据实际情况选择。 软件类型:根据系统默认选择。 软件包:单击 点击上传 ,上传软件包。 软件包MD5:根据实际情况填写。 您可执行md5sum 软件包名命令查找MD5。 ⑥ 单击 确定 ,完成软件包的添加。 8. 实例开通 ① 单击图标,切换至DCP控制台。 ② 在左侧导航树中选择 实例管理> 创建实例 ,进入实例开通页面。 ③ 选择 TeleDB 、 企业版 ,填写基本信息。 输入密码 和 默认密码 ,其它信息根据系统默认填写。 ④ 单击 下一步 ,进入实例开通下一个页面。 ⑤ 根据实际情况,填写基本信息。 ⑥ 单击 提交工单 ,完成实例开通。 ⑦ 您可通过 实例管理> 工单管理 ,查看工单详情。 ⑧ 您可通过 实例管理> 实例列表 ,查看实例详情信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        实例服务器初始化及实例开通
      • 开发SQL脚本
        本章节主要介绍开发脚本的开发SQL脚本功能。 对SQL脚本进行在线开发、调试和执行,开发完成的脚本也可以在作业中执行(请参见开发作业)。 前提条件 已开通相应的云服务并在云服务中创建数据库。Flink SQL脚本不涉及该操作。 已创建与脚本的数据连接类型匹配的数据连接,请参见新建数据连接。Flink SQL脚本不涉及该操作。 当前用户已锁定该脚本,否则需要通过“抢锁”锁定脚本后才能继续开发脚本。新建或导入脚本后默认被当前用户锁定,详情参见提交版本并解锁章节中的“编辑锁定功能”。 操作步骤 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3.在脚本目录中,双击脚本名称,进入脚本开发页面。 4.在编辑器上方,选择如下表所示的属性。创建Flink SQL脚本时请跳过此步骤。 SQL脚本属性 属性 说明 数据连接 选择数据连接。 数据库 选择数据库。 资源队列 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。如需新建资源队列,请参考以下方法: 单击,进入DLI的“队列管理”页面新建资源队列。 前往DLI管理控制台进行新建。 说明 DLI提供默认资源队列“default”,该资源队列不支持insert、load、cat命令。 如需以“key/value”的形式设置提交SQL作业的属性,请单击。最多可设置10个属性,属性说明如下: dli.sql.autoBroadcastJoinThreshold(自动使用BroadcastJoin的数据量阈值) dli.sql.shuffle.partitions(指定Shuffle过程中Partition的个数) dli.sql.cbo.enabled(是否打开CBO优化策略) dli.sql.cbo.joinReorder.enabled(开启CBO优化时,是否允许重新调整join的顺序) dli.sql.multiLevelDir.enabled(OBS表的指定目录或OBS表分区表的分区目录下有子目录时,是否查询子目录的内容;默认不查询) dli.sql.dynamicPartitionOverwrite.enabled(在动态分区模式时,只会重写查询中的数据涉及的分区,未涉及的分区不删除) 5.在编辑器中输入SQL语句(支持输入多条SQL语句)。 说明 需要注意,使用SQL语句获取的系统日期和通过数据库工具获取的系统日期是不一样,查询结果存到数据库是以YYYYMMDD格式,而页面显示查询结果是经过转换后的格式。 SQL语句之间以“;”分隔。如果其它地方使用“;”,请通过“”进行转义。例如: select 1; select from a where b"dsfa;"; example 1;example 2. 为了方便脚本开发,数据开发模块提供了如下能力: − 脚本编辑器支持使用如下快捷键,以提升脚本开发效率。 Ctrl + /:注释或解除注释光标所在行或代码块 Ctrl + S:保存 Ctrl + Z:撤销 Ctrl + Y:重做 Ctrl + F:查找 Ctrl + Shift + R:替换 Ctrl + X:剪切,光标未选中时剪切一行 Alt + 鼠标拖动:列模式编辑,修改一整块内容 Ctrl + 鼠标点选:多列模式编辑,多行缩进 Shift + Ctrl + K:删除当前行 Ctrl + →或Ctrl + ←:向右或向左按单词移动光标 Ctrl + Home或Ctrl + End:移至当前文件的最前或最后 Home或End:移至当前行最前或最后 Ctrl + Shift + L:鼠标双击相同的字符串后,为所有相同的字符串添加光标,实现批量修改 − 支持系统函数功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“系统函数”,显示该数据连接类型支持的函数,您可以双击函数到编辑器中使用。 − 支持可视化读取数据表生成SQL语句功能(当前Flink SQL、Spark SQL、ClickHouse SQL、Presto SQL不支持该功能)。 单击编辑器右侧的“数据表”,显示当前数据库或schema下的所有表,可以根据您的需要勾选数据表和对应的列名,在右下角点击“生成SQL语句”,生成的SQL语句需要您手动格式化。 − 支持脚本参数(当前仅Flink SQL不支持该功能)。 在SQL语句中直接写入脚本参数,调试脚本时可以在脚本编辑器下方输入参数值。如果脚本被作业引用,在作业开发页面可以配置参数值,参数值支持使用EL表达式(参见表达式概述)。 脚本示例如下,其中str1是参数名称,只支持英文字母、数字、“”、“”、“ ”,最大长度为16字符,且参数名称不允许重名。 > select ${str1} from data; 另外,对于MRS Spark SQL和MRS Hive SQL脚本的运行程序参数,除了在SQL脚本中参考语句“set hive.exec.paralleltrue;”配置参数,也可以在对应作业节点属性的“运行程序参数”中配置该参数。 详见下图:运行程序参数 − 支持设置脚本责任人 单击编辑器右侧的“脚本基本信息”,可设置脚本的责任人和描述信息。 6.(可选)在编辑器上方,单击“格式化”,格式化SQL语句。创建Flink SQL脚本请跳过此步骤。 7.在编辑器上方,单击“运行”。如需单独执行某部分SQL语句,请选中SQL语句再运行。SQL语句运行完成后,在编辑器下方可以查看脚本的执行历史、执行结果。Flink SQL脚本不涉及,请跳过该步骤。 说明 对于执行结果支持如下操作: 重命名:可通过双击执行结果页签的名称进行重命名,也可通过右键单击执行结果页签的名称,单击重命名。重命名不能超过16个字符。 可通过右键单击执行结果页签的名称关闭当前页签、关闭左侧页签、关闭右侧页签、关闭其它页签、关闭所有页签。 MRS集群为非安全集群、且未限制命令白名单时,在Hive SQL执行过程中,添加application name信息后,则可以方便的根据脚本名称与执行时间在MRS的Yarn管理界面中根据job name找到对应任务。需要注意若默认引擎为tez,则要显式配置引擎为mr,使tez引擎下不生效。 8.在编辑器上方,单击,保存脚本。 如果脚本是新建且未保存过的,请配置如下表所示的参数。 保存脚本 参数 是否必选 说明 脚本名称 是 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 责任人 否 为该脚本指定责任人。默认为创建脚本的人为责任人。 描述 否 脚本的描述信息。 选择目录 是 选择脚本所属的目录,默认为根目录。 说明 如果脚本未保存,重新打开脚本时,可以从本地缓存中恢复脚本内容。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发SQL脚本
      • 功能特性
        本节主要介绍云存储网关的功能特性。 接口适配 支持SAN网络存储类型,即通过标准iSCSI协议支持块存储。 访问加速 采用分布式双控架构,提升读写性能,延迟极低。同时也实现了本地缓存和云端存储的冷热数据分离,提高了数据访问速度。 统一管理 提供统一管理功能,支持单机和集群部署,并可以集中管理服务器和存储卷。 支持系统监控和报警,可以监控服务器CPU、内存、数据读写速度等信息,系统运行异常时立即发出告警。 自动部署 支持部署在通用硬件服务器上,支持一键自动化软件部署、滚动升级,运维简单、易用、高效。 通过在线增加服务器或者磁盘进行扩容,且在扩容过程中,不影响用户业务,数据平滑迁移。 数据保护 支持多副本和纠删码数据冗余保护机制,可以提高空间的利用效率并获得较好的数据保护效果,保证了海量数据的存储可靠性和持续可用性。 支持数据完整性校验、传输加密,确保数据安全可靠,同时利用了OOS独有的原子操作,能够真正确保云上数据的一致性。 上云能力 支持多种数据上云方式,本地既可只缓存热数据,又可以保留全量数据,数据自动同步到云端,实现存储空间弹性扩展。 云存储网关功能特性 功能模块 功能特性 安装部署 支持单机版、集群版部署具备安装、初始化、密码修改、升级、卸载功能。 基础服务 卷:创建、查询、删除、启用、禁用、扩容、修改。 基础服务 iSCSI Target:创建、查询、删除、修改。 基础服务 服务器:添加、查询、移除、修改、启动、停止、重启、还原。 基础服务 数据目录:添加、移除。 系统设置 邮件通知:启用、禁用、查询、删除。 系统设置 远程协助:启用、禁用、查询、删除。 系统设置 备份配置:启用、禁用、查询、删除、执行备份。 系统设置 系统信息:查询部署信息、状态信息、版本信息。 监控 CPU使用率、内存使用率、各数据目录的磁盘使用率和使用量、数据传输情况(当天写入量,当前读取量,当天写请求成功率,当天读请求成功率,累计写入量,累计读取量)。
        来自:
        帮助文档
        云存储网关
        产品简介
        功能特性
      • 拼接模板
        云点播拼接模版功能介绍。 综述 用户可使用拼接模板将多个视频按照一定的排列规则拼接成完整的视频,通常用于对上传素材添加片头、片尾等操作。 新建拼接模板 前提条件 已开通云点播产品。 操作步骤 进入云点播控制台,选择左侧导航栏的【模板管理】–【拼接模板】可打开拼接模板列表页面。点击【添加模板】进入模板自定义设置。 相关配置参数 配置类型 配置参数 :: 模板名称 支持中英文字符、数字、下划线和短横线“”,不超过20位。 拼接类型 目前可供选择的为【片头片尾拼接】。 片头视频 用作片头的视频素材。拼接视频需存放在云点播【媒体库】内。 片尾视频 用作片尾的视频素材。拼接视频需存放在云点播【媒体库】内。 视频分辨率 当片头、片尾及主视频三者存在分辨率差异时,用户可根据自身业务需求,选择如何定义输出视频的分辨率。当选择【跟随主视频】时,则片头、片尾视频会根据主视频分辨率进行拉伸变换。当选择【自定义】时,片头、片尾、主视频三者均会按照自定义分辨率进行拉伸变换。 视频码率 输出视频的目标视频编码码率。 音频保留 在拼接过程中,片头、片尾合主视频的声音可能存在音轨空缺或重叠,用户可选择在拼接时【保留音频并按需填充空音频流】或【去除音频】。 音频码率 输出成片的目标音频码率。 注意 1. 视频拼接本质属于视频编码,需按照输出视频规格进行计费。计费时长为片头、片尾、主视频播放时长总和。 2. 受限于片头、片尾、主视频编码码率、清晰度、分辨率等影响,拼接合成后视频的播放质量可能会下降。 3. 拼接模板功能需要拼接的视频、片头、片尾等素材需提前上传在媒体库内。拼接模式目前仅支持输出H.264格式的成片。 4. 建议将素材文件的权限置为【公共读】,如为了保证素材访问安全性需设置为【私有】,请将文件签名部分一并写入配置模板,并确保该签名在模板使用过程中有效。
        来自:
        帮助文档
        云点播
        用户指南
        公共模板管理
        拼接模板
      • 1
      • ...
      • 206
      • 207
      • 208
      • 209
      • 210
      • ...
      • 222
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      应用托管

      推荐文档

      订单确认

      价格

      资源管理列表

      篡改告警

      获取机器码

      邀请参会方

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号