活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      关系数据库SQL Server版_相关内容
      • 产品基本概念
        概念 说明 站点复制对 一对拥有复制关系的生产站点和容灾站点。 云容灾网关 云容灾网关将生产站点所有被容灾的服务器上的数据进行汇聚和重删压缩加密,并实时同步到容灾站点。 代理客户端 代理客户端将所在服务器上的数据实时传输到云容灾网关。 开启保护 生产业务位于生产站点时,数据同步停止后可执行此操作,用来开始数据同步。 切换 将业务从用户的生产站点切换到容灾站点。切换后数据同步中断,保护实例的状态是切换完成。 切回 切换完成后,当前生产业务位于容灾站点,通过切回操作,可将生产业务从容灾站点切回到生产站点。切回完成后,数据不再进行同步。 反向重保护 切换完成后,数据不会自动反向同步(容灾站点到生产站点),保护实例处于停止保护状态,如需开始反向数据同步,需要进行反向重保护操作。 重保护 切回完成后,数据不会自动同步(生产站点到容灾站点),保护实例处于停止保护状态,如需开始数据同步,需要进行重保护操作。 停止保护 生产业务位于生产站点时,数据同步中或者同步完成后可执行此操作,用来停止数据同步。
        来自:
        帮助文档
        存储容灾服务
        产品简介
        存储容灾服务的相关概念
        产品基本概念
      • 字符串函数
        函数表达式 函数描述 ASCII() Return numeric value of leftmost character BIN() Return a string containing binary representation of a number BITLENGTH() Return length of argument in bits CHARLENGTH() Return number of characters in argument CHAR() Return the character for each integer passed CHARACTERLENGTH() Synonym for CHARLENGTH() CONCATWS() Return concatenate with separator CONCAT() Return concatenated string ELT() Return string at index number EXPORTSET() Return a string such that for every bit set in the value bits, you get an on string and for every unset bit, you get an off string FIELD() Return the index (position) of the first argument in the subsequent arguments FINDINSET() Return the index position of the first argument within the second argument FORMAT() Return a number formatted to specified number of decimal places HEX() Return a hexadecimal representation of a decimal or string value INSERT() Insert a substring at the specified position up to the specified number of characters INSTR() Return the index of the first occurrence of substring LCASE() Synonym for LOWER() LEFT() Return the leftmost number of characters as specifified QUOTE() Escape the argument for use in an SQL statement NOT REGEXP Negation of REGEXP NOT LIKE Negation of simple pattern matching LTRIM() Remove leading spaces REPEAT() Repeat a string the specifified number of times REPLACE() Replace occurrences of a specifified string MAKESET() Return a set of commaseparated strings that have the corresponding bit in bits set OCT() Return a string containing octal representation of a number MID() Return a substring starting from the specifified position ORD() Return character code for leftmost character of the argument LOWER() Return the argument in lowercase LENGTH() Return the length of a string in bytes LOCATE() Return the position of the fifirst occurrence of substring LPAD() Return the string argument, leftpadded with the specifified string REVERSE() Reverse the characters in a string LIKE Simple pattern matching OCTETLENGTH() Synonym for LENGTH() POSITION() Synonym for LOCATE() RIGHT() Return the specifified rightmost number of characters RPAD() Append string the specifified number of times STRCMP() Compare two strings UPPER() Convert to uppercase TRIM() Remove leading and trailing spaces RTRIM() Remove trailing spaces UNHEX() Return a string containing hex representation of a number SPACE() Return a string of the specifified number of spaces SUBSTRINGINDEX() Return a substring from a string before the specifified number of occurrences of the delimiter SUBSTR() Return the substring as specifified SUBSTRING() Return the substring as specifified UCASE() Synonym for UPPER()
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        函数
        字符串函数
      • 编译运行Demo Java工程
        介绍连接Kafka编译运行Demo Java工程 kafkaclients引入依赖 在使用Kafka时,你需要在你的项目中引入相应的依赖。具体的依赖项可能会因你的项目和需求而有所不同。在使用Kafka之前,请确保查阅官方文档以获取最新的依赖项和使用说明。 以Java编程语言为例,可以使用Kafka的Java客户端库。你可以在Maven或Gradle构建工具中添加以下依赖项: org.apache.kafka kafkaclients 示例代码 1. 从控制台获取以下信息 连接地址 实例连接地址从控制台实例详情菜单处获取,在实例详情页面的接入点信息一栏。 Topic名称 在Topic管理页面,选择需要的Topic名称。 消费组名称 在消费组管理页面,选择需要的消费组名称。 2. 在实例代码中替换以上信息即可实现消息。 import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } } 3. 同样在实例代码中替换以上信息即可消费消息。 import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import java.util.Arrays; import java.util.Properties; public class Consumer { private org.apache.kafka.clients.consumer.Consumer consumer; private static final String GROUPID "testgroup"; private static final String TOPIC "testtopic"; public final static String BROKERADDR "192.168.0.11:8090,192.168.0.9:8090,192.168.0.10:8090"; public Consumer() { Properties props new Properties(); props.put(ConsumerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ConsumerConfig.GROUPIDCONFIG, GROUPID); props.put(ConsumerConfig.AUTOOFFSETRESETCONFIG, "earliest"); props.put(ConsumerConfig.ENABLEAUTOCOMMITCONFIG, "false"); props.put(ConsumerConfig.KEYDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUEDESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); consumer new KafkaConsumer<>(props); } public void consume() { consumer.subscribe(Arrays.asList(TOPIC)); while (true){ try { ConsumerRecords records consumer.poll(1000); System.out.println("the numbers of topic:" + records.count()); for (ConsumerRecord record : records) { System.out.println("the data is " + record.value()); } }catch (Exception e){ // TODO: 异常处理 e.printStackTrace(); } } } public static void main(String[] args) { new Consumer().consume(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        编译运行Demo Java工程
      • 功能类
        AntiDDoS流量清洗功能类相关问题 AntiDDoS有何使用限制? 提供不超过5Gbps流量的DDoS攻击防护。 对大于5Gbps的流量,系统会进行自动限流措施(正常访问流量会丢失);对于正常业务流量超过5Gbps流量的应用,建议您购买DDoS高防服务,提升防护能力。 哪些服务可以使用AntiDDoS? AntiDDoS流量清洗服务的防护对象为用户购买的公网IP,不区分服务。 如何使用AntiDDoS? 购买了弹性公网IP后,即可自动开启AntiDDoS防护。 AntiDDoS能阻止哪些类型的攻击? AntiDDoS可以轻松应对流量拥塞型攻击,精确识别连接耗尽型、慢速攻击,帮助用户防护以下攻击: Web服务器类攻击:SYN Flood攻击、HTTP Flood攻击、CC(Challenge Collapsar)攻击、慢速连接类攻击等。 游戏类攻击:UDP(User Datagram Protocol ) Flood攻击、SYN Flood、TCP(Transmission Control Protocol )类攻击、分片攻击等。 HTTPS服务器的攻击:SSL DoS/DDoS类攻击等。 DNS服务器的各类攻击:DNS(Domain Name Server)协议栈漏洞攻击、DNS反射攻击、DNS Flood攻击、DNS CacheMiss攻击等。 攻击事件能否及时通知? 可以。在AntiDDoS界面,单击“告警通知”页签,开启告警通知。 告警通知开启后,在受到DDoS攻击时,用户会收到报警信息(短信或Email)。 当业务经常被DDoS攻击时如何处理? 当业务经常被DDoS攻击时,容易导致公网IP被拉黑,影响业务连续性,建议购买DDoS高防服务提升防御能力。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        常见问题
        功能类
      • 主子账号和IAM权限管理
        DTS系统策略 DTS默认提供三种系统策略供用户选择,策略仅包括数据库管理控制台相关功能权限及OpenAPI权限。DTS的三种默认策略分别是管理员策略(DTSadmin),使用者策略(DTSuser),浏览者策略(DTSviewer),三种策略的权限模型具体如下: 功能模块 权限名称 DTSadmin DTSuser DTSviewer 能力管理 获取特定用户的能力信息表 Y Y 告警管理 获取告警规则详情 Y Y Y 告警管理 添加告警规则 Y Y 告警管理 修改告警规则 Y Y 告警管理 查询所有告警项 Y Y Y 告警管理 查询告警列表 Y Y Y 告警管理 删除告警规则 Y Y 任务管理 获取源库中的位点信息 Y Y Y 任务管理 获取预检查项 Y Y Y 任务管理 进行预检查 Y Y Y 任务管理 获取特定表的列信息 Y Y Y 任务管理 获取结构详情 Y Y Y 任务管理 获取全量详情 Y Y Y 任务管理 获取增量详情 Y Y Y 任务管理 结构迁移状态 Y Y Y 任务管理 全量迁移状态 Y Y Y 任务管理 全量迁移状态 Y Y Y 任务管理 增量状态 Y Y Y 任务管理 判断是否满足一键切换条件 Y Y Y 任务管理 一键切换任务 Y Y 任务管理 判断是否已执行一键切换 Y Y Y 任务管理 获取任务详情 Y Y Y 任务管理 校验SQL语句 Y Y 任务管理 通过id获取dataMediaPair Y Y Y 任务管理 获取源库中存在的schema信息 Y Y Y 任务管理 获取某个schema下的迁移对象 Y Y Y 任务管理 检查数据库连通性 Y Y Y 任务管理 获取实例列表信息 Y Y Y 任务管理 获取实例详情 Y Y Y 监控管理 全量传输性能监控接口 Y Y Y 监控管理 增量传输性能监控接口 Y Y Y 监控管理 获取全量开始结束时间 Y Y Y 监控管理 获取增量开始结束时间 Y Y Y 许可证管理 核查许可证是否过期 Y Y Y 任务管理 错误日志详情信息 Y Y Y 任务管理 错误日志列表 Y Y Y 机器管理 获取所有机器 Y Y Y 机器管理 获取通过id单台机器 Y Y Y 机器管理 新增机器 Y Y 机器管理 添加时测试机器信息是否准确 Y Y Y 环境管理 添加时检查java版本 Y Y Y 环境管理 检查能否连接到zookeeper Y Y Y 环境管理 部署Node Y Y 任务管理 获取操作日志列表 Y Y Y 任务管理 存储前端数据 Y Y 任务管理 编辑前端数据 Y Y 任务管理 查看前端数据 Y Y Y 任务管理 获取pipeline信息 Y Y Y 任务管理 插入数据 Y Y 任务管理 编辑数据 Y Y 任务管理 数据库修改密码 Y Y 任务管理 启动任务 Y Y 任务管理 任务列表 Y Y Y 任务管理 任务详情 Y Y Y 任务管理 任务筛选 Y Y Y 任务管理 批量启停任务 Y Y 任务管理 数据稽查 对象级 Y Y Y 任务管理 对象级迁移数据对比 Y Y Y 任务管理 数据稽查 数据级 Y Y Y 任务管理 内容对比列表 Y Y Y 任务管理 内容稽核任务概要信息查询 Y Y Y 任务管理 内容稽核任务中不一致的chunk对的详细结果查询 Y Y Y 任务管理 内容稽核任务获取未检查表信息 Y Y Y 任务管理 开始内容对比任务 Y Y 任务管理 执行数据稽查 Y Y 任务管理 获取数据级对比任务详情 Y Y Y 任务管理 数据级迁移数据对比 Y Y 任务管理 根据任务类型查询任务列表 Y Y Y 任务管理 校检日志位点信息 Y Y Y 任务管理 获取任务配置参数 Y Y Y 任务管理 修复任务配置参数 Y Y 任务管理 获取数据修正详情 Y Y Y 任务管理 执行数据修正 Y Y 标签管理 绑定标签 Y Y 标签管理 解绑标签 Y Y 标签管理 删除标签 Y Y 任务管理 获取任务时间线 Y Y Y 资源管理 文件上传 Y Y 用户管理 用户登录 Y Y Y 用户管理 用户退出 Y Y Y 资源管理 获取控制台版本 Y Y Y OpenAPI 配置任务 Y Y OpenAPI 启动任务 Y Y OpenAPI 查询任务详情 Y Y Y OpenAPI 查询任务列表及各任务执行详情 Y Y Y OpenAPI 查询任务的子任务执行详情 Y Y Y OpenAPI 暂停任务 Y Y OpenAPI 结束任务 Y Y OpenAPI 释放任务 Y Y OpenAPI 修改任务源或目标库的账号密码 Y Y OpenAPI 修改任务名称 Y Y OpenAPI 查询所有的告警项 Y Y Y OpenAPI 创建告警规则 Y Y OpenAPI 修改告警规则 Y Y OpenAPI 查询告警规则列表 Y Y Y OpenAPI 创建标签 Y Y OpenAPI 查询标签 Y Y Y OpenAPI 解绑标签 Y Y OpenAPI 查询实例的所有标签 Y Y Y OpenAPI 查询标签键对应的所有值 Y Y Y 说明 DTS默认提供三种系统策略供用户选择; 除默认的系统策略外,用户可在IAM的“策略管理”中创建自定义策略,实现更加灵活的权限控制。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        权限管理
        主子账号和IAM权限管理
      • 入门实践
        实践 描述 以CentOS 7.2 64bit操作系统云主机为例,介绍如何搭建FTP站点 以Windows 2012数据中心版 64bit操作系统云主机为例,介绍如何搭建FTP站点 以CentOS 7.5 64bit操作系统云主机为例,介绍如何搭建Docker 以CentOS 7.4 64bit操作系统云主机为例,介绍如何搭建RabbitMQ
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        入门实践
      • 实例类(1)
        本章节主要介绍分布式消息服务RabbitMQ的实例类问题。 RabbitMQ使用的版本是多少? 服务端RabbitMQ的版本是3.8.35。 RabbitMQ实例SSL连接的协议版本号是多少? TLS v1.2版本。 创建实例时为什么无法查看子网和安全组等信息? 创建实例时,如果无法查看虚拟私有云、子网、安全组、弹性IP,可能原因是该用户无Server Administrator和VPC Administrator权限,增加权限的详细步骤请参考《统一身份认证服务 用户指南》的“用户指南 > 用户组及授权 > 查看或修改或删除用户组”章节。 若其中一台RabbitMQ重启失败,需要会如何处理? 重启RabbitMQ实例时,不会重启实例所在虚拟机,仅重启RabbitMQ进程。 重启集群实例时,若其中一台RabbitMQ进程重启失败,则重启后实例状态依然为“运行中”,并提示“部分节点故障”。在每台虚拟机上都有RabbitMQ的守护进程,定时检查RabbitMQ进程是否存在,当进程不存在时会自动拉起RabbitMQ进程。 如果RabbitMQ实例异常持续超过1分钟,会上报告警。 RabbitMQ集群实例如何均衡分发请求到每个虚拟机? 集群内部使用LVS做负载均衡,由LVS将请求均衡分发到每个虚拟机节点。 RabbitMQ实例集群内部的队列是否有冗余备份? 队列是否做镜像(即冗余备份)取决于用户的需要,如果用户设置了镜像,会在集群中多个代理上存储队列的副本,当某个代理故障,集群会从其他正常的代理中选择一个代理,用来同步队列数据。
        来自:
      • 通过ISO文件创建Windows系统盘镜像
        使用ISO镜像创建Windows云主机 操作场景 该任务指导用户使用已注册成功的ISO镜像创建弹性云主机。 约束与限制 暂不支持专属云用户通过ISO镜像创建弹性云主机。 操作步骤 1、登录控制台。 a.登录控制台。 b.选择“镜像服务”。 进入镜像服务页面。 2、创建弹性云主机。 a.单击“私有镜像”页签,在ISO镜像所在行的“操作”列下,单击“申请主机”,创建云主机。 由于此云主机仅作为临时云主机使用,最终需要删除。因此,系统会默认创建一个固定规格且“按需付费”的云主机,使用该云主机创建的私有镜像再次创建云主机时不会限制规格和付费方式。 说明: 对于专属云用户,不支持使用ISO镜像创建临时云主机操作,此时“申请主机”按钮灰化。 b.根据界面提示完成云主机的配置,并单击“确定”。 后续操作 弹性云主机创建成功后,使用平台提供的“远程登录”方式,登录弹性云主机,继续执行后续的安装操作系统和相关驱动操作。 安装Windows操作系统和VMTools驱动和配置云主机并创建Windows系统盘镜像 操作场景 该任务以“Windows Server 2008 R2 64位”操作系统为例,指导用户安装Windows操作系统。 由于镜像文件不同,安装步骤稍有不同,请根据实际的安装界面提示进行操作。 说明: 请根据实际情况完成时区、KMS地址、补丁服务器、输入法、语言等相关配置。 前提条件 已使用平台提供的“远程登录”方式(即VNC登录),连接云主机并进入安装界面。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过ISO文件创建Windows系统盘镜像
      • 添加监听器
        本文主要介绍如何添加监听器。 操作场景 负载均衡监听器通过指定的协议和端口进行流量转发。同时监听器将根据健康检查的配置自动检查其后端主机的运行状况。如果发现某台主机运行不正常,则会停止向该主机发送流量,并重新将流量发送至正常运行的主机。 创建监听器 1. 选择“服务列表 > 网络 > 弹性负载均衡”。 2. 在“负载均衡器”界面,单击需要添加监听器的负载均衡名称“elb01”。 3. 切换到“监听器”页签,单击“添加监听器”。 4. 配置监听器,单击“下一步”。 名称:监听器名称,示例为“listenerHTTP”。 前端协议/端口:负载分发的协议和端口,示例为“HTTP/80”。 5. 配置后端主机组和开启健康检查,单击“完成”。 创建后端主机组 1. 名称:后端主机组名称,示例为“servergroupELB”。 2. 分配策略类型:负载均衡采用的算法,示例为“加权轮询算法”。 修改健康检查配置 1. 协议:前端协议为TCP、HTTP或者HTTPS时,健康检查支持TCP和HTTP协议,设置后不可修改,示例为“HTTP”。 2. 域名:健康检查的请求域名。示例为“www.example.com”。 3. 端口:健康检查端口号,示例为“80”。 4. 未配置健康检查端口时,默认使用后端主机端口进行健康检查。配置后,使用配置的健康检查端口进行健康检查。 5. 在新添加的监听器下,单击后端主机组页签的“添加”。 6. 勾选需要添加的主机,设置业务端口,单击“完成”。 主机勾选“ECS01”和“ECS02”。 业务端口:业务所使用的端口,示例为“80”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        快速入门
        添加监听器
      • 添加HTTPS监听器
        参数 说明 示例 后端主机组 把具有相同特性的后端云主机放在一个组。新创建使用已有说明使用已有后端主机组时, 请确保此后端主机组未被使用。并且只能选择前端协议匹配的后端主机组。 例如前端协议是TCP时,后端协议只能是TCP。 新创建 名称 后端主机组名称。 servergroupsq4v 后端协议 云云主机开通的协议。前端协议为HTTPS时,后端协议支持修改,可修改为HTTP或HTTPS。 HTTP 分配策略类型 负载均衡采用的算法。说明:用户可以根据自身需求选择相应的算法来分配用户访问流量, 提升负载均衡能力。对于加权轮询算法和加权最少连接,当云主机的权重为“0”时,将不会被分发访问请求。 加权轮询算法 会话保持 开启会话保持后,弹性负载均衡将属于同一个会话的请求都转发到同一个云主机进行处理。 说明:当分配策略类型为“加权轮询算法”时,可配置会话保持。 会话保持类型 前端协议为HTTP或HTTPS时,支持负载均衡器cookie类型的会话保持。 负载均衡器cookie 会话保持时间(分钟) 当分配策略类型选择“加权轮询算法”或“加权最少连接”,会话保持开启后,需添加会话保持时间。 四层会话保持的会话保持时间取值范围为[1,60]。七层会话保持的会话保持时间取值范围为[1,1440]。 20 描述 后端主机组的描述。字数范围:0/255。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加HTTPS监听器
      • ZooKeeper扩容
        2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)重启FlinkHistoryServer服务,推荐滚动重启。 Kyuubi 1、修改配置 1)前往Manager页面,集群服务> Kyuubi集群> 配置管理> default配置组> 配置文件kyuubidefaults.conf > 配置项kyuubi.ha.addresses。 2)将新的ZK节点,添加到配置项kyuubi.ha.addresses中。 3)相同操作:同时修改client配置组的配置项。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启Kyuubi服务,推荐滚动重启。 HBase 1、修改配置 1)前往Manager页面,集群服务> HBase集群> 配置管理> default配置组> 配置文件hbasesite.xml > 配置项hbase.zookeeper.quorum。 2)将新的ZK节点,添加到配置项hbase.zookeeper.quorum中。 3)相同操作:同时修改client配置组的配置项。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启HBase所有服务,包含HMaster和HRegionServer,推荐滚动重启。 Kafka 警告:Kafka不建议重启,所以不建议修改ZK节点。 原因:Kafka每个节点都是有状态的,每个节点的主分区都不一样,重启会导致业务受影响。 1、修改配置 1)前往Manager页面,集群服务> Kafka集群> 配置管理> default配置组> 配置文件server.properties > 配置项zookeeper.connect。 2)将新的ZK节点,通过vs统一修改3个配置,添加到配置项zookeeper.connect中。 2、配置同步 1)点击配置同步,推送配置。 3、重启服务 1)需要重启Kafka所有服务。请谨慎进行Kafka集群的重启操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        Master扩容-服务配置修改建议
        ZooKeeper扩容
      • 配置日志级别与文件大小
        本章节主要介绍 配置日志级别与文件大小。 操作场景 如果需要在日志中调整记录的日志级别,则管理员可以修改FusionInsight Manager的日志级别。对于某个具体的服务,除了可以修改日志级别,还可以修改日志文件大小,防止磁盘空间不足日志无法保存。 对系统的影响 保存新的配置需要重启服务,此时对应的服务不可用。 修改FusionInsight Manager日志级别 1. 以omm用户登录主管理节点。 2. 执行以下命令,切换路径。 cd ${BIGDATAHOME}/omserver/om/sbin 3. 执行以下命令,修改日志级别。 ./setLogLevel.sh 日志级别参数 日志级别参数如下,优先级从高到低分别是FATAL、ERROR、WARN、INFO、DEBUG,程序会打印高于或等于所设置级别的日志,设置的日志等级越高,打印出来的日志就越少: “DEFAULT”:设置后恢复到默认日志级别。 “FATAL”:严重错误日志级别,设置后日志只会打印输出“FATAL”信息。 “ERROR”:错误日志级别,设置后日志打印输出“ERROR”和“FATAL”信息。 “WARN”:警告日志级别,设置后日志打印输出“WARN”、“ERROR”和“FATAL”信息。 “INFO”(默认):提示信息日志级别,设置后日志打印输出“INFO”、“WARN”、“ERROR”和“FATAL”信息。 “DEBUG”:调试日志级别,设置后日志打印输出“DEBUG”、“INFO”、“WARN”、“ERROR”和“FATAL”信息。 “TRACE”:跟踪日志级别,设置后日志打印输出"TRACE"、“DEBUG”、“INFO”、“WARN”、“ERROR”和“FATAL”信息。 说明 由于开源中定义的不同,组件的日志级别定义略有差异。 4. 验证日志级别设置已生效,请下载日志并查看。请参见日志。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        日志管理
        配置日志级别与文件大小
      • 登录管理节点
        本章节主要介绍翼MapReduce的登录管理节点操作。 操作场景 部分运维操作的脚本与命令需要或只支持在主管理节点上运行。管理员可以根据以下指导确认并登录主或备管理节点。 在Manager查看主备管理节点并登录 1. 登录FusionInsight Manager。 2. 选择“系统 > OMS”。 在“基本信息”区域,“当前主用”表示主管理节点的主机名,“当前备用”表示备管理节点的主机名。 单击主机名可进入对应的主机详情页面。记录主机的IP地址信息。 3. 以root用户登录主或备管理节点。 执行脚本确定主备管理节点并登录 1. 以root用户登录任意部署Manager的节点。 2. 执行以下命令确认主备管理节点。 su omm sh ${BIGDATAHOME}/omserver/om/sbin/statusoms.sh 界面打印信息中“HAActive”参数值为“active”的节点为主管理节点(如下例中“Master1”为主管理节点),参数值为“standby”的节点为备管理节点(如下例中“Master2”为备管理节点)。 HAMode double NodeName HostName HAVersion StartTime HAActive HAAllResOK HARunPhase 192168030 Master1 V100R001C01 20210901 07:12:05 active normal Actived 192168024 Master2 V100R001C01 20210901 07:14:02 standby normal Deactived 3. 执行如下命令获取主备管理节点IP地址。 cat /etc/hosts 获取的主备管理节点IP地址示例如下: 127.0.0.1 localhost 192.168.0.30 Master1 192.168.0.24 Master2 4. 以root用户登录主或备管理节点。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        从这里开始
        登录管理节点
      • 删除消息
        本文主要介绍如何在控制台删除消息。 操作场景 说明 消息删除后无法恢复,请谨慎操作。 前提条件 删除消息前,请先在客户端中设置“auto.offset.reset”参数。“auto.offset.reset”用来指定当Kafka中没有初始偏移量或者当前偏移量不存在(例如当前偏移量已被删除)时,消费者的消费策略。取值如下: latest:偏移量自动被重置到最晚偏移量。 earliest:偏移量自动被重置到最早偏移量。 none:向消费者抛出异常。 操作步骤 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例名称,进入实例详情页面。 5. 在左侧导航栏选择“Topic管理”,进入Topic列表页面。 6. 在待删除消息的Topic所在行,单击“消息删除”,弹出“消息删除”对话框。 7. 设置消息删除参数,如下表所示。 图消息删除 表 消息删除参数说明 参数 说明 分区 选择消息所在的分区编号。 偏移量 输入偏移量,此偏移量之前的数据将被删除。 说明 如果“偏移量”设置为“1”,表示删除分区中所有的消息。 如果您输入的偏移量不在指定分区的最早偏移量和最晚偏移量之间,消息将不会被删除。 如果需要删除多个分区的消息,单击“添加分区”,设置需要删除消息的分区和偏移量。每次最多可选择10个分区。 8. 单击“确定”,弹出“清理结果”对话框,单击“确定”,完成消息的删除。 图 清理结果
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        删除消息
      • 产品定义
        本节介绍天翼云手机的产品定义,以便您了解云手机。 天翼云手机是通过虚拟化技术在云端运行的安卓手机实例,手机上的应用可以在云上虚拟手机中运行。作为一款新型应用,云手机对传统手机起到了延伸和拓展作用,畅享移动办公、手机游戏和娱乐,企业客户也可以通过配备的全方位管控能力,实现对云端办公环境的安全管控。云手机目前提供产品版本: 天翼云手机(政企版) 向政府、金融、警务等各行业企业客户,提供安全、可管控、低成本的手机办公解决方案。 产品架构
        来自:
        帮助文档
        天翼云手机
        产品介绍
        产品定义
      • 安全告警
        本节介绍如何查看告警信息及处理告警。 查看告警列表 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“安全告警”,进入安全告警页面。 3. 在页面上方切换云防火墙实例。 说明 默认展示近一天的告警,可在页面右上角自定义查看的时间范围。 查看告警详情 单击告警列表操作列的“详情”,进入告警详情页面。在该页面可以查看告警的详细信息。 处理告警 若您已手动处理告警,可将其“标记为已处理”,标记后,告警的状态将从“未处理”变为“已处理”。 操作步骤:单击“标记为已处理”,在弹出的确认框中,单击“确定”。
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        安全告警
      • 元数据简介
        本章节主要介绍元数据采集的元数据介绍。 按照传统的定义,元数据(Metadata)是关于数据的数据。元数据打通了源数据、数据仓库、数据应用,记录了数据从产生到消费的全过程。元数据主要记录数据仓库中模型的定义、各层级间的映射关系、监控数据仓库的数据状态及ETL的任务运行状态。在数据仓库系统中,元数据可以帮助数据仓库管理员和开发人员非常方便地找到他们所关心的数据,用于指导其进行数据管理和开发工作,提高工作效率。 将元数据按用途的不同分为两类:技术元数据(Technical Metadata)和业务元数据(Business Metadata)。 技术元数据是存储关于数据仓库系统技术细节的数据,是用于开发和管理数据仓库使用的数据。 业务元数据从业务角度描述了数据仓库中的数据,它提供了介于使用者和实际系统之间的语义层,使得不懂计算机技术的业务人员也能够“读懂”数据仓库中的数据。 元数据管理模块是数据湖治理的基石,支持创建自定义策略的采集任务,采集数据源中的技术元数据。支持自定义业务元模型、批量导入业务元数据、关联业务和技术元数据、全链路的血缘管理和应用。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        元数据采集
        元数据简介
      • 查询快照
        项目 名称 Name 快照名称。 Size 快照大小,即快照记录的数据量。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 Description 快照描述信息。 LUN Name 源卷的名称。 LUN Capacity 创建快照时刻,源卷的容量。 Reclaim Policy 快照回收策略: Delete:当快照无关联克隆卷,且最多拥有1个子节点(子节点表示存在其他快照依赖此快照,或者当前写操作基于此快照),快照自动删除。 Retain:当快照无关联克隆卷,且最多拥有1个子节点,快照仍然保留。 Consistency Snapshot Name 所属的一致性快照名称。 说明 仅一致性快照的卷快照显示。 Status 快照的状态: Normal:正常。 Error:异常。 Pending:创建中。 Deleting:删除中。 Create Time 快照的创建时间。 Clones 快照的克隆卷信息: No.:序号。 Name:克隆卷名称。 Capacity:克隆卷容量。 Status:克隆卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Rollbacking:卷正在回滚。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        快照操作
        查询快照
      • 管理伸缩策略
        停用伸缩策略: 如果不希望某个伸缩策略在某个时间段触发伸缩活动,可选择停用指定伸缩策略。 如果停用所有的伸缩策略,将不会触发任何由伸缩策略触发的伸缩活动。但手工修改期望实例数时,同样会触发伸缩活动。 仅当伸缩策略状态为“已启用”时,才可以停用伸缩策略。 在伸缩组所在行的“操作”列下,单击“查看伸缩策略”,在伸缩策略所在行的“操作”列下,单击“停用”。 立即执行伸缩策略: 为了使伸缩组当前实例数立即达到期望实例数。 立即执行伸缩策略与伸缩条件是否满足没有关系。 仅当伸缩组状态和伸缩策略状态都为“已启用”时,才可以立即执行伸缩策略: 在伸缩组所在行的“操作”列下,单击“查看伸缩策略”,在伸缩策略所在行的“操作”列下,单击“立即执行”。 删除伸缩策略: 某个伸缩策略不再用于触发伸缩活动时,可选择删除该伸缩策略。 如果被删除的策略已经被触发,伸缩活动正在进行,也可以删除该策略,伸缩活动不受影响。 在伸缩组所在行的“操作”列下,单击“查看伸缩策略”,在伸缩策略所在行的“操作”列下,单击“更多 > 删除”。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        管理伸缩策略
      • 删除证书
        本文通过图文说明证书删除的操作步骤及注意事项等。 功能介绍 当证书过期或者不再使用时,可通过客户控制台删除证书。 注意事项 证书删除的前提是未绑定域名,因此在删除证书前,需要先解除证书与域名的绑定关系。 操作步骤 1. 登录客户控制台。 2. 在【证书管理】【证书列表】页面,选定目标证书,确保要删除的证书已无域名适用,然后在操作列单击【删除】。 3. 控制台会弹窗,客户进行二次确认后,单击【确认】即可删除。 注意 删除证书前,请确保证书未绑定任何域名,否则将无法删除。 配置界面 要删除的证书如有域名仍在使用,将无法删除,会弹出如下的确认弹窗,点击【确认】将关闭弹窗。如需继续删除证书,必须先使所有绑定该证书的域名取消证书配置。 要删除的证书如果无域名使用,将弹出如下的弹窗,点击【确认】后即可删除证书。
        来自:
        帮助文档
        全站加速
        用户指南
        证书管理
        删除证书
      • 删除租户
        本章节主要介绍翼MapReduce的删除租户操作。 操作场景 根据业务需求,对于当前不再使用的租户,管理员可以通过FusionInsight Manager删除租户,释放租户占用的资源。 前提条件 已添加租户。 检查待删除的租户是否存在子租户,如果存在,需要先删除全部子租户,否则无法删除当前租户。 待删除租户的角色,不能与任何一个用户或者用户组存在关联关系。 操作步骤 1. 登录FusionInsight Manager,单击“租户资源”。 2. 在左侧租户列表,选择待删除的租户,单击。 说明 根据业务需求,需要保留租户已有的数据时请同时勾选“保留该租户的数据。”,否则将自动删除租户对应的存储空间。 如果使用不属于supergroup组的用户执行删除租户操作,并且不保留租户数据,需要使用属于supergroup组的用户登录HDFS客户端,手动清理租户对应的存储空间,以免数据残留。 3. 单击“确定”,删除租户。 保存配置需要等待一段时间,租户成功删除。租户对应的角色、存储空间将删除。 说明 租户删除后,Yarn中对应的租户任务队列不会被删除。同时Yarn角色管理中,此租户任务队列不再显示。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理租户
        删除租户
      • Kerberos使用
        本章节主要介绍操作类问题中有关Kerberos使用的问题。 已创建的MRS集群如何修改Kerberos认证的开启状态? MRS服务暂不支持集群创建完成后手动开启和关闭Kerberos服务。 如需更换Kerberos认证状态,建议重新创建MRS集群,然后进行数据迁移。 Kerberos认证服务的端口有哪些? Kerberos认证服务的常用端口有21730(TCP)、21731(TCP/UDP)、21732(TCP/UDP)。 如何避免Kerberos认证过期? 对于JAVA应用 在连接HBase、HDFS或者其他大数据组件前,先调用loginUserFromKeytab()创建UGI,然后启动一个定时线程进行检查是否过期并在过期前重新登录。 private static void startCheckKeytabTgtAndReloginJob() { //10分钟循环,达到距离到期时间一定范围就会更新凭证 ThreadPool.updateConfigThread.scheduleWithFixedDelay(() > { try { UserGroupInformation.getLoginUser().checkTGTAndReloginFromKeytab(); logger.warn("get tgt:{}", UserGroupInformation.getLoginUser().getTGT()); logger.warn("Check Kerberos Tgt And Relogin From Keytab Finish."); } catch (IOException e) { logger.error("Check Kerberos Tgt And Relogin From Keytab Error", e); } }, 0, 10, TimeUnit.MINUTES); logger.warn("Start Check Keytab TGT And Relogin Job Success."); } 对于Shell客户端方式执行的任务 1.先执行kinit命令认证用户。 2.通过操作系统定时任务或者其他定时任务方式定时执行kinit命令认证用户。 3.提交作业执行大数据任务。 对于Spark作业 通过sparkshell、sparksubmit、sparksql方式提交作业,可以直接在命令行中指定Keytab和Principal以获取认证,定期更新登录凭证和授权tokens,避免认证过期。 例如: sparkshell principal spark2x/hadoop. @ keytab ${BIGDATAHOME}/FusionInsightSpark2xXXX/install/FusionInsightSpark2x2.4.5/keytab/spark2x/SparkResource/spark2x.keytab master yarn
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        Kerberos使用
      • 判断语句
        本页介绍天翼云TeleDB数据库存储过程开发的判断语句。 IF...THEN...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pif() AS $$ BEGIN IF random()>0.5 THEN RAISE NOTICE '随机数大于0.5'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pif(); NOTICE: 随机数大于0.5 CALL teledb ..THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelse() AS $$ BEGIN IF random()>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSE RAISE NOTICE '随机数小于或等于0.99'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelse(); NOTICE: 随机数小于或等于0.99 CALL teledb IF...THEN...ELSIF...THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelsif() AS $$ DECLARE vfloat8 float8 : random(); BEGIN IF vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSIF vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; ELSIF vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelsif(); NOTICE: 随机数大于0.50 CALL CASE 语句 plaintext teledb CREATE OR REPLACE PROCEDURE pcase() AS $$ DECLARE vfloat8 float8 : random(); BEGIN CASE WHEN vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; WHEN vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; WHEN vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END CASE; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        存储过程开发
        控制结构
        判断语句
      • 判断语句
        本页介绍天翼云TeleDB数据库存储过程开发的判断语句。 IF...THEN...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pif() AS $$ BEGIN IF random()>0.5 THEN RAISE NOTICE '随机数大于0.5'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pif(); NOTICE: 随机数大于0.5 CALL teledb ..THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelse() AS $$ BEGIN IF random()>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSE RAISE NOTICE '随机数小于或等于0.99'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelse(); NOTICE: 随机数小于或等于0.99 CALL teledb IF...THEN...ELSIF...THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelsif() AS $$ DECLARE vfloat8 float8 : random(); BEGIN IF vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSIF vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; ELSIF vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelsif(); NOTICE: 随机数大于0.50 CALL CASE 语句 plaintext teledb CREATE OR REPLACE PROCEDURE pcase() AS $$ DECLARE vfloat8 float8 : random(); BEGIN CASE WHEN vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; WHEN vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; WHEN vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END CASE; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        存储过程开发
        控制结构
        判断语句
      • 触发器函数
        本页介绍天翼云TeleDB数据库PL/pgsql的触发器函数。 INSERT事件触发器函数 函数功能实现字段值ttrigger.nc值重写。 plaintext teledb CREATE TABLE ttrigger teledb ( teledb( id integer NOT NULL, teledb( nc text NOT NULL teledb( ); CREATE TABLE teledb CREATE OR REPLACE FUNCTION ttriggerinserttriggerfunc() RETURNS trigger AS teledb $$ teledb$ BEGIN teledb$ IF NEW.nc '' THEN teledb$ NEW.nc 'teledbpg' random()::text; teledb$ END IF; teledb$ RETURN NEW; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb CREATE TRIGGER ttriggerinserttrigger BEFORE INSERT ON ttrigger FOR EACH ROW EXECUTE PROCEDURE ttriggerinserttriggerfunc(); CREATE TRIGGER teledb INSERT INTO ttrigger values(1,''); INSERT 0 1 teledb SELECT FROM ttrigger ; id nc + 1 teledbpg0.426093454472721 (1 row) 注意使用BEFORE,不能使用AFTER,否则重写失效。 UPDATE 事件触发器函数 不准许更新ttrigger.nc字段值为teledbpg。 plaintext teledb CREATE OR REPLACE FUNCTION ttriggerupdatetriggerfunc() RETURNS trigger AS teledb $$ teledb$ BEGIN teledb$ 不准许ttrigger.nc值为 teledbpg teledb$ IF NEW.nc 'teledbpg' THEN teledb$ NEW.nc OLD.nc ; teledb$ END IF; teledb$ RETURN NEW; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb CREATE TRIGGER ttriggerupdatetrigger BEFORE UPDATE ON ttrigger FOR EACH ROW EXECUTE PROCEDURE ttriggerupdatetriggerfunc(); CREATE TRIGGER teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        PL:pgsql开发
        触发器函数
      • 判断语句
        本页介绍天翼云TeleDB数据库存储过程开发的判断语句。 IF...THEN...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pif() AS $$ BEGIN IF random()>0.5 THEN RAISE NOTICE '随机数大于0.5'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pif(); NOTICE: 随机数大于0.5 CALL teledb ..THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelse() AS $$ BEGIN IF random()>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSE RAISE NOTICE '随机数小于或等于0.99'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelse(); NOTICE: 随机数小于或等于0.99 CALL teledb IF...THEN...ELSIF...THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelsif() AS $$ DECLARE vfloat8 float8 : random(); BEGIN IF vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSIF vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; ELSIF vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelsif(); NOTICE: 随机数大于0.50 CALL CASE 语句 plaintext teledb CREATE OR REPLACE PROCEDURE pcase() AS $$ DECLARE vfloat8 float8 : random(); BEGIN CASE WHEN vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; WHEN vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; WHEN vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END CASE; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        存储过程开发
        控制结构
        判断语句
      • 判断语句
        本页介绍天翼云TeleDB数据库存储过程开发的判断语句。 IF...THEN...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pif() AS $$ BEGIN IF random()>0.5 THEN RAISE NOTICE '随机数大于0.5'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pif(); NOTICE: 随机数大于0.5 CALL teledb ..THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelse() AS $$ BEGIN IF random()>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSE RAISE NOTICE '随机数小于或等于0.99'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelse(); NOTICE: 随机数小于或等于0.99 CALL teledb IF...THEN...ELSIF...THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelsif() AS $$ DECLARE vfloat8 float8 : random(); BEGIN IF vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSIF vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; ELSIF vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelsif(); NOTICE: 随机数大于0.50 CALL CASE 语句 plaintext teledb CREATE OR REPLACE PROCEDURE pcase() AS $$ DECLARE vfloat8 float8 : random(); BEGIN CASE WHEN vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; WHEN vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; WHEN vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END CASE; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        存储过程开发
        控制结构
        判断语句
      • 触发器函数
        本页介绍天翼云TeleDB数据库PL/pgsql的触发器函数。 INSERT事件触发器函数 函数功能实现字段值ttrigger.nc值重写。 plaintext teledb CREATE TABLE ttrigger teledb ( teledb( id integer NOT NULL, teledb( nc text NOT NULL teledb( ); CREATE TABLE teledb CREATE OR REPLACE FUNCTION ttriggerinserttriggerfunc() RETURNS trigger AS teledb $$ teledb$ BEGIN teledb$ IF NEW.nc '' THEN teledb$ NEW.nc 'teledbpg' random()::text; teledb$ END IF; teledb$ RETURN NEW; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb CREATE TRIGGER ttriggerinserttrigger BEFORE INSERT ON ttrigger FOR EACH ROW EXECUTE PROCEDURE ttriggerinserttriggerfunc(); CREATE TRIGGER teledb INSERT INTO ttrigger values(1,''); INSERT 0 1 teledb SELECT FROM ttrigger ; id nc + 1 teledbpg0.426093454472721 (1 row) 注意使用BEFORE,不能使用AFTER,否则重写失效。 UPDATE 事件触发器函数 不准许更新ttrigger.nc字段值为teledbpg。 plaintext teledb CREATE OR REPLACE FUNCTION ttriggerupdatetriggerfunc() RETURNS trigger AS teledb $$ teledb$ BEGIN teledb$ 不准许ttrigger.nc值为 teledbpg teledb$ IF NEW.nc 'teledbpg' THEN teledb$ NEW.nc OLD.nc ; teledb$ END IF; teledb$ RETURN NEW; teledb$ END; teledb$ $$ teledb LANGUAGE plpgsql; CREATE FUNCTION teledb CREATE TRIGGER ttriggerupdatetrigger BEFORE UPDATE ON ttrigger FOR EACH ROW EXECUTE PROCEDURE ttriggerupdatetriggerfunc(); CREATE TRIGGER teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        PL:pgsql开发
        触发器函数
      • 判断语句
        本页介绍天翼云TeleDB数据库存储过程开发的判断语句。 IF...THEN...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pif() AS $$ BEGIN IF random()>0.5 THEN RAISE NOTICE '随机数大于0.5'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pif(); NOTICE: 随机数大于0.5 CALL teledb ..THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelse() AS $$ BEGIN IF random()>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSE RAISE NOTICE '随机数小于或等于0.99'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelse(); NOTICE: 随机数小于或等于0.99 CALL teledb IF...THEN...ELSIF...THEN...ELSE...END IF plaintext teledb CREATE OR REPLACE PROCEDURE pifelsif() AS $$ DECLARE vfloat8 float8 : random(); BEGIN IF vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; ELSIF vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; ELSIF vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END IF; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pifelsif(); NOTICE: 随机数大于0.50 CALL CASE 语句 plaintext teledb CREATE OR REPLACE PROCEDURE pcase() AS $$ DECLARE vfloat8 float8 : random(); BEGIN CASE WHEN vfloat8>0.99 THEN RAISE NOTICE '随机数大于0.99'; WHEN vfloat8>0.5 THEN RAISE NOTICE '随机数大于0.50'; WHEN vfloat8>0.25 THEN RAISE NOTICE '随机数大于0.25'; ELSE RAISE NOTICE '随机数小于或等于0.25'; END CASE; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        存储过程开发
        控制结构
        判断语句
      • GetUser
        本节主要介绍GetUser。 此操作用来获取IAM用户信息。 请求参数 名称 描述 是否必须 ::: Action GetUser。 是 Version 请求版本。 取值 :20100508。默认值为20100508。 否 UserName 查询用户的用户名。 类型 :字符串 取值 :1~64个字符组成,字符只能包含字母、数字或特殊字符,字母不区分大小写,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 否 响应结果 名称 描述 :: Arn IAM用户的资源名称。 UserName IAM用户名。 UserId IAM用户ID。 CreateDate 创建IAM用户的时间,采用ISO 8601日期时间格式。 PasswordLastUsed 上次使用用户密码登录OOS网站,采用ISO 8601日期时间格式。 说明 如果从未使用密码登录,不返回此字段。 如果用户当前没有密码,但过去有密码,则此字段包含最近使用密码的时间。 IPLastUsed 最近一次登录控制台的IP。 Tags.member.Key 标签键。 Tags.member.Value 标签值。 请求示例 获取IAM用户信息。 POST / HTTP/1.1 Host:ooscniam.ctyunapi.cn xamzcontentsha256: UNSIGNEDPAYLOAD Authorization: SignatureValue XAmzDate: 20190131T020935Z ContentType: application/octetstream ActionGetUser&Version20100508 响应示例 HTTP/1.1 200 OK xamzrequestid:c8ea4d156d0f44aa ContentType:text/xml;charsetUTF8 ContentLength:638 Date:Thu, 31 Jan 2019 02:09:35 GMT Server: CTYUN 20190107T05:57:35Z testuser arn:ctyun:iam::10rc2arpn6306:user/testuser dd3cf79eda454f04871a87386792914f 10.1.1.1 testvalue testtag 20190107T05:53:20Z c8ea4d156d0f44aa
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        访问控制(IAM)
        用户管理接口
        GetUser
      • Node.js Redis客户端
        客户端服务器为centos(redhat系列) 步骤 1 查看并获取待连接Redis实例的IP地址和端口。 具体步骤请参见查看实例信息。 步骤 2 登录弹性云主机。 步骤 3 安装Node.js。 yum install nodejs 如果以上命令安装不了,备选方式如下: wget nocheckcertificate tar xvf nodev0.12.4.tar.gz cd nodev0.12.4 ./configure make make install 说明 安装完成后,可执行node v查看Node.js的版本号,确认Node.js已安装成功。 安装完成后,可执行node v查看Node.js的版本号,确认Node.js已安装成功。 步骤 4 安装js包管理工具npm。 yum install npm 步骤 5 安装Node.js redis客户端ioredis。 npm install ioredis 步骤 6 编辑连接Redis实例的示例脚本。 编辑连接示例脚本ioredisdemo.js。示例脚本中增加以下内容,包括连接以及数据读取。 var Redis require('ioredis'); var redis new Redis({ port: 6379, // Redis port host: '192.168.0.196', // Redis host family: 4, // 4 (IPv4) or 6 (IPv6) password: '', db: 0 }); redis.set('foo', 'bar'); redis.get('foo', function (err, result) { console.log(result); }); // Or using a promise if the last argument isn't a function redis.get('foo').then(function (result) { console.log(result); }); // Arguments to commands are flattened, so the following are the same: redis.sadd('set', 1, 3, 5, 7); redis.sadd('set', [1, 3, 5, 7]); // All arguments are passed directly to the redis server: redis.set('key', 100, 'EX', 10); 其中,host 为Redis实例的IP地址,port为Redis实例的端口。IP地址和端口获取见步骤1,请按实际情况修改后执行。 为创建Redis实例时自定义的密码,请按实际情况修改后执行。 步骤 7 运行示例脚本,连接Redis实例。 node ioredisdemo.js
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Node.js Redis客户端
      • 连通VPC子网网络的对等连接配置示例
        表对等连接关系说明一个中心VPC与两个VPC的特定子网对等(IPv4) VPC对等关系 对等连接名称 本端VPC 对端VPC VPCA和VPCB的子网SubnetB01对等 PeeringAB VPCA VPCB VPCA和VPCC的子网SubnetC02对等 PeeringAC VPCA VPCC 对等连接创建完成后,您需要在本端和对端VPC路由表中,添加以下路由: 表VPC路由表配置说明一个中心VPC与两个VPC的特定子网对等(IPv4) 路由表 目的地址 下一跳 路由类型 路由说明 rtbVPCA 172.16.0.0/24 Local 系统路由 Local路由是系统自动添加的,用于VPC内部通信。 rtbVPCA 10.0.0.0/24 (SubnetB01) PeeringAB 自定义 在VPCA的路由表中,添加目的地址为SubnetB01的网段,下一跳指向PeeringAB的路由。 rtbVPCA 10.0.1.0/24 (SubnetC02) PeeringAC 自定义 在VPCA的路由表中,添加目的地址为SubnetC02的网段,下一跳指向PeeringAC的路由。 rtbVPCB 10.0.0.0/24 Local 系统路由 Local路由是系统自动添加的,用于VPC内部通信。 rtbVPCB 10.0.1.0/24 Local 系统路由 Local路由是系统自动添加的,用于VPC内部通信。 rtbVPCB 172.16.0.0/16 (VPCA) PeeringAB 自定义 在VPCB的路由表中,添加目的地址为VPCA的网段,下一跳指向PeeringAB的路由。 rtbVPCC 10.0.0.0/24 Local 系统路由 Local路由是系统自动添加的,用于VPC内部通信。 rtbVPCC 10.0.1.0/24 Local 系统路由 Local路由是系统自动添加的,用于VPC内部通信。 rtbVPCC 172.16.0.0/16 (VPCA) PeeringAC 自定义 在VPCC的路由表中,添加目的地址为VPCA的网段,下一跳指向PeeringAC的路由。
        来自:
      • 1
      • ...
      • 185
      • 186
      • 187
      • 188
      • 189
      • ...
      • 380
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      应用托管

      科研助手

      推荐文档

      修改云安备用户信息

      控制中心

      发票

      应用场景

      【2019】633号关于调整非经营性互联网信息服务备案编号的通知

      修改数据库端口

      代金券使用后是否可以退换?

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号