活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分析型数据库PostgreSql_相关内容
      • 团队管理
        本页介绍天翼云TeleDB数据库团队管理相关操作。 注意 团队管理模块只有超级管理员和团队管理员才能进入。 团队作为数据管理模块中一组用户和数据库资源的集合,团队内成员均可访问团队内的实例,在查询窗口、数据导入和导出等功能中,可搜索并选中团队内的所有数据库进行操作。 团队成员有包括团队管理员和普通成员两种团队角色,其中: 团队管理员:每个团队至少有一个团队管理员。团队管理员可以添加和删除团队内的成员和实例。 普通成员:团队内的普通成员可访问团队内所有实例,查看团队内其他成员信息。 团队管理功能包含全部团队列表、团队成员管理和团队实例管理三部分。 全部团队列表:只有超级管理员可访问。通过此界面,超级管理员可查看所有团队信息、添加团队和删除团队,同时也可以进入特定团队去管理该团队的成员和实例。 团队成员管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有成员信息,添加和删除团队成员,变更成员的团队角色。 团队实例管理:超级管理员或者团队的团队管理员可访问。通过此界面,用户可查看团队内的所有实例信息,添加实例至团队,且可通过快速跳转到元数据管理界面编辑和移除实例。实例添加至团队后,团队内所有成员均可访问团队内的实例。 1. 查看所有团队 1. 以超级管理员身份登录数据管理模块。 2. 在左侧菜单栏依次选择安全中心 > 团队管理。 3. 界面展示当前组织下,所有团队列表。 2. 添加团队 1. 在全部团队列表页中单击新建团队 ,系统显示新建团队弹窗。 2. 输入团队名称 ,选择一个或多个用户作为团队的团队管理员。 3. 单击确定完成团队的添加。 3. 修改团队 1. 在全部团队列表页中单击要修改团队 右侧的管理按钮,系统显示团队修改弹窗。 2. 输入新的团队名称,调整团队管理员。 3. 单击确定完成团队的修改操作。 4. 删除团队 1. 在全部团队列表页中单击要删除团队右侧的删除 按钮,系统显示团队删除确认 弹窗。 2. 单击确定完成团队的删除操作。 5. 添加团队成员 1. 在团队成员管理页中,团队下拉列表选中要添加成员的团队,系统显示该团队下所有成员。 2. 单击添加用户 至团队,系统显示添加弹窗。 3. 在团队角色下拉列表中选择要添加的团队角色。 4. 在用户下拉列表中,搜索要添加的用户后进行选中。可以多次搜索和选中多个用户。 5. 单击确定完成团队成员的添加操作。 6. 修改成员角色 1. 在团队成员管理页中,团队下拉列表选中要修改成员角色的团队,系统显示该团队下所有成员。 2. 单击要修改角色的成员的团队内角色下拉列表,选择新的团队角色。 3. 系统自动保存成员的新角色。 7. 删除团队成员 1. 在团队成员管理页中,团队下拉列表选中要删除成员的团队,系统显示该团队下所有成员。 2. 单击某个成员右侧的从团队移除按钮,系统显示团队移除确认弹窗。 3. 单击确定完成团队成员的删除操作。 8. 录入实例到团队 1. 在团队实例管理页中,团队下拉列表选中要录入实例的团队,系统显示该团队下所有实例。 2. 单击添加实例至团队,系统显示添加实例弹窗。 3. 在实例弹窗中,实例已默认绑定到当前团队,填写其他信息进行实例的录入。具体如何填写,参见数据资产 > 元数据管理 中关于各种类型实例录入的说明。 4. 单击确定完成团队实例的录入操作。 9. 删除团队中的实例 1. 在团队实例管理页中,团队下拉列表选中要删除实例的团队,系统显示该团队下所有实例。 2. 单击要删除实例右侧实例元数据 按钮,跳转到实例元数据页。 3. 在实例元数据中,列表默认显示要移除的实例,单击右侧更多 > 删除实例 ,系统显示实例删除确认弹窗。 4. 单击确定完成团队实例的删除操作。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        团队管理
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 退订数据迁移实例
        本页重点介绍通过天翼云官网门户退订数据迁移实例的过程。 操作步骤 1、登入天翼云门户。 登录天翼云 2、进入数据传输服务DTS控制台。 在天翼云门户首页顶部菜单栏,点击“控制中心”进入【控制中心】页面。 在【控制中心】页面顶部的资源池下拉列表框中选择相应资源池(目前仅支持上海36/华东1/西南1 ),找到页面中的“数据库”服务列表,选择“数据传输服务DTS”,进入DTS控制台。 在控制台左侧菜单栏点击“数据迁移”,进入【数据迁移】实例列表页面。 3、在实例列表,选择目标实例,点击“更多”>“退订”。 在【数据迁移】实例列表页面中,点击需要退订的迁移实例的操作列中的“更多”下拉菜单,点击“退订”,跳转到【退订】页面。 注意 当实例状态为“开通中”和“续订中”时,退订菜单不能点击。 当实例为其他状态时“退订”菜单可点击。 4、点击确认,完成退订。 在【退订】页面,点击“确认”按钮,页面提示退订中。 过程需要消耗一段时间,退订成功后,原有实例将被“冻结”,退订后底层数据保留固定时间(以天为单位)。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        订购、续订、退订
        退订数据迁移实例
      • 概览
        本文主要介绍CMDB管理概述。 应用性能监控默认内置了一个资源配置管理信息CMDB,您可用于组织应用结构信息以及相关配置信息,主要概念如下: 项目:用于组织和管理应用,在项目下还可以通过应用分组精细化管理应用。 环境: 即我们常说的开发环境、生产环境,是用于应用部署和运行的计算、网络、中间件等资源的集合。 例如可以把同VPC下的云容器引擎、注册中心、数据库等实例组成一个环境。 分组:在一个项目下面可以创建多个分组,主要起文件夹和管理的功能。 应用:应用是组成项目的某个业务实现,可独立部署运行,可以简单理解为一份代码程序对应一个应用,例如电商项目里的订单应用。一个应用可以部署到多个环境。 下图是一个CMDB结构示例: 在应用监控指标浏览页面,您可通过该组织结构进行更方便快捷的指标管理。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        CMDB管理
        概览
      • 云主机网络延迟(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络延迟动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察应用,确认依赖网络通信的模块(如调用外部API、数据库查询)是否出现响应缓慢或请求超时。 检查应用日志,确认是否有因超时而触发的重试、熔断或降级逻辑。
        来自:
      • 计费项
        计费项 计费项说明 适用的计费模式 计费公式 实例规格 计费项:CPU、内存、实例类型、数据库引擎版本,不同规格的实例类型提供不同的计算、存储、高可用能力。 包年/包月、按需计费 实例规格单价 x 购买时长 存储空间 计费项:存储空间,按统一标准进行计费。 包年/包月、按需计费 存储空间单价 x 存储容量 x 购买时长 备份空间 计费项:备份空间,按统一标准进行计费。 对象存储:按需计费 云硬盘:包年/包月、按需计费 备份空间单价 x 备份收费容量 x 计费时长 说明 备份收费容量:对象存储的备份空间,开通时,赠送与存储空间同等大小的免费额度,超过免费额度外的备份将进行收费。 跨区域备份(可选) 计费项:跨区域备份存储空间,按统一标准进行计费。 按需计费 存储空间单价 x 存储容量 x 购买时长 对象存储流量 计费项:公网流出流量、跨区域备份流量,按统一标准进行计费。 按需计费 对象存储流量单价 x 对象存储流量的收费流量
        来自:
        帮助文档
        关系数据库SQL Server版
        计费说明
        计费项
      • 约束与限制
        本章节主要介绍约束与规范。 在使用翼MapReduce前,您需要认真阅读并了解以下使用规则。 1. 集群必须创建在VPC子网内。 2. 创建集群时,从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组,否则可能导致集群异常,影响集群的使用。 1. 集群使用的安全组请勿随意放开权限,避免被恶意访问。 2. 创建安全组时,出、入方向规则中的端口需要放开,授权策略不能选择“拒绝”,否则会导致不能部署集群和拉起服务。 3. 部署Hive/Ranger/Amoro/Hue/DolphinScheduler组件时,元数据配置的数据库与集群需要在同一个VPC下,并通过内网地址进行连接。 4. 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间,以防止存储空间不足影响节点正常运行。 5. 集群节点仅用于运行翼MapReduce集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        约束与限制
      • 如何排查404/502/504错误?
        原因二 原因:安全组未将WAF回源IP设置为白名单或未放开端口。 解决办法: 将WAF的回源IP在网站所在的ECS的安全组里设置为白名单。 原因三 原因:源站有防火墙设备,且该防火墙设备拦截了WAF的回源IP。 解决办法: 将WAF的回源IP在网站所在的ECS的安全组里设置为白名单或者卸载除WAF以外其他防火墙软件。 原因四 原因:连接超时、read超时。 解决办法: 数据库查询时间过长: 调整优化业务,尽量缩短查询时长,优化用户体验。 修改请求的交互方式,让这种长连接在 60s 内能有一些数据交互(如,ack报文、心跳包、keepalive等任何可以维持会话的报文)。 大文件上传时间过长: 调整优化业务,尽量缩短文件上传时间。 建议使用FTP方式上传文件。 直接通过IP上传,或者使用没有被WAF防护的域名上传。 使用WAF的独享模式,独享WAF回源超时默认为180s。 源站故障类:检查源站业务是否正常。 原因五 原因:源站超带宽。 解决办法:扩展源站服务器带宽。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        业务中断排查
        如何排查404/502/504错误?
      • 计费模式
        计费项目 计费子项 计费模式 计费说明 数据治理中心 DataArts Studio(基础包) 初级版、企业版 包年包月 数据治理中心基础包的计费详情,请参见数据治理中心 DataArts Studio增量包批量数据迁移CDM(可选) 批量数据迁移增量包 按需计费 计费详情请参见数据治理中心批量数据迁移增量包
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        计费说明
        计费模式
      • 应用场景
        本文为您介绍密钥管理服务的应用场景。 密钥管理服务KMS(Key Management Service)具有广泛的应用场景。 场景介绍 应用场景 开发者身份 受保护数据 保护目的 解决方案 敏感信息加密保护 网站或应用开发 证书、密钥 网站和应用使用HTTPS证书来保证通信协议的安全性,同时使用密钥对文件进行数据签名。这些安全解决方案非常依赖证书和密钥本身的安全性。 敏感数据在线加密 敏感信息加密保护 后台服务开发 密码、登录密钥、配置信息 数据库密码、登录密钥以及后台服务的配置信息可能会被黑客利用,明文存储在硬盘上非常危险。 敏感数据在线加密 重要文件加密保护 内容、社交网站或应用 用户原创内容、有价值的知识产权 企业依赖核心的UGC内容或独特的知识产权来建立行业竞争优势,务必防范“拖库”事故的发生。 信封加密 重要文件加密保护 政府、金融机构 协议通信内容、重要文件和资料 政府和金融机构的通信和存储数据具有高价值性和高保密性,需要在建立业务系统时就充分考虑安全性和合规性。 [敏感数据在线加密](
        来自:
        帮助文档
        密钥管理
        产品介绍
        应用场景
      • 镜像市场供应商入驻及镜像管理
        本节介绍供应商入驻镜像市场的操作指南。 供应商入驻 您可通过申请注册成为镜像市场供应商,将您的自定义镜像发布到镜像市场,发布到镜像市场后的镜像可以供其他租户开通ECX虚拟机实例装机使用。 1. 登录ECX控制台。 2. 单击左侧【边缘虚拟机>镜像】导航栏。 3. 进入【镜像市场】,点击【注册供应商】。 4. 选择对应的镜像服务分类,如安全服务、数据库服务等。 5. 点击【确定】提交申请,联系ECX后台运营,提供账号、注册理由、资质证明等信息审核。 注意 仅实名认证过的企业账号支持注册成为供应商。 发布镜像市场镜像 1. 登录ECX控制台。 2. 单击左侧【边缘虚拟机>镜像】导航栏。 3. 进入【自定义镜像】,操作列点击【发布】。 4. 发布时允许配置是否在发布后将该镜像展示在租户控制台并允许用户在虚拟机装机时使用该镜像,默认配置展示,可取消勾选。 注意 仅可将未被共享的镜像发布到镜像市场。 发布到镜像市场中的镜像将不再允许删除、下载及共享给其他用户。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘虚拟机
        镜像
        镜像市场供应商入驻及镜像管理
      • Redis节点CPU高负载
        本章节介绍Redis节点CPU高负载故障演练。 背景介绍 Redis 是高性能内存数据库,当节点 CPU 被高计算量、大量连接或复杂命令占满时,会出现响应变慢、吞吐下降,甚至主备切换。本演练通过模拟 Redis 主/备节点的高 CPU 负载,验证业务在请求超时、重试等场景下的容错能力,并检查 Redis 实例的高可用切换机制。 基本原理 在节点启动自定义程序,空跑for循环来消耗CPU时间片。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择CPU高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 CPU占用率:指定CPU负载百分比(取值 0100)。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        数据库
        分布式缓存服务Redis版
        Redis节点CPU高负载
      • Redis节点CPU高负载(1)
        本章节介绍Redis节点CPU高负载故障演练。 背景介绍 Redis 是高性能内存数据库,当节点 CPU 被高计算量、大量连接或复杂命令占满时,会出现响应变慢、吞吐下降,甚至主备切换。本演练通过模拟 Redis 主/备节点的高 CPU 负载,验证业务在请求超时、重试等场景下的容错能力,并检查 Redis 实例的高可用切换机制。 基本原理 在节点启动自定义程序,空跑for循环来消耗CPU时间片。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择分布式缓存服务Redis版 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标Redis 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择分布式缓存服务Redis版。 添加实例 :单击添加实例 ,勾选上一步中添加的Redis实例。 添加故障动作 :单击立即添加 ,在列表中选择CPU高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 故障节点 :注入故障的目标节点(主节点或备节点)。 CPU占用率:指定CPU负载百分比(取值 0100)。
        来自:
      • 查看追踪事件
        本节介绍了如何查看云数据库GaussDB 的追踪事件。 操作场景 在您开通了云审计服务后,系统开始记录云服务资源的操作。云审计服务管理控制台保存最近7天的操作记录。 本节介绍如何在云审计服务管理控制台查看最近7天的操作记录。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击左侧导航树的“事件列表”,进入事件列表信息页面。 步骤 3 事件列表支持通过筛选来查询对应的操作事件。详细信息如下: 事件来源、资源类型和筛选类型:在下拉框中选择查询条件。其中筛选类型选择资源ID时,还需选择或者手动输入某个具体的资源ID。 操作用户:在下拉框中选择某一具体的操作用户。 事件级别:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 时间范围:可通过选择时间段查询操作事件。 步骤 4 选择查询条件后,单击“查询”。 步骤 5 在需要查看的记录左侧,单击展开该记录的详细信息。 步骤 6 在需要查看的记录右侧,单击“查看事件”,在弹出框中显示该操作事件结构的详细信息。 步骤 7 单击右侧的“导出”,将查询结果以CSV格式的文件导出,该CSV文件包含了云审计服务记录的七天以内的操作事件的所有信息。 关于事件结构的关键字段详解,请参见《云审计服务用户指南》的“事件结构”和“事件样例”章节。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        CTS审计
        查看追踪事件
      • 基于Java访问数据库
        本页介绍了使用如何使用Java访问文档数据库服务。 访问DataBase 当已经有一个初始化好的MongoClient后,通过如下方式来访问一个database,示例如下: MongoDatabase memberInfoDatabase mongoClient.getDatabase("MemberInfo"); 访问集合 当获取一个MongoDatabase实例后,可以通过如下命令来得到要获取的集合: MongoCollection coll memberInfoDatabase.getCollection("goldmember"); 显示的创建一个集合 也可以通过 createCollection()方法显示的创建一个集合,并在创建时候指定该集合的属性。 memberInfoDatabase.createCollection("testCollection", new CreateCollectionOptions().sizeInBytes(200000)); 插入数据 Document doc0 new Document("name", "万三") .append("age", 30) .append("sex", "male"); ​ Document doc1 new Document("name", "刘亚") .append("age", 42) .append("sex", "male"); ​ Document doc2 new Document("name", "王莹") .append("age", 22) .append("sex", "female"); ​ List documents new ArrayList<>(); documents.add(doc0); documents.add(doc1); documents.add(doc2); goldMemberCollection.insertMany(documents); 删除数据 goldMemberCollection.deleteOne(eq("name", "刘亚")); 删除表 MongoCollection collection memberInfoDatabase.getCollection("test"); collection.drop(); 读数据 MongoCursor cursor (MongoCursor ) goldMemberCollection.find(); while (cursor.hasNext()) { Object result cursor.next(); } cursor.close(); 带过滤条件的查询 MongoCursor cursorCondition (MongoCursor )goldMemberCollection.find( new Document("name","zhangsan") .append("age", 5)); while (cursorCondition.hasNext()) { Object result cursorCondition.next(); } cursorCondition.close(); 运行命令 执行buildInfo和collStats: MongoClient mongoClientShell (MongoClient) MongoClients.create(); MongoDatabase database mongoClientShell.getDatabase("MemberInfo"); ​ Document buildInfoResults database.runCommand(new Document("buildInfo", 1)); System.out.println(buildInfoResults.toJson()); ​ Document collStatsResults database.runCommand(new Document("collStats", "restaurants")); System.out.println(collStatsResults.toJson());
        来自:
        帮助文档
        文档数据库服务
        开发指南
        应用程序开发
        基于Java开发
        基于Java访问数据库
      • 【下线】2025年5月30日起文档数据库服务关闭对象存储备份类型
        原因 为了给您提供更好更完善的备份服务,备份类型为对象存储的架构需要进行升级,文档数据库服务将于2025年5月30日起,关闭部分I类资源池订购页备份类型为对象存储的选项。 影响 对象存储仅支持如下资源池:长沙42、华北2、西南1、华东1、青岛20、上海36、西安7、武汉41。 影响实例: 2025年5月30日之后除上述之外的资源池新订购的实例,将无法选择对象存储备份类型,可选择云硬盘备份类型。 2025年5月30日之前订购的存量实例,将可以继续使用对象存储实例相关功能。 影响功能: 由于上述之外的资源池无法新订购对象存储实例,则2025年5月30日之后订购的实例将无法享受依赖对象存储相关功能,例如备份下载等功能。 存量实例依然可以使用对象存储类型实例的相关功能。 建议 建议客户在新订购实例时,选择云硬盘的备份类型,备份的磁盘类型支持选择普通IO,高IO,超高IO(具体以界面显示为准)。 建议用户可以根据自己的业务数据量,将备份盘空间适当扩大,当然,您也可以在实例开通完毕后,在控制台界面,通过备份空间扩容功能来适时扩大空间以满足备份需求。
        来自:
        帮助文档
        文档数据库服务
        产品公告
        【下线】2025年5月30日起文档数据库服务关闭对象存储备份类型
      • 变量使用实例
        本页介绍天翼云TeleDB数据库存储过程开发的变量使用实例。 变量声明语法 plaintext name [ CONSTANT ] type [ COLLATE collationname ] [ NOT NULL ] [ { DEFAULT : } expression ]; 如果给定DEFAULT子句,它会指定进入该块时分配给该变量的初始值。如果没有给出 DEFAULT子句,则该变量被初始化为SQL空值。 CONSTANT选项阻止该变量在初始化之后被赋值,这样它的值在块的持续期内保持不变。 COLLATE选项指定用于该变量的一个排序规则。如果指定了NOT NULL,对该变量赋值为空值会导致一个运行时错误。所有被声明为NOT NULL的变量必须被指定一个非空默认值。等号()可以被用来代替 PL/SQL兼容的:。 定义一个普通变量 plaintext teledb CREATE OR REPLACE PROCEDURE ordinaryvar() AS $$ DECLARE 所有变量的声明都要放在这里,建议变量以v开头,参数以a开头 vint integer : 1; vtext text; BEGIN vtext 'teledbpg'; RAISE NOTICE 'vint %',vint; RAISE NOTICE 'vtext %',vtext; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL ordinaryvar(); NOTICE: vint 1 NOTICE: vtext teledbpg CALL teledb 定义CONSTANT 变量 plaintext teledb CREATE OR REPLACE PROCEDURE pconstant() AS $$ DECLARE vint CONSTANT integer : 1; BEGIN RAISE NOTICE 'vint %',vint; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pconstant(); NOTICE: vint 1 CALL
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        存储过程开发
        变量使用
        变量使用实例
      • grouping sets/rollup/cube用法
        本页介绍天翼云TeleDB数据库的grouping sets/rollup/cube用法。 group by用法 销售明细表。 plaintext create table tgrouping(id int,dep varchar(20),product varchar(20),num int); insert into tgrouping values(1,'业务1部','手机',90); insert into tgrouping values(2,'业务1部','电脑',80); insert into tgrouping values(3,'业务1部','手机',70); insert into tgrouping values(4,'业务2部','电脑',60); insert into tgrouping values(5,'业务2部','手机',50); insert into tgrouping values(6,'业务2部','电脑',60); insert into tgrouping values(7,'业务3部','手机',70); insert into tgrouping values(8,'业务3部','电脑',80); insert into tgrouping values(9,'业务3部','手机',90); 按dep、product 两级汇总分数。 plaintext teledb select dep,product,sum(num) from tgrouping group by dep,product order by dep,product; dep product sum ++ 业务1部 电脑 80 业务1部 手机 160 业务2部 电脑 120 业务2部 手机 50 业务3部 电脑 80 业务3部 手机 160 使用grouping sets grouping sets的每个子列表可以指定零个或多个列或表达式,并且与其直接在 GROUP BY 子句中的解释方式相同。 一个空的分组集合意味着所有的行都被聚合到一个组中。 如按name、class 单级分别汇总,再计算一个总分。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        数据库基础开发
        DML操作
        grouping sets/rollup/cube用法
      • 报表订阅
        此章节为您介绍数据库审计如何订阅报表。 报表订阅 1.在左侧菜单栏选择“报表中心 > 报表预览”进入“报表预览”页面,单击右上角的“订阅”。 2.在弹出的对话框中,编辑相关信息后,单击“保存”。配置项说明请参见下表。 配置项 说明 任务名称 设置任务名称。必须为中文字符、字母、数字、下划线“”、点“.”或短横线“”,长度不超过64字符。 收件人邮箱 报表发送的接收人邮箱,可以设置多个。 报表类型 指定要发送报表类型,可选择内置报表和自定义报表。 报表格式 指定报表发送格式,支持HTML、PDF、PNG和WORD四种格式,默认为“PDF”。 资产 指定要发送报表的资产,默认全部资产。 任务周期 选择任务周期(日报,周报,月报,年报),默认为“每天(日报)”。 发送时间 指定报表发送的时间,可选1~23整点。 时间范围 指定报表统计的时间范围,支持选择外送某一时间段的报表数据。(仅在任务周期选择“每天(日报)”时显示,只能选择连续的时间)。 说明 您也可以在左侧在菜单栏选择“报表中心 > 报表订阅”进入订阅任务页面,单击“添加”。进行报表订阅 查看订阅记录 左侧在菜单栏选择“报表中心 > 报表订阅”进入订阅任务页面,选择“订阅记录”页签查看历史订阅记录。 订阅记录是对订阅任务中将报表发送到指定邮箱的记录,主要记录报表的发送时间、收件人、发送结果等。
        来自:
        帮助文档
        数据库审计
        用户指南
        报表中心
        报表订阅
      • 使用LOAD DATA导入本地数据
        标准示例 前提条件: 服务端必须开启localinfile开关,在目标实例的基本信息页面,进入参数修改页面里将此参数修改为ON。 客户端必须开启localinfile开关,在my.cnf中配置localinfile或连接数据库使用 localinfile1 参数。 [mysql] localinfile 1. 将本地文件qq.txt中的数据导入test表中,qq.txt文件共有5行数据,列分隔符为',',行分隔符'n',内容如下: 1,a 2,b 3,c 4,d 5,"e" 2. 创建对应表test,sql如下: CREATE TABLE test ( id int NOT NULL, a varchar(4) NOT NULL, PRIMARY KEY (id) ); 3. 在客户端中执行LOAD DATA命令将qq.txt文件中的数据导入到test表中,设置字符集为 utf8,忽略数据源字段中的双引号。 mysql> LOAD DATA LOCAL INFILE '/data/qq.txt' IGNORE INTO TABLE test CHARACTER SET 'utf8' FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '"' LINES TERMINATED BY 'n'; Query OK, 5 rows affected, 1 warning (0.00 sec) Records: 5 Deleted: 0 Skipped: 0 Warnings: 1 mysql> select from test; ++ id a ++ 1 a 2 b 3 c 4 d 5 e ++ 5 rows in set (0.00 sec) 注意 数据导入阶段会在一定程度上影响TaurusDB实例性能,请选择在业务低峰时间导入。 建议不要同时发起多个LOAD DATA请求。多个LOAD DATA同时进行,数据高并发写入,表锁竞争以及系统IO抢占会影响总体效率,可能会出现SQL事务超时现象,导致LOAD DATA全部失败。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        数据库基本使用
        使用LOAD DATA导入本地数据
      • grouping sets/rollup/cube用法
        本页介绍天翼云TeleDB数据库的grouping sets/rollup/cube用法。 group by用法 销售明细表。 plaintext create table tgrouping(id int,dep varchar(20),product varchar(20),num int); insert into tgrouping values(1,'业务1部','手机',90); insert into tgrouping values(2,'业务1部','电脑',80); insert into tgrouping values(3,'业务1部','手机',70); insert into tgrouping values(4,'业务2部','电脑',60); insert into tgrouping values(5,'业务2部','手机',50); insert into tgrouping values(6,'业务2部','电脑',60); insert into tgrouping values(7,'业务3部','手机',70); insert into tgrouping values(8,'业务3部','电脑',80); insert into tgrouping values(9,'业务3部','手机',90); 按dep、product 两级汇总分数。 plaintext teledb select dep,product,sum(num) from tgrouping group by dep,product order by dep,product; dep product sum ++ 业务1部 电脑 80 业务1部 手机 160 业务2部 电脑 120 业务2部 手机 50 业务3部 电脑 80 业务3部 手机 160 使用grouping sets grouping sets的每个子列表可以指定零个或多个列或表达式,并且与其直接在 GROUP BY 子句中的解释方式相同。 一个空的分组集合意味着所有的行都被聚合到一个组中。 如按name、class 单级分别汇总,再计算一个总分。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        DML操作
        grouping sets/rollup/cube用法
      • grouping sets/rollup/cube用法
        本页介绍天翼云TeleDB数据库的grouping sets/rollup/cube用法。 group by用法 销售明细表 plaintext create table tgrouping(id int,dep varchar(20),product varchar(20),num int); insert into tgrouping values(1,'业务1部','手机',90); insert into tgrouping values(2,'业务1部','电脑',80); insert into tgrouping values(3,'业务1部','手机',70); insert into tgrouping values(4,'业务2部','电脑',60); insert into tgrouping values(5,'业务2部','手机',50); insert into tgrouping values(6,'业务2部','电脑',60); insert into tgrouping values(7,'业务3部','手机',70); insert into tgrouping values(8,'业务3部','电脑',80); insert into tgrouping values(9,'业务3部','手机',90); 按dep、product 两级汇总分数。 plaintext teledb select dep,product,sum(num) from tgrouping group by dep,product order by dep,product; dep product sum ++ 业务1部 电脑 80 业务1部 手机 160 业务2部 电脑 120 业务2部 手机 50 业务3部 电脑 80 业务3部 手机 160 使用grouping sets grouping sets的每个子列表可以指定零个或多个列或表达式,并且与其直接在 GROUP BY 子句中的解释方式相同。 一个空的分组集合意味着所有的行都被聚合到一个组中。 如按name、class 单级分别汇总,再计算一个总分。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        数据库基础开发
        DML操作
        grouping sets/rollup/cube用法
      • grouping sets/rollup/cube用法
        本页介绍天翼云TeleDB数据库的grouping sets/rollup/cube用法。 group by用法 销售明细表。 plaintext create table tgrouping(id int,dep varchar(20),product varchar(20),num int); insert into tgrouping values(1,'业务1部','手机',90); insert into tgrouping values(2,'业务1部','电脑',80); insert into tgrouping values(3,'业务1部','手机',70); insert into tgrouping values(4,'业务2部','电脑',60); insert into tgrouping values(5,'业务2部','手机',50); insert into tgrouping values(6,'业务2部','电脑',60); insert into tgrouping values(7,'业务3部','手机',70); insert into tgrouping values(8,'业务3部','电脑',80); insert into tgrouping values(9,'业务3部','手机',90); 按dep、product 两级汇总分数。 plaintext teledb select dep,product,sum(num) from tgrouping group by dep,product order by dep,product; dep product sum ++ 业务1部 电脑 80 业务1部 手机 160 业务2部 电脑 120 业务2部 手机 50 业务3部 电脑 80 业务3部 手机 160 使用grouping sets grouping sets的每个子列表可以指定零个或多个列或表达式,并且与其直接在 GROUP BY 子句中的解释方式相同。 一个空的分组集合意味着所有的行都被聚合到一个组中。 如按name、class 单级分别汇总,再计算一个总分。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        grouping sets/rollup/cube用法
      • grouping sets/rollup/cube用法
        本页介绍天翼云TeleDB数据库的grouping sets/rollup/cube用法。 group by用法 销售明细表。 plaintext create table tgrouping(id int,dep varchar(20),product varchar(20),num int); insert into tgrouping values(1,'业务1部','手机',90); insert into tgrouping values(2,'业务1部','电脑',80); insert into tgrouping values(3,'业务1部','手机',70); insert into tgrouping values(4,'业务2部','电脑',60); insert into tgrouping values(5,'业务2部','手机',50); insert into tgrouping values(6,'业务2部','电脑',60); insert into tgrouping values(7,'业务3部','手机',70); insert into tgrouping values(8,'业务3部','电脑',80); insert into tgrouping values(9,'业务3部','手机',90); 按dep、product 两级汇总分数。 plaintext teledb select dep,product,sum(num) from tgrouping group by dep,product order by dep,product; dep product sum ++ 业务1部 电脑 80 业务1部 手机 160 业务2部 电脑 120 业务2部 手机 50 业务3部 电脑 80 业务3部 手机 160 使用grouping sets grouping sets的每个子列表可以指定零个或多个列或表达式,并且与其直接在 GROUP BY 子句中的解释方式相同。 一个空的分组集合意味着所有的行都被聚合到一个组中。 如按name、class 单级分别汇总,再计算一个总分。 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        数据库基础开发
        DML操作
        grouping sets/rollup/cube用法
      • 创建数据密钥
        创建客户端CEK数据密钥,用来对数据库用户数据加解密。 plaintext CREACREATE COLUMN ENCRYPTION KEY columnencryptionkeyname WITH( CLIENTMASTERKEY clientmasterkeyname, ALGORITHM algorithmtype, ENCRYPTEDVALUE encryptedvalue ); 参数描述: columnencryptionkeyname:CEK数据密钥对象名,在同一命名空间中满足唯一性约束 CLIENTMASTERKEY:指定用于对当前CEK加密的CMK ALGORITHM:指定该CEK将用于何种加密算法,支持: AEADAES256CBCHMACSHA256:采用AES256 CBC模式对数据加密实现数据机密性,通过消息验证码(SHA256生成数据摘要)确保数据的完整性和身份校验。 AEADAES128CBCHMACSHA256:采用AES128 CBC模式对数据加密实现数据机密性,通过消息验证码(SHA256生成数据摘要)确保数据的完整性和身份校验。 SM4SM3:采用国密SM4 CBC模式对数据加密实现数据机密性,通过消息验证码(国密SM3生成数据摘要)确保数据的完整性和身份校验。 ENCRYPTEDVALUE(可选项):用户指定的密钥口令,如果不指定,则会自动生成密钥。密钥口令长度范围为[28, 256]个字符。28个字符派生出来的密钥安全强度满足AES128。如果采用用AES256,密钥口令的长度需要39个字符。如果不指定,则会自动生成256比特的密钥。
        来自:
      • 变量使用实例
        本页介绍天翼云TeleDB数据库存储过程开发的变量使用实例。 变量声明语法 name [ CONSTANT ] type [ COLLATE collationname ] [ NOT NULL ] [ { DEFAULT : } expression ]; 如果给定DEFAULT子句,它会指定进入该块时分配给该变量的初始值。如果没有给出 DEFAULT子句,则该变量被初始化为SQL空值。 CONSTANT选项阻止该变量在初始化之后被赋值,这样它的值在块的持续期内保持不变。 COLLATE选项指定用于该变量的一个排序规则。如果指定了NOT NULL,对该变量赋值为空值会导致一个运行时错误。所有被声明为NOT NULL的变量必须被指定一个非空默认值。等号()可以被用来代替 PL/SQL兼容的:。 定义一个普通变量 teledb CREATE OR REPLACE PROCEDURE ordinaryvar() AS $$ DECLARE 所有变量的声明都要放在这里,建议变量以v开头,参数以a开头 vint integer : 1; vtext text; BEGIN vtext 'teledbpg'; RAISE NOTICE 'vint %',vint; RAISE NOTICE 'vtext %',vtext; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL ordinaryvar(); NOTICE: vint 1 NOTICE: vtext teledbpg CALL teledb 定义CONSTANT 变量 teledb CREATE OR REPLACE PROCEDURE pconstant() AS $$ DECLARE vint CONSTANT integer : 1; BEGIN RAISE NOTICE 'vint %',vint; END; $$ LANGUAGE plpgsql; CREATE PROCEDURE teledb CALL pconstant(); NOTICE: vint 1 CALL
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        存储过程开发
        变量使用
        变量使用实例
      • 节点监控
        本页介绍天翼云TeleDB数据库节点监控。 操作场景 节点监控提供节点维度的监控指标信息。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击实例监控 ,选择节点监控页签。 2. 选择要监控的节点和查看要监控时间范围。 3. 您也可在右侧单击不同的指标进入对应的指标图表。 针对CN/DN节点包含以下监控指标: 指标 含义 CPU使用率 CPU使用率,百分比 内存使用大小 内存使用大小,单位MB 磁盘占用量 磁盘占用大小,单位MB 缓存命中率 百分比 连接数 请求连接个数 最小top10执行耗时 最小top10执行耗费时间,单位ms 最大top10执行耗时 最大top10执行耗费时间,单位ms 平均sql执行耗时 平均请求执行耗费时间,单位ms 总请求数 总共请求个数 读请求数 读请求个数 写请求数 写请求个数 其他请求数 其他请求个数 主备xlog同步差异 主备xlog同步差异 剩余xid数量 剩余xid个数 TPS TPS QPS QPS 表扫描次数 表扫描次数 每分钟索引扫描次数 每分钟索引扫描次数 由于GTM的 特殊性,GTM监控只针对主节点,且只支持监控指标如下: CPU使用率 内存使用大小 每秒获取gts次数 获取gts平均耗时 每分钟获取sequence的次数 获取sequence平均耗时
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        实例监控
        节点监控
      • 云容器集群Pod磁盘IO高负载
        4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录云容器引擎控制台,进入目标实例节点的监控指标页,观测磁盘读写速率(Bps)指标。 2、业务应用验证: 观察运行在目标节点上、且挂载了持久化存储(PVC)的业务 Pod(如数据库、中间件等),确认其读写性能是否下降或出现超时。 检查无状态应用的日志写入是否出现延迟或失败。 验证您的业务监控告警系统是否成功捕获到节点磁盘I/O异常或应用性能劣化,并触发了相应告警。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod磁盘IO高负载
      • 云主机网络延迟
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络延迟动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察应用,确认依赖网络通信的模块(如调用外部API、数据库查询)是否出现响应缓慢或请求超时。 检查应用日志,确认是否有因超时而触发的重试、熔断或降级逻辑。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机网络延迟
      • 云容器集群Pod磁盘IO高负载(1)
        4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录云容器引擎控制台,进入目标实例节点的监控指标页,观测磁盘读写速率(Bps)指标。 2、业务应用验证: 观察运行在目标节点上、且挂载了持久化存储(PVC)的业务 Pod(如数据库、中间件等),确认其读写性能是否下降或出现超时。 检查无状态应用的日志写入是否出现延迟或失败。 验证您的业务监控告警系统是否成功捕获到节点磁盘I/O异常或应用性能劣化,并触发了相应告警。
        来自:
      • 启动识别任务
        DSC可重复执行识别任务,如果您需要对数据进行再一次的扫描,可参考本章节启动识别任务。 前提条件 已添加OBS、数据库、大数据源资产或MRS,具体操作请参见资产列表。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中,选择“敏感数据识别(新) > 识别任务”,进入识别任务界面。 5. 在待启动任务行的“操作”列单击“立即识别”,右上角弹框提示扫描任务开始扫描,即执行成功。 说明 如果您需要停止正在执行的任务,请在目标任务“操作”列,单击“停止”。 后续处理 查看识别结果:敏感数据识别任务扫描完成后,可在识别任务列表目标任务操作列单击“识别结果”,查看数据资产的敏感信息总数、风险等级以及敏感信息分类分级结果。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(新)
        敏感数据识别任务
        启动识别任务
      • 配置启动参数
        本文说明如何配置应用启动参数。 若您的应用exe程序启动时需要支持免登录、连接数据库等功能,可以在应用发布时输入您需要的启动参数,本文说明如何查看您的应用启动参数。 操作步骤 1. 进入云渲染控制台。 2. 在应用列表选择您需要配置的应用,点击修改 。 3. 填写完成后单击确定 ,即完成启动参数配置。 填写说明 注意: 当您的应用在开通服务后显示启动异常,您可以检查是否exe启动时需要配置启动参数 1. 进入任务管理器的详细信息,选中命令行。 2. 在任务管理器找到您的exe进程,查看可执行程序名后面的参数 ,如果有的话,需要填入启动参数。 3. 选择相应进程(路径含Win64),使用ctrl+c可以拷贝整行信息,然后选择 exe后面的信息作为启动参数填入 。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        用户指南
        应用管理
        配置启动参数
      • 1
      • ...
      • 223
      • 224
      • 225
      • 226
      • 227
      • ...
      • 270
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      科研助手

      一站式智算服务平台

      推荐文档

      慢日志查询

      Microsoft SQL Server

      应用监控指标总览

      云课堂 第一课:玩转天翼云安全组

      删除

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号