活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      专属云(计算独享型)_相关内容
      • 查询协议服务
        协议服务提供标准NFS协议访问HPFS文件系统的能力,本文介绍查询协议服务的场景说明和操作步骤。 场景说明 您可以查看文件系统下协议服务的基本信息,支持按协议服务ID或描述关键字查看指定的协议服务。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>并行文件服务HPFS”,进入并行文件服务的控制台页面。 3. 点击目标文件系统,进入文件系统详情页,点击协议服务页签,即可进入协议服务页面。 4. 在协议服务列表页查看所有协议服务的基本信息,参数说明如表所示: 参数 说明 协议服务ID 协议服务的ID,创建时自动生成,不支持修改。 状态 协议服务状态: 创建中、创建失败、可用、删除中、异常。 规格 通用型。 协议类型 NFS协议,默认支持NFSv3和NFSv4。 VPC挂载地址 导出的NFS的挂载地址。 VPCE挂载地址 若创建时选择开启终端节点(VPCE),则展示VPCE挂载信息,返回通常需要1~3分钟。 注意 如果您删除了终端节点,则VPCE的挂载地址将会失效。 VPC名称/ID 协议服务绑定的虚拟私有云(VPC),VPC的名称可以点击跳转到对应详情页面。 创建时间 协议服务的创建时间。 描述 协议服务的描述信息。 操作 仅支持删除操作。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        协议服务
        查询协议服务
      • 使用V2签名时的HttpURLConnection开发
        本节主要介绍使用V2签名时的HttpURLConnection开发。 应用场景 V2签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.nio.charset.StandardCharsets; import java.text.SimpleDateFormat; import java.util.Arrays; import java.util.Base64; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Locale; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV2Signer { private static final String DATESTR "EEE, d MMM yyyy HH:mm:ss 'GMT'"; private static final SimpleDateFormat DATEFMT new SimpleDateFormat(DATESTR, Locale.ENGLISH); static { TimeZone gmt TimeZone.getTimeZone("GMT"); DATEFMT.setTimeZone(gmt); } private static final String OOSACCESSKEY "your ak"; private static final String OOSSECRETKEY "your sk"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int CONNTIMEOUT 30000; private static final int READTIMEOUT 30000; public void putObject(String bucket, String objectKey) { try { Map headers new HashMap<>(); headers.put("ContentType", "text/plain"); headers.put("xamzdate", "xxxx"); HttpURLConnection connection generateConnection("PUT", bucket, objectKey, headers); connection.setFixedLengthStreamingMode(OOSOBJECTCONTENT.length()); connection.setDoOutput(true); connection.connect(); byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { e.printStackTrace(); } } public void getObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("GET", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if (responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("DELETE", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } / 1 并不是headers里的所有头域,都参与计算签名。详情请参照 3.1.1章节StringToSign的构成说明 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。 PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 例:headers.put("xamzmetatest", "oos"); / private HttpURLConnection generateConnection(String method, String bucket, String objectKey, Map headers) throws Exception { if (headers null) { headers new TreeMap<>(); } if (!headers.containsKey("Date")) { String date DATEFMT.format(new Date()); headers.put("Date", date); } Map querys new HashMap<>(32); // 设置查询参数示例,可按需选择是否在请求url上设置查询参数。更多接口参数请参考《OOS开发者文档v6》 querys.put("responsecontenttype", "application/octetstream"); String authorization v2Sign(method, bucket, objectKey, headers, querys); String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, false); if (querys.size() ! 0) { requestUrl + "?" + encodeParameters(querys); } URL url new URL(requestUrl); HttpURLConnection connection (HttpURLConnection)url.openConnection(); connection.setRequestProperty("Authorization", authorization); connection.setConnectTimeout(CONNTIMEOUT); connection.setReadTimeout(READTIMEOUT); connection.setRequestMethod(method); if (null ! headers) { headers.forEach(connection::setRequestProperty); } return connection; } private String encodeParameters(Map querys) { StringBuilder builder new StringBuilder(); Iterator > pairs querys.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(urlEncode(pair.getKey(), false)); builder.append(""); builder.append(urlEncode(pair.getValue(), false)); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } // 以下是签名计算相关方法 / The set of request parameters which must be included in the canonical string to sign. / private static final List SIGNEDPARAMETERS Arrays.asList("acl", "torrent", "logging", "location", "policy", "requestPayment", "versioning", "versions", "versionId", "notification", "uploadId", "uploads", "partNumber", "website", "delete", "lifecycle", "tagging", "cors", "restore", "responsecachecontrol", "responsecontentdisposition", "responsecontentencoding", "responsecontentlanguage", "responsecontenttype", "responseexpires"); private String v2Sign(String method, String bucket, String objectKey, Map headers, Map querys) throws Exception { String canonicalString getCanonicalString(method, toResourcePath(bucket, objectKey), headers, querys); String signature sign(canonicalString); return "AWS " + OOSACCESSKEY + ":" + signature; } private String sign(String data) throws Exception { try { Mac mac Mac.getInstance("HmacSHA1"); mac.init(new SecretKeySpec(OOSSECRETKEY.getBytes(StandardCharsets.UTF8), "HmacSHA1")); byte[] bs mac.doFinal(data.getBytes(StandardCharsets.UTF8)); return Base64.getEncoder().encodeToString(bs); } catch (Exception e) { throw new Exception("Unable to calculate a request signature: " + e.getMessage(), e); } } / Calculate the canonical string for a REST/HTTP request to OOS. When expires is nonnull, it will be used instead of the Date header. / private String getCanonicalString(String method, String resource, Map headers, Map querys) { StringBuilder buf new StringBuilder(); buf.append(method).append("n"); SortedMap interestingHeaders new TreeMap<>(); if (headers ! null && headers.size() > 0) { for (Map.Entry entry : headers.entrySet()) { String key entry.getKey(); String value entry.getValue(); if (key null) { continue; } String lk key.toLowerCase(Locale.getDefault()); if ("contenttype".equals(lk) "contentmd5".equals(lk) "date".equals(lk) lk.startsWith("xamz")) { interestingHeaders.put(lk, value); } } } // Remove default date timestamp if "xamzdate" is set. if (interestingHeaders.containsKey("xamzdate")) { interestingHeaders.put("date", ""); } // These headers require that we still put a new line in after them, // even if they don't exist. if (!interestingHeaders.containsKey("contenttype")) { interestingHeaders.put("contenttype", ""); } if (!interestingHeaders.containsKey("contentmd5")) { interestingHeaders.put("contentmd5", ""); } // Any parameters that are prefixed with "xamz" need to be included // in the headers section of the canonical string to sign if (querys ! null) { for (Map.Entry parameter : querys.entrySet()) { if (parameter.getKey().toLowerCase().startsWith("xamz")) { interestingHeaders.put(parameter.getKey().toLowerCase(), parameter.getValue()); } } } for (Map.Entry entry : interestingHeaders.entrySet()) { String key entry.getKey(); Object value entry.getValue(); if (key.toLowerCase().startsWith("xamz")) { buf.append(key).append(':').append(value); } else { buf.append(value); } buf.append("n"); } buf.append(resource); if (querys ! null) { String[] parameterNames querys.keySet().toArray(new String[0]); Arrays.sort(parameterNames); char separator '?'; for (String parameterName : parameterNames) { // Skip any parameters that aren't part of the canonical signed string if (!SIGNEDPARAMETERS.contains(parameterName)) { continue; } buf.append(separator); buf.append(parameterName); String parameterValue querys.get(parameterName); if (parameterValue ! null && !"".equals(parameterValue)) { buf.append("").append(parameterValue); } separator '&'; } } return buf.toString(); } private String toResourcePath(String bucket, String objectKey) { String resourcePath "/" + ((bucket ! null && !"".equals(bucket)) ? bucket : "") + ((objectKey ! null) ? "/" + objectKey : ""); return urlEncode(resourcePath, true); } / @param keepPathSlash 实际上,根据RFC 3986规范,url中的 '/'和'~' 可以不用转译,URLEncoder做了转译,但是为了兼容浏览器解析文件名,要求 '/'和'~'不能做转译。 @param url 客户请求的url,也就是object key @return 转译后的url / private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, StandardCharsets.UTF8.toString()); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { // Web browsers do not always handle '+' characters well, use the wellsupported '%20' instead. encoded encoded.replaceAll("+", "%20"); // Change all "%2F" back to "/", so that when users download a file in a virtual folder by the presigned // URL, // the web browsers won't mess up the filename. (e.g. 'folder1folder2filename' instead of 'filename') encoded encoded.replace("%2F", "/"); encoded encoded.replace("%7E", "~"); } return encoded; } public static void main(String[] args) { String bucket "your bucket"; String objectKey "your object key"; OOSDemoForV2Signer v2 new OOSDemoForV2Signer(); v2.putObject(bucket, objectKey); v2.getObject(bucket, objectKey); v2.deleteObject(bucket, objectKey); } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V2签名时的HttpURLConnection开发
      • 配置管理
        参数 详情 取值 concurrentdeploymentsyncs deployment的并发处理数 默认:5 concurrentendpointsyncs endpoint的并发处理数 默认:5 concurrentgcsyncs garbage collector的并发数 默认:20 concurrentjobsyncs 允许同时同步的作业对象的数量。 默认:5 concurrentnamespacesyncs namespace的并发处理数 默认:10 concurrentreplicasetsyncs replicaset的并发处理数 默认:5 concurrentresourcequotasyncs resource quota的并发处理数 默认:5 concurrentservicesyncs service的并发处理数 默认:10 concurrentserviceaccounttokensyncs serviceaccounttoken的并发处理数 默认:5 concurrentttlafterfinishedsyncs ttlafterfinished的并发处理数 默认:5 concurrentrcsyncs rc的并发处理数 默认:5 horizontalpodautoscalersyncperiod 集群弹性计算的周期 默认:15s kubeapiqps 与kubeapiserver通信的qps 默认:100 kubeapiburst 与kubeapiserver通信的burst 默认:100 terminatedpodgcthreshold 在Pod GC开始删除终止Pod之前,可以存在的terminated状态Pod数量。如果<0,则禁用终止的Pod GC。 默认:1000
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        管理集群
        配置管理
      • OOS之间的数据迁移
        本节主要介绍如何在OOS之间进行数据迁移。 应用场景 数据从一个OOS账户下的Bucket迁移到另一个OOS账户下的Bucket,或者同一个OOS账户下不同Bucket之间的数据迁移。 注意 在线迁移会占用网络资源。若您的业务比较重要,建议您对迁移任务设置限速(设置system.conf中的maxThroughput),或在空闲时间启动迁移任务。 前提条件 Windows7 及以上版本或 Linux CentOS 7.x 及以上版本。 Java 1.8 及以上版本。 迁移工具所在的服务器可以访问OOS资源池。 具体操作 确定目标Bucket 在OOS中创建目标Bucket,具体操作请参见创建存储桶(Bucket)或PUT Bucket,用于存放迁移的数据。也可以使用已存在的Bucket。 下载安装迁移工具 1. 下载数据迁移工具。 2. 解压缩安装包 对于Windows客户端,直接解压缩迁移工具zip 包即可。 对于Linux客户端,执行 unzip 解压缩安装包。 迁移工具解压后的目录结果如下: CTYUNOOSImportversionid config log4j2.xml migrate.conf system.conf lib import.sh import.bat 修改配置文件 更新迁移任务配置文件 migrate.conf,配置源和目的资源池信息、迁移配置项。您可根据需要配置system.conf和 log4j2.xml文件,具体参数介绍参见常用工具OOS数据迁移工具迁移步骤。其中: srcType需填写为:OOS,代表天翼云对象存储(经典版)I型。 srcEndpoint和destEndpoint根据迁移需求填写,OOS Endpoint参考控制台指南域名(Endpoint)域名(Endpoint)列表。 源OOS AccessKey和SecretKey需要至少拥有源Bucket的读权限,目的OOS AccessKeyID和SecretAccessKey需要至少拥有目的Bucket的写权限。 migrate.conf配置示例如下: { "srcType":"OOS",
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        数据迁移
        OOS之间的数据迁移
      • 产品价格
        计费项 计费项说明 适用的计费模式 计费公式 数据库实例 vCPU、内存和节点数量,不同规格的实例类型提供不同的计算和存储能力。 文档数据库实例,支持X86和鲲鹏两种CPU平台。 包年/包月、按需 实例规格单价 购买时长 存储空间 存储空间大小,按产品资费标准进行计费。 包年/包月、按需 存储空间单价 存储容量 购买时长 备份空间 备份空间大小,按产品资费标准进行计费。 DDS提供了与存储空间同等大小的免费备份空间,用于存放您的备份数据。超出的备份空间开始收费。 备份收费容量:超过免费备份空间之外的备份空间大小。 计费时长:备份超过免费空间大小的使用时长。 按需 备份空间单价 备份收费容量 计费时长 公网流量(可选) 如有互联网访问需求,您需要购买弹性IP。具体可参考弹性IP价格说明。 文档数据库实例在云内网络产生的流量不计费。 包年/包月、按需
        来自:
        帮助文档
        文档数据库服务
        计费说明
        公有云产品计费说明
        产品价格
      • 如何理解MySQL表的自动新增AUTO_INCREMENT的值和步长
        本页介绍如何理解MySQL表的自动新增AUTOINCREMENT的值和步长。 表的新增AUTOINCREMENT的值和步长 背景描述: AUTOINCREMENT的初值与步长由"autoincrementincrement" 和"autoincrementoffset"两个参数决定。 1.autoincrementoffset:AUTOINCREMENT值的初值。 2.autoincrementincrement:AUTOINCREMENT值每次增长的步长。 3.当 autoincrementoffset > autoincrementincrement 时,实际使用时初值会变为为autoincrementincrement。 4.当 autoincrementoffset show variables like 'autoinc%'; ++ Variablename Value ++ autoincrementincrement 1 autoincrementoffset 1 ++ 2 rows in set (0.00 sec) mysql> create table tiayiyuntest(uid int NOT NULL AUTOINCREMENT, PRIMARY KEY (uid)); Query OK, 0 rows affected (0.01 sec) mysql> show create table tiayiyuntest; ++ Table Create Table ++ tiayiyuntest CREATE TABLE tiayiyuntest ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec) mysql> insert into tiayiyuntest values(0), (0), (0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from tiayiyuntest; + uid + 1 2 3 + 3 rows in set (0.00 sec) mysql> show create table tiayiyuntest; ++ Table Create Table ++ tiayiyuntest CREATE TABLE tiayiyuntest ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB AUTOINCREMENT4 DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec) 2.修改autoincrementincrement2,步长变为2。 mysql> set session autoincrementoffset2; Query OK, 0 rows affected (0.00 sec) mysql> show variables like 'autoinc%'; ++ Variablename Value ++ autoincrementincrement 1 autoincrementoffset 2 ++ 2 rows in set (0.00 sec) mysql> insert into tiayiyuntest values(0), (0), (0); Query OK, 3 rows affected (0.01 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from tiayiyuntest; + uid + 1 2 3 4 5 6 + 6 rows in set (0.00 sec) mysql> show create table tiayiyuntest; ++ Table Create Table ++ tiayiyuntest CREATE TABLE tiayiyuntest ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB AUTOINCREMENT7 DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec) 3.autoincrementoffset10,autoincrementincrement2,初值为2(因为autoincrementoffset > autoincrementincrement),步长为2。 mysql> set session autoincrementoffset10; Query OK, 0 rows affected (0.00 sec) mysql> set session autoincrementincrement2; Query OK, 0 rows affected (0.00 sec) mysql> show variables like 'autoinc%'; ++ Variablename Value ++ autoincrementincrement 2 autoincrementoffset 10 ++ 2 rows in set (0.00 sec) mysql> create table tianyiyuntest(uid int NOT NULL AUTOINCREMENT, PRIMARY KEY (uid)); Query OK, 0 rows affected (0.01 sec) mysql> show create table tianyiyuntest; ++ Table Create Table ++ tianyiyuntest CREATE TABLE tianyiyuntest ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec) mysql> insert into tianyiyuntest values(0), (0), (0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from tianyiyuntest; + uid + 2 4 6 + 3 rows in set (0.00 sec) mysql> show create table tianyiyuntest; ++ Table Create Table ++ tianyiyuntest CREATE TABLE tianyiyuntest ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB AUTOINCREMENT8 DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec) 4.autoincrementoffset5,autoincrementincrement10,初值为5,步长为10。 mysql> set session autoincrementoffset5; Query OK, 0 rows affected (0.00 sec) mysql> set session autoincrementincrement10; Query OK, 0 rows affected (0.00 sec) mysql> show variables like 'autoinc%'; ++ Variablename Value ++ autoincrementincrement 10 autoincrementoffset 5 ++ 2 rows in set (0.00 sec) mysql> create table tianyiy(uid int NOT NULL AUTOINCREMENT, PRIMARY KEY (uid)); Query OK, 0 rows affected (0.01 sec) mysql> insert into tianyiy values(0), (0), (0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from tianyiy; + uid + 5 15 25 + 3 rows in set (0.00 sec) mysql> show create table tianyiy; ++ Table Create Table ++ tianyiy CREATE TABLE tianyiy ( uid int(11) NOT NULL AUTOINCREMENT, PRIMARY KEY (uid) ) ENGINEInnoDB AUTOINCREMENT35 DEFAULT CHARSETutf8mb4 COLLATEutf8mb4bin ++ 1 row in set (0.00 sec)
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        其他使用问题
        如何理解MySQL表的自动新增AUTO_INCREMENT的值和步长
      • HINT
        路由策略 通过如下语法,可指定特定路由执行SQL。 plaintext / !HINT({"dn":["dn1","dn2"]})/sql 参数说明如下: dn:路由策略,可表示多个路由节点,用数组表示。 dn1、dn2 :路由节点的名称。 示例如下: mergeCols mergeCols主要用途为查询类的统计SQL语句,且查询多个数据节点时使用,此时,需要对数据进行合并,合并时需要使用的合并列值。 plaintext / !HINT({"dn":["dn1","dn2"],"mergeCols":{"colname1":1,"colname2":2}})/sql 参数说明如下: colname:表示列名称,数字为列的计算方式。 其中,支持的统计算法主要有如下几种: COUNT:1 SUM:2 MIN:3 MAX:4 Order by Order by主要用于查询类的 SQL 语句,且查询多个节点时,需要对查询后的数据结果集进行排序时使用。 plaintext / !HINT({"dn":["dn1","dn2"],"order":{"colname1":1,"colname2":0}})/sql 支持的排序如下: ASC:1 DESC:0
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        HINT
      • 表达式概述
        本章节主要介绍DataArts Studio的EL表达式操作。 数据开发模块作业中的节点参数可以使用表达式语言(Expression Language,简称EL),根据运行环境动态生成参数值。可以根据Pipeline输入参数、上游节点输出等决定是否执行此节点。数据开发模块 EL表达式使用简单的算术和逻辑计算,引用内嵌对象,包括作业对象和一些工具类对象。 作业对象:提供了获取作业中上一个节点的输出消息、作业调度计划时间、作业执行时间等属性和方法。 工具类对象:提供了一系列字符串、时间、JSON操作方法,例如从一个字符串中截取一个子字符串、时间格式化等。 语法 表达式的语法: {expr} 其中,“expr”指的是表达式。“ ”和“{}”是数据开发模块 EL中通用的操作符,这两个操作符允许您通过数据开发模块内嵌对象访问作业属性。 举例 在Rest Client节点的参数“URL参数”中使用EL表达式 “tableName {JSONUtil.path(Job.getNodeOutput("getcluster"),"tables[0].tablename")}”。 表达式说明如下: 1. 获取作业中“getcluster”节点的执行结果(“Job.getNodeOutput("getcluster")”),执行结果是一个JSON字符串。 2. 通过JSON路径(“tables[0].tablename”),获取JSON字符串中字段的值。 调试方法介绍 下面为您介绍几种EL表达式的调试方法,能够在调试过程中方便地看到替换结果。 后文以 {DateUtil.now()}表达式为例进行介绍。 1. 使用DIS Client节点。 前提:您需要具备DIS通道。 方法:选择DIS Client节点,将EL表达式直接写在要发送的数据中,点击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 2. 使用Kafka Client节点。 前提:您需要具备MRS集群,且集群有Kafka组件。 方法:选择Kafka Client节点,将EL表达式直接写在要发送的数据中,点击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 3. 使用Shell节点。 前提:您需要具备ECS弹性云主机。 方法:创建一个主机连接,将EL表达式直接通过echo打印出来,点击“测试运行”之后查看日志,日志中会打印出EL表达式的值。 4. 使用Create OBS节点。 如果上述方法均不可用,则可以通过Create OBS去创建一个OBS目录,目录名称就是EL表达式的值,点击“测试运行”后,再去OBS界面查看创建出来的目录名称。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        表达式概述
      • SSL VPN远程拨入
        VPN登录 1.配置完成后,在PC1的浏览器中输入 Networks,Inc.”中的“WebVPN.cab”...请单击这里"。 2.鼠标右键单击此提示信息,并点击“为此计算机上的所有用户安装此加载项”。系统提示下载并安装Hillstone Secure Connect,下载链接: 3.安装完成后,安装SSL VPN拨号客户端,填写相应信息进行拨号后,即可访问内网业务,其中SSL VPN拨号客户端由云下一代防火墙工程师提供。 服务器地址:指本配置的VPN地址,具体内容由本单位管理员提供; 端口:指本配置的端口地址,具体内容由本单位管理员提供,默认为4433; 用户名:指本配置的用户信息,具体内容由本单位管理员提供; 密码:指本配置的密码信息,具体内容由本单位管理员提供。
        来自:
        帮助文档
        云下一代防火墙
        最佳实践
        SSL VPN远程拨入
      • 产品规格限制
        本文为您介绍弹性文件服务的产品规格限制,请您务必仔细阅读后使用。 限制项 说明 使用场景 本服务不可单独使用,需挂载至云主机等计算服务后进行访问和读写 配额 单用户默认分配50TB空间用于创建文件系统,如有更大容量的存储需求可提工单进行申请 单文件系统容量上限 500GB起步,默认32TB上限,可提交工单申请扩大上限至320TB 单文件系统可链接客户端数量上限 1000 单用户在单地域内可创建的文件系统数量 默认10个,可通过申请配额增加至20个,在多可用区资源池,各可用区共用该资源池总配额 单文件系统最大文件数 10亿 单文件系统最大目录层级 1000级 单用户文件系统可添加VPC个数上限 20 单用户权限组个数上限 20 单权限组下规则个数上限 400 CIFS文件系统级别活跃句柄数量上限 16384
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        产品使用限制
        产品规格限制
      • 通用文件存储
        本文介绍了通用文件存储的相关功能。 操作场景 创建文件存储,可以在多个计算服务中挂载使用,实现文件存储的共享访问。 创建通用文件存储 1. 登录公共算力服务控制台,控制台左上角选择资源池。 2. 选择“存储>通用文件存储”,进入通用文件存储列表页面。 3.点击左上角“创建通用文件存储”,进入创建页面。 4.根据界面提示配置参数,参数说明如表所示。 参数 说明 名称 长度为264字符,可包含中文、英文、数字、下划线()、或连字符(),以中文/英文字母开头 可用区 默认为default 付费类型 支持选择包年包月 购买时长 购买时长:可选择1个月3年。 是否自动续订:如果启用,自动续订周期为1个月。 注:包年包月付费模式需要选择购买时长。 协议类型 当前仅支持NFS 存储规格 当前仅支持超高IO 容量 10GB起步,步长1GB。默认单文件系统最大支持32TB,可提交工单申请更大容量。 5. 确认无误,勾选“我已阅读,理解并接受相关协议”,单击“立即创建”,包年/包月模式下完成支付,即完成通用文件存储服务的购买。 6. 返回通用文件存储控制台,等待文件系统的状态变为“可用”,表示文件系统创建成功。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        存储
        通用文件存储
      • 错误处理
        本文介绍函数计算Go运行环境的错误处理相关内容。 返回错误信息 如下示例直接返回错误信息: package main import ( "errors" "gitee.com/ctyunfaas/cfruntimegosdk/cf" ) func HandleRequest() error { return errors.New("trouble now") } func main() { cf.Start(HandleRequest) } 调用函数时,会收到如下响应: { "errorMessage": "trouble now", "errorType": "errorString" } 使用panic抛出错误 如下示例使用panic抛出错误信息: package main import ( "gitee.com/ctyunfaas/cfruntimegosdk/cf" ) func HandleRequest() error { panic("Error: trouble now") return nil } func main() { cf.Start(HandleRequest) } 调用函数时,会收到如下响应(示例中仅列出了部分堆栈信息): { "errorMessage": "Error: trouble now", "errorType": "string", "stackTrace": [ { "path": "gitee.com/ctyunfaas/cfruntimegosdk@v0.0.020240319091518e684f96d8b85/cf/errors.go", "line": 33, "label": "fcPanicResponse" }, { "path": "gitee.com/ctyunfaas/cfruntimegosdk@v0.0.020240319091518e684f96d8b85/cf/function.go", "line": 111, "label": "(userFunction).Invoke.func1" }, ...... ] } os.Exit(1) 非必要不建议使用包含 os.Exit(1)代码的错误处理代码,使用该方法无法获取退出时的报错信息和堆栈信息。例如 log.Fatal方法。示例如下: package main import ( "gitee.com/ctyunfaas/cfruntimegosdk/cf" "log" ) func HandleRequest() error { log.Fatal("trouble now") return nil } func main() { cf.Start(HandleRequest) } 调用函数时,会收到如下响应: EOF
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        Go
        错误处理
      • 安全与加速套餐超出资费
        使用须知 使用条件: 您可按需购买任意资源包。 带宽计费客户如需使用对应的流量包,需将计费方式分别变更为流量计费。 可叠加购买:购买多个相同类型的资源包,抵扣顺序依据资源包的到期时间先后排序,有效期不叠加计算。 有效期:自购买成功后一年内有效;“任一资源包用尽”或“有效期结束”。 续订:为保障业务稳定,请于“资源包用尽”或“有效期结束”前,及时购买资源包。 仅对防护清洗后的干净流量计费,DDoS攻击产生的流量不计费。 仅对防护清洗后的干净请求数计费,CC攻击产生的请求数不计费。 流量包、请求数包提醒通知 在流量包或者请求数包用量用尽或有效期到期前,系统会通过邮件的方式向天翼云的用户发送邮件提醒。 以下两种维度,任何一种都会触发资源包提醒通知: 序号 邮件触发维度 邮件提醒频率 1 用量维度 用量用尽前70%、90%、100%。 2 时间维度 有效期到期前1天、3天、7天。
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        安全与加速计费模式
        安全与加速套餐超出资费
      • 计划删除密钥
        接口功能介绍 计算删除密钥 接口约束 请保证账户余额大于0 URI POST /v1/cmkManage/scheduleKeyDeletion 路径参数 无 Query参数 无 请求参数 请求头header参数 请参见请求消息头 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 cmkUuid 是 String 计划删除密钥对应的密钥唯一标识id 474e569e8814474a948bdbcf6d853eff pendingWindowInDays 是 String 计划删除时间,取值范围:730天,传数字即可 7 响应参数 参数 参数类型 说明 示例 下级对象 code String 返回码,取值范围: 200:成功 400:参数缺失或错误 401:用户验证错误 404:操作目标不可用 500:系统内部错误 200 errorCode String 错误码 KMS.0514 msg String 调用结果信息 计划删除密钥设置成功 data Object 接口返回结果 null 请求示例 请求头header plaintext { "ContentType": "application/json", "requestDate": "20221101T154654Z", "ctyuneoprequestid": "89bf1559a96e4bc998fc394d169a42e4", "EopAuthorization":"91ef73a6329545c294be1d5c763bdf7e Headersctyuneoprequestid;eopdate Signature2mc3zggaqLEGTSVy2H8lWsFEm+BNJf0CrcomDSOxPfc", "regionId":"60a39fca876e11ea91cf0242ac110002" } 请求体body plaintext { "cmkUuid":"474e569e8814474a948bdbcf6d853eff", "pendingWindowInDays":"7" }
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        密钥生命周期管理
        计划删除密钥
      • 创建卷
        项目 描述 对象存储服务 对象存储服务名称: OOS : 天翼云对象存储经典版I型 S3:兼容S3的其他对象存储。 默认值为OOS。 Endpoint 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 OOS Endpoint详见 。 存储桶 存储桶信息。输入已存在的存储桶的名称和前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 前缀取值:字符串形式,长度范围是1~256。 注意 请勿开启Bucket的生命周期设定和合规保留。 签名版本 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 区域 Endpoint资源池所在区域。 OOS区域详见 。 V4签名时,此项必填。 存储类型 设置OOS的存储类型: 标准存储。 低频访问存储。 默认为标准存储。 AK/SK 对象存储服务的Access Key和Secret Access Key。 对象大小 数据存储在对象存储的大小。 取值:128 KiB、256 KiB、512 KiB、1 MiB、2 MiB、4 MiB、8 MiB。默认值为1 MiB。 压缩 是否压缩数据上传至对象存储: 启用:压缩数据上传至对象存储。 禁用:不压缩数据上传至对象存储。 默认值为启用。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        卷操作
        创建卷
      • Binlog本地设置
        关系数据库MySQL版支持用户可自行设置Binlog的保留时长,以及允许Binlog的最大空间占用率。本文介绍关系数据库MySQL版关于Binlog日志的设置。 注意 仅II类型资源池支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 操作场景 Binlog日志占据一定空间,为防止占用不必要的空间,可根据实际场景对Binlog保留进行设置,对主实例或者只读实例的Binlog文件进行清理。 操作步骤 注意 该功能于20240327 00:00在II 类型资源池上线,该时间点前创建的新实例,需要控制台手动设置后生效。针对该时间点后创建的新实例,默认值为168小时与存储空间30%,当达到任意一个条件就会触发日志清理,请您进行合理设置。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 在使用量统计 栏,单击存储空间使用量 旁的Binlog本地设置。 5. 根据需要设置如下参数,然后单击确定。 保留时长:默认是168小时(7天),Binlog文件超过您设置的保留时长,将对最早的Binlog文件进行清理。 最大存储空间占用率:Binlog文件超过您设置的空间占有率,将对最早的Binlog文件进行清理,直至空间占用率小于设置比例。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        Binlog下载与清理
        Binlog本地设置
      • 跨域恢复
        跨域恢复新实例。 SQL Server支持使用已有的备份集,跨域恢复至另一个资源池的新实例(即创建实例并恢复数据)。 注意事项 实现跨域恢复的前提是实例已经开启跨域备份,如何开启跨域备份请参考设置自动备份策略。 只有跨域备份状态为成功的备份,支持跨域恢复。同时,若备份为增量备份,则要求其前置的全量备份也必须是跨域备份成功,才允许恢复。 仅支持跨域恢复备份集,不支持按时间点跨域恢复。 其他限制及注意事项请参考按备份集恢复数据。 当前仅华东1、西南1支持开启跨域,其中华东1跨域到西南1,西南1跨域到华东1。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 选择【备份恢复】标签页,点击【跨域数据备份】,查看到跨域数据备份列表。 5. 选择待恢复的备份集,点击【恢复】,弹出恢复框,点击【确定】,会跳转到跨域恢复订购页,在订购页填入订购涉及的信息,最后完成实例创建下单。 6. 下单完成,等待实例创建成功,实例创建后会异步完成数据恢复,恢复时长取决于备份数据大小。同时在任务列表能查看恢复数据的记录,可以根据该记录判断跨域恢复新实例是否成功。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        恢复
        跨域恢复
      • 使用控制台设置参数
        本文介绍如何通过控制台查询和设置SQL Server实例可修改的参数。 注意事项 为保证实例稳定,控制台仅开放部分参数修改。 修改参数值时,务必请在控制台展示参数值的合理范围内进行修改。 部分参数修改需要重启生效,控制台参数列表页面展示了具体哪些参数需要重启。 如果修改了需要重启的参数,系统会自动重启实例。如果想修改需要重启生效的参数,建议在业务低峰期修改避免对业务造成影响。 控制台页面修改参数保存后是下发参数修改任务,返回成功并不代表参数修改成功,仅代表任务下发成功,您可以通过查询修改历史查看参数是否设置成功。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【参数设置】,进入可修改参数列表页面。 5. 找到待修改的参数,编辑参数对应的配置值输入框进行修改,务必保证输入的值处于参数值允许范围内,可以修改一个或多个参数值,单击【保存参数】,下发参数修改任务。 6. 在历史记录页面,可以查看参数是否实际修改成功。提示进行中,说明参数还在修改;提示已生效,说明参数修改成功;提示未生效,说明参数修改失败。部分参数修改需要重启,系统会主动重启实例,不需要手动重启实例。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理参数
        使用控制台设置参数
      • 文档数据库服务开发规范
        性能相关 规范 在使用文档数据库服务时,为了提高数据库系统的性能和效率,需要遵守一些性能相关规范和最佳实践。以下是一些常见的文档数据库服务性能相关规范: 合适的索引设计:正确的索引设计可以提高文档数据库服务的查询性能和效率,可以根据应用程序的查询需求来选择适当的索引类型和字段。 使用合适的数据模型:文档数据库服务是一种文档型数据库,可以使用嵌入式文档或引用式文档来存储数据。使用合适的数据模型可以提高查询效率和数据访问的速度。 避免全表扫描:文档数据库服务在执行查询时,应该避免全表扫描,尽量使用索引来加速查询。可以使用explain命令来分析查询的性能和索引的使用情况。 分布式扩展:文档数据库服务支持分布式扩展,可以使用分片技术将数据分散到多个文档数据库服务实例中,提高系统的吞吐量和性能。 使用合适的数据类型:文档数据库服务支持多种数据类型,应该根据应用程序的需求来选择合适的数据类型。例如,可以使用二进制数据类型来存储大型文件,使用数组来存储具有相同属性的数据。 使用合适的查询语句:在查询文档数据库服务数据库时,应该使用合适的查询语句和操作符,避免使用不必要的查询条件和操作符,以提高查询效率和性能。 开发过程中对集合的每一个操作都要通过执行explain()检查其执行计划,如: db.students.find({age: 20}, {name: 1, id: 0}).explain(); 合理的系统配置:为了提高文档数据库服务的性能和效率,应该合理配置文档数据库服务的系统参数和资源限制,例如内存、磁盘和CPU等。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        文档数据库服务使用规范
        文档数据库服务开发规范
      • 高性能网络
        本文介绍高性能网络增值服务的适用场景和配置说明。 功能介绍 高性能网络是CDN加速产品的一项跨境能力进阶型增值服务,当普通国际网无法满足客户跨境传输需求时,通过开通高性能网络,利用其单独直连性、轻负载、高稳定性的特性,能帮助客户实现全链路低延时,低丢包率,高稳定性的跨境加速效果。 适用场景 高性能网络适用于如下三类业务场景: 场景一:海外跨国企业,有海外用户和中国大陆用户,由于在中国没有实体无法备案域名等原因(关于域名合规接入的条件说明,详情请见:使用限制的加速域名准入条件),需要用临近中国大陆的海外CDN节点(如香港节点)服务中国大陆用户。常规节点跨境是走公共互联网,在没有高性能网络直连的情况下,链路一般会绕欧美地区,导致时延大,丢包率高,访问体验差甚至访问失败。 场景二:海外跨国企业,有海外用户和中国大陆用户,有中国实体并备案域名,但是由于源站在海外,国内节点跨境回海外中间节点或海外源站是走公共互联网,在没有高性能网络直连的情况下,链路一般会绕欧美地区,导致时延大,丢包率高,访问体验差甚至访问失败。 场景三:中国企业出海,源站在中国,用户在海外,海外节点回中国源站时涉及跨境,常规节点跨境是走公共互联网,链路不稳定,丢包率高、时延大、访问慢等问题比较突出,影响访问体验。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        增值服务
        高性能网络
      • 修改自定义数据库名称
        本节介绍了修改自定义数据库名称的相关内容。 操作场景 关系型数据库服务支持用户修改自定义数据库的名称。 前提条件 成功连接RDS for SQL Server实例。 在您对HA实例重命名之前,请先执行如下命令取消数据库的镜像关系。 alter database [dbname] set partner off 数据库重命名成功后,系统会自动为新的数据库建立镜像关系。 如果对未取消HA实例镜像关系的数据库进行重命名,系统将会如下提示: plaintext Database 数据库名 is on mirroringstate. 对于数据库版本为2019 EE的实例,若要进行重命名的数据库已加入到 [AGRDSYUN] 可用性组中,必须先将其移出可用性组,才可进行重命名操作。 约束 对于系统库,不可修改名称。如果您试图修改系统库的名称,系统将会如下提示: plaintext Error DBNameSource or DBNameTarget. Please can not include in ('msdb','master','model','tempdb','rdsadmin','resource') . 不可使用已经存在的数据库名称进行重命名操作。如果重命名的数据库名称已经存在,系统将会如下提示: plaintext Database 数据库名 already exists. Cannot rename database with the same name. 操作步骤 执行以下命令,修改数据库名称。 exec msdb.dbo.rdsrenamedatabase N'oldname',N'newname'; oldname为修改前的数据库名称。 newname为修改后的数据库名称。 将名为“ABC”的数据库重命名为“XYZ”,示例如下: exec msdb.dbo.rdsrenamedatabase N'ABC',N'XYZ'; 数据库名称修改成功后,系统将会如下提示: plaintext The database name 'XYZ' has been set. 数据库重命名成功后,系统会自动对数据库进行一次全量备份。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        存储过程的使用
        修改自定义数据库名称
      • 安全容器与普通容器
        本文主要介绍安全容器与普通容器。 安全容器和普通容器相比,它最主要的区别是每个容器(准确地说是pod)都运行在一个单独的微型虚拟机中,拥有独立的操作系统内核,以及虚拟化层的安全隔离。因为云容器引擎CCE的容器安全隔离比独立拥有私有Kubernetes集群有更严格的要求。通过安全容器,不同容器之间的内核、计算资源、网络都是隔离开的,保护了Pod的资源和数据不被其他Pod抢占和窃取。 CCE Turbo集群下单节点支持普通容器和安全容器,您可以根据业务需求选择使用,两者的区别如下: 分类 安全容器 Docker普通容器 Containerd普通容器 容器所在节点类型 物理机 虚拟机 虚拟机 容器引擎 Containerd Docker Containerd 容器运行时 Kata runC runC 容器内核 独占内核 与宿主机共享内核 与宿主机共享内核 容器隔离方式 轻量虚拟机 Cgroups和Namespace Cgroups和Namespace 容器引擎存储驱动 Device Mapper OverlayFS2 OverlayFS Pod Overhead 内存:100MiBCPU:0.1CorePod Overhead为安全容器本身资源占用。比如Pod申请的limits.cpu 0.5Core和limits.memory 256MiB,那么该Pod最终会申请0.6Core的CPU和356MiB的内存。 无 无 最小规格 内存:256MiBCPU:0.25Core安全容器的CPU核数(单位为Core)与内存(单位为GiB)配比建议在1:1至1:8之间。例如CPU为0.5Core,则内存范围建议在512MiB4GiB间。 无 无 容器引擎命令行 crictl docker crictl Pod的计算资源 CPU和内存的request和limit必须一致 CPU和内存的request和limit可以不一致 CPU和内存的request和limit可以不一致 hostnetwork 不支持 支持 支持
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        节点概述
        安全容器与普通容器
      • ALM-45175 OBS元数据接口调用平均时间超过阈值
        本章节主要介绍ALM45175 OBS元数据接口调用平均时间超过阈值的告警。 告警解释 系统每30秒周期性检测OBS元数据接口调用平均时间是否超过阈值,当检测到连续超过所设置阈值次数大于平滑次数时就会产生该告警 。 当OBS元数据接口调用平均时间小于阈值时,该告警会自动清除。 告警属性 告警ID 告警级别 是否自动清除 45175 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 OBS元数据接口调用平均时间超过阈值,会影响上层大数据计算业务的性能,导致某些计算任务的执行时间超过阈值。 可能原因 OBS服务端出现卡顿,或OBS客户端到OBS服务端之间的网络不稳定。 处理步骤 检查堆内存使用率 在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > OBS元数据接口调用平均时间超过阈值”,查看“定位信息”中的角色名并确定实例的IP地址。 1. 选择“集群 > 待操作集群的名称 > 服务 > meta>实例 > meta(对应上报告警实例IP地址)”。单击图表区域右上角的下拉菜单,选择“定制”,在“OBS元数据操作”中勾选“OBS接口调用平均时间”,单击“确定”,查看OBS元数据接口调用平均时间,确定是否有接口调用时间超过阈值。 是,执行步骤3。 否,执行步骤5。 2. 选择“集群 > 待操作集群的名称 > 运维 > 告警 > 阈值设置 > meta > OBS元数据接口调用平均时间”,将阈值或平滑次数参数的值根据实际情况调大。 3. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-45175 OBS元数据接口调用平均时间超过阈值
      • ALM-45178 OBS数据写操作接口调用成功率低于阈值
        本章节主要介绍ALM45178 OBS数据写操作接口调用成功率低于阈值的告警。 告警解释 系统每30秒周期性检测OBS数写操作接口调用成功率是否小于阈值,当检测到小于所设置阈值时就会产生该告警 。 当OBS数据写操作接口调用成功率大于阈值时,该告警会自动清除。 告警属性 告警ID 告警级别 是否自动清除 45178 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 OBS数据写操作接口调用成功率小于阈值,会影响上层大数据计算业务的正常执行,导致某些计算任务的执行失败。 可能原因 OBS服务端出现执行异常或严重超时。 处理步骤 检查堆内存使用率 在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > OBS数据写操作接口调用成功率低于阈值”,查看“定位信息”中的角色名并确定实例的IP地址。 1. 选择“集群 > 待操作集群的名称 > 服务 > meta > 实例 > meta(对应上报告警实例IP地址)”。单击图表区域右上角的下拉菜单,选择“定制”,在“OBS数据写操作”中勾选“OBS数据写操作接口调用成功率”,单击“确定”,查看OBS数据写操作接口调用成功率,确定是否有接口调用成功率低于阈值。 是,执行步骤3。 否,执行步骤5。 2. 选择“集群 > 待操作集群的名称 > 运维 > 告警 > 阈值设置 > meta > OBS数据写操作接口调用成功率”,将阈值或平滑次数参数的值根据实际情况调小。 3. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-45178 OBS数据写操作接口调用成功率低于阈值
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 计费详情
        本文介绍如何查看计费详情数据,可以了解安全加速的套餐详情和资源包使用情况。 CDN部分计费按照1000进制从Byte换算到Gbps。 套餐详情管理 安全加速的计费方式、WAF防护的套餐与计费、抗D服务的套餐与计费。 图 计费详情 资源包管理 资源包购买成功后次日00:00时生效,自动抵扣所覆盖产品产生的数据,有效期为一年; 资源包购买后不支持退款,到期后未用完的资源将清零,不支持转移到其他资源包; 购买多个资源包时,当某个资源包用尽后默认自动开启下一个临近到期的相同类别的资源包; 当资源包用尽或者过期后,默认转为按需计费。 1.订购安全加速产品后,可支持订购安全加速的资源包,并根据所开功能对资源包进行抵扣。 使用条件: 1)计费方式为“流量“:开通安全加速和WAF防护的用户,可抵扣“安全加速流量包“、“防护请求数包”和”静态https请求数包“;开通安全加速和抗D服务的用户,可抵扣”安全加速流量包“和“静态https请求数包”。 2)计费方式为“日带宽“:开通安全加速和WAF防护的用户,可抵扣“防护请求数包”和“静态https请求数包”;开通安全加速和抗D服务的用户,可抵扣“静态https请求数包”;计费方式为“日带宽”不能抵扣流量包,需要变更计费方式为“流量”。 2.资源包可叠加购买,购买多个相同类型的资源包,抵扣顺序依据资源包的到期时间先后排序,有效期不叠加计算。 3.资源包不支持退订,资源包订购成功后,不支持退订退款;资源包到期后,未用完的资源自动清零,不支持结转。 4.资源包的有效期为自购买成功后一年内有效;“任一资源包用尽”或“有效期结束”,将自动转按量计费。 5.资源包中的”安全加速流量包“是供边缘节点上行和下行总流量使用;“日带宽”计费客户,如需使用“安全加速流量包”,需将计费方式变更为“流量”。可叠加购买:购买多个相同类型的资源包,抵扣顺序依据资源包的到期时间先后排序,有效期不叠加计算。 不支持退订:资源包订购成功后,不支持退订退款;资源包到期后,未用完的资源自动清零,不支持结转。 有效期:自购买成功后一年内有效;“任一资源包用尽”或“有效期结束”,将自动转按量计费。 图 资源包管理
        来自:
        帮助文档
        安全加速(文档停止维护)
        用户指南
        计费详情
      • ALM-45176 OBS元数据接口调用成功率低于阈值
        本章节主要介绍ALM45176 OBS元数据接口调用成功率低于阈值的告警。 告警解释 系统每30秒周期性检测OBS元数据接口调用成功率是否小于阈值,当检测到小于所设置阈值时就会产生该告警 。 当OBS元数据接口调用成功率大于阈值时,该告警会自动清除。 告警属性 告警ID 告警级别 是否自动清除 45176 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 OBS元数据接口调用成功率小于阈值,会影响上层大数据计算业务的正常执行,导致某些计算任务的执行失败。 可能原因 OBS服务端出现执行异常或严重超时。 处理步骤 检查堆内存使用率 在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > OBS元数据接口调用成功率低于阈值”,查看“定位信息”中的角色名并确定实例的IP地址。 1. 选择“集群 > 待操作集群的名称 > 服务 > meta > 实例 > meta(对应上报告警实例IP地址)”。单击图表区域右上角的下拉菜单,选择“定制”,在“OBS元数据操作”中勾选“OBS接口调用成功率”,单击“确定”,查看OBS元数据接口调用成功率,确定是否有接口调用成功率低于阈值。 是,执行步骤3。 否,执行步骤5。 2. 选择“集群 > 待操作集群的名称 > 运维 > 告警 > 阈值设置 > meta > OBS元数据接口调用成功率”,将阈值或平滑次数参数的值根据实际情况调小。 3. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-45176 OBS元数据接口调用成功率低于阈值
      • ALM-45177 OBS数据读操作接口调用成功率低于阈值
        本章节主要介绍ALM45177 OBS数据读操作接口调用成功率低于阈值的告警。 告警解释 系统每30秒周期性检测OBS数据读操作接口调用成功率是否小于阈值,当检测到小于所设置阈值时就会产生该告警 。 当OBS数据读操作接口调用成功率大于阈值时,该告警会自动清除。 告警属性 告警ID 告警级别 是否自动清除 45177 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 OBS数据读操作接口调用成功率小于阈值,会影响上层大数据计算业务的正常执行,导致某些计算任务的执行失败。 可能原因 OBS服务端出现执行异常或严重超时。 处理步骤 检查堆内存使用率 在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > OBS数据读操作接口调用成功率低于阈值”,查看“定位信息”中的角色名并确定实例的IP地址。 1. 选择“集群 > 待操作集群的名称 > 服务 > meta > 实例 > meta(对应上报告警实例IP地址)”。单击图表区域右上角的下拉菜单,选择“定制”,在“OBS数据读操作”中勾选“OBS数据读操作接口调用成功率”,单击“确定”,查看OBS数据读操作接口调用成功率,确定是否有接口调用成功率低于阈值。 是,执行步骤3。 否,执行步骤5。 2. 选择“集群 > 待操作集群的名称 > 运维 > 告警 > 阈值设置 > meta > OBS数据读操作接口调用成功率”,将阈值或平滑次数参数的值根据实际情况调小。 3. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-45177 OBS数据读操作接口调用成功率低于阈值
      • 自定义IPS特征
        本节介绍如何添加自定义IPS特征。 CFW支持自定义网络入侵特征规则,添加后,CFW将基于签名特征检测数据流量是否存在威胁。 自定义IPS特征支持添加HTTP、TCP、UDP、POP3、SMTP、FTP的协议类型。 注意 自定义的特征建议具体化,避免太宽泛,否则可能会导致大部分流量匹配到该特征规则,影响流量转发性能。 约束条件 仅“专业版”支持自定义IPS特征。 最多支持添加500条特征。 自定义的IPS特征不受修改基础防御防护模式的影响。 特征设置“方向”为“客户端到服务器”且“协议类型”为“HTTP”时,“内容选项”才能设置为“URI”。 自定义IPS特征 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“攻击防御> 入侵防御”。单击“自定义IPS特征”中的“查看规则”,进入“自定义IPS特征”页面。 5. 在“自定义IPS特征”页签中,单击列表右上角“添加自定义IPS特征”,填写规则如下表所示。 参数名称 参数说明 名称 需要添加的特征名称。 命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符()。 长度不能超过255个字符。 风险等级 设置特征的风险等级。 攻击类型 选择特征的攻击类型。 影响软件 选择受影响的软件。 操作系统 选择操作系统。 方向 选择该特征匹配流量的方向。 Any:任意方向,符合其他条件的任意方向的流量都会匹配到当前规则。 服务器到客户端 客户端到服务器 协议类型 选择特征的协议类型。 源类型 选择源端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 源端口 “源类型”选择“包含”或“排除”时,设置源端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 目的类型 选择目的端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 目的端口 “目的类型”选择“包含”或“排除”时,设置目的端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 动作 防火墙检测到该特征流量时,采取的动作。 观察:仅对攻击事件进行检测并记录到日志中,日志记录查询请参见“日志查询”。 拦截:实施自动拦截操作。 说明 建议您优先选择“观察”,确认“攻击事件日志”记录正确后,再切换至“拦截”。 内容 特征规则中匹配的内容。 内容:跟特征匹配的内容字段,例如:cfw。 内容选项:选择“内容”匹配的限制规则。 十六进制:匹配十六进制时,“内容”需填写十六进制格式,例如:0x1F。 忽略大小写:匹配时不区分大小写。 URL:匹配URL中跟“内容”一致的字段。 相对位置:匹配特征时,指定开始的位置。 头部:从报文“偏移”值的位置开始匹配特征,例如偏移:10,则该条内容从第11位开始。 说明 当“内容选项”选择“URL”时,头部的匹配位置从域名结束(包含端口)开始计算。 例如:www.example.com/test,偏移为0,则该条内容从com后的/开始。 或www.example.com:80/test,偏移为0,则该条内容从80后的/开始。 上一个内容之后:报文中截取的位置从指定位置开始。 公式:上一条“内容”字段长度+上一条“偏移”值+“偏移”值+1 例如:上一条设置内容:test,偏移:10,本条偏移:5,则该条内容的匹配位置从第20(4+10+5+1)位开始。 偏移:匹配特征时开始的位置,例如偏移:10,则代表该条内容的匹配位置从第11位开始。 深度:匹配特征时,截止匹配的位置,例如深度:65535 ,则代表该条内容的匹配位置到第65535位截止。 说明 “深度”值需大于“内容”字段长度。 一条IPS特征中最多添加4条内容。 6. 单击“确认”,完成添加IPS特征。
        来自:
        帮助文档
        云防火墙
        用户指南
        拦截恶意攻击
        IPS规则管理
        自定义IPS特征
      • 在科研助手使用Open WebUI对LLM模型推理
        本文介绍了如何在科研助手中使用Open WebUI对LLM模型推理。 概述: Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。 准备环境: 1.【开发机】创建开发机 1. 填入名称“openwebui”选择队列及可用区 2. 【资源配置】 【GPU加速型】在单选框中选择“NVIDIA A100” (规格根据实际情况修改 GPU类型可选择A10 A100 3060 3080) 3. 框架版本选择【社区镜像】的“vncopenwebuicuda11.3” 2.点击【确认订单】 启动开发机并登录VNC: 1. 【开发机】刷新状态,等待openwebui开发机状态进入到【运行中】状态后点击右侧操作栏【打开】。 2. 点击【打开】跳转到vnc开发机,成功进入到远程桌面中。 3. 启动Open WebUI,准备模型: 1. 点击桌面上【OI】图标,等待弹窗浏览器(第一次启动时间较长) 2. 在窗口点击【注册】输入用户名,邮箱,和密码 (信息保存在VNC开发机中,重启后需要重新注册) 3. 在窗口点击【登录】输入用户名,密码,进入对话界面 4. 在【选择一个模型】下拉框输入模型,如【llama:8b】,选择【从 Ollama.com 拉取“llama3:8b”】
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用Open WebUI对LLM模型推理
      • 升级数据库版本
        注意事项 版本升级功能为白名单功能,默认不开放,有升级需求的请提交工单申请放开权限。 升级版本后无法回退。 在升级前,请务必查阅微软官方文档,评估不受兼容性保护的已停用功能、突破性变更,及版本功能变化,充分评估应用程序与SQL Server版本的兼容性。 在升级前,建议对现有实例执行一次全量数据备份。 升级期间,请勿对实例执行任何元数据修改操作,执行这些操作可能会导致升级后的数据不一致。元数据修改操作包括但不限于添加数据库、删除数据库、修改数据库的恢复模式等。 升级前,建议先停止业务等待升级完成再重新启动。 升级影响 升级操作一旦开始不可取消,且升级完成后无法回退。 升级前后实例名称、访问端口、数据库账号等原有设置均不会发生变化。 升级所需时间取决于实例的数据量等。 单机版实例升级期间,数据库不可用。请确保业务具备重连机制。 主备版实例升级期间,最短停业时间为主备切换时间,切换期间,数据库会短暂不可用。请确保业务具备重连机制。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server版产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中找到需要升级的目标实例,点击【更多】【版本升级】按钮。 4. 在版本升级弹出框,点击【升级】,提交升级版本任务,可以在【任务列表】菜单页面查看任务是否完成。提交任务后实例状态会变成“升级版本中”,升级完成后实例状态会重新变成“运行中”。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理实例
        升级数据库版本
      • 存储空间自动扩容
        关系数据库SQL Server版服务支持自动扩容实例存储空间,即当实例存储空间达到一定阈值时,由后台自动发起扩容,无需用户进行人工操作确认。本文介绍如何开启和关闭关系数据库SQL Server版服务的存储空间自动扩容功能。 前提条件 实例状态为 运行中 。 您的账户余额充足。 约束限制 实例最大可自动扩容至32TB。 注意 如果实例存储空间本身已达上限,则不支持自动扩容。 扩容后不支持缩容。 实例的任意节点达到阈值都会触发自动扩容。 存储空间自动扩容连续触发间隔为一小时(即存储空间自动扩容成功后仍满足扩容阈值,在一小时后会再次触发自动扩容);每次默认扩容当前磁盘大小的20%(向上取整),直到达到扩容上限为止。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择 产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版 ,进入关系数据库SQL Server产品页面。然后单击 管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择 SQL Server > 实例管理 ,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击主实例名称,进入实例基本信息页面。 4. 在配置信息 区域,单击存储自动扩容 参数右侧的 设置 。 5. 在设置存储空间自动扩容 对话框中,打开或关闭自动扩容开关。开启自动扩容功能时,您需要配置存储扩容触发阈值 和 存储自动扩容上限 。 6. 单击 确定 。 注意 扩容会产生相应的费用,从余额进行扣除,请保证余额充足。 对于大业务量,可能很快到达存储自动扩容上限值,因此建议存储自动扩容上限选择较大值,以备不时之需。 存储自动扩容上限不能小于200GB。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理实例
        存储空间自动扩容
      • 1
      • ...
      • 135
      • 136
      • 137
      • 138
      • 139
      • ...
      • 480
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      应用托管

      推荐文档

      全面了解天翼云⑥:网站无法访问预处理

      全面了解天翼云⑨:远程桌面无法复制粘贴

      产品优势

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号