活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云对等连接_相关内容
      • 公网NAT网关通过多网关扩展容量
        步骤说明 通过NAT网关SNAT规则的配置,实现网关功能(此处仅为演示,也可以配置为DNAT规则)。 操作步骤 1. 登录天翼云控制中心,选择“网络>NAT网关”,进入NAT网关信息展示页面。点击NAT网关名称,进入NAT网关1详情规则页面。 2. 点击“添加SNAT规则”,弹出添加SNAT规则对话框,进行参数配置。 子网:选择要使用SNAT的对应子网。 弹性IP:选择购买的弹性IP1。 说明:选择多个弹性IP时,业务连接会通过轮询方式分配到多个弹性IP,由于每个连接的流量不同,可能会出现多弹性IP业务流量不均匀的情况,建议您将每个弹性IP加入到同一个共享带宽中以避免单弹性IP带宽达到上限导致业务受损;并且同一个内网IP访问单一目的IP,可能使用不同的EIP。访问单一目标的并发连接数过多时,会造成端口分配失败,需持续监控SNAT源端口溢出丢包数。 3. 配置好相关参数后,点击“确定”,等待SNAT规则状态变为运行中,即完成SNAT规则配置。 4. 选择“网络>NAT网关”,进入NAT网关信息展示页面。点击NAT网关名称,进入NAT网关2详情规则页面。 5. 点击“添加SNAT规则”,弹出添加SNAT规则对话框,进行参数配置。 子网:选择要使用SNAT的对应子网。 弹性IP:选择购买的弹性IP2。 6. 配置好相关参数后,点击“确定”等待SNAT规则状态变为运行中,即完成SNAT规则配置。
        来自:
        帮助文档
        NAT网关
        快速入门
        公网NAT网关
        公网NAT网关通过多网关扩展容量
      • AOne iOS SDK接入文档
        参数 参数类型 参数含义 是否必传 备注 status NSNumber 隧道状态 是 1|2|3| 断开|连接中 |已连上
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        天翼云AOne SDK使用指南
        AOne iOS SDK接入文档
      • HBlock用户手册和安装包
        版本 发布日期 说明 4.0 2026年03月24日 1. 支持免费版本。 2. 新增调整HBlock服务占用服务器内存参数功能。 3. 上云卷新增挂起卷功能。 4. 支持通过API设置本地卷的扩展属性。 5. 增加设置鉴权方式。 3.10 2025年09月25日 1. 支持target访问权限,实现客户端和target端权限管理。 2. 支持备份,基于快照生成独立于源卷的数据备份文件。 3. 支持设置QoS规则,从带宽和IOPS维度管控流量。 3.9 2025年04月21日 1. 支持快照功能,实现数据的快速备份与恢复。 2. 支持克隆卷功能,用于数据复制、测试验证等场景。 3.8 2025年02月14日 1. API签名方法变更,提升安全性。 2. 存储卷和缓存卷支持将数据上传至兼容 S3 的对象存储。 3. 支持设置基础服务的数据存储目录。 4. Target增加回收策略,支持无卷关联后自动删除。 5. 针对智算、虚拟化以及高可用敏感度等场景,支持一键调整系统参数。 6. 支持设置折叠副本数,允许数据副本/分片放在同一个故障域中。 3.7 2024年08月08日 1. 支持设置集群拓扑。 2. 支持创建和管理多存储池。 3. 支持机房和机架级别故障域。 4. 支持设置卷的高速缓存池。 5. 支持基础服务迁移。 3.6 2024年06月03日 1. 支持存储卷和缓存卷,将数据从后端上传到天翼云对象存储(经典版)I型。 2. 硬件及HBlock监控数据支持对接到Prometheus。 3. 支持HBlock告警信息对接到智能运维平台。 4. 优化读写性能。 5. 增加对龙芯服务器的支持。 3.5 2024年03月04日 1. 支持服务器、数据目录级别的故障域,支持磁盘级别的数据服务。 2. 支持指定基础服务的安装节点。 3. 支持数据目录配额,设置HBlock可写入的数据量上限。 4. Target可被多个客户端发现并连接。 5. 设置卷的最小写入副本数,提高数据写入安全性。 6. 扩大纠删码EC N+M支持范围,满足N+M<128。 3.4 2023年07月12日 1. 卷连接支持一主多备,提高业务可用性。 2. 支持IPv6环境。 3. 控制台提供Dashboard一页式概览。 4. 支持通过命令行查询CHAP密码。 3.3 2022年12月23日 支持安全移除服务器。 3.2 2022年09月26日 1. 监控项增加,扩大覆盖范围。 2. 增加对告警、日志管理的支持。 3. 事件中增加对系统事件的支持。 3.1 2022年06月14日 1. 单机版支持添加多个数据目录。 2. 集群版支持创建Target时指定对应的服务器,支持Target迁移。 3. 支持用户事件的记录和查询。 3.0 2022年01月18日 1. 命令行变更为非交互式。 2. 支持WEB、API调用方式。 3. 卷操作:支持设置卷的高可用类型和卷的写策略。 2.1 2021年08月27日 1. 增加对ARM服务器的支持。 2. 软件许可证:查看许可证时,可以显示允许的容量。 3. 卷操作:支持对卷进行主备切换,即卷对应的Active Target和Standby Target切换。 2.0 2021年05月28日 1. 支持集群版部署。 2. 支持多副本和纠删码数据冗余。
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        HBlock用户手册和安装包
      • 公网NAT网关
        检查网络ACL是否放通子网流量 检查VPC的子网是否关联了网络ACL,如果关联了网络ACL,请检查“ 网络ACL”规则。 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域和项目。 3. 在系统首页,选择“网络 > 虚拟私有云”。 4. 在左侧导航栏选择“子网”。 5. 查看NAT网关对应的子网是否关联了网络ACL。 显示具体的网络ACL名称说明已关联网络ACL。 6. 单击网络ACL名称查看网络ACL的详细信息。 7. 检查入方向规则和出方向规则是否添加了放通子网流量的规则。 如果未添加放通子网流量的规则,请添加入方向、出方向规则放通子网流量或者将网络ACL与子网取消关联。 检查弹性公网IP的带宽是否超限 公网NAT网关绑定了弹性IP时,通过带宽提供公网和公网NAT网关间的访问流量。 如果出现网络不通,请排查弹性IP带宽是否超过带宽最大上限。 检查公网NAT网关业务量是否超过规格上限 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择区域和项目。 3. 选择“管理与监管 > 云监控服务”。 4. 单击页面左侧的“云服务监控”,选择“NAT网关”。 5. 单击“操作”列的“查看监控指标”,查看公网NAT网关的监控指标详情。 6. 检查公网NAT网关SNAT连接数是否超过NAT网关规格上限。 − 如果SNAT连接数未超过公网NAT网关规格上限,请检查下一项。 − 如果SNAT连接数超过公网NAT网关规格上限,请提升公网NAT网关规格。
        来自:
        帮助文档
        NAT网关
        常见问题
        公网NAT网关
      • Java调用示例
        1. com.ffcs.ebp.ebpsdk.common.Response java package com.ffcs.ebp.ebpsdk.common; import java.util.Map; public class Response { private int statusCode; private String body; private Map headers; public int getStatusCode() { return statusCode; } public void setStatusCode(int statusCode) { this.statusCode statusCode; } public String getBody() { return body; } public void setBody(String body) { this.body body; } public Map getHeaders() { return headers; } public void setHeaders(Map headers) { this.headers headers; } } 2. com.ffcs.ebp.ebpsdk.YunSign java package com.ffcs.ebp.ebpsdk; import com.ffcs.ebp.ebpsdk.common.Response; import org.apache.commons.lang.StringUtils; import org.apache.http.Header; import org.apache.http.HttpEntity; import org.apache.http.client.config.AuthSchemes; import org.apache.http.client.config.CookieSpecs; import org.apache.http.client.config.RequestConfig; import org.apache.http.client.methods.; import org.apache.http.config.Registry; import org.apache.http.config.RegistryBuilder; import org.apache.http.conn.socket.ConnectionSocketFactory; import org.apache.http.conn.socket.PlainConnectionSocketFactory; import org.apache.http.conn.ssl.NoopHostnameVerifier; import org.apache.http.conn.ssl.SSLConnectionSocketFactory; import org.apache.http.entity.StringEntity; import org.apache.http.impl.client.CloseableHttpClient; import org.apache.http.impl.client.HttpClients; import org.apache.http.impl.conn.PoolingHttpClientConnectionManager; import org.apache.http.util.EntityUtils; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; import javax.net.ssl.SSLContext; import javax.net.ssl.TrustManager; import javax.net.ssl.X509TrustManager; import java.io.; import java.net.URLEncoder; import java.nio.charset.Charset; import java.nio.charset.StandardCharsets; import java.security.KeyManagementException; import java.security.MessageDigest; import java.security.NoSuchAlgorithmException; import java.security.cert.X509Certificate; import java.text.SimpleDateFormat; import java.util.; public class YunSign { private String url; private String body; private String ak; private String sk; private String uuId; private int temp; private String contentType; private String queryStr; private Map headerMap; private String afterQuery; public YunSign(String url, String ak, String sk, String uuId, String body, int temp, String contentType, String queryStr, Map headerMap) { this.url url; if(body.equals("{}")){ body ""; } this.body body; this.ak ak; this.sk sk; this.uuId uuId; this.temp temp; this.contentType contentType; this.queryStr queryStr; this.headerMap headerMap; } public Response toDo(String method, int connectTimeout, int connectionRequestTimeout, int socketTimeout) { Response response null; method method.toUpperCase(); switch (method) { case "POST": response doPost(connectTimeout, connectionRequestTimeout, socketTimeout); break; case "GET": if (StringUtils.isNotEmpty(this.body)) { response sendJsonByGetReq(connectTimeout, connectionRequestTimeout, socketTimeout); } else { response doGet(connectTimeout, connectionRequestTimeout, socketTimeout); } break; case "DELETE": if (StringUtils.isNotEmpty(this.body)) { response sendJsonByDeleteReq(connectTimeout, connectionRequestTimeout, socketTimeout); } else { response doDelete(connectTimeout, connectionRequestTimeout, socketTimeout); } break; case "PUT": response doPut(connectTimeout, connectionRequestTimeout, socketTimeout); break; case "PATCH": response doPatch(connectTimeout, connectionRequestTimeout, socketTimeout); break; case "HEAD": response doHead(connectTimeout, connectionRequestTimeout, socketTimeout); break; } return response; } private String getSign(Date eopDate) { String calculateContentHash getSHA256(body); //报文原封不动进行sha256摘要 // System.out.println("calculateContentHash:" + calculateContentHash); SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); SimpleDateFormat DATEFORMATTER new SimpleDateFormat("yyyyMMdd"); String singerDate TIMEFORMATTER.format(eopDate); String singerDd DATEFORMATTER.format(eopDate); //header的key按照26字母进行排序, 以&作为连接符连起来 try { String CampmocalHeader String.format("ctyuneoprequestid:%sneopdate:%sn", this.uuId, singerDate); String sigture CampmocalHeader + "n" + this.afterQuery + "n" + calculateContentHash; // System.out.println("sigture:" + sigture); byte[] ktime HmacSHA256(singerDate.getBytes(), sk.getBytes()); // System.out.println("ktime:" + HexUtils.bytes2Hex(ktime)); byte[] kAk HmacSHA256(ak.getBytes(), ktime); // System.out.println("kAk:" + HexUtils.bytes2Hex(kAk)); byte[] kdate HmacSHA256(singerDd.getBytes(), kAk); // System.out.println("kdate:" + HexUtils.bytes2Hex(kdate)); String Signature Base64.getEncoder().encodeToString(HmacSHA256(sigture.getBytes("UTF8"), kdate)); // System.out.println("Signature:" + Signature); String signHeader String.format("%s Headersctyuneoprequestid;eopdate Signature%s", ak, Signature); // System.out.println("signHeader:" + signHeader); return signHeader; } catch (Exception e) { e.printStackTrace(); } return null; } / 在调用SSL之前需要重写验证方法,取消检测SSL 创建ConnectionManager,添加Connection配置信息 @return HttpClient 支持https / private static CloseableHttpClient sslClient() { try { // 在调用SSL之前需要重写验证方法,取消检测SSL X509TrustManager trustManager new X509TrustManager() { @Override public X509Certificate[] getAcceptedIssuers() { return null; } @Override public void checkClientTrusted(X509Certificate[] xcs, String str) { } @Override public void checkServerTrusted(X509Certificate[] xcs, String str) { } }; SSLContext ctx SSLContext.getInstance(SSLConnectionSocketFactory.TLS); ctx.init(null, new TrustManager[]{trustManager}, null); SSLConnectionSocketFactory socketFactory new SSLConnectionSocketFactory(ctx, NoopHostnameVerifier.INSTANCE); // 创建Registry RequestConfig requestConfig RequestConfig.custom().setCookieSpec(CookieSpecs.STANDARDSTRICT) .setExpectContinueEnabled(Boolean.TRUE).setTargetPreferredAuthSchemes(Arrays.asList(AuthSchemes.NTLM, AuthSchemes.DIGEST)) .setProxyPreferredAuthSchemes(Arrays.asList(AuthSchemes.BASIC)).build(); Registry socketFactoryRegistry RegistryBuilder. create() .register("http", PlainConnectionSocketFactory.INSTANCE) .register("https", socketFactory).build(); // 创建ConnectionManager,添加Connection配置信息 PoolingHttpClientConnectionManager connectionManager new PoolingHttpClientConnectionManager(socketFactoryRegistry); CloseableHttpClient closeableHttpClient HttpClients.custom().setConnectionManager(connectionManager) .setDefaultRequestConfig(requestConfig).build(); return closeableHttpClient; } catch (KeyManagementException ex) { throw new RuntimeException(ex); } catch (NoSuchAlgorithmException ex) { throw new RuntimeException(ex); } } public Response doGet(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse response null; Response result new Response(); try { // 通过址默认配置创建一个httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); //创建HttpGet远程连接实例 HttpGet httpGet; if (StringUtils.isNotEmpty(this.afterQuery)) { httpGet new HttpGet(this.url + "?" + this.afterQuery); } else { httpGet new HttpGet(this.url); } // 设置请求头信息,鉴权 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpGet.setHeader("ContentType", this.contentType); httpGet.setHeader("ctyuneoprequestid", this.uuId); httpGet.setHeader("EopAuthorization", getSign(eopDate)); httpGet.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpGet.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpGet.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 设置配置请求参数 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 请求超时时间 .setSocketTimeout(socketTimeout)// 数据读取超时时间 .build(); // 为httpGet实例设置配置 httpGet.setConfig(requestConfig); // 执行get请求得到返回对象 response httpClient.execute(httpGet); // 通过返回对象获取返回数据 HttpEntity entity response.getEntity(); // 通过EntityUtils中的toString方法将结果转换为字符串 result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(response.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : response.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! response) { try { response.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response sendJsonByGetReq(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { Response result new Response(); CloseableHttpClient client null; CloseableHttpResponse response null; try { // 通过址默认配置创建一个httpClient实例 if (temp 0) {//绕过SSL client sslClient(); } else { client HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建HttpGetWithEntity远程连接实例 HttpGetWithEntity httpGetWithEntity; if (StringUtils.isNotEmpty(this.afterQuery)) { httpGetWithEntity new HttpGetWithEntity(this.url + "?" + this.afterQuery); } else { httpGetWithEntity new HttpGetWithEntity(this.url); } // 配置请求参数实例 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 设置连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 设置连接请求超时时间 .setSocketTimeout(socketTimeout)// 设置读取数据连接超时时间 .build(); // 为HttpGetWithEntity实例设置配置 httpGetWithEntity.setConfig(requestConfig); // 设置请求头 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpGetWithEntity.setHeader("ContentType", this.contentType); httpGetWithEntity.setHeader("ctyuneoprequestid", this.uuId); httpGetWithEntity.setHeader("EopAuthorization", getSign(eopDate)); httpGetWithEntity.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpGetWithEntity.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpGetWithEntity.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); HttpEntity httpEntity new StringEntity(body, Charset.forName("UTF8")); httpGetWithEntity.setEntity(httpEntity); //执行请求操作,并拿到结果(同步阻塞) response client.execute(httpGetWithEntity); //获取结果实体 HttpEntity entity response.getEntity(); result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(response.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : response.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! response) { try { response.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! client) { try { client.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response doPost(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse httpResponse null; Response result new Response(); try { // 创建httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建httpPost远程连接实例 HttpPost httpPost; if (StringUtils.isNotEmpty(this.afterQuery)) { httpPost new HttpPost(this.url + "?" + this.afterQuery); } else { httpPost new HttpPost(this.url); } // 配置请求参数实例 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 设置连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 设置连接请求超时时间 .setSocketTimeout(socketTimeout)// 设置读取数据连接超时时间 .build(); // 为httpPost实例设置配置 httpPost.setConfig(requestConfig); // 设置请求头 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpPost.setHeader("ContentType", this.contentType); httpPost.setHeader("ctyuneoprequestid", this.uuId); httpPost.setHeader("EopAuthorization", getSign(eopDate)); httpPost.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpPost.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpPost.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 为httpPost设置封装好的请求参数 StringEntity data new StringEntity(body, Charset.forName("UTF8")); httpPost.setEntity(data); // httpClient对象执行post请求,并返回响应参数对象 httpResponse httpClient.execute(httpPost); // 从响应对象中获取响应内容 HttpEntity entity httpResponse.getEntity(); result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(httpResponse.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : httpResponse.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! httpResponse) { try { httpResponse.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response doPut(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse httpResponse null; Response result new Response(); try { // 创建httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建HttpPut远程连接实例 HttpPut httpPut; if (StringUtils.isNotEmpty(this.afterQuery)) { httpPut new HttpPut(this.url + "?" + this.afterQuery); } else { httpPut new HttpPut(this.url); } // 配置请求参数实例 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 设置连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 设置连接请求超时时间 .setSocketTimeout(socketTimeout)// 设置读取数据连接超时时间 .build(); // 为httpPost实例设置配置 httpPut.setConfig(requestConfig); // 设置请求头 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(20321900,01,05); httpPut.setHeader("ContentType", this.contentType); httpPut.setHeader("ctyuneoprequestid", this.uuId); httpPut.setHeader("EopAuthorization", getSign(eopDate)); httpPut.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpPut.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpPut.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 为httpPost设置封装好的请求参数 StringEntity data new StringEntity(body, Charset.forName("UTF8")); httpPut.setEntity(data); // httpClient对象执行post请求,并返回响应参数对象 httpResponse httpClient.execute(httpPut); // 从响应对象中获取响应内容 HttpEntity entity httpResponse.getEntity(); result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(httpResponse.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : httpResponse.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! httpResponse) { try { httpResponse.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response doPatch(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse httpResponse null; Response result new Response(); try { // 创建httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建HttpPatch远程连接实例 HttpPatch httpPatch; if (StringUtils.isNotEmpty(this.afterQuery)) { httpPatch new HttpPatch(this.url + "?" + this.afterQuery); } else { httpPatch new HttpPatch(this.url); } // 配置请求参数实例 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 设置连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 设置连接请求超时时间 .setSocketTimeout(socketTimeout)// 设置读取数据连接超时时间 .build(); // 为httpPost实例设置配置 httpPatch.setConfig(requestConfig); // 设置请求头 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpPatch.setHeader("ContentType", this.contentType); httpPatch.setHeader("ctyuneoprequestid", this.uuId); httpPatch.setHeader("EopAuthorization", getSign(eopDate)); httpPatch.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpPatch.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpPatch.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 为httpPost设置封装好的请求参数 StringEntity data new StringEntity(body, Charset.forName("UTF8")); httpPatch.setEntity(data); // httpClient对象执行post请求,并返回响应参数对象 httpResponse httpClient.execute(httpPatch); // 从响应对象中获取响应内容 HttpEntity entity httpResponse.getEntity(); result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(httpResponse.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : httpResponse.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! httpResponse) { try { httpResponse.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response doDelete(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse response null; Response result new Response(); try { // 通过址默认配置创建一个httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建httpGet远程连接实例 HttpDelete httpDelete; if (StringUtils.isNotEmpty(this.afterQuery)) { httpDelete new HttpDelete(this.url + "?" + this.afterQuery); } else { httpDelete new HttpDelete(this.url); } // 设置请求头信息,鉴权 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpDelete.setHeader("ContentType", this.contentType); httpDelete.setHeader("ctyuneoprequestid", this.uuId); httpDelete.setHeader("EopAuthorization", getSign(eopDate)); httpDelete.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpDelete.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpDelete.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 设置配置请求参数 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 请求超时时间 .setSocketTimeout(socketTimeout)// 数据读取超时时间 .build(); // 为httpGet实例设置配置 httpDelete.setConfig(requestConfig); // 执行get请求得到返回对象 response httpClient.execute(httpDelete); // 通过返回对象获取返回数据 HttpEntity entity response.getEntity(); // 通过EntityUtils中的toString方法将结果转换为字符串 result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(response.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : response.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! response) { try { response.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response sendJsonByDeleteReq(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse response null; Response result new Response(); try { // 通过址默认配置创建一个httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建httpGet远程连接实例 HttpDeleteWithBody delete; if (StringUtils.isNotEmpty(this.afterQuery)) { delete new HttpDeleteWithBody(this.url + "?" + this.afterQuery); } else { delete new HttpDeleteWithBody(this.url); } // 设置请求头信息,鉴权 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); delete.setHeader("ContentType", this.contentType); delete.setHeader("ctyuneoprequestid", this.uuId); delete.setHeader("EopAuthorization", getSign(eopDate)); delete.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { delete.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : delete.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); HttpEntity httpEntity new StringEntity(body, Charset.forName("UTF8")); delete.setEntity(httpEntity); // 设置配置请求参数 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 请求超时时间 .setSocketTimeout(socketTimeout)// 数据读取超时时间 .build(); // 为httpGet实例设置配置 delete.setConfig(requestConfig); // 执行get请求得到返回对象 response httpClient.execute(delete); // 通过返回对象获取返回数据 HttpEntity entity response.getEntity(); // 通过EntityUtils中的toString方法将结果转换为字符串 result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(response.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : response.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! response) { try { response.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } public Response doHead(int connectTimeout, int connectionRequestTimeout, int socketTimeout) { CloseableHttpClient httpClient null; CloseableHttpResponse response null; Response result new Response(); try { // 通过址默认配置创建一个httpClient实例 if (temp 0) {//绕过SSL httpClient sslClient(); } else { httpClient HttpClients.createDefault(); } String query this.queryStr; this.afterQuery encodeQueryStr(query); // 创建httpHead远程连接实例 HttpHead httpHead; if (StringUtils.isNotEmpty(this.afterQuery)) { httpHead new HttpHead(this.url + "?" + this.afterQuery); } else { httpHead new HttpHead(this.url); } // 设置请求头信息,鉴权 SimpleDateFormat TIMEFORMATTER new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); Date eopDate new Date(); httpHead.setHeader("ContentType", this.contentType); httpHead.setHeader("ctyuneoprequestid", this.uuId); httpHead.setHeader("EopAuthorization", getSign(eopDate)); httpHead.setHeader("Eopdate", TIMEFORMATTER.format(eopDate)); if (this.headerMap ! null) { for (String key : this.headerMap.keySet()) { if (StringUtils.isNotEmpty(key)) { httpHead.setHeader(key, this.headerMap.get(key).toString()); } } } System.out.println("请求头部 "); for (Header header : httpHead.getAllHeaders()) { System.out.println(header.getName() + ":" + header.getValue()); } System.out.println(); // 设置配置请求参数 RequestConfig requestConfig RequestConfig.custom().setConnectTimeout(connectTimeout)// 连接主机服务超时时间 .setConnectionRequestTimeout(connectionRequestTimeout)// 请求超时时间 .setSocketTimeout(socketTimeout)// 数据读取超时时间 .build(); // 为httpHead实例设置配置 httpHead.setConfig(requestConfig); // 执行head请求得到返回对象 response httpClient.execute(httpHead); // 通过返回对象获取返回数据 HttpEntity entity response.getEntity(); // 通过EntityUtils中的toString方法将结果转换为字符串 result.setBody(EntityUtils.toString(entity, "UTF8")); result.setStatusCode(response.getStatusLine().getStatusCode()); Map headerMap new HashMap (); for (Header header : response.getAllHeaders()) { headerMap.put(header.getName(), header.getValue()); } result.setHeaders(headerMap); } catch (Exception e) { e.printStackTrace(); } finally { // 关闭资源 if (null ! response) { try { response.close(); } catch (IOException e) { e.printStackTrace(); } } if (null ! httpClient) { try { httpClient.close(); } catch (IOException e) { e.printStackTrace(); } } } return result; } private String toHex(byte[] data) { StringBuilder sb new StringBuilder(data.length 2); byte[] var2 data; int var3 data.length; for (int var4 0; var4 2) { String encodeStr null; encodeStr URLEncoder.encode(s[1], "UTF8"); str s[0] + "" + encodeStr; afterQuery afterQuery + str; } else { String encodeStr ""; str s[0] + "" + encodeStr; afterQuery afterQuery + str; } } else { String[] s str.split(""); if (s.length > 2) { String encodeStr URLEncoder.encode(s[1], "UTF8"); str s[0] + "" + encodeStr; afterQuery afterQuery + "&" + str; } else { String encodeStr ""; str s[0] + "" + encodeStr; afterQuery afterQuery + "&" + str; } } } } } catch (Exception e) { e.printStackTrace(); } return afterQuery; } } 3. HexUtils.java java package com.ffcs.ebp.ebpsdk; public class HexUtils { private static final char[] HEXES { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f' }; / byte数组 转换成 16进制小写字符串 / public static String bytes2Hex(byte[] bytes) { if (bytes null bytes.length 0) { return null; } StringBuilder hex new StringBuilder(); for (byte b : bytes) { hex.append(HEXES[(b >> 4) & 0x0F]); hex.append(HEXES[b & 0x0F]); } return hex.toString(); } / 16进制字符串 转换为对应的 byte数组 / public static byte[] hex2Bytes(String hex) { if (hex null hex.length() 0) { return null; } char[] hexChars hex.toCharArray(); byte[] bytes new byte[hexChars.length / 2]; // 如果 hex 中的字符不是偶数个, 则忽略最后一个 for (int i 0; i headerMap new HashMap<>(); // headerMap.put("queryMetricDataInfo", "{"regionId":"cnsz1","dim":"instanceid,98cdcc8a8e544788ab9cc94ccee429c7","filter":"average","from":"1658473040","to":"1658473040","metricName":"netbitRecv","namespace":"AGT.ECS","period":"1"},"platform":"3"}"); // headerMap.put("platform", "3"); // headerMap.put("consoleUrl", " // headerMap.put("UserAgent", "3333433"); // headerMap.put("XForwardedFor", "1231313"); // headerMap.put("regionId", "100054c0416811e9a6690242ac110002"); // headerMap.put("prodInstId","9dcaf0157c604100af79bdb8271527bc"); //请求地址 String url " //query参数(?后面拼接的参数。没有就不填) aaaa&bbbb String queryStr "regionID41f64827xxxxxxxxxffa3a5deb5d15d"; //body参数(没有就不填) String body ""; //APPID String ak "9f82cacd3f8235c66edfs5e899f098e6"; //appkey String sk "MlgzESz430hJgTzA4lkjuJvDMMLTqwBQRicVqV62VM"; String uuId UUID.randomUUID().toString(); //连接超时 int connectTimeout 35000; //连接请求超时 int connectionRequestTimeout 35000; //socket超时 int socketTimeout 60000; YunSign yunSign new YunSign(url, ak, sk, uuId, body, temp, contentType, queryStr, headerMap); Response response yunSign.toDo(method, connectTimeout, connectionRequestTimeout, socketTimeout); System.out.println("应答头部 "); for (Map.Entry entry : response.getHeaders().entrySet()) { System.out.println(entry.getKey().toString() + ":" + entry.getValue().toString()); } System.out.println(); System.out.println("请求结果 "); System.out.println(response.getBody()); } }
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        如何调用API
        Java调用示例
      • 软件连接器实例安装
        连接器安装选型 注意 连接器所安装部署的虚拟机或服务器需由客户自行购买提供,可根据推荐参数规格进行配置。为保障访问连接高可用,建议您一个连接器集群安装并启动至少2个服务器或虚拟机。 虚拟机或服务器配置 连接器所安装部署的虚拟机或者服务器的配置要求如下: 注意 理论转发带宽指标值,将受连接器转发链路上的带宽值以及链路上的网卡带宽性能影响,例如若需达到100Mbps的转发带宽,则需要使用千兆网卡,若需达到1000Mbps的转发带宽,则需配置使用万兆网卡,若完整访问链路需经过互联网,则将受限于连接器互联网网络的带宽峰值。 CPU核心数 内存(基于本机可用冗余内存存在差异) 磁盘 网络访问要求 理论支持转发带宽 2核 2GB 40GB 主机需要能访问公网(如百度) 200Mbps 2核 4GB 40GB 主机需要能访问公网(如百度) 400Mbps 4核 8GB 40GB 主机需要能访问公网(如百度) 800Mbps 4核 8GB(冗余内存大于4GB) 40GB 主机需要能访问公网(如百度) 1000Mbps 8核 16GB 40GB 主机需要能访问公网(如百度) 1200Mbps
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        网络管理
        连接器管理
        软件连接器实例安装
      • 产品类型和规格
        经典型负载均衡 经典型负载均衡适用于访问量较小,应用模型简单的web业务,可满足大部分应用程序的负载均衡需求,具备基本的流量分发和健康检查功能。 经典型负载均衡为免费规格,同VPC内多实例性能共享,为主备模式部署,无性能保障,经典型总体性能情况如下: 规格 最大并发连接数 新建连接数(CPS) QPS(HTTP) QPS(HTTPS) 经典型 30000 5000 5000 1000 说明 对于可用区类型的公有云资源池(集群模式的公有云资源池),经典型负载均衡实例已经下线、不再提供经典型负载均衡实例,原有已经创建的实例不受影响(如您删除原有实例,将不能再次创建)。 以下公有云资源池经典型负载均衡实例已经下线,具体资源池如下: 华东1、华北2、西南1、上海36、武汉41、西南2、北京11、成都11、华南2、南宁23、青岛20、长沙42、南昌5、郑州5、西安7、上海15、杭州7、呼和浩特3、庆阳2、北京9、芜湖4、乌鲁木齐7、上海20、沈阳8、太原4、上海17 资源池信息持续更新中,请以控制台为准。 按资源池区分 不同资源池的产品架构分为主备模式和集群模式,具体资源池信息如下: 主备模式资源池 华东地区: 上海7/杭州2/合肥2/芜湖2/南京2/南京3/南京4/南京5/九江 华南地区: 福州3/福州4/福州25/佛山3/广州6/南宁2/郴州2/长沙3/海口2/武汉3/武汉4/厦门3 西北地区: 西安3/西安4/西安5/西宁2/兰州2/乌鲁木齐27/中卫5 西南地区: 贵州3/重庆2/成都4/昆明2/拉萨3 北方地区: 北京5/晋中/石家庄20/内蒙6/辽阳1 集群模式资源池 华东地区: 上海36/上海15/上海17/上海20/华东1/南昌5/杭州7/芜湖4 华南地区: 南宁23/武汉41/长沙42/华南2 西北地区: 西安7/乌鲁木齐7/呼和浩特3/庆阳2 西南地区: 西南1/西南2贵州/成都11 北方地区: 青岛20/华北2/太原4/郑州5/北京9/北京11/沈阳8
        来自:
        帮助文档
        弹性负载均衡 ELB
        产品简介
        产品类型和规格
      • 添加和管理网络ACL规则
        参数 说明 优先级 网络ACL规则优先级,优先级可选范围为199,优先级数字越小,规则优先级级别越高。 类型 支持IPv4和IPv6类型。 策略 支持允许和拒绝策略。 协议 支持的协议有“全部”、“TCP”、“UDP”和“ICMP”。 来源 入方向的源地址,支持单个IP地址、IP网段和所有IP(0.0.0.0/0)。 来源端口 网络ACL规则对来源端口生效,端口取值范围从1到65535。当协议类型选中“全部”时,来源端口默认为"全部"。当协议类型不选择“全部”时,支持输入端口号,输入多个端口时以","隔开,例如"22,80,443",支持输入连续端口范围,以":"连接,例如"22:8080",支持输入多个端口范围,例如"22:80,443:8080"。 目的 入方向的目的地址,支持单个IP地址、IP网段和所有IP(0.0.0.0/0)。 目的端口 网络ACL规则对目的端口生效,端口取值范围从1到65535。当协议类型选中“全部”时,来源端口默认为"全部"。当协议类型不选择“全部”时,支持输入端口号,输入多个端口时以","隔开,例如"22,80,443",支持输入连续端口范围,以":"连接,例如"22:8080",支持输入多个端口范围,例如"22:80,443:8080"。 备注 可选项,网络ACL规则的描述信息。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        网络ACL
        添加和管理网络ACL规则
      • 概览
        本文为您介绍访问天翼云云搜索服务Elasticsearch实例的方法和使用场景。 Kibana访问 Elasticsearch实例支持通过Kibana前端可视化界面连接。用户可通过登录页面输入用户名和密码进行访问,默认用户名为admin,密码为创建实例时设置的管理员密码。 Curl命令行方式 在开启安全认证的情况下,用户可以通过Curl命令行与Elasticsearch实例进行交互。例如,可以使用Curl发送HTTP请求来执行各种操作,如创建索引、查询数据、更新文档等。这种方式适合快速测试和管理实例。 Python客户端访问 支持通过官方的Elasticsearch Python客户端(elasticsearchpy)访问实例。Python客户端提供丰富的API,用于查询、索引、删除数据,适合需要通过Python脚本进行大规模数据处理、分析以及自动化管理的场景。 Java客户端访问 提供对Elasticsearch的Java API支持,使用RestHighLevelClient类与实例进行交互。Java客户端广泛应用于企业级Java应用中,适合复杂的集成场景,如与Spring框架结合进行实时搜索和分析。 Go客户端访问 提供轻量且高效的连接方式,适合基于Go语言开发的高并发、低延迟的应用。Go客户端提供对Elasticsearch REST API的完整支持,适合需要高性能和可扩展性的场景。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        访问Elasticsearch实例
        概览
      • 设置挂载参数
        本文主要介绍设置挂载参数。 背景信息 容器使用云存储的时候是将云存储挂载到容器上,挂载完成后就可以像使用本地目录一样使用云存储。 本节主要介绍在挂载云存储的时候如何设置挂载参数,包括文件系统存储卷和对象存储卷的挂载参数设置。您可以在PV中设置挂载参数,然后通过PVC绑定PV;也可以在StorageClass中设置挂载参数,然后使用StorageClass创建PVC,从而动态创建出的PV会默认带有StorageClass中设置挂载参数。 文件存储挂载参数 CCE的存储插件Everest在挂载文件存储时默认设置了下表所示的参数。除了这些参数外,您还可以设置其他的文件存储挂载参数。 文件存储挂载参数 参数 描述 keeporiginalownership 表示是否保留文件挂载点的ownership,使用该参数时,要求Everest插件版本为1.2.63或2.1.2以上。 默认为不添加该参数,此时挂载文件存储时将会默认把挂载点的ownership修改为root:root。 如添加该参数,挂载文件存储时将保持文件系统原有的ownership。 vers3 文件系统版本,目前只支持NFSv3。取值:3 nolock 选择是否使用NLM协议在服务器上锁文件。当选择nolock选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。 timeo600 NFS客户端重传请求前的等待时间(单位为0.1秒)。建议值:600。 hard/soft 挂载方式类型。 取值为hard,即使用硬连接方式,若NFS请求超时,则客户端一直重新请求直至成功。 取值为soft,即软挂载方式挂载系统,若NFS请求超时,则客户端向调用程序返回错误。默认为hard。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        设置挂载参数
      • 查看策略
        sectionc25499a17ddc4ac3)、删除策略。 单击某个策略对象前的,可展开该策略对象所有相关的操作连接列表,单击操作连接列表所在操作列的“历史记录”可查看该操作连接的历史记录信息。 6. 单击管理页面的“任务视图”页面,可以查看应急策略的任务的统计情况,其中应急策略的新增、删除操作会生成任务。 “任务视图”页面包含如下信息: 策略下发:以柱状图形式呈现各个防线类型的应急策略任务下发的成功次数和失败次数。应急策略支持的防线类型请参考约束与限制说明。 区域策略下发:以柱状图形式呈现各个区域应急策略任务下发的成功次数和失败次数。 企业项目下发:以柱状图形式呈现各企业项目应急策略任务下发的成功次数和失败次数。 任务列表:以列表形式呈现应急策略任务的基本信息。任务列表参数说明如下: 参数名称 参数说明 任务名称 显示任务名称信息,生成任务时由系统自动生成。 任务ID 显示任务ID信息,生成任务时由系统自动生成。 策略类型 显示应急策略任务的策略类型信息:“阻断”或“白名单”。 “阻断”:阻断的策略对象将被禁止访问。 “白名单”:加入白名单的策略对象访问请求将被放行。 对象类型 应急策略任务的对象类型:“IP”、“账号”、“域名”。 创建人 任务的创建人信息。 状态 显示任务的状态信息: “任务执行中”:显示任务执行的进度。 “成功”:任务中执行成功的策略对象个数。 “失败”:任务中执行失败的策略对象个数。 创建时间 应急策略任务的创建时间。 操作 对应急策略任务进行重试操作,当应急策略任务存在部分或全部策略对象任务下发失败的场景可执行该操作。 针对下发失败的任务,单击任务所在行“操作”列的“重试”。 如果需要对批量任务进行重试操作,可以在任务列表中勾选需要重试的任务,并单击列表上方“批量重试”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        策略管理
        查看策略
      • 配置HBase/CloudTable目的端参数
        本章节主要介绍配置HBase/CloudTable目的端参数。 作业中目的连接为配置HBase连接或配置CloudTable连接时,即导入数据到以下数据源时,目的端作业参数如下表所示。 表 HBase/CloudTable作为目的端时的作业参数 参数名 说明 取值样例 表名 写入数据的HBase表名。如果是创建新HBase表,支持从源端拷贝字段名。单击输入框后面的按钮可进入表的选择界面。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 TBL2 导入前清空数据 选择目的端表中数据的处理方式: 是:任务启动前会清除目标表中数据。 否:导入前不清空目标表中的数据,如果选“否”且表中有数据,则数据会追加到已有的表中。 是 Row key拼接分隔符 可选参数,用于多列合并作为rowkey,默认为空格。 , Rowkey冗余 可选参数,是否将选做Rowkey的数据同时写入HBase的列,默认值“否”。 否 压缩算法 可选参数,创建新HBase表时采用的压缩算法,默认为值“NONE”。 NONE:不压缩。 SNAPPY:压缩为Snappy格式。 GZ:压缩为GZ格式。 NONE WAL开关 选择是否开启HBase的预写日志机制(WAL,Write Ahead Log)。 是:开启后如果出现HBase服务器宕机,则可以从WAL中回放执行之前没有完成的操作。 否:关闭时能提升写入性能,但如果HBase服务器宕机可能会造成数据丢失。 否 匹配数据类型 是:源端数据库中的Short、Int、Long、Float、Double、Decimal类型列的数据,会转换为Byte[]数组(二进制)写入HBase,其他类型的按字符串写入。 如果这几种类型中,有合并做rowkey的,则依然当字符串写入。 该功能作用是:降低存储占用空间,存储更高效;特定场景下rowkey分布更均匀。 否:源端数据库中所有类型的数据,都会按照字符串写入HBase。 否
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置HBase/CloudTable目的端参数
      • 元数据不一致类问题
        主节点之间元数据不一致问题问题 问题描述 所有个CN、DN主节点之间元数据不一致问题,对应pgcheck()元数据检查返回类型“crosscheck”,例如,某个对象,如库、模式、表、索引、字段等,在其中1个或多个CN、DN主节点上不存在。 例如,以下select from pgcheck(); 查询结果: 产生元数据不一致的主要原因:在元数据缺失的节点上,主节点和备节点不同步,DDL语句在备节点未应用时,发起了主备切换,备升主后,该备节点元数据与其它主节点不一致。 可能影响 对于应存在,但某些节点实际缺失的情况,访问到该对象的语句会报错;例如上图元数据问题,查询表时会有如下报错: teledb select count() from testvarchar2; ERROR: node:dn002, backendpid:25375, nodename,backendpid,message:dn002,25375,could not open relation with OID 0 对于应不存在,但某些节点实际存在的情况,造成无用对象残留,空间被占用(如DN上大表残留)。 解决步骤 1. 元数据不一致检查及分析 首先根据select from pgcheck();结果梳理和分析元数据不一致情况,第一列checktypecrosscheck,最后一列isfoundtrue表示该节点上有此对象,isfoundfalse表示无此对象,根据各CN、DN节点的isfound结果分析,对象应存在,还是应不存在。通常情况: 1)对象不存在的场景,某个节点上isfoundtrue,其它所有节点上isfoundfalse; 2)对象应存在的场景,某个节点上isfoundfalse,其它所有节点上isfoundtrue; 3)初步判断后,或无法区分时,应与业务侧进行核实确认; 2. 制定修复方案: 1)对象应不存在的场景,修复起来相对简单,梳理出缺失的对象,然后执行drop if exists xxx;命令删除,需要增加if exists关键字,在缺失对象的节点上不会报错; 通常是表缺失,同时基于表的索引、类型、字段等缺失。例如上述截图中,可以判断出dn002节点上缺失了testvarchar2表。这里我们如果要修复,执行 drop if exists testvarchar2;语句就可以了; a、所有CN主节点上没有该对象,需要连接所有DN主节点,开启事务写,drop该对象; b、部分CN主节点上没有该对象,需要连接有该对象的主CN,执行drop if exists testvarchar2; c、部分DN主节点上没有该对象,需要连接有该对象的主CN,执行drop if exists testvarchar2; 2)对象应存在的场景,要在节点上补缺失的对象,需要判断缺失对象的节点类型 a、CN节点上需要补缺失的对象,需要单用户模式启动该CN主节点,创建对象; b、DN节点上需要补缺失的对象,需要连接该DN主节点,开启事务写,创建对象; 注意 元数据一致问题修复需要操作CN节点、DN节点,应在TeleDB运维专家/开发人员的指导下进行,避免因操作失误造成更大损失。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        元数据不一致类问题
      • Windows弹性云主机如何删除多余的网络连接?
        本节介绍了Windows弹性云主机如何删除多余的网络连接的相关方法。 方法一 1. 按“Win+R”键打开运行对话框,输入regedit并按回车键,打开注册表编辑器。 2. 打开至以下注册表键值: “HKEYLOCALMACHINESOFTWAREMicrosoftWindows NTCurrentVersionNetworkListProfilesProfiles”中可能包含多个子项,且这些子项名称为数字与字母组成的序列。依次单击每个子项,检查右侧窗口中名为“ProfileName”这个键值所对应的“数据”列。 3. 双击“ProfileName”,将“数值数据”修改为待更改的网络名称。 4. 重启云主机,使修改生效。 方法二 1. 按“Win+R”键打开运行对话框,输入regedit并按回车键,打开注册表编辑器。 2. 打开至以下注册表键值。 HKEYLOCALMACHINESOFTWAREMicrosoftWindows NTCurrentVersionNetworkListProfiles HKEYLOCALMACHINESOFTWAREMicrosoftWindows NTCurrentVersionNetworkListSignaturesUnmanaged 3. 删除如下注册表删除键下的目录。 注册表目录
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        操作系统类
        Windows弹性云主机如何删除多余的网络连接?
      • 准备工作
        。 3. 初始化系统参数 plaintext su teledb cd /etc/security 在/etc/security/limits.conf文件中最后一部分,添加如下内容。 plaintext teledb soft nofile 131072 teledb hard memlock 128849018880 teledb soft memlock 128849018880 teledb soft core 1024000 teledb hard core 1024000 teledb hard nproc unlimited teledb soft nproc unlimited teledb hard nofile 131072 teledb hard stack unlimited teledb soft stack unlimited 4. 执行如下命令 plaintext echo vm.swappiness10 >> /etc/sysctl.conf sysctl w vm.swappiness10 echo vm.minfreekbytes102400 >> /etc/sysctl.conf sysctl w vm.minfreekbytes102400 5. 进入/etc/sudoers文件,添加权限 在rootALL(ALL)ALL一行下面添加如下内容 plaintext teledb ALL(ALL) NOPASSWD:ALL 6. 修改挂载目录权限 执行如下命令,修改成可读写运行权限。 plaintext sudo chmod 777 /app 执行如下命令,修改/app目录下文件所属用户。 plaintext sudo chown R teledb:teledb /app 3. (可选)创建软连接 执行如下命令创建软连接(安装dcp主机不需要执行该操作, 安装teledb控制台的主机以及teledb实例主机需要执行该操作。) plaintext cd /usr/local/bin ln s /usr/sbin/ip ip ln s /usr/sbin/sysctl sysctl ln s /usr/sbin/userdel userdel ln s /usr/sbin/useradd useradd
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        安装前准备
        准备工作
      • 准备工作
        。 3. 初始化系统参数 plaintext su teledb cd /etc/security 在/etc/security/limits.conf文件中最后一部分,添加如下内容。 plaintext teledb soft nofile 131072 teledb hard memlock 128849018880 teledb soft memlock 128849018880 teledb soft core 1024000 teledb hard core 1024000 teledb hard nproc unlimited teledb soft nproc unlimited teledb hard nofile 131072 teledb hard stack unlimited teledb soft stack unlimited 4. 执行如下命令 plaintext echo vm.swappiness10 >> /etc/sysctl.conf sysctl w vm.swappiness10 echo vm.minfreekbytes102400 >> /etc/sysctl.conf sysctl w vm.minfreekbytes102400 5. 进入/etc/sudoers文件,添加权限 在rootALL(ALL)ALL一行下面添加如下内容 plaintext teledb ALL(ALL) NOPASSWD:ALL 6. 修改挂载目录权限 执行如下命令,修改成可读写运行权限。 plaintext sudo chmod 777 /app 执行如下命令,修改/app目录下文件所属用户。 plaintext sudo chown R teledb:teledb /app 3. (可选)创建软连接 执行如下命令创建软连接(安装dcp主机不需要执行该操作, 安装teledb控制台的主机以及teledb实例主机需要执行该操作。) plaintext cd /usr/local/bin ln s /usr/sbin/ip ip ln s /usr/sbin/sysctl sysctl ln s /usr/sbin/userdel userdel ln s /usr/sbin/useradd useradd
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        安装部署手册
        安装前准备
        准备工作
      • 准备工作
        。 3. 初始化系统参数 plaintext su teledb cd /etc/security 在/etc/security/limits.conf文件中最后一部分,添加如下内容。 plaintext teledb soft nofile 131072 teledb hard memlock 128849018880 teledb soft memlock 128849018880 teledb soft core 1024000 teledb hard core 1024000 teledb hard nproc unlimited teledb soft nproc unlimited teledb hard nofile 131072 teledb hard stack unlimited teledb soft stack unlimited 4. 执行如下命令 plaintext echo vm.swappiness10 >> /etc/sysctl.conf sysctl w vm.swappiness10 echo vm.minfreekbytes102400 >> /etc/sysctl.conf sysctl w vm.minfreekbytes102400 5. 进入/etc/sudoers文件,添加权限 在rootALL(ALL)ALL一行下面添加如下内容 plaintext teledb ALL(ALL) NOPASSWD:ALL 6. 修改挂载目录权限 执行如下命令,修改成可读写运行权限。 plaintext sudo chmod 777 /app 执行如下命令,修改/app目录下文件所属用户。 plaintext sudo chown R teledb:teledb /app 3. (可选)创建软连接 执行如下命令创建软连接(安装dcp主机不需要执行该操作, 安装teledb控制台的主机以及teledb实例主机需要执行该操作。) plaintext cd /usr/local/bin ln s /usr/sbin/ip ip ln s /usr/sbin/sysctl sysctl ln s /usr/sbin/userdel userdel ln s /usr/sbin/useradd useradd
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        安装部署手册
        安装前准备
        准备工作
      • 客户端错误码
        错误编码 错误原因 错误类型 解决方案 0x1000 调用client的IPC接口超时 客户端异常 重试刚刚执行的操作。 0x1001 准备调用client的IPC接口,但与client的IPC连接已断开 客户端异常 重试刚刚执行的操作。 0x1002 调用了client的IPC接口,等待client发回响应的过程中检测到IPC连接意外断开 客户端异常 重试刚刚执行的操作。 0x1003 尝试修复client服务时,发现安装包文件不存在 客户端异常 检查杀毒软件是否将安装包拦截,若被拦截则将此程序加到exe里。 0x1004 尝试修复client服务时,出现其他未识别的错误 客户端异常 请重新启动零信任客户端并登录。 0x1005 修复client服务后,重新通知client上线失败 客户端异常 请重新启动零信任客户端并登录。 0x1006 登录成功后,超过一定时间(180s)仍未收到底层反馈隧道网络打通情况 客户端异常 请重新启动零信任客户端并登录。 0x1007 请求服务端接口时,服务端响应了未定义的报错 服务端异常 重试刚刚执行的操作。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        AOne客户端用户指南
        客户端错误码
      • 云容器集群Pod网络包损坏(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包损坏动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包损坏百分比:数据包被损坏的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被损坏。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 产品应用场景
        场景说明 当云上资源出现异常时,帮助用户及时获取异常通知,查询异常原因,解决异常问题,避免造成损失。 场景痛点 异常情况要及时发现、告警信息要及时通知;灵活、个性化的告警规则设置以满足客户不同需求场景。 场景优势 及时发送告警信息:云监控会根据您设置的告警策略,在监控数据达到告警阈值时发送告警信息,让您及时获取异常通知。 灵活设置告警规则:用户根据需要设置告警策略后,当监控数据达到告警阈值将触发告警通知,相关告警信息会立即发送给告警规则下的联系人,帮助用户及时了解到云服务的异常状况,从而采取相应措施对异常情况进行处理。 搭配使用 云主机、云硬盘、弹性IP、物理机、弹性伸缩、负载均衡等。 资源扩容场景 场景说明 将带宽、连接数、磁盘使用率等监控项设置告警规则后,用户即可方便了解云产品现状,在业务量上升后能够及时收到告警通知,并可根据监控数据进行相应的服务扩容。 场景痛点 支持业务量上升到特定阈值时触发告警通知,需要支持用户按需设置告警阈值。 场景优势 灵活设置告警阈值。用户在自定义告警规则时按需设置监控指标告警阈值,如“CPU使用率>80%”,此时当业务量上升,导致CPU使用率大于80%时将触发告警通知,用户即可及时得知CPU使用率已超过设定阈值,从而根据实际情况进行相应的扩容操作。
        来自:
        帮助文档
        云监控服务
        产品简介
        产品应用场景
      • 实时同步链路规格说明
        测试模型 在两个RDS for MySQL实例间创建全量+增量的实时同步任务,实例配置如下表。 表 实例规格 参数 源RDS for MySQL实例 目标RDS for MySQL实例 规格名称 c6.4xlarge.4(通用增强Ⅱ型) c6.4xlarge.4(通用增强Ⅱ型) 性能规格 超高IO 超高IO 存储类型 16vCPUs64 GB 16vCPUs64 GB 存储空间 300G 300G 最大连接数 18000 18000 最大QPS 3352 3352 最大IOPS 114152 114152 测试模型: 测试表数量为20。 测试表均有主键。 记录大小为1KB。 每个事务平均包含两条DML操作,一条COMMIT,其中INSERT、UPDATE、DELETE的比例为1:1:1。 支持多规格链路 目前DRS实时同步仅支持部分链路在创建的时候进行规格选择。 表 同步支持多规格链路 同步方向 数据流向 规格选择 升级规格 入云 MySQL>MySQL 支持 仅支持单AZ任务升级 入云 MySQL>PostgreSQL 支持 仅支持单AZ任务升级 入云 MySQL>GaussDB分布式版 支持 仅支持单AZ任务升级 入云 MySQL>GaussDB集中式版 支持 仅支持单AZ任务升级 入云 MySQL>TaurusDB 支持 仅支持单AZ任务升级 入云 PostgreSQL>PostgreSQL 支持 仅支持单AZ任务升级 入云 DRDS>MySQL 支持 不支持 入云 DRDS>DRDS 支持 不支持 入云 Oracle>PostgreSQL 支持 仅支持单AZ任务升级 入云 Oracle>MySQL 支持 仅支持单AZ任务升级 入云 Oracle>TaurusDB 支持 仅支持单AZ任务升级 入云 Oracle>GaussDB集中式版 支持 仅支持单AZ任务升级 入云 Oracle>GaussDB分布式版 支持 仅支持单AZ任务升级 入云 Oracle>DRDS 支持 仅支持单AZ任务升级 入云 Microsoft SQL Server>Microsoft SQL Server 不支持 不支持 入云 MongoDB>DDS 支持 仅支持单AZ任务升级 入云 MariaDB>MariaDB 支持 仅支持单AZ任务升级 入云 TaurusDB>TaurusDB 支持 仅支持单AZ任务升级 出云 MySQL>MySQL 支持 仅支持单AZ任务升级 出云 MySQL>kafka 支持 仅支持单AZ任务升级 出云 MySQL>CSS/ES 支持 仅支持单AZ任务升级 出云 MySQL>Oracle 支持 仅支持单AZ任务升级 出云 DRDS>MySQL 支持 不支持 出云 DRDS>Oracle 支持 不支持 出云 DRDS>Kafka 支持 不支持 出云 DDS>MongoDB 支持 不支持 出云 DDS>Kafka 支持 不支持 出云 PostgreSQL>Kafka 支持 仅支持单AZ任务升级 出云 GaussDB集中式版>MySQL 支持 仅支持单AZ任务升级 出云 GaussDB集中式版>Oracle 支持 仅支持单AZ任务升级 出云 GaussDB集中式版>Kafka 支持 仅支持单AZ任务升级 出云 GaussDB集中式版>GaussDB分布式版 支持 仅支持单AZ任务升级 出云 GaussDB集中式版>GaussDB集中式版 支持 仅支持单AZ任务升级 出云 GaussDB分布式版>MySQL 支持 不支持 出云 GaussDB分布式版>Oracle 支持 不支持 出云 GaussDB分布式版>Kafka 支持 不支持 出云 GaussDB分布式版>GaussDB分布式版 支持 不支持 出云 TaurusDB>MySQL 支持 仅支持单AZ任务升级 出云 TaurusDB>Kafka 支持 仅支持单AZ任务升级 出云 TaurusDB>CSS/ES 支持 仅支持单AZ任务升级 出云 TaurusDB>Oracle 支持 仅支持单AZ任务升级 自建自建 MySQL>Kafka 支持 仅支持单AZ任务升级 自建自建 MySQL>CSS/ES 支持 仅支持单AZ任务升级 自建自建 MySQL>GaussDB集中式版 支持 仅支持单AZ任务升级 自建自建 MySQL>GaussDB分布式版 支持 仅支持单AZ任务升级 自建自建 Oracle>Kafka 支持 仅支持单AZ任务升级 自建自建 PostgreSQL>Kafka 支持 仅支持单AZ任务升级 自建自建 GaussDB集中式版>MySQL 支持 仅支持单AZ任务升级 自建自建 GaussDB集中式版>Oracle 支持 仅支持单AZ任务升级 自建自建 GaussDB集中式版>Kafka 支持 仅支持单AZ任务升级 自建自建 GaussDB分布式版>Kafka 支持 不支持
        来自:
        帮助文档
        数据库复制
        产品简介
        规格说明
        实时同步链路规格说明
      • redis常见使用规范
        其他 建议使用连接池+长连接,可以有效控制连接,同时提高效率。 合理设置maxmemorypolicy(最大内存淘汰策略)。 noeviction:在这种策略下,如果缓存达到了配置的上限,实例将不再处理客户端任何增加缓存数据的请求,比如写命令,实例直接返回错误给客户端。缓存达到上限后,实例只处理删除和少数几个例外请求。 allkeyslru:根据LRU(Least recently used,最近最少使用)算法尝试回收最少使用的键,使得新添加的数据有空间存放。 volatilelru:根据LRU(Least recently used,最近最少使用)算法尝试回收最少使用的键,但仅限于在过期集合的键,使得新添加的数据有空间存放。 allkeysrandom:回收随机的键使得新添加的数据有空间存放。 volatilerandom:回收随机的键使得新添加的数据有空间存放,但仅限于在过期集合的键。 volatilettl:回收在过期集合的键,并且优先回收存活时间(TTL)较短的键,使得新添加的数据有空间存放。 allkeyslfu:从所有键中驱逐最不常用的键。 volatilelfu:从具有“expire”字段集的所有键中驱逐最不常用的键。 删除大Key时,不要直接使用del命令。 如果是Hash类型的大Key,推荐使用hscan + hdel 如果是List类型的大Key,推荐使用ltrim 如果是Set类型的大Key,推荐使用sscan + srem 如果是SortedSet类型的大Key,推荐使用zscan + zrem 使用Pipeline时,建议不要一次太多命令,集群最大1024。
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        redis常见使用规范
      • 微服务治理入门概述
        本章节介绍微服务治理相关的入门概述 要使用微服务治理中心,用户可以参考“ECS微服务应用接入MSE治理中心”或“云容器引擎应用接入微服务治理中心”,在云主机或云容器引擎中安装微服务治理组件,即可将部署的SpringCloud应用或Dubbo应用接入微服务治理中心,然后使用微服务治理中心的治理功能。 微服务治理中心支持Springcloud、Dubbo框架的微服务应用。功能列表如下所示: 模块 SpringCloud&Dubbo 服务查询 支持查看服务列表和服务契约。 接口详情 支持查看接口列表和接口监控数据。 节点详情 支持查看节点列表和节点监控数据。 流量治理 支持无损上下线、标签路由、离群摘除、服务鉴权等治理规则。 流量防护 支持流量控制、熔断降级、自适应控制、Web防护等防护能力。 开发测试治理 支持服务测试、自动化回归、服务Mock等测试能力。 数据库治理 支持Sql监控、数据库灰度、数据库读写路由、连接池治理等数据库治理能力。 全链路灰度 支持按泳道对应用分组,并按泳道对流量进行路由。 微服务应用接入微服务治理中心后,即可支持服务查询、接口详情、节点详情,其他治理能力需要在控制台创建规则,启用规则后才会生效。
        来自:
        帮助文档
        微服务引擎
        快速入门
        微服务治理中心
        微服务治理入门概述
      • API调用
        APP认证的API,第三方怎么调用? 您需要把AppKey和AppSecret提供给第三方,然后第三方通过SDK调用。具体SDK的调用步骤请参见“开发指南 > 使用APP认证调用API”。 是否支持移动应用调用API? API支持被移动应用调用。使用APP认证时,将移动应用的AppKey和AppSecrect替换SDK中的AppKey和AppSecrect进行APP签名。 如何实现WebSocket数据传输? API网关支持WebSocket数据传输,在创建API时,请求协议中的HTTP相当于WebSocket的ws,HTTPS相当于WebSocket的wss。 API调用是否支持长连接 API网关支持长连接,但注意适当使用,避免占用太多资源。 策略后端有多个时,怎么匹配和执行 当您的API配置了多个策略后端,API网关会按顺序进行匹配,匹配到其中一个立即执行API请求转发,不会进行后续的匹配。 当策略后端都没有匹配成功,则按照默认后端执行API请求的转发。 API调用对请求的响应消息体限制 API调用对请求的响应消息体大小没有限制。 如何通过APIG访问公网后端服务? 通过开启公网入口访问,允许外部服务调用API。
        来自:
        帮助文档
        API网关
        常见问题
        API调用
      • 基本概念
        TCP建连时间 TCP建连时间是指浏览器或客户端和服务器建立TCP/IP连接的消耗时间。 SSL握手时间 SSL握手时间是指浏览器或客户端和服务器建立安全套接层(SSL)连接的消耗时间。 直播推流 直播推流是指数据源经过音视频采集-编码-封装后,将数据推送到直播边缘服务器的过程。目前推流支持RTMP(S)协议。 直播播放 直播播放是指用户向直播拉流边缘节点发起请求获取到直播流内容,并在客户端对内容解封-解码-渲染播放的过程。目前拉流支持RTMP、HTTP FLV、HLS协议。 推流域名 推流域名是指客户提供的用于直播流接入视频直播的域名。该域名用于推拉流架构下,主播/用户将视频内容推送至直播节点。 拉流域名 拉流域名是客户提供的用于直播流播放的域名。 发布点(AppName) 发布点是指直播的应用名称,即直播流媒体文件的存放路径。 流名(StreamName) 流名即直播流名称,通常与域名和发布点一起唯一标识一路流。一般情况下流名不包含文件后缀。
        来自:
        帮助文档
        视频直播
        产品介绍
        基本概念
      • 备份文件导入方式-OBS桶
        步骤3:创建迁移任务 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“数据迁移”。页面显示迁移任务列表页面。 步骤 4 单击右上角的“创建备份导入任务”,进入创建备份导入任务页面。 步骤 5 设置迁移任务名称和描述。 步骤 6 在源实例区域,“数据来源”选择“OBS桶”,在“OBS桶名”中选择已上传备份文件的OBS桶。 说明 上传的备份文件格式支持.aof、.rdb、.zip、.tar.gz,您可以上传任意其中一种。 步骤 7 步骤 7 在“备份文件”处单击“添加备份文件”,选择需要迁移的备份文件。 步骤 8 在目标实例区域,选择步骤1:准备目标Redis实例中创建的目标Redis。 步骤 9 输入目标实例的密码,单击“测试连接”,测试密码是否符合要求。免密访问的实例,请直接单击“测试连接”。 步骤 10 单击“立即创建”。 步骤 11 确认迁移信息,然后单击“提交”,开始创建迁移任务。 可返回迁移任务列表中,观察对应的迁移任务的状态,迁移成功后,任务状态显示“成功”。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        使用DCS迁移数据
        备份文件导入方式
        备份文件导入方式-OBS桶
      • 数据同步服务
        4. 约束 源实例和目标实例处于同一VPC同一子网,默认可直接使用数据同步服务进行迁移操作,否则需要对两个实例网络进行打通。 请确保源实例、目标实例未因白名单设置、安全组设置而导致连接不通。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        数据同步服务
      • 约束与限制
        本章节主要介绍约束与限制。 CDM系统级限制和约束 1. 集群创建好以后不支持修改规格,如果需要使用更高规格的,需要重新创建一个集群。 2. ARM版本的CDM集群不支持Agent功能。CDM集群为ARM或X86版本,依赖于底层资源的架构。 3. CDM暂不支持控制迁移数据的速度,请避免在业务高峰期执行迁移数据的任务。 4. 当前CDM集群cdm.large实例规格网卡的基准/最大带宽为0.8/3 Gbps,单个实例一天传输数据量的理论极限值在8TB左右。同理,cdm.xlarge实例规格网卡的基准/最大带宽为4/10 Gbps,理论极限值在40TB左右;cdm.4xlarge实例规格网卡的基准/最大带宽为36/40 Gbps,理论极限值在360TB左右。对传输速度有要求的情况下可以使用多个数据集成实例实现。上述数据量为理论极限值,实际传输数据量受数据源类型、源和目的数据源读写性能、带宽等多方面因素制约,实测cdm.large规格最大可达到约8TB每天(大文件迁移到OBS场景)。推荐用户在正式迁移前先用小数据量实测进行速度摸底。 5. 迁移文件或对象时支持文件级增量迁移(通过配置跳过重复文件实现),但不支持断点续传。例如要迁移3个文件,第2个文件迁移到一半时由于网络原因失败,再次启动迁移任务时,会跳过第1个文件,从第2个文件开始重新传,但不能从第2个文件失败的位置重新传。 6. 文件迁移时,单个任务支持千万数量的文件,如果待迁移目录下文件过多,建议拆分到不同目录并创建多个任务。 7. 用户在CDM上配置的连接和作业支持导出到本地保存,考虑到密码的安全性,CDM不会将对应数据源的连接密码导出。因此在将作业配置重新导入到CDM前,需要手工编辑导出的JSON文件补充密码或在导入窗口配置密码。 8. 不支持集群自动升级到新版本,需要用户通过作业的导出和导入功能,实现升级到新版本。 9. 在无OBS的场景下,CDM系统不会自动备份用户的作业配置,需要用户通过作业的导出功能进行备份。 10. 如果配置了VPC对等连接,可能会出现对端VPC子网与CDM管理网重叠,从而无法访问对端VPC中数据源的情况。推荐使用公网做跨VPC数据迁移,或联系管理员在CDM后台为VPC对等连接添加特定路由。 11. CDM迁移,当目的端为DWS和NewSQL的时候,不支持将源端的主键和唯一索引等约束一起迁移过去。 12. CDM迁移作业时,需确保两个集群版本的JSON文件格式保持一致,才可以从将源集群的作业导入到目标集群。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        约束与限制
      • SSL VPN应用场景
        本文为您介绍SSL VPN应用场景。 在移动互联网的背景下,SSL VPN可以帮助客户随时随地建立一条安全隧道,直达客户云上VPC。客户可以使用多种客户端(如个人电脑、手机、平板等),通过安装配置客户端软件,采用证书、密码等认证方式与VPC自由连接。 支持用户级限速。 配置简单,全程加密,保证数据传输安全。
        来自:
        帮助文档
        VPN连接
        产品介绍
        应用场景
        SSL VPN应用场景
      • 备份迁移
        % ' AND SP.name NOT LIKE 'NT AUTHORITY%' AND SP.name NOT LIKE 'NT SERVICE%' AND SP.name NOT IN ('rdsadmin','rdsbackup','rdsuser','rdsmirror','public') 步骤 2 执行步骤 1 脚本可获取如下执行脚本。 图 获取执行脚本 步骤 3 复制步骤 2 中的执行脚本在目标端直接执行,创建出来的Login账号跟原实例密码一致。 步骤 4 将新建的Login账号跟用户当前RDS SQL Server实例上的迁移过来的数据库用户权限进行映射(mapping),以保证该账号在当前实例上的权限一致性,执行脚本如下。 declare @DBName nvarchar(200) declare @Loginname nvarchar(200) declare @SQL nvarchar(MAX) set @Loginname 'TestLogin7' //输入Login名称逐个执行 declare DBNameCursor cursor for select quotename(name)from sys.databases where databaseid > 4 and state 0 and name not like '%$%' and name <> 'rdsadmin' open DBNameCursor fetch next from DBNameCursor into @DBName WHILE @@FETCHSTATUS 0 begin SET @SQL' USE '+ (@DBName)+ ' if exists(select top 1 1 from sys.sysusers where name '''+ @LoginName +''') begin ALTER USER '+@Loginname+' with login '+@Loginname+'; end ' print @SQL EXEC (@SQL) fetch next from DBNameCursor into @DBName end close DBNameCursor deallocate DBNameCursor 以上脚本执行完成后,用户即可在自己的新实例上看到同名的登录账号,并且密码跟权限是完全跟本地一致的。 DBLink连接 DBLink连接指SQL Server支持用户通过创建DBLink连接的方式,跟外部实例上的数据库进行交互,这种方式可以极大的方便用户不同实例间,不同数据库类型之间的数据库查询,同步,比较,所以大部分用户都会在本地实例上用到该服务,但是迁移上云后,本地DBLink是不会自动同步到云上实例的,还需要简单的手动进行同步。 步骤 1 通过微软提供的官方Microsoft SQL Server Management Studio客户端工具连接本地实例与云上实例,同时在“服务器对象> 链接服务器”下找到当前实例的DBLink链接。 图 查看DBLink链接 步骤 2 选中链接服务器,然后按F7,会自动弹出对象资源管理信息页,在该页面中可以方便你快速的自动创建脚本。 图 自动创建脚本 步骤 3 在新窗口中,可以看到当前实例上所有DBLink的创建脚本,仅需复制该脚本到目标实例上,并修改@rmtpassword上的密码即可执行创建操作。 USE [master] GO / Object: LinkedServer [DRSTESTREMOTE] Script Date: 2019/5/25 17:51:50 / EXEC master.dbo.spaddlinkedserver @server N'DRSTESTREMOTE', @srvproductN'', @providerN'SQLNCLI', @datasrcN'DESKTOPB18JH5TSQLSERVER2016EE' / For security reasons the linked server remote logins password is changed with
        来自:
        帮助文档
        数据库复制
        常见问题
        备份迁移
      • 其他类
        如何配置DNS? DNS服务器用于解析弹性文件服务中文件系统的域名。 默认情况下,用于解析文件系统域名的DNS服务器的IP地址会在创建ECS时自动配置到ECS上,不需要人工配置。除非默认的DNS服务器的IP地址被修改,导致域名解析失败,才需要配置DNS的IP地址。 DNS服务器地址:100.125.0.250 Linux配置步骤如下: 以root用户登录云主机; 执行vi /etc/resolv.conf命令编辑“/etc/resolv.conf”文件。在已有的nameserver配置前写入DNS服务器的IP地址; 格式如下: nameserver DNS服务器IP地址 单击“Esc”,并输入:wq,保存退出; 执行以下命令,查看IP地址是否写入成功; cat /etc/resolv.conf 执行以下命令,验证文件系统域名是否可以解析到IP地址; nslookup 文件系统域名 说明 文件系统域名请从文件系统的共享路径中获取。 ​ (可选)在使用DHCP服务的网络环境,需要对“/etc/resolv.conf”文件进行锁定设置,禁止文件在云主机重启后进行自动修改。防止步骤2中写入的DNS服务器的IP地址被重置; 执行如下命令,进行文件锁定设置。如果需要再次对锁定文件进行修改,执行chattr i /etc/resolv.conf 命令,解锁文件; chattr +i /etc/resolv.conf 说明 如果需要再次对锁定文件进行修改,执行chattr i /etc/resolv.conf 命令,解锁文件。 执行如下命令,验证是否设置成功。 lsattr /etc/resolv.conf 回显如下图所示信息,表明文件处于锁定状态。 Windows系统操作步骤: 进入弹性云云主机界面,登录已创建好的Windows 2012版本的弹性云主机。 单击左下角“这台电脑”,弹出“这台电脑”界面。 右键单击“网络”,选择“属性”。弹出“网络和共享中心”,如图所示。选择“本地连接”。 在“活动”区域,选择“属性”。如图所示。 弹出“本地连接属性”对话框,选择“Internet 协议版本 4 (TCP/IPv4)”,单击“属性”。如图所示。 在弹出的“Internet 协议版本 4 (TCP/IPv4)属性”对话框中,选择“使用下面的DNS服务器地址”,如图所示,根据需要配置DNS。配置完成后,单击“确定”,完成配置。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        其他类
      • 评估结果查看
        本节为您介绍数据库迁移工具提供评估结果在线查看功能。 数据库迁移工具提供评估结果在线查看功能。用户在启动评估任务后,会自动跳转到评估结果界面。用户也可以通过迁移评估列表,点击“报告名”跳转到评估结果界面。评估结果主要是展示数据库的基本信息(如版本、字符集、磁盘空间推荐)、连接资源信息(如最大连接数)、表信息(表的大小、字段类型、有无主键等)、数据库结构信息(结构名、类型、数量、与目标库存在的差异)、对象关联信息(对象名、对象间依赖关系)、迁移权限检测(源库账号权限检测、解决方法)。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        迁移评估
        评估结果查看
      • 1
      • ...
      • 90
      • 91
      • 92
      • 93
      • 94
      • ...
      • 451
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      训推服务

      公共算力服务

      模型推理服务

      科研助手

      推荐文档

      天翼云最佳实践①:Linux实例搭建FTP站点

      如何修改账号的密码?

      方法调用说明

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号