云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      服务器安全卫士(原生版)_相关内容
      • 通用操作类问题
        为什么MariaDB和 SysDB下的数据不迁移 由于某些MariaDB的版本把SysDB库作为其系统库(类似于MySQL官方版5.7的sys库),所以DRS默认也将SysDB作为所有MariaDB的系统库来处理(等同于MySQL、informationschema、performanceschema等库)。如果SysDB确实是业务库,您可以通过工单申请处理。 多对一的场景约束及操作建议 因业务需要,不同实例、不同表的数据需要进行合并时,数据复制服务提供的数据迁移支持多对一的场景。 操作建议 为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。
        来自:
        帮助文档
        数据库复制
        常见问题
        通用操作类问题
      • LoadBalancer类型Service
        本节介绍网络的用户指南:LoadBalancer类型Service 云容器引擎支持将Service通过负载均衡ELB向外暴露, 云容器引擎集群内置CCM(Cloud Controller Manager)插件,当Service的类型为LoadBalancer时,CCM插件会为Service配置负载均衡,并根据Service信息配置好负载均衡的后端服务器组、健康检查和监听规则等,使得用户可以通过负载均衡访问该Service。以下是使用负载均衡的步骤指引。 使用已有负载均衡暴露服务 前提条件 用户已提前在负载均衡控制台创建ELB实例,ELB实例需要与Service所在的容器集群在同一个VPC网络下。 注意事项 不同Service可以同时复用同一个负载均衡实例,复用同一个负载均衡实例需要避免不同Service使用相同的服务端口,否则存在监听配置被覆盖的情况 不能复用由CCM自动创建的或集群ApiServer使用的负载均衡实例 当Service删除时,使用已有的负载均衡不会被删除 集群Master节点不作为负载均衡实例的后端 操作步骤 1. 登录 云容器引擎 控制台,点击进入想要操作的集群,在左侧菜单选择“网络” “服务”; 2. 如下图,点击“新建”按钮新建服务,按照参数说明配置相关的参数; 服务访问方式:选择负载均衡 负载均衡:可根据业务需要选择私网访问或公网访问,集群内或同一VPC内访问建议选择私网访问即可;选择“使用已有负载均衡”;负载均衡实例列表会根据选择的私网/公网访问方式显示出对应的实例,选择想要使用的负载均衡实例即可 标签:根据需要可以为服务配置标签 注解:根据需要可以为服务配置注解 外部流量策略:Cluster或Local。Cluster策略下,集群所有可用工作节点都会挂载到负载均衡实例;Local策略下,只有Service对应的Pod所在节点会挂载到负载均衡实例 端口映射:配置好协议、容器端口及服务端口,其中容器端口为应用本身暴露的端口,服务端口则会作为负载均衡实例的监听端口 工作负载绑定:选择服务要关联的工作负载,也可以配置自定义标签关联 3. 创建服务后,在服务列表可以看到该服务,通过服务的集群外访问地址即可以访问该服务。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        Service管理
        LoadBalancer类型Service
      • 创建LoadBalance类型Service
        本文介绍如何创建LoadBalance类型Service。 Serverless集群支持将Service通过负载均衡ELB向外暴露, Serverless集群内置CCM(Cloud Controller Manager)插件,当Service的类型为LoadBalancer时,CCM插件会为Service配置负载均衡,并根据Service信息配置好负载均衡的后端服务器组、健康检查和监听规则等,使得用户可以通过负载均衡访问该Service。以下是使用负载均衡的步骤指引。 使用已有负载均衡暴露服务 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 您已提前在负载均衡控制台创建ELB实例,ELB实例需要与Service所在的Serverless集群在同一个VPC网络下。 注意事项 不同Service可以同时复用同一个负载均衡实例,复用同一个负载均衡实例需要避免不同Service使用相同的服务端口,否则存在监听配置被覆盖的情况。 不能复用由CCM自动创建的或集群ApiServer使用的负载均衡实例。 当Service删除时,使用已有的负载均衡不会被删除。 操作步骤 1. 登录云容器引擎控制台,点击进入想要操作的Serverless集群,在左侧菜单选择“网络”>“服务”。 2. 点击“创建服务”按钮新建服务,按照参数说明配置相关的参数: 1. 类型:选择负载均衡。 2. 负载均衡:可根据业务需要选择私网访问或公网访问,集群内或同一VPC内访问建议选择私网访问即可;选择“使用已有负载均衡”;负载均衡实例列表会根据选择的私网/公网访问方式显示出对应的实例,选择想要使用的负载均衡实例即可。 3. 标签:根据需要可以为服务配置标签。 4. 注解:根据需要可以为服务配置注解。 5. 外部流量策略:Cluster或Local。默认Cluster即可。 6. 健康检查:根据需要可以配置全局或自定义检查,默认不启用。 7. 端口映射:配置好协议、容器端口及服务端口,其中容器端口为应用本身暴露的端口,服务端口则会作为负载均衡实例的监听端口。 8. 工作负载绑定:选择服务要关联的工作负载,也可以配置自定义标签关联。 3. 创建服务后,在服务列表可以看到该服务,通过服务的集群外访问地址即可以访问该服务。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        创建LoadBalance类型Service
      • MySQL参数调优建议
        本章节会介绍针对MySQL数据库的参数调优建议。 数据库参数是数据库系统运行的关键配置信息,设置不合适的参数值可能会影响业务。本文列举了一些重要参数说明,更多参数详细说明,请参见MySQL官网。 修改敏感参数 若干参数相关说明如下: “lowercasetablenames” 云数据库默认值:“1”。 作用:该参数表示创建数据库及表时,表存储是否大小写敏感。设置为默认值“1”,表示创建数据库及表时,默认小写,不区分大小写,设置为“0”时,则存储与查询均区分大小写。 说明 8.0版本不支持修改该参数。 影响:修改数据库主实例默认参数值时,用户需要手动同步修改只读实例、通过备份恢复至目标实例的参数。当主实例区分大小写,而只读实例、通过备份恢复至目标实例不区分大小写时,比如主实例先后创建两张表,表名分别为 “abc”、“Abc ”时,会导致数据同步、数据恢复异常,原因为“abc”表名已存在。 “innodbflushlogattrxcommit” 云数据库默认值:“1”。 作用:该参数控制提交操作在严格遵守ACID合规性和高性能之间的平衡。设置为默认值“1”,是为了保证完整的ACID,每次提交事务时,把事务日志从缓存区写到日志文件中,并刷新日志文件的数据到磁盘上;当设为“0”时,每秒把事务日志缓存区的数据写入日志文件,并刷新到磁盘;如果设为“2”,每次提交事务都会把事务日志从缓存区写入日志文件,每隔一秒左右会刷新到磁盘。 影响:参数设置为非默认值“1”时,降低了数据安全性,在系统崩溃的情况下,可能导致数据丢失。 “syncbinlog” 云数据库默认值:“1”。 作用:该参数控制MySQL服务器将二进制日志同步到磁盘的频率。设置为默认值“1”,表示MySQL每次事务提交,binlog同步写入磁盘,是最安全的设置;设置为“0”时,表示MySQL不控制binlog的刷新,由文件系统自己控制其缓存的刷新。此时的性能最好,但风险最大,因为一旦断电或操作系统崩溃,在“binlogcache”中的所有binlog信息都会被丢失。 影响:参数设置为非默认值“1”时,降低了数据安全性,在系统崩溃的情况下,可能导致binlog丢失。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        参数管理
        MySQL参数调优建议
      • Redis单机实例
        本章节主要介绍Redis单机实例 DCS Redis单机实例有四个版本选择,Redis3.0、Redis4.0、Redis5.0和Redis6.0。 单机实例特点 1. 系统资源消耗低,支持高QPS 单机实例不涉及数据同步、数据持久化所需消耗的系统开销,因此能够支撑更高的并发。Redis单机实例QPS达到10万以上。 2. 进程监控,故障后自动恢复 DCS部署了业务高可用探测,单机实例故障后,30秒内会重启一个新的进程,恢复业务。 3. 即开即用,数据不做持久化 单机实例开启后不涉及数据加载,即开即用。如果服务QPS较高,可以考虑进行数据预热,避免给后端数据库产生较大的并发冲击。 4. 低成本,适用于开发测试 单机实例各种规格的成本相对主备减少40%以上。适用于开发、测试环境搭建。 总体说来,单机实例支持读写高并发,但不做持久化,实例重启时不保存原有数据。单机实例主要服务于数据不需要由缓存实例做持久化的业务场景,如数据库前端缓存,用以提升数据读取效率,减轻后端并发压力。当缓存中查询不到数据,可穿透至磁盘数据库中获取,同时,重启服务/缓存实例时,可从磁盘数据库中获取数据进行预热,降低后端服务在启动初期的压力。 实例架构设计 DCS的Redis单机实例架构,如下图所示。 说明 Redis3.0不支持定义端口,端口固定为6379,Redis4.0和Redis5.0支持定义端口,如果不自定义端口,则使用默认端口6379。以下图中以默认端口6379为例,如果已自定义端口,请根据实际情况替换。 Redis单机实例示意图 示意图说明: VPC 虚拟私有云。实例的内部所有服务器节点,都运行在相同VPC中。 说明 VPC内访问,客户端需要与实例处于相同VPC,并且配置安全组访问规则。 客户应用 运行在ECS上的客户应用程序,即实例的客户端。 Redis实例兼容开源协议,可直接使用开源客户端进行连接,关于客户端连接示例,请参考2.2 连接实例。 DCS缓存实例 DCS单机实例只有1个节点,1个Redis进程。 DCS实时探测实例可用性,当Redis进程故障后,DCS为实例重新拉起一个新的Redis进程,恢复业务。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        实例类型
        Redis单机实例
      • 使用V2签名时的HttpURLConnection开发
        本节主要介绍使用V2签名时的HttpURLConnection开发。 应用场景 V2签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.nio.charset.StandardCharsets; import java.text.SimpleDateFormat; import java.util.Arrays; import java.util.Base64; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Locale; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV2Signer { private static final String DATESTR "EEE, d MMM yyyy HH:mm:ss 'GMT'"; private static final SimpleDateFormat DATEFMT new SimpleDateFormat(DATESTR, Locale.ENGLISH); static { TimeZone gmt TimeZone.getTimeZone("GMT"); DATEFMT.setTimeZone(gmt); } private static final String OOSACCESSKEY "your ak"; private static final String OOSSECRETKEY "your sk"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int CONNTIMEOUT 30000; private static final int READTIMEOUT 30000; public void putObject(String bucket, String objectKey) { try { Map headers new HashMap<>(); headers.put("ContentType", "text/plain"); headers.put("xamzdate", "xxxx"); HttpURLConnection connection generateConnection("PUT", bucket, objectKey, headers); connection.setFixedLengthStreamingMode(OOSOBJECTCONTENT.length()); connection.setDoOutput(true); connection.connect(); byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { e.printStackTrace(); } } public void getObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("GET", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if (responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("DELETE", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } / 1 并不是headers里的所有头域,都参与计算签名。详情请参照 3.1.1章节StringToSign的构成说明 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。 PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 例:headers.put("xamzmetatest", "oos"); / private HttpURLConnection generateConnection(String method, String bucket, String objectKey, Map headers) throws Exception { if (headers null) { headers new TreeMap<>(); } if (!headers.containsKey("Date")) { String date DATEFMT.format(new Date()); headers.put("Date", date); } Map querys new HashMap<>(32); // 设置查询参数示例,可按需选择是否在请求url上设置查询参数。更多接口参数请参考《OOS开发者文档v6》 querys.put("responsecontenttype", "application/octetstream"); String authorization v2Sign(method, bucket, objectKey, headers, querys); String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, false); if (querys.size() ! 0) { requestUrl + "?" + encodeParameters(querys); } URL url new URL(requestUrl); HttpURLConnection connection (HttpURLConnection)url.openConnection(); connection.setRequestProperty("Authorization", authorization); connection.setConnectTimeout(CONNTIMEOUT); connection.setReadTimeout(READTIMEOUT); connection.setRequestMethod(method); if (null ! headers) { headers.forEach(connection::setRequestProperty); } return connection; } private String encodeParameters(Map querys) { StringBuilder builder new StringBuilder(); Iterator > pairs querys.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(urlEncode(pair.getKey(), false)); builder.append(""); builder.append(urlEncode(pair.getValue(), false)); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } // 以下是签名计算相关方法 / The set of request parameters which must be included in the canonical string to sign. / private static final List SIGNEDPARAMETERS Arrays.asList("acl", "torrent", "logging", "location", "policy", "requestPayment", "versioning", "versions", "versionId", "notification", "uploadId", "uploads", "partNumber", "website", "delete", "lifecycle", "tagging", "cors", "restore", "responsecachecontrol", "responsecontentdisposition", "responsecontentencoding", "responsecontentlanguage", "responsecontenttype", "responseexpires"); private String v2Sign(String method, String bucket, String objectKey, Map headers, Map querys) throws Exception { String canonicalString getCanonicalString(method, toResourcePath(bucket, objectKey), headers, querys); String signature sign(canonicalString); return "AWS " + OOSACCESSKEY + ":" + signature; } private String sign(String data) throws Exception { try { Mac mac Mac.getInstance("HmacSHA1"); mac.init(new SecretKeySpec(OOSSECRETKEY.getBytes(StandardCharsets.UTF8), "HmacSHA1")); byte[] bs mac.doFinal(data.getBytes(StandardCharsets.UTF8)); return Base64.getEncoder().encodeToString(bs); } catch (Exception e) { throw new Exception("Unable to calculate a request signature: " + e.getMessage(), e); } } / Calculate the canonical string for a REST/HTTP request to OOS. When expires is nonnull, it will be used instead of the Date header. / private String getCanonicalString(String method, String resource, Map headers, Map querys) { StringBuilder buf new StringBuilder(); buf.append(method).append("n"); SortedMap interestingHeaders new TreeMap<>(); if (headers ! null && headers.size() > 0) { for (Map.Entry entry : headers.entrySet()) { String key entry.getKey(); String value entry.getValue(); if (key null) { continue; } String lk key.toLowerCase(Locale.getDefault()); if ("contenttype".equals(lk) "contentmd5".equals(lk) "date".equals(lk) lk.startsWith("xamz")) { interestingHeaders.put(lk, value); } } } // Remove default date timestamp if "xamzdate" is set. if (interestingHeaders.containsKey("xamzdate")) { interestingHeaders.put("date", ""); } // These headers require that we still put a new line in after them, // even if they don't exist. if (!interestingHeaders.containsKey("contenttype")) { interestingHeaders.put("contenttype", ""); } if (!interestingHeaders.containsKey("contentmd5")) { interestingHeaders.put("contentmd5", ""); } // Any parameters that are prefixed with "xamz" need to be included // in the headers section of the canonical string to sign if (querys ! null) { for (Map.Entry parameter : querys.entrySet()) { if (parameter.getKey().toLowerCase().startsWith("xamz")) { interestingHeaders.put(parameter.getKey().toLowerCase(), parameter.getValue()); } } } for (Map.Entry entry : interestingHeaders.entrySet()) { String key entry.getKey(); Object value entry.getValue(); if (key.toLowerCase().startsWith("xamz")) { buf.append(key).append(':').append(value); } else { buf.append(value); } buf.append("n"); } buf.append(resource); if (querys ! null) { String[] parameterNames querys.keySet().toArray(new String[0]); Arrays.sort(parameterNames); char separator '?'; for (String parameterName : parameterNames) { // Skip any parameters that aren't part of the canonical signed string if (!SIGNEDPARAMETERS.contains(parameterName)) { continue; } buf.append(separator); buf.append(parameterName); String parameterValue querys.get(parameterName); if (parameterValue ! null && !"".equals(parameterValue)) { buf.append("").append(parameterValue); } separator '&'; } } return buf.toString(); } private String toResourcePath(String bucket, String objectKey) { String resourcePath "/" + ((bucket ! null && !"".equals(bucket)) ? bucket : "") + ((objectKey ! null) ? "/" + objectKey : ""); return urlEncode(resourcePath, true); } / @param keepPathSlash 实际上,根据RFC 3986规范,url中的 '/'和'~' 可以不用转译,URLEncoder做了转译,但是为了兼容浏览器解析文件名,要求 '/'和'~'不能做转译。 @param url 客户请求的url,也就是object key @return 转译后的url / private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, StandardCharsets.UTF8.toString()); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { // Web browsers do not always handle '+' characters well, use the wellsupported '%20' instead. encoded encoded.replaceAll("+", "%20"); // Change all "%2F" back to "/", so that when users download a file in a virtual folder by the presigned // URL, // the web browsers won't mess up the filename. (e.g. 'folder1folder2filename' instead of 'filename') encoded encoded.replace("%2F", "/"); encoded encoded.replace("%7E", "~"); } return encoded; } public static void main(String[] args) { String bucket "your bucket"; String objectKey "your object key"; OOSDemoForV2Signer v2 new OOSDemoForV2Signer(); v2.putObject(bucket, objectKey); v2.getObject(bucket, objectKey); v2.deleteObject(bucket, objectKey); } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V2签名时的HttpURLConnection开发
      • 概述
        本页为其他云PostgreSQL迁移到RDS for PostgreSQL的最佳实践网络和准备工作概述。 网络通信方式 其他云的数据库接入天翼云,需要通过公网网络进行网络打通,包括数据库实例具备公网IP,天翼云DTS实例具备公网IP。 准备工作 1. 订购公网IP 如果在天翼云已有可用的公网IP,则可以直接使用,否则需要先购买一个公网IP用于实现DTS实例的公网访问。 2. 申请公网IP并绑定到数据库实例 不同云厂商的数据库实例对应方法不同,具体操作步骤可参考具体云官网资料进行设置。 3. VPC网络安全策略放通 需要在其他云数据库实例所在的VPC放通DTS数据迁移实例中配置的公网IP的访问权限,一般包括网络ACL和实例安全组,具体可参考各厂商云数据库官方文档进行操作。 4. 数据库添加白名单 数据库需要添加DTS数据迁移实例中配置的公网IP远程访问数据库的权限。不同类型的数据库添加白名单的方法可能不一样,具体可参考各数据库官方文档进行操作。 源库处理 登录其他云PostgreSQL所属的服务器。 修改配置文件postgresql.conf,将配置文件中的wallevel设置为logical。 将DTS的IP地址加入至其他云PostgreSQL的配置文件pghba.conf中。如果您已将信任地址配置为0.0.0.0/0(如下图所示),可跳过本步骤。 如果任务包含增量同步,需安装PostgreSQL的逻辑解码器输出插件Decoderbufs,建议安装v2.1.1.Final以上版本,低版本可能会导致PostgreSQL数据库出现coredump,详细的安装步骤可参考PostgreSQL官网文档。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云PostgreSQL迁移到RDS for PostgreSQL
        概述
      • 本地盘云主机
        本文介绍本地盘云主机的规格类型。 使用须知 本地盘云主机所在的物理机发生故障时,不支持弹性云主机的迁移恢复: 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 本地盘云主机不支持规格变更。 本地盘云主机不支持本地盘的快照、备份和克隆。 可使用本地盘和云硬盘两类磁盘存储数据,通过挂载云硬盘,可以提供更大的存储空间。关于本地盘和云硬盘的使用,有如下约束与限制: 系统盘只能部署在云硬盘上,不可以部署在本地盘上。 数据盘可以部署在云硬盘和本地盘上。 本地盘云主机的本地磁盘数据有丢失的风险(比如宿主机宕机或本地磁盘损坏时),如果您的应用不能做到数据可靠性的架构,强烈建议您使用云盘搭建您的弹性云主机。 删除本地盘云主机后,本地盘中的数据会被自动清除,请提前做好数据备份。删除本地盘数据的时间较长,因此,资源释放的时间较之常规云主机略长。 由于本地盘数据的可靠性取决于物理服务器和硬盘的可靠性,存在单点故障风险,建议您在应用层做好数据冗余,以保证数据的可用性,需要长期保存的业务数据建议使用云硬盘存储。 对于本地盘云主机,关机后其基础资源(包括vCPU、内存、镜像)会继续收费。如需停止计费,需删除弹性云主机。 您不能单独购买本地盘,本地盘的数量和容量由您选择的弹性云主机规格决定,只能在创建本地盘云主机的同时购买本地盘。 ir3型弹性云主机的本地盘为拆分型本地盘,一块本地盘可能被多个弹性云主机使用。当本地盘损坏时,会影响多个弹性云主机。建议您在创建Ir3型弹性云主机时,将弹性云主机加入云主机组,避免出现一块本地盘损坏影响多个弹性云主机的情况。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        本地盘云主机
      • 切换操作系统
        不同操作系统切换须知 不同操作系统间的切换是指Windows与Linux操作系统之间的互相切换。 Windows系统更换为Linux系统:请安装读写Windows系统的NTFS分区工具,例如NTFS3G等。 Linux系统更换为Windows系统:请安装可以识别ext3、ext4等分区的识别软件,例如Ext2Read、Ext2Fsd等。 说明 云平台不推荐您将Linux系统更换为Windows系统,当Linux系统中存在LVM分区时,切换为Windows系统后可能会导致LVM逻辑分区无法识别。 前提条件 待切换操作系统的弹性云主机挂载有系统盘。 切换操作系统会清除系统盘数据,包括系统盘上的系统分区和所有其它分区,请做好数据备份。 如果原服务器使用的是密码登录方式,切换操作系统后使用密钥登录方式,请提前创建密钥文件。 如果您使用私有镜像切换操作系统请参考《镜像服务用户指南》提前完成私有镜像的制作。 − 如果需要指定弹性云主机器的镜像,请提前使用指定弹性云主机创建私有镜像。 − 如果需要使用本地的镜像文件,请提前将镜像文件导入并注册为云平台的私有镜像。 − 如果需要使用其他帐号的私有镜像,请提前完成镜像共享。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 弹性云主机”。 3. 在待切换操作系统的弹性云主机的“操作”列下,单击“更多 > 镜像/磁盘 > 切换操作系统”。 切换操作系统前请先将云主机关机。 4. 根据需求选择需要更换的弹性云主机规格,包括“镜像类型”和“镜像”。 相关参数说明请参见创建弹性云主机。 5. 设置登录方式。 如果待切换操作系统的弹性云主机是使用密钥登录方式创建的,此时可以更换使用新密钥。 6. 单击“确定”。 7. 在“切换云主机操作系统”页面,确认切换的操作系统规格无误后,单击“提交申请”。 提交切换操作系统的申请后,弹性云主机的状态变为“切换中”,当该状态消失后,表示切换结束。 说明 切换操作系统过程中,会创建一台临时弹性云主机,切换操作系统结束后会自动删除。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        切换操作系统
      • IPsec VPN配置概览
        本文为您介绍如何使用IPsec VPN,在本地数据中心IDC与VPC之间建立IPsec连接。 场景示例 以下图组网场景为例,某公司在天翼云创建了VPC,子网网段为192.168.1.0/24和192.168.2.0/24。本地数据中心的网段为172.16.1.0/24,本地网关设备的公网IP为121.XX.XX.113。公司因业务发展,需要将本地数据中心与云上VPC互通。您可以通过IPsec VPN,建立本地数据中心与云上VPC的连接,实现云上和云下的加密通信。 环境要求 本地数据中心的VPN网关设备必须配置公网IP地址。 本地数据中心的VPN网关设备必须支持IKEv1或IKEv2协议,支持任意一种协议的设备均可以和天翼云VPN网关建立IPsec VPN连接。 本地数据中心和天翼云VPC间互通的网段没有重合。 使用流程 1. 创建VPN网关 创建VPN网关并开启IPsec VPN功能,一个VPN网关可以建立多条IPsec连接。 2. 创建用户网关 通过创建用户网关,您可以将本地数据中心VPN网关设备的信息注册到天翼云上。 3. 创建IPsec连接 IPsec连接是指VPN网关和本地数据中心VPN网关设备建立连接后的VPN隧道。只有在建立IPsec隧道后,本地数据中心才能使用VPN网关进行加密通信。 4. 配置VPN网关路由(可选)。 当创建的IPsec连接配置的路由模式为“目的路由”时,您需要在VPN网关中配置路由,并发布路由到VPC路由表以实现本地数据中心和VPC的通信。 当创建的IPsec连接配置的路由模式为“感兴趣路由”时,无需执行此操作。 5. 配置本地网关设备 您需要在本地数据中心的网关设备中添加VPN配置。 6. 测试连通性 登录到天翼云VPC内一台弹性云主机实例,通过ping命令,ping本地数据中心内一台服务器的私网IP地址(未禁用ping探测),验证通信是否正常。
        来自:
        帮助文档
        VPN连接
        用户指南
        配置IPsec VPN
        IPsec VPN配置概览
      • SQL类
        解决方案 针对表空间膨胀的问题,可以进行表空间优化整理,从而缩小空间,执行如下SQL命令: optimize table tablename; 说明 optimize table命令会有短暂锁表操作,所以进行表空间优化时,建议避开业务高峰期,避免影响正常业务的进行。 MySQL创建用户提示服务器错误(ERROR 1396) 场景描述 用户帐号在控制台界面上消失,创建不了同名帐号,但使用帐号名和旧密码还能连接。 创建用户失败的报错信息: ERROR 1396 (HY000): Operation CREATE USER failed for xxx。 问题分析 1. 查询确认后,发现消失的账号在mysql.user表中已经被删除,故控制台不再显示; 2. 使用帐号名和旧密码还能连接登录,说明使用的是delete from mysql.user 方式删除用户。使用这种方式删除用户,需要执行flush privileges后,才会清理内存中相关数据,该用户才彻底不能登录。 3. 使用delete from mysql.user方式删除用户,无法重新创建相应账户(报错ERROR 1396),原因是内存中相关数据仍然存在。 正确删除用户的方式为drop user语句,注意以下几点: drop user语句可用于删除一个或多个用户,并撤销其权限。 使用drop user语句必须拥有MySQL数据库的DELETE权限或全局CREATE USER权限。 在drop user语句的使用中,若没有明确地给出帐户的主机名,则该主机名默认为“%”。 故障场景恢复示例: 创建用户后用delete 删除用户,再创建同名用户时报错ERROR 1396。通过执行flush privileges后,可正常创建同名用户。 解决方案 方式一(推荐):在业务低峰期,使用管理员帐户执行drop user username删除用户,再重新创建该用户,修复该问题。 方式二:在业务低峰期,使用管理员帐户执行flush privileges后,再重新创建该用户,修复该问题。建议开启数据库全量sql洞察功能,便于分析是哪个客户端删除了用户。 执行alter table xxx discard/import tablespace报错
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        SQL类
      • 扫描具有复杂访问机制的网站漏洞
        步骤二:设置网站“cookie登录”方式 请参照以下操作步骤设置“cookie登录”方式。 1. 登录管理控制台。 2. 进入网站登录设置入口,如下图所示。 3. 在弹出的“编辑”对话框中,将“获取cookie值”图中网站的cookie值完整复制到“cookie值”文本框中。 4. 在“验证登录网址”文本框中输入用于验证登录的网址。输入登录成功后才能访问的网址,便于VSS快速判断您的登录信息是否有效。 5. 单击“确认”,完成网站登录设置。 步骤三:创建扫描任务 注意 创建扫描任务时,请您保持网站的登录状态,以免cookie失效。 1. 在该域名所在行的“操作”列,单击“扫描”,如下图所示。 2. 在“创建任务”界面,根据扫描需求,设置扫描参数,如下图所示。 3. 单击“开始扫描”。 如果没有设置开始扫描时间,且此时服务器没有被占用,则创建的任务可立即开始扫描,任务状态为“进行中”;否则进入等待队列中等待,任务状态为“等待中”。 步骤四:查看扫描结果并下载扫描报告 扫描任务执行成功(域名的“上一次扫描结果”状态为“已完成”),您可以查看扫描结果并下载扫描报告。 1. 在该域名所在行的“上一次扫描结果”列,单击扫描得分。 2. 在扫描任务详情界面,查看扫描结果,如下图所示。 3. 单击右上角的,生成网站扫描报告。 如果报告已生成,则可跳过此步。 4. 单击右上角的,将网站扫描报告下载到本地,查看详细的扫描结果。 报告目前只支持PDF格式。
        来自:
        帮助文档
        漏洞扫描(专业版)
        最佳实践
        扫描具有复杂访问机制的网站漏洞
      • 设置IP情报规则
        本文将向您介绍如何使用边缘安全加速平台安全与加速服务提供的IP情报库功能。 功能介绍 支持针对已维护的IP信誉库,从威胁类型维度(IDC服务器、傀儡机、漏洞利用等十几类)进行IP封禁,目前IP信誉库已维护接近120万条数据。 注意 注意:目前控制台尚未开放IP情报规则功能,如有防护需求请通过 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 购买Bot防护扩展服务,支持IP情报库相关功能。 背景信息 目前天翼云边缘安全加速平台安全团队通过大数据分析技术,并基于内置的评分机制对历史攻击数据进行威胁评定,生成IP信誉库,其中恶意IP包含了漏洞利用、扫描机、傀儡机、垃圾邮件、可疑、失陷主机、暴力破解、代理、远控、僵尸网络、劫持、钓鱼、恶意软件13种威胁类型,统计IP数量接近120万。 设置IP情报规则 支持通过威胁类型维度针对恶意IP进行监控或拦截的操作,支持配置多条防护规则。 配置项 说明 开关 控制规则为开启/关闭状态 处理动作 支持配置拦截或监控 拦截:对IP访问请求进行拦截处理 监控:不对请求拦截,但是会生成攻击日志 规则名称 支持设置规则名称 防护范围 将通过选择IP可信度、严重级别、威胁类型来配置IP情报防护规则,对同时满足三个配置的IP处理 可信度:即情报的可信度,针对已收录的IP情报,边缘云WAF安全团队将基于内置评分机制进一步验证,根据验证结果评定可信程度为高、中、低 严重级别:恶意IP的严重级别,有严重、高、中、低 威胁类型:漏洞利用、扫描机、傀儡机、垃圾邮件、可疑、失陷主机、暴力破解、代理、远控、僵尸网络、劫持、钓鱼、恶意软件,支持多选
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        Bot防护
        设置IP情报规则
      • 管理索引组件GiServer参数
        您可以根据实际情况,管理GiServer的参数(属性)设置,也可以重置已修改的参数值。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击参数管理 ,然后单击全局索引组件GiServer参数页签,进入GiServer参数管理页面。 5. 在参数列表上方,选中目标分组或输入目标属性名称,单击查询。 6. 找到目标属性值,根据实际情况修改属性值。 说明 您也可以单击目标属性值操作 列的重置,即可重置属性值。 属性编码 属性名称 允许值 默认值 支持在线加载 rebuildOptimizeSwitch 是否开启重建索引流程优化开关 true/false false 是 skipBinlogRecover 是否绕过Binlog指定(GITD)位置恢复,如果为true,表示需要从头开复制 true/false false 否 recoverDataDir 索引数据恢复文件夹路径 ./recoverData 否 recoverBatch 索引数据恢复批次处理的大小,单位:个 12147483647 100 否 recoverInterval 索引数据恢复定时恢复的时间间隔(毫秒) 17200000 10000 否 fetchBatchSize 客户端提交重建索引请求时,指定重建索引一次批量处理的行数 12147483647 2000 否 serverPrintInterval GiServer服务器性能状态打印的时间间隔(毫秒) 17200000 5000 否 binlogDelay 更新Binlog位置记录到存储的延迟时间(毫秒) 17200000 300000 否 binlogCacheThread binlog索引写缓存的最大线程数 12147483647 128 否 binlogCacheQueueSize 单个binlog索引线程的缓存队列长度,单位:个 12147483647 128 否 rebuildCacheThread 重建索引写缓存的最大线程数 12147483647 128 否 parallelRebuildTasks 最大同时重建子任务数 12147483647 20 否 netWriteTimeout MySQL主机写binlog超时时间(毫秒) 17200000 60000 否 accessDb 数据库集群主从选择 master/slave master 否
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        参数管理
        管理索引组件GiServer参数
      • 移动应用使用临时凭证直传
        本文主要讲解移动应用使用临时凭证直传文件的最佳实践。 实践背景 在移动互联网时代,从手机里的照片到各类文件,移动端APP需要上传到服务器的文件越来越多。开发者可以使用媒体存储来保存这些文件,媒体存储提供的SDK接口可以支持直接在移动端进行文件上传。 访问媒体存储需要使用密钥(AK/SK),但是如果在移动端直接使用长期密钥访问对象存储,遭受黑客攻击就可能会暴露长期密钥,导致对象存储中的文件泄露或被篡改,存在很大的风险。 媒体存储提供STS角色管理功能,可以为移动端颁发一个自定义时效和权限的访问凭证,无需在移动端暴露长期密钥。使用STS授权访问时,请务必按照业务情况,以最细粒度的权限原则进行授权,避免放大临时用户的权限,保证资源访问安全。 应用流程 使用临时凭证直传时,具体应用流程如下: 实践步骤 创建用于获取STS访问凭证的角色 通过媒体存储控制台,创建STS角色,并获取对应的arn信息,具体可参考 STS角色管理 。 对应角色授权并且获取STS临时密钥 具体可参照如下java示例: // STS endPoint String endPoint " "; // 在对象存储控制台访问密钥AccessKey和SecretKey。 String accessKey " "; String secretKey " "; // 填写步骤一获取的角色ARN。 String roleArn " "; // 设置临时访问凭证的名称. String roleSessionName " "; // 设置 Policy 允许上传对象 String policy "{"Version":"20121017"," + ""Statement":[" + "{"Effect":"Allow"," ""Action":["s3:PutObject"]," ""Resource":["arn:aws:s3::: /"]}" + "]}"; // 创建STS Client BasicAWSCredentials basicAWSCredentials new BasicAWSCredentials(accessKey, secretKey); AwsClientBuilder.EndpointConfiguration endpointConfiguration new AwsClientBuilder.EndpointConfiguration(endPoint, ""); AWSSecurityTokenService stsClient AWSSecurityTokenServiceClientBuilder.standard() .withCredentials(new AWSStaticCredentialsProvider(basicAWSCredentials)) .withEndpointConfiguration(endpointConfiguration) .build(); AssumeRoleRequest assumeRoleRequest new AssumeRoleRequest(); assumeRoleRequest.setRoleArn(roleArn); assumeRoleRequest.setRoleSessionName(roleSessionName); assumeRoleRequest.setPolicy(policy); AssumeRoleResult assumeRoleRes stsClient.assumeRole(assumeRoleRequest); Credentials stsCredentials assumeRoleRes.getCredentials(); System.out.println("Expiration: " + stsCredentials.getExpiration()); System.out.println("Access Key Id: " + stsCredentials.getAccessKeyId()); System.out.println("Access Key Secret: " + stsCredentials.getSecretAccessKey()); System.out.println("Security Token: " + stsCredentials.getSessionToken());
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        操作使用
        移动应用使用临时凭证直传
      • 实例概述
        本文介绍ECI实例概述。 每个ECI实例对应一个容器组,由vCPU、内存、网络等基础组件组成,用于运行一个或多个容器。本文介绍ECI实例的基本配置、创建方式和生命周期等。 说明 弹性容器实例产品具备高弹性、低成本、高并发等特性,适用于在线业务弹性扩容、在线业务托管、AI和大数据处理等业务,有短期创建大量资源、快速使用并释放的场景。 为了避免频繁创建删除操作的消息提示对您造成困扰,弹性容器实例产品将消息提示策略进行优化:除了第一次创建弹性容器实例时,系统会向您发送的邮件、短信、站内信提示,其余创建删除操作,系统将停止发送消息提示,请您随时留意控制台资源情况。 基本配置 ECI实例包含实例规格、容器镜像、网络、存储等基础组件,您可以方便地定制、更改实例的配置。您对该ECI实例拥有完全的控制权,不需要进行底层服务器的管理和配置操作,只需要提供打包好的容器镜像,即可运行容器。 实例规格:一个ECI实例主要包括vCPU和内存规格。创建实例时,可以指定ECI规格(直接指定vCPU和内存),也可以指定ECS规格来满足GPU、增强网络能力等特殊需求。 容器镜像:一个ECI实例由一个或者多个容器组成,部署容器应用时,需要准备好容器镜像。容器镜像包含容器应用运行所需的程序、库文件、配置等。拉取镜像时,需要保证网络畅通,推荐您使用镜像缓存功能来节约实例的启动耗时。 网络:一个ECI实例将占用所属VPC下的子网的一个弹性网卡资源,默认具备一个内网IP地址。如果需要连接公网,例如需要拉取公网镜像。则需要为ECI实例绑定EIP,或者为所属VPC绑定NAT网关。 存储:一个ECI实例默认有40 GiB的临时存储空间,您可以根据需要增加临时存储空间。如果想要保留存储的文件,建议使用外挂数据卷,支持挂载云盘、弹性文件和对象存储等天翼云存储数据卷。
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        实例
        实例概述
      • 高效的分布式关联能力
        本页介绍天翼云TeleDB数据库高效的分布式关联能力。 分布式关联是指在不同节点或服务器上存储的数据表之间的关联操作。这种关联操作涉及到跨多个物理位置的数据处理,需要在逻辑上保持数据的一致性和完整性,同时确保查询的高效执行。分布式关联的实现依赖于分布式数据库管理系统(DDBMS)的功能,该系统能够协调和管理分布在多个地点的数据,使得用户或应用程序可以像操作单一数据库一样操作分布式数据库‌。 如,TBLA、TBLB两表关联,其中TBLA和TBLB都有f1,f2两列,其两表分布式关联分为如下三种场景。 场景一:两表关联,关联条件与两张表的分布键相同,都是f1 select from TBLA join TBLB on TBLA.f1 TBLB.f1; 由于两张表的数据分布算法一致,相同f1的数据位于同一个DN节点中,那么只需要在每个DN节点内完成关联,将结果返回CN汇总即可,SQL可以下推DN执行。 场景二:TBLB关联字段没有用到分布键,TBLB很小 select from TBLA join TBLB on TBLA.f1 TBLB.f2; 两张表的数据分布算法一致,相同f1的数据位于同一个DN节点中,由于TBLB的关联字段为f2,TBLA关联需要的TBLB数据,和TBLB数据在DN上的分布情况不一致,不能下推到DN执行。 解决方案: 将TBLB定义为复制表(在每个DN都有一个完整的副本)。此时,每个DN上都有TBLA关联TBLB所需要的数据,关联可以在每个DN节点内完成,SQL就可以下推DN执行。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的分布式关联能力
      • 平台用量查询的流量与日志统计的流量相比,为什么会存在差异
        本文解释平台用量查询的流量与日志统计的流量差异产生的原因。 CDN控制台上可查询带宽流量等统计数据,该数据同时也应用于生成计费账单,其流量会比基于访问日志统计的流量偏多。 原因是CDN日志中记录的流量数据是基于应用层日志中响应消息头+响应body体统计出的流量,而在实际网络请求中产生的网络流量,由于存在TCP/IP包头消耗和TCP重传,要比应用层统计到的流量数据高出7%~15%。因此按照业界标准,应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。 TCP/IP包头的消耗: HTTP请求是基于TCP/IP协议的,数据包是TCP/IP协议通信传输中的数据单位,我们在使用基于TCP/IP协议的网络时,网络中传递的其实就是数据包。每个数据包的大小最大是1500字节,这1500字节中包括了TCP和IP协议组成的40个字节的包头,这两个协议包头其实也会产生流量,但是却无法被应用层统计到,因此这40个字节的流量就不会被统计到日志里,这部分的流量会占到我们通过日志计算出流量的2.74%(40/1460)以上,即3%左右。 TCP重传: 根据互联网中网络的负载情况,通常情况下,会有接近3%~10%的数据包会因为网络堵塞、设备故障等各种异常情况被丢弃。发生丢包后,服务器会对丢弃的数据包进行重传,这部分的具体操作是由内核层的协议栈处理完成的,通常无法被应用层统计到的,因此在一定程度上也会造成日志统计与实际网络响应流量的差异。 综上所述,天翼云CDN加速产品取平均值10%作为网络层额外消耗的流量比例,即应用于账单的计费值会比基于访问日志计算得出的计费值上浮10%。
        来自:
        帮助文档
        CDN加速
        常见问题
        订购计费
        平台用量查询的流量与日志统计的流量相比,为什么会存在差异
      • 跨域资源共享
        本文介绍跨域资源共享功能及其配置说明。 功能介绍 跨域资源共享(CrossOrigin Resource Sharing,简写为CORS),是一种由W3C标准化组织提出的网络浏览器的规范机制,它允许网页应用程序在浏览器中向不同源(包括不同的域、协议或端口)的服务器请求资源。当客户的业务需要跨域共享或者访问资源时,可以通过自定义HTTP响应头来实现。 注意事项 若源站与CDN控制台同时配置CORS跨域头,则CDN的配置将覆盖源站CORS跨域头。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【头部修改】。 5. 在【HTTP响应头】模块,单击【增加规则】,HTTP响应头部值配置:AccessControlAllowOrigin。 参数名 说明 示例 头部值 跨域头部固定填写:AccessControlAllowOrigin。 AccessControlAllowOrigin 跨域验证 跨域验证开关默认关闭。 关闭:固定响应“AccessControlAllowOrigin”头部及其配置的取值。 开启:按照以下规则对用户请求进行跨域校验。 1.任意匹配:取值配置为“ ”,固定响应“AccessControlAllowOrigin:”。 2.泛匹配:取值配置为泛域名,校验请求头Origin值与配置的泛域名是否匹配,匹配则“AccessControlAllowOrigin”头部值响应Origin请求头值,匹配不上则不响应跨域头。 3.精确匹配:取值配置为单个或者多个精确域名,校验请求头Origin值与配置的精确域名是否匹配,匹配则“AccessControlAllowOrigin”头部值响应Origin请求头值,匹配不上则不响应跨域头。 开启 取值 1.响应头取值配置为“ ”,可匹配所有来源。 2.响应头取值配置非“ ”,必须包含协议头“http:// ”或者“ 3.响应头取值配置非“ ”,支持配置多个域名,多个值之间用英文逗号分隔。 4.响应头取值支持携带端口。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        缓存配置
        跨域资源共享
      • 实践教程
        1. 连接至数据库并建表 建表语句如下: CREATE TABLE ukpricepaid ( price UInt32, date Date, postcode1 LowCardinality(String), postcode2 LowCardinality(String), type Enum8('terraced' 1, 'semidetached' 2, 'detached' 3, 'flat' 4, 'other' 0), isnew UInt8, duration Enum8('freehold' 1, 'leasehold' 2, 'unknown' 0), addr1 String, addr2 String, street LowCardinality(String), locality LowCardinality(String), town LowCardinality(String), district LowCardinality(String), county LowCardinality(String) ) ENGINE MergeTree ORDER BY (postcode1, postcode2, addr1, addr2); 2. 预处理并插入数据 我们将使用url函数将数据流式传输到云数据库ClickHouse中。我们首先需要对一些传入的数据进行预处理,包括: 下面将邮政编码拆分为两个不同的列 postcode1和postcode2,这样更适合存储和查询。 将时间字段转换为日期,因为它只包含00:00时间。 忽略UUid字段,因为在分析中不需要它。 使用transform函数将type和duration转换为更易读的枚举字段。 将isnew字段从单字符字符串(Y/N)转换为UInt8字段,取值为0或1。 删除最后两列,因为它们的值都相同(为0)。 url函数将数据从Web服务器流式传输到您的云数据库ClickHouse表中。以下命令将向ukpricepaid表中插入500万行数据: INSERT INTO ukpricepaid WITH splitByChar(' ', postcode) AS p SELECT toUInt32(pricestring) AS price, parseDateTimeBestEffortUS(time) AS date, p[1] AS postcode1, p[2] AS postcode2, transform(a, ['T', 'S', 'D', 'F', 'O'], ['terraced', 'semidetached', 'detached', 'flat', 'other']) AS type, b 'Y' AS isnew, transform(c, ['F', 'L', 'U'], ['freehold', 'leasehold', 'unknown']) AS duration, addr1, addr2, street, locality, town, district, county FROM url( ' 'CSV', 'uuidstring String, pricestring String, time String, postcode String, a String, b String, c String, addr1 String, addr2 String, street String, locality String, town String, district String, county String, d String, e String' ) SETTINGS maxhttpgetredirects10; 输入命令并执行后请等待数据插入,等待时间取决于网络速度。
        来自:
        帮助文档
        云数据库ClickHouse
        最佳实践
        实践教程
      • 如何提高消息处理效率
        本文主要介绍如何提高消息处理效率。 消息发送和消费的可靠性必须由DMS服务和生产者以及消费者协同工作才能保证。同时开发者需要尽量合理使用DMS消息队列,以提高消息发送和消息消费的效率与准确性。 对使用DMS服务的生产者和消费者有如下的使用建议: 重视消息生产与消费的确认过程 消息生产(发送) 发送消息后,生产者需要根据DMS的返回信息确认消息是否发送成功,如果返回失败需要重新发送。 每次生产消息,生产者都需要等待消息发送API的应答信号,以确认消息是否成功发送。在消息传递过程中,如果发生异常,生产者没有接收到发送成功的信号,生产者自己决策是否需要重复发送消息。如果接收到发送成功的信号,则表明该消息已经被DMS可靠存储。 消息消费 消息消费时,消费者需要确认消息是否已被成功消费。 生产的消息被依次存储在DMS的存储介质中。消费时依次获取DMS中存储的消息。消费者获取消息后,进行消费并记录消费成功或失败的状态,并将消费状态提交到DMS,由DMS决定消费下一批消息或回滚重新消费消息。 在消费过程中,如果出现异常,没有提交消费确认,该批消息会在后续的消费请求中再次被获取。 消息生产与消费的幂等传递 DMS设计了一系列可靠性保障措施,确保消息不丢失。例如使用消息同步存储机制防止系统与服务器层面的异常重启或者掉电,使用消息确认(ACK)机制解决消息传输过程中遇到的异常。 考虑到网络异常等极端情况,用户除了做好消息生产与消费的确认,还需要配合DMS完成消息发送与消费的重复传输设计。 当无法确认消息是否已发送成功,生产者需要将消息重复发送给DMS。 当重复收到已处理过的消息,消费者需要告诉DMS消费成功且保证不重复处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        如何提高消息处理效率
      • 添加作业
        通过后台提交作业 翼MR 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,翼MR 3.x之前版本为“/opt/client”。具体以实际为准。 1.登录翼MR管理控制台。 2.选择“集群列表 > 现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.在“节点管理”页签中单击某一Master节点名称,进入弹性云服务器管理控制台。 4.单击页面右上角的“远程登录”。 5.根据界面提示,输入Master节点的用户名和密码,用户名、密码分别为root和创建集群时设置的密码。 6.执行如下命令初始化环境变量。 source/opt/Bigdata/client/bigdataenv 7.如果当前集群已开启Kerberos认证,执行以下命令认证当前用户。如果当前集群未开启Kerberos认证,则无需执行该步骤。 kinit 翼MR集群用户 例如, kinit admin 8.执行如下命令拷贝OBS文件系统中的程序到集群的Master节点。 hadoop fs Dfs.obs.access.keyAK Dfs.obs.secret.keySK copyToLocal sourcepath.jar targetpath.jar 例如: hadoop fs Dfs.obs.access.keyXXXX Dfs.obs.secret.keyXXXX copyToLocal "obs://翼MRword/program/hadoopmapreduceexamplesXXX.jar" "/home/omm/hadoopmapreduceexamplesXXX.jar" AK/SK可登录OBS控制台,请在集群控制台页面右上角的用户名下拉框中选择“我的凭证 > 访问密钥”页面获取。 9.执行如下命令提交wordcount作业,如需从OBS读取或向OBS输出数据,需要增加AK/SK参数。 source /opt/Bigdata/client/bigdataenv;hadoop jar executejar wordcount inputpath outputpath 例如: source /opt/Bigdata/client/bigdataenv;hadoop jar /home/omm/hadoopmapreduceexamplesXXX.jar wordcount Dfs.obs.access.keyXXXXDfs.obs.secret.keyXXXX "obs://翼MRword/input/" "obs://翼MRword/output/" inputpath为OBS上存放作业输入文件的路径。outputpath为OBS上存放作业输出文件地址,请设置为一个不存在的目录。
        来自:
        帮助文档
        翼MapReduce
        快速入门
        添加作业
      • 通过脚本批量更新一键式重置密码插件(Linux)
        本节介绍了更新一键式重置密码插件(批量操作Linux系统root用户)的操作场景、前提条件、约束与限制、操作步骤等内容。 操作场景 当您需要对多台Linux系统的云主机批量更新一键式重置密码插件时,可参考本文档操作。 前提条件 登录已准备好的执行机,执行机需满足的条件请参见下文约束与限制。 需要提前准备待批量安装插件的云主机的IP地址、root用户的密码信息或者私钥文件。 执行机应该与待更新机器在同一VPC下。 在执行完步骤7之后可以解绑eip。 约束与限制 需要选取一台操作系统为CentOS 7(公共镜像)且已绑定弹性公网IP的云主机作为执行机,且与待批量安装插件的弹性云主机之间网络需要互通。 仅支持对使用同一密钥对的云主机执行批量安装插件的操作。 操作步骤 1.根据以下地址获取ansible.tar.gz压缩包,并上传到执行机。 以root用户登录执行机。 依次执行以下命令安装ansible。(实际安装路径用户可自定义,此处以/root/ansible为示例。) mkdir /root/ansible tar zxvf ansible.tar.gz C /root/ansible cd /root/ansible yum localinstall .rpm 执行以下命令检测是否安装成功。 ansible version 2.请参考获取并校验一键式重置密码插件完整性(Linux),下载对应的一键式重置密码插件CloudResetPwdAgent.zip并完成完整性校验。 安装一键式重置密码插件对插件的具体放置目录无特殊要求,请您自定义。 3.执行以下命令,将批量操作脚本下载到root目录下。 curl URL >~/batchupdatelog4jversion.py 其中,URL为批量操作的执行脚本。 脚本下载地址: 4.执行以下命令,将更新插件脚本下载到root目录下。 curl URL >~/updatelog4jversionforresetpwdagent.sh 其中,URL为更新插件脚本的下载地址。 脚本下载地址: 5.检查如下脚本是否在root目录下: batchupdatelog4jversion.py updatelog4jversionforresetpwdagent.sh CloudResetPwdAgent.zip 6.执行以下命令,新建并编辑hostlist.txt,按i进入编辑模式。 vi hostlist.txt 将需要自动安装驱动的云主机的相关信息填写到hostlist.txt文件中。 示例: [x8664] 182.168.64.21 182.168.64.22 文件填写格式与登录待切换弹性云主机的方式需要匹配。 使用密钥对方式鉴权的云主机,填写方式如下: 说明 使用密钥对方式鉴权的云主机,请将创建弹性云主机时保存的私钥文件,上传至与hostlist.txt同一个文件夹下。 使用密钥对方式鉴权的云主机,请确保私钥文件的权限为400。 chmod 400私钥文件 每行仅需填写云主机IP地址。 示例: 192.168.1.10 192.168.1.11 使用密码方式登录的云主机,填写方式如下: 请严格按照每行ip,root用户密码,中间以英文逗号隔开的格式填写。 示例: 192.168.1.10,'' 192.168.1.11,'' 7.运行批量执行操作脚本“batchupdatelog4jversion.py”。 密钥对鉴权方式的服务器 如果私钥文件与批量操作执行脚本在一个目录下,则直接指定私钥文件名称即可。 python batchupdatelog4jversion.py {私钥文件路径/私钥文件名称} 图 运行脚本 密码方式鉴权的服务器。 python batchupdatelog4jversion.py 图 运行脚本 8.执行如下命令,在“/root/logs/execorigin.log”的最后一行查看运行结果日志。 vim /root/logs/execorigin.log 若如下图所示,则表示运行成功。 图 运行成功
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        密码和密钥对
        管理一键式重置密码插件
        通过脚本批量更新一键式重置密码插件(Linux)
      • 通过私有镜像创建物理机
        通过私有镜像创建物理机 操作场景 如果您要创建一台物理机,与现有的某台服务器拥有完全相同的操作系统和应用软件,那么您可以使用该服务器创建私有镜像,并根据这个私有镜像创建物理机。采用此方法可以节省您重复配置物理机的时间,提高交付效率。 前提条件 完成私有镜像制作。 完成账号注册、认证且账户金额充足。 操作步骤 1. 登录天翼云,进入控制中心。 2. 在“计算 > 物理机服务”选框单击“购买”,进入物理机购买页面。 3. 在基础配置页进行选配。“地域”建议按实际需求或就近选择靠近您业务的区域,可减少网络时延,提高访问速度。“可用区”建议根据实际部署高可用需求进行选择。 4. 您可以对“实例名称”及“主机名”进行修改,并且支持批量设置有序的实例名称或主机名称。具体规则请参照下表。 场景1:不使用模式串创建单台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为231字符 • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 • Windows 系统长度为 215个字符,其他操作系统(如Linux)长度为 263个字符 • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 场景2:使用模式串创建单台实例,或者批量创建多台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为227字符({R:数字}模式串不计入字符长度) • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 •Windows 系统长度为 211个字符,其他操作系统(如Linux)长度为 259个字符({R:数字}模式串不计入字符长度) • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 说明 1. 创建多台物理机时,默认将批量购买的实例设置为前缀相同,仅序号递增的名称,例如:我的物理机0001、我的物理机0002...... 2. 当您需要创建 n 个实例,并指定实例名称/主机名称带有序号且序号从 x 开始递增时,您可通过指定模式串命名实现。 5. 完成“规格”、 “本地磁盘”等配置项的选配。在“镜像类型”处选择“私有镜像”,下拉“镜像”选框找到目标镜像。 6. 单击“下一步:网络配置”进行网络配置,包括“虚拟私有云”、 “网卡”、“安全组”、“弹性IP”等信息。 参数 说明 虚拟私有云 物理机网络使用虚拟私有云(VPC)提供的网络,包括子网、安全组等。 您可以选择使用已有的虚拟私有云网络,或者单击“控制中心创建”创建新的虚拟私有云。 安全组 安全组用来实现安全组内和安全组间物理机的访问控制,加强物理机的安全保护。用户可以在安全组中定义各种访问规则,当弹性裸金属加入该安全组后,即受到这些访问规则的保护。当您需要修改安全组时,请前往管理安全组进行操作。标准裸金属不支持安全组,需要系统内配置iptable。 网卡 默认设置主网卡,用户可根据需求设置扩展网卡。 弹性IP 弹性IP将公网IP地址和物理机绑定,通过此绑定,虚拟私有云内的物理机可以使用固定的公网IP地址对外提供访问。 可以根据实际情况选择以下三种方式:不使用:物理机不能与互联网互通,仅可作为私有网络中部署业务或者集群所需物理机进行使用。 自动分配:自动为每台物理机分配独享带宽的弹性IP,可选带宽规格为1~300Mbps。使用已有:为物理机分配已有弹性IP,使用已有弹性IP时,不能批量创建物理机。 7. 完成后,单击“下一步:高级配置”。 8. 在此完成密码配置后,单击“下一步:确认配置”。 说明 密码长度限制8到30个字符 必须包含大小写字母,同时必须包含一个数字或者特殊字符(()~!@
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        创建物理机
        通过私有镜像创建物理机
      • 使用限制
        类型 限制项 默认配额 备注 数据查询 最大查询时间范围 11000 暂不支持调整 数据查询 单次接口查询超时时间 30秒 暂不支持调整 数据查询 单次查询最多扫描时间线数量 2万 可提交工单申请扩容,扩容不会对之前上报数据生效。 数据查询 单次查询扫描最大数据量 1000万 暂不支持调整 数据查询 单次查询返回的最大数据量 100万 暂不支持调整 数据查询 最大查询QPS 50QPS 暂不支持调整 数据采集和上报 每个数据点最大支持大小 32kB,超过会解析失败 暂不支持调整 数据采集和上报 每个用户最大时间线数量 实际上系统会在到达限额之前为您自动做相关的扩容,因此您无需关注该限制。 数据采集和上报 每次上报请求总数据量大小 不超过1MB(最多一次上报1024个指标,因此理论上不会超过) 不支持调整,超过1 MB数据会被全部丢弃。 数据采集和上报 单指标Label长度限制 Label Key或者Label Value字符串长度不超过256个字符。 不支持调整,超限会被调换为MAXTAGVALUELIMITED 数据采集和上报 单个指标的标签数限制 64个 超出可能会造成数据丢失 数据采集和上报 默认数据保存时长 Prometheus实例 for 云服务默认保存30天,其他类型实例默认保存15天。 您可在控制台自行调整数据存储时长。 数据采集和上报 Agent单副本默认配置(3核4 G)一次最多能采集的数据点数 350万 建议您扩容副本 数据采集和上报 Agent单副本默认配置(3核4 G)最大采集Target数 1000个 建议您扩容副本 数据采集和上报 1个Target 30秒内可以最大可采集的数据点数 60万 建议您扩容副本 数据采集和上报 Agent HPA最大副本数 20 若超限,您可在控制台手动增加副本数。 数据采集和上报 Agent 支持的ACK集群版本 待测 建议您升级Kubernetes版本 告警 告警规则查询返回结果数 500 其他 单集群Recording Rules数量上限 100 超限不限制使用,但是计算可能会有延迟 其他 共享版Grafana每个租户最多能创建的Folder数量 10
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        产品概述
        使用限制
      • 如意宝典产品使用手册
        如意宝典产品使用手册 一、产品概述 1. 产品介绍 如意宝典是一款基于检索增强生成(RAG)架构的新一代 AI 知识引擎软件,旨在帮助金融机构(银行 / 保险)、高端制造企业、法律机构、医药企业、教育平台等企业及开发者解决企业知识碎片化查询效率低、知识传承断层与培训成本高、一线岗位客户问题响应慢、非结构化文档解析能力弱且知识时效性差、敏感知识安全管控难等问题。 2. 产品核心能力 产品部署于天翼云弹性云主机集群,利用云平台的计算资源弹性扩展能力,保障高并发场景下的服务稳定性。用户可通过标准化接口实现知识库的一键式云端部署,免除传统系统复杂的部署流程和硬件维护成本。云端服务具备自动容灾和负载均衡能力,在保障高并发场景服务稳定性的同时,显著降低系统运维复杂度。 产品可满足多领域知识服务需求:在智能客服场景中,系统可快速定位历史工单关联信息生成解决方案;面向研发领域,能够精准关联技术文档与代码库提供开发建议;对于企业培训场景,可整合分散的培训资料生成结构化学习路径;在专业咨询领域,支持法律条文与判例库的交叉引用分析,或医疗知识库与诊疗指南的智能匹配,为专业决策提供知识支撑。 同应用分基础型、进阶型、企业版三个规格,不同规格在 CPU 算力、GPU 算力数量及配置上存在差异: 基础型:含 1 台通用型云主机(4 核 CPU、8G 内存、200G 磁盘)+1 台算力服务(32 核 CPU、128G 内存、48G 显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis 进阶型:含 1 台通用型云主机(4 核 CPU、8G 内存、200G 磁盘)+2 台算力服务(单台 32 核 CPU、128G 内存、48G显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis 企业型:含 1 台通用型云主机(8 核 CPU、16G 内存、500G 磁盘)+3 台算力服务(单台 32 核 CPU、128G 内存、48G 显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis
        来自:
        帮助文档
        轻量型云主机
        产品简介
        应用使用手册
        如意宝典产品使用手册
      • 配置Linux主机授权
        该任务指导用户通过漏洞扫描服务对已添加的Linux主机进行扫描授权。 前提条件 已获取管理控制台的登录账号与密码。 已添加Linux主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 批量选择需要配置的主机,单击“批量操作 > 编辑”,进入批量授权入口,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“编辑”。 5. 在主机授权页面,批量选择需要授权的主机,单击“批量配置授权信息”。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“配置授权信息”。 如果需要修改主机名称,单击编辑按钮,在弹出的对话框中,进行修改。 6. 选择SSH授权方式进行主机授权。 说明 如果需要修改已有SSH授权,单击“编辑”,进行修改。 如果需要删除已有SSH授权,单击“删除”,进行删除。 选择已有SSH授权,或者单击“创建SSH授权”创建SSH授权,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 SSH授权别称 自定义SSH授权名称。 登录端口 SSH授权登录的端口号。 请确保安全组已添加该端口,以便主机可通过该端口访问VSS。 选择登录方式 “密码登录” “密钥登录” 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 Root权限是否加固 打开该权限后,不可以用root账号直接登录,而只能通过普通用户登录,然后才能切换到root用户。 sudo用户名 默认为root。 sudo密码 设置sudo用户对应的密码,为了您的账号安全,您的密码会加密保存。 7. 单击“确认”,完成Linux主机授权。 8. 单击“确定”,Linux主机授权成功。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        配置主机授权
        配置Linux主机授权
      • 添加跳板机
        本节介绍如何通过漏洞扫描服务为Linux系统的主机配置跳板机。 操作场景 该任务指导用户通过漏洞扫描服务为Linux系统的主机配置跳板机。 说明 当前仅支持添加Linux系统跳板机。 前提条件 已获取管理控制台的登录账号和密码。 已添加Linux系统的主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 批量选择需要配置的主机,单击“批量操作 > 编辑”,进入批量授权入口,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“编辑”。 5. 在主机授权页面,批量选择需要添加跳板机的主机,单击“批量配置跳板机”。 说明 用户也可以单台主机添加跳板机,在目标主机所在行的“操作”列,单击“配置跳板机”。 如果需要修改主机名称,单击编辑按钮,在弹出的对话框中,进行修改。 6. 在“配置跳板机”对话框中,选择已有跳板机,或者单击“添加新的跳板机”,添加跳板机,如下图所示。 说明 如果需要修改已有跳板机,单击“编辑”,进行修改。 如果需要删除已有跳板机,单击“删除”,删除跳板机。 如果需要添加新的跳板机,请执行以下操作步骤。 1. 单击“新增跳板机”。 2. 在“添加跳板机”对话框中,设置配置参数,配置说明如下表所示。 参数名称 参数说明 主机名称 添加的跳板机的主机名称。 公网IP 添加的跳板机的公网IP。 登录端口 添加的跳板机的登录端口。 选择登录方式 “密码登录”和“密钥登录”。 选择密码登录时,需要添加跳板机的用户名和密码。 选择密钥登录时,需要添加跳板机的用户名、私钥和私钥密码。 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 3. 单击“确认”。 7. 单击“确定”,跳板机配置成功。 如果需要解除绑定主机的跳板机,在目标主机的“操作”列,单击“更多 > 解除跳板机”,解除跳板机。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        其他操作
        添加跳板机
      • 异常行为智能识别
        本文介绍如何使用异常行为智能识别。 功能介绍 基于智能算法和大数据行为分析,分析客户业务流量的特征,智能识别攻击和误拦截请求。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 开通套餐为旗舰版及以上版本。 设置异常行为智能识别模型 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【智能防护】菜单,选择【异常行为智能识别】模块。 3. 选择业务适合的【分析模型】,模型配置说明如下: 配置说明 配置项 说明 开关 分析模型开关。 开关开启,模型运行; 开关关闭,模型停止运行。 分析域名 选择需要分析的对象,选择已经完成接入服务的域名。 异常判断条件 不同分析模型的分析条件不同,您可以根据实际的业务场景选择适合的模型。 异常客户端IP识别多UA:适用于单客户端IP有多UA的攻击特征; 异常客户端IP识别扫描大量URL:适用于单客户端IP扫描大量URL的攻击特征; 异常客户端IP识别攻击集中少量URL:适用于单客户端IP集中攻击少量URL的攻击特征; 异常客户端IP识别反复触发策略:适用于单客户端IP反复触发访问控制/频率控制/CC防护策略的攻击特征; 异常客户端IP+UA识别反复攻击少量URL:适用于单客户端(IP+UA),反复攻击少量的URL的攻击特征; 异常UA识别识别单客户端IP变更UA扫描:适用于单客户端IP变更UA扫描的攻击特征。 分析频率 分析频率为分析任务执行频率;统计周期超过12小时,建议分析频率设置大于等于5分钟;统计周期达到24小时,建议分析频率设置大于等于10分钟。 URL是否统计问号后参数 统计URL的范围是否包含问号后参数。 注意 如果我们开放的分析模型不能满足您的需求,请通过
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        智能防护
        异常行为智能识别
      • 系统工单
        后续管理 运维用户提交工单后,相关管理员即可在“消息中心”收到提醒,查看详细工单内容。并可在工单审批页面收到工单,可对工单进行批准或驳回操作。 相关管理员审批工单通过后,运维用户权限立刻生效,即可在授权范围和时间段拥有命令操作权限。 相关管理员撤销工单权限后,运维用户权限立刻失效,操作命令会再次被拦截。 数据库授权工单 云堡垒机支持对数据库操作进行“动态授权”管理,加强对数据库关键操作的限制管理。 当运维用户登录数据库进行运维操作时,触发“动态授权”数据库控制策略的操作命令,系统会自动拦截操作命令,生成数据库授权工单。管理员将会收到工单审批申请。当管理员用户批准工单后,运维用户才有执行该数据库“动态授权”操作命令的权限。 本小节主要介绍如何管理数据库授权工单。 约束限制 仅专业版实例支持数据库运维操作审计。 仅针对MySQL和Oracle类型数据库,支持拦截敏感操作生成工单。 数据库授权工单由运维用户触发命令策略,自动创建,不能手动创建。 前提条件 已获取“数据库授权工单”模块管理权限。 已触发操作拦截,生成数据库授权工单。 操作步骤 1 登录云堡垒机系统。 2 选择“工单 > 数据库授权工单”,进入数据库授权工单页面。 数据库授权工单列表 3 提交工单。 单击指定工单“操作”列的“提交”,手动提交工单给管理员审批。 若工单被管理员驳回,可修改工单信息后再次提交工单。 4 撤回工单。 单击指定工单“操作”列的“撤回”,即可取消已提交的工单申请,工单状态变为“已撤回”。 5 修改工单信息。 单击“管理”,进入工单详情页面,即可查看工单基本信息。 单击工单详情页面编辑,即可修改工单授权运维时间。 “审批中”状态的工单仅能查看工单详情信息,不能修改工单内容。“已撤回”和“待提交”状态的工单才能被修改。 6 删除工单。 单击指定工单“操作”列的“删除”,可以删除该工单。 同时勾选多个工单,单击列表下方的“删除”,批量删除多个工单。 删除后工单信息不能找回,请谨慎操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统工单
      • 通过SD-WAN实现DeepSeek定向加速访问海外资源
        本教程将详细介绍如何借助天翼云 SDWAN 实现 DeepSeek 访问海外资源时,进行定向加速。 应用场景 企业在云上部署私有化DeepSeek平台,进行企业知识库、智能问答等大模型开发工作,在此过程中会使用到ollama、huggingface、github等境外开发工具或平台实现大模型高效迭代优化。 天翼云SDWAN通过优化对合规境外网站的访问过程,可以为客户提供更加流畅的海外资源访问体验。用户只需在云上DeepSeek主机业务环境中部署SDWAN软件CPE(vCPE),即实现可对定向海外资源的加速访问。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建了云主机用于部署DeepSeek服务,并通过网络配置将其加入到VPC子网中。 操作步骤 本教程的配置流程如下: 步骤一:部署 vCPE 1. 创建并配置云主机 :在天翼云控制台创建一台用于部署天翼云 SDWAN vCPE 的云主机,为其创建和绑定弹性公网 IP(EIP),并通过网络配置将其加入到创建的VPC子网中,请参考创建弹性云主机。 2. 创建vCPE资源,并部署到云主机中:您可通过以下两种方式开通 vCPE 资源。 天翼云官网自助开通:若选择通过天翼云官网自行下单,具体操作步骤如下: 1. 登录天翼云 SDWAN 控制台,在界面中选择“智能网关”选项,随后在“智能网关”页面点击“创建智能网关”按钮。 2. 按照页面给出的提示,选择“软件版”vCPE和接入带宽等关键业务配置。 3. 参数配置完毕后,点击“提交订单”。在确认订单信息准确无误后,勾选产品服务协议,接着点击“确认下单”。 4. 完成订单支付,支付成功即完成 vCPE 资源的购买。 客户经理协助开通:您也可以直接联系客户经理,由其协助完成 vCPE 资源的开通。 购买完成后,及时联系 SDWAN 客户经理进行交付。届时,天翼云 SDWAN 交付团队会协助您将创建好的 vCPE 实例资源部署到云主机上,并接入天翼云 SDWAN 网络。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        通过SD-WAN实现DeepSeek定向加速访问海外资源
      • 路由设置
        本文向您介绍企业版VPN中路由设置的常见问题。 如何理解VPN连接中的对端网关和对端子网? 对端网关和对端子网是两个相对的概念,在建立VPN连接时,从云的角度出发,VPC网络就是本地子网,创建的VPN网关就是本地网关,与之对接的用户侧网络就是对端子网,用户侧的网关就是对端网关。 对端网关IP就是用户侧网关的公网IP,对端子网指需要和VPC子网互联的子网。 Console界面在哪添加VPN远端路由? 云端在VPN连接创建时会自动下发到达远端子网的路由,无需手动配置。 ECS主机多网卡是否需要添加去往线下网络的路由? 如果客户使用主网卡与线下网络建立了VPN,不需要添加路由。 如果客户使用非主网卡与线下网络建立了VPN,需要添加去往线下网段的路由指向非主网卡的网关。 什么是NQA 什么是NQA 网络质量分析(Network Quality Analysis,NQA)是一种实时的网络性能探测和统计技术,可以对响应时间、网络抖动、丢包率等网络指标进行统计。NQA能够实时监视网络服务质量,在网络发生故障时进行有效的故障诊断和定位。 为什么需要NQA 随着运营商增值业务的开展,用户和运营商对QoS(Quality of Service)的相关要求越来越高,特别是在传统的IP网络承载语音和视频业务后,运营商与客户之间签订SLA(Service Level Agreement)成为普遍现象。 为了让用户看到承诺的带宽是否达到需求,运营商需要提供相关的时延、抖动、丢包率等相关的统计参数,以及时了解网络的性能状况。传统的网络性能分析方法(如Ping、Tracert等)已经不能满足用户对业务多样性和监测实时性的要求。NQA可以实现对网络运行状况的准确测试,输出统计信息。NQA可以监测网络上运行的多种协议的性能,使网络运营商能够实时采集到各种网络运行指标,例如:HTTP的总时延、TCP连接时延、DNS解析时延、文件传输速率、FTP连接时延、DNS解析错误率等。通过对这些指标进行控制,网络运营商可以为用户提供不同等级的网络服务。同时,NQA也是网络故障诊断和定位的有效工具。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        路由设置
      • 1
      • ...
      • 205
      • 206
      • 207
      • 208
      • 209
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      iOS客户端需求

      文档下载

      创建

      复制

      概念

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号