活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云堤·抗D_相关内容
      • 对象相关接口
        功能说明 您可以使用 putObject 接口上传对象。如果对同一个对象同时发起多个上传请求,最后一次完成的请求将覆盖之前所有请求的上传的对象。可以通过设置请求头部中的ContentMD5字段来保证数据被完整上传,如果上传的数据不能通过MD5校验,该操作将返回一个错误提示。用户可以通过比较上传对象后获得的ETag 与原文件的MD5值是否相等来确认上传操作是否成功。 上传对象操作在上传对象时可以在请求里携带HTTP协议规定的6个请求头:CacheControl、Expires、ContentEncoding、ContentDisposition、ContentType、ContentLanguage。如果上传对象的请求设置了这些请求头,服务端会直接将这些头域的值保存下来。这6个值也可以通过修改对象元数据操作进行修改。在该对象被下载或者执行HeadObject操作的时候,这些保存的值将会被设置到对应的HTTP头域中返回客户端。 PutObject操作可以上传最大不超过5GB的文件,超过5GB的文件可以通过分片上传操作上传到对象存储(融合版)服务,对象key的命名使用UTF8编码,长度必须在1~1023字节之间,不能以[/][]字符开头。 代码示例 文件上传 java public void putObject1() throws AmazonClientException { String bucket " "; String key " "; String localPath " "; PutObjectResult ret s3Client.putObject(bucket, key, new File(localPath)); System.out.println("putObject: " + ret.getETag()); } 流式上传 java public void putObject2() throws AmazonClientException { System.out.println("putObject"); String bucket " "; String key " "; String content "1234"; byte[] contentBytes content.getBytes(); InputStream is new ByteArrayInputStream(contentBytes); ObjectMetadata meta new ObjectMetadata(); ); ; ; PutObjectRequest req new PutObjectRequest(bucket, key, is, meta); // 设置acl req.setCannedAcl(CannedAccessControlList.PublicRead); // 设置存储类型 ; // rate 上传限速,单位KB //req.putCustomRequestHeader("xamzlimit", String.format("rate%d", 10)); PutObjectResult ret s3Client.putObject(req); System.out.println("putObject: " + ret.getETag()); } ​ public String md5Base64(String data) { try { MessageDigest md MessageDigest.getInstance("md5"); byte[] md5 md.digest(data.getBytes()); BASE64Encoder be new BASE64Encoder(); return be.encode(md5); } catch (NoSuchAlgorithmException e) {} return ""; }
        来自:
        帮助文档
        媒体存储
        SDK参考
        Java SDK
        对象相关接口
      • Flink Jar作业相关问题
        Flink Jar作业是否支持上传配置文件,要如何操作? 自定义(JAR)作业支持上传配置文件。 1.将配置文件通过程序包管理上传到DLI; 2.在Flink jar作业的其他依赖文件参数中,选择创建的DLI程序包; 3.在代码中通过ClassName.class.getClassLoader().getResource("userData/fileName")加载该文件(其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名)。 Flink Jar 包冲突,导致提交失败 问题描述 用户Flink程序的依赖包与DLI Flink平台的内置依赖包冲突,导致提交失败。 解决方案 查看是否已包含DLI Flink运行平台中已经存在的包,如果存在,则需要将自己的Jar包删除。 Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 问题描述 提交Flink Jar作业访问DWS数据仓库服务时,提示启动失败,作业日志报如下错误信息。 FATAL: Already too many clients, active/nonactive/reserved: 5/508/3 原因分析 当前访问的DWS数据库连接已经超过了最大连接数。错误信息中,nonactive的个数表示空闲连接数,例如,nonactive为508,说明当前有大量的空闲连接。 解决方案 出现该问题时建议通过以下操作步骤解决。 1.登录DWS命令执行窗口,执行以下SQL命令,临时将所有nonactive的连接释放掉。 SELECT PGTERMINATEBACKEND(pid) from pgstatactivity WHERE state'idle'; 2.检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。 3.在GaussDB(DWS) 控制台设置会话闲置超时时长sessiontimeout,在闲置会话超过所设定的时间后服务端将主动关闭连接。 sessiontimeout默认值为600秒,设置为0表示关闭超时限制,一般不建议设置为0。 sessiontimeout设置方法如下: a.登录GaussDB(DWS) 管理控制台。 b.在左侧导航栏中,单击“集群管理”。 c.在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。 d.单击“参数修改”页签,修改参数“sessiontimeout”,然后单击“保存”。 e.在“修改预览”窗口,确认修改无误后,单击“保存”。 Flink Jar作业运行报错,报错信息为Authentication failed
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink Jar作业相关问题
      • 手动搭建LNMP环境
        禁止root远程登录,输入Y Success. By default, MySQL comes with a database named 'test' that anyone can access. This is also intended only for testing, and should be removed before moving into a production environment. Remove test database and access to it? (Press yY for Yes, any other key for No) : Y 是否删除test库和对它的访问权限,输入Y Dropping test database... Success. Removing privileges on test database... Success. Reloading the privilege tables will ensure that all changes made so far will take effect immediately. Reload privilege tables now? (Press yY for Yes, any other key for No) : Y 是否重新加载授权表,输入Y Success. All done! 安装PHP 1. 依次执行以下命令,安装PHP 7和一些所需的PHP扩展。 plaintext rpm Uvh Uvh yum/el7/webtaticrelease.rpm yum y install php70wtidy php70wcommon php70wdevel php70wpdo php70wmysql php70wgd php70wldap php70wmbstring php70wmcrypt php70wfpm 2. 执行以下命令,验证PHP的安装版本。 plaintext php v 回显如下类似信息: plaintext PHP 7.0.31 (cli) (built: Jul 20 2018 08:55:22) ( NTS ) Copyright (c) 19972017 The PHP Group Zend Engine v3.0.0, Copyright (c) 19982017 Zend Technologies 3. 执行以下命令,启动PHP服务并设置开机自启动。 plaintext systemctl start phpfpm systemctl enable phpfpm 4. 修改nginx配置文件以支持PHP。 执行以下命令打开配置文件“default.conf”。 plaintext vim /etc/nginx/conf.d/default.conf 按i键进入编辑模式。 修改打开的“default.conf”文件。 在所支持的主页面格式中添加php格式的主页,如下所示: plaintext location / { root /usr/share/nginx/html; index index.php index.html index.htm; } 取消如下内容的注释,并设置字体加粗部分为nginx的默认路径,如下所示: plaintext location ~ .php$ { root html; fastcgipass 127.0.0.1:9000; fastcgiindex index.php; fastcgiparam SCRIPTFILENAME /usr/share/nginx/html$fastcgiscriptname; include fastcgiparams; } 按Esc键退出编辑模式,并输入 :wq保存后退出。 执行以下命令,重新载入nginx的配置文件。 plaintext service nginx reload
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        手动搭建LNMP环境
      • 全局配置
        配置创建命令 执行下面命令可以自动创建config.yaml 文件 plaintext ./ctlts configure ak sk endpoint regionid regionname ​ CLI工具内默认配置regionid为huadong1,如果在华东1地区,可简化为如下: ./ctlts configure ak sk 使用完配置创建命令后,会在配置文件路径下,生成config.yaml 文件,里面包含配置信息。regionname 参数可自定义,比如huadong1,后续使用OpenApi命令时,只需要指定配置文件的regionname即可,例如: plaintext ./ctlts project confighuadong1 或者 ./ctlts project chuadong1 CLI命令规范 命令格式:./ctlts [options] 执行: ./ctlts plaintext Usage: ctlts [command] ​ Available Commands: configure Configure Log credentials(ak,sk,endpoint,regionid) save to config.yaml dataDownload Ctyun Log Service Data Download openApi help Help about any command instance Ctyun Log Instance openApi log Ctyun Log Service OpenApi logUnit Ctyun Log LogUnit openApi project Ctyun Log projects openApi 查看日志项目project 相关OpenApi列表: ./ctlts project plaintext Usage: ctlts project [command] ​ Available Commands: checkProjectExist Check log project exist by project name and project code countProject Count the number of log projects createProject Create a new log project deleteProject Delete log project getCodeByName Get project code by project name getProject Get log project details by project code getProjectByCode Get log project information by project code getProjectDescription Get a log project's description by project code listProject List log project all or by project name pageProject Search log project by page queryProjectAliasName Query project alias names by original project names queryProjectNameByCode Query original project names by project codes renameProject Rename a log project by project code updateProject Update log project description updateProjectDescription Update a log project's description by project code ​ Flags: a, ak string accessid c, config string use config.yaml ,such as: confighuadong1 e, endpoint string endpoint h, help help for project i, regionid string regionid s, sk string accesskey 查看createProject OpenApi:./ctlts project createProject plaintext Usage: ctlts project createProject [flags] ​ Examples: ctlts log createProject projectname [description ] [ak sk endpoint regionid or config ] ​ Flags: d, description string log project description h, help help for createProject n, projectname string name of the project to create ​ Global Flags: a, ak string accessid c, config string use config.yaml ,such as: confighuadong1 e, endpoint string endpoint i, regionid string regionid s, sk string accesskey 执行createProject OpenApi: plaintext ./ctlts project createProject projectname"test" chuadong1 ​ 或者 ​ ./ctlts project createProject n"test" chuadong1
        来自:
        帮助文档
        云日志服务
        API参考
        日志服务CLI
        全局配置
      • 获取客户端真实IP
        Apache如何在访问日志中获取客户端真实IP 如果源站部署的Apache服务器为2.4及以上版本,您可以使用Apache安装包中自带“remoteipmodule”模块文件“modremoteip.so”,获取客户端IP地址。 CentOS 7.6 1. 编辑“httpd.conf”配置文件,在文件中添加以下内容: plaintext LoadModule remoteipmodule modules/modremoteip.so 加载modremoteip.so模块 RemoteIPHeader XForwardedFor 设置RemoteIPHeader头部 RemoteIPInternalProxy WAF的回源IP段 设置WAF回源IP段 说明 “modremoteip.so”模块已默认加载在以下文件:“/etc/httpd/conf.modules.d/00base.conf:46” 多个回源IP段请使用空格分隔。 2. 修改配置文件日志格式,即将日志格式文件中的“%h”修改为“%a”。 plaintext LogFormat "%a %l %u %t "%r" %>s %b "%{Referer}i" "%{UserAgent}i"" combined LogFormat "%a %l %u %t "%r" %>s %b" common 3. 重启Apache服务,使配置生效。 Ubuntu 20.04.2 1. 编辑“apache2.conf”配置文件,在文件中添加以下内容: plaintext ln s ../modsavailable/remoteip.load /etc/apache2/modsenabled/remoteip.load 加载modremoteip.so模块 RemoteIPHeader XForwardedFor 设置RemoteIPHeader头部 RemoteIPInternalProxy WAF的回源IP段 设置WAF回源IP段 说明 您也可以添加以下内容加载modremoteip.so模块: LoadModule remoteipmodule /usr/lib/apache2/modules/modremoteip.so 多个回源IP段请使用空格分隔。 2. 修改配置文件日志格式,即将日志格式文件中的“%h”修改为“%a”。 plaintext LogFormat "%a %l %u %t "%r" %>s %b "%{Referer}i" "%{UserAgent}i"" combined LogFormat "%a %l %u %t "%r" %>s %b" common 3. 重启Apache服务,使配置生效。 如果源站部署的Apache服务器为2.2及以下版本,您可通过运行命令安装Apache的第三方模块modrpaf,并修改“http.conf”文件获取客户IP地址。 1. 执行以下命令安装Apache的一个第三方模块modrpaf。 plaintext wget tar xvfz modrpaf0.6.tar.gz cd modrpaf0.6 /usr/local/apache/bin/apxs i c n modrpaf2.0.so modrpaf2.0.c 2. 打开“httpd.conf”配置文件,并将文件内容修改为如下内容: plaintext LoadModule rpafmodule modules/modrpaf2.0.so
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        获取客户端真实IP
      • 数据架构示例
        维度建模:在DWR层新建并发布维度 在维度建模中,在DWR数据报告层中新建3个码表维度(供应商、费率代码和付款方式)和1个层级维度(日期维度)。 1. 在数据架构控制台,单击左侧导航树中的“维度建模”,进入维度建模页面。 2. 新建如表所示的3个码表维度。 所属主题 维度名称 维度英文名称 维度类型 资产责任人 描述 数据连接类型 数据连接 数据库 选择码表 供应商 供应商 dimvendor 码表维度 无 MRSHIVE mrshivelink demodwrdb 供应商 公共维度 费率代码 dimratecode 码表维度 无 MRSHIVE mrshivelink demodwrdb 费率 公共维度 付款方式 dimpaymenttype 码表维度 无 MRSHIVE mrshivelink demodwrdb 付款方式 a.在“维度建模”页面进入“维度”标签页,在主题树中选中“城市交通 > 集团 > 供应商”,然后单击“新建”新建供应商维度。 b.在新建维度页面,如下图所示配置参数,然后单击“保存”完成维度的新建。 c.在“维度建模”页面进入“维度”标签页,在主题树中选中“城市交通 > 公共维度 > 公共维度”,然后单击“新建”新建费率代码维度。在新建维度页面,配置如下,配置完成后单击“保存”。 d.在“维度建模”页面进入“维度”标签页,在主题树中选中“城市交通 > 公共维度 > 公共维度”,然后单击“新建”新建付款方式维度。在新建维度页面,维度配置如下,配置完成后单击“保存”。 3. 新建一个层级维度“日期维度”。 a.在“维度建模”页面进入“维度”标签页,在主题树中选中“城市交通 > 时空 > 时间”,然后单击“新建”新建日期维度。 b.基本配置和物化配置如下: 下表为日期维度 所属主题 维度名称 维度英文名称 维度类型 资产责任人 描述 数据连接类型 数据连接 数据库 时间 日期维度 dimdate 层级维度 无 MRSHIVE mrshivelink demodwrdb c.属性配置如下: 序号 属性名称 属性英文名称 数据标准 数据类型 代理键 主键 分区 不为空 1 日期维度 dimdatekey TIMESTAMP 选中 选中 不勾选 勾选 2 时间 realtime TIMESTAMP 不选 不选 不勾选 不勾选 3 分id minuteid BIGINT 不选 不选 不勾选 不勾选 4 分 minute BIGINT 不选 不选 不勾选 不勾选 5 时id hourid BIGINT 不选 不选 不勾选 不勾选 6 时 hour BIGINT 不选 不选 不勾选 不勾选 7 日id dayid BIGINT 不选 不选 不勾选 不勾选 8 日 day STRING 不选 不选 不勾选 不勾选 9 月id monthid BIGINT 不选 不选 不勾选 不勾选 10 月 month STRING 不选 不选 不勾选 不勾选 11 年id yearid BIGINT 不选 不选 不勾选 不勾选 12 年 year BIGINT 不选 不选 不勾选 不勾选 d.在层级配置区域,单击“新建”,新建如下2个层级: e.新建维度页面配置完成后,单击“保存”。 4. 返回维度页面后,在维度列表中,勾选刚才新建的4个维度,再单击“发布”。 5. 在“批量发布”对话框中,选择审核人,单击“确认提交”,等待审核人员审核通过后,维度发布成功。如果当前帐号具备审核人权限,也可以勾选“自助审批”,直接提交即可以审核通过。 6. 完成所有维度的新建和发布,待审核通过后,系统会自动创建与维度相对应的维度表,维度表的名称和编码均与维度相同。在“维度建模”页面,选择“维度表”页签,可以查看建好的维度表。 在维度表列表中,在“同步状态”一列中可以查看维度表的同步状态。 如果同步状态均显示成功,则说明维度发布成功,维度表在数据库中创建成功。 如果同步状态中存在失败,可单击该维度表所在行的“发布历史”,然后在展开的页面中进入“发布日志”页签查看日志。请根据错误日志定位失败原因,问题解决后,您可以勾选该维度表,再单击列表上方的“同步”按钮尝试重新同步。如果问题仍未能解决,请联系技术支持人员协助处理。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 数据库的使用
        本页将介绍数据库的基本使用问题以及解决方法。 MySQL 8.0是否支持全文索引 MySQL 8.0版支持全文检索,全文索引主要用于对文本类型的数据进行搜索,其关键字为FULLTEXT。以下是使用全文索引的一个示例: 1.创建表 CREATE TABLE test ( id bigint unsigned AUTOINCREMENT PRIMARY KEY, name varchar(255) NOT NULL, info varchar(255) NOT NULL, FULLTEXT (name) ) ENGINEInnoDB CHARSETutf8mb4; 2.在现有表上添加全文索引 ALTER TABLE test ADD FULLTEXT (info); 3.查看索引 SHOW INDEX FROM TEST; 4.使用索引 SELECT id,name,info FROM test WHERE MATCH(info) AGAINST('keyword'); 如何通过数据管理服务(DAS)执行SQL语句 数据管理服务(Data Admin Service,简称DAS),是一种基于管理控制台提供数据管理、结构管理、会话以及用户管理的服务,方便用户高效管理和安全使用数据。通过DAS执行SQL语句可以参考查询指引。 mysqlbinlog工具使用方法介绍 mysqlbinlog是MySQL的一个命令行工具,用于解析和显示二进制日志文件(binary log)。它提供了查看和分析二进制日志的功能,可用于恢复数据、数据复制、故障排除等场景。以下是mysqlbinlog工具的使用方法介绍: 基本语法: mysqlbinlog [options] [logfile [base64]roweventslogfile startpositionN [stoppositionN]] [options] 常用选项: u, userusername: 连接MySQL服务器的用户名。 p, password[password]: 连接MySQL服务器的密码。 h, hosthostname: 连接MySQL服务器的主机名。 P, portportnum: 连接MySQL服务器的端口号。 d, databasedatabasename: 指定要解析的特定数据库。 t, startdatetimedatetime: 指定要解析的起始日期时间。 R, rowevents: 显示基于行的事件。 v, verbose: 输出详细的解析信息。 使用示例: 1. 显示二进制日志文件的内容。 mysqlbinlog binlog.000001 2. 解析特定数据库的二进制日志文件。 mysqlbinlog databasemydb binlog.000001 3. 解析特定时间范围内的二进制日志文件。 mysqlbinlog startdatetime"20230601 00:00:00" stopdatetime"20230602 00:00:00" binlog.000001 4. 解析特定位置范围内的二进制日志文件。 mysqlbinlog startposition123456 stopposition123789 binlog.000001 5. 显示基于行的事件(适用于ROW格式的二进制日志)。 mysqlbinlog rowevents binlog.000001
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        其他类
        数据库的使用
      • 使用对象存储迁移服务将第三方云厂商数据迁移至对象存储ZOS
        前提条件 您已经在天翼云对象存储ZOS开通Bucket。 您的源端存在待迁移的数据,具备源端友商账户及其账号的访问密钥AK/SK。 请确保您的业务处于空闲阶段或非高峰期,避免迁移执行时影响您的业务。 操作步骤 对象存储迁移服务目前提供“迁移评估 ”和“迁移任务”两个控制界面,分别对应对象存储迁移场景中的评估需求和迁移需求。本实践将按照,先进行迁移前的评估,再进行数据迁移的流程为您介绍整个迁移的实践。 第1步:迁移前的源端数据评估 注意 若您已经了解待迁移源端数据的情况,无需进行迁移前的评估,您可以直接跳过本步骤,从“第2步:迁移任务的创建和执行”开始阅读。 1.进入迁移评估控制界面 登录控制中心,点击控制中心左上角的图标,选择地域(目前仅支持华东1),单击“存储>对象存储迁移服务>迁移评估”进入迁移评估的控制界面,对迁移前的评估任务的创建和管理都可以在这里进行操作。 2.创建评估任务 a.在迁移评估的控制界面,点击“创建评估任务”来创建一个评估任务。 b.按照我们预估要进行迁移的源端情况,在创建评估任务页面,填写任务的相关参数。具体参数可见下表: 参数 说明 :: 任务信息 任务名称 输入自定义的任务名称。 说明 命名规则:必须为大小写字母、数字、横线或下划线,长度在432个字符之间;自定义的任务名称不能与您已存在的任务名称重复。 选择源端 源端 选择源端数据的服务提供方。 说明 目前支持的源端: 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 选择源端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 说明 若源端为阿里云OSS,您可在OSS的bucket“概览访问端口外网访问 ”找到 Endpoint(地域节点)信息。 若源端为华为云OBS,您可在OBS的bucket“概览域名信息 ”中找到对应的 Endpoint(终端节点)信息。 若源端为腾讯云COS,您可在COS的bucket“概览基本信息所属地域 ”中找到 所属地域信息,例如:apbeijing、apshanghai。 若源端为天翼云OOS,您可在OOS的bucket“属性区域属性Endpoint ”中找到 Endpoint信息。 若源端为天翼云ZOS,您可在对象存储ZOS的bucket“概览域名信息 ”中找到 终端节点(Endpoint)信息。 注意 腾讯云COS的Endpoint较为特殊,仅需填写region即可,例如:apbeijing、apshanghai。 选择源端 Access Key 输入您源端的Access Key。 选择源端 Secret Key 输入您源端的Secret Key。 选择源端 存储桶 输入您源端的对象存储桶名称。 选择源端 迁移方式 选择源端数据的迁移方式,支持:指定存储桶、指定文件夹、指定前缀。 说明 指定存储桶 :选择“指定存储桶”时,将会迁移存储桶内的全部对象。 指定文件夹 :选择“指定文件夹”时,将会迁移选中文件夹下的所有对象。仅支持单个文件夹。 指定前缀 :选择“指定前缀”时,将会迁移桶中所有以该前缀开头的对象。仅支持单个前缀。 我们这里的示例,选择了某云厂商的对象存储桶bucketzmig1,预估对该桶内的前缀为100KB/的对象进行迁移,填写的参数如下图: c.填写完参数后,我们点击“下一步:确认任务 ”。在页面中再次核实一遍填写的参数是否有误,若参数无误了,我们点击“创建任务”按钮,在弹窗中二次确认后,即可完成评估任务的创建。 注意 若参数最终无法连通至您的源端对象存储服务,或参数中存在其他错误,例如AK信息错误,将会弹出报错信息,创建任务会失败。您可以按照报错信息自行检查填报的参数,修改参数后再次尝试创建任务。 d.创建成功后,会自动跳转回“存储>对象存储迁移服务>迁移评估 ”的控制界面,已创建的评估任务会在“评估任务列表”中展示出来,等任务执行完成,将会展示源端数据的评估结果,为您是否执行迁移提供参考。 e.我们创建的评估任务执行完成后,在“评估结果”字段下,可看到该任务在源端预计迁移前缀为100KB/的对象共12000个。该数据为我们是否进行迁移提供一个参考。如下图所示: f.除了评估结果,我们还可以看到评估源端数据的分布情况,点击评估任务的名称,可以在“任务详情 ”弹窗中,“对象大小分布”字段下,看到不同大小对象的分布数量。我们这里的评估任务,都是100KB大小的对象,所以对象分布全部是0100KB这个范围,如下图所示:
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        使用对象存储迁移服务将第三方云厂商数据迁移至对象存储ZOS
      • prometheus
        插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: a. 时间序列数据通过metric名和键值对来区分。 b. 所有的metrics都可以设置任意的多维标签。 c. 数据模型更随意,不需要刻意设置为以点分隔的字符串。 d. 可以对数据模型进行聚合,切割和切片操作。 e. 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占 3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。 约束与限制 1.11及以上版本的CCE集群支持此插件功能。 安装插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件市场”页签下,单击Prometheus下的“安装插件”按钮。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 在“规格配置”步骤中,配置以下参数: 表Prometheus配置参数说明 参数 参数说明 插件规格 根据业务需求,选择插件的规格,包含如下选项: 演示规格(100容器以内):适用于体验和功能演示环境,该规模下prometheus占用资源较少,但处理能力有限。建议在集群内容器数目不超过100时使用。 小规格(2000容器以内):建议在集群中的容器数目不超过2000时使用。 中规格(5000容器以内):建议在集群中的容器数目不超过5000时使用。 大规格(超过5000容器):建议集群中容器数目超过5000时使用此规格。 实例数 选择上方插件规格后,显示插件中的实例数,此处仅作显示。 容器 选择插件规格后,显示插件容器的CPU和内存配额,此处仅作显示。 监控数据保留期 自定义监控数据需要保留的天数,默认为15天。 存储 按照界面提示配置如下参数: 类型:支持云硬盘。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 子类型:支持普通IO、高IO和超高IO三种类型。 容量:请根据业务需要输入存储容量,默认10G。 说明: 若命名空间monitoring下已存在pvc,将使用此存储作为存储源。 步骤 4 单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 步骤 5 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”中,单击“Prometheus”进入详情页,可以查看插件实例的详细情况。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击“Prometheus”下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级“Prometheus”插件时,会替换原先节点上的旧版本的“Prometheus”插件,安装最新版本的“Prometheus”插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 参考安装插件中参数说明配置参数后,单击“升级”即可升级“Prometheus”插件。 卸载插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击Prometheus下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。 参考资源 Prometheus概念及详细配置请参阅Prometheus 官方文档 Node exporter安装请参考nodeexporter github 仓库
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        prometheus
      • ping不通或丢包时如何进行链路测试
        WinMTR和MTR的报告分析处理 以下图为例,对MTR报告进行分析。 1. 客户端本地网络:即图中A区域,代表本地局域网和本地网络提供商网络。 1. 如果客户端本地网络中的节点出现异常,则需要对本地网络进行相应的排查分析。 2. 如果本地网络提供商网络出现异常,则需要向当地运营商反馈问题。 2. 运营商骨干网络:即图中B区域,如果该区域出现异常,可以根据异常节点的IP查询其所属的运营商,向对应运营商进行反馈。 3. 目标服务器本地网络:即图中C区域,即目标服务器所属提供商的网络。 1. 如果丢包发生在目标服务器,则可能是目标服务器的网络配置原因,请检查目的服务器的防火墙配置。 2. 如果丢包发生在接近目标服务器的几跳,则可能是目标服务器所属提供商的网络问题。 4. 链路负载均衡:即图中的D区域,如果中间链路某些部分启用了链路负载均衡,则mtr命令只会对首尾节点进行编号和探测统计,中间节点只会显示相应的IP或域名信息。 常见的链路异常案例 1. 目标主机配置不当。 如下示例所示,数据包在第5条的目标地址出现了80%的丢包,问题可能是目标服务器网络配置原因,需检查目标服务器的访问配置。 2. ICMP限速。 如下图所示,在第6、7跳出现丢包,但后续节点均未见异常。推断是该节点ICMP限速所致。该场景对最终客户端到目标服务器的数据传输不会有影响,分析时可以忽略此种场景。 3. 环路。 如下图所示,数据包在第5跳之后出现了循环跳转,导致最终无法到达目标服务器。出现此场景是由于运营商相关节点路由配置异常所致,需联系相应节点归属运营商处理。 4. 链路中断。 如下图所示,数据包在第4跳之后就无法收到任何反馈。这通常是由于相应节点中断所致。建议结合反向链路测试做进一步确认。该场景需要联系相应节点归属运营商处理。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        高频故障案例
        ping不通或丢包时如何进行链路测试
      • 审计
        本页介绍天翼云TeleDB数据库中审计。 数据库安全审计是企业级数据库必须提供的一个基础能力,有助于事后对访问合规性进行追溯。结合业界通用的做法,TeleDB从多个维度来提供全方位的审计能力,同时TeleDB审计通过旁路检测方式,对数据库运行效率的影响极小。 TeleDB审计主要包括粗粒度审计(audit)和细粒度审计(fga)。 粗粒度审计日志主要存储在cn的audit.log:主要针对语句级别、用户级别、对象级别,对象操作级别,主要在sql语法解析层面进行捕捉。 细粒度粒度审计日志存储在dn的audit.fga:主要是针对某个表的列属性、列的值进行审计,在sql执行器进行捕捉。 说明 两套审计规则都依赖auditadmin的审计管理员用户。 审计管理员auditadmin、安全管理员mlsadmin、数据库管理员三权分立,审计用户命名必须以audit开头。 audit和fga使用兼容:相互独立,可只用audit;可只用fga;可用audit和fga。 粗粒度audit操作步骤: 以auditadmin用户进行连接,执行审计规则audit all,会将后续的语句审计记录在$DATADIR/pglog/audit/audit.log $ ./psql h 127.0.0.1 p11111 d postgres W U auditadmin Password for user auditadmin: psql (PostgreSQL 10.0 TeleDBX V6) Type "help" for help. postgres> audit all; WARNING: AuditDefine Rcv: audit all; WARNING: AuditDefine Snd: AUDIT ALL ;AUDIT 细粒度fga操作步骤: 在每1个cn和dn都会开启1个audit logger process和1个后台进程bgworker:audit fga worker tangyujie是初始化的超级用户 $ ./psql h 127.0.0.1 p11111 d postgres W U tangyujie 步骤1: 创建插件&查看参数 create extension pgfga;show enablefga; 1.创建用户和数据库CREATE USER auditfgauser WITH SUPERUSER CREATEDB LOGIN ENCRYPTED PASSWORD 'auditfgauser';CREATE DATABASE auditfgadatabase; 2切换到auditfgadatabase数据库 c auditfgadatabase auditfgauser;create extension pgfga; 3.切换到auditfgauser用户,建表插入数据 c auditfgadatabase auditfgausercreate table foo(idx bigint, str text);insert into foo values(1, 'a'); 3.3 验证insert into foo values(2, 'b');insert into foo values(3, 'c');insert into foo values(4, 'd');select from foo; 步骤2: 制定审计规则 4.切换到 auditadmin审计管理员用户 c auditfgadatabase auditadmin 4.1 增加审计规则addpolicy(指定模式、表名、规则名, 列名、审计条件,模式,存储过程、是否开启审计,语句类型)addpolicy(objectschema,objectname,policyname,auditcolumns,auditcondition,handlerschema,handlermodule,auditenable,statementtypes,auditcolumnopts),其中auditenable必须为true才能生效,默认为true。select addpolicy(objectschema:'public', objectname:'foo',auditcolumns:'idx',policyname:'poli', auditcondition:'idx > 1');select addpolicy('public', 'foo', 'poli1','idx','idx >1','public','helloworld','true','select'); 4.2 查询pgfga插件的视图 select from pgauditfgaconf;select from pgauditfgaconfdetail ;select from pgauditfgapolicycolumnsdetail; 步骤3: 生效审计规则 4.3开启审计规则 enablepolicy(指定模式、表名、规则名),使得auditenable为trueselect enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli');select enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 其他函数 4.4 删除审计规则droppolicy(指定模式、表名、规则名)。 select droppolicy(objectschema:'public', objectname:'bar',policyname:'poli'); 4.5 禁用审计规则 disablepolicy(指定模式、表名、规则名),使得auditenable为false select disablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 审计日志管理 1. 设置设计规则 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计设置 ,出现审计设置弹框。 ② 在审计设置 弹框中,选择 是否开启审计 、 审计粒度 ,单击确定完成审计设置。 当审计粒度为 全局级 ,您可对需要进行审计和告警的动作进行选择。 当审计粒度为 对象级 ,您需设置对象审计规则同时使用。 2. 审计规则管理 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计规则管理 ,进入审计规则管理页面。 ② 新增审计规则 1. 在审计规则管理 页面,单击 新增审计规则 ,出现新增审计规则弹框。 2. 在新增审计规则 弹框中,输入 规则名称 、选择 审计对象名称 、勾选 审计操作类型 、输入审计对象和选择 是否开启 , 是否触发告警 ,单击确定完成新增审计规则。 ③ 编辑审计规则 单击已创建审计规则所在行的 编辑 ,可修改审计规则。 ④ 删除审计规则 单击已创建审计规则所在行的 删除 ,可删除审计规则。 3. 查看审计日志 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框 选择查询条件 ,单击 查询 。 查询条件可选择 节点名称 、 审计类型 、 SQL语句 、数据库名称 和 用户名 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        审计
      • 配置PCI DSS/3DS合规与TLS
        系统影响 PCI DSS 开启PCI DSS合规认证后,不能修改TLS最低版本和加密套件,且最低TLS版本将设置为“TLS v1.2”,加密套件设置为EECDH+AESGCM:EDH+AESGCM。 开启PCI DSS合规认证后,如果您需要修改TLS最低版本和加密套件,请关闭该认证。 PCI 3DS 开启PCI 3DS合规认证后,不能修改TLS最低版本,且最低TLS版本将设置为“TLS v1.2”。 开启PCI 3DS合规认证后,您将不能关闭该认证,请根据业务实际需求进行操作。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台右上角的,选择区域。 3. 单击页面左上方的,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“网站设置”,进入“网站设置”页面。 5. 在目标网站所在行的“域名”列中,单击目标网站,进入网站基本信息页面。 6. 在“合规认证”行,可以勾选“PCI DSS”或“PCI 3DS”开启合规认证,也可以在“TLS配置”所在行,单击编辑按钮修改TLS配置。 勾选“PCI DSS”,系统弹出“警告”对话框,单击“确定”,开启该合规认证。 说明 选择开启PCI DSS合规认证后,您将不能修改TLS最低版本和加密套件。 勾选“PCI 3DS”,系统弹出“警告”对话框,单击“确定”,开启该合规认证。 说明 选择开启PCI 3DS合规认证后,您将不能修改TLS最低版本。 选择开启PCI 3DS合规认证后,您将不能关闭该认证,请根据业务实际需求进行操作。 7. 在弹出的“TLS配置”对话框中,选择最低TLS版本和加密套件,如下图所示。 选择“最低TLS版本”,相关说明如下: 默认为TLS v1.0版本,TLS v1.0及以上版本的请求可以访问域名。 选择TLS v1.1版本时,TLS v1.1及以上版本的请求可以访问域名。 选择TLS v1.2版本时,TLS v1.2及以上版本的请求可以访问域名。 8. 单击“确定”,TLS配置完成。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        网站设置
        高级设置
        配置PCI DSS/3DS合规与TLS
      • AOne平台子用户管理概述
        本文介绍了AOne平台子用户管理概述。 需求场景 AOne边缘安全加速平台包含多种服务,如安全与加速、边缘接入、零信任、开发者平台等;同时某些服务(如安全与加速),还可能涉及不同的域名资源。 某些用户场景,需要多个可访问AOne平台控制台的账号,并且针对不同的账号设置不同访问的权限,常见的需求包括: 添加子用户A,具有AOne所有的访问、编辑权限(所有菜单、所有域名)。 添加子用户B,只具有AOne安全与加速服务控制台的访问权限,不可访问零信任、边缘接入等其他服务控制台。 添加子用户C,只具有AOne安全与加速服务控制台的可查看权限,不具备编辑权限。 添加子用户D,只具有AOne安全与加速服务控制台部分域名的配置权限,不可查看、配置其他域名资源。 …… 总结:用户需要能够设置不同角色,从子用户可访问的菜单、子用户可访问的域名、子用户的可读/可写权限三个维度进行授权。 最佳实践 AOne边缘安全加速平台已对接CDN+ IAM组件,可实现在CDN+平台的工作区创建子用户,并为子用户分配不同的角色。 AOne边缘安全加速平台包含三种内置角色,内置角色的权限策略用户不编辑,此外支持定制角色实现更复杂的访问控制场景。 内置角色 角色说明 边缘安全加速平台管理者 最高权限,具备该角色的用户可查看配平台所有菜单、所有域名,并且具备编辑权限。 边缘安全加速平台参与者 查看权限,具备该角色的用户可查看平台所有菜单,但是无法查看任何域名并且不具备安全与加速服务控制台的编辑权限 边缘安全加速平台查看者 查看权限,具备该角色的用户可查看平台所有菜单、所有域名,但是不具备安全与加速服务控制台的编辑权限。 说明 边缘安全加速平台参与者与查看者角色,当前仅针对安全与加速服务控制台的可编辑权限进行了限制,其余服务控制台暂未进行限制,仍具备编辑权限。 当内置角色的权限能够满足用户授权需求时,可直接给子用户赋予内置角色。操作步骤参考:新增子用户关联内置角色。 当内置角色的权限不能满足用户授权需求时,可创建定制角色后,给子账号赋予定制角色。操作步骤参考:新增子用户关联定制角色。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        子用户管理(CDN+平台)
        AOne平台子用户管理概述
      • 断点续传
        本节主要介绍断点续传。 通过MultipleUpload类以及文件上传请求UploadFileRequest类,实现基于分段上传的断点续传的功能。 参数设置 名称 描述 :: EnableCheckpoint 是否开启断点续传功能。 取值: true:开启。 false:关闭。 默认值为false。 PartSize 每个分段的大小partSize,若partSize小于5MiB,则会将partSize调整至5MiB。 默认:5MiB。 UploadFile 上传的本地文件路径。 checkpointFile 记录本地分片上传结果的文件。如果未指定checkpointFile,默认为uploadFile.ucp,与上传的本地文件同路径。 objectMetadata 文件的元数据。 ProgressListener 上传状态监听器。 TaskNum 分片上传并发线程数,默认为1,最多为1000。 用checkpointFile来记录所有分片的状态。上传过程中的进度信息会保存在该文件中,如果某一分片上传失败,再次上传时会根据文件中记录的点继续上传。上传完成后,该文件会被删除。checkpointfile默认与待上传的本地文件同目录,为uploadFile.ucp。 Java上传代码示例 public static void multiUpload(AmazonS3 ossClient) { try { String bucketName "examplebucket"; String key "objecttest1.pdf" ; String uploadFile "D:tmp2.txt"; // 通过UploadFileRequest设置多个参数 UploadFileRequest request new UploadFileRequest(bucketName, key); // 上传的本地文件 request.setUploadFile(uploadFile); // 分片上传并发线程数,默认为1,最多为1000 request.setTaskNum(2); /每个分片的大小,默认5MiB,若partSize小于5MiB,除了最后一个分片以外,会将partSize调整至5MiB / request.setPartSize(5 1024 1024); // 开启断点续传功能,默认关闭 request.setEnableCheckpoint(true); /记录本地分片上传结果的文件。开启断点续传功能时需要设置此参数,上传过程中的进度信息会保存在该文件中,如果某一分片上传失败,再次上传时会根据文件中记录的点继续上传。/ // 上传完成后,该文件会被删除。默认与待上传的本地文件同目录,为uploadFile.ucp // request.setCheckpointFile(" "); MultipleUpload multiUpload new MultipleUpload(request, ossClient); // 断点续传上传 CompleteMultipartUploadResult result multiUpload.upload(); //System.out.println("location: "+result.getLocation()); System.out.println("Upload complete. Upload object name:" + result.getKey()); } catch (AmazonServiceException ase) { System.out.println("Caught an AmazonServiceException, which means your request made it " + "to OOS, but was rejected with an error response for some reason."); System.out.println("Error Message: " + ase.getMessage()); System.out.println("HTTP Status Code: " + ase.getStatusCode()); System.out.println("OOS Error Code: " + ase.getErrorCode()); System.out.println("Request ID: " + ase.getRequestId()); } catch (AmazonClientException ace) { System.out.println("Caught an AmazonClientException, which means the client encountered " "a serious internal problem while trying to communicate with OOS, " "such as not being able to access the network."); System.out.println("Error Message: " + ace.getMessage()); } }
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Object的操作
        断点续传
      • 使用OceanFS动态存储卷(subPath模式)
        开头的中文内容为内容解释,并非参数。 1、创建存储类(StorageClass) 使用kubectl连接集群,创建示例yaml文件scexample.yaml: plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: cstorcsioceanfsmassivescsubpath provisioner: oceanfs.csi.cstor.com parameters: mode: subPath 协议类型,当前仅支持nfs protocol: nfs oceanfs的ID 指定子目录不是在storageClass中指定,用户需要在PVC的注解上指定subpath,如果不指定或者指定为/,则使用pv的名字作为子目录。 oceanfsUUID: b70995c84c9b5b6f188d635e801db034 子目录回收策略,仅适用于subPath模式,注意与K8S原生的存储类里的reclaimPolicy区分。 只有K8S原生的存储类里的reclaimPolicy为Delete时,该字段recylePolicy才会真正意义上生效 RetainSubPath:保留子目录策略,删除PVC,PV会被删除,但PV关联的子目录会被保留。 DeleteSubPath:删除子目录策略,删除PVC,PV及其关联的子目录均会被删除。 不写该字段默认为RetainSubPath recylePolicy: RetainSubPath 是否使用VPCE网络的文件系统,不写该字段默认为false,表示不使用 isVpce: "false" reclaimPolicy: Delete allowVolumeExpansion: true mountOptions: mountOptions 支持nfs的相关配置 vers3 prototcp async nolock noatime noresvport nodiratime wsize1048576 rsize1048576 timeo300 执行以下命令,创建StorageClass plaintext kubectl apply f scexample.yaml 查看创建的StorageClass: 登录“云容器引擎”管理控制台,在集群列表页点击进入指定集群。进入主菜单“存储”——“存储类”,在存储类列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        海量文件
        使用OceanFS动态存储卷(subPath模式)
      • 购买类
        Q:如何选择适合我的域名? A:您可以从以下4个方面构思: 单位名称的中英文缩写 企业的产品注册商标 与企业广告语一致的中英文关键词 比较有趣的名字,如: hello,cool,yes等等 域名命名原则 a) 容易记这是最重要的原则 b) 要同你的商业有直接关系 c) 长度要短 d) 正确拼写英文单词或拼音 e) 用你的商标或企业名称 f) 注册.com下的域名 g) 不要侵犯人家的商标 Q:域名注册可以实时完成吗? A:应国家相关政策,域名注册前需要先完成实名制审核后才可以完成注册,域名注册前要现在后台完成实名制模板创建,创建模板后提交有关部门审核,审核时间大概需要13天。模板创建成功后,注册域名前先查询,若是未注册的域名,选择审核通过的模板后注册可以实时完成,先到先得,注册后其他人无法注册。域名注册成功后,还要通过实名制审核、命名审核,审核通过后才可使用。否则域名注册成功后是不可使用的状态,当然其他人也无法注册。 Q:域名的所有权是如何界定的? A:在中国境内,域名注册成功后要进行实名制登记。可以是个人、企业、机构等等主体。实名制认证完成后,即认为是域名的所有人,拥有域名所有权。 Q:域名有什么用? A:域名是互联网的基础寻址方式,打开任何互联网内容都需要用域名来进入引导,域名注册成功后要做相应的解析,才能在实现寻址功能。 Q:域名需要实名认证吗? A:根据2017年颁布的《互联网域名管理办法》规定,域名注册后必须实名制才可以使用,实名制认证是中国地区本着网络安全和用户安全设立的规则。中国地区的注册局、注册商、代理商以及用户都要遵循实名制认证的规定。在中国以外的注册商注册域名,是不强制要求实名制的。 实名制认证需要用户提交跟持有人一致的证件,系统自动审核真实性和是否存在。核验成功后,域名的状态会置为OK,即可以正常解析使用。否则域名虽然能注册成功,但域名无法做解析。 Q:同一个域名可以注册多个扩展名吗? A:可以,同一个域名注册多个扩展名,例如www.公司名.net和www.公司名.com,可用来确保公司品牌的唯一性,并保证其不被他人抢注。
        来自:
        帮助文档
        新域名服务
        常见问题
        购买类
      • 使用ZOS动态存储卷
        开头,未放开该参数,如有需求,请您根据实际需求使用。 4. 部分 开头的中文内容为内容解释,并非参数。 1 、创建存储类( StorageClass ) 使用kubectl连接集群,创建示例yaml文件scexample.yaml: plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: cstorcsizosstandardsc provisioner: zos.csi.cstor.com parameters: 标准存储 type: STANDARD 使用bucket所使用的AK/SK的secret csi.storage.k8s.io/nodepublishsecretname: obssecret csi.storage.k8s.io/nodepublishsecretnamespace: default 对象存储的AZ策略,不填默认为singleaz azpolicy: singleaz kms的uuid,当配置了这个uuid后,意味着会使用加密功能。不配置或者配置为空,则均不使用加密。默认不使用加密功能。 kmsUUID: 111d979e5f304dd6a167c8c8cdd8aa7c 填写标签,根据自己需求填写,以逗号分隔,例如以下示例就是两对标签, 其中第一个标签key为ccse,value为plugin,另外一个标签key为cstorcsiprovison,value为yes 注意,此标签为存储侧的标签,并非容器侧的标签,最终只会在存储控制台展示。 tags: "cce:plugin,cstorcsiprovison:yes" endpoint类型选择,如果为intranet表示使用内网地址,如果是internet表示使用外网地址。 默认为intranet,不填该字段也默认为intranet endpointType: intranet reclaimPolicy: Delete allowVolumeExpansion: true 执行以下命令,创建StorageClass plaintext kubectl apply f scexample.yaml 查看创建的StorageClass: 登录“云容器引擎”管理控制台; 在集群列表页点击进入指定集群; 进入主菜单“存储”——“存储类”,在存储类列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        对象存储(CT-ZOS)
        使用ZOS动态存储卷
      • CREATE USER
        本页面介绍云数据库ClickHouse创建用户的基本语法。 CREATE USER语法用于在云数据库ClickHouse中创建新用户。以下是CREATE USER语句的基本语法结构: CREATE USER [IF NOT EXISTS] username [IDENTIFIED [WITH {PLAINTEXTPASSWORD SHA256PASSWORD}] BY 'password'] [DEFAULT ROLE rolename] [SETTINGS settingname settingvalue, ...] 其中的关键要素包括: IF NOT EXISTS:可选项,表示如果用户已经存在,则不执行创建操作。 username:指定用户的名称。 IDENTIFIED:可选项,用于指定用户的身份验证方式。可以选择明文密码(PLAINTEXTPASSWORD)或SHA256哈希密码(SHA256PASSWORD)。 'password':指定用户的密码,需根据选择的身份验证方式进行正确的格式化。 DEFAULT ROLE:可选项,指定用户的默认角色(rolename)。 SETTINGS:可选项,用于指定用户的其他设置,例如最大查询并发数、查询超时时间等。 下面是一些示例的CREATE USER语句。 示例1 CREATE USER IF NOT EXISTS myuser IDENTIFIED WITH PLAINTEXTPASSWORD BY 'mypassword' DEFAULT ROLE myrole SETTINGS maxconcurrentqueries 10; 该语句创建了一个名为myuser的用户,使用明文密码进行身份验证,并设置了默认角色为myrole。同时,设置了maxconcurrentqueries参数为10。 示例2 用户名为name1且无需密码 这显然不太安全: CREATE USER name1 NOT IDENTIFIED 示例3 指定明文密码: CREATE USER name2 IDENTIFIED WITH plaintextpassword BY 'mypassword' 由于密码以明文形式存储在/var/lib/clickhouse/access目录下的SQL文本文件中,因此不建议使用明文密码不是一个好主意,可以尝试使用sha256password。 最常见的选择是使用SHA256散列算法对密码进行哈希。当指定IDENTIFIED WITH sha256password时,云数据库ClickHouse会为您对密码进行哈希处理。例如: CREATE USER name3 IDENTIFIED WITH sha256password BY 'mypassword' name3用户现在可以使用mypassword登录,但密码以上述哈希值的形式存储。以下SQL文件在服务器启动时被创建并执行: /var/lib/clickhouse/access $ cat 3843f5106ebda52d72ace021686d8a93.sql ATTACH USER name3 IDENTIFIED WITH sha256hash BY '0C268556C1680BEF0640AAC1E7187566704208398DA31F03D18C74F5C5BE5053' SALT '4FB16307F5E10048196966DD7E6876AE53DE6A1D1F625488482C75F14A5097C7'; 如果您已经为用户名创建了散列值和相应的盐值,那么可以使用IDENTIFIED WITH sha256hash BY 'hash'或IDENTIFIED WITH sha256hash BY 'hash' SALT 'salt'。对于带有SALT的sha256hash,哈希值必须从'password'和'salt'的串联中计算得出。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        基本SQL语法
        CREATE USER
      • 创建独享型负载均衡器
        参数 说明 取值样例 实例规格类型 负载均衡的实例类型。 独享型 计费模式 按需计费。 按需计费 区域 不同区域的资源之间内网不互通。请选择靠近业务的区域,可以降低网络时延、提高访问速度。 可用区 可以选择在多个可用区创建负载均衡实例,提高服务的可用性。如业务需考虑容灾能力,建议选择多个可用区。当某一可用区出现故障时,业务可以快速切换到另一个可用区的负载均衡继续提供服务。 此外,选择多个可用区之后,对应的性能规格(新建连接数/并发连接数等)会加倍。例如:单实例最大支持2kw并发,那么双AZ就支持4kw并发。 说明: 对于 公网访问 ,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 对于 内网访问 : 当从 创建ELB的AZ 访问时,流量将被分配到本AZ中的ELB上,当本AZ的ELB不可用时,容灾到创建的其他AZ的ELB上; 当从 未创建ELB的AZ 访问时,会根据源IP的不同将流量分配到创建的多个AZ中的ELB上。 说明: 针对已有实例,如果修改可用区配置,可能会导致该实例的业务闪断数秒,请在购买时做好规划,确实要修改的话建议选择闲时操作。 跨VPC后端 开启后,用户可以为负载均衡器添加当前VPC以外的后端,跨VPC后端通过IP地址形式添加。 说明: 若要使用该功能,请先正确配置VPC路由,确保后端可达。 开启跨VPC后端,需要占用后端子网下的IP地址,请确保预留足够的IP地址。 网络类型 可以单独选择一个网络类型,也可以同时选择多个。 IPv4公网:负载均衡器通过IPv4公网IP对外提供服务。 IPv4私网:负载均衡器通过IPv4私网IP对外提供服务。 IPv6:系统会为实例分配一个IPv6地址,转发来自IPv6客户端的请求。 说明: 如果公网或私网IP均未选择,则ELB实例创建完成后无法与客户端通信。 IPv4公网 所属VPC 所属虚拟私有云。无论选择哪种网络类型,均需配置此项。 您可以选择使用已有的虚拟私有云网络,或者单击“查看虚拟私有云”创建新的虚拟私有云。 vpc4536 子网 选择创建负载均衡实例的子网。 无论选择哪种网络类型,均需配置此项。 当网络类型选择“IPv6”,且所选的VPC下无支持IPv6的子网时,请为已有子网开启IPv6或创建支持IPv6的子网。 subnet4536 IPv4公网配置 弹性IP 当网络类型勾选“IPv4公网”时,需要指定弹性IP。 新创建 公网带宽 弹性IP使用的带宽类型。 加入共享带宽 IPv4私网配置 IPv4地址 选择IPv4地址的分配方式。 自动分配IP地址 IPv6网络配置 IPv6地址 选择IPv6的IP地址的分配方式。 说明: 负载均衡器的IP地址不受所在VPC子网ACL配置的限制,所以能够被客户端直接访问。建议您使用监听器的访问控制功能限制客户端访问负载均衡器。 自动分配IP地址 公网带宽 选择IPv6的共享带宽。可以选择暂不设置共享带宽或选择已有的共享带宽或新建共享带宽。 暂不设置 规格 “应用型(HTTP/HTTPS)”和“网络型(TCP/UDP)”请至少勾选一种,勾选后可选择相应能力的规格。 应用型(HTTP/HTTPS)的不同规格所需的子网的IP地址不同。 不同的实例规格在性能上存在差异。 中型 II 名称 负载均衡器的名称。 elb93wd 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 default 高级配置 描述 可添加负载均衡器相关描述。 标签 标签用于标识云资源,可对云资源进行分类和搜索。标签由标签“键”和标签“值”组成,标签键用于标记标签,标签值用于表示具体的标签内容。 键:elbkey1 值:elb01
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        负载均衡器
        创建独享型负载均衡器
      • 创建迁移任务
        本文主要介绍创建迁移任务 操作场景 使用对象存储迁移服务创建对象存储任务,对业务环境的对象数据实施迁移。 如果待迁移的整桶数据超过3TB或者对象个数超过500万,建议使用创建迁移任务组进行数据迁移。 前提条件 已获取源端和目的端账号的AK/SK。 源端账号拥有list Bucket,get BucketLocation,list Object,head Object,get Object等权限,具体权限获取方式请联系源端云服务商。 list Bucket、get BucketLocation权限在迁移前选择桶时使用,如果使用指定桶名时可不用配置。 目的端拥有OBS OperateAccess权限,获取方式请参见创建IAM用户并授权使用OBS。 已在天翼云OBS服务中创建桶。 操作步骤 步骤 1在浏览器中输入 步骤 2单击左侧导航栏的“迁移实施”页签,展开右侧出现的“对象存储迁移”页签,单击“迁移任务 > 创建迁移任务”,仔细阅读弹出的隐私协议声明,勾选“同意以上隐私协议”,单击“确定”,进入“创建迁移任务”页面。 创建迁移任务 阅读,同意对象存储服务隐私协议,单机确认。 步骤 3选择源端/目的端。 选择源端 源端选择参数: 参数 说明 : 数据源 待迁移的源端云服务提供商。 appID 如果源端云服务提供商为腾讯云,则需要输入该参数,appID 是您腾讯云帐户的一个标识。 访问密钥 源端云服务提供商的访问密钥(AK)。最大长度是100个字符。 私有访问密钥 源端云服务提供商的私有访问密钥(SK),与AK相匹配。最大长度是100个字符。 区域 源端云服务提供商所在区域 桶名 待迁移数据所在的桶。 选择目的端: 目的端选择参数 参数 说明 : 数据源 云服务提供商,选择天翼云 访问密钥 天翼云的访问密钥(AK)。最大长度是100个字符。 私有访问密钥 天翼云的私有访问密钥(SK),与AK相匹配。最大长度是100个字符。输入访问密钥和私有访问密钥后,请单击“连接目的端桶”。 桶名 存放迁移数据的天翼云OBS桶。 步骤 4单击“下一步”,设置任务参数。 步骤 5选择迁移方式。 选择文件/文件夹 单击“选择”,选择待迁移的文件或文件夹后,单击“确定”。对于已选择的文件或文件夹,您可以单击从迁移对象列表中删除。 如果选择的云服务提供商为七牛,则不支持选择文件/文件夹。 若不设置该参数,则默认迁移全桶数据。 针对每个迁移任务,在同一目录层级下,您最多可以选择500个文件或文件夹。 由于OBS服务的规格限制,请确认对象迁移到目的端后的名称不超过1024个字符,否则将导致任务失败。 指定对象列表 指定对象列表方式,一般用于增量迁移场景,用户需要将待迁移的源端对象名称写入对象列表文件,并将生成的对象列表文件放在天翼云OBS桶中,对象存储迁移服务将会迁移指定对象列表文件中的所有对象。 b.选择“列表文件所在桶(天翼云)”。 此参数中列出的桶是通过输入的目的端AK/SK得到的桶列表。 请确保列表文件所在桶与目的端桶处于同一区域,否则后续将无法选择对象列表文件。 c.在“对象列表文件”区域内单击“选择”,选择用户指定的对象列表文件,单击“确定”。 对象列表文件大小不能超过100MB。 对象列表文件必须是“.txt”类型的文件,并且该文件元数据中的“ContentType”只能为:“text/plain”。 对象列表文件必须是UTF8无BOM格式编码格式。 对象列表文件中每行只能包含一个对象名称,并且对象名称使用URL Encode编码。 对象列表文件中每行不要添加无效空格,否则会将空格作为对象名,导致迁移失败。 对象列表文件中每行长度不要超过65535,否则会导致迁移失败。 对象列表文件的元数据中不能设置“ContentEncoding”,否则会导致迁移失败。 对象列表文件如果是归档数据,迁移前需要先手动恢复,对象存储迁移服务才能访问和获取。 输入对象前缀 在“添加对象数据”区域内输入对象数据名称或者名称前缀,系统会自动匹配出数据。您可以单击,从这些匹配到的迁移数据列表中删除不需要迁移的数据。 若不添加该参数,则默认迁移全桶的数据。 指定URL列表 指定URL列表方式,一般适用于HTTP或HTTPS源端的迁移场景,用户需要将待迁移的文件URL和目的端对象名称写入URL列表文件,并将生成的URL列表文件放在天翼云OBS桶中,对象存储迁移服务将会迁移指定URL列表文件中的所有对象。 d.选择“列表文件所在桶(天翼云)”。 此参数中列出的桶是通过输入的目的端AK/SK得到的桶列表。 请确保列表文件所在桶与目的端桶处于同一区域,否则后续将无法选择对象列表文件。 出于安全考虑,若您的源端同时支持HTTP和HTTPS协议,建议迁移时使用HTTPS协议;若使用HTTP协议,会存在数据可能会被监听窃取、数据被篡改、中间人重放攻击等风险。 URL列表迁移不支持URL重定向。 e.在“选择URL列表文件”区域内单击“选择”,选择用户指定的URL列表文件,单击“确定”。 URL列表文件大小不能超过100MB。 URL列表文件必须是“.txt”类型的文件,并且该文件元数据中的“ContentType”只能为:“text/plain”。 URL列表文件必须是UTF8无BOM格式编码格式。 URL列表文件中每行只能包含一个URL和目的端对象名称。 URL列表文件中每行长度不要超过65535,否则会导致迁移失败。 URL列表文件的元数据中不能设置“ContentEncoding”,否则会导致迁移失败。 URL列表文件中每行使用制表符t分割URL和目的端对象名称,格式为:[URL][制表符][目的端对象名称],其中目的端对象名称使用URL Encode编码,例如: doc%2f%e6%96%87%e4%bb%b61.txt doc%2fthefile2.txt the%20file.txt the+file2.txt doc/thefile.txt 以上示例中,URL所表示的文件,被复制到目的端桶后,对象会被分别命名为:doc/文件doc/thefile2.txt、the file.txt、the file2.txt以及doc/thefile.txt。 URL列表文件中每行不要添加无效空格,否则会将空格作为对象名,导致迁移失败。 步骤 6(可选)设置“源端参数”。 当您的源端云服务提供商提供了下表中首列相应的功能时,才会出现此部分参数。 源端参数 参数 说明 : 源端使用自定义域名下载 当默认域名不能满足您的迁移需求,比如您需要一个自定义域名以便使用CDN降低源端出口下载流量的费用,且您的源端云服务提供商支持自定义域名时,可以勾选此选项。说明当源端云服务提供商是七牛云时,因其对默认域名的使用做了限制,为确保您的迁移顺利进行,系统已为您自动勾选此参数。勾选此选项后,进行如下设置:在“自定义域名传输协议”中选择传输协议。说明HTTP协议安全级别低于HTTPS协议,推荐使用HTTPS协议。填写“桶自定义域名”。如果您使用了源端云服务提供商提供的CDN鉴权,则选择“启用CDN鉴权校验”,并配置校验类型和秘钥。说明l您需要参见源端云服务提供商的相关资料配置CDN后,才能使用CDN相关功能。l使用源端CDN产生的费用遵从源端云服务提供商的计费规则,费用由源端云服务提供商向您收取。l不支持URl重定向。单击“检查”,检查配置是否正确。l如果检查未通过,请单击“详情”查看未通过的原因。l如果检查通过,则可继续进行其他迁移配置。 解冻归档数据 归档类型的对象存储要实现迁移,必须预先解冻。当您的源端云服务提供商支持自动解冻归档类型数据时,可以勾选此选项。l勾选:如果遇到归档类型对象,则自动解冻该对象并进行迁移。如果解冻失败,则判定该对象迁移失败并跳过,继续迁移其余对象。l不勾选:如果遇到归档类型对象,则直接判定该对象迁移失败并跳过,继续迁移其余对象。说明l目前支持以下云服务提供商的归档数据的自动解冻:华为云、阿里云、金山云、腾讯云。l解冻预计耗时1分钟及以上,对象越大解冻耗时越长,超过3分钟默认解冻失败。各云服务提供商的解冻耗时可能存在差异,具体请参考各云服务提供商的相关文档。l解冻归档数据的过程中会产生两种费用,一是API调用费用,二是归档数据取回费用,这些均由源端云服务提供商向您收取。l归档数据的解冻状态会持续一段时间,在此时间内支持对象的下载/访问,超过此时间后需要重新解冻。解冻状态持续时间请参考各云服务提供商的相关文档。l对象存储数据从源端云服务提供商迁移到天翼云后,存储类型和目的端桶的存储类型保持一致,与源端对象存储类型无关。 步骤 7单击“高级选项”后面“展开”,展开高级选项参数。 步骤 8(可选)设置高级选项参数。 高级选项参数 参数 说明 : 服务端加密 如果勾选“KMS”,对迁移数据进行KMS服务端加密后再存储至目的OBS桶中。说明使用KMS服务端加密可能会降低迁移速率10%左右。当前区域支持KMS加密时,此参数方可用。 记录失败对象 选择是否记录迁移失败的对象。l选择“否”,则不记录迁移失败的对象。如果迁移失败,只能全量重传。l选择“是”,记录迁移失败的对象。如果迁移失败,支持只对迁移失败对象进行重传。说明迁移失败的对象将被记录在一个以任务名称命名的失败对象列表文件中,普通任务:上传到目的端桶的“oms/failedobjectlists/”路径下;任务组任务:上传到目的端桶的“oms/failedobjectlists”路径下。该文件记录了迁移任务失败的摘要信息,包括:失败原因、发生时间(参照当前区域所属时区)、失败对象(经过URL编码)、失败对象(未经过URL编码)、源端SDK返回的错误码。当迁移失败对象重传成功后,失败对象列表文件仍会保留在目的端。您如果不再需要该文件,请手动删除。 解冻归档数据 归档类型的对象存储要实现迁移,必须预先解冻。当您的源端云服务提供商支持自动解冻归档类型数据时,可以勾选此选项。l勾选:如果遇到归档类型对象,则自动解冻该对象并进行迁移。如果解冻失败,则判定该对象迁移失败并跳过,继续迁移其余对象。l不勾选:如果遇到归档类型对象,则直接判定该对象迁移失败并跳过,继续迁移其余对象。说明l目前支持以下云服务提供商的归档数据的自动解冻:华为云、阿里云、金山云、腾讯云。l解冻预计耗时1分钟及以上,对象越大解冻耗时越长,超过3分钟默认解冻失败。各云服务提供商的解冻耗时可能存在差异,具体请参考各云服务提供商的相关文档。l解冻归档数据的过程中会产生两种费用,一是API调用费用,二是归档数据取回费用,这些均由源端云服务提供商向您收取。l归档数据的解冻状态会持续一段时间,在此时间内支持对象的下载/访问,超过此时间后需要重新解冻。解冻状态持续时间请参考各云服务提供商的相关文档。l对象存储数据从源端云服务提供商迁移到天翼云后,存储类型和目的端桶的存储类型保持一致,与源端对象存储类型无关。 迁移指定时间后的对象 选择是否使用时间过滤源端待迁移对象。l选择“否”,不过滤源端待迁移对象。l选择“是”,仅迁移在指定时间之后修改的源端待迁移对象。需要单击,设置迁移指定时间。 流量控制 设置迁移任务在指定时段的最大流量带宽。l选择“否”,不进行流量控制。l选择“是”,进行流量控制。需要执行以下步骤:1.单击“新增流量控制”。下方新增一条规则记录。2.在“开始时间”、“结束时间”和“限制最大流量”文本框中输入数值。限制最大流量的数值范围:1~ 200MB/s。3. 重复步骤,增加新的流量控制规则。您也可以单击“操作”栏的,删除本行记录。说明最多可以创建5条记录。即使在创建任务后,您也可以在任务详情中继续设置流量控制规则。 描述 输入本次迁移任务的简单描述信息。最多可输入255个字符。 步骤 9 单击“下一步”,进入确认信息页面。 步骤 10 确认迁移信息的设置,并启动迁移。 1.浏览各项迁移参数的设置是否正确。 如果有误,可以单击“上一步”返回之前的页面进行修改。 2.单击“开始迁移”。 提示创建迁移任务成功。查看迁移任务列表已新增该任务。 关于迁移任务状态,参见查看迁移任务。 任务创建后,会生成一个任务ID供您快速识别。它显示在列表中任务的左上角,由源端桶名+目的端桶名+时间序列标识拼接而成。
        来自:
        帮助文档
        云迁移工具RDA
        用户指南
        对象存储迁移
        创建迁移任务
      • 备案基础知识
        1 、备案的目的 根据《互联网信息服务管理办法》规定,在中华人民共和国境内从事互联网信息服务活动,需要先进行备案并获取通信管理局下发的ICP备案号,才允许对外提供互联网信息服务。 备案成功后,通信管理局会分配主体备案号给备案主体(个人或单位均可称为主体),同时也会给此次备案的网站分配网站备案号。 主体备案号格式为:(省简写)ICP备+主体序列号(8位数字) 网站备案号格式为:(省简写)ICP备+主体序列号(8位数字)网站序列号 举例: 天翼云官网(域名ctyun.cn)的网站备案号为:京ICP备 2021034386号34  公司主体备案号为:京ICP备2021034386号。 2 、如何备案 1) 登录天翼云官网备案我的备案 2) 输入本次备案的单位信息和域名(或APP)信息创建备案订单 3) 完善备案信息 4) 上传资料,建议选择“通过微信小程序采集图片”,此步骤会通过手机进行网站负责人的活体验证,方便快捷 5) 提交管局审核 6) 备案完成 3 、域名:非gov.cn的域名备案只能备案一级域名 非gov.cn的域名备案只需备案一级域名,一级域名备案后对应的二级域名、三级域名可以正常使用。 举例:天翼云官网的一级域名为:ctyun.cn,备案完成后对应的二级域名:.ctyun.cn均可正常使用。 境外注册域名不可进行备案。 4 、备案需要多久 1) 天翼云1个工作日内对您的备案信息进行初审。 2) 备案信息提交至通信管理局后,各省管局审核时间不一,管局按照各接入商提交单据的顺序进行审核,审核时间不超过20个工作日。 5 、备案类型 根据主体和域名是否第一次做备案,可以分为不同的备案类型,不同的备案类型填写的信息略有差异。 1) 增加备案信息的类型有: 首次备案(新增备案):主体和域名均为第一次做备案。 新增互联网信息服务:该主体已备案过其他网站(APP),此次填写的域名(APP)是第一次做备案。 接入备案:主体和域名均已备案,此次备案是办理接入商的变更。 2) 删除备案信息的类型有: 注销主体:删除该主体下的所有备案信息,包括主体信息和网站信息 注销网站:删除主体下的某个网站,主体信息仍然保留 取消接入:删除备案信息和接入商的关联,建议在新的接入商处完成接入备案后再取消接入,否则备案信息可能会被通信管理局注销 3) 修改备案信息的类型有: 变更主体:变更主体信息,如修改公司通信地址等 变更互联网信息服务:变更网站(APP)信息,如删除域名、修改网站负责人、变更IP等 只有在天翼云完成备案的网站,才可以提交变更。 6 、备案需要准备什么材料 个人备案 A. 二代身份证扫描件或拍照件 B. 《ICP备案信息真实性核验单》:去下载。 C. 电子版域名证书: 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 D. 电子版信息需提供原件: 根据管局规定,证件类的材料必须为原件扫描件或拍照,不可使用彩色复印件。 单位备案 A. 单位证件: 企业需提供营业执照(副本)扫描件/拍照件、机关提供统一社会信用代码证,事业单位提供事业单位法人证书 B. 负责人身份证扫描件/拍照件(外国人可提供护照等其他证件) C. 《ICP备案信息真实性核验单》:去下载。 D. 可到域名注册商处下载域名证书。 根据《工业和信息化部关于规范互联网信息服务使用域名的通知》工信部信管﹝2017﹞264号规定,自2018年1月1日起,域名注册所有人必须是备案主体或者备案主体单位法人。 E. 网站负责人法人授权书(可选): 如果网站负责人填写的不是法人,还需额外提供授权书,去下载。 7 、接入备案 为什么要办理接入备案?根据国家相关要求,如果您已在A接入商购买服务器并成功办理了ICP备案,当您计划将网站搭建到B接入商平台时(或网站同时在多家接入商平台上运营时),需到B接入商处办理备案,备案信息接入B接入商的过程称为“接入备案”。 另外,如果不办理接入备案即开通网站,您的网站将有可能被阻断无法访问 8 、使用海外服务器不需要备案 购买中国香港或海外服务器无需备案,备案仅针对国内(港澳台地区除外)节点服务器。 9 、境外企业如何备案 目前境外企业无法备案,需要在国内(港澳台地区除外)设立分公司持有国家认可的单位证件才能进行备案。(建议境外企业考虑使用中国香港服务器,使用中国香港服务器无需备案) 10 、备案专有名词 一级域名:一级域名也叫顶级域名,abc.com为一级域名,a.abc.com为二级域名;abc.edu.cn也是一级域名,因为edu.cn本身也是一个域名后缀。 主体:办理备案的个人或者单位均称为备案主体 接入商:提供网站搭建平台并协助您办理备案的即为接入商 主体负责人:单位办理备案时填写的主办单位负责人,一般建议填写公司法人 网站负责人:单位办理备案时填写的网站负责人,负责网站建设等工作,可以填写法人也可以根据实际情况填写相关负责人
        来自:
        帮助文档
        ICP备案
        备案介绍
        备案基础知识
      • 断点续训加速
        万卡规模国产化集群下,断点续训在5类故障下实现1分钟检测、5分钟内定位、15分钟内恢复训练。 测试数据及代码准备 数据集 数据集大小 使用模型 Wikipediaen (1M条) 9.1GB Llama270B /Llama3.1405B ● 使用预处理为MindRecord格式的Wikipediaen (1M条)数据集,上传到对象存储,并由对象存储下载到平台HPFS。 ● 测试代码在gitlab仓库下载到本地,并放置于/work/home下。 脚本和任务准备 按照下面修改run.sh脚本 ! /bin/bash huijuformers的绝对路径, 需要修改pathtohuijuformers export BASEDIR/work/data/llama29216/huijuformers 以下为平台自动注入的环境变量 yaml文件中需要修改的环境变量 export BATCHSIZE1 export EPOCHS350 export LEARNINGRATE6.e5 export DATAPARALLEL256 export MODELPARALLEL4 export PIPELINESTAGE9 模型微调相关 export FINETUNEMODELTYPEllama270bbase 合并为一个参数,与模型存放文件夹名称一致(与后端沟通过) export FINETUNINGTYPEALL export TIMETAG$(date +"%m%d%H%M") 数据相关 export DATASETPATH${BASEDIR}/data export DATASETFILEoriginaldata.json 需要修改 以下为平台后端需要自行更改后传入的环境变量 平台数据格式转换,专用数据调试时用不到 export DATASETTMPPATH${BASEDIR}/data/processeddata/${FINETUNEMODELTYPE} mkdir p ${DATASETTMPPATH} 模型输入 专业模式,平台训练时需要按照平台的挂载路径去修改这一块的变量 export CHECKPOINTDIR'' 低代码模式,微调时约定挂载为下面的路径 export CHECKPOINTDIR/work/mount/publicModel/${FINETUNEMODELTYPE}/${FINETUNEMODELTYPE} 输出文件夹路径,runmode为训练模式,如train,lora,full runmodetrain export OUTPUTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode}/${TIMETAG} export OUTPUTROOTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode} rm rf ${OUTPUTDIR}/resumerecord 获取节点IP、名称,记录至文件 echo $(hostname I awk '{print $1}'),$NODENAME >> ${BASEDIR}/output/nodes sed i '/pamlimits.so/s/^//' /etc/pam.d/sshd 启动脚本 cd ${BASEDIR}/bin/scripts apt install netcat y 微调 bash finetune.sh 预训练 export MSTOPOTIMEOUT7200 bash train.sh
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        训推加速
        断点续训加速
      • 帮助命令
        本节主要介绍帮助命令行的使用。 ./stor { help h } 此命令用来查看HBlock的命令帮助信息。 示例 示例1 查看HBlock整体命令。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64] ./stor –help Usage: stor [options] stor [options] Type 'stor help ' or 'stor help ' to print help on a specific subcommand. Type 'stor version' to print HBlock version. Available commands: alarm View and manage alarms. backup Manage backup(s). config Configure HBlock. conssnap Manage consistency snapshot(s). event Event information. info Get HBlock information. install Install HBlock. license Manage HBlock license(s). logcollect Log collection information. lun Manage LUN(s). monitor Get performance data. qos Manage QoS policy. restart Restart HBlock. server Manage HBlock server(s). setup Initialize HBlock. snapshot Manage snapshot(s). start Start HBlock. status Get HBlock status. stop Stop HBlock. storagepool Manage storage pools. target Manage target(s). topology Manage topology. tuning Adjusting parameters to fit different scenarios. uninstall Uninstall HBlock on all servers. upgrade Upgrade HBlock. General subcommands: add Add an entity, such as adding a LUN or server. ls List entities or the specified entity, such as listing servers or the specified server. rm Remove an entity, such as removing a LUN or server. set Set entity properties, such as setting LUN or server properties. Available subcommands for alarm: E[export] Export alarm records to a file. M[mute] Set the mute status of a specified alarm record to Muted status, stop receiving its alarm emails and not list it by default. UM[unmute] Set the mute status of a specified alarm record to Normal status. R[resolve] Set a specified alarm record to Resolved status. Available subcommands for backup: E[export] Export backup file. I[import] Import backup file to a LUN. Available subcommands for conssnap: R[rollback] Rollback consistency snapshot. Available subcommands for lun: C[clone] Create clone LUN. F[flatten] Flatten clone LUN. RC[recover] Recover the specified LUN from the cloud. RS[resume] Resume the specified LUN. SUS[suspend] Suspend the specified LUN. S[switch] Switch between active and standby iSCSI targets. W[wipe] Wipe the specified LUN. X[expand] Expand LUN. Available subcommands for monitor: E[export] Export historical performance data to a file. V[view] Get realtime performance data. Available subcommands for qos: A[assoc] Associate the QoS policy with the specified objects. D[disass] Disassociate the QoS policy with the specified objects. Available subcommands for server: A[addpath] Add path(s) to store data. R[rmpath] Remove path(s). S[setpath] Set path(s) properties. Available subcommands for snapshot: R[rollback] Rollback snapshot or a snapshot in consistency snapshot. Available subcommands for storagepool: A[addnode] Add node(s) to storage pool. R[rmnode] Remove node(s) from storage pool. Available subcommands for target: R[rmallow] Remove iSCSI target allowlist. S[setallow] Set iSCSI target allowlist. Available subcommands for upgrade: T[status] Get upgrade status.
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        帮助命令
      • 访问FusionInsight Manager(MRS 3.x及之后版本)
        本章节主要介绍 访问FusionInsight Manager(MRS 3.x及之后版本) 。 操作场景 MRS 3.x及之后版本的集群使用FusionInsight Manager对集群进行监控、配置和管理。用户在集群安装后可使用帐号登录FusionInsight Manager。 说明 如果不能正常登录组件的WebUI页面,请参考通过ECS访问FusionInsightManager方式访问FusionInsight Manager。 通过弹性IP访问FusionInsight Manager 1. 登录MRS管理控制台页面。 2. 单击“集群列表 > 现有集群”,在集群列表中单击指定的集群名称,进入集群信息页面。 3. 单击“集群管理页面 ”后的“前往 Manager”,在弹出的窗口中配置弹性IP信息。 a.若创建MRS集群时暂未绑定弹性公网IP,在“弹性公网IP”下拉框中选择可用的弹性公网IP。若用户创建集群时已经绑定弹性公网IP,直接执行步骤3.2。 说明 如果没有弹性公网IP,可先单击“管理弹性公网IP”创建弹性公网IP后,然后在弹性公网IP下拉框中选择创建的弹性公网IP。 b.在“安全组”中选择待添加的安全组规则所在安全组,该安全组在创建群时配置。 c.添加安全组规则,默认填充的是用户访问弹性IP地址的规则,如需开放多个IP段为可信范围用于访问Manager页面,请参考步骤6~步骤9。如需对安全组规则进行查看,修改和删除操作,请单击“管理安全组规则”。 d.勾选确认信息后,单击“确定”。 4. 单击“确定”,进入Manager登录页面。 5. 输入默认用户名“admin”及创建集群时设置的密码,单击“登录”进入Manager页面。 6. 在MRS管理控制台,在“现有集群”列表,单击指定的集群名称,进入集群信息页面。 说明 如需给其他用户开通访问Manager的权限,请执行步骤6~步骤9,添加对应用户访问公网的IP地址为可信范围。 7. 单击弹性公网IP后边的“添加安全组规则”。 8. 进入“添加安全组规则”页面,添加需要开放权限用户访问公网的IP地址段并勾选“我确认这里设置的公网 IP /端口号是可信任的公网访问IP范围,我了解使用0.0.0.0/0会带来安全风险”。 默认填充的是用户访问公网的IP地址,用户可根据需要修改IP地址段,如需开放多个IP段为可信范围,请重复执行19。如需对安全组规则进行查看,修改和删除操作,请单击“管理安全组规则”。 9. 单击“确定”完成安全组规则添加。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问集群Manager
        访问FusionInsight Manager(MRS 3.x及之后版本)
      • 首页介绍
        登录平台之后会自动进入天翼云学堂首页,平台首页按功能模块分为11个区域,效果图如下: 网站名称 显示网站的名称或者网站LOGO:天翼云学堂。 导航栏 显示顶部导航内容:在线课程中心、认证考试中心、精品直播中心、学习班级。点击后直接跳转对应的二级页面。 搜索栏 全站课程搜索栏:支持模糊搜索,支持本地搜索。 信息栏 1) 我的学习: 显示我的课程,我的班级,我的直播、我的考试、我的认证等内容。 a) 我的课程:此处显示学员所有已加入的课程和加入的班级内的课程信息(包含学习中/已学完/收藏); b) 我的班级:显示学员所加入的班级信息; c) 我的直播课表:显示学员所有已加入的直播课程信息; d) 我的问答:显示学员所有的课程问答信息; e) 我的话题:显示学员参与的所有话题信息; f) 我的笔记:显示学员所有的笔记信息,支持快速查看笔记内容; g) 我的考试:显示学员所有的考试情况以及收藏的题目; h) 我的认证:显示学员获得的所有认证,并提供下载功能。 2) 账户中心: 显示我的订单、邀请码、优惠券、会员记录、我的积分。 a) 我的订单:学员可以在此页面查看自己在平台的购买记录,并且进行退款操作,在退款列表中,可以对申请的退款进行查看。 3) 个人设置: 显示个人信息、安全设置(修改用户身份认证) a) 个人信息:此处可编辑填写用户账户基本信息。 注:建议初登录系统的用户完善账号信息 b) 安全设置:可设置/修改用户身份,用户身份分为个人学习用户、中国电信员工、天翼云代理商,如下图所示: 通知、私信 显示管理员发送给你的通知或平台其他用户发送给你的私信。 头像 1) 退出登入 为确保账户安全,在不使用本系统时,请退出本系统。退出系统的时候请点击用户头像选择点击【退出】按钮。 2) 点击头像进入个人主页 在个人主页平台用户可查看到你的个人介绍、正在学习课程/班级、收藏的课程、加入的小组、你关注的用户以及你的粉丝。 轮播图 显示首页轮播图内容,点击后跳转到相应的内容页。 课程推荐模块 学员可根据首页推荐的课程,点击进入课程信息详情页,快速加入学习。 中部导航栏 显示3个导航入口,引导客户进入各个专题页面。 职业职格认证模块 显示3个认证链接入口,引导客户进入各个认证页面。 底部导航 嵌入天翼云主站底部栏,和天翼云主站底部保持一致。
        来自:
        帮助文档
        天翼云学堂
        操作指导
        首页介绍
      • 教程:从OBS导入数据到集群
        上传数据到OBS 1.将上面准备的3个CSV格式的数据源文件存储到OBS桶中。 a.登录OBS管理控制台。 单击“服务列表”,选择“对象存储服务”,打开OBS管理控制台页面。 b.创建桶。 例如,创建以下两个桶:“mybucket”和“mybucket02”。 注意 确保这两个桶与DWS集群在同一个区域。 c.新建文件夹。 例如: −在已创建的OBS桶“mybucket”中新建一个文件夹“inputdata”。 −在已创建的OBS桶“mybucket02”中新建一个文件夹“inputdata”。 d.上传文件。 例如: −将以下数据文件上传到OBS桶“mybucket”的“inputdata”目录中。 productinfo0.csv productinfo1.csv −将以下数据文件上传到OBS桶“mybucket02”的“inputdata”目录中。 productinfo2.csv 2.为导入用户设置OBS桶的读取权限。 在从OBS导入数据到集群时,执行导入操作的用户需要取得数据源文件所在OBS桶的读取权限。通过配置桶的ACL权限,可以将读取权限授予指定的用户帐号。 创建外表 1.连接DWS数据库。 2.创建外表。 说明 l ACCESSKEY和SECRETACCESSKEY 用户访问OBS的AK和SK,请根据实际替换。获取访问密钥的具体步骤,请参见“ Key ID(AK)和 Secret Access Key(SK)”。 DROP FOREIGN TABLE IF EXISTS productinfoext; CREATE FOREIGN TABLE productinfoext ( productprice integer not null, productid char(30) not null, producttime date , productlevel char(10) , productname varchar(200) , producttype1 varchar(20) , producttype2 char(10) , productmonthlysalescnt integer , productcommenttime date , productcommentnum integer , productcommentcontent varchar(200) ) SERVER gsmppserver OPTIONS( LOCATION 'obs://mybucket/inputdata/productinfo obs://mybucket02/inputdata/productinfo', FORMAT 'CSV' , DELIMITER ',', ENCODING 'utf8', HEADER 'false', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', FILLMISSINGFIELDS 'true', IGNOREEXTRADATA 'true' ) READ ONLY LOG INTO productinfoerr PER NODE REJECT LIMIT 'unlimited'; 返回如下信息表示创建成功: CREATE FOREIGN TABLE
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        教程:从OBS导入数据到集群
      • 设置挂载参数
        前提条件 Everest插件版本要求1.2.8及以上版本。 插件主要负责将挂载参数识别并传递给底层存储,指定参数有否有效依赖于底层存储是否支持。 约束与限制 挂载参数暂不支持安全容器。 在PV中设置挂载参数 在PV中设置挂载参数可以通过mountOptions字段实现,如下所示,mountOptions支持挂载的字段请参见文件存储挂载参数和对象存储挂载参数。 apiVersion: v1 kind: PersistentVolume metadata: name: pvobsexample annotations: pv.kubernetes.io/provisionedby: everestcsiprovisioner spec: mountOptions:umask0027uid10000gid10000 accessModes:ReadWriteMany capacity: storage: 1Gi claimRef: apiVersion: v1 kind: PersistentVolumeClaim name: pvcobsexample namespace: default csi: driver: obs.csi.everest.io fsType: obsfs volumeAttributes: everest.io/obsvolumetype: STANDARD everest.io/region: cnnorth4 storage.kubernetes.io/csiProvisionerIdentity: everestcsiprovisioner volumeHandle: obsnormalstaticpv persistentVolumeReclaimPolicy: Delete storageClassName: csiobs PV创建后,可以创建PVC关联PV,然后在工作负载的容器中挂载。 在StorageClass中设置挂载参数 在StorageClass中设置挂载参数同样可以通过mountOptions字段实现,如下所示,mountOptions支持挂载的字段请参见文件存储挂载参数和对象存储挂载参数。 apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csiobsmountoption mountOptions:umask0027uid10000gid10000 parameters: csi.storage.k8s.io/csidrivername: obs.csi.everest.io csi.storage.k8s.io/fstype: s3fs everest.io/obsvolumetype: STANDARD provisioner: everestcsiprovisioner reclaimPolicy: Delete volumeBindingMode: Immediate StorageClass设置好后,就可以使用这个StorageClass创建PVC,从而动态创建出的PV会默认带有StorageClass中设置挂载参数。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        设置挂载参数
      • 产品架构和功能原理
        本节介绍了产品架构和功能原理的相关内容。 DRS的产品架构以及功能原理如下图所示: 图 DRS产品架构 架构说明 最小权限设计 a. 采用JDBC连接,无需在用户的源数据库、目标数据库节点部署程序。 b. 任务独立虚拟机运行独享资源,租户之间数据隔离。 c. 采用最小IP资源,在源数据库、目标数据库仅开放DRS数据迁移实例节点IP访问权限,无需增加网段。 可靠性设计 a. 连接异常自动重试:当网络闪断、数据库倒换等场景造成DRS和数据库连接异常,会自动重试直到任务恢复。 b. 具备断点续传能力:源数据库或目标数据库连接出现异常时,自动记录当前回放位点,等故障修复后,自动从上一次位点接续回放,保证同步数据的一致性。 c. DRS迁移实例所在虚拟机故障,业务自动切换到新虚拟机并保证IP不变,保证迁移任务正常。 实时迁移基本原理 图 实时迁移原理 以“全量+增量”迁移为例,完整的迁移分为四个阶段。 a. 第一阶段:结构迁移。DRS服务会从源数据库查询到用户选择迁移的库、表、主键等对象,然后在目标数据库创建这些对象。 b. 第二阶段:全量数据迁移。DRS服务会通过并行技术,以最高效的资源利用,从源数据库查询到当前所有数据,并在目标数据库进行插入。在全量数据迁移启动前,会提前进行增量数据抽取保存,以便在第三阶段增量数据迁移时,能够和全量数据接续,保证数据的完整性和一致性。 c. 第三阶段:增量数据迁移。全量任务结束后,增量迁移任务启动,此时会从全量开始的增量数据持续的解析转换和回放,直到追平当前的增量数据。 d. 第四阶段:为了防止触发器、事件在迁移阶段对于数据的操作,在结束任务阶段再迁移触发器、事件。 全量数据迁移的底层模块主要原理: 分片模块:通过优化的分片算法,计算每个表的分片逻辑 抽取模块:根据计算的分片信息并行多任务从源数据库查询数据 回放模块:将抽取模块查询的数据并行多任务插入目标数据库 增量数据迁移的底层实现模块主要原理: 日志读取模块:日志读取模块从源数据库读取原始增量日志数据(例如MySQL为binlog),经过解析转换为标准的日志格式存储在本地。 日志回放模块:日志回放模块根据日志读取模块转换的标准格式增量日志,根据用户的选择策略进行加工过滤,将增量数据同步到目标数据库。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品架构和功能原理
      • 查询存储池信息详情
        枚举参数 无 请求示例 请求url 无 请求头header {} 请求体body { "regionID": "41f64827f25f468595ffa3a5deb5d15d" } 响应示例 { "returnObj": { "poolList": [ { "poolName": "DSSSSD", "status": "ACTIVE", "totalCapacity": 61440, "freeCapacity": 2345, "actualUsedCapacity": 75, "volumeNO": 135, "diskType": "SAS", "expireTime": 1678501018000, "createTime": 1676081790000, "resourceUUID": "0ae97ef56ee244af9d051a509b0a1be6" }, { "poolName": "DSSSSD", "status": "ACTIVE", "totalCapacity": 42440, "freeCapacity": 345, "actualUsedCapacity": 75, "diskType": "SSD", "expireTime": 1678500768000, "volumeNO": 35, "createTime": 1676081534000, "resourceUUID": "db9d4a8d32ba40d5b3673427e42062dd" } ] }, "message": "SUCCESS", "description": "成功", "statusCode": 800 } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        专属云(计算独享型)
        API参考
        API
        2022-11-30
        新版
        信息查询管理
        查询存储池信息详情
      • Redis 6.0 Cluster主备实例测试数据
        测试环境说明 项目 说明 测试实例规格 基础Cluster版双副本24G(3分片)。 测试实例引擎版本 6.0。 测试实例地域和可用区 上海36 可用区1。 压测机器的规格 c7.4xlarge.2。 压测机器的操作系统 CTyunOS 2.0.121.06.4 64位。 压测机器地域和可用区 上海36 可用区1。 压测机器网络 与Redis实例为相同VPC区,与Redis实例可通过VPC连接。 压测工具 redisbenchmark。 测试命令 redisbenchmark h ${host} p ${port} cluster a ${password} c ${connectionnum} n 20000000 d 32 r 2000000 t set,get threads 8 说明 参数说明,根据具体情况替换: ${host}: Redis连接地址 , ${port}:Redis服务端口, ${password} : 密码 , ${connectionnum}: 连接数。 测试结果 以下测试结果仅供参考,不同的机器环境和网络波动等客观条件可能产生性能差异。 性能指标说明: 性能指标 说明 QPS Query Per Second,表示每秒处理的请求数,单位是次/秒。 延迟 操作的平均延迟时间,单位为毫秒(ms)。 %延迟 比如99%操作延迟,指99%操作的最大延迟时间,单位为毫秒(ms)。例如该指标的值为15毫秒,表示99%的请求可以在15毫秒内被处理。 表1 SET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 420300.53 2.299 3.159 3.687 基础Cluster版双副本24G(3分片) X86 3000 426721.28 6.760 9.415 12.143 基础Cluster版双副本24G(3分片) X86 10000 358937.53 25.451 39.487 211.583 增强Cluster版双副本24G(3分片) X86 1000 638814.38 1.347 1.855 2.279 增强Cluster版双副本24G(3分片) X86 3000 637999.25 4.053 6.167 7.535 增强Cluster版双副本24G(3分片) X86 10000 571037.06 14.612 23.407 26.831 表2 GET 命令的测试结果 实例规格 CPU类型 连接数 QPS 平均延迟(ms) 95%延迟(ms) 99%延迟(ms) 基础Cluster版双副本24G(3分片) X86 1000 456173.19 2.107 2.47 2.879 基础Cluster版双副本24G(3分片) X86 3000 445950.78 6.493 7.343 209.535 基础Cluster版双副本24G(3分片) X86 10000 402909.00 24.075 35.007 238.719 增强Cluster版双副本24G(3分片) X86 1000 746212.94 1.162 1.671 2.399 增强Cluster版双副本24G(3分片) X86 3000 738525.19 3.367 4.855 6.439 增强Cluster版双副本24G(3分片) X86 10000 652209.31 11.310 16.975 209.279
        来自:
        帮助文档
        分布式缓存服务Redis版
        性能白皮书
        Redis 6.0 Cluster主备实例测试数据
      • 版本发布记录
        本节介绍了版本发布记录。 版本号说明 分布式缓存服务Redis的版本号格式为:a.b.c.d,版本号具体含义如下。 a: 主版本号,代表大版本。 b: 次版本号。 c: 修订版本号。 d: 补丁版本号。 更新级别说明 更新级别分为LOW、MEDIUM和HIGH,不同更新级别说明如下。 LOW:一般级别,新增日常功能的版本。 MEDIUM:推荐级别, 除了包含新增日常功能外,还包含功能模块的优化。 HIGH:重要级别,除了包含新增日常功能,功能模块优化外,还包含影响稳定性或安全性的问题修复的重要升级。 小版本发布记录 表 Redis 7内核版本发布记录 版本号 更新级别 发布日期 类型 说明 7.2.11.0 HIGH 2025.12 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 7.2.10.0 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023、CVE202527151。 7.2.9.0 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 7.2.8.1 HIGH 20257 功能优化 增强稳定性。 7.2.8.0 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。 修复CVE202451741安全漏洞。 表 Redis 6内核版本发布记录 版本号 更新级别 发布日期 类型 说明 6.2.20.0 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 6.2.19.0 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 6.2.17.2 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 6.2.17.1 HIGH 20257 功能优化 增强稳定性。 6.2.17.0 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。 表 Redis 5内核版本发布记录 版本号 更新级别 发布日期 类型 说明 5.0.14.10 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 5.0.14.9 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 5.0.14.8 MEDIUM 20259 缺陷修复 修复stream类型删除时有可能导致节点崩溃的问题。 5.0.14.7 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 5.0.14.6 HIGH 20257 功能优化 增强稳定性。 表 Redis 4内核版本发布记录 版本号 更新级别 发布日期 类型 说明 4.0.14.27 HIGH 202512 缺陷修复 修复安全漏洞CVE202546819、CVE202546818、CVE202546817、CVE202549844。 4.0.14.26 HIGH 202510 缺陷修复 修复安全漏洞CVE202548367、CVE202532023。 4.0.14.25 HIGH 20258 缺陷修复 修复安全漏洞CVE202521605。 4.0.14.24 HIGH 20257 功能优化 增强稳定性。 4.0.14.23 HIGH 20256 缺陷修复 修复CVE202446981安全漏洞。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        版本发布记录
      • 签名信息应用
        lSignature base64(hmacsha256(kdate,stringtosign)) stringtosign:待签名字符串 kdate:构造动态秘钥 EopAuthorization ctyuneopak Headerheaders Signature headers:排序后的签名的请求头名称 若需要签名的请求头为 eopdate 和 host,那么 headers 的值为: nctyuneopak Headereopdate;host Signaturexad01/ada 请求所需头部为: EopAuthorization,例:ctyuneopak Header ctyuneoprequestid;eopdate Signaturexad01/ada eopdate,例:20211221T163614Z ctyuneoprequestid,例:123456789
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        如何调用API
        鉴权
        签名信息应用
      • 1
      • ...
      • 19
      • 20
      • 21
      • 22
      • 23
      • ...
      • 415
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      公共算力服务

      科研助手

      一站式智算服务平台

      人脸实名认证

      人脸活体检测

      动作活体识别

      推荐文档

      订购

      订购

      普通连接

      法律法规

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号