云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云平台_相关内容
      • 预算管理
        在预算管理页面,可以创建或编辑预算。 创建预算 1.选择预算类型 2.设置预算 a、预算名称:预算的名称,必须唯一。 b、预算范围 服务标识:必选。 账单类型:包周期、按需。 付费类型:预付费、后付费。 重置周期:可选月、季、年。预算从开始月份的第一天起统计,并在每个月1号0点重置。 标签:可按标签选择。 起止日期:选择预算管理的开始结束时间。 c、预算计划 预算计划方式:每月固定,每月不同。 预算金额:设定预算的金额,超过金额则会生成异常。 3.设置提醒 预警对象:本期实际值。 阈值类型:固定值、百分比。 最大阈值:当对应值超过预算值阈值时进行预警。 接受方式:邮件、短信。 接收人:可设置选择多个接收人。 4.确认 确认并提交。 查看编辑预算 当您想要编辑预算信息时,您可单击预算管理操作列的“编辑”,可以对预算模板中的预算信息进行修改。
        来自:
        帮助文档
        费用中心
        成本管理
        预算管理
      • 部署HBlock
        本节主要介绍部署HBlock集群版。 部署HBlock的步骤主要步骤为: 1. 安装前准备:在每台服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器、龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在每台服务器上准备一个或多个目录作为HBlock数据目录(每台服务器上的目录可以不同),用来存储HBlock数据,如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 说明 建议安装目录不要与数据目录共用磁盘或文件系统。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock: 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在每台服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { { s serve r } { SERVERIP [:PORT ][:PATH] & } & topologyfile TOPOLOGYFILE } [ {C clusternetwork } CIDR ] [ { P publicnetwork } CIDR ] [ faultdomain FAULTDOMAIN ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ dataport 1 DATAPORT1 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport5 MANAGEMENTPORT5 ] [ managementport6 MANAGEMENTPORT6 ] [ metadataport1 METADATAPORT1 ] [ metadataport2 METADATAPORT2 ] [ metadataport3 METADATAPORT3 ] [ metadataport4 METADATAPORT4 ] [ metadataport5 METADATAPORT5 ] [ metadataport6 METADATAPORT6 ] [ metadataport7 METADATAPORT7 ] [ metadataport8 METADATAPORT8 ] [ cs SERVERIP,SERVERIP,SERVERIP ] [ mdm SERVERIP,SERVERIP ] [ ls SERVERIP,SERVERIP,SERVERIP ] 说明 可以通过web、命令行和API进行初始化HBlock。可以在已经安装的HBlock的任一台服务器上执行初始化。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载。 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号: ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] [ num SERVERNUMBER ] [ server SERVERID & ] 说明 如果允许iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capac ity } CAPACITY { t target } TARGETNAME [ pool POOL ] [ cachepool CACHEPOOL ] [ { a ha } HIGHAVAILABILITY ] [ { c localstorageclass } LOCALSTORAGECLASS ] [ minreplica MINREPLICA ] [ ecfragmentsize ECFRAGEMENTSIZE ] [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-集群版
        部署HBlock
      • Windows云主机如何配置多用户登录?(Windows 2012)
        本文向您介绍Windows云主机如何配置多用户登录(Windows 2012)。 操作场景 本文档指导您配置Windows云主机实现多用户登录,以Windows Server 2012标准版R2中文版操作系统的云主机为例。 说明 远程桌面授权仅支持120天,过期后将因缺失远程桌面授权服务器许可证而导致多用户登录无法使用,需激活远程桌面授权。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考 操作须知 请确保云主机带宽资源充足,避免由于多用户同时操作负载过高导致云主机卡顿或登录异常。 所在安全组入方向已开放云主机登录使用的端口,默认使用3389端口。 云主机已经绑定弹性公网IP。 配置多用户登录后,不同的用户登录云服务器操作互相之间无影响。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考多用户登录Windows主机时无法打开浏览器。 操作步骤 步骤一:安装桌面会话主机和远程桌面授权。 1. 登录弹性云主机。 2. 在操作系统界面, 打开“服务器管理器”,单击“添加角色和功能”。 3. 保持默认参数,单击“下一步”。 4. 左侧导航栏选择“安装类型”,选择“基于角色或基于功能的安装”,单击“下一步”。 5. 左侧导航栏选择“服务器选择”,选择“从服务器池中选择服务器”,单击“下一步”。 6. 左侧导航栏选择“服务器角色”,选择“远程桌面服务”,单击“下一步”。 7. 左侧导航栏选择“功能”,在此页面保持默认参数,单击两次“下一步”。 8. 左侧导航栏选择“角色服务”,在此界面依次选择“远程桌面会话主机”和“远程桌面授权”,在弹出的窗口单击“添加功能”,单击“下一步”。 9. 确认在云主机上安装的角色,单击“安装(I)”。 10. 安装完成后,重启云主机。 第二步:允许多用户远程连接云主机。 1. 在运行里输入 gpedit.msc,打开计算机本地组策略 2. 选择“计算机配置>管理模板>windows组件>远程桌面服务>远程桌面会话主机>连接”,并依次设置“允许用户通过使用远程桌面服务进行远程连接”、“限制连接数量”和“将远程桌面服务用户限制到单独的远程桌面” 3. 右键单击“编辑”,设置“允许用户通过使用远程桌面服务进行远程连接”设置为“已启用”。 4. 右键单击“编辑”,设置“限制连接数量”选择为已启用,可根据具体数量设置,这里示例将允许的RD最大连接数设置为999。 5. 右键单击“编辑”,“将远程桌面服务用户限制到单独的远程桌面”选择已启用,或者已禁用,请注意此处已启用和已禁用的区别。本示例勾选“已启用”。 说明 l 已启用:多个用户同时登录的多用户登录,不能单个用户多登录 例如:配置为已启用,用户A、用户B、用户C可以分别使用账号A、账号B、账号C同时登录云主机,但是不支持用户A、用户B、用户C使用同一个账号同时登录云主机 l 已禁用:单个用户同时多个登录的多用户登录 例如:配置为已禁用,用户A、用户B、用户C可以使用同一个账号同时登录云主机 6. 运行cmd,输入 gpupdate /force,强制执行本地组策略,重启服务器,整个配置过程完成。 第三步:配置新用户并加入远程桌面用户组。 1. 在运行中输入 lusrmgr.msc,打开本地用户和组,进行新用户创建。 2. 单击“用户”,在空白处右键选择新用户。 3. 填写新用户信息,单击“创建”。 4. 单击“组”,双击打开Remote Desktop Users组,单击“添加”。 5. 进入选择用户界面,单击“高级”。 6. 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 7. 单击“确定”,添加用户到Remote Dsektop Users组。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        多用户登录
        Windows云主机如何配置多用户登录?(Windows 2012)
      • 使用限制
        集群扩容和缩容 不支持自动扩缩容集群中的 Master 节点,仅对集群的node工作节点进行自动扩容缩容。 用户在扩容集群规模时必须满足用户配额(ECS节点、弹性IP等)的前提,如果用户配额不满足,需要提交工单,申请扩大配额。 存储卷 云硬盘存储卷使用约束: 云硬盘不支持跨可用区挂载,且不支持被多个工作负载、同一个工作负载的多个实例或多个任务使用。由于CCE集群各节点之间暂不支持共享盘的数据共享功能,多个节点挂载使用同一个云硬盘可能会出现读写冲突、数据缓存冲突等问题,所以创建无状态工作负载时,若使用了EVS云硬盘,建议工作负载只选择一个实例。 1.19.10以下版本的集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,当新Pod被调度到另一个节点时,会导致之前Pod不能正常读写。 1.19.10及以上版本集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,新Pod会因为无法挂载云硬盘导致无法成功启动。 文件存储卷使用约束: 支持多个PV挂载同一个SFS或SFS Turbo,但有如下限制: 1. 多个不同的PVC/PV使用同一个底层SFS或SFS Turbo卷时,如果挂载至同一Pod使用,会因为PV的volumeHandle参数值相同导致无法为Pod挂载所有PVC,出现Pod无法启动的问题,请避免在同一个Pod中挂载相同的SFS或SFS Turbo。 2. PV中persistentVolumeReclaimPolicy参数建议设置为Retain,否则可能存在一个PV删除时级联删除底层卷,其他关联这个底层卷的PV会由于底层存储被删除导致使用出现异常。 3. 重复用底层存储时,建议在应用层做好多读多写的隔离保护,防止产生的数据覆盖和丢失。 对象存储卷使用约束如下: 使用对象存储时,挂载点不支持修改属组和权限。 使用PVC挂载对象存储时,负载每挂载一个对象存储卷,后端会产生一个常驻进程。当负载使用对象存储数过多或大量读写对象存储文件时,常驻进程会占用大量内存,为保证负载稳定运行,建议负载使用的对象存储卷数量不超过其申请的内存GiB数量,如负载的申请的内存规格为4GiB,则建议其使用的对象存储数不超过4。 安全容器不支持使用对象存储。 挂载普通桶时不支持硬链接(Hard Link)。 在工作负载中挂载OBS存储卷声明时,不支持只读模式(readonly)。 本地持久卷使用约束: 本地持久卷仅在集群版本> v1.21.2r0 时支持,且需要everest插件版本>2.1.23,推荐使用>2.1.23版本。 移除节点、删除节点、重置节点和缩容节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。移除节点、删除节点、重置节点和缩容节点时使用了本地持久存储卷的Pod会从待删除、重置的节点上驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。节点重置完成后,Pod可能调度到重置好的节点上,此时Pod会一直处于creating状态,因为该PVC对应的底层逻辑卷已不存在。 请勿在节点上手动删除对应的存储池或卸载数据盘,否则会导致数据丢失等异常情况。 本地持久卷不支持被多个工作负载或多个任务同时挂载。 本地临时卷使用约束: 本地临时卷仅在集群版本> v1.21.2r0 时支持,且需要everest插件版本>1.2.29。 请勿在节点上手动删除对应的存储池或卸载数据盘,否则会导致数据丢失等异常情况。 请确保节点上Pod不要挂载/var/lib/kubelet/pods/目录,否则可能会导致使用了临时存储卷的Pod无法正常删除。 快照与备份使用约束: 快照功能仅支持v1.15及以上版本的集群,且需要安装基于CSI的everest插件才可以使用。 基于快照创建的云硬盘,其子类型(普通IO/高IO/超高IO)、是否加密、磁盘模式(VBD/SCSI)、共享性(非共享/共享)、容量等都要与快照关联磁盘保持一致,这些属性查询和设置出来后不能够修改。 只有可用或正在使用状态的磁盘能创建快照,且单个磁盘最大支持创建7个快照。 创建快照功能仅支持使用everest插件提供的存储类(StorageClass名称以csi开头)创建的PVC。使用Flexvolume存储类(StorageClass名为ssd、sas、sata)创建的PVC,无法创建快照。 加密磁盘的快照数据以加密方式存放,非加密磁盘的快照数据以非加密方式存放。 LVM 配置约束: 节点中LVM的backup功能已修改默认配置(位于/etc/lvm/lvm.conf路径):安装存储插件Everest(> 2.4.98)后,Archive保留时间会被约束为1天,以防止大量LVM操作的历史元数据侵占磁盘空间。
        来自:
        帮助文档
        云容器引擎
        产品简介
        使用限制
      • 步骤一:创建实例
        本章节会介绍天翼云关系型数据库如何创建新实例。 操作场景 本节将介绍在关系型数据库服务的管理控制台创建实例的过程。 RDS for MySQL支持“包年/包月”和“按需计费”购买,您可以根据业务需要定制相应计算能力和存储空间的关系型数据库实例。 操作步骤 步骤 1. 登录管理控制台。 步骤 2. 单击管理控制台左上角的,选择区域和项目。 步骤 3. 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4. 在“实例管理”页面,单击“创建数据库实例”。 步骤 5. 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 图1 创建数据库实例 计费模式 包年/包月 : 若选择该模式,跳过步骤1,执行步骤2。 按需计费 : 若选择该模式,继续执行步骤1。 表1 基本信息 参数 描述 :: 区域 租户当前所在区域,也可在页面左上角切换。 说明 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 实例名称 实例名称长度在4个到64个字符之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库引擎 MySQL。 数据库版本 不同区域所支持的数据库版本不同,请以实际界面为准。 选用MySQL数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 实例类型+可用区 主备:备机提高了实例的可靠性,创建主机的过程中,同步创建备机,备机创建成功后,用户不可见。 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主备实例,备机的选择和主机可用区对应情况: − 相同,主机和备机会部署在同一个可用区。 − 不同(默认),主机和备机会部署在不同的可用区,以提供不同可用区之间的故障转移能力和高可用性。 单机:采用单个数据库节点部署架构,与主流的主备实例相比,它只包含一个节点,但具有高性价比。适用于个人学习、微型网站以及中小企业的开发测试环境。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区可在创建实例时选择,后期可修改。 表2 规格与存储 参数 描述 :: 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 创建成功后可进行规格变更 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 普通I/O:磁盘类型SATA,最大吞吐量90MB/s 高I/O:磁盘类型SAS,最大吞吐量150MB/s 超高I/O:磁盘类型SSD,最大吞吐量350MB/s 存储池 只有选择“专属存储”的用户才有此选项,是购买专属分布式存储服务时确定的独享的存储池,该存储池与其他池物理隔离,安全性高。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。存储空间支持40GB到4000GB,用户选择容量大小必须为10的整数倍。 数据库创建成功后可进行扩容。 表3 网络 参数 描述 虚拟私有云 关系型数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可选的虚拟私有云,关系型数据库服务默认为您分配资源。 说明 目前RDS实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效,创建关系型数据库实例的子网默认开启DHCP功能,不可关闭。 创建实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址可修改。 内网安全组 内网安全组限制实例的安全访问规则,加强关系型数据库服务与其他服务间的安全访问。请确保所选取的内网安全组允许客户端访问数据库实例。 如果不创建内网安全组或没有可选的内网安全组,关系型数据库服务默认为您分配内网安全组资源。 表4 数据库配置 参数 描述 :: 管理员帐户 数据库的登录名默认为root。 管理员密码 所设置的密码长度为8~32个字符,至少包含大写字母、小写字母、数字、特殊字符三种字符的组合,其中允许输入!@
        来自:
        帮助文档
        关系数据库MySQL版
        快速入门
        通过内网连接MySQL实例
        步骤一:创建实例
      • 创建克隆卷
        参数 参数 描述 n LUNNAME 或name LUNNAME 指定克隆卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 s SNAPSHOTNAME 或snapshot SNAPSHOTNAME 指定克隆卷关联的快照名称。 取值:字符串形式,长度范围是1~256,只能由字母、数字、短横线( )、下划线( )组成,字母区分大小写,且仅支持以字母或数字开头。 t TARGETNAME 或 target TARGETNAME 指定克隆卷关联的iSCSI target名称,可以跟源卷的iSCSI target不同。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI target名称不存在,那么同时创建iSCSI target,新创建iSCSI target的回收策略默认为Delete。 p CAPACITY 或 capacity CAPACITY 指定克隆卷的容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 默认为快照时刻的源卷容量,如果重新设置,则必须大于等于快照时刻的源卷的容量。 priority SERVERID & 指定克隆卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI target名称已经存在,且指定的服务器必须是iSCSI target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的克隆卷主备分布优先级自动进行主备切换(仅集群版支持),即针对克隆卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 POOL 与CACHEPOOL不能设置为同一个存储池。 当克隆卷的POOL 与CACHEPOOL 配置与源卷一致,无需额外设置。若单独设置了克隆卷的POOL 或CACHEPOOL ,则不再沿用源卷的POOL 和CACHEPOOL ,而是采用所设参数值。例如,源卷同时有CACHEPOOL 和POOL ,若克隆卷仅重新设置了POOL 而未设置CACHEPOOL ,则克隆卷仅使用新设置的POOL ,无CACHEPOOL ;反之,若克隆卷设置了CACHEPOOL ,则必须同时设置POOL ,或者让POOL使用基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。默认值与源卷的配置一致。 注意 POOL 与CACHEPOOL不能设置为同一个存储池。 当克隆卷的POOL 与CACHEPOOL 配置与源卷一致,无需额外设置。若单独设置了克隆卷的POOL 或CACHEPOOL ,则不再沿用源卷的POOL 和CACHEPOOL ,而是采用所设参数值。例如,源卷同时有CACHEPOOL 和POOL ,若克隆卷仅重新设置了POOL 而未设置CACHEPOOL ,则克隆卷仅使用新设置的POOL ,无CACHEPOOL ;反之,若克隆卷设置了CACHEPOOL ,则必须同时设置POOL ,或者让POOL使用基础存储池。 a HIGHAVAILABILITY或 ha HIGHAVAILABILITY 指定克隆卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为源卷的高可用类型。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 指定克隆卷的冗余模式(仅集群版支持)。 注意 如果设置了克隆卷的minreplica MINREPLICA 或redundancyoverlap REDUNDANCYOVERLAP,则必须同时指定该参数。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N +M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 指定克隆卷的最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 注意 如果指定该参数,则必须指定克隆卷的localstorageclass LOCALSTORAGECLASS。 取值: 如果没有指定克隆卷的localstorageclass LOCALSTORAGECLASS:默认值为源卷的最小副本数。 如果指定了克隆卷的localstorageclass LOCALSTORAGECLASS:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定克隆卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localstorageclass LOCALSTORAGECLASS。 取值: 如果没有指定克隆卷的localstorageclass LOCALSTORAGECLASS:默认值为源卷的折叠副本数。 如果指定了克隆卷的localstorageclass LOCALSTORAGECLASS:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 指定克隆卷的纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 o SECTORSIZE 或 sectorsize SECTORSIZE 指定克隆卷的扇区大小。 取值:512、4096,单位是bytes。默认值为源卷的扇区大小。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 克隆卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认为源卷的写策略。 P PATH 或 path PATH 指定存储克隆卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建克隆卷时不指定数据目录,默认与源卷配置保持一致。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建克隆卷
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 包年/包月计费
        二、SFS Turbo 提供包周期类型的包年包月计费,不允许超包。SFS Turbo提供线性包周期和阶梯包周期两种资费。 1、阶梯包周期和线性包周期的区别 包周期方式 阶梯包周期(调整前) 线性包周期(调整后) ::: 包规格 500GB/1TB/2TB/5TB/10TB/30TB 可以在以下规则内自定义包的大小; 标准型和性能型均500GB起步,步长为1GB,上限为32TB; 标准型增强版/性能型增强版均10TB起步,步长1GB,上限为320TB; 产品类型支持 标准型/性能型 标准型/性能型/标准型增强版/性能型增强版 包年优惠 标准资费包1年享受8.5折 标准资费包1年享受8.5折、包2年享受7折、包3年享受7折优惠 影响范围 用户已购包周期文件系统沿用调整前的规格及业务规则,不支持阶梯包周期与线性包周期之间的转换; 所有新购包周期文件系统执行调整后的规格。 备注:天翼云各节点的调整进度请以官网公告为准 2、线性包周期的资费标准 产品名称 计费项 资费标准(元/GB/月) 包的规则 SFS Turbo标准型 存储空间 0.4 500GB起步,步长1GB,上限32TB,1024进制 SFS Turbo性能型 存储空间 1.6 500GB起步,步长1GB,上限32TB,1024进制 SFS Turbo标准型增强版 存储空间 0.4 10TB起步,步长1GB,上限320TB,1024进制 SFS Turbo性能型增强版 存储空间 1.6 10TB起步,步长1GB,上限320TB,1024进制 备注:标准资费包1年享受8.5折、包2年享受7折、包3年享受7折优惠 新规格: 产品规格 计费模式 计费单位 标准资费 备注 20MB/s/TiB 包月 元/GB/月 0.24 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包月 元/GB/月 0.4 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包月 元/GB/月 0.9 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包月 元/GB/月 1.31 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包月 元/GB/月 2.16 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包月 元/GB/月 3.83 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包1年 元/GB/年 2.64 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包1年 元/GB/年 4.4 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包1年 元/GB/年 9.9 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包1年 元/GB/年 14.4 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包1年 元/GB/年 23.76 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包1年 元/GB/年 42.13 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包2年 元/GB/年 4.032 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包2年 元/GB/年 6.72 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包2年 元/GB/年 15.12 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包2年 元/GB/年 22.008 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包2年 元/GB/年 36.288 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包2年 元/GB/年 64.344 1.2TB起售,步长1.2TB,上限1024TB 20MB/s/TiB 包3年 元/GB/年 4.752 3.6TB起售,步长1.2TB,上限1024TB 40MB/s/TiB 包3年 元/GB/年 7.92 1.2TB起售,步长1.2TB,上限1024TB 125MB/s/TiB 包3年 元/GB/年 17.82 1.2TB起售,步长1.2TB,上限1024TB 250MB/s/TiB 包3年 元/GB/年 25.938 1.2TB起售,步长1.2TB,上限1024TB 500MB/s/TiB 包3年 元/GB/年 42.768 1.2TB起售,步长1.2TB,上限1024TB 1000MB/s/TiB 包3年 元/GB/年 75.834 1.2TB起售,步长1.2TB,上限1024TB 3、阶梯包周期的资费标准 文件系统类型 包周期规格 标准资费(元/月) ::: SFS Turbo标准型 500G 200 SFS Turbo标准型 1T 400 SFS Turbo标准型 2T 800 SFS Turbo标准型 5T 2000 SFS Turbo标准型 10T 4000 SFS Turbo标准型 30T 12000 SFS Turbo性能型 500G 800 SFS Turbo性能型 1T 1600 SFS Turbo性能型 2T 3200 SFS Turbo性能型 5T 8000 SFS Turbo性能型 10T 16000 SFS Turbo性能型 30T 48000 备注: 标准资费包1年享受8.5折优惠 上表中TB与GB按“1TB1000GB”计算 4、SFS Turbo标准型专属、SFS Turbo性能型专属尚不支持包年包月计费方式
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        包年/包月计费
      • 以OpenTelemetry方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry Go SDK上报Go应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry Go SDK提供了Go语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1. 添加OpenTelemetry Go依赖。 plaintext package main import ( "context" "flag" "go.opentelemetry.io/contrib/instrumentation/net/http/httptrace/otelhttptrace" "go.opentelemetry.io/contrib/instrumentation/net/http/otelhttp" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/baggage" "go.opentelemetry.io/otel/exporters/otlp/otlptrace" "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracehttp" "go.opentelemetry.io/otel/sdk/resource" sdktrace "go.opentelemetry.io/otel/sdk/trace" semconv "go.opentelemetry.io/otel/semconv/v1.17.0" "go.opentelemetry.io/otel/trace" "io" "log" "net/http" "net/http/httptrace" "time" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化OpenTelemetry Go SDK。 (注意需将token和endpoint替换成相应地域的接入点信息。) 注意 需将token和endpoint替换成相应地域的接入点信息。 方式1:使用HTTP协议上报数据。 plaintext func initProvider() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", // 替换成token信息 } path : flag.String("path", "/v1/traces", "path") traceClient : otlptracehttp.NewClient( otlptracehttp.WithEndpoint(" "), // 替换成otel http的上报地址。 otlptracehttp.WithURLPath(path), otlptracehttp.WithHeaders(auth), otlptracehttp.WithInsecure()) otlptracehttp.WithCompression(1) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemo"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 方式2:使用gRPC协议上报数据。 plaintext func initProviderGrpc() func() { ctx : context.Background() auth : map[string]string{ "xctgauthorization": " ", //接入流程里面获取token信息 } traceClient : otlptracegrpc.NewClient( otlptracegrpc.WithInsecure(), otlptracegrpc.WithEndpoint(" "), //替换成grpc接入信息 otlptracegrpc.WithHeaders(auth), otlptracegrpc.WithDialOption(grpc.WithBlock())) log.Println("start to connect to server") traceExp, err : otlptrace.New(ctx, traceClient) handleErr(err, "Failed to create the collector trace exporter") res, err : resource.New(ctx, resource.WithFromEnv(), resource.WithProcess(), resource.WithTelemetrySDK(), resource.WithHost(), resource.WithAttributes( // 在APM控制台显示的服务名称。 semconv.ServiceNameKey.String("otelgoclientdemoprovider"), // 在APM控制台显示的主机名称。 semconv.HostNameKey.String("yourhostname"), // 在APM控制台显示的服务端地址。 semconv.NetSockHostAddr("serviceaddr"), // 在APM控制台显示的客户端地址。 semconv.NetSockPeerAddr("clientaddr"), ), ) handleErr(err, "failed to create resource") bsp : sdktrace.NewBatchSpanProcessor(traceExp) tracerProvider : sdktrace.NewTracerProvider( sdktrace.WithSampler(sdktrace.AlwaysSample()), sdktrace.WithResource(res), sdktrace.WithSpanProcessor(bsp), ) otel.SetTracerProvider(tracerProvider) return func() { cxt, cancel : context.WithTimeout(ctx, time.Second) defer cancel() if err : traceExp.Shutdown(cxt); err ! nil { otel.Handle(err) } } } 4. client端上报例子。 plaintext func sendReq(url string, ctx context.Context) { // 构造一个trace client client : http.Client{ Transport: otelhttp.NewTransport( http.DefaultTransport, otelhttp.WithClientTrace(func(ctx context.Context) httptrace.ClientTrace { return otelhttptrace.NewClientTrace(ctx) }), ), } tr : otel.Tracer("example/client") err : func(ctx context.Context) error { ctx, span : tr.Start(ctx, "say hello", trace.WithAttributes(semconv.PeerService("ExampleService"))) defer span.End() ctx httptrace.WithClientTrace(ctx, otelhttptrace.NewClientTrace(ctx)) req, : http.NewRequestWithContext(ctx, "GET", url, nil) res, err : client.Do(req) if err ! nil { panic(err) } , err io.ReadAll(res.Body) res.Body.Close() return err }(ctx) if err ! nil { log.Fatal(err) } } func doClient(url string, ctx context.Context) { // 不断请求数据 for { sendReq(url, ctx) time.Sleep(3 time.Second) } } func main() { shutdown : initProvider() defer shutdown() url : flag.String("server", " "server url") flag.Parse() bag, : baggage.Parse("usernamexxx") ctx : baggage.ContextWithBaggage(context.Background(), bag) doClient(url, ctx) } 5. 服务端上报例子。 plaintext func handler() { uk : attribute.Key("username") //加点属性 helloHandler : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() //继续调用下一个服务最终效果是client》hello》hello1 sendReq(" ctx) } helloHandler1 : func(w http.ResponseWriter, req http.Request) { ctx : req.Context() span : trace.SpanFromContext(ctx) bag : baggage.FromContext(ctx) span.AddEvent("handling this...", trace.WithAttributes(uk.String(bag.Member("username").Value()))) , io.WriteString(w, "Hello, world!n") } otelHandler : otelhttp.NewHandler(http.HandlerFunc(helloHandler), "Hello") otelHandler1 : otelhttp.NewHandler(http.HandlerFunc(helloHandler1), "Hello1") http.Handle("/hello", otelHandler) http.Handle("/hello1", otelHandler1) } func main() { flag.Parse() shutdown : initProvider() defer shutdown() handler() err : http.ListenAndServe(":" + serverPort, nil) //nolint:gosec // Ignoring G114: Use of net/http serve function that has no support for setting timeouts. if err ! nil { log.Fatal(err) } } 6. 通过以上步骤,最后就在APM控制台的应用列表页面选择目标应用,查看监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以OpenTelemetry方式接入
      • 认证鉴权
        信息的获取 云网平台获取 登录云网门户,在“控制台”>“个人中心”>“ 第三方账号绑定 ”,通过创建或者查看获取ak,sk。 基本签名流程 ctyuneopak/ctyuneopsk基本签名流程 1、待签字符串:使用规范请求和其他信息创建待签字符串; 2、计算密钥:使用HEADER、ctyuneopsk、ctyuneopak来创建Hmac算法的密钥; 3、计算签名:使用第三步的密钥和待签字符串在通过hmacsha256来计算签名。 4、签名应用:将生成的签名信息作为请求消息头添加到HTTP请求中。 创建待签名字符串 待签名字符串的构造规则如下: 待签名字符串 需要进行签名的Header排序后的组合列表+ "n" + 排序的query + "n" + toHex(sha256(原封的body)) 需要进行签名的Header排序后的组合列表(排序的header) header 以 headername:headervalue来一个一个通过n拼接起来,EOP是强制要求ctyuneoprequestid和eopdate这个头作为Header中的一部分,并且必须是待签名Header里的一个。需要进行签名算法的Header需要进行排序(将它们的headername以26个英文字母的顺序来排序),将排序后得到的列表进行遍历组装成待签名的header。 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名。 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制。 排序的header例子: 假设你需要将ctyuneoprequestid、eopdate、host都要签名,则待签名的header构造出来是: ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n ctyuneoprequestid、eopdate和host的排序就是这个顺序,如果你加入一个ccad的header;同时这个header也要是进行签名,则待签名的header组合: ccda:123n ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n 构造动态密钥 发起请求时,需要构造一个eopdate的时间,这个时间的格式是yyyymmddTHHMMSSZ;言简意赅一些,就是年月日T时分秒Z 1、先是拿你申请来的ctyuneopsk作为密钥,eopdate作为数据,算出ktime 2、拿ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; 3、拿kAk作为密钥,eopdate的年月日值作为数据;算出kdate eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) :: Ktime 使用ctyuneopsk作为密钥,eopdate作为数据,算出ktime; Ktime hmacSha256(ctyuneopsk, eopdate) kAk 使用ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; kAk hmacsha256(ktime,ctyuneopak) kdate 使用kAk作为密钥,eopdate的年月日值作为数据;算出kdate; kdate hmacsha256(kAk, eopdate)
        来自:
      • 认证鉴权
        信息的获取 云网平台获取 登录云网门户,在“控制台”>“个人中心”>“ 第三方账号绑定 ”,通过创建或者查看获取ak,sk。 基本签名流程 ctyuneopak/ctyuneopsk基本签名流程 1、待签字符串:使用规范请求和其他信息创建待签字符串; 2、计算密钥:使用HEADER、ctyuneopsk、ctyuneopak来创建Hmac算法的密钥; 3、计算签名:使用第三步的密钥和待签字符串在通过hmacsha256来计算签名。 4、签名应用:将生成的签名信息作为请求消息头添加到HTTP请求中。 创建待签名字符串 待签名字符串的构造规则如下: 待签名字符串 需要进行签名的Header排序后的组合列表+ "n" + 排序的query + "n" + toHex(sha256(原封的body)) 需要进行签名的Header排序后的组合列表(排序的header) header 以 headername:headervalue来一个一个通过n拼接起来,EOP是强制要求ctyuneoprequestid和eopdate这个头作为Header中的一部分,并且必须是待签名Header里的一个。需要进行签名算法的Header需要进行排序(将它们的headername以26个英文字母的顺序来排序),将排序后得到的列表进行遍历组装成待签名的header。 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名。 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制。 排序的header例子: 假设你需要将ctyuneoprequestid、eopdate、host都要签名,则待签名的header构造出来是: ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n ctyuneoprequestid、eopdate和host的排序就是这个顺序,如果你加入一个ccad的header;同时这个header也要是进行签名,则待签名的header组合: ccda:123n ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n 构造动态密钥 发起请求时,需要构造一个eopdate的时间,这个时间的格式是yyyymmddTHHMMSSZ;言简意赅一些,就是年月日T时分秒Z 1、先是拿你申请来的ctyuneopsk作为密钥,eopdate作为数据,算出ktime 2、拿ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; 3、拿kAk作为密钥,eopdate的年月日值作为数据;算出kdate eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) :: Ktime 使用ctyuneopsk作为密钥,eopdate作为数据,算出ktime; Ktime hmacSha256(ctyuneopsk, eopdate) kAk 使用ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; kAk hmacsha256(ktime,ctyuneopak) kdate 使用kAk作为密钥,eopdate的年月日值作为数据;算出kdate; kdate hmacsha256(kAk, eopdate)
        来自:
        帮助文档
        VPC终端节点
        API参考
        如何调用API
        认证鉴权
      • 认证鉴权
        信息的获取 云网平台获取 登录云网门户,在“控制台”>“个人中心”>“ 第三方账号绑定 ”,通过创建或者查看获取ak,sk。 基本签名流程 ctyuneopak/ctyuneopsk基本签名流程 1、待签字符串:使用规范请求和其他信息创建待签字符串; 2、计算密钥:使用HEADER、ctyuneopsk、ctyuneopak来创建Hmac算法的密钥; 3、计算签名:使用第三步的密钥和待签字符串在通过hmacsha256来计算签名。 4、签名应用:将生成的签名信息作为请求消息头添加到HTTP请求中。 创建待签名字符串 待签名字符串的构造规则如下: 待签名字符串 需要进行签名的Header排序后的组合列表+ "n" + 排序的query + "n" + toHex(sha256(原封的body)) 需要进行签名的Header排序后的组合列表(排序的header) header 以 headername:headervalue来一个一个通过n拼接起来,EOP是强制要求ctyuneoprequestid和eopdate这个头作为Header中的一部分,并且必须是待签名Header里的一个。需要进行签名算法的Header需要进行排序(将它们的headername以26个英文字母的顺序来排序),将排序后得到的列表进行遍历组装成待签名的header。 排序的query query以&作为拼接,key和值以连接,排序规则使用26个英文字母的顺序来排序,Query参数全部都需要进行签名。 toHex(sha256(原封的body)) 传进来的body参数进行sha256摘要,对摘要出来的结果转十六进制。 排序的header例子: 假设你需要将ctyuneoprequestid、eopdate、host都要签名,则待签名的header构造出来是: ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n ctyuneoprequestid、eopdate和host的排序就是这个顺序,如果你加入一个ccad的header;同时这个header也要是进行签名,则待签名的header组合: ccda:123n ctyuneoprequestid:123456789neopdate:20210531T100101Znhost:1.1.1.1:9080n 构造动态密钥 发起请求时,需要构造一个eopdate的时间,这个时间的格式是yyyymmddTHHMMSSZ;言简意赅一些,就是年月日T时分秒Z 1、先是拿你申请来的ctyuneopsk作为密钥,eopdate作为数据,算出ktime 2、拿ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; 3、拿kAk作为密钥,eopdate的年月日值作为数据;算出kdate eopdate yyyymmddTHHMMSSZ(20211221T163614Z)(年月日T时分秒Z) :: Ktime 使用ctyuneopsk作为密钥,eopdate作为数据,算出ktime; Ktime hmacSha256(ctyuneopsk, eopdate) kAk 使用ktime作为密钥,你申请来的ctyuneopak数据,算出kAk; kAk hmacsha256(ktime,ctyuneopak) kdate 使用kAk作为密钥,eopdate的年月日值作为数据;算出kdate; kdate hmacsha256(kAk, eopdate)
        来自:
        帮助文档
        共享带宽 SBW
        API参考
        如何调用API
        认证鉴权
      • 下载并安装Agent
        本小节介绍下载并安装Agent,在数据库端或应用端安装Agent。 下载Agent Agent添加完成后,您还需要下载Agent,并根据Agent的添加方式在数据库端或应用端安装Agent。 每个Agent都有唯一的AgentID,是Agent连接数据库安全审计实例的重要密钥。若您将添加的Agent删除,在重新添加Agent后,请重新下载Agent。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 数据库已成功添加Agent。 操作步骤 1. 登录管理控制台。 2. 单击右上角的,选择区域。 3. 选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 4. 在左侧导航树中,选择“数据库安全审计 > 数据库列表”,进入数据库列表界面。 5. 在“选择实例”下拉列表框中,选择需要下载Agent的数据库所属的实例。 6. 单击数据库左侧的展开Agent的详细信息,在Agent所在行的“操作”列,单击“下载agent”,如图所示。将Agent安装包下载到本地。 请根据安装Agent节点的操作系统类型,选择下载相应的Agent安装包。 Linux操作系统 在“操作系统”为“LINUX64”的数据库中下载Agent安装包 Windows操作系统 在“操作系统”为“WINDOWS64”的数据库中下载Agent安装包 安装Agent(Linux操作系统) 安装Agent后,您才能开启数据库安全审计。通过本节介绍,您将了解如何在Linux操作系统的节点上安装Agent。 1. 将下载的Agent安装包“xxx.tar.gz”上传到待安装Agent的节点(例如使用WinSCP工具)。 2. 使用跨平台远程访问工具(例如PuTTY)以root用户通过SSH方式,登录该节点。 3. 执行以下命令,进入Agent安装包“xxx.tar.gz”所在目录。cd Agent安装包所在目录 4. 执行以下命令,解压缩“xxx.tar.gz”安装包。tar xvf xxx.tar.gz 5. 执行以下命令,进入解压后的目录。cd解压后的目录 6. 执行以下命令,查看是否有安装脚本“install.sh”的执行权限。如果有安装脚本的执行权限,请执行步骤7。如果没有安装脚本的执行权限,请执行以下操作:a.执行以下命令,添加安装脚本执行权限。chmod +x install.shb.确认有安装脚本执行权限后,请执行步骤7。 7. 执行以下命令,安装Agent。sh install.sh 说明 用户系统是Ubuntu时,执行以下命令安装Agent。 界面回显以下信息,说明安装成功。否则,说明Agent安装失败。 start agent starting audit agent audit agent started start success install dbss audit agent done! 注意 如果Agent安装失败,请您确认安装节点的运行系统是否满足Linux操作系统要求,并重新安装Agent。 8. 执行以下命令,查看Agent程序的运行状态。service auditagent status,如果界面回显以下信息,说明Agent程序运行正常,audit agent is running。
        来自:
        帮助文档
        数据库安全
        快速入门
        下载并安装Agent
      • 创建指南
        创建方式导航 本文介绍创建物理机的几种方式。 在控制中心按照流程指引创建物理机是常见的方式,您可以灵活选择配置项,确保满足业务的需求。详细操作请参见下文“创建物理机”。 如果您有常用的操作系统、应用程序等配置,可以先创建私有镜像,然后在创建物理机时选择该私有镜像,提高配置效率。详细操作请参见通过私有镜像创建物理机。 创建物理机 操作场景 本章节介绍如何使用控制中心向导创建物理机。创建物理机时,您需要配置规格、镜像、存储、网络、安全组等必备信息。同时,向导也提供了丰富的扩展配置功能,方便您进行个性化部署和管理。 前提条件 完成账号注册、实名认证且账户金额充足,请参见注册账号。 操作步骤 1. 登录天翼云,进入控制中心。 2. 在“计算 > 物理机服务”选框单击“购买”,进入物理机购买页面。 3. 在基础配置页进行选配。“地域”建议按实际需求或就近选择靠近您业务的区域,可减少网络时延,提高访问速度。“可用区”建议根据实际部署高可用需求进行选择。 4. 您可以对“实例名称”及“主机名”进行修改,并且支持批量设置有序的实例名称或主机名称。具体规则请参照下表。 场景1:不使用模式串创建单台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为231字符 • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 • Windows 系统长度为 215个字符,其他操作系统(如Linux)长度为 263个字符 • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 场景2:使用模式串创建单台实例,或者批量创建多台实例 参数 命名规则 计费模式 支持“包年/包月”和“按量付费”方式。 实例名称 • 长度为227字符({R:数字}模式串不计入字符长度) • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 主机名称 •Windows 系统长度为 211个字符,其他操作系统(如Linux)长度为 259个字符({R:数字}模式串不计入字符长度) • 允许使用大小写字母、数字、连字符 “” • 支持{R:数字}形式,且只支持使用1次,此处数字需为小于等于9799的正整数,不支持冒号“:”以及大括号“{}”两类字符单独存在或其它组合方式 • 不能连续使用 “” • 必须以字母开头,“”不能用于开头或结尾 • 不能仅使用数字 说明 1. 创建多台物理机时,默认将批量购买的实例设置为前缀相同,仅序号递增的名称,例如:我的物理机0001、我的物理机0002...... 2. 当您需要创建 n 个实例,并指定实例名称/主机名称带有序号且序号从 x 开始递增时,您可通过指定模式串命名实现。 5. 完成“规格”、“镜像”及“本地磁盘”等配置项的选配之后,单击“下一步:网络配置”。 6. 进行网络配置,包括“虚拟私有云”、 “网卡”、“安全组”、“弹性IP”等信息。 参数 说明 虚拟私有云 物理机网络使用虚拟私有云(VPC)提供的网络,包括子网、安全组等。 您可以选择使用已有的虚拟私有云网络,或者单击“控制中心创建”创建新的虚拟私有云。 安全组 安全组用来实现安全组内和安全组间物理机的访问控制,加强物理机的安全保护。用户可以在安全组中定义各种访问规则,当弹性裸金属加入该安全组后,即受到这些访问规则的保护。当您需要修改安全组时,请前往管理安全组进行操作。标准裸金属不支持安全组,需要系统内配置iptable。 网卡 默认设置主网卡,用户可根据需求设置扩展网卡。 弹性IP 弹性IP将公网IP地址和物理机绑定,通过此绑定,虚拟私有云内的物理机可以使用固定的公网IP地址对外提供访问。 可以根据实际情况选择以下三种方式:不使用:物理机不能与互联网互通,仅可作为私有网络中部署业务或者集群所需物理机进行使用。 自动分配:自动为每台物理机分配独享带宽的弹性IP,可选带宽规格为1~300Mbps。使用已有:为物理机分配已有弹性IP,使用已有弹性IP时,不能批量创建物理机。 7. 完成后,单击“下一步:高级配置”。 8. 在此完成密码配置后,单击“下一步:确认配置”。 说明 密码长度限制8到30个字符 必须包含大小写字母,同时必须包含一个数字或者特殊字符(()~!@
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        创建物理机
        创建指南
      • 数据安全概览
        总览页面分为云服务全景图(资产地图)、数据采集安全、数据传输/存储安全、数据使用安全和数据交换/删除安全共五大板块,实时呈现了用户资产的具体情况。 前提要求 已完成资产访问的授权,参考云资产委托授权/停止授权进行操作。 已完成添加数据库资产,参考数据库资产清单进行操作。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择“安全> 数据安全中心”,进入数据安全中心总览界面。 4. 查看数据安全中心服务的总览—云服务全景图。 提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。 梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。 敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。 对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。 每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。 风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。 说明 将鼠标移动到数据资产图标处,可查看资产相关信息。 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。 5. 查看数据安全中心服务的总览—数据采集安全。 DSC根据敏感数据规则对敏感数据进行识别和敏感等级分类,您可以在总览页面查看您资产中不同风险等级的数据的分布情况。 基于敏感字段在文件中出现的累计次数和敏感字段关联组来判断文件的敏感性,并根据文件的敏感程度将其划分为四个等级:“未识别风险”、“低风险”、“中风险”和“高风险”。风险等级依次递增。具体风险等级情况说明: 未识别风险:0级 低风险:1~3级 中风险:4~7级 高风险:8~10级 在柱状图中,不同高度代表该风险等级的资产数量。将鼠标箭头放置在柱状图上,可查看该风险等级的资产数量。 6. 查看数据安全中心服务的总览—数据传输/存储安全。 数据传输安全:DSC统计了以下可能存在传输安全的项,您可以直接单击具体项的名称,查看详细情况。 VPN连接数:您的资产中存在已创建的虚拟专用网络,具体的请参考《VPN服务用户指南》。 云专线连接数:您的资产中存在已创建的云专线物理连接,具体的请参考《云专线用户指南》。 ELB未采用加密通信的监听器:添加监听器时,未使用加密通信HTTPS协议的监听器数量的统计,建议您采用HTTS协议进行加密通信,具体的操作请参见修改监听器。 SSL证书订阅:您的资产中存在已购买或者已上传的证书数量,了解SSL证书请参考《SSL证书管理用户指南》。 WAF未采用加密通信的域名:WAF中添加域名时,未使用加密传输HTTPS协议的域名数量的统计,建议您采用HTTPS协议进行加密通信,具体的操作请参见修改服务器信息。 数据存储安全:该模块为您罗列了存在未加密的对象桶,为了防止您的资产存在不必要的存储安全,建议您单击对象桶名称,前往OBS界面,对未加密的对象桶进行加密。 7. 查看数据安全中心服务的总览—数据使用安全。 该模块统计了“近30分钟”、“近3小时”、“近24小时”、“近7天”、“近30天”内的数据使用安全信息。 未处理异常事件:按“数据访问异常”、“数据操作异常”、“数据管理异常”所占比例进行展示。同时,展示了异常事件总数、违例确认总数和违例排除总数。 单击“未处理异常事件”中的其中一个颜色区域,可查看指定数据异常占比。 当不需要展示某种类型的异常事件时,单击事件分布图右侧攻击类型对应的颜色方块,取消在事件分布圆环中的展示。 Top5访问源IP:前5的访问源IP的统计。 Top5被访问高风险对象:被访问的对象中,排在前5的高风险对象。 Top5访问帐号:前5的访问帐号的统计。 8. 查看数据安全中心服务的总览—数据交换/删除安全。 数据交换安全:展示了已创建的“静态脱敏任务数”以及“水印API调用次数”,如何创建数据脱敏任务请参考创建数据脱敏任务。 数据删除安全:DSC为您统计了数据库、ECS、OBS资产的当日删除数和总删除数。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据安全概览
      • 新建自定义策略
        条件键 运算符 条件值 ctyun:CurrentTime DateEquals:匹配指定日期。 DateNotEquals:不等于指定日期。 DateLessThan:早于指定日期。 DateLessThanEquals:早于或等于指定日期。 DateGreaterThan:晚于指定日期。 DateGreaterThanEquals:晚于或等于指定日期。 格式为:yyyyMMdd’T’HH:mm:ss’Z’。例如:20191218T09:00:00Z。 DateEquals和DateNotEquals精确到天,其他精确到秒。 注意 将需要设置的时间转换为UTC+0时间。 ctyun:SourceIp IpAddress:与指定IP地址或范围匹配。 NotIpAddress:除指定IP地址或范围外的所有IP地址匹配。 IPv4:点分十进制格式。 IPv6:32位16进制数,格式为X:X:X:X:X:X:X:X。 如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/3。 ctyun:userid StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不能进行模糊匹配,区分大小写。 包含数字和小写字母的32位字符。 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:username StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 区分大小写1~64位字符组成,字符只能包含字母、数字或特殊字符,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 说明 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:UserAgent StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:Referer StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:SecureTransport Bool:布尔匹配。 true。 false。 ctyun:MultiFactorAuthPresent Bool:布尔匹配。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 true。 false。 ctyun:MultiFactorAuthAge NumericEquals:与指定的值相同。 NumericNotEquals:与指定的值不同,否定匹配。 NumericLessThan:小于指定的值。 NumericLessThanEquals:小于等于指定的值。 NumericGreaterThan:大于指定的值。 NumericGreaterThanEquals:大于等于指定的值。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 整数形式,以秒为单位。 oos:prefix StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 说明 本条件键仅对ListBucket生效。 字符串形式。 oos:xamzacl StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 说明 创建Bucket时,通过使用此条件键可以控制存储桶ACL的类型,本条件键仅对PutBucket生效。 字符串形式。 取值为: private:私有。 publicread:公共读。 publicreadwrite:公共读写。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM策略
        自定义策略
        新建自定义策略
      • Statement
        条件键 运算符 条件值 ctyun:CurrentTime DateEquals:匹配指定日期。 DateNotEquals:不等于指定日期。 DateLessThan:早于指定日期。 DateLessThanEquals:早于或等于指定日期。 DateGreaterThan:晚于指定日期。 DateGreaterThanEquals:晚于或等于指定日期。 格式为:yyyyMMdd’T’HH:mm:ss’Z’。例如:20191218T09:00:00Z。 DateEquals和DateNotEquals精确到天,其他精确到秒。 注意 将需要设置的时间转换为UTC+0时间。 ctyun:SourceIp IpAddress:与指定IP地址或范围匹配。 NotIpAddress:除指定IP地址或范围外的所有IP地址匹配。 IPv4:点分十进制格式。 IPv6:32位16进制数,格式为X:X:X:X:X:X:X:X。 如果指定地址范围,IP地址后加掩码表示,如192.163.1.5/3。 ctyun:userid StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 包含数字和小写字母的32位字符串。 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:username StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 1~64个字符组成,字符只能包含字母、数字或特殊字符,特殊字符只能是:下划线()、中划线()、逗号(,)、句点(.)、加号(+)、等号()和at符号(@)。 说明 运算符为StringLike和StringNotLike,可以包含通配符。 ctyun:UserAgent StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:Referer StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 ()或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写的无效匹配。或通过填充通配符,与指定的值也不匹配。 字符串,可以包含特殊字符。 ctyun:SecureTransport Bool:布尔匹配。 true false ctyun:MultiFactorAuthPresent Bool:布尔匹配。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 true false ctyun:MultiFactorAuthAge NumericEquals:与指定的值相同。 NumericNotEquals:与指定的值不同,否定匹配。 NumericLessThan:小于指定的值。 NumericLessThanEquals:小于等于指定的值。 NumericGreaterThan:大于指定的值。 NumericGreaterThanEquals:大于等于指定的值。 说明 不建议对GetObject接口设置该条件键,否则在OOS控制台上无法下载、预览、分享文件和编辑元数据。 整数形式,以秒为单位。 oos:prefix StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 说明 本条件键仅对ListBucket生效。 oos:xamzacl StringEquals:精准匹配指定的值,区分大小写。 StringNotEquals:与指定的值不匹配,区分大小写。 StringEqualsIgnoreCase:与指定的值精准匹配,不区分大小写。 StringNotEqualsIgnoreCase:与指定的值不匹配,不区分大小写。 StringLike:与指定的值精准匹配。或通过填充通配符,与指定的值相似,可以包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。区分大小写。 StringNotLike:与指定的值不匹配,区分大小写。值可以在字符串中的任何位置包括多字符匹配的通配符 () 或单字符匹配的通配符 (?)。 字符串形式。 取值为: private:私有。 publicread:公共读。 publicreadwrite:公共读写。 说明 创建Bucket时,通过使用此条件键可以控制存储桶ACL的类型,本条件键仅对PutBucket生效。
        来自:
        帮助文档
        对象存储(经典版)I型
        控制台指南
        访问控制
        IAM策略
        IAM策略编写规则
        Statement
      • ALM-12040 系统熵值不足
        本章节主要介绍 ALM12040 系统熵值不足。 告警解释 每天零点系统检查熵值,每次检查都连续检查五次,首先检查是否启用并正确配置了rngtools工具或者haveged工具,如果没有配置,则继续检查当前熵值,如果五次均小于100,则上报故障告警。 当检查到真随机数方式已经配置或者伪随机数方式中配置了随机数参数或者没有配置但是五次检查中,至少有一次熵值大于等于100,则告警恢复。 告警属性 告警ID 告警级别 是否自动清除 12040 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 影响系统正常运行。 可能原因 haveged服务或者rngd服务异常。 处理步骤 检查并手动配置系统熵值 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 2.查看该“定位信息”中对应的“主机名”字段值,获取该告警产生的主机名。 3.以root用户登录告警所在节点。 4.执行 /bin/rpm qa grep w "haveged" 命令查看haveged安装情况,观察命令返回结果是否为空。 是,执行步骤7。 否,执行步骤5。 5.执行 /sbin/service haveged status grep "running" ,查看返回结果。 如果执行成功,表示haveged服务安装并正常配置运行,执行步骤10。 如果执行不成功,表示haveged服务没有正常运行。执行步骤7。 6.执行 /bin/rpm qa grep w "rngtools" 命令,查看rngtools安装情况,观察命令返回结果是否为空。 是,执行步骤8。 否,执行步骤7。 7.执行 ps ef grep v "grep" grep rngd tr d " " grep"o/dev/random" grep "r/dev/urandom" ,查看返回结果。 如果执行成功,表示rngd服务安装并正常配置运行,执行步骤10。 如果执行不成功,表示rngd服务并没有正常运行,执行步骤8 8.手动配置系统熵值设置,设置方法参见参考信息。 9.等待第二天零点,系统下一次熵值检查,查看告警是否自动清除。 是,操作结束。 否,执行步骤10。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12040 系统熵值不足
      • 使用新模板创建伸缩配置
        参数 解释 取值样例 区域 区域也称为Region。创建的伸缩配置所在的区域。 名称 创建伸缩配置的名称。 类型规格 公有云提供了多种类型的弹性云主机供您选择,针对不同的应用场景,可以选择不同规格的弹性云主机。根据您选择的“云主机类型”的类型,配置相应的规格参数,包括vCPU、内存、镜像类型和磁盘。 内存优化型 镜像 公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用。请根据您的实际情况自助配置应用环境或相关软件。 私有镜像 用户基于弹性云主机创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私有应用。选择私有镜像创建弹性云主机,可以节省您重复配置弹性云主机的时间。 共享镜像 用户将接受公有云其他用户共享的私有镜像,作为自己的镜像进行使用。 公共镜像 磁盘 包括系统盘和数据盘。 系统盘 普通IO:是指由SATA存储提供资源的磁盘类型。 高IO:是指由SAS存储提供资源的磁盘类型。 超高IO:是指由SSD存储提供资源的磁盘类型。 通用型SSD:是指由GPSSD存储提供资源的磁盘类型。极速型SSD:是指由ESSD存储提供资源的磁盘类型。 数据盘 您可以为云主机添加多块数据盘,或者从指定的数据盘镜像导出数据到某个数据盘。 “系统盘”选为“普通IO” 安全组 安全组是一个逻辑上的分组,用来实现安全组内和组间弹性云主机的访问控制,加强弹性云主机的安全保护。用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 弹性IP 弹性IP是指将公网IP地址和路由网络中关联的弹性云主机绑定,以实现虚拟私有云内的弹性云主机通过固定的公网IP地址对外提供访问服务。您可以根据实际情况选择以下两种方式: 不使用:弹性云主机不能与互联网互通,仅可作为私有网络中部署业务或者集群所需弹性云主机进行使用。 自动分配:自动为每台弹性云主机分配独享带宽的弹性IP,带宽值可以由您设定。 自动分配 登录方式 云平台提供两种弹性云主机鉴权方式。 密钥对:指使用密钥作为弹性云主机的鉴权方式。如果选择此方式,请在密钥对页面先创建或导入密钥对。如果您直接从下拉列表中选择已有的密钥,请确保您已在本地获取该文件,否则,将影响您正常登录弹性云主机。 账户密码:指使用设置root用户(Linux操作系统)和Administrator用户(Windows操作系统)的初始密码方式作为弹性云主机的鉴权方式,如果选择此方式,您可以通过用户名密码方式登录弹性云主机。 Admin@123 高级配置 高级配置可对文件注入、用户数据注入进行配置。可选择“暂不配置”和“现在配置”。 实例自定义数据注入 可选配置,主要用于创建弹性云主机时向弹性云主机注入用户数据。配置实例自定义数据注入后,弹性云主机首次启动时会自行注入数据信息。 对于Linux云主机,如果选择密码方式登录鉴权,此时不能使用实例自定义数据注入功能。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩配置管理
        使用新模板创建伸缩配置
      • 导出API
        概述 网关支持将API分组下的API按照OAS2.0和OAS3.0的格式导出,方便用户实现跨账号,跨地域间甚至跨平台的数据迁移。 OpenAPI 规范(OAS),是定义一个标准的、与具体编程语言无关的RESTful API的规范。 导出标准OAS格式的API定义 网关目前支持两种API导出方式 通过分组导出API定义 1. 进入 API 托管 >分组管理 菜单页。 2. 点击 导出API定义 按钮 ,在弹出框中指定导出的数据格式,环境 以及是否需要 导出API网关拓展定义 。 3. 点击导出按钮后浏览器会下载API定义压缩包. 直接批量导出API定义 1. 进入 API 托管 >API管理 菜单页。 2. 批量勾选API后在批量操作 下拉框中点击导出API定义 按钮 ,在弹出框中指定导出的数据格式,环境 以及是否需要 导出API网关拓展定义 。 3. 点击导出按钮后浏览器会下载API定义压缩包. 注意 批量导出API定义时仅支持导出同一个分组下的API API扩展定义字段 如果在导出OAS规范的定义中选择了导出API网关扩展字段,在导出的API定义文件中会添加网关的扩展字段。扩展属性被设计为总是以 "x" 为前缀的模式字段,此字段的值可以是 null、原始类型、数组或对象。可以包含任意有效的 JSON 格式的值。 扩展字段 OAS中位置 说明 类型 xctyunapigatewayapiname Operation API名称 String xctyunapigatewayisantireplay Operation 是否设置防重放攻击 Boolean xctyunapigatewaybackend Operation 后端服务定义 Object xctyunapigatewaycommonparameters Operation 常量参数定义 Object xctyunapigatewaysystemparameters Operation 系统参数定义 Object xctyunapigatewayrequestargumentmode Operation 入参请求模式 String xctyunapigatewayresponsemessages Responses 错误码错误信息 String xctyunapigatewayparameterdemo Parameter 参数定义示例值 String xctyunapigatewaybackendlocation Parameter 后端服务参数映射位置 String xctyunapigatewaybackendname Parameter 后端服务参数映射名称 String xctyunapigatewaysuccessdemo Operation 返回结果示例 String xctyunapigatewayfaileddemo Operation 失败结果示例 String xctyunapigatewayrequestbodyschema Operation 请求body引用的模型名 String xctyunapigatewayrequestbodydescription Operation 请求body内容描述 String 说明 1. 导出OAS2格式的定义时,会导出分组的base path; 2. 每次可以导出的API数量限制为50个API; 3. 分组模型管理里中定义的模型定义如果无法解析,导出的内容中将不包含模型定义; 4. 以API为单位导出时,所有勾选的API会导出到一个文件中; 5. 未勾选导出API网关扩展字段时,导出OAS文件中的OperationId为API定义的请求path和请求method的拼接后的字符串,如“export1ByGET”; 6. 勾选导出API网关扩展字段后,在API网关定义API以外的内容,如绑定的插件、授权的APP、分组的域名、后端服务在各环境上的定义等,均不会被导出。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        API托管
        分组管理
        导出API
      • 获取集群连接地址
        本章节主要介绍如何获取集群连接地址。 操作场景 数据仓库服务(DWS) 支持不同方式连接集群,不同连接方式的连接地址也不同。支持查看并获取云平台环境的内网连接地址、互联网环境的公网访问地址和JDBC连接字符串。 获取集群连接地址有以下两种方式: 在连接管理页面获取集群连接地址,以及在“集群详情”页面获取集群连接地址。 在连接管理页面获取集群连接地址 1. 登录数据仓库服务(DWS) 管理控制台。 2. 在左侧导航栏中,单击“连接管理”。 3. 在“数据仓库连接信息”区域,选择一个可用的集群名称。 只能选择状态为“可用”的集群。 4. 查看并获取集群的连接信息。 “内网访问地址” “公网访问地址” “JDBC连接字符串(内网)” “JDBC连接字符串(公网)” “ODBC连接字符串” 说明 如果创建集群时没有自动绑定弹性IP,“公网访问地址”显示为空。如果您想使用公网访问地址(由弹性IP和数据库端口组成)从互联网访问集群,可以单击“绑定弹性IP”为集群绑定弹性IP 。 如果创建集群时绑定了弹性IP,如果您不想使用公网访问地址访问集群,可以单击“解绑弹性IP”为集群解绑弹性IP。弹性IP解绑后,“公网访问地址”显示为空。 在“集群详情”页面获取集群连接地址 1. 登录数据仓库服务(DWS)管理控制台。 2. 在左侧导航栏中,单击“集群管理”。 3. 在集群列表中,单击指定集群的名称,打开“集群详情”页面。 4. 在“连接信息”区域,用户可以查看并获取集群的连接地址信息,包括内网地址、公网地址等。 详见下图:连接数据 参数名 参数解释 内网域名 通过内部网络访问集群数据库的域名地址。内网访问域名在创建集群时自动生成。通过域名访问DWS集群,域名解析器具有负载均衡的功能。 单击“修改”可以修改内网访问域名。访问域名由字母、数字、中划线组成,以大小写字母开头,长度为4~63个字符。 更多信息请参见管理集群访问域名。 内网IP 通过内部网络访问集群数据库的IP地址。 说明 内网访问IP地址在创建集群时自动生成,生成后的IP地址是固定的。 内网访问IP的数量对应的是CN节点的个数,可以通过登录任一节点连接到集群。 通过内网访问某个固定的IP,工作负载会集中在一个CN上。 公网域名 通过外部网络访问集群数据库的域名地址。 更多信息请参见管理集群访问域名。 公网IP 通过外部网络访问集群数据库的IP地址。 说明 如果创建集群时没有绑定弹性IP,“公网IP”显示为空,可以单击“绑定弹性IP”为集群绑定弹性IP。 如果创建集群时绑定了弹性IP,可以单击“解绑弹性IP”为集群解绑弹性IP。 初始管理员用户 创建集群时指定的数据库管理员用户。当用户第一次连接集群时,需要使用初始数据库管理员用户及其密码连接到默认数据库。 端口 通过公网或者内网访问集群数据库的端口号。端口号在创建集群时指定,它是集群监听客户端连接的端口。 默认数据库 创建集群时默认自动创建的数据库。当用户第一次连接集群时,需要连接到该默认数据库。 弹性负载均衡地址 为实现集群高可用,解决CN单点问题,集群创建后需手动绑定弹性负载均衡(ELB),连接集群时建议连接ELB地址。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        获取集群连接地址
      • 通过JDBC连接MySQL实例
        本页介绍如何通过JDBC连接关系数据库MySQL版。 通过JDBC连接实例的方式有无需下载SSL证书连接和用户下载SSL证书连接两种,其中使用SSL证书连接通过了加密功能,具有更高的安全性。MySQL新实例默认关闭SSL数据加密,开启SSL请参考设置SSL数据加密。SSL连接实现了数据加密功能,但同时也会增加网络连接响应时间和CPU消耗,不建议开启SSL数据加密。 前提条件 用户需要具备以下技能: 熟悉计算机基础知识。 了解JAVA编程语言。 了解JDBC基础知识。 使用SSL证书连接 说明 使用SSL证书连接实例,即通过证书校验并连接数据库。 1. 下载CA证书。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击SSL状态 参数右侧的下载证书。 2. 使用keytool工具通过CA证书生成truststore文件。 说明 Keytool是Java开发工具包中的一个命令行工具,可用于管理密钥和证书。 如果您的系统中安装了Java并配置了正确的环境变量,则可以直接使用keytool命令。 如果您的系统中没有安装Java,请先安装Java,然后配置环境变量再使用keytool命令。 java keytool.exe importcert alias file keystore storepass 变量 说明 : 请设置truststore文件的名称。建议设置为具有业务意义的名称,便于后续识别。 请替换为下载的CA证书的名称,ca.pem。 请设置truststore文件的存放路径。 请设置truststore文件的密码。 代码示例(使用JDK安装路径下的keytool工具生成truststore文件): java Owner: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Issuer: OID.0.9.2342.19200300.100.1.3Sample@chinatelecom.cn, CNca.ctyun.com, OUDataBaseGroup, OCloudCenter, LGuangZhou, STGuangDong, CCN Serial number: b0db70460527a4df Valid from: Tue Mar 21 15:40:12 CST 2023 until: Fri Mar 18 15:40:12 CST 2033 Certificate fingerprints: MD5: A6:9G:E5:5C:10:E4:F4:18:84:66:76:23:54:92:4C:8A SHA1: 23:66:FE:D4:83:24:58:69:B5:F6:28:04:8D:AA:FB:0E:B0:B9:F9:CB SHA256: 3F:C9:C7:EA:3F:8E:9F:6E:71:7E:5C:7A:81:44:0B:EA:51:CB:EA:7F:9C:00:3A:CF:6E:B8:64:9D:16:62:73:91 Signature algorithm name: SHA256withRSA Subject Public Key Algorithm: 2048bit RSA key Version: 3 Extensions: Trust this certificate? [no]: y Certificate was added to keystore 3. 通过JDBC连接MySQL数据库,代码中的JDBC链接格式如下: jdbc:mysql:// : / ? requireSSL &useSSL &verifyServerCertificate &trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword 参数 说明 请替换为实例的IP地址。 说明:如果通过弹性云主机连接,“instanceip”是实例的“内网地址”。您可以在该实例“基本信息”页面的“实例信息”区域查看连接地址。如果通过公网连接,“instanceip”为该实例已绑定的“弹性公网IP”。 请替换为实例的数据库端口,默认为13049。 说明:您可以在该实例“连接管理”页面的“连接信息”区域查看。 替换为连接实例使用的数据库名,默认为mysql。 requireSSL的值,用于设置服务端是否支持SSL连接。取值如下:true:支持。false:不支持。 useSSL的值,用于设置客户端是否使用SSL连接服务端。取值如下:true:使用。false:不使用。 verifyServerCertificate的值,客户端是否校验服务端的证书。取值如下:true:校验。false:不校验。 替换为truststore文件设置的存储路径。 替换为truststore文件设置的密码。 requireSSL参数应用说明 useSSL requireSSL verifyServerCertificate sslMode false 不涉及 不涉及 DISABLED true false false PREFERRED true true false REQUIRED true 不涉及 true VERIFYCA 代码示例(连接MySQL数据库的java代码): java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import java.sql.SQLException; public class JDBCConnTest { public static void main(String[] args) { Connection conn null; Statement stmt null; String url "jdbc:mysql://instanceip:13049/dbname? requireSSLtrue&useSSLtrue&verifyServerCertificatetrue&trustCertificateKeyStoreUrlfile: &trustCertificateKeyStorePassword "; try { Class.forName("com.mysql.cj.jdbc.Driver"); String USER "xxx"; String PASSOWRD "xxx"; conn DriverManager.getConnection(url, USER, PASSOWRD ); stmt conn.createStatement(); String sql "show status like 'ssl%'"; ResultSet rs stmt.executeQuery(sql); int columns rs.getMetaData().getColumnCount(); for (int i 1; i < columns; i++) { System.out.println(rs.getMetaData().getColumnName(i)); } while (rs.next()) { System.out.println(); for (int i 1; i < columns; i++) { System.out.println(rs.getObject(i)); } } rs.close(); stmt.close(); conn.close(); } catch (SQLException se) { se.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } finally { // 释放资源 } } }
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        连接实例
        通过JDBC连接MySQL实例
      • 集群版初始化
        本节主要介绍HBlock集群版如何初始化。 填写初始化相关信息 1. 设置基本信息。 参数 描述 版本规格 版本规格: 免费版:基础功能永久免费使用,高级功能默认禁用,提供一次30天免费试用机会。免费版的软件升级功能将在2年后自动失效。导入商业版软件许可证可激活全部功能。 商业版:提供30天全功能试用,到期后部分管理功能将被锁定。导入商业版软件许可证可激活全部功能。 说明 免费版与商业版的功能差别详见商业版与免费版。 系统名称 指定HBlock名称。 字符串形式,长度范围是1~64,可以包含字母、数字、下划线()和短横线(),字母区分大小写,且仅支持以字母或数字开头。 登录用户名 HBlock管理员用户名。 类型:字符串 取值:长度范围是5~16,只能由数字和字母组成,字母区分大小写。默认值为storuser。 登录密码 设置管理员密码。初始化时必须设置密码。 字符串形式,长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 2. 设置集群拓扑。 拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。 拓扑文件方式 参数 描述 拓扑文件 导入集群拓扑文件。 拓扑文件为符合UTF8编码格式的JSON文件,详见集群拓扑文件。 服务器方式 :点击“添加服务器”,填写服务器信息。 参数 描述 节点名称 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 服务器IP 要初始化服务器的IP,支持IPv4和IPv6地址。 端口号 API端口号。 注意 需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录 服务器中,用于存储用户数据的绝对路径。 可以输入一个或多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 容量(可用/总) 数据目录所在磁盘的可用容量和总容量。 容量配额 数据目录的容量配额,即给HBlock分配的容量配额。一旦达到配额,就立刻阻止数据写入。 支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作 校验:校验数据目录是否可用。 修改:修改数据目录。 移除:移除数据目录。 3. 设置故障域服务器方式: 设置基础存储池的故障域级别(仅集群版支持)。初始化时设置的集群拓扑中,包含的数据目录节点都加入到基础存储池中。可以选择:数据目录级别的故障域、服务器级别的故障域、机架级别的故障域、机房级别的故障域。 注意 如果故障域级别为机架或者机房,则必须使用拓扑文件导入方式进行初始化。 4. 设置网络 参数 描述 业务网络 该网段用于业务与系统之间的数据传输。IP CIDR格式。 如果指定业务网络,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP和客户端进行通信。 如果未指定业务网络,或指定了业务网络,但指定的网段与服务器所有IP均不相符,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 集群网络 用于系统内部数据传输。IP CIDR格式。 如果指定集群网络,为了保证HBlock的各个服务器之间能够正常通信,请确保每个服务器上都有与指定网段相符的IP,系统会自动选取该IP进行通信。 如果未指定集群网络,系统会使用您在第2步指定的服务器IP进行数据传输,该服务器IP不可指定为localhost、127.0.0.1或0:0:0:0:0:0:0:1。 5. 设置端口。 系统使用指定端口及端口范围进行初始化,如都未指定,则使用默认端口。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 设置端口范围时,请避免和Linux系统的本地临时端口(iplocalportrange)范围重合,否则可能会导致HBlock服务所用的端口被占用。使用命令行cat /proc/sys/net/ipv4/iplocalportrange可以查看本地临时端口范围。 参数 描述 端口范围 未指定端口的服务将从此范围中自动取值。 取值:整型,取值为[1, 65535]。默认取值为2000020500。 说明 建议指定的端口范围至少包含500个端口。 iSCSI服务 指定iSCSI端口号。 取值:整型,取值为[1, 65535],默认端口号为3260。 数据服务 指定数据服务端口号。 取值:整型,取值为[1, 65535]。 管理服务 指定管理服务端口号。 取值:整型,取值为[1, 65535]。 元数据服务 指定元数据服务端口号。 取值:整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        初始化HBlock
        集群版初始化
      • 计费模式变更
        前提条件 预付费用户须保证账户余额大于100元才能进行转按需操作,后付费用户无此余额限制。 注意 该操作按钮名称为“到期转按需”,即需要等文件系统到期时才会转为按量付费,不会立刻转为按量付费。 “到期转按需”在到期当天不可操作,例如某资源到期时间为2023年11月15日 10:23 ,则在11月15日00:00之后不可进行转按需操作。 “到期转按需”的时刻为到期第二天凌晨,非到期时刻。资源在到期当天为全天可用状态,可放心使用。如资源到期时间为2023年11月15日 10:23,若已设置到期转按需,则11月15日当天(到期当天),资源全天为“可用”状态,业务正常进行。在11月16日凌晨,系统将自动进行转按需操作。 操作步骤 1. 在弹性文件服务控制台列表页面,点击包周期文件系统的“更多”>“到期转按需”。 2. 进入资源信息确认页面,确认无误后点击“转按需”,弹出转换成功的提示框中点击“确定”即完成转换。 3. 在“费用中心续订管理到期转按需”页签下可以查看已设置到期转按需的资源。 取消到期转按需 资源到期前可取消“转按需”设置,操作入口在“费用中心>订单管理>续订管理”下的“到期转按需”标签页面进行操作。
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        计费方式
        计费模式变更
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API列表
      • 链路追踪
        概述 服务网格支持使用opentelmetry方式接入应用性能监控链路追踪能力,本章节介绍如何开启和使用链路追踪。 开启条件 需要开通APM应用性能监控,可参考开通应用性能监控应用性能监控快速入门 天翼云 (ctyun.cn) 需要在网格实例所属VPC下开通APM相关的终端节点(VPCE) 开启方式 登录服务网格控制台,网格实例 > 网格配置 > 自定义配置 > 启用链路追踪 开启即可。 开启时,您需要设置采样里,取值1100。 如果您还未开通应用性能监控服务及链路追踪数据上报需要的VPCE等资源,您可以授权服务网格组件一键开通相关资源。 链路追踪接入示例 概述 本节展示服务网格接入链路追踪的操作流程及效果,首先确认已经开启了链路追踪功能开关并将采样率配置为100%。演示架构如下图所示 其中ELB和Ingress Gateway作为接入层,业务层包括app1、app2、app3三个服务(分别都注入了网格sidecar),业务代码中也通过opentelemetry方式接入了链路追踪,触发数据面访问后,预期会上报链路数据到APM,完整覆盖网格数据面和应用。 部署测试程序 创建demo命名空间并配置好相关注入标签,保证sidecar注入;部署应用及服务,如下 注意 1. 本示例使用的镜像地址是华南2资源池,如果您在其他资源池体验,请替换镜像地址 2. 本示例采用go语言+opentelemetry方式接入链路追踪,您可以参考应用性能监控go语言接入链路追踪的文档将Deployment中的token和endpoint环境变量替换成您看到的值 html apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2base namespace: demo labels: app: app2 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3base namespace: demo labels: app: app3 csmtraffictag: base spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: base template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: base spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: base name: app value: app3 ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app1test namespace: demo labels: app: app1 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app1 name: app1 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app1 name: app1 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app2test namespace: demo labels: app: app2 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app2 name: app2 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app2 name: app2 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app2 name: upstreamurl value: " ports: containerPort: 8000 apiVersion: apps/v1 kind: Deployment metadata: name: app3test namespace: demo labels: app: app3 csmtraffictag: test spec: replicas: 1 selector: matchLabels: app: app3 name: app3 csmtraffictag: test template: metadata: labels: sidecar.istio.io/inject: "true" app: app3 name: app3 source: CCSE csmtraffictag: test spec: containers: name: default image: registryvpccrshuanan2.cnspinternal.ctyun.cn/library/tracedemo:otel imagePullPolicy: Always env: name: token value: yourapmlicence name: endpoint value: apmhuanan2.cnspinternal.ctyun.cn:27141 name: version value: test name: app value: app3 ports: containerPort: 8000 apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: v1 kind: Service metadata: name: app2 labels: app: app2 service: app2 spec: ports: port: 8000 name: http selector: app: app2 apiVersion: v1 kind: Service metadata: name: app3 labels: app: app3 service: app3 spec: ports: port: 8000 name: http selector: app: app3
        来自:
        帮助文档
        应用服务网格
        用户指南
        可观测管理中心
        链路追踪
      • 实例服务器初始化及实例开通
        本页介绍天翼云TeleDB数据库实例服务器初始化及实例开通。 前提条件 每台实际主机均已进行环境初始化。 操作步骤 1. 登录管理控制台 (1) 以admin用户名和密码登录控制台。登录地址: 。 (2) 进入TeleDBDCP控制台管理页面,单击立即使用 。 2. 创建实例 ① 在左侧导航树选择 系统管理 > 授权管理 ,进入授权管理页面。 ② 单击导入授权 ,出现 新增/更新授权对话框 。 ③ 在新增/更新授权 对话框,单击 立即上传 ,在弹出的窗口选择license文件,单击下一步 ,进入导入分类模式 。 ④ 在产品名称 下拉框选择对应的产品,单击下一步 ,进入license详情页面。 ⑤ 在license详情 页面,确认信息无误后,单击确定 ,完成导入license。 3. 创建开通实例租户用户 ① 在左侧导航树中选择安全中心 > 用户管理 ,进入用户管理页面。 ② 单击创建用户 ,出现创建用户弹框。 填写用户账号 、 用户名称 、选择用户角色 为 租户管理员 、填写 用户密码 、 确认密码 和邮箱 ,单击确定新创建的用户将出现在用户列表中。 ③ 单击新建用户所在行的编辑,可修改用户信息。 4. 添加主机管理 说明 每台待添加的主机需安装JDK环境。 每台待添加的主机需创建好用户,如teledb。 每台待添加的主机需对环境进行初始化。可参考准备工作章节对环境进行初始化。 ① 在左侧导航树中选择资源管理 > 主机管理 ,进入主机管理页面。 ② 单击添加主机 ,出现添加主机弹框。 ③ 填写 IP地址 、 SSH端口 、 SSH用户名 、 SSH用户密码 、 监控插件端口 、 监控插件部署目录 ,CPU类型 和操作系统等必填信息。 IP地址:部署规划的实例主机ip。 SSH端口:填写SSH端口。 SSH用户名:根据您创建的用户名填写。填写机器的用户名 不要用root账号,需使用有sudo权限的账号。 SSH密码:根据您设置的密码填写。 监控插件端口:端口不能被占用,如占用需更换端口。 监控插件部署目录:系统默认自动填写,无需修改。 CPU类型:请选择您的实际使用的类型。 操作系统类型:请选择您实际使用的类型。 ④ 单击 测试联通及硬件检测 ,出现绿色标识,单击 确定 ,完成主机的添加。 5. 添加VIP ① 在左侧导航树选择 资源管理> VIP管理 ,进入VIP管理页面。 ② 单击 添加VIP ,弹出添加VIP弹框。 ③ 填写 IP类型 、 IP地址 ,单击 确定 ,完成VIP的添加。 6. 导入sql语句至dcp库中prodtemplate配置表。 ① 查找sql语句。 打开dcp安装包中Readme.md文件,查找teleDBX标题的sql语句。具体内容如下: INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012001, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主一备,主备自动切换,企业业务生产首选 ', '企业版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":2,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":2,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL);INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces,prodhostconfig, prodshow, iscontainerization, prodspecenname,prodspecendesc) VALUES (1, 10012002, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主两备,支持两地三中心部署模式,达到金融级高可用 ', '灾备版 ', '6.15', '["2C4G","4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts":[{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":3,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001},{"hostTypeName":"cn","hostType":"cn","hostDefaultNum":3,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003},{"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL); ② 在配置库导入表数据。 执行如下命令查找prodtemplate 配置表所在目录。 ps ef grep mysqld 执行如下命令,进入sql语句所在目录。 cd /app/monitor/teledb/mysqlinstall/bin/ 执行如下命令,导入sql语句中内容。 ./mysql u root S /tmp/mysql6301.sock p 导入后,输入exit退出。 说明 这里dcp的sql导入的teledbx版本是6.14,如果你后面上传的teledbx的内核版本是6.15的 话,请把6.14改为6.15,请按照您实际版本修改。 7. 导入软件包 ① 以admin用户名和密码登录控制台。单击立即使用进入实例管理页面。 ② 单击图标,切换至TeleDB控制台。 ③ 选择 资源管理 > 软件包管理 ,进入软件包管理页面。 ④ 在软件包管理页面,单击 添加软件包 ,弹出添加软件包弹框。 ⑤ 填写基本信息。 包类型:根据实际情况选择。 软件类型:根据系统默认选择。 软件包:单击 点击上传 ,上传软件包。 软件包MD5:根据实际情况填写。 您可执行md5sum 软件包名命令查找MD5。 ⑥ 单击 确定 ,完成软件包的添加。 8. 实例开通 ① 单击图标,切换至DCP控制台。 ② 在左侧导航树中选择 实例管理> 创建实例 ,进入实例开通页面。 ③ 选择 TeleDB 、 企业版 ,填写基本信息。 输入密码 和 默认密码 ,其它信息根据系统默认填写。 ④ 单击 下一步 ,进入实例开通下一个页面。 ⑤ 根据实际情况,填写基本信息。 ⑥ 单击 提交工单 ,完成实例开通。 ⑦ 您可通过 实例管理> 工单管理 ,查看工单详情。 ⑧ 您可通过 实例管理> 实例列表 ,查看实例详情信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        实例服务器初始化及实例开通
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • 拨测
        场景描述 在进行消息发送与接收验证的过程中,我们需要确保RocketMQ的生产者能够将消息成功发送到指定的Topic,同时消费者能够接收到这些消息。通过验证,可以确认生产者发送的消息能够准确无误地到达消费者,这是消息队列最基本也是最重要的功能要求。在开发和测试阶段,通过消息发送与接收验证可以及时发现并修复可能存在的问题,避免在实际应用中出现故障。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和Topic。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息Topic,若无选项,请新增Topic,详见上文创建Topic和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且并不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        拨测
      • 实例概述
        本章节主要介绍物理机实例概述。 实例概述 物理机实例即您创建的一台物理机服务器。不同实例类型提供不同的计算能力、存储空间、网络性能,您可以基于业务需求选择不同类型的实例。当天翼云向您交付一个实例时,您将获得这台服务器完整的控制权限,包括开机、关机、带内管理等。 实例类型 目前天翼云提供的物理机CPU,均为x86架构,根据业务需求选购不同配置的物理机服务器。 x86 V4实例(CPU采用Intel Broadwell架构) x86 V5实例(CPU采用Intel Skylake架构) x86 V6实例(CPU采用Intel Cascade Lake架构) 其他说明 基于本地盘的物理机服务器,系统盘默认RAID 1,数据盘默认直通盘。如果需要更改数据盘RAID配置,可以联系管理员变更。系统盘RAID不支持变配。 常用的RAID级别 RAID 0 RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。 图1 RAID 0数据存储原理 RAID 1 RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半以下,因此常用于对容错要求较高的应用场合,如财政、金融等领域。 图2 RAID 1数据存储原理 RAID 5 RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。 图3 RAID 5数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 6 在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。 图4 RAID 6数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。 RAID 10 RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 0+RAID 1的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。 图5 RAID 10数据存储原理 RAID 50 RAID 50被称为镜像阵列条带,即RAID 5 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图6 RAID 50数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 60 RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图7 RAID 60数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        实例概述
      • 云审计服务支持的关键操作
        操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 事件名称 从主机组移除主机(批量) 给日志资源创建或更新标签 为指定的资源解绑标签 为指定日志单元创建索引 编辑ZOS对象存储导入任务 删除导入任务 删除采集规则 定时SQL任务关闭 创建定时SQL任务 启用告警规则 删除仪表盘订阅 更新加工任务 重命名项目 创建过滤器 重命名仪表盘 日志单元更新 创建采集规则 创建模拟接入任务 更新告警规则 更新消费组 启动加工任务 日志告警规则另存为模板 停止kafka投递任务 仪表盘订阅启用 为日志资源绑定标签 修改采集规则 定时SQL运行实例 重试 专属日志单元取消关联日志服务 删除重建索引任务 投递任务停止 创建主机组 创建分布式消费服务Kafka导入任务 停用采集规则 批量停止告警规则 删除主机组 创建关注 启动模拟接入任务 删除终端节点 更新日志单元索引 将日志采集规则应用于目标主机组 更新某个指定日志项目的描述信息 删除过滤器 更新采集规则 更新Processors 新增消费组关联日志单元 加工任务启动 自动生成行首正则 创建或者修改数据加工任务 删除数据导入任务 给日志资源创建或更新标签 删除检索历史记录 删除模拟接入任务 批量启动告警规则 更新仪表盘描述 匹配的容器信息预览 停用告警规则 停用采集规则 批量删除接口 导入数据预览 修改仪表盘订阅 重命名快速查询 批量停用接口 删除仪表盘订阅 升级agent 删除加工任务 取消关注 主机组解绑采集规则 删除下载任务 创建ZOS对象存储导入任务 删除消费组关联日志单元 删除仪表盘 修改过滤器 更新日志单元配置 删除采集规则 删除日志单元 删除主机组 停用重建索引任务 更新定时SQL任务 创建产品委托授权 从指定主机组中移除主机 创建项目 卸载agent 修改项目标签 创建下载任务 重新生成下载任务 加工任务重新执行 删除目标日志项目 编辑主机组基础信息(名称、备注) 删除消费组关联日志单元 创建一个快速查询 创建仪表盘 加工任务删除 删除消费组 更新主机组描述 更新主机组 停止加工任务 创建主机组 创建或者更新数据投递任务 创建仪表盘订阅 创建vpce 新增消费组关联日志单元 重命名告警规则 创建快速查询 更新主机组 全量容器信息预览 加工任务重新执行 添加主机到主机组 删除kafka投递任务 批量删除告警规则 删除项目 删除日志单元 删除告警规则 创建/更新日志单元索引字段 修改仪表盘 删除主机组 更新告警规则 更新日志单元描述 批量启动接口 停止模拟接入任务 创建日志项目 添加主机到指定主机组 修改仪表盘 编辑日志单元 创建对象存储投递任务 编辑分布式消费服务Kafka导入任务 创建仪表盘 创建下载任务 创建告警规则 更新模拟接入任务 更新日志告警规则模板 创建专属日志单元 删除定时SQL任务 更新检索条件 启动kafka投递任务 删除日志告警规则模板 创建日志单元 删除快速查询 安装插件 更新消费组 新增主机到主机组 创建采集规则 更新对象存储投递任务 编辑项目 启用采集规则 从目标主机组中移除关联的日志采集规则 采集配置解除关联主机组 采集规则启停 更新日志单元存储时长 更新数据导入任务 投递任务启动 停止对象存储投递任务 更新一个快速查询 删除一个快速查询 更新触发条件 删除仪表盘模板 定时SQL任务启动 创建产品委托授权 划词生成正则 更新检查频率 重命名日志单元 创建加工任务 创建消费组 删除对象存储投递任务 启动对象存储投递任务 开启或者关闭服务日志 删除仪表盘 更新项目描述 创建Ingress仪表盘 更新通知策略 创建消费组 创建日志投递Kafka任务 更新仪表盘订阅名称 新建数据导入任务 创建重建索引任务 投递任务删除 创建告警规则 启用采集规则 删除下载任务 移除主机组中主机 新增仪表盘模板 主机组绑定采集规则 创建日志单元 创建主机组
        来自:
        帮助文档
        云日志服务
        用户指南
        云审计服务支持的关键操作
      • 审计
        本页介绍天翼云TeleDB数据库中审计。 数据库安全审计是企业级数据库必须提供的一个基础能力,有助于事后对访问合规性进行追溯。结合业界通用的做法,TeleDB从多个维度来提供全方位的审计能力,同时TeleDB审计通过旁路检测方式,对数据库运行效率的影响极小。 TeleDB审计主要包括粗粒度审计(audit)和细粒度审计(fga)。 粗粒度审计日志主要存储在cn的audit.log:主要针对语句级别、用户级别、对象级别,对象操作级别,主要在sql语法解析层面进行捕捉。 细粒度粒度审计日志存储在dn的audit.fga:主要是针对某个表的列属性、列的值进行审计,在sql执行器进行捕捉。 说明 两套审计规则都依赖auditadmin的审计管理员用户。 审计管理员auditadmin、安全管理员mlsadmin、数据库管理员三权分立,审计用户命名必须以audit开头。 audit和fga使用兼容:相互独立,可只用audit;可只用fga;可用audit和fga。 粗粒度audit操作步骤: 以auditadmin用户进行连接,执行审计规则audit all,会将后续的语句审计记录在$DATADIR/pglog/audit/audit.log $ ./psql h 127.0.0.1 p11111 d postgres W U auditadmin Password for user auditadmin: psql (PostgreSQL 10.0 TeleDBX V6) Type "help" for help. postgres> audit all; WARNING: AuditDefine Rcv: audit all; WARNING: AuditDefine Snd: AUDIT ALL ;AUDIT 细粒度fga操作步骤: 在每1个cn和dn都会开启1个audit logger process和1个后台进程bgworker:audit fga worker tangyujie是初始化的超级用户 $ ./psql h 127.0.0.1 p11111 d postgres W U tangyujie 步骤1: 创建插件&查看参数 create extension pgfga;show enablefga; 1.创建用户和数据库CREATE USER auditfgauser WITH SUPERUSER CREATEDB LOGIN ENCRYPTED PASSWORD 'auditfgauser';CREATE DATABASE auditfgadatabase; 2切换到auditfgadatabase数据库 c auditfgadatabase auditfgauser;create extension pgfga; 3.切换到auditfgauser用户,建表插入数据 c auditfgadatabase auditfgausercreate table foo(idx bigint, str text);insert into foo values(1, 'a'); 3.3 验证insert into foo values(2, 'b');insert into foo values(3, 'c');insert into foo values(4, 'd');select from foo; 步骤2: 制定审计规则 4.切换到 auditadmin审计管理员用户 c auditfgadatabase auditadmin 4.1 增加审计规则addpolicy(指定模式、表名、规则名, 列名、审计条件,模式,存储过程、是否开启审计,语句类型)addpolicy(objectschema,objectname,policyname,auditcolumns,auditcondition,handlerschema,handlermodule,auditenable,statementtypes,auditcolumnopts),其中auditenable必须为true才能生效,默认为true。select addpolicy(objectschema:'public', objectname:'foo',auditcolumns:'idx',policyname:'poli', auditcondition:'idx > 1');select addpolicy('public', 'foo', 'poli1','idx','idx >1','public','helloworld','true','select'); 4.2 查询pgfga插件的视图 select from pgauditfgaconf;select from pgauditfgaconfdetail ;select from pgauditfgapolicycolumnsdetail; 步骤3: 生效审计规则 4.3开启审计规则 enablepolicy(指定模式、表名、规则名),使得auditenable为trueselect enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli');select enablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 其他函数 4.4 删除审计规则droppolicy(指定模式、表名、规则名)。 select droppolicy(objectschema:'public', objectname:'bar',policyname:'poli'); 4.5 禁用审计规则 disablepolicy(指定模式、表名、规则名),使得auditenable为false select disablepolicy(objectschema:'public', objectname:'foo',policyname:'poli1'); 审计日志管理 1. 设置设计规则 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计设置 ,出现审计设置弹框。 ② 在审计设置 弹框中,选择 是否开启审计 、 审计粒度 ,单击确定完成审计设置。 当审计粒度为 全局级 ,您可对需要进行审计和告警的动作进行选择。 当审计粒度为 对象级 ,您需设置对象审计规则同时使用。 2. 审计规则管理 ① 在当前实例下拉框选择您所需要查询的实例,选择审计日志 页签,单击 审计规则管理 ,进入审计规则管理页面。 ② 新增审计规则 1. 在审计规则管理 页面,单击 新增审计规则 ,出现新增审计规则弹框。 2. 在新增审计规则 弹框中,输入 规则名称 、选择 审计对象名称 、勾选 审计操作类型 、输入审计对象和选择 是否开启 , 是否触发告警 ,单击确定完成新增审计规则。 ③ 编辑审计规则 单击已创建审计规则所在行的 编辑 ,可修改审计规则。 ④ 删除审计规则 单击已创建审计规则所在行的 删除 ,可删除审计规则。 3. 查看审计日志 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框 选择查询条件 ,单击 查询 。 查询条件可选择 节点名称 、 审计类型 、 SQL语句 、数据库名称 和 用户名 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        审计
      • 1
      • ...
      • 281
      • 282
      • 283
      • 284
      • 285
      • ...
      • 311
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      科研助手

      人脸检测

      推荐文档

      关机

      云课堂 第三课:四大功能告诉你使用负载均衡的意义

      成员权限

      天翼云进阶之路⑤:修改Linux远程登录用户并授权,禁止roo

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号