活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云堤·抗D_相关内容
      • DeepSeek模型调用-专业版
        Ragflow 注意 目前息壤model不支持embedding model能力,因此只能作为chat model提供能力。 下载镜像git clone < 通过docker安装并启动。 shell cd ragflow/docker docker compose f dockercomposeCN.yml up d 检查 RAGFlow 服务是否正常启动。 shell docker logs f ragflowserver 如果看到类似以下输出,则表示启动成功: shell Running on all addresses (0.0.0.0) Running on Running on 打开浏览器配置模型Xinference服务提供商。 在浏览器中输入服务器的 IP 地址访问 RAGFlow。默认情况下,RAGFlow 使用 HTTP 端口 80,因此无需输入端口号。 选择“Xinference”模型服务商( Xinference是工厂配置,支持自定义模型名称)。 配置chatmodel的界面如下: 回到对话界面,配置聊天助手: 开启对话: 常见报错 触发限流 ruby 报错信息为:[openaiapicompatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEPSEEKMODELCONCURRENCYLIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEPSEEKMODELCONCURRENCYLIMIT"}} 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。 解决方案:等一段时间再调用,或增加重试机制。
        来自:
        帮助文档
        模型推理服务
        最佳实践
        DeepSeek模型调用-专业版
      • 怎样安装原生的XEN和KVM驱动?
        vi /etc/dracut.conf additional kernel modules to the default adddrivers+"atapiix atageneric xenvnif xenvbd xenplatformpci virtioblk virtioscsi virtionet virtiopci virtioring virtio" c. 按“Esc”后,输入:wq,按“Enter”。 保存设置并退出“/etc/dracut.conf”文件。 d. 执行以下命令,重新生成initrd。 dracut f /boot/initramfs文件名 如果引导的虚拟文件系统不是默认的initramfs,则命令为:dracut f 实际使用的initramfs文件名或者initrd文件名。“实际使用的initramfs文件名或者initrd文件名”可在grub.cfg配置(“/boot/grub/grub.cfg”或“/boot/grub2/grub.cfg”或“/boot/grub/grub.conf”,具体路径根据OS不同会有所不同)中获取。 e. 如果引导的虚拟文件系统是initramfs,执行以下命令,检查是否已经成功装载了原生的XEN和KVM驱动相应模块。 lsinitrd /boot/initramfsuname r.img grep xen lsinitrd /boot/initramfsuname r.img grep virtio 如果引导的虚拟文件系统是initrd,执行如下命令,检查是否已经成功装载了原生的XEN和KVM驱动相应模块。 lsinitrd /boot/initrduname r grep xen lsinitrd /boot/initrduname r grep virtio 当操作系统版本高于SUSE 12 SP1或高于openSUSE 13版本时,操作步骤如下。 以SUSE Linux Enterprise Server 12 SP2 (x8664)为例,如下所示: a. 执行以下命令,打开“/etc/dracut.conf”文件。 vi /etc/dracut.conf b. 按“i”进入编辑模式,在“adddrivers”项中添加xenpv和virtio的驱动(具体格式要根据操作系统本身的要求来决定)。 [root@CTU10000xxxxx ~]
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        怎样安装原生的XEN和KVM驱动?
      • 密钥与密码
        通过puttygen.exe工具创建密钥对 1.生成公钥和私钥文件。 2.双击“PUTTYGEN.EXE”,打开“PuTTY Key Generator”。 3.单击“Generate”。 密钥生成器将自动生成一对公钥和私钥,其中,下图的红框内容为生成的公钥文件。 4.复制红框中的公钥内容,并将其粘贴在文本文档中,以.txt格式保存在本地,保存公钥文件。 说明 请勿直接单击“Save public key”保存公钥文件。因为通过puttygen.exe工具的“Save public key”按钮保存在本地的公钥文件,公钥内容的格式会发生变化,不能直接导入管理控制台使用。 5.保存私钥文件。 根据不同用途,需将私钥文件保存为不同格式。为保证安全,私钥只能下载一次,请妥善保管。 保存私钥文件为“.ppk”格式。 当用户使用PuTTY工具登录Linux物理机时,需使用“.ppk”格式的私钥文件。保存方法如下: A.在“PuTTY Key Generator”界面,选择“File > Save private key”。 B.保存私钥到本地。例如:kp123.ppk。 保存私钥文件为“.pem”格式。 当用户使用Xshell工具登录Linux物理机时,或者获取Windows物理机的密码时,需使用“.pem”格式的私钥文件。保存方法如下:注意 C.在“PuTTY Key Generator”界面,选择“Conversions > Export Open SSH key”。 注意 如果该私钥文件用于Windows物理机的获取密码操作,在选择“Export OpenSSH key”时,请勿填写“Key passphrase”信息,否则会导致获取密码失败。 D.保存私钥到本地。例如:kp123.pem。 6.公钥和私钥文件按照需要正确保存后,将公钥导入系统中。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        密钥与密码
      • 人脸实名认证
        返回代码 代码说明 可能出现原因 下一步建议 0 同一人 1 非同一人 1.照片为本人,但是照片可能有角度、光线过暗、脸部区域有亮斑;2.照片为本人,但是该照片尺寸太小 1.重新拍照; 2.传入合格图片 2 疑似为本人 1.照片为本人,但是照片可能有角度、光线过暗、脸部区域有亮斑;2.照片为本人,但是该照片尺寸太小;3.两人长相类似 1.重新拍照;2.传入合格图片 A 数据库操作错误 人像比对数据库操作异常 B 人像比对异常 人像比对系统异常 C 参数错误 身份证号为空或长度不是 18 位 D 无人像信息 数据库中无该人像信息 检查该人身份信息是否正确 E 图像格式不正式 非JPEG格式图像 检查传入的图像数据是否为JPEG格式 F 待比对图像建模失败 1.照片可能有角度,光线过暗,脸部区域有亮斑,模糊;2.照片尺寸太小 1.重新拍照;2.传入合格图片 G 现场照片质量不合格 上传照片质量不合格 自检上传照片质量 J 现场照片小于5K字节 现场照片小于5K字节 检查图像原始大小(非BASE64编码)是否小于5K字节,重新拍照 K 照片质量不佳 库内照片质量不佳 系统人像信息异常或者未录入认证系统 T 人像引擎超时 人像服务所有比对引擎同时超时或一个引擎超时,另一个引擎故障 重试 W 系统其他错误 认证超时 重试 X 未执行 未执行 重试或者联系运维人员 其他代码 其他 其他
        来自:
        帮助文档
        人脸识别
        API参考
        API
        人脸实名认证
      • 步骤3:调优表操作具体步骤
        本章节主要介绍调优表操作具体步骤的最佳实践。 选择存储方式 此实践中所使用的样例表为典型的TPCDS表,是典型的多字段表,统计分析类查询场景多,因此选择列存存储方式。 WITH (ORIENTATION column) 选择压缩级别 在步骤1:“创建初始表并加装样例数据”中没有指定压缩比,DWS默认为用户选择LOW级别压缩比。在这一步中我们把压缩比调整为MIDDLE级别,进行验证对比。 增加存储方式和压缩比后的建表样例如下: CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) WITH (ORIENTATION column,COMPRESSIONmiddle);
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤3:调优表操作具体步骤
      • 导入工单列表
        本页介绍天翼云TeleDB数据库导入工单列表相关操作。 1、工单查询 输入查询条件后单击查询按钮,执行查询操作。支持的查询条件: 1. 工单状态: a 工单创建:工单保存到业务系统过程中。 b 执行中:导入任务执行中。 c 执行完成:导入任务执行成功。 d 执行异常:导入任务执行失败。 2. 时间范围:某一时间段创建或执行的导入工单。 3. 关键词:可输入工单号/库名/创建人相关关键字。 2、数据导入 单击数据导入按钮可添加新的数据导入任务,详见提交导入任务章节。 3、执行异常查看 执行异常的工单,可以单击工单状态上的,查看异常原因。 4、重试 针对异常的工单,可以根据异常原因,进行选择是否需要重试,单击重试按钮即可进行重试。 注意 重试操作并不会更改配置,请考虑重试是否可能成功后再单击按钮。 5、详情 在工单列表找到目标工单,单击工单号或在操作列单击详情按钮,在打开的工单详情弹窗可查看目标工单的详细信息。 内容 说明 工单号 系统生成的工单唯一id。 工单类型 展示工单是导入或导出类型。 库信息 导入任务对应的目标库/模式信息。 工单状态 展示工单当前状态。 创建人 导入任务的创建用户。 创建时间 工单保存到系统的时间。 最后操作时间 工单状态最后更新时间。 导入文件类型 导入的文件格式类型,可在创建工单任务时选择。 工单说明 备注信息,可在创建工单任务时填写。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导入
        导入工单列表
      • Redis使用
        Proxy集群开启多DB的使用限制及操作方式 DCS对于实现多DB存在一定的约束,建议针对客户业务进行评估: 使用约束: a. swapdb不支持多DB。 b. info keyspace不支持多DB展示。 c. 需要查询每个DB的key总数,可以使用自定义dbstats命令。命令执行数据节点上会有CPU冲高。 d. LUA脚本中不支持多DB。 e. RANDOMKEY命令不支持。 f. 事务命令中不支持嵌入select命令。 g. 不支持在lua脚本中使用publish。 h. DB数支持范围为0 ~ 255。 i. Redis 3.0 proxy不支持开启多DB。 性能约束: a. flushdb命令采用逐个key删除的方式执行,耗时久,慢于开源原生实现,速度与SCAN命令相同(需要客户实际测试)。 b. dbsize命令耗时长,禁止在代码中使用。 c. 多DB场景下keys命令和scan命令性能会有损失(最多50%)。 其他约束: 后端存储会按照一定规则对key进行改写,导出RDB数据中的key不是原始的key,但通过Redis协议访问无影响。 开启/关闭多DB操作步骤 Proxy集群实例默认不开启多DB,支持按照以下操作进行多DB开启。 步骤 1 登录分布式缓存服务控制台。 步骤 2 连接实例,执行flushall命令清空原有数据。 说明 开启或关闭多DB操作时,需要确保实例数据已清空且无新数据写入,否则会操作失败。 步骤 3 在缓存管理页面,单击缓存实例进入实例详情页面。 步骤 4 单击“实例配置 > 参数配置”进入参数配置页面。 步骤 5 单击multidb参数后的“修改”,将参数运行值修改为“yes”,即开启多DB。 如需关闭多DB,将参数运行值修改为“no”。 步骤 6 单击“保存”,在修改参数配置弹框中单击“是”,完成开启/关闭多DB操作,无需重启实例。 结束 实例是否支持变更可用区 不支持直接变更可用区。 如需改变可用区,可通过“数据迁移+交换IP”方式的方式,在新的可用区创建实例后,进行数据迁移,实现可用区的变更。具体操作如下: 说明 Redis 4.0及以上版本的实例支持实例交换IP。 只有源实例和目标实例都为云服务Redis实例才支持实例交换IP。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        Redis使用
      • 扩展数据盘的分区和文件系统(Linux)
        fdisk /dev/vdb Welcome to fdisk (utillinux 2.23.2). Changes will remain in memory only, until you decide to write them. Be careful before using the write command. Command (m for help): 步骤 4 执行以下步骤,删除待扩大的分区。 1. 输入“d”,按“Enter”,删除磁盘分区。 回显类似如下信息: Command (m for help): d Partition number (1,2, default 2): 2. 输入分区编号,此处以分区编号选择“2”为例,按“Enter”,删除磁盘分区。 回显类似如下信息: Partition number (1,2, default 2): 2 Partition 2 is deleted Command (m for help): 说明 删除分区后,请参考以下操作步骤扩大原有分区,则不会导致数据盘内数据的丢失。 步骤 5 输入“n”,按“Enter”,开始新建分区。 回显类似如下信息: Command (m for help): n Partition type: p primary (1 primary, 0 extended, 3 free) e extended Select (default p): 表示磁盘有两种分区类型: “p”表示主分区。 “e”表示扩展分区。 说明 磁盘使用MBR分区形式,最多可以创建4个主分区,或者3个主分区加1个扩展分区,扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。 磁盘使用GPT分区形式时,没有主分区、扩展分区以及逻辑分区之分。 步骤 6 此处分区类型需要与原分区保持一致,以原分区类型是“主分区”为例,输入“p”,按“Enter”,开始重新创建一个主分区。 回显类似如下信息: Select (default p): p Partition number (24, default 2): “Partition number”表示主分区编号。 步骤 7 此处分区编号需要与原分区保持一致,以原分区编号是“2”为例,输入分区编号“2”,按“Enter”。 回显类似如下信息: Partition number (24, default 2): 2 First sector (209715200482344959, default 209715200): “First sector”表示起始磁柱值。 说明 以下操作会导致数据丢失: 选择的起始磁柱值与原分区的不一致。 选择的截止磁柱值小于原分区的值。 步骤 8 此处必须与原分区保持一致,输入步骤1中记录的初始磁柱值209715200,此处该值也为默认值,按“Enter”。 回显类似如下信息: First sector (209715200482344959, default 209715200): Using default value 209715200 Last sector, +sectors or +size{K,M,G} (209715200482344959, default 482344959): “Last sector”表示截止磁柱值。 步骤 9 此处截止磁柱值应大于等于步骤1中记录的截止磁柱值314572799,以选择默认截止磁柱值482344959为例,按“Enter”。 回显类似如下信息: Using default value 209715200 Last sector, +sectors or +size{K,M,G} (209715200482344959, default 482344959): Using default value 482344959 Partition 2 of type Linux and of size 130 GiB is set Command (m for help): 表示分区完成。 步骤 10 输入“p”,按“Enter”,查看分区的详细信息。 回显类似如下信息: Command (mfor help): p Disk /dev/vdb: 247.0 GB, 246960619520 bytes, 482344960 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x38717fc1 Device Boot Start End Blocks Id System /dev/vdb1 2048 209715199 104856576 83 Linux /dev/vdb2 209715200 482344959 136314880 83 Linux Command (m for help): 步骤 11 输入“w”,按“Enter”,将分区结果写入分区表中。 回显类似如下信息: Command (m for help): w The partition table has been altered! Calling ioctl() to reread partition table. WARNING: Rereading the partition table failed with error 16: Device or resource busy. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. 说明 如果之前分区操作有误,请输入“q”,则会退出fdisk分区工具,之前的分区结果将不会被保留。 步骤 12 执行以下命令,将新的分区表变更同步至操作系统。 partprobe 步骤 13 根据磁盘的文件系统,分别执行以下操作。 若磁盘文件系统为ext,请执行以下步骤。 a. 执行以下命令,检查磁盘分区文件系统的正确性。 e2fsck f 磁盘分区 命令示例: e2fsck f /dev/vdb2 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        扩展磁盘分区和文件系统(Linux)
        扩展数据盘的分区和文件系统(Linux)
      • 扩展数据盘的分区和文件系统(Linux)
        fdisk /dev/vdb Welcome to fdisk (utillinux 2.23.2). Changes will remain in memory only, until you decide to write them. Be careful before using the write command. Command (m for help): 步骤4 执行以下步骤,删除待扩大的分区。 1. 输入“d”,按“Enter”,删除磁盘分区。 回显类似如下信息: plaintext Command (m for help): d Partition number (1,2, default 2): 2. 输入分区编号,此处以分区编号选择“2”为例,按“Enter”,删除磁盘分区。 回显类似如下信息: plaintext Partition number (1,2, default 2): 2 Partition 2 is deleted Command (m for help): 说明 删除分区后,请参考以下操作步骤扩大原有分区,则不会导致数据盘内数据的丢失。 步骤5 输入“n”,按“Enter”,开始新建分区。 回显类似如下信息: plaintext Command (m for help): n Partition type: p primary (1 primary, 0 extended, 3 free) e extended Select (default p): 表示磁盘有两种分区类型: “p”表示主分区。 “e”表示扩展分区。 注意 磁盘使用MBR分区形式,最多可以创建4个主分区,或者3个主分区加1个扩展分区,扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。 磁盘使用GPT分区形式时,没有主分区、扩展分区以及逻辑分区之分。 步骤6 此处分区类型需要与原分区保持一致,以原分区类型是“主分区”为例,输入“p”,按“Enter”,开始重新创建一个主分区。 回显类似如下信息: plaintext Select (default p): p Partition number (24, default 2): “Partition number”表示主分区编号。 步骤7 此处分区编号需要与原分区保持一致,以原分区编号是“2”为例,输入分区编号“2”,按“Enter”。 回显类似如下信息: plaintext Partition number (24, default 2): 2 First sector (209715200482344959, default 209715200): “First sector”表示起始磁柱值。 说明 以下操作会导致数据丢失: 选择的起始磁柱值与原分区的不一致。 选择的截止磁柱值小于原分区的值。 步骤8 此处必须与原分区保持一致,输入步骤1中记录的初始磁柱值209715200,此处该值也为默认值,按“Enter”。 回显类似如下信息: plaintext First sector (209715200482344959, default 209715200): Using default value 209715200 Last sector, +sectors or +size{K,M,G} (209715200482344959, default 482344959): “Last sector”表示截止磁柱值。 步骤9 此处截止磁柱值应大于等于步骤1中记录的截止磁柱值314572799,以选择默认截止磁柱值482344959为例,按“Enter”。 回显类似如下信息: plaintext Using default value 209715200 Last sector, +sectors or +size{K,M,G} (209715200482344959, default 482344959): Using default value 482344959 Partition 2 of type Linux and of size 130 GiB is set Command (m for help): 表示分区完成。 步骤10 输入“p”,按“Enter”,查看分区的详细信息。 回显类似如下信息: plaintext Command (mfor help): p Disk /dev/vdb: 247.0 GB, 246960619520 bytes, 482344960 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x38717fc1 Device Boot Start End Blocks Id System /dev/vdb1 2048 209715199 104856576 83 Linux /dev/vdb2 209715200 482344959 136314880 83 Linux Command (m for help): 步骤11 输入“w”,按“Enter”,将分区结果写入分区表中。 回显类似如下信息: plaintext Command (m for help): w The partition table has been altered! Calling ioctl() to reread partition table. WARNING: Rereading the partition table failed with error 16: Device or resource busy. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. 说明 如果之前分区操作有误,请输入“q”,则会退出fdisk分区工具,之前的分区结果将不会被保留。 步骤12 执行以下命令,将新的分区表变更同步至操作系统。 partprobe 步骤13 根据磁盘的文件系统,分别执行以下操作。 若磁盘文件系统为ext,请执行以下步骤。 a. 执行以下命令,检查磁盘分区文件系统的正确性。 e2fsck f 磁盘分区 命令示例: e2fsck f /dev/vdb2 回显类似如下信息: plaintext [root@ecstest0001 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Linux磁盘扩容后处理
        扩展数据盘的分区和文件系统(Linux)
      • 如何自定义可自动扩容root分区的Linux私有镜像?
        UUID7c4fce5df8f74ed68463f2bd22d0ddea / ext4 defaults 1 1 UUID5de3cf2c30c64fb29e63830439d4e674 swap swap defaults 0 0 c. 执行如下命令,打开/etc/fstab文件,按“i”键进入编辑状态。 vi /etc/fstab d. 清除swap分区配置,按“ESC”键退出编辑状态并执行如下命令保存配置。 wq! e. 执行如下命令,查看配置是否已更改。 tail n 3 /etc/fstab 回显信息如下所示,此时只有root分区的UUID信息。 UUID7c4fce5df8f74ed68463f2bd22d0ddea / ext4 defaults 1 1 f.执行如下命令,关闭swap设备。 swapoff a g. 执行如下命令,查看/dev/xvda磁盘分区情况。 parted /dev/xvda 回显信息如下所示。 [root@test0912 bin] parted /dev/xvda GNU Parted 3.1 Using /dev/xvda Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) h. 输入如下命令,查看当前分区情况。 p 回显信息如下所示。 (parted) p Model: Xen Virtual Block Device (xvd) Disk /dev/xvda: 42.9GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 4296MB 4295MB primary linuxswap(v1) 2 4296MB 42.9GB 38.7GB primary xfs boot (parted) i.输入如下命令,删除第2个磁盘分区。 rm 2 回显信息如下所示。 (parted) rm 2 (parted) j.输入如下命令,查看当前分区情况。 p 回显信息如下所示。 (parted) p Model: Xen Virtual Block Device (xvd) Disk /dev/xvda: 42.9GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 41.0GB 40.9GB primary ext4 boot k. 输入quit退出。 l.执行如下命令,查看/dev/xvda磁盘分区情况。 parted l /dev/xvda 回显信息如下所示,swap分区已经删除。 Model: Xen Virtual Block Device (xvd) Disk /dev/xvda: 42.9GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 41.0GB 40.9GB primary ext4 boot m. 为了支持镜像自动扩容到root分区,请安装growpart。 执行以下命令完成growpart安装。 yum install cloud 说明: growpart可能集成在cloudutilsgrowpart/cloudutils/cloudinitramfstools/cloudinit包里,可以直接执行上述命令并确保growpart命令可用。 n. 执行如下命令,将/dev/xvda的swap分区扩容给root分区所在的第1个分区。 growpart /dev/xvda 1 回显信息如下所示: CHANGED: partition1 start2048 old: size79978496 end79980544 new: size83873317,end83875365 o. 执行如下命令,查看/dev/xvda磁盘分区情况。 parted l /dev/xvda 回显信息如下所示: Model: Xen Virtual Block Device (xvd) Disk /dev/xvda: 42.9GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 42.9GB 42.9GB primary ext4 boot p. 执行如下命令,获取文件系统类型和UUID。 blkid 回显信息如下所示: /dev/xvda1: UUID"7c4fce5df8f74ed68463f2bd22d0ddea" TYPE"ext4" q. 关闭云主机转成私有镜像。 [root@sluoecse6dcresizefs ~]
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        Cloud-init操作类
        如何自定义可自动扩容root分区的Linux私有镜像?
      • 操作系统类
        如何设置物理机镜像密码的有效期? 如果物理机镜像密码已过期导致无法登录,请联系管理员处理。 如果物理机还可正常登录,用户可以参考以下操作设置密码有效期,避免密码过期造成的不便。 步骤 1 登录物理机操作系统,执行以下命令查看密码有效期。 vi /etc/login.defs 找到配置项“PASSMAXDAYS”,该参数表示密码的有效时间。 步骤 2 执行以下命令,修改步骤1中“PASSMAXDAYS”参数的取值。 chage M 99999 username 其中,99999为密码有效期限,username为系统用户。 建议用户根据实际情况及业务需求进行配置,定期使用该命令更新密码有效期。 步骤 3 再次执行vi /etc/login.defs,验证配置是否生效。 Windows物理机的系统时间与本地时间相差8小时,如何处理? 问题原因 Linux操作系统以主机板CMOS芯片的时间作为格林尼治标准时间,再根据设置的时区来确定系统的当前时间。但是一般Windows操作系统并不如此,Windows系统直接将CMOS时间认定为系统当前时间,不再根据时区进行转换。 解决方案 步骤 1 登录Windows物理机操作系统。 步骤 2 单击“开始”菜单,在“搜索程序和文件”中输入“regedit”,并按“Enter”,打开注册表。 步骤 3 在“注册表编辑器”页面,选择“HKEYLOCALMACHINE > SYSTEM > CurrentControlSet > Control > TimeZoneInformation”。 步骤 4 在“TimeZoneInformation”右侧区域右键单击,选择“新建 > DWORD (32位)值(D)”,添加一项类型为REGDWORD的机码,名称为RealTimeIsUniversal,值设为1。 步骤 5 修改完成后,重启物理机。 重启完成后,物理机时间和本地时间保持一致。
        来自:
        帮助文档
        物理机 DPS
        常见问题
        操作系统类
      • 对象相关接口
        返回结果 PutObjectOutput返回的属性如下: 参数 类型 说明 ETag string 上传对象后对应的Entity Tag VersionId string 上传对象后相应的版本Id。 ServerSideEncryption string 返回对象数据加密的算法名称。 生成预签名上传链接 功能说明 本接口能够为一个指定对象生成一个预签名的上传链接,访问该链接可以直接上传该对象。 代码示例 以下代码演示如何为一个指定对象生成一个预签名的上传链接。 plaintext func generatePresignedPut(svc s3.S3) { req, : p.svc.PutObjectRequest(&s3.PutObjectInput{ Bucket: aws.String(" "), Key: aws.String(" "), }) expires : 5 time.Minute urlStr, err : req.Presign(expires) if err ! nil { fmt.Println("Failed to generate presigned URL:", err) }else { fmt.Println("Generated upload URL:", urlStr) } } 通过该预签名URL,可以直接将文件上传到指定的桶: plaintext func (p S3Demo) putObjUsingPresignedUrl(url string, filePath string) error { file, err : os.Open(filePath) if err ! nil { return fmt.Errorf("failed to open file %s: %w", filePath, err) } defer file.Close() ​ // 读取文件内容并获取长度 fileData, err : ioutil.ReadAll(file) if err ! nil { return fmt.Errorf("failed to read file data: %w", err) } contentLength : len(fileData) ​ // 创建 PUT 请求 req, err : http.NewRequest("PUT", url, bytes.NewReader(fileData)) if err ! nil { return fmt.Errorf("failed to create request: %w", err) } ​ // 设置 ContentLength req.Header.Set("ContentLength", fmt.Sprintf("%d", contentLength)) req.ContentLength int64(contentLength) ​ client : &http.Client{} resp, err : client.Do(req) if err ! nil { return fmt.Errorf("failed to upload file: %w", err) } defer resp.Body.Close() ​ if resp.StatusCode ! http.StatusOK { bodyBytes, : io.ReadAll(resp.Body) return fmt.Errorf("failed to upload file, status: %s, response: %s", resp.Status, string(bodyBytes)) } ​ fmt.Println("Successfully uploaded file to:", url) return nil }
        来自:
        帮助文档
        媒体存储
        SDK参考
        GO SDK
        对象相关接口
      • 开发事件函数示例
        步骤三:本地验证 1. 启动docker容器 docker run u 1003:1003 p 8000:8000 customcontainereventexample:latest 2. 打开一个新的命令行窗口,向开放的8000端口发送消息,访问模板代码中指定的/init路径 curl XPOST H 'ContentType: application/json' localhost:8000/init 按照模块代码中返回 Hello init 3. 打开一个新的命令行窗口,向开放的8000端口发送消息,访问模板代码中指定的/invoke路径 curl XPOST H 'ContentType: application/json' d '{"message":"HelloWorld"}' localhost:8000/invoke 按照模块代码中返回 Hello invoke 4. 在容器启动端口可以看到 Listening on receive {} receive { message: 'HelloWorld' } 或者使用docker logs命令获取容器的日志 步骤四:上传镜像 1. 登录容器镜像服务控制台,在左侧导航栏选择“我的镜像”。 2. 单击右上角的“客户端上传”或“页面上传”。 3. 根据指示上传镜像。 4. 上传成功后,在“我的镜像”界面可查看。 步骤五:创建函数 1. 登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 单击右上方的“创建函数”,进入“创建函数”页面,使用容器镜像部署函数。 3. 填写基本信息。 函数类型:选择“事件函数” 函数名称:输入“customcontainerevent” 容器镜像:选择上一步上传到SWR的镜像。 现有委托:使用包含SWR Admin权限的委托。 4. 完成后单击“创建函数”。 5. 在函数详情页“设置 > 高级设置”,开启“初始化函数”,即调用init接口进行初始化。
        来自:
        帮助文档
        函数工作流
        快速入门
        使用容器镜像部署函数
        开发事件函数示例
      • 配置分词
        ASCII码对照表 ASCII码对照表 ASCII值 控制字符 ASCII值 控制字符 ASCII值 控制字符 ASCII值 控制字符 :::::::: 0 NUL(空字符) 32 空格 64 @ 96 1 SOH(标题开始) 33 ! 65 A 97 a 2 STX(正文开始) 34 " 66 B 98 b 3 ETX(正文结束) 35 67 C 99 c 4 EOT(传输结束) 36 $ 68 D 100 d 5 ENQ(询问字符) 37 % 69 E 101 e 6 ACK(确认回应) 38 & 70 F 102 f 7 BEL(响铃) 39 ' 71 G 103 g 8 BS(退格) 40 ( 72 H 104 h 9 HT(水平定位符号,制表符) 41 ) 73 I 105 i 10 LF(换行) 42 74 J 106 j 11 VT(垂直定位符号) 43 + 75 K 107 k 12 FF(换页键) 44 , 76 L 108 l 13 CR(归位键) 45 77 M 109 m 14 SO(取消变换) 46 . 78 N 110 n 15 SI(启用变换) 47 / 79 O 111 o 16 DLE(跳出数据通讯) 48 0 80 P 112 p 17 DC1(设备控制1) 49 1 81 Q 113 q 18 DC2(设备控制2) 50 2 82 R 114 r 19 DC3(设备控制3) 51 3 83 S 115 s 20 DC4(设备控制4) 52 4 84 T 116 t 21 NAK(确认失败回应) 53 5 85 U 117 u 22 SYN(同步用暂停) 54 6 86 V 118 v 23 ETB(区块传输结束) 55 7 87 W 119 w 24 CAN(取消) 56 8 88 X 120 x 25 EM(连接介质中断) 57 9 89 Y 121 y 26 SUB(替换) 58 : 90 Z 122 z 27 ESC(跳出) 59 ; 91 [ 123 { 28 FS(文件分割符) 60 94 ^ 126 ~ 31 US(单元分隔符) 63 ? 95 127 DEL(删除)
        来自:
        帮助文档
        应用运维管理
        用户指南
        配置管理
        日志配置
        配置分词
      • 添加路由
        本章节主要介绍如何添加路由。 操作场景 路由即路由规则,在路由中通过配置目的地址、下一跳类型、下一跳地址等信息,来决定网络流量的走向。路由分为系统路由和自定义路由。 增强型跨源连接创建后,子网会自动关联系统默认路由。除了系统默认路由,您可以根据需要添加自定义路由规则,将指向目的地址的流量转发到指定的下一跳地址。 创建增强型跨源时的路由表是数据源子网关联的路由表。 添加路由信息页的路由是弹性资源池子网关联的路由表中的路由。 数据源子网与弹性资源池所在子网为不同的子网,否则会造成网段冲突。 操作步骤 1. 登录DLI管理控制台。 2. 在左侧导航栏中,选择“跨源管理 > 增强型跨源 ”。 3. 选择待添加路由的增强型跨源连接,并添加路由。 方法一: a. 选择待添加的增强型跨源连接,单击操作列的“路由信息”。 b. 单击“添加路由”。 c. 在添加路由的对话框中,填写路由信息。参数说明请参考下表。 d. 单击“确定”。 方法二: a. 选择待添加的增强型跨源连接,单击操作列的“更多 > 添加路由”。 b. 在添加路由的对话框中,填写路由信息。参数说明请参考下表。 c. 单击“确定”。 自定义路由详情列表参数 参数 参数说明 路由名称 自定义路由的名称,在同一个增强型跨源中唯一。名称规则为:长度1~64字节,数字、字母、下划线("")、中划线("")组成。 路由IP 自定义路由网段,允许不同路由的网段之间有交集,但不允许完全相同。 4. 添加路由信息后,您可以在路由详情页查看添加的路由信息。
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        添加路由
      • 作业开发类
        本章节主要介绍操作类问题中有关作业开发的问题。 如何准备MRS的数据源? MRS既可以处理OBS中的数据,也可以处理HDFS中的数据。在使用MRS分析数据前,需要先准备数据。 1.将本地数据上传OBS。 a.登录OBS管理控制台。 b.在OBS上创建userdata并行文件系统,然后在userdata文件系统下创建program、input、output和log文件夹。 i.单击“并行文件系统 > 创建并行文件系统”,创建一个名称为userdata的文件系统。 ii.在OBS文件系统列表中单击文件系统名称userdata,选择“文件 > 新建文件夹”,分别创建program、input、output和log目录。 c.上传数据至userdata文件系统。 i.进入program文件夹,单击“上传文件”。 ii.单击“添加文件”并选择用户程序。 iii.单击“上传”。 iv.使用同样方式将用户数据文件上传至input目录。 2.将OBS数据导入至HDFS。 当“Kerberos认证”为“关闭”,且运行中的集群,可执行将OBS数据导入至HDFS的操作。 a.登录MRS管理控制台。 b.单击集群名称进入集群详情页面。 c.单击“文件管理”,选择“HDFS文件列表”。 d.进入数据存储目录,如“bdapp1”。 “bdapp1”目录仅为示例,可以是界面上的任何目录,也可以通过“新建”创建新的目录。 e.单击“导入数据”,通过单击“浏览”选择OBS和HDFS路径。 f.单击“确定”。 文件上传进度可在“文件操作记录”中查看。 MRS集群支持提交哪些形式的Spark作业? 当前在MRS页面,集群支持提交Spark、Spark Script和Spark SQL形式的Spark作业。 MRS集群的租户资源最小值改为0后,只能同时运行一个Spark任务吗? 租户资源最小值改为0后,只能同时运行一个Spark任务。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        作业开发类
      • 下载并安装Agent
        安装Agent(Windows操作系统) 安装Agent后,您才能开启数据库安全审计。通过本节介绍,您将了解如何在Windows操作系统的节点上安装Agent。Linux操作系统的Agent安装请参见安装Agent(Linux操作系统)。 安装Agent 1. 在Windows主机安装“Npcap”软件。 如果该Windows主机已安装“Npcap”,请执行步骤2。 如果该Windows主机未安装“Npcap”,请执行以下步骤: a. 请前往 下载npcap b.将下载好的npcap xxxx .exe软件安装包上传至需要安装agent的虚拟机。 c.双击npcap软件安装包。 d.在弹出的对话框中,单击“I Agree”,如图所示。 同意安装“Npcap” e.在弹出的对话框中,单击“Install”,不勾选安装选项,如图所示。 安装“Npcap” f.在弹出的对话框中,单击“Next”。 g.单击“Finish”,完成安装。 2. 以“Administrator”用户登录到Windows主机。 3. 将下载的Agent安装包“xxx.zip”复制到该主机任意一个目录下。 4. 进入Agent安装包所在目录,并解压缩安装包。 5. 进入解压后的文件夹,双击“install.bat”执行文件。 6. 安装成功,界面如图所示,按任意键结束安装。 7. 安装完成后,在Windows任务管理器中查看“dbssauditagent”进程。如果进程不存在,说明Agent安装失败,请尝试重新安装Agent。
        来自:
        帮助文档
        数据库安全
        快速入门
        下载并安装Agent
      • 高优先级应用的CPU独占与隔离
        本节介绍高优先级应用的CPU独占与隔离的用户指南。 为高优先级应用(LSE优先级)配置CPU独占与隔离,可以确保关键业务应用获得独占的CPU资源,避免与其他应用争抢资源,从而保证应用性能的稳定性和可预测性。 适用场景 需要为关键业务应用提供独占CPU资源,确保性能稳定 需要避免高优先级应用与低优先级应用之间的CPU资源争抢 需要验证CPU独占与隔离配置是否生效 功能概览 CPU核级独占:为高优先级应用分配独占的CPU核心 资源隔离:通过cgroup cpuset确保其他应用不会使用已分配的CPU核心 优先级保障:与混部优先级系统集成,支持LSE(LatencySensitiveExclusive)优先级 操作指南 环境准备 确保集群中已安装并配置好koordruntimeproxy组件,并已正确配置kubelet使用该runtime proxy。 1、检查节点状态 plaintext kubectl get node o wide 确认目标节点状态为Ready,并记录节点名称。 2、检查 DaemonSet 状态 plaintext kubectl n koordinatorsystem get ds koordruntimeproxy koordruntimeproxyarm64 确保DaemonSet状态正常。 创建高优先级应用 1、LSE优先级绑定 无需手动创建 ColocationProfile;请参照在离线应用优先级管理文档中的步骤,将应用与 LSE 优先级配置进行绑定。 2、创建高优先级应用 创建以下YAML文件并应用,部署一个高优先级应用: plaintext apiVersion: apps/v1kind: Deploymentmetadata: name: nginx namespace: defaultspec: replicas: 2 selector: matchLabels: app: nginx version: v1 template: metadata: labels: app: nginx version: v1 koordinator.sh/colocationprofile: highest spec: nodeSelector: ccse.ctyun.cn/hostcode: amd643559d 替换为实际节点名称 containers: image: registryhuadong1.crsinternal.ctyun.cn/opensource/nginx:1.26alpineslim name: container1 resources: limits: cpu: "1" memory: 512Mi requests: cpu: "1" memory: 512Mi
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        调度
        在离线混部
        高优先级应用的CPU独占与隔离
      • RDS for MySQL 5.7版本升级到8.0
        本节介绍了RDS for MySQL 5.7版本升级到8.0的操作场景、前提条件、注意事项、操作步骤等相关内容等。 操作场景 云数据库 RDS for MySQL支持通过以下两种方式升级实例大版本: 通过RDS界面升级大版本:如需该操作请提交工单进行权限申请。 通过DRS升级大版本:通过DRS迁移功能将RDS for MySQL低版本实例迁移到高版本。 前提条件 通过RDS界面升级大版本功能目前支持西宁、海口、太原、南昌、郑州、乌鲁木齐、内蒙3、兰州、福州、北京2、长沙2、广州4、苏州、杭州、成都3、芜湖、上海4、深圳、武汉2、中卫、重庆、石家庄、青岛、贵州、西安2、华北。 如果用户创建DRS任务使用的是子账号,需要完成DRS账户委托,否则会导致升级失败。具体操作如下。 当用户创建DRS任务使用的是子账号,执行定时启动任务、全量完成自动结束、自动续传失败任务、定时对比任务等自动功能时,可能会访问全局服务或是Region级别服务,需要使用“账户委托”,否则会导致执行失败。 数据复制服务支持在创建任务的时候,自动将用户账户委托给数据复制服务的管理租户,即opsvcrds,便于在执行定期任务的时候,具有对任务实行自动化管理的权限。 解决方案: 方法一:使用主账号重新创建一次任务,主账号默认有Security Administrator权限,可在创建任务后将委托创建出来。 方法二:使用主账号在子账号所在的用户组添加Security Administrator权限后,重新创建任务。 方法三:手动添加“账户委托”,添加步骤如下: a. 使用主账号登录天翼云,在右上角单击“控制台”。 b. 在控制台页面管理与部署页面,选择“统一身份认证服务”。 c. 在统一身份认证页面,单击左侧导航窗格中“委托”,进入“委托”页面。 d. 在“委托”页面,单击右上方的“创建委托”进行委托创建。 e. 填写委托名称为“DRSAGENTCY” ,委托类型为 “普通账号”时, 委托的账号为 “opsvcrds”;持续时间为“永久”,完成后单击“完成”。 图 创建委托 f. 在“选择策略”页面,选择DRSAGENTCY的授权策略,委托权限需配置全局的 Tenant Administrator,完成后单击右下角的“下一步”。 图 选择策略 g. 在“设置最小授权范围”页面,先选择全局服务资源授权,点击右下角的“确定”后,在授权记录页面再点击“授权”,基于指定区域设置最小授权范围,完成后单击右下角的“确定”。 图 全局服务资源授权 图 指定区域项目授权 h. 授权完成后,单击委托名称,在“授权记录”中可看到全局服务和指定区域两条授权记录。 图 授权记录 i. 权限生效时间提醒,您选中的OBS权限由于系统设计的原因,授权后需等待1530分钟才可生效,权限生效后重新创建即可。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        RDS for MySQL 5.7版本升级到8.0
      • 参数名称和值
        本页介绍天翼云TeleDB数据库参数名称和值。 TeleDB的所有参数名都是大小写不敏感的。每个参数都可以接受五种类型之一的值: 布尔、字符串、整数、 浮点数或枚举。该类型决定了设置该参数的语法: 布尔: 值可以被写成 on, off, true, false, yes, no, 1, 0 (都是大小写不敏感的)或者这些值的任何无歧义前缀。 字符串: 通常值被包括在单引号内,值内部的任何单引号都需要被双写。不过,如果值是一个简单数字或者标识符,引号通常可以被省略。 数字(整数和浮点): 只对浮点参数允许一个小数点。不要使用千位分隔符。不要求引号。 带单位的数字: 一些数字参数具有隐含单位,因为它们描述内存或时间量。单位可能是千字节、块(通常是8KB)、毫秒、秒或分钟。这些设置之一的一个未修饰的数字值将使用该设置的默认单位,默认单位可以通过引用pgsettings.unit来找到。为了方便,也可以显式地指定一个不同的单位,例如时间值可以是'120 ms',并且它们将被转换到参数的实际单位。要使用这个特性,注意值必须被写成一个字符串(带有引号)。单位名称是大小写敏感的,并且在数字值和单位之间可以有空白。 可用的内存单位是kB(千字节)、MB(兆字节)、GB(吉字节)和TB (terabytes)。内存单位的乘数是 1024 而不是 1000。 可用的时间单位是ms(毫秒)、s(秒)、min(分钟)、h(小时)和d(天)。 枚举: 枚举类型的参数以与字符串参数相同的方式指定,但被限制到一组有限的值。 这样一个参数可用的值可以在pgsettings.enumvals 中找到。枚举参数值是大小写无关的。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        参数设置说明
        参数名称和值
      • 通过API访问CCE最佳实践
        2、开发API。 a. 创建API分组。 1. 在左侧导航栏中选择“API管理 > API分组”。 2. 单击“创建API分组 > 直接创建”。 3. 填写API分组信息后,单击“确定”。 b. 创建API并绑定已创建的负载通道。 1. 单击已创建的API分组名称,进入分组详情页面,在“API运行”页签中单击“创建API > 创建API”。 2. 配置前端信息后,单击“下一步”。 参数 配置说明 :: API名称 填写API名称,建议您按照一定的命名规则填写,方便您快速识别和查找。 所属分组 此处选择已创建的API分组。 URL 请求方法:接口调用方式,此处选择“ANY”。 请求协议:选择API请求协议,此处选择“HTTPS”。 子域名:API分组创建后,系统为分组自动分配一个内部测试用的调试域名,此调试域名每天最多可以访问1000次。 路径:接口请求路径。 网关响应 API网关未能成功处理API请求,从而产生的错误响应。默认网关响应为“default”。 匹配模式 此处选择“前缀匹配”。 安全认证 选择API认证方式,此处选择“无认证”。(无认证模式,安全级别低,所有用户均可访问,不推荐在实际业务中使用) 3. 配置后端信息后,单击“下一步”。 参数 配置说明 :: 负载通道 选择“使用”负载通道访问后端服务。 URL 请求方法:接口调用方式,此处选择“ANY”。 请求协议:选择协议类型,此处选择“HTTP”。 负载通道:填写已创建的负载通道。 路径:后端服务的路径。 4. 定义返回结果后,单击“完成”。 c. 调试API。 在“API运行”页签中,单击“调试”,进入调试页面。再次单击“调试”,响应结果中返回状态码“200”,表示调试成功,执行下一步。否则,根据错误码信息进行处理。 d. 发布API。 在“API运行”页签中,单击“发布最新版本”,默认选择“RELEASE”环境,单击“确定”。发布按钮左上角的感叹号消失,表示发布成功,执行下一步。否则,根据错误信息提示修改。
        来自:
        帮助文档
        API网关
        最佳实践
        APIG开放CCE云容器应用
        通过API访问CCE最佳实践
      • 配置增强高速网卡(SUSE Linux Enterprise Server 12系列)
        本文主要介绍如何配置增强高速网卡(SUSE Linux Enterprise Server 12系列)。 下面以SUSE Linux Enterprise Server 12 SP3 (x8664)操作系统为例,举例介绍物理机增强高速网卡的配置方法,包括增加和删除网卡时的配置。 增加网卡: 其他OS的配置方法请参考: SUSE Linux Enterprise Server 11系列 RedHat系列,CentOS系列,Oracle Linux系列,Euler系列 Ubuntu系列 Windows Server系列 1.以“root”用户,使用密钥或密码登录物理机。 2.进入物理机的命令行界面,查询网卡信息。 ip link 返回信息示例如下: 1: lo: mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: eth0: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff 3: eth1: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff 4: eth2: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 40:7d:0f:52:e3:a5 brd ff:ff:ff:ff:ff:ff 5: eth3: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 40:7d:0f:52:e3:a6 brd ff:ff:ff:ff:ff:ff 6: bond0: mtu 8888 qdisc noqueue state UP mode DEFAULT group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff 说明 其中,“eth0”和“eth1”为承载VPC网络的网络设备,“eth2”和“eth3”为承载增强高速网络的网络设备。 3.设置udev规则。 执行以下命令创建“80persistentnet.rules”文件。 cp /etc/udev/rules.d/70persistentnet.rules /etc/udev/rules.d/80persistentnet.rules 将2中查询到的,且“80persistentnet.rules”中未体现的网卡MAC地址和名称,写入该文件中,使得物理机重启复位后,网卡名称和顺序不会发生改变。 说明 网卡的MAC地址和名称中的字母,请使用小写字母。 vim /etc/udev/rules.d/80persistentnet.rules 修改后的示例如下: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:5d:b7:2a", NAME"eth0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:5d:b7:2b", NAME"eth1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e3:a5", NAME"eth2" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"40:7d:0f:52:e3:a6", NAME"eth3" 4.创建“eth2”和“eth3”网卡的配置文件,可以通过复制已有网卡配置文件的方式快速创建。 cd /etc/sysconfig/network cp ifcfgeth0 ifcfgeth2 cp ifcfgeth1 ifcfgeth3 修改“eth2”和“eth3”网卡的配置文件。 vi ifcfgeth2 “eth2”网卡配置文件的修改示例如下: STARTMODEauto MTU8888 NMCONTROLLEDno BOOTPROTOSTATIC DEVICEeth2 USERCONTRLno LLADDR40:7d:0f:52:e3:a5 TYPEEthernet 说明 其中,参数“MTU”配置为“8888”,“BOOTPROTO”需要配置为“STATIC”,参数“DEVICE”、“LLADDR”根据实际情况填写。 vi ifcfgeth3 “eth3”网卡配置文件的修改示例如下: STARTMODEauto MTU8888 NMCONTROLLEDno BOOTPROTOSTATIC DEVICEeth3 USERCONTRLno LLADDR40:7d:0f:52:e3:a6 TYPEEthernet 修改完成后,保存并退出。 5.将“eth2”和“eth3”组bond,假设为“bond1”。 创建ifcfgbond1文件并修改配置: cp ifcfgbond0 ifcfgbond1 vi ifcfgbond1 “bond1”网卡配置文件的修改示例如下: BONDINGMASTERyes TYPEBond MTU8888 STARTMODEauto BONDINGMODULEOPTS"mode1 miimon100" NMCONTROLLEDno BOOTPROTOSTATIC DEVICEbond1 USERCONTRLno LLADDR40:7d:0f:52:e3:a5 BONDINGSLAVE1eth2 BONDINGSLAVE0eth3 IPADDR10.10.10.104 NETMASK255.255.255.0 NETWORK10.10.10.0 说明 其中,参数“MTU”配置为“8888”,“BONDINGMODULEOPTS”配置为“mode1 miimon100”,“BOOTPROTO”需要配置为“STATIC”,“DEVICE”、“BONDINGSLAVE1”、“BONDINGSLAVE0”、“IPADDR”、“NETMASK”、“NETWORK”根据实际需要填写,“LLADDR”配置为参数“BONDINGSLAVE1”对应网卡的LLADDR。 修改完成后,保存并退出。 6.执行以下命令,启动新增的bond1网卡。 wicked ifup bond1 7.查询IP地址信息,可查看到IP地址已分配。 ip addr show 示例如下: 1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo validlft forever preferredlft forever inet6 ::1/128 scope host validlft forever preferredlft forever 2: eth0: mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff 3: eth1: mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff 4: eth2: mtu 1500 qdisc mq master bond1 state UP group default qlen 1000 link/ether 40:7d:0f:52:e3:a5 brd ff:ff:ff:ff:ff:ff 5: eth3: mtu 1500 qdisc mq master bond1 state UP group default qlen 1000 link/ether 40:7d:0f:52:e3:a5 brd ff:ff:ff:ff:ff:ff 6: bond0: mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:57:90:c9 brd ff:ff:ff:ff:ff:ff inet 172.16.2.44/24 brd 172.16.2.255 scope global bond0 validlft forever preferredlft forever inet6 fe80::f816:ff:fe57:90c9/64 scope link validlft forever preferredlft forever 7: bond1: mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether 40:7d:0f:52:e3:a5 brd ff:ff:ff:ff:ff:ff inet 10.10.10.104/24 brd 10.10.10.255 scope global bond1 validlft forever preferredlft forever inet6 fe80::427d:fff:fe52:e3a5/64 scope link validlft forever preferredlft forever 8.参考上述步骤,完成其他物理机上的配置。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        增强高速网络
        配置增强高速网卡(SUSE Linux Enterprise Server 12系列)
      • 数据订阅
        本节主要介绍数据订阅 AOM支持用户订阅指标或者告警信息,订阅后可以将数据转发到用户配置的kafka或DMS的Topic中,供消费者消费转发的订阅的信息。 说明 最多可创建10个数据订阅规则。 创建订阅规则 步骤 1 在左侧导航栏中选择“配置管理 > 数据订阅”。 步骤 2 单击“创建订阅规则”,设置相关参数后,单击“确定”。 您可根据实际需求,选择订阅目标类型为“自定义Kafka”或“分布式消息服务DMS”。 1、订阅目标类型为“自定义Kafka”。 数据订阅规则参数说明 参数 说明 示例 规则名称 订阅规则名称。 输入:aomkafkatest。 订阅内容 支持“指标”和“告警”。 选择:指标。 订阅目标类型 选择“自定义Kafka”或“分布式消息服务DMS”。 自定义Kafka 订阅目标连接地址 用户自己的kafka地址,需要打通网络。格式为逗号分割的ipv4:port。例如: 192.168.0.1:9092,192.168.0.2:9092 根据实际情况填写。 a.(可选)进入到“规则详情”,单击 ,配置Kafka SASLSSL,参数如下表所示。 说明 AOM当前仅支持Kafka SASLSSL安全认证配置,如果目前实例已经开启Kafka SASLSSL,请打开此开关。 配置Kafka SASLSSL参数 参数 说明 示例 用户名 SASL用户名用于实例访问认证。 demo 密码 SASL密码用于实例访问认证,请妥善管理密码,系统无法获取您设置的密码内容。 客户端证书 请采用.pem格式的客户端证书 b.单击“验证并保存自定义Kafka配置信息”,验证自定义Kafka实例连通性。 c.选择数据发送topic后,单击“确定”。 2、订阅目标类型选择“分布式消息服务DMS”,请参考下表配置参数。 数据订阅规则参数说明 参数 说明 示例 规则名称 订阅规则名称 输入:aomkafkatest。 订阅内容 支持“指标”和“告警”。 选择:指标。 订阅目标类型 选择“自定义Kafka”或“分布式消息服务DMS”。 分布式消息服务DMS 实例 选择DMS实例,如没有DMS实例,请单击“创建DMS实例”,创建DMS实例。 kafkaaom7160 a. 进入到“规则详情”,单击“创建网络连接通道”。 b. 验证DMS实例连通性。 您需要确保在安全组"入方向规则"中,放通9011端口,源地址为"198.19.128.0/20"的网络流量。设置安全组规则操作如下: i. 登录管理控制台。 ii. 在左侧导航栏,单击 ,选择“网络 > 虚拟私有云 VPC”。 iii. 在左侧导航栏单击“访问控制 > 安全组”,在使用DMS所在的安全组右侧,单击“配置规则”。 iv. 在“入方向规则”页签下,单击“添加规则”,放通9011端口、源地址为“198.19.128.0/20”的网络流量。 c. 单击“验证并保存DMS配置信息”。 d. 选择数据发送topic后,单击“确定”。 数据订阅格式说明 AOM格式的指标JSON格式代码片断 package metric type MetricDatas struct { Metrics []Metrics json:"metrics" ProjectId string json:"projectid" } type Metrics struct { Metric Metric json:"metric" Values []Value json:"values" CollectTime int64 json:"collecttime" } type Metric struct { Namespace string json:"namespace" Dimensions []Dimension json:"dimensions" } type Value struct { Value interface{} json:"value" Type string json:"type" Unit string json:"unit" StatisticValues string json:"statisticvalues" MetricName string json:"metricname" } type Dimension struct { Name string json:"name" Value string json:"value" } kafka消息示例 key:, value:{"metrics":[{"metric":{"namespace":"PAAS.NODE","dimensions":[{"name":"nodeName","value":"testvsscopmaster1"},{"name":"nodeIP","value":"1.1.1.1"},{"name":"hostID","value":"75d9711147344c6cae9ef6111111111"},{"name":"nameSpace","value":"default"},{"name":"clusterId","value":"46a7bc0d1d8b11ea9b04333333333333333"},{"name":"clusterName","value":"testvss111"},{"name":"diskDevice","value":"vda"},{"name":"master","value":"true"}]},"values":[{"value":0,"type":"","unit":"Kilobytes/Second","statisticvalues":"","metricname":"diskReadRate"},{"value":30.267,"type":"","unit":"Kilobytes/Second","statisticvalues":"","metricname":"diskWriteRate"}],"collecttime":1597821030037}],"projectid":"111111111111111111111"} 告警数据格式说明 示例: { "events": [{ "id": "4346299651651991683", "startsat": 1597822250194, "endsat": 0, "arrivesat": 1597822250194, "timeout": 300000, "resourcegroupid": "312313123112222222222232131312131", "metadata": { "kind": "Pod", "eventseverity": "Major", "resourcetype": "service", "clusterId": "6add4ef5135811eaa5bf111111111", "eventtype": "alarm", "clusterName": "cceief4516140c96ca4a5f8d851111111", "namespace": "PAAS.NODE", "name": "test15769793809553052f5557bd7fqnfkm", "eventname": "调度失败
        来自:
        帮助文档
        应用运维管理
        用户指南
        配置管理
        数据订阅
      • 迁移前构造数据
        本节介绍了如何在迁移前构造数据。 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 DRS支持的数据类型如下所示: 源库数据类型 目标库数据类型 源库数据类型做主键,同步能力 源库数据类型做非主键, 同步能力 源库数据类型做主键, 对比能力 源库数据类型做非主键, 对比能力 备注 CHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 VARCHAR character varying 支持 支持 支持 支持 源目标库数据表示范围不同,存在精度损失。 VARCHAR2 character varying 支持 支持 支持 支持 NCHAR character 支持 支持 支持,忽略字符前后的空格 支持,忽略字符前后的空格 NVARCHAR2 nvarchar2 支持 支持 支持 支持 NUMBER numeric 支持 支持 支持 支持 NUMBER (6,3) numeric(6,3) 支持 支持 支持 支持 NUMBER (6,0) Integer 支持 支持 支持 支持 NUMBER (3) smallint 支持 支持 支持 支持 NUMBER (6,2) integer 支持 支持 支持 支持 BINARYFLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 BINARYDOUBLE double precision 不支持(目标库不支持做主键建表) 支持 不支持 支持 FLOAT real 不支持(目标库不支持做主键建表) 支持 不支持 支持 源目标库数据表示范围不同,存在精度损失。 INT numeric 支持 支持 支持 支持 INTEGER numeric 支持 支持 支持 支持 DATE date 支持 支持 不支持 支持 DRS在目标库建表时类型为date,此时源目标库数据表示范围不同, 存在精度损失,不支持对比。 TIMESTAMP timestamp(6) without time zone 支持 支持 不支持 校验到小数点后6位 源库使用限制:支持的最大精度是6。 TIMESTAMPTZ timestamp(6) with time zone 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 TIMESTAMPLTZ timestamp(6) with time zone 不支持(目标库不支持做主键建表) 支持 不支持 过滤该列 INTERVALYM interval year to month 支持 支持 不支持 不支持 增量同步不支持该类型。 INTERVALDS interval day to second 支持 支持 不支持 不支持 增量同步不支持该类型。源库使用限制:支持的最大精度是6。 BLOB bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 CLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 NCLOB text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONG text 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 LONGRAW bytea 不支持(源库不支持做主键建表) 支持 不支持 过滤该列 RAW bytea 不支持(目标库不支持做主键建表) 支持 不支持 支持 RowID character varying(18) 支持 支持 支持 支持 BFILE 不支持 不支持 不支持 不支持 源库使用限制:不支持bfile类型。 XMLTYPE 不支持 不支持 不支持 不支持 源库使用限制:不支持xmltype类型。 UROWID 不支持 不支持 不支持 不支持 全量增量都不支持同步。 sdogeometry 不支持 不支持 不支持 不支持 源库使用限制:不支持sdogeometry类型。 NUMBER(,0) numeric 支持 支持 支持 支持 执行如下步骤在源库构造数据: 1. 根据本地的Oracle数据库的IP地址,通过数据库连接工具连接数据库。 2. 根据支持的数据类型,在源库执行语句构造数据。 a) 创建一个测试用的用户。 create user testinfo identified by xxx ; testinfo为本次实践创建的用户,xxx为用户的密码,请根据实际情况替换。 b) 给用户赋权。 grant dba to testinfo ; c) 在当前用户下创建一个数据表。 CREATE TABLE testinfo . DATATYPELIST (ID INT,COL01CHARE CHAR(100),COL02NCHARE NCHAR(100),COL03VARCHARE VARCHAR(1000),COL04VARCHAR2E VARCHAR2(1000),COL05NVARCHAR2E NVARCHAR2(1000),COL06NUMBERE NUMBER(38,0),COL07FLOATE FLOAT(126),COL08BFLOATE BINARYFLOAT,COL09BDOUBLEE BINARYDOUBLE,COL10DATEE DATE DEFAULT SYSTIMESTAMP,COL11TSE TIMESTAMP(6),COL12TSTZE TIMESTAMP(6) WITH TIME ZONE,COL13TSLTZE TIMESTAMP(6) WITH LOCAL TIME ZONE,COL14CLOBE CLOB DEFAULT EMPTYCLOB(),COL15BLOBE BLOB DEFAULT EMPTYBLOB(),COL16NCLOBE NCLOB DEFAULT EMPTYCLOB(),COL17RAWE RAW(1000),COL19LONGRAWE LONG RAW,COL24ROWIDE ROWID,PRIMARY KEY(ID)); d) 插入两行数据。 insert into testinfo.DATATYPELIST values(4,'huawei','xian','shanxi','zhongguo','shijie', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); insert into testinfo.DATATYPELIST values(2,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA'); e) 使语句生效。 commit; 3. 在目标端创建库。 a) 登录天翼云控制台。 b) 单击管理控制台左上角的,选择区域。 c) 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据管理服务”。 d) 在数据管理服务DAS左侧导航栏,单击“开发工具”,进入开发工具数据库登录列表页面。 e) 单击“新增数据库登录”,打开新增数据库登录窗口。 f) 选择“数据库引擎”、“数据库来源”、目标实例,填写登录用户名、密码以及描述(非必填项)信息,开启定时采集、SQL执行记录功能。 g) 您可根据需要选择“测试连接”(必选操作步骤)。 如测试连接成功,将提示“连接成功”,您可继续新增操作。如测试连接失败,将提示连接失败原因,您需根据提示信息进行修改,以便新增数据库登录成功。 h) 设置完登录信息,单击“立即新增”。 i) 新增完成后,单击新增登录的“登录”,登录当前数据库。 j) 进入SQL查询页面。 k) 执行如下语句创建兼容Oracle的数据库。 此例中为:testdatabaseinfo,请根据实际情况选择。 CREATE DATABASE testdatabaseinfo DBCOMPATIBILITY 'ORA';
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移前构造数据
      • 步骤三:开发代码
        修改、提交代码 在迭代规划时将门店查询功能分解为前端展示与后台管理两个task,本节以Task“前端展示 添加门店网络菜单”介绍如何使用修改与提交代码。 步骤 1 单击导航“工作”,选择“迭代”页签。 在迭代4中找到Task“前端展示 添加门店网络菜单”,将Task的状态修改为“进行中”。 步骤 2 单击导航“代码 > 代码托管”,找到仓库“phoenixsample”。 步骤 3 单击仓库名称进入代码仓库,选择“代码”页签。 步骤 4 单击文件列表上方的“master”,在下拉列表中选择分支“FeatureStore”。 步骤 5 在文件列表中找到“vote/templates/storenetwork.html”并打开。 步骤 6 单击,根据需求规划添加门店地址,并在页面底部文本框中输入备注信息“添加门店列表”,单击“确定”。 A分店:E机场1号航站楼出发层靠右直行123米右侧 B分店:F区G路456号 C分店:H区J街789号 D分店:K区L大道K大楼西侧 步骤 7 以同样方法打开并编辑“/vote/templates/index.html”。 在179行添加菜单“门店网络”,输入提交信息“fix xxxxxx 前端展示 添加门店网络菜单”,单击“确定”。 其中“ xxxxxx”是Task“前端展示 添加门店网络菜单”的编号,在工作项列表中获取,实践中修改为实际Task的编号。 门店网络 步骤 8 单击导航“工作 > 迭代”,在迭代4中找到Task“前端展示 添加门店网络菜单”。 单击Task名称,在详情页中可看到状态自动变为“已解决”。 选择“关联”页签,在“代码提交记录”下可看到一条记录,记录的描述与上一步中输入的提交信息相同。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤三:开发代码
      • 高级回源
        本文介绍高级回源功能及其配置说明。 功能介绍 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。开启高级回源后,CDN节点在接收到客户端请求后,读取请求中对应信息进行判断并回源到不同源站。目前天翼云CDN支持的高级回源功能包括如下: 1. 支持区分IPV4/IPV6回源,详情请见:区分IPv4/IPv6回源。 2. 支持分区域分运营商回源,详情请见:分区域分运营商回源。 3. 支持分不同目录回源:例如可设置某加速域名下:/abc/a目录回源站A,/def/d目录回源站B。 4. 支持分不同文件后缀名回源:例如可设置某加速域名下:.apk文件回源站A,.mp4文件回源站B。 注意事项 1. 上述高级回源维度可以相互组合,例如可设置如下:/abc/a目录下的.apk文件回源站A,/abc/a目录下的.mp4文件回源站B。 2. 如客户同时在控制台配置回源URI改写功能,且其中涉及目录或文件后缀名的改写,可能会造成分目录回源和分文件后缀名回源效果与预期不符。 3. 高级回源功能支持在具体某个条件下设置多个源站,且支持多个源站之间设置主备、权重。 4. 高级回源功能必须搭配源站配置功能一起使用,在某个请求未匹配至所有高级回源条件时,将按照基础回源配置回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        高级回源
      • GPU 加速型实例卸载GPU驱动
        Linux操作系统卸载驱动 对于使用run安装包安装的NVIDIA Tesla驱动,建议您按照以下步骤卸载NVIDIA Tesla驱动。 说明: 如果您使用run安装包安装NVIDIA Grid驱动,则卸载NVIDIA驱动即可,只需执行下面的步骤1。 以Ubuntu20.04 server 64bit为例,介绍Tesla 460.73.01、CUDA 11.2卸载的操作步骤。 1、卸载NVIDIA驱动。 a.执行以下命令,查询“nvidiauninstall”所在路径。 whereis nvidiauninstall “nvidiauninstall”一般在“/usr/bin/”目录下。 图 查询卸载路径 b.执行以下命令,基于查询的“nvidiauninstall”路径,卸载驱动。 /usr/bin/nvidiauninstall c.选择”Yes”,单击回车键。 图 卸载驱动选择界面 d.选择”OK”,单击回车键。 图 卸载过程选择界面 e.驱动卸载成功,单击回车键。 图 卸载成功界面 2、卸载CUDA库和cuDNN库 当需要升级CUDA驱动版本时,需要卸载对应的CUDA库后,再安装对应的CUDA版本。 a.执行以下命令,卸载CUDA库。 /usr/local/cuda/bin/cudauninstaller “cudauninstaller”一般在“/usr/local/cuda/bin”目录下。 说明: 不同CUDA版本的卸载命令可能存在差异,如果未找到“cudauninstaller”文件,可在“/usr/local/cuda/bin/”目录下查看是否存在“uninstallcuda”开头的文件。 如果有,则将命令中的“cudauninstaller”替换为“uninstallcuda”开头的文件名。 b.在卸载界面,勾选全部选项后,移动光标至“Done”,单击回车键。 图 卸载CUDA驱动 CUDA库卸载成功,会返回”Successfully uninstalled”。 c.移除CUDA库和cuDNN库: rm –rf /usr/local/cuda11.2
        来自:
      • SQL类
        场景描述 在TaurusDB中执行alter table xxx discard/import tablespace会报错:ERROR 3658 (HY000): Feature IMPORT/DISCARD TABLESPACE is unsupported (). 原因分析 alter table xxx discard/import tablespace是社区MySQL一种基于本地.ibd的表空间文件物理的做数据表内容替换(多用于数据迁移、备份恢复等)的方法。 TaurusDB是存储计算分离架构,实际数据存储于共享存储上,本地没有.ibd文件,所以不支持相应的物理操作。 解决方案 使用其他如导入导出、DRS同步、备份恢复等方式做数据表内容的替换。 数据库报错Native error 1461的解决方案 场景描述 MySQL用户通常在并发读写、大批量插入sql语句或数据迁移等场景出现如下报错信息: mysqlstmtprepare failed! error(1461)Can't create more than maxpreparedstmtcount statements (current value: 16382) 故障分析 “maxpreparedstmtcount”的取值范围为0~1048576,默认为“16382”,该参数限制了同一时间在mysqld上所有session中prepared语句的上限,用户业务超过了该参数当前值的范围。 解决方案 请您调大“maxpreparedstmtcount”参数的取值,建议调整为“65535”。 创建表失败报错Row size too large的解决方案 场景描述 MySQL用户创建表失败,出现如下报错信息: Row size too large. The maximum row size for the used table type, not counting BLOBs, is 65535. This includes storage overhead, check the manual. You have to change some columns to TEXT or BLOBs 故障分析 “varchar” 的字段总和超过了65535,导致创建表失败。 解决方案 1. 缩减长度,如下所示。 CREATE TABLE t1 (a VARCHAR(10000),b VARCHAR(10000),c VARCHAR(10000),d VARCHAR(10000),e VARCHAR(10000),f VARCHAR(10000) ) ENGINEMyISAM CHARACTER SET latin1; 2. 请参考官方文档修改一个字段为TEXT类型。
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        SQL类
      • 天翼云CPU实例部署DeepSeek-R1模型最佳实践
        总结 通过本次实践,无论是在天翼云EMR云实例上结合xFasterTransformer部署DS R1 distill Qwen7B蒸馏模型,还是基于英特尔® 至强® 6处理器部署满血版DeepSeekR1 671B模型,均验证了CPU系统在DeepSeek大模型推理上的可行性和符合业界普遍要求的性能表现。CPU系统不仅能够灵活应对不同规模的模型需求,无论是轻量化蒸馏模型还是全功能满血模型,都能高效满足用户场景需求,提供了一种低成本、经济高效的解决方案。 附录1 英特尔® 至强® 可扩展处理器与AI加速技术 最新英特尔® 至强® 可扩展处理器产品 英特尔第五代® 至强® 可扩展处理器(代号 Emerald Rapids)——为AI加速而生 第五代英特尔® 至强® 处理器以专为AI工作负载量身定制的设计理念,实现了核心架构和内存系统的双重飞跃。其64核心设计搭配高达320MB的三级缓存(每核心由1.875MB提升至5MB),相较上代缓存容量实现近三倍增长,为大规模并行AI推理提供充裕的本地数据存储空间。与此同时,处理器支持DDR55600高速内存,单路最大4TB的容量保证了大数据处理时的带宽和延迟优势。基于这些硬件提升,Emerald Rapids整体性能较上一代提升21%,AI推理性能平均提升42%,在大语言模型推理场景中可实现最高1.5倍的性能加速,同时大幅降低总拥有成本达77%。 英特尔® 至强®6处理器(代号 GNR Granite Rapids)——引领CPU AI算力革新 全新GNR处理器专为应对人工智能、数据分析及科学计算等计算密集型任务而设计。该产品在内核数量、内存带宽及专用AI加速器方面均实现重大突破: 核心与性能:每CPU配备多达128个性能核心,单路核心数较上一代翻倍,同时平均单核性能提升达1.2倍、每瓦性能提升1.6倍,进一步强化了CPU在大模型推理中的独立处理能力; AI加速功能:内置英特尔® 高级矩阵扩展(AMX)新增对FP16数据类型的支持,使得生成式AI和传统深度学习推理任务均能获得显著加速; 内存与I/O突破:支持DDR56400内存及英特尔首款引入的Multiplexed Rank DIMM (MRDIMM) 技术,有效将内存带宽提升至上一代的2.3倍;同时,高达504MB的三级缓存和低延迟设计确保数据能够更快加载,为复杂模型训练和推理缩短响应时间。 英特尔® 至强® 6处理器不仅通过更多的核心和更高的单线程性能提升了AI大模型推理能力,同时也能够作为机头CPU为GPU和其他加速器提供高速数据供给,进一步缩短整体模型训练时间。在满足混合工作负载需求的同时,其TCO平均降低30%,大模型推理加速最高可达2.4倍。 无论是第五代至强还是全新的至强6处理器,英特尔均通过在核心架构、缓存系统、内存技术和专用AI加速器方面的全面革新,提供了业界领先的AI计算支持。这两款产品为数据中心和高性能计算平台在AI推理、训练以及多样化工作负载下提供了强大而高效的算力保障
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        天翼云CPU实例部署DeepSeek-R1模型最佳实践
      • 天翼云CPU实例部署DeepSeek-R1模型最佳实践
        总结 通过本次实践,无论是在天翼云EMR云实例上结合xFasterTransformer部署DS R1 distill Qwen7B蒸馏模型,还是基于英特尔® 至强® 6处理器部署满血版DeepSeekR1 671B模型,均验证了CPU系统在DeepSeek大模型推理上的可行性和符合业界普遍要求的性能表现。CPU系统不仅能够灵活应对不同规模的模型需求,无论是轻量化蒸馏模型还是全功能满血模型,都能高效满足用户场景需求,提供了一种低成本、经济高效的解决方案。 附录1 英特尔® 至强® 可扩展处理器与AI加速技术 最新英特尔® 至强® 可扩展处理器产品 英特尔第五代® 至强® 可扩展处理器(代号 Emerald Rapids)——为AI加速而生 第五代英特尔® 至强® 处理器以专为AI工作负载量身定制的设计理念,实现了核心架构和内存系统的双重飞跃。其64核心设计搭配高达320MB的三级缓存(每核心由1.875MB提升至5MB),相较上代缓存容量实现近三倍增长,为大规模并行AI推理提供充裕的本地数据存储空间。与此同时,处理器支持DDR55600高速内存,单路最大4TB的容量保证了大数据处理时的带宽和延迟优势。基于这些硬件提升,Emerald Rapids整体性能较上一代提升21%,AI推理性能平均提升42%,在大语言模型推理场景中可实现最高1.5倍的性能加速,同时大幅降低总拥有成本达77%。 英特尔® 至强®6处理器(代号 GNR Granite Rapids)——引领CPU AI算力革新 全新GNR处理器专为应对人工智能、数据分析及科学计算等计算密集型任务而设计。该产品在内核数量、内存带宽及专用AI加速器方面均实现重大突破: 核心与性能:每CPU配备多达128个性能核心,单路核心数较上一代翻倍,同时平均单核性能提升达1.2倍、每瓦性能提升1.6倍,进一步强化了CPU在大模型推理中的独立处理能力; AI加速功能:内置英特尔® 高级矩阵扩展(AMX)新增对FP16数据类型的支持,使得生成式AI和传统深度学习推理任务均能获得显著加速; 内存与I/O突破:支持DDR56400内存及英特尔首款引入的Multiplexed Rank DIMM (MRDIMM) 技术,有效将内存带宽提升至上一代的2.3倍;同时,高达504MB的三级缓存和低延迟设计确保数据能够更快加载,为复杂模型训练和推理缩短响应时间。 英特尔® 至强® 6处理器不仅通过更多的核心和更高的单线程性能提升了AI大模型推理能力,同时也能够作为机头CPU为GPU和其他加速器提供高速数据供给,进一步缩短整体模型训练时间。在满足混合工作负载需求的同时,其TCO平均降低30%,大模型推理加速最高可达2.4倍。 无论是第五代至强还是全新的至强6处理器,英特尔均通过在核心架构、缓存系统、内存技术和专用AI加速器方面的全面革新,提供了业界领先的AI计算支持。这两款产品为数据中心和高性能计算平台在AI推理、训练以及多样化工作负载下提供了强大而高效的算力保障
        来自:
        帮助文档
        弹性云主机 ECS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        天翼云CPU实例部署DeepSeek-R1模型最佳实践
      • 自定义监控告警规则:查看详情
        参数 参数类型 说明 示例 下级对象 regionID String ctyun资源池ID 81f7728662dd11ec810800155d307d5b alarmRuleID String 告警规则ID 3dbd23b274e253f8869c6fe6b07b9dba name String 规则名 告警规则lyc123 desc String 描述 test repeatTimes Integer 重复告警通知次数 1 silenceTime Integer 静默时间,单位:秒 300 recoverNotify Integer 本参数表示恢复是否通知。默认值0。取值范围:0:否。1:是。根据以上范围取值。 0 notifyType Array of Strings 告警接收策略 ['email', 'sms'] contactGroupList Array of Strings 告警联系人组 ['000f03221f4d8cc8bb2e1c30fb751ccc'] notifyWeekdays Array of Integers 通知周期 [0,1,2,3] notifyStart String 通知起始时段 00:00:00 notifyEnd String 通知结束时段 23:59:59 webhookUrl Array of Strings 否 [' 告警状态变更webhook推送地址 evaluationCount Integer 持续周期数,默认2次 2 customItemID String ITEM63cb8954325480a3202307071801 自定义监控指标 fun String 本参数表示告警采用算法。取值范围:last:原始值算法。avg:平均值算法。max:最大值算法。min:最小值算法。根据以上范围取值。 avg operator String 本参数表示比较符。默认值le。取值范围:eq:等于。gt:大于。ge:大于等于。lt:小于。le:小于等于。根据以上范围取值。 eq value String 告警阈值,可以是整数、小数或百分数格式字符串 0 period String 本参数表示算法统计周期。默认值5m。参数fun为last时不可传。参数fun为avg、max、min均需填此参数。本参数格式为“数字+单位”。单位取值范围:m:分钟。h:小时。d:天。根据以上范围取值。 5m dimensions Array of Objects 自定义监控项维度 dimValue status Integer 本参数表示告警规则启用状态。取值范围:0:启用。1:停用。根据以上范围取值。 0 alarmStatus Integer 本参数表示告警规则告警状态。取值范围:0:正常。1:正在告警。根据以上范围取值。 0 createTime Integer 创建时间 1689580180000 updateTime Integer 更新时间 1689580180000
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        自定义监控
        自定义监控告警
        自定义监控告警规则:查看详情
      • 自定义监控告警规则:查询列表
        参数 参数类型 说明 示例 下级对象 regionID String ctyun资源池ID 81f7728662dd11ec810800155d307d5b alarmRuleID String 告警规则ID 3dbd23b274e253f8869c6fe6b07b9dba name String 规则名 告警规则lyc123 desc String 描述 test repeatTimes Integer 重复告警通知次数 1 silenceTime Integer 静默时间,单位:秒 300 recoverNotify Integer 本参数表示恢复是否通知。默认值0。取值范围:0:否。1:是。根据以上范围取值。 0 notifyType Array of Strings 告警接收策略 ['email', 'sms'] contactGroupList Array of Strings 告警联系人组 ['000f03221f4d8cc8bb2e1c30fb751ccc'] notifyWeekdays Array of Integers 通知周期 [0,1,2,3] notifyStart String 通知起始时段 00:00:00 notifyEnd String 通知结束时段 23:59:59 webhookUrl Array of Strings 否 [' 告警状态变更webhook推送地址 evaluationCount Integer 持续周期数 2 customItemID String 自定义监控指标 ITEM63cb8954325480a3202307071801 fun String 本参数表示告警采用算法。取值范围:last:原始值算法。avg:平均值算法。max:最大值算法。min:最小值算法。根据以上范围取值。 avg operator String 本参数表示比较符。默认值le。取值范围:eq:等于。gt:大于。ge:大于等于。lt:小于。le:小于等于。根据以上范围取值。 eq value String 告警阈值,可以是整数、小数或百分数格式字符串 0 period String 本参数表示算法统计周期。默认值5m。参数fun为last时不可传。参数fun为avg、max、min均需填此参数。本参数格式为“数字+单位”。单位取值范围:m:分钟。h:小时。d:天。根据以上范围取值。 5m dimensions Array of Objects 否 自定义监控项维度 status Integer 本参数表示告警规则启用状态。取值范围:0:启用。1:停用。根据以上范围取值。 0 alarmStatus Integer 本参数表示告警规则告警状态。取值范围:0:正常。1:正在告警。根据以上范围取值。 0 createTime Integer 创建时间 1689580180000 updateTime Integer 更新时间 1689580180000
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        自定义监控
        自定义监控告警
        自定义监控告警规则:查询列表
      • 1
      • ...
      • 17
      • 18
      • 19
      • 20
      • 21
      • ...
      • 415
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      应用托管

      科研助手

      推荐文档

      篡改防护

      修改云安备用户信息

      绑定和解绑弹性IP

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号