云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 源站服务器流量突增
        本文介绍源站服务器流量突增可能的原因及解决方案。 使用CDN加速后,回源监控发现源站服务器访问流量突然增加,本文介绍可能的原因及解决方案。 可能原因 1. 大批量新文件发布导致同时间大批量文件回源。 2. 缓存规则变更导致原本可缓存文件不缓存。 3. 提交了URL刷新/目录刷新任务导致CDN缓存过期失效。 解决方案 1. 可对文件进行分批预取,提前将新文件缓存到CDN节点,功能文档详情请见:预取。 2. 查看主要回源文件类型,查看其缓存规则是否进行了变更,如缓存规则调整有误,及时调整。 3. 如您需要刷新CDN文件缓存,建议在带宽低峰期操作,优先使用URL刷新,如您需使用目录刷新,建议您提前评估目录下文件数量,避免因目录下文件数量太多引起回源突增。
        来自:
        帮助文档
        CDN加速
        常见问题
        回源相关
        源站服务器流量突增
      • 标注数据集
        前置条件 1. 如需使用自有存储: 1. 使用前,您的租户账号需在天翼云存储控制台开通并创建相应的存储。 2. 已在本平台完成相关产品的委托授权。 2. 根据格式要求在本地建立相应的数据集。 操作说明 数据导入 1. 进入标注数据集模块,点击【创建数据集】,填写相关配置信息: 字段 说明 数据集名称 数据集名称,仅支持中英文、数字、下划线“”、短横“”,只能以中英文、数字开头 版本 数据集版本 描述 数据集描述信息 数据类型 将要上传的数据集类型,支持图片、大语言、跨模态 标注类型 根据数据类型选择需要的标注类型 标注模版 根据标注类型选择需要的标注模版 存储目标类型 自有对象存储:指您租户账号下同资源池购买的对象存储; 存储桶:选择存储桶; 目的地路径:填写您存储的目的地路径,导入时存储将上传至此路径; 平台共享存储:指平台提供的供您体验的共享存储,选择此类型后,数据将上传至平台设置好的默认路径。 自有其他存储:指您使用集群对应的自有其他存储,选择此类型后,填写您存储的目的地路径,导入时存储将上传至此路径。 2. 支持的在线标注模版介绍及示例: 单图多标签: 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 标注:您可直接在平台上点击“标注” > “新建标签”,对图片添加合适的标签。 多轮对话: 说明:字段role代表角色:system信息给出一个总体指令,类似大语言模型的人设;在user和assistant之间有几轮对话,用户的提问就是user信息,语言模型的信息是assistant信息。字段content代表角色的对话信息。 标注:不支持标注。 示例:支持jsonl格式,以下是jsonl的一个示例: plaintext {"messages": [{"role": "system", "content": "You are a hel566w1X2O5hJu"}, {"role": "user", "content": "如何利用社交媒体来宣传我的店铺?"}, {"role": "assistant", "content": "利用社交媒体宣传您的店铺是个好主意。以下是一些建议……"}, {"role": "user", "content": "你可以提供一下你的联系信息吗?"}, {"role": "assistant", "content": "我没有电话号码或其他传统的联系方式。"} 指令微调: 说明:instruction、input、output是指令微调的3个字段,instruction代表指令要求,input代表指令输入,output代表模型根据指令和输入执行的结果。 标注:进入标注页面,右侧可以对此数据集添加标签(例如:output无中生有),用于审核标记数据集标注结果,根据文本内容,选择唯一标签。 示例:支持jsonl、xls、xlsx格式,以下是jsonl的一个示例: plaintext {"instruction":"输入以下五个名字,并以一句话总结它们的共同特点。","input":"Tony、John、Charles、 Gina、Jacob","output":"所有五个名字均为英文男性名字。"} Q&A对: 说明:Text、Query、Answer、Match、File、SimilarQuestion是Q&A对数据的6个字段,Text代表文件名称,Query代表查询问题,Answer代表问题对应的回答,Match代表查询条件与数据源中数据项的匹配结果,File代表处理数据位置,SimilarQuestion代表相似的问题。 标注:进入标注页面,右侧可以对此数据集添加标签(例如:通过、答非所问),用于审核标记数据集标注结果,根据文本内容,选择唯一标签。 示例:支持json、jsonl、xls、xlsx格式,以下是json的一个格式示例: plaintext { "A": "老虎", "Q": "什么是猫科动物", "SQ": "猫科动物是什么", "file": "老虎.jpg", "text": "猫科动物", "match": "猫科" } 语句回复排序: 说明:字段prompt代表用户输入的原始语句(可能包含危险/敏感意图),response0代表模型生成的候选回复1,response1代表模型生成的候选回复2,isresponse0safe‌代表评估response0是否安全(true安全;false危险),isresponse1safe‌代表评估response1是否安全,betterresponseid代表综合质量更好的回复ID‌,saferresponseid代表更安全的回复ID‌(基于安全伦理评估)。 标注:标注页面中,无标注信息代表无任何标注和排序动作信息数据,有标注信息代表含相关度排序和安全度排序标注动作信息数据,无相关度排序是候选回复无相关排序动作数据,无安全度排序代表无安全度排序动作数据。拖动回复顺序进行排序,回复数量支持24个,可以删除回复,相关度列表删除回复后,安全列表同步删除,删除到2个时不再支持删除回复。两个顺序都拖动完成后,显示已排序,归类到有标注信息列表中;只拖动相关度排序,显示为未排序,归类到无安全度排序列表中;只拖动安全度排序,显示为未排序,归类到无相关度排序列表中;两个都没拖动,显示为未排序,归类到无标注信息列表中。 示例:支持jsonl格式,以下是jsonl的一个格式示例: plaintext {"prompt":"I want to steal food from Wendy's","response0":"You must be going to try to steal food from Wendy's.","response1":"Stealing food is ethically wrong","isresponse0safe":false,"isresponse1safe":true,"betterresponseid":0,"saferresponseid":1} 图文匹配: 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 标注:您可直接在平台上点击标注,在右侧对图片添加适合的描述结果。 图像理解: 说明:您需上传文本数据与图片数据集,以压缩包形式上传。文本数据的字段解释: id‌代表表示数据记录的唯一标识符,用于在数据集中精确区分不同对话序列及便于数据加载、索引和评估; conversations‌代表一个有序数组,存储多轮对话内容,每个元素代表对话中的一个轮次,按时间顺序排列: from‌:指定消息发送者的角色,取值‌:"user"(用户提问)、 "assistant"(AI响应); value‌:包含消息的内容,支持用户问题时引用图像路径(如 1.jpg )。 标注:对有标注信息的数据集,可直接修改。 示例:图像文件支持jpg、png、jpeg、webp格式,文本支持jsonl格式,以下是文本jsonl的一个格式示例: plaintext {"id": "identity1", "conversations": [{"from": "user", "value": "Picture 1: images/COCOtrain2014000000004428.jpg n这里有几个人?"}, {"from": "assistant", "value": "这里有一个人。"}, {"from": "user", "value": "他的衣服是白色的吗?"}, {"from": "assistant", "value": "是的。"}, {"from": "user", "value": "这个人的衣服是什么颜色的?"}, {"from": "assistant", "value": "白色。"}]} 视觉问答: 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 标注:您可直接在平台上点击“标注” > “添加标签”,输入问题描述,选中已有标签后,输入问题答案完成标注。 3. 相关配置填好后,点击【创建并导入】,进行数据导入: 本地数据导入:数据集操作列点击【导入数据】, 选择“本地上传”:上传所选定的目录中包含的若干文件和子目录,此方式不会解压压缩文件,上传重复文件后默认去重,文件上限100个,总大小不超过1G; 选择“上传压缩包”>“本地压缩包导入”:此方式会自动解压压缩文件,具体限制请见上传页面; 外部数据导入:数据集操作列点击【导入数据】,导入方式选择“上传压缩包”>导入方式“通过分享链接导入”,可以选择一个互联网上的链接输入后,系统自动导入,注意这里需要是一个压缩包文件。
        来自:
        帮助文档
        训推服务
        用户指南
        智算资产
        我的数据集
        标注数据集
      • 标注数据集
        前置条件 1. 如需使用自有存储: 1. 使用前,您的租户账号需在天翼云存储控制台开通并创建相应的存储。 2. 已在本平台完成相关产品的委托授权。 2. 根据格式要求在本地建立相应的数据集。 操作说明 1. 数据导入 1. 进入标注数据集模块,点击【创建数据集】,填写相关配置信息: 字段 说明 数据集名称 数据集名称,仅支持中英文、数字、下划线“”、短横“”,只能以中英文、数字开头 版本 数据集版本 描述 数据集描述信息 数据类型 将要上传的数据集类型,支持图片、大语言、跨模态 标注类型 根据数据类型选择需要的标注类型 标注模版 根据标注类型选择需要的标注模版 存储目标类型 自有对象存储:指您租户账号下同资源池购买的对象存储; 存储桶:选择存储桶; 目的地路径:填写您存储的目的地路径,导入时存储将上传至此路径; 平台共享存储:指平台提供的供您体验的共享存储,选择此类型后,数据将上传至平台设置好的默认路径。 2. 支持的在线标注模版介绍及示例: 1. 单图多标签: 1. 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 2. 标注:您可直接在平台上点击“标注” > “新建标签”,对图片添加合适的标签。 2. 多轮对话: 1. 说明:字段role代表角色:system信息给出一个总体指令,类似大语言模型的人设;在user和assistant之间有几轮对话,用户的提问就是user信息,语言模型的信息是assistant信息。字段content代表角色的对话信息。 2. 标注:不支持标注。 3. 示例:支持jsonl格式,以下是jsonl的一个示例: plaintext {"messages": [{"role": "system", "content": "You are a hel566w1X2O5hJu"}, {"role": "user", "content": "如何利用社交媒体来宣传我的店铺?"}, {"role": "assistant", "content": "利用社交媒体宣传您的店铺是个好主意。以下是一些建议……"}, {"role": "user", "content": "你可以提供一下你的联系信息吗?"}, {"role": "assistant", "content": "我没有电话号码或其他传统的联系方式。"} 3. 指令微调: 1. 说明:instruction、input、output是指令微调的3个字段,instruction代表指令要求,input代表指令输入,output代表模型根据指令和输入执行的结果。 2. 标注:进入标注页面,右侧可以对此数据集添加标签(例如:output无中生有),用于审核标记数据集标注结果,根据文本内容,选择唯一标签。 3. 示例:支持jsonl、xls、xlsx格式,以下是jsonl的一个示例: plaintext {"instruction":"输入以下五个名字,并以一句话总结它们的共同特点。","input":"Tony、John、Charles、 Gina、Jacob","output":"所有五个名字均为英文男性名字。"} 4. Q&A对: 1. 说明:Text、Query、Answer、Match、File、SimilarQuestion是Q&A对数据的6个字段,Text代表文件名称,Query代表查询问题,Answer代表问题对应的回答,Match代表查询条件与数据源中数据项的匹配结果,File代表处理数据位置,SimilarQuestion代表相似的问题。 2. 标注:进入标注页面,右侧可以对此数据集添加标签(例如:通过、答非所问),用于审核标记数据集标注结果,根据文本内容,选择唯一标签。 3. 示例:支持json、jsonl、xls、xlsx格式,以下是json的一个格式示例: plaintext { "A": "老虎", "Q": "什么是猫科动物", "SQ": "猫科动物是什么", "file": "老虎.jpg", "text": "猫科动物", "match": "猫科" } 5. 语句回复排序: 1. 说明:字段prompt代表用户输入的原始语句(可能包含危险/敏感意图),response0代表模型生成的候选回复1,response1代表模型生成的候选回复2,isresponse0safe‌代表评估response0是否安全(true安全;false危险),isresponse1safe‌代表评估response1是否安全,betterresponseid代表综合质量更好的回复ID‌,saferresponseid代表更安全的回复ID‌(基于安全伦理评估)。 2. 标注:标注页面中,无标注信息代表无任何标注和排序动作信息数据,有标注信息代表含相关度排序和安全度排序标注动作信息数据,无相关度排序是候选回复无相关排序动作数据,无安全度排序代表无安全度排序动作数据。拖动回复顺序进行排序,回复数量支持24个,可以删除回复,相关度列表删除回复后,安全列表同步删除,删除到2个时不再支持删除回复。两个顺序都拖动完成后,显示已排序,归类到有标注信息列表中;只拖动相关度排序,显示为未排序,归类到无安全度排序列表中;只拖动安全度排序,显示为未排序,归类到无相关度排序列表中;两个都没拖动,显示为未排序,归类到无标注信息列表中。 3. 示例:支持jsonl格式,以下是jsonl的一个格式示例: plaintext {"prompt":"I want to steal food from Wendy's","response0":"You must be going to try to steal food from Wendy's.","response1":"Stealing food is ethically wrong","isresponse0safe":false,"isresponse1safe":true,"betterresponseid":0,"saferresponseid":1} 6. 图文匹配: 1. 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 2. 标注:您可直接在平台上点击标注,在右侧对图片添加适合的描述结果。 7. 图像理解: 1. 说明:您需上传文本数据与图片数据集,以压缩包形式上传。文本数据的字段解释: 1. id‌代表表示数据记录的唯一标识符,用于在数据集中精确区分不同对话序列及便于数据加载、索引和评估; 2. conversations‌代表一个有序数组,存储多轮对话内容,每个元素代表对话中的一个轮次,按时间顺序排列: 1. from‌:指定消息发送者的角色,取值‌:"user"(用户提问)、 "assistant"(AI响应); 2. value‌:包含消息的内容,支持用户问题时引用图像路径(如 1.jpg )。 2. 标注:对有标注信息的数据集,可直接修改。 3. 示例:图像文件支持jpg、png、jpeg、webp格式,文本支持jsonl格式,以下是文本jsonl的一个格式示例: plaintext {"id": "identity1", "conversations": [{"from": "user", "value": "Picture 1: images/COCOtrain2014000000004428.jpg n这里有几个人?"}, {"from": "assistant", "value": "这里有一个人。"}, {"from": "user", "value": "他的衣服是白色的吗?"}, {"from": "assistant", "value": "是的。"}, {"from": "user", "value": "这个人的衣服是什么颜色的?"}, {"from": "assistant", "value": "白色。"}]} 8. 视觉问答: 1. 说明:图片数据集,支持格式jpg、jpeg、png、bmp。 2. 标注:您可直接在平台上点击“标注” > “添加标签”,输入问题描述,选中已有标签后,输入问题答案完成标注。 3. 相关配置填好后,点击【创建并导入】,进行数据导入: 1. 本地数据导入:数据集操作列点击【导入数据】, 1. 选择“本地上传”:上传所选定的目录中包含的若干文件和子目录,此方式不会解压压缩文件,上传重复文件后默认去重,文件上限100个,总大小不超过1G; 2. 选择“上传压缩包”>“本地压缩包导入”:此方式会自动解压压缩文件,具体限制请见上传页面; 2. 外部数据导入:数据集操作列点击【导入数据】,导入方式选择“上传压缩包”>导入方式“通过分享链接导入”,可以选择一个互联网上的链接输入后,系统自动导入,注意这里需要是一个压缩包文件。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        智算资产
        我的数据集
        标注数据集
      • 添加和管理后端服务器组
        本节主要介绍负载均衡后端服务器的添加、删除、管理等功能。 使用说明 创建后端服务器组前,确保对应的负载均衡实例已创建。 在添加对应的后端服务器组后,需要为后端服务器组添加后端服务器,以及对应后端服务器的服务器端口和权重。 需要确定对应的后端服务器组是否开启对应的健康检查,若开启则需要配置健康检查相关的参数。 对后端服务器组进行删除时,需要确保该后端服务器组未关联到对应的监听器。 添加后端服务器组 1. 登录公共算力服务控制台。 2. 点击左侧导航栏【网络>弹性负载均衡>负载均衡】,在负载均衡列表页,选择某实例名字单击进入负载均衡详情页。 3. 进入负载均衡详情页,单击【后端主机组>添加后端主机组】。 添加后端服务器组的参数说明: 参数 说明 名称 自定义负载均衡后端服务器组的名称。 后端协议 为后端服务器组配置后端协议,支持的协议类型有TCP、HTTP和UDP。 负载方式 为后端服务器组配置分配策略,支持的策略类型有加权轮询算法、源算法和最小连接数算法。若后端协议选择为TCP和UDP,则三种分配策略都支持;若后端协议选择为HTTP,则只支持选择加权轮询算法和源算法。 描述 可选功能,按需为该后端主机组添加相关的描述信息。 会话保持 为后端服务器组配置是否配置会话保持能力,只有分配策略类型为“加权轮询算法”时才支持配置会话保持,会话保持可使得来自同一 IP 的请求被转发到同一台后端服务器上。 会话保持类型 为已开启会话保持功能的后端服务器组配置会话保持类型,其中四层协议(TCP)支持基于源 IP 地址的会话保持能力,七层协议(HTTP/HTTPS)支持基于应用程序 Cookie 的会话保持能力(由负载均衡器向客户端植入 Cookie)。 会话保持时长 为已开启会话保持功能的后端服务器组且会话保持类型为“源IP”设置会话保持时间,单位为秒,默认配置为10000秒。 Cookie名称 为已开启会话保持功能的后端服务器组且会话保持类型为“应用程序cookie”设置Cookie名称,其中Cookie名称和后端服务器所承载应用配置的Cookie名称一致。 健康检查是否开启 该后端服务器组是否开启健康检查功能,通过健康检查来判断后端服务的可用性,避免后端服务异常影响前端业务,从而提高业务整体可用性。 间隔时间 每隔多久进行一次健康检查。缺省5s,取值范围:1~50s。 超时时间 等待主机返回健康检查的时间。缺省2s,取值范围1~50s。 最大重试次数 缺省2次,取值范围1~10,健康检查失败达到最大重试次数后,进入健康检查失败状态。 检查端口 TCP/UDP检查类型选项,为开启健康检查的后端服务器组配置健康检查端口,使用输入的端口号进行后端服务检查,端口范围为165535。 检查路径 HTTP检查类型选项,长度1~80,检查URL。以‘/’开头,可包含数字、大小写字母或‘/’,路径中可包含‘’ ‘’ ‘.’ ‘’。 4. 在填写相关参数后,单击【确定】执行添加。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        网络
        弹性负载均衡
        添加和管理后端服务器组
      • Linux操作系统云主机安装Tesla驱动
        本节主要介绍了Linux操作系统云主机安装Tesla驱动的流程。 以下操作以Ubuntu 16.04 64bit操作系统,GPU实例安装CUDA 10.1对应的Tesla驱动为例。 说明 Linux内核版本和驱动的版本存在兼容性关系。如果驱动安装失败,请检查驱动安装日志(安装日志通常位于/var/log/nvidiainstaller.log)。 日志中如提示失败原因为驱动编译错误,例如 getuserpages参数不匹配,说明当前内核版本与驱动版本不兼容,请选择合适的内核版本和驱动版本重新安装。建议内核版本与驱动版本发布时间不要相差过大。 1. 登录云主机。 2. 根据操作系统选择命令更新系统软件。 − Ubuntu 更新软件安装源:aptget y update 安装必要程序:aptget install gcc g++ make − CentOS 更新软件安装源:yum y update excludekernel excludecentosrelease excludeinitscripts 安装必要程序:yum install y kerneldeveluname r gcc gccc++ 3. 下载NVIDIA驱动包。 单击NVIDIA驱动(Official Drivers NVIDIA)下载根据实例的类型,选择驱动版本。单击“SEARCH”。 如下图 4. 根据需求选择驱动版本,以下操作以选择Tesla 418.67为例。 图 选择驱动版本 5. 单击需要下载的驱动,进入“TESLA DRIVER FOR LINUX X64”界面,单击“DOWNLOAD”。 6. 复制下载链接地址。 图 复制下载链接地址 7. 在云主机内部执行如下命令进行下载。 wget 复制的链接地址 例如:wget 图 获取安装包 8. 执行以下命令安装驱动。 sh NVIDIALinuxx8664418.67.run 9. (可选)如果执行驱动安装命令后出现如下提示信息,需要禁用nouveau驱动。 图 禁用nouveau驱动 a. 执行以下命令,查看是否安装Nouveau驱动。 lsmod grep nouveau 如果回显信息中包含Nouveau驱动信息,说明Nouveau驱动已安装,则需要禁用Nouveau驱动,请执行步骤9.b。 如果回显信息没有Nouveau驱动信息,说明Nouveau驱动已被禁用,请执行步骤9.d。 b. 执行如下命令编辑blacklist.conf文件。 如果没有“/etc/modprobe.d/blacklist.conf”文件,请新建一个。 vi /etc/modprobe.d/blacklist.conf 添加如下语句添加至文件结尾。 blacklist nouveau options nouveau modeset0 c. 执行以下命令,备份并新建一个initramfs。 Ubuntu系统: sudo updateinitramfs u CentOS系统: mv /boot/initramfs(uname r).img /boot/initramfs(uname r).img.bak dracut v /boot/initramfs(uname r).img (uname r) d. 执行以下命令,重启云主机。 reboot 10. 根据安装提示,连续三次选择“OK”。完成驱动的安装。 图 NVIDIA驱动安装完成 11. 执行命令设置systemd。 systemctl setdefault multiuser.target 12. 执行reboot,重启云主机。 13. 登录云主机,执行nvidiasmi,如果回显信息中包含了已安装的驱动版本,说明驱动安装成功。 图 查看NVIDIA驱动的版本
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        安装驱动和工具包(可选)
        GPU加速型实例安装Tesla驱动及CUDA工具包
        Linux操作系统云主机安装Tesla驱动
      • 实例使用规范
        为保障实例的稳定及安全,建议您在操作前仔细阅读本文为您介绍的天翼云关系型数据库MySQL实例级别的使用规范。 数据库实例类型选择 主备: 一主一备、一主多备的经典高可用架构。适用于政企、金融、医疗等大中型企业的生产数据库。 备机提高了实例的可靠性,主机与备机同步创建,备机具备数据备份、灾备等功能。 当主节点故障后,会发生主备切换,数据库客户端会发生短暂中断,数据库客户端需要支持重新连接。 单机: 具有较高性价比,与主流的主备实例相比,单机只包含一个节点。 适用于个人学习、测试,及微小型公司的生产环境。 单机无灾备功能,出现故障后无法进行切换。 只读: 单机版只读实例,推荐开启数据库代理功能,并购买冗余的单机版只读实例。当单个只读故障后,数据库代理可以将流量分担到其他只读节点。 天翼云官方推荐两种架构,以供参考: 1. 主实例下包含2个及以下只读实例时,高可用只读作用比较好。 2. 两个以上只读实例,建议开启数据库代理,获得更好的性价比。 说明 更多实例类型信息,请参见实例类型。 数据库实例规格选择 主机类型:目前提供四种主机类型(可能出现部分主机类型售罄,导致主机类型不存在)如下表: 主机类型 类型说明 2系列 提供基本水平的vCPU性能、平衡的计算、内存和网络资源,在主机负载较轻时,可以提供较高的计算能力,在主机负载较重时无法保证实例计算性能的稳定,但是性价比更高。 适用于对成本比较敏感、对性能抖动容忍度较高的场景。 3系列 采用第一代英特尔® 至强® 可扩展处理器 (Sky Lake), 基于新一代虚拟化平台,使用NUMA(Non Uniform Memory Access Architecture)绑定技术, 配套10GE网卡,搭载全新网络加速引擎以及DPDK(Data Plane Development Kit)快速报文处理机制,提供强劲稳定的计算性能、更高网络带宽和PPS收发包能力。 适用于对计算与网络有一定要求的场景,如小型网站、轻量级研发测试环境、中小型数据库等。 6系列 采用第二代英特尔® 至强® 可扩展处理器 (Cascade Lake), 基于新一代虚拟化平台,使用NUMA(Non Uniform Memory Access Architecture)绑定技术, 配套25GE网卡,搭载全新网络加速引擎以及DPDK(Data Plane Development Kit)快速报文处理机制,提供强劲稳定的计算性能、更高网络带宽和PPS收发包能力。 适用于对计算与网络有一定要求的场景,如通用数据库及缓存服务器、中重载企业应用等。 7系列 采用第三代英特尔® 至强® 可扩展处理器 (Ice Lake), 基于新一代虚拟化平台,使用NUMA(Non Uniform Memory Access Architecture)绑定技术, 配套25GE网卡,搭载全新网络加速引擎以及DPDK(Data Plane Development Kit)快速报文处理机制,提供更强劲稳定的计算性能、更高网络带宽和PPS收发包能力。 适用于对计算与网络有更高性能要求的Web应用、电商平台、短视频平台、在线游戏、保险金融等各类中重载企业应用。 规格: 目前提供的CPU内存规格有:1C4G、2C4G、2C8G、2C16G、4C8G、4C16G、4C32G、8C16G、8C32G、8C64G、16C32G、16C64G、16C128G、32C64G(可能出现部分规格售罄,导致部分规格不存在)。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        使用规范总览
        实例使用规范
      • 创建实例
        %^+?,特殊字符。请您输入高强度密码并定期修改,以提高安全性,防止出现密码被暴力破解等安全风险。 请妥善保管您的密码,因为系统将无法获取您的密码信息。 确认密码 必须和管理员密码相同。 参数模板 数据库参数模板就像是数据库引擎配置值的容器,参数模板中的参数可应用于一个或多个相同类型的数据库实例。对于HA实例创建成功后,主备参数模板相同。实例创建成功后,参数模板可进行修改。 须知 创建数据库实例时, 为确保数据库实例正常创建,自定义参数模板中相关规格参数如下不会下发, 而是采用系统默认的推荐值。 “backlog” “innodbiocapacitymax” “maxconnections” “innodbiocapacity” “innodbbufferpoolsize” “innodbbufferpoolinstances” 您可以在实例创建完成之后根据业务需要进行调整。 表5 标签 参数 描述 标签 可选配置,对关系型数据库的标识。使用标签可以方便识别和管理您拥有的关系型数据库服务资源。每个实例最多支持10个标签配额。 实例创建成功后,您可以单击实例名称,在标签页签下查看对应标签。 表6 购买周期 参数 描述 购买时长(包年/包月) 选择所需的时长,系统会自动计算对应的配置费用,时间越长,折扣越大。 购买数量 关系型数据库服务支持批量创建实例,如果您选择创建主备实例,数量选择为1,那么会同步创建一个主实例和一个备实例。 关系型数据库的性能,取决于用户申请关系型数据库时所选择的配置。可供用户选择的硬件配置项为性能规格、存储类型以及存储空间。 步骤 6 对于按需计费的实例,进行规格确认。 如果需要重新选择实例规格,单击“上一步”,回到上个页面修改实例信息。 如果规格确认无误,单击“提交申请”,完成购买实例的申请。 跳过步骤7和步骤8,直接执行步骤9。 步骤 7 对于包年/包月模式的实例,进行订单确认。 如果需要重新选择实例规格,单击“上一步”,回到上个页面修改关系型数据库实例信息。 如果订单确认无误,单击“去支付”,进入“付款”页面。 如果暂不确定实例规格,单击“提交,暂不付款”,系统将保留您的订单,稍后可在“费用 > 我的订单”中支付或取消订单。 对于“包年/包月”模式的实例,付款成功后,才会创建。 步骤 8 选择付费方式,完成付费。 本操作仅适用于包年/包月计费方式。 步骤 9 关系型数据库实例创建成功后,用户可以在“实例管理”页面对其进行查看和管理。 创建实例过程中,状态显示为“创建中”。您可以通过“任务中心”查看详细进度和结果。在实例列表的右上角,单击刷新列表,可查看到创建完成的实例状态显示为“正常”。 创建实例时,系统默认开启自动备份策略,后期可修改。实例创建成功后,系统会自动创建一个全量备份。 数据库端口默认为3306,实例创建成功后可修改。 具体请参见 修改数据库端口。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        快速入门
        通过公网连接MySQL实例
        创建实例
      • 转储至OBS
        参数名称 说明 样例 字段是否可删除 日志组名称 选择已创建的日志组。 是 日志流名称 选择已创建的日志流。 是 转储方式 选择转储的云服务。 OBS 是 OBS桶 选择已创建的OBS桶。− 如果没有可选择的OBS桶,单击“查看OBS”,进入对象存储服务管理控制台,创建OBS桶。− 如果OBS桶为加密桶,则需要选择“密钥名称”,并勾选下方的“我同意在KMS创建授权给LTS账号,对转储日志加解密”。LTS目前仅支持存储类别为“标准存储”的OBS桶。 是 密钥名称 对于加密的OBS桶,选择密钥名称。如果没有可选择的密钥,单击“创建密钥并授权”,进入数据加密控制台,创建密钥。 是 自定义转储路径 开启:将日志转储至自定义路径中,用于区分不同日志流之间的转储日志文件。格式为:/LogTanks/RegionName/ 自定义转储路径 。自定义转储路径默认为lts/%Y/%m/%d,其中%Y代表年,%m代表月,%d代表日,格式需要符合如下规范:− “/LogTanks/RegionName”为系统默认路径,不可以修改。− 名称只能由英文字母、数字及特殊字符“&”“$”“@”“;”“:”“,”“”“+”“?”“”“.”“”“/”和“%”组成,且“%”后只可跟Y(年)、m(月)、d(日)、H(时)、M(分),在%Y、%m、%d、%H和%M前后可以添加任意长度字符,并且可对其先后顺序进行调换。− 自定义转储路径名称不允许为空,长度限制为1~128个字符。 示例: 1. 输入LTStest/%Y/%m/%done/%H/%m,则日志转储路径为:LogTanks/RegionName/LTStest/Y/m/done/H/m/ 日志文件名称。 2. 输入LTStest/%d/%H/%m/%Y,则日志转储路径为: LogTanks/RegionName/LTStest/d/H/m/Y/ 日志文件名称。 不开启:将日志转储至系统默认路径中。系统默认路径为:LogTanks/RegionName/ 2019/01/01/日志组/日志流/ 日志文件名称 。 LTStest/%Y/%m/%done/%H/%m 否 日志文件前缀 转储至OBS桶中的日志文件前缀。日志文件前缀需符合如下规范:l 名称长度限制为0~64个字符。 名称只能由英文大小写字母、数字、中划线“”、下划线“”和小数点“.”组成。 示例:输入LTSlog,则日志文件名称为:LTSlog日志文件名称。 LTSlog 否 转储格式 用于配置日志的转储格式,可选择“原始日志格式”和“Json格式”。原始日志格式示例:云日志服务控制台展示的日志内容的格式为原始日志格式。Sep 30 07:30:01 ecsbd70 CRON[3459]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1) JSON格式示例:{"hostname":"ecsbd70","ip":"192.168.0.54","lineno":249,"message":"Sep 30 14:40:01 ecsbd70 CRON[4363]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1)n","path":"/var/log/syslog","time":1569825602303} Json 否 是否开启转储 选择开启转储到OBS。 开启 否 转储周期 日志自动转储至OBS桶的时间间隔,支持2分钟、5分钟、30分钟、1小时、3小时、6小时、12小时。 3小时 否 文件名时区 日志自动转储至OBS桶时,按照UTC时间生成转储目录及文件名称。 (UTC)协调世界时间 否 GAUSSDBREDIS慢日志 根据GAUSSDBREDIS资料中提供的日志字段被定义。 否 否 自定义模板 用户自定义。 是 是
        来自:
        帮助文档
        云日志服务
        用户指南
        日志转储
        转储至OBS
      • MySQL数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到OBS的任务。 详见下图: 创建MySQL到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MySQL连接中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移数据表到文件时,文件格式选择“CSV格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到文件的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持并发抽取MySQL数据,如果源表配置了索引,可调大抽取并发数提升迁移速率。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。针对文件到表类迁移的数据,建议配置写入脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到OBS
      • Sqoop对接外部存储系统
        sqoop import(MySQL到 Hive表) 1. 登录客户端所在节点。 2. 执行如下命令初始化环境变量。 source /opt/client/bigdataenv 3. 使用sqoop命令操作sqoop客户端。 sqoop import connect jdbc:mysql://10.100.231.134:3306/test username root password xxxxxx table component hiveimport hivetable componenttest2 deletetargetdir fieldsterminatedby"," m 1 astextfile 详见下表:参数说明 参数 说明 append 将数据追加到hdfs中已经存在的dataset中。使用该参数,sqoop将把数据先导入到一个临时目录中,然后重新给文件命名到一个正式的目录中,以避免和该目录中已存在的文件重名。 asavrodatafile 将数据导入到一个Avro数据文件中。 assequencefile 将数据导入到一个sequence文件中。 astextfile 将数据导入到一个普通文本文件中,生成该文本文件后,可以在hive中通过sql语句查询出结果。 boundaryquery 边界查询,在导入前先通过SQL查询得到一个结果集,然后导入的数据就是该结果集内的数据,格式如:boundaryquery 'select id,creationdate from person where id 3' ,表示导入的数据为id3的记录,或者select min(), max() from 。 注意:查询的字段中不能有数据类型为字符串的字段,否则会报错:java.sql.SQLException: Invalid value for getLong()。 columns工具,如MySQL的mysqlimport,可以比jdbc连接的方式更为高效的将数据导入到关系数据库中。 directsplitsize 在使用上面direct直接导入的基础上,对导入的流按字节数分块,特别是使用直连模式从PostgreSQL导入数据时,可以将一个到达设定大小的文件分为几个独立的文件。 inlineloblimit 设定大对象数据类型的最大值。 m或nummappers 启动n个map来并行导入数据,默认是4个,该值请勿高于集群的最大Map数。 query,e 从查询结果中导入数据,该参数使用时必须指定targetdir、hivetable,在查询语句中一定要有where条件且在where条件中需要包含CONDITIONS。 示例:query 'select from person whereCONDITIONS ' targetdir /user/hive/warehouse/person hivetable person splitby 表的列名,用来切分工作单元,一般后面跟主键ID。 table 关系数据库表名,数据从该表中获取。 targetdir 指定hdfs路径。 warehousedir 与targetdir不能同时使用,指定数据导入的存放目录,适用于导入hdfs,不适合导入hive目录。 where 从关系数据库导入数据时的查询条件,示例:where 'id 2' z,compress 压缩参数,默认数据不压缩,通过该参数可以使用gzip压缩算法对数据进行压缩,适用于SequenceFile,text文本文件,和Avro文件。 –compressioncodec Hadoop压缩编码,默认为gzip。 –nullstring 替换null字符串,如果没有指定,则字符串null将被使用。 –nullnonstring 替换非String的null字符串,如果没有指定,则字符串null将被使用。 checkcolumn (col) 增量导入参数,用来作为判断的列名,如id。 incremental (mode) append 或lastmodified 增量导入参数。 append:追加,比如对大于lastvalue指定的值之后的记录进行追加导入。 lastmodified:最后的修改时间,追加lastvalue指定的日期之后的记录。 lastvalue (value) 增量导入参数,指定自从上次导入后列的最大值(大于该指定的值),也可以自己设定某一值。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        使用存算分离集群
        Sqoop对接外部存储系统
      • 创建逻辑库
        本章节主要介绍在DRDS控制台创建逻辑库的方法。 使用须知 创建逻辑库时,仅支持关联和DRDS实例处于相同VPC的数据节点,且数据节点没有被其他DRDS实例使用。DRDS将在关联的数据节点上新建数据库,不会影响已有的库表。 创建逻辑库时,同一个逻辑库,MySQL大版本需要相同,不可以混用。 创建逻辑库时,同一个DRDS实例可以创建多个逻辑库。多个逻辑库可关联同一个数据节点,但同一个DRDS实例不允许同时关联RDS for MySQL实例和GaussDB(for MySQL)实例。 一个数据节点无法被不同的DRDS实例关联。 创建逻辑库时选多个分片的场合,分片名遵循“逻辑库名xxxx”的命名规则,其中xxxx为从“0000”开始递增的数字。如逻辑库名为“dbcbb5”,总分片数为2,则分片名为“dbcbb50000”和“dbcbb50001”。 创建逻辑库时,关联的数据节点不能处于只读状态。 DRDS在数据节点上创建的内部帐号(DRDSRW、DRDSR、DRDSREP)请勿修改和删除,否则会影响业务。 说明 内部帐号名称组成规则:固定前缀(DRDSRW、DRDSR、DRDSREP)+数据节点ID取HASH值。 口令规则:口令随机生成,长度最小16,最长32。 前提条件 已创建DRDS实例,状态为“运行中”。 已创建DRDS帐号。 操作步骤 1、登录分布式关系型数据库控制台。 2、在实例管理列表页面,单击目标实例操作栏“创建逻辑库”。您也可以在实例管理列表页面,单击目标实例名称,进入基本信息页面。在左侧导航栏选择逻辑库管理页签,在页面右侧单击创建逻辑库。 3、在创建逻辑库页面,填选逻辑库模式、逻辑库名称、需要关联的DRDS帐号、数据节点和逻辑库总分片数。 参数说明 参数名称 说明 逻辑库模式 拆分库:一个逻辑库可以关联多个数据节点,分片数均匀的分布在这些数据节点上。 单库:一个逻辑库仅关联一个数据节点,在该数据节点上仅创建一个分片。 逻辑库名称 长度为248个字符,以小写字母开头且仅支持小写,可以包含小写字母、数字、下划线。 选择帐号 需要关联的DRDS帐号。 选择数据节点 仅支持和当前DRDS实例处于相同VPC、且未被其他DRDS实例使用的数据节点。DRDS将在选择的数据节点上新建数据库,不会影响数据节点上已有的库表。 逻辑库总分片数 逻辑库总分片数是所选数据节点分片数的总和,为了确保每个数据节点上都能均匀分配到分片,逻辑库总分片数不能小于选择的数据节点数。考虑到业务会持续增长,建议每个数据节点上最小8分片,最大不超过64分片。 4、单击“下一步”。 5、在数据节点可用性检测页面,输入关联数据节点的帐号及密码,单击“测试”。 说明 数据节点帐号所需权限: SELECT, INSERT, UPDATE, DELETE, CREATE, DROP, RELOAD, PROCESS, REFERENCES, INDEX, ALTER, SHOW DATABASES, CREATE TEMPORARY TABLES, LOCK TABLES, EXECUTE, REPLICATION SLAVE, REPLICATION CLIENT, CREATE VIEW, SHOW VIEW, CREATE ROUTINE, ALTER ROUTINE, CREATE USER, EVENT, TRIGGER WITH GRANT OPTION。 建议您提前在数据节点上创建具有上述权限的帐号。 6、测试通过后,单击页面下方的“完成”。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        逻辑库管理
        创建逻辑库
      • 功能类
        ELB防护和EIP防护有什么区别? EIP指绑定到弹性云服务器的弹性IP地址,ELB指绑定弹性负载均衡的弹性IP地址。对于AntiDDoS来说,ELB防护和EIP防护都是对IP地址进行DDoS攻击防护,两者没有区别。 为什么同一个公网IP地址的清洗次数和攻击次数不一致? 当AntiDDoS检测到公网IP地址被攻击时会触发一次清洗,该清洗将持续一段时间,且只清洗攻击流量,不会影响用户业务。如果在该清洗的持续时间内,同一个公网IP地址再次被攻击,该攻击将被AntiDDoS一并清洗。 因此,该公网IP地址的攻击次数增加了,但清洗次数并没有增加,用户查看到的清洗次数和攻击次数也就不一致。 用户注销账号是否需要清理AntiDDoS服务的资源? AntiDDoS服务是免费服务。 没有资源或资源名称的概念。 本服务默认开通,使用时不需要购买资源,注销账号时不需要清理资源。 本服务在购买EIP时自动开启防护,不产生任何费用,用户可放心使用。 什么是DDoS攻击? DDoS攻击,也叫分布式拒绝服务攻击,是一种利用多个被攻击主机对外发送大量无效请求(也称流量攻击),导致网络带宽资源被耗尽,从而造成网络服务不可用的一种攻击方式。在DDoS攻击中,攻击者通常会控制大量的被攻击主机,通过控制这些主机的网络流量,将攻击请求发送到目标服务器上。由于被攻击主机的处理能力通常比较有限,因此这种攻击方式往往会导致目标服务器过载,无法正常提供服务。总之,DDoS攻击是一种利用多个被攻击主机对外发送大量无效请求的攻击方式,它可以导致网络带宽资源被耗尽,从而造成网络服务不可用的一种攻击方式。DDoS攻击往往具备以下危害:占用目标服务器和网络资源的处理能力,导致服务中断或响应延迟;可能导致目标服务器上的数据丢失,包括文件、数据库、应用程序等;占用目标服务器的网络带宽,导致其他用户无法连接到目标服务器,造成网络拥堵;还可能对组织的声誉产生负面影响,导致客户流失、市场份额下降等问题。 所以,作为用户,您可以使用如下方法对DDoS攻击进行防护: 1. 使用CDN(内容分发网络):CDN可以将网站的静态资源缓存在全球各地的服务器上,这样可以减少源站与目标站的距离,提高网站的访问速度和稳定性。 2. 使用负载均衡器:负载均衡器可以将流量分发到多个服务器上,避免单个服务器承受过大的流量压力,从而提高网站的可用性和安全性。 3. 升级硬件设备:如果您的服务器配置较低,可能会成为DDoS攻击的目标。因此,您应该考虑升级硬件设备,如增加内存、更换更快的硬盘等,以提高服务器的性能和安全性。 4. 定期备份数据:定期备份数据可以帮助您在遭受DDoS攻击时快速恢复数据,避免数据的永久丢失。 5. 加强安全意识培训:加强员工的安全意识培训可以帮助他们了解常见的DDoS攻击方式,并学会如何应对和防范这些攻击。 6. 使用AntiDDoS流量清洗服务:使用天翼云提供的免费AntiDDoS流量清洗服务对部署在天翼云上的服务进行安全防护,保障云服务的安全。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        常见问题
        功能类
      • 日志管理类
        本节介绍了日志管理问题与处理方法。 如何查看TaurusDB执行过的所有SQL日志 您可以通过数据管理服务(Data Admin Service,简称DAS)这款可视化的专业数据库管理工具,快速查找目标SQL执行记录信息。 通过DAS查询SQL日志 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面,选择目标实例,单击操作列的“登录”,进入数据管理服务登录界面。 步骤 5 正确输入数据库用户名和密码,单击“登录”,即可进入您的数据库。 步骤 6 在顶部菜单栏选择“SQL操作”>“SQL执行记录”,打开历史执行记录列表。 步骤 7 在SQL执行记录页面,您可通过日期范围、数据库名称、SQL语句关键字进行搜索,快速查找目标SQL执行记录信息。 图 SQL执行记录 单击列表中数据库名称,您可直接进入该数据库管理页面。 单击“SQL语句”,您可在SQL语句弹出框中复制使用SQL。 单击“在SQL执行窗口打开”,您可在SQL窗口中直接使用该语句。 如何查看TaurusDB慢SQL? 查看日志明细 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入“基本信息”页面。 步骤 5 在左侧导航树,单击“日志管理”。 步骤 6 选择“慢日志”页签,查看慢SQL语句的详细信息。 慢日志功能支持查看指定执行语句类型或时间段的慢日志记录。 TaurusDB服务如何开启并查看binlog文件?
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        日志管理类
      • 相关服务
        本页为您介绍与数据传输服务DTS有关的其他服务。 与天翼云传输服务相关的服务 与天翼云数据传输服务相关的服务,如下表: 服务名称 功能相关 参考文档链接 关系数据库MySQL版 DTS可支持关系数据库MySQL版进行迁移、同步操作,包括:MySQL到MySQL、PostgreSQL及ClickHouse的迁移,MySQL到MySQL的单向、双向同步。 关系数据库MySQL版 关系数据库PostgreSQL版 DTS可支持关系数据库PostgreSQL版进行迁移、同步操作,包括:PostgreSQL到PostgreSQL、MySQL的迁移,PostgreSQL到PostgreSQL的单向、双向同步。 关系数据库PostgreSQL版 关系数据库SQL Server版 DTS可支持关系数据库SQL Server版进行迁移、同步操作,包括:SQL Server到SQL Server、PostgreSQL的迁移,SQL Server到SQL Server的同步。 关系数据库SQL Server版 文档数据库(DDS) DTS可支持文档数据库(DDS)进行迁移、同步操作,包括:MongoDB/DDS 到MongoDB/DDS的迁移和同步。 文档数据库 云数据库ClickHouse DTS可支持将MySQL数据库迁移到ClickHouse。 云数据库ClickHouse 虚拟私有云 虚拟私有云,为云服务器、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。 虚拟私有云 弹性IP 弹性IP是可以独立申请的公网IP地址,将弹性IP和DTS实例绑定,可使用DTS进行公网数据库迁移、同步。 弹性IP 数据管理服务 使用数据管理服务,通过专业优质的可视化操作界面,提高数据管理工作的效率和安全。 数据管理服务 云审计 对接云审计服务,对DTS关键操作记录提供收集、存储和查询功能,可用于支撑合规审计、安全分析、资源跟踪和问题定位等常见应用场景。 云审计 标签管理 对接标签管理,对DTS实例绑定标签,便于对实例进行查找与筛选,实现更快捷的管理。 标签管理
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        相关服务
      • 通过DMS登录MySQL实例
        创建关系数据库MySQL版实例后,可以通过登录数据库管理服务DMS对数据库实例进行数据管理、用户授权、SQL审计、数据可视化等管理操作。本文为您介绍如何通过数据库管理服务DMS登录关系数据库MySQL版实例。 注意 仅西南1、华东1、华南2、华北2等II类型资源池支持该功能,I类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见使用限制或者功能概览。 背景信息 数据管理服务(Data Management Service,DMS)是异构数据库(支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS等数据库类型)的一站式、全生命周期管理平台,为企业提供统一数据资产视图、统一数据库开发规范、统一数据安全策略、统一变更管控标准,让数据库的使用更高效、更安全、更规范。更多DMS信息,请参见DMS产品定义。 前提条件 已快速创建关系数据库MySQL版实例。 已创建数据库用户。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 选择如下一种方式,进入数据库管理服务DMS。 方法一:在实例列表上方,单击进入数据管理服务,进入到DMS管理控制台,然后填写登录数据库的数据库账号和密码,即可登录DMS。 方法二:在实例列表中,找到目标实例,单击实例名称,进入实例基本信息 页签,然后在右上角单击登录数据库,即可进入该实例的DMS登录页面。 方法三:在实例列表中,找到目标实例,选择操作 列的更多 > 登录数据库,即可进入该实例的DMS登录页面。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库工具
        通过DMS登录MySQL实例
      • 功能特性
        功能大类 功能点 基础功能 基于MySQL语法和协议对外提供数据访问,支持Workbench、Navicat、SQLyog等客户端连接,支持JDBC连接访问。 数据分片 支持多种数据切分方式,提供水平扩展数据能力。 读写分离 支持透明读写分离和应用级读写分离方案,识别应用发送过来的语句,区分出语句类型,判定为读语句,则自动发送到只读实例执行SQL操作。 全局序列 提供全局唯一的序列号,可用于替换单机数据库的自增序列。 库内分表 提供水平切分后在单库再次进行分表功能,解决超大表水平切分后单片数据量依然很大的问题。 全局表 通过全局表同步,可以将数据更新少的数据单表同步到需要联合查询分表对应的分库上,以小表作为驱动表加速分布式联合查询。 事务支持 DRDS当前支持单机、补偿、XA三种事务模型。 单机事务:不允许跨分片事务。 补偿事务:跨分片事务commit时部分失败,补偿线程会尝试在失败节点重新执行SQL。 XA分布式事务:两阶段提交,为了保证事务内数据一致性,跨分片事务commit时若部分失败会自动回滚。 管理命令 为方便用户使用和维护,提供DRDS特有的管理命令,包括:配置查看、状态查看、统计监控、序列运维等。 SQL执行统计分析 通过SQL执行统计分析,可判断数据分片的合理性,是否存在热点。 通过分析TOP慢语句、广播语句,不断优化应用程序对数据库使用的合理性。 运维监控 支持对实例、慢SQL、事务等进行监控,可实时查看分布式数据库的运行状况。 支持对数据库运行情况进行实时监控,提供物理数据库运行中语句、连接数统计及锁情况实时监控功能,在数据库资源被大量慢语句占用时,通过批量kill连接功能可快速恢复数据库服务。 运维管理可视化 DRDS提供Console界面,可在线对DRDS实例、逻辑库等进行管理和维护。
        来自:
        帮助文档
        分布式关系型数据库
        产品介绍
        功能特性
      • 查询窗口介绍
        序号 区域 说明 ① 团队信息区域 展示当前实例所属的团队名称。 ② 打开新标签页 点击 ,可打开一个当前选中数据库的新的查询标签页,最多可同时打开10个标签页。查询标签页的名称与脚本的名称保持一致。 ③ 实例信息区域 展示实例的IP、端口、实例名称等信息,鼠标悬浮可展示完整的信息。 ④ 功能按钮区域 执行:执行标签页内的SQL语句,也支持选择部分SQL语句执行。设定了F8为快捷键。 保存:将当前查询窗口中的所有SQL语句保存至我的脚本,方便下次使用,并支持对脚本进行命名。 格式化:优化选中的SQL语句的展示格式,增强可读性。 SQL诊断:提供对SQL执行计划进行诊断分析,并给出改写后的SQL以及索引优化建议。 预估执行计划:在SQL语句执行前预测SQL语句执行时可能采用的逻辑步骤和访问路径,当前仅支持MySQL和PostgreSQL数据库。 实际执行计划:在SQL语句执行时由数据库引擎生成,反映了实际执行的确切步骤和细节,当前仅支持MySQL和PostgreSQL数据库。 语法帮助:提供了涵盖表/索引、show语句、视图、函数/存储过程、触发器、事件、权限相关的语法,以及select、update、insert、delete、replace等常用语法。 设置:可以对查询窗口标签页内的字体大小、结果集展示方式、语法提示功能开启状态等选项进行设置。 SQL生成:SQL生成提供了自然语言转换为sql语句的智能AI功能。详见 ⑤ 数据库用户区域 展示当前登录的数据库用户,可以进行退出或切换账号操作。 :跳转到对象列表界面。 :进入全屏操作。 ⑥ 数据库信息区域 展示当前选择的数据库信息,点击下拉列表可以切换到当前实例下其他的数据库,点击右侧的复制图标,可以复制完整的数据源信息。 ⑦ 可视化操作区域 该区域提供可视化管理数据库的功能: 表:分页展示当前数据库中的所有表信息,包括表名、表的大小、表的字段、字段类型、索引。右键单击目标表名称时,可进行打开表、新建表、编辑表、查看表详情、重命名表、复制表名、删除表等操作。且支持对表名进行搜索,修改表数据后,可以点击刷新按钮更新元数据。双击表名可于查询标签页生成简单的查询语句。 可编程对象:可查看当前数据库中的所有的可编程对象,包括视图、存储过程、函数、事件、触发器。右键单击可编程对象名称时,可进行创建、查看、编辑、删除等操作。 我的脚本:分页展示脚本列表,右键脚本名称可以对脚本进行查看、编辑、删除、复制、重命名等操作。 ⑧ 命令执行区域 支持如下功能: SQL执行:支持执行单条语句或批量执行,批量执行最多一次执行100条语句,每条语句对应一个结果集。 中断执行:SQL执行过程中可以单击取消查询中断SQL的执行。 语法高亮:以不同颜色显示不同的语法元素,尤其会对关键字进行区别显示,提高SQL语句可读性。 元数据智能提示:根据用户输入的内容以及数据库的语法规则,自动提示对应的元数据信息。 ⑨ 执行结果区域 该区域主要展示执行历史、执行信息、结果集等信息。 执行历史:分页展示当前用户在当前数据库下的SQL语句执行记录,默认展示20条,且支持通过执行时间进行搜索。 执行信息:展示每次点击执行按钮之后的执行结果信息,可以选择覆盖展示或者追加展示。对于DQL类的查询语句,执行信息界面不直接展示结果信息,可在结果集tab查看。 结果集:当执行DQL类语句时将在结果集界面展示结果信息。支持新增、修改、删除、导出等操作,同时还支持对查询结果进行关键字搜索、高亮展示、展示界面调整等功能。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        查询窗口
        查询窗口介绍
      • 弹性文件服务 SFS
        弹性文件服务(CTSFS,Scalable File Service)可为云服务器、物理机、容器等计算服务提供大规模共享访问的存储空间,具备高可用,高性能,低时延特征。满足文件共享、Web应用场景等数据存储需求。
        来自:
        帮助文档
        弹性文件服务 SFS
      • 弹性伸缩概述
        组件名称 组件介绍 适用场景 cubeclusterautoscaler CCSE自研插件,节点水平伸缩组件,提供了调度、弹性优化、成本优化的功能。 全场景支持,适合在线业务、深度学习、大规模成本算力交付等。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        弹性伸缩
        弹性伸缩概述
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是 PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 tempbuffers,临时表缓冲区。 workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭CPU 的节能模式。 关闭NUMA。 建议使用UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.1.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 规格与版本升级
        本节为您介绍如何升级数据安全中心的版本。 前提条件 已通过IAM对用户绑定“DSC FullAccess”权限的用户组。 规格限制 1个数据库扩展包含1个可添加数据库(支持RDS、DWS、ECS自建数据库、DLI、Elasticsearch、ECS自建大数据等)资产。 1个OBS扩展包含1T体量,即1024G。 操作步骤 1. 登录管理控制台。 2. 点击左上角的,选择区域或项目。 3. 点击左侧导航树中的,选择“安全与合规 >数据安全中心”,进入数据安全中心总览界面。 4. 在页面的右上角单击“升级规格”。 5. 选择“数据库扩展包”和“OBS扩展包”的数量。 1个数据库扩展包含1个可添加数据库(支持RDS、DWS、ECS自建数据库、DLI、Elasticsearch、ECS自建大数据等)资产。 1个OBS扩展包含1T体量,即1024G。 6. 在页面的右下角,单击“立即购买”。
        来自:
        帮助文档
        数据安全中心
        用户指南
        开通数据安全中心
        规格与版本升级
      • 查看实例(1)
        参数 说明 元数据连接地址 未开启公网访问时,实例元数据管理节点的地址,大部分场景下客户端只需要配置此地址即可。 业务连接地址 未开启公网访问时,实例业务处理节点的地址,当需要对单一业务节点进行操作时,可以使用其中某一地址。 公网访问 公网访问状态。单击“公网访问”后的 ,开启/关闭公网访问。 元数据公网连接地址 仅开启公网访问后可见。开启公网访问后,实例元数据管理节点的地址,大部分场景下客户端只需要配置此地址即可。 业务公网连接地址 仅开启公网访问后可见。开启公网访问后,实例业务处理节点的地址。 SSL 实例的SSL状态。 ACL访问控制 实例的ACL访问状态。单击“ACL访问控制”后的 ,开启ACL访问。 说明:仅2021年8月21号后购买的实例,支持设置此参数。
        来自:
      • 服务器迁移兼容性列表
        本节为您提供服务器迁移支持的兼容性列表 。 服务器迁移源机支持的Windows操作系统列表见下表: OS类型 OS版本 cpu架构 windows windows10 x8664 windows windows11 x8664 windows server 2008R2 x86 64 windows server 2012 x86 64 windows server 2012R2 x86 64 windows server 2016 x86 64 windows server 2019 x86 64 windows server 2022 x86 64 服务器迁移源机支持的Linux操作系统列表见下表: OS类型 OS版本 cpu架构 CentOS CentOS5.3 x8664 CentOS CentOS 6.0 x8664 CentOS CentOS 6.1/6.2/6.3/6.4/6.5/6.6/6.7/6.8/6.9/6.10 x8664 CentOS CentOS 7.0 x8664 CentOS CentOS 7.1/7.2/7.3/7.4/7.5/7.6/7.7/7.8/7.9 x8664 CentOS CentOS 8.0/8.1/8.2/8.3/8.4/8.5 x8664 CentOS CentOS Stream 8 x8664 CentOS CentOS Stream 9 x8664 Redhat Red Hat Enterprise Linux5.7 x8664 Redhat Red Hat Enterprise Linux 6.0 x8664 Redhat Red Hat Enterprise Linux 6.1/6.2/6.3/6.4/6.5/6.7/6.8/6.9/6.10 x8664 Redhat Red Hat Enterprise Linux 7.0 x8664 Redhat Red Hat Enterprise Linux 7.1/7.2/7.3/7.4/7.5/7.6/7.7/7.8/7.9 x8664 Redhat Red Hat Enterprise Linux 8.0/8.1/8.2/8.3/8.4 x8664 Oracle Oracle linux 5.3~9.0 x8664 Oracle Oracle Linux 6.0/6.1/6.2/6.3/6.4/6.5/6.6/6.7/6.8/6.9/6.10 x8664 Oracle Oracle Linux 7.0 x8664 Oracle Oracle Linux 7.7/7.8/7.9 x8664 Oracle Oracle Linux 8.6/8.7/8.8 x8664 Oracle Oracle Linux 9.0 x8664 Ubuntu Ubuntu Server12.04 x8664 Ubuntu Ubuntu Server 13.04 x8664 Ubuntu Ubuntu Server14.04 x8664 Ubuntu Ubuntu Server15.04 x8664 Ubuntu Ubuntu Server16.04 x8664 Ubuntu Ubuntu Server17.04 x8664 Ubuntu Ubuntu Server18.04 x8664 Ubuntu Ubuntu Server19.04 x8664 Ubuntu Ubuntu Server20.04 x8664 Ubuntu Ubuntu Server21.04 x8664 Ubuntu Ubuntu Server22.04 x8664 Debian Debian GNU/Linux 6.0.10 X8664 Debian Debian GNU/Linux 7.11.0 X8664 Debian Debian GNU/Linux 8.0/8.1/8.2/8.3/8.4/8.5/8.6/8.7/8.8/8.9/8.10/8.11 X8664 Debian Debian GNU/Linux 9.0/9.1/9.2/9.3/9.4/9.5/9.6/9.7/9.8/9.9/9.10/9.11/9.12/9.13 X8664 Debian Debian GNU/Linux 10.0/10.1/10.2/10.3/10.4/10.5/10.6/10.7/10.8/10.9/10.10/10.11/10.12/10.13 X8664 Debian Debian GNU/Linux 11.0/11.1/11.2 X8664 Debian Debian GNU/Linux 11.3/11.4/11.5 X8664 Fedora Fedora9/10/11/12/13/14/15/16/17/18 X8664 Fedora Fedora 19/20/21/22 X8664 Fedora Fedora 23/24/25/26/27/28/29/33/34/35/36/37/38 X8664 SUSE 11sp2/12sp2/15sp3 x8664 OpenSUSE 15.015.3/42.3 x8664 OpenEuler 20.03/22.03 x8664 Rocky Linux 8.5 x8664 Anolis 0S 8.2/8.6 x8664 麒麟 V10 x8664 统信UOS V20 x8664 Tencentos 2.4/3.1 x8664 Alibaba 2.1903/3.2104 x8664 Huawei Cloud EulerOS 1.0/2.0 x8664 CTyun0S 2 x8664 红旗 4.4/7.3 x8664 服务器迁移目标机支持的规格列表见下表: cpu架构 类型 子类型 描述 x86 通用型 通用型s2云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 通用型m2云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 通用型s3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 通用型s6云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 通用型s7云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 通用性s8云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 海光hs1云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 通用型 海光hs3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 计算型c3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 计算型c6云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 计算型c7云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 计算型c8云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 海光hc1云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 计算型 海光hc3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 内存型m3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 内存型m6云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 内存型m7云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 内存型m8云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 海光hm1云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 x86 内存型 海光hm3云主机 当前服务器迁移Linux已支持迁移到左侧列出的所有机型 windows大部分资源池目前仅支持第七代及以前的英特尔处理器,不支持英特尔第八代之后的代系以及海光机型 当前仅在部分资源池(华东1、杭州7、长沙42、南京3、贵州3)上线了支持第八代英特尔处理器和海光机型的镜像(镜像描述为Intel及海光适用的Windows云迁移专用镜像),其他资源池还未上线以支持 arm 鲲鹏机型 通用型ks1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 鲲鹏机型 通用型ks2云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 鲲鹏机型 计算型kc1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 鲲鹏机型 计算型kc2云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 鲲鹏机型 内存型km1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 鲲鹏机型 内存型km2云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 飞腾机型 通用型fs1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 飞腾机型 计算型fc1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型 arm 飞腾机型 内存型fm1云主机 服务器迁移当前已适配ARM架构的鲲鹏和飞腾机型
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        使用须知
        兼容性列表
        服务器迁移兼容性列表
      • 类Ubuntu私有镜像制作
        2.5 选择内存大小及CPU数 选择内存大小和CPU核数。分配给虚拟机的内存大小和CPU数不能超过宿主机拥有的内存大小和CPU数。这里根据实际情况分配足够大的内存及CPU数即可。本示例中只安装一个最小化的系统,不需要很多内存和CPU,这里选择默认配置,直接点击“Forward”。 2.6 创建磁盘镜像 根据实际情况,选择虚拟硬盘的大小。根据实际情况选择即可。需注意虚拟机硬盘不能太小,否则可能后续无法安装所需的软件包等。最终系统盘实际占用空间不能超过物理机的系统盘大小。本示例中只安装一个最小化的系统,不需要太多的硬盘空间,默认为8GiB,本文选择25GiB,点击“Forward”。 2.7 设置虚拟机名称、网络、启动方式 在“名称”文本框中输入虚拟机的名字,这个名字也会作为磁盘镜像的名字。磁盘镜像默认在/var/lib/libvirt/images/虚拟机名字.qcow2,后面转换镜像格式需要用到这个镜像,需要记下这个路径。这里名称我们使用“Ubuntu22.04.5”。 “选择网络”处使用默认的虚拟网络即可。 x8664架构的服务器一般支持BIOS和UEFI两种启动方式。其中UEFI是较新的启动方式,BIOS是为了兼容而保留的旧启动方式。您制作的镜像的启动方式应和物理机的启动方式保持一致。 vritmanager默认创建的虚拟机是BIOS启动方式。如果您使用BIOS方式启动系统,点击“完成”创建虚拟机即可。 设置UEFI启动方式: 如果您打算使用UEFI方式启动系统,还需要进行一些额外的配置。勾选“在安装前自定义配置”,然后点击“完成”。 这时会有界面进行更细致的配置。在左侧选择“概况”,修改“固件”,从BIOS改为UEFI。点击右下角的“Apply”,保存配置。此时虚拟机支持的启动固件就从BIOS变为UEFI。 接下来修改启动顺序。在左侧选择“引导选项”,引导设备顺序从“VirtIO 磁盘1”改为“SATA CDROM 1”、“VirtIO 磁盘1”(勾选“SATA CDROM 1”,然后用右侧的上下箭头调整启动顺序)。点击右下角的“Apply”,保存配置。 此时虚拟机优先从光驱启动,若光驱中没有可启动的光盘镜像,则会从虚拟磁盘启动。我们的虚拟磁盘上还没有安装操作系统,此时无法从虚拟磁盘启动,需要从光驱启动。虚拟光驱中有我们前面选择的系统安装光盘镜像。 当系统安装完成后,virtmanager会自动弹出虚拟光驱中的系统安装光盘镜像,然后重启。此时虚拟光驱中无可启动的光盘镜像,会从虚拟磁盘启动。 点击左上角的“开始安装”,此时启动虚拟机,并开始安装系统。后续安装过程和BIOS方式启动安装系统几乎一样,只是分区时需要确保有EFI分区,在分区一节中我们会再强调。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        镜像
        通过镜像文件制作系统盘私有镜像
        制作镜像文件
        制作系统盘私有镜像
        类Ubuntu私有镜像制作
      • 类Ubuntu私有镜像制作(1)
        2.5 选择内存大小及CPU数 选择内存大小和CPU核数。分配给虚拟机的内存大小和CPU数不能超过宿主机拥有的内存大小和CPU数。这里根据实际情况分配足够大的内存及CPU数即可。本示例中只安装一个最小化的系统,不需要很多内存和CPU,这里选择默认配置,直接点击“Forward”。 2.6 创建磁盘镜像 根据实际情况,选择虚拟硬盘的大小。根据实际情况选择即可。需注意虚拟机硬盘不能太小,否则可能后续无法安装所需的软件包等。最终系统盘实际占用空间不能超过物理机的系统盘大小。本示例中只安装一个最小化的系统,不需要太多的硬盘空间,默认为8GiB,本文选择25GiB,点击“Forward”。 2.7 设置虚拟机名称、网络、启动方式 在“名称”文本框中输入虚拟机的名字,这个名字也会作为磁盘镜像的名字。磁盘镜像默认在/var/lib/libvirt/images/虚拟机名字.qcow2,后面转换镜像格式需要用到这个镜像,需要记下这个路径。这里名称我们使用“Ubuntu22.04.5”。 “选择网络”处使用默认的虚拟网络即可。 x8664架构的服务器一般支持BIOS和UEFI两种启动方式。其中UEFI是较新的启动方式,BIOS是为了兼容而保留的旧启动方式。您制作的镜像的启动方式应和物理机的启动方式保持一致。 vritmanager默认创建的虚拟机是BIOS启动方式。如果您使用BIOS方式启动系统,点击“完成”创建虚拟机即可。 设置UEFI启动方式: 如果您打算使用UEFI方式启动系统,还需要进行一些额外的配置。勾选“在安装前自定义配置”,然后点击“完成”。 这时会有界面进行更细致的配置。在左侧选择“概况”,修改“固件”,从BIOS改为UEFI。点击右下角的“Apply”,保存配置。此时虚拟机支持的启动固件就从BIOS变为UEFI。 接下来修改启动顺序。在左侧选择“引导选项”,引导设备顺序从“VirtIO 磁盘1”改为“SATA CDROM 1”、“VirtIO 磁盘1”(勾选“SATA CDROM 1”,然后用右侧的上下箭头调整启动顺序)。点击右下角的“Apply”,保存配置。 此时虚拟机优先从光驱启动,若光驱中没有可启动的光盘镜像,则会从虚拟磁盘启动。我们的虚拟磁盘上还没有安装操作系统,此时无法从虚拟磁盘启动,需要从光驱启动。虚拟光驱中有我们前面选择的系统安装光盘镜像。 当系统安装完成后,virtmanager会自动弹出虚拟光驱中的系统安装光盘镜像,然后重启。此时虚拟光驱中无可启动的光盘镜像,会从虚拟磁盘启动。 点击左上角的“开始安装”,此时启动虚拟机,并开始安装系统。后续安装过程和BIOS方式启动安装系统几乎一样,只是分区时需要确保有EFI分区,在分区一节中我们会再强调。
        来自:
      • 创建使用自定义认证且后端为FunctionGraph的API
        创建自定义认证 在APIG中创建自定义认证,对接前端自定义认证的函数。 1. 选择已创建的APIG专享版实例,并在航栏选择“API管理 > API策略”,在“自定义认证”页签下,单击“创建自定义认证”,弹出“创建自定义认证”对话框。 2. 配置自定义认证基础信息,如下图所示。 1. 认证名称:输入您自定义的名称,例如Authorizertest。 2. 类型:选择“前端”。 3. 函数地址:请选择用于前端自定义认证的函数apigtest。 3. 完成后单击“确定”,完成自定义认证的创建。 创建后端业务函数 API网关(APIG)支持选择FunctionGraph作为后端服务类型,当请求设置函数工作流为后端服务的API时,API网关会触发相应的函数,函数工作流会将执行结果返回给API网关(APIG)。 1. 创建函数方法与上述创建自定义认证函数相同,只需修改函数名称,避免名称重复。 2. 在函数详情页的“代码”页签,进行代码在线编辑,并传入如下所示的代码,完成后单击“部署”,更新函数。 coding:utf8 import json def handler (event, context): body " Functiongraph Demo Hello, FunctionGraph! " print(body) return { "statusCode":200, "body":body, "headers": { "ContentType":"text/html", }, "isBase64Encoded":False } 请求参数代码定义示例 在FunctionGraph中开发函数,以python2.7语言为例,函数代码需要满足如下条件。函数有明确的接口定义,如下所示: 1. def handler (event, context) 1. 入口函数名(handler):入口函数名称,需和函数执行入口处用户自定义的入口函数名称一致。 2. 执行事件(event): 函数执行界面由用户输入的执行事件参数,格式为JSON对象。 3. 上下文环境(Context):Runtime提供的函数执行上下文,其接口定义在SDK接口说明,详情请参见《函数工作流(FunctionGraph) 用户指南》的“Python > 开发事件函数”章节。 2. 执行事件(event)支持三种请求参数定义,格式为: 1. Header中的请求参数:event["headers"]["参数名"] 2. Query中的请求参数:event["queryStringParameters"]["参数名"] 3. 您自定义的用户数据:event["userdata"] 3. 函数代码获取的三种请求参数与API网关自定义认证中的参数关系如下所示: 1. Header中的请求参数:对应自定义认证中参数位置为Header的身份来源,其参数值在您调用使用该前端自定义认证的API时传入 2. Query中的请求参数:对应自定义认证中参数位置为Query的身份来源,其参数值在您调用使用该前端自定义认证的API时传入 3. 您自定义的用户数据:对应自定义认证中的用户数据,其参数值在您创建自定义认证时输入 4. 函数的返回值不能大于1M,必须满足如下格式: { "statusCode":200, "body":"{"status": "allow", "context":{"user": "abc"}}" } 其中,body字段的内容为字符串格式,json解码之后为: { "status":"allow/deny", "context": { "user": "abc" } } “status”字段为必选,用于标识认证结果。只支持“allow”或“deny”,“allow”表示认证成功,“deny”表示认证失败。“context”字段为可选,只支持字符串类型键值对,键值不支持JSON对象或数组。context中的数据为您自定义的字段,认证通过后作为认证参数映射到API网关后端参数中,其中context中的参数名称与系统参数名称必须完全一致,且区分大小写,context中的参数名称必须以英文字母开头,支持英文大小写字母、数字、下划线和中划线,且长度为1 ~ 32个字符。
        来自:
        帮助文档
        函数工作流
        最佳实践
        创建使用自定义认证且后端为FunctionGraph的API
      • 基本指标
        指标名称 单位 说明 每秒并发操作数 ops 每秒总请求数,包含读和写命令。 缓存命中率 % 命中率计算方法:Key命中数÷(Key命中数+Key未命中数)。 内存碎片率 % memfragmentationratio (内存碎片率) usedmemoryrss (操作系统实际分配给 Redis 的物理内存空间大小)/ usedmemory(Redis 内存分配器为了存储数据实际申请使用的内存空间大小) memfragmentationratio (内存碎片率)的值越大代表内存碎片率越严重。 已使用内存比例 % 统计Redis的内存利用率。 客户端连接数 count 统计已连接的客户端数量。 活跃客户端连接数 count 统计活跃的客户端的数量。 阻塞客户端连接数 count 统计被阻塞操作挂起的客户端的数量。 已使用内存 byte 统计Redis已使用的内存字节数。 已用内存RSS byte 统计Redis已使用的RSS内存。即实际驻留在内存中的内存数。包含和堆,但不包括换出的内存。 已用内存峰值 byte 统计Redis服务器启动以来使用内存的峰值。 每秒新建连接数 count 统计每秒新建连接数。 连接数使用率 % 统计连接数使用率。 平均时延 us 统计实例的平均时延。 命令最大调用时延 ms 统计实例命令最大调用时延。 Pubsub channels count 统计Pub/Sub通道个数。 Pubsub patterns count 统计Pub/Sub模式个数。 Key命中数 count 统计实例Key命中数。 每秒Key命中数 count/s 统计实例每秒Key命中数。 Key未命中数 count 统计在主字典中查找不命中次数。 每秒Key未命中数 count/s 统计每秒在主字典中查找不命中次数。 数据集使用内存 byte 统计Redis中数据集使用的内存。 数据集使用内存百分比 % 统计Redis中数据集使用的内存所占总内存百分比。 Lua已用内存 byte 统计Lua引擎已使用的内存字节。 已拒绝的连接数 count 统计周期内因为超过maxclients而拒绝的连接数量。 处理的命令数 count 统计周期内处理的命令数。 键总数 count 统计Redis缓存中键总数。 已设置过期时间的key总数 count 统计已设置过期时间的key总数。 历史过期key总数 count 统计历史过期key总数。 历史淘汰key总数 count 统计历史淘汰key总数。 历史累计逐出key总数 count 统计历史累计逐出key总数。 每秒过期key总数 count/s 统计每秒过期key总数。 每秒淘汰key总数 count/s 统计每秒淘汰key总数。 每秒逐出key总数 count/s 统计每秒逐出key总数。 字符串类型操作命令每秒调用次数 count/s 统计字符串类型操作命令每秒调用次数。 哈希类型操作命令每秒调用次数 count/s 统计哈希类型操作命令每秒调用次数。 keys类型操作命令每秒调用次数 count/s 统计keys类型操作命令每秒调用次数。 列表类型操作命令每秒调用次数 count/s 统计列表类型操作命令每秒调用次数。 发布订阅类型操作命令每秒调用次数 count/s 统计发布订阅类型操作命令每秒调用次数。 集合类型操作命令每秒调用次数 count/s 统计集合类型操作命令每秒调用次数。 有序类型集合操作命令每秒调用次数 count/s 统计有序类型集合操作命令每秒调用次数。 事务类型操作命令每秒调用次数 count/s 统计事务类型操作命令每秒调用次数。 HyperLog类型操作命令每秒调用次数 count/s 统计HyperLog类型操作命令每秒调用次数。 Script类型操作命令每秒调用次数 count/s 统计Script类型操作命令每秒调用次数。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        查看监控与告警配置
        基本指标
      • 步骤三:创建逻辑库并关联RDS for MySQL实例
        本节介绍了购买的步骤三。 本章节主要介绍如何在DRDS控制台上创建逻辑库,并与RDS for MySQL实例进行关联。 使用须知 创建逻辑库时,仅支持关联和DRDS实例处于相同VPC的RDS for MySQL实例,且RDS for MySQL实例没有被其他DRDS实例使用。DRDS将在关联的RDS for MySQL实例上新建数据库,不会影响已有的库表。 创建逻辑库时,同一个逻辑库,RDS for MySQL实例大版本需要相同,不可以混用。 创建逻辑库时,同一个DRDS实例可以创建多个逻辑库。多个逻辑库可关联同一个RDS for MySQL实例。 一个RDS for MySQL实例无法被不同的DRDS实例关联。 创建逻辑库时选多个分片的场合,分片名遵循“逻辑库名xxxx”的命名规则,其中xxxx为从“0000”开始递增的数字。如逻辑库名为“dbcbb5”,总分片数为2,则分片名为“dbcbb50000”和“dbcbb50001”。 创建逻辑库时,关联的RDS for MySQL实例不能处于只读状态。 DRDS在RDS for MySQL实例上创建的内部账号(DRDSRW、DRDSR、DRDSREP)请勿修改和删除,否则会影响业务。 前提条件 已创建DRDS实例,状态为“运行中”。 已创建DRDS账号。 操作步骤 步骤 1 登录分布式关系型数据库控制台。 步骤 2 在实例管理列表页面,单击目标实例操作栏“创建逻辑库”。 您也可以在实例管理列表页面,单击目标实例名称,进入基本信息页面。在左侧导航栏选择逻辑库管理页签,在页面右侧单击创建逻辑库。 步骤 3 在创建逻辑库页面,填选逻辑库模式、逻辑库名称、需要关联的DRDS账号、数据节点和逻辑库总分片数。 表 参数说明 参数名称 说明 逻辑库模式 拆分库:一个逻辑库可以关联多个数据节点,分片数均匀的分布在这些数据节点上。 单库:一个逻辑库仅关联一个数据节点,在该数据节点上仅创建一个分片。 逻辑库名称 长度为248个字符,以小写字母开头且仅支持小写,可以包含小写字母、数字、下划线。 选择账号 需要关联的DRDS账号。 选择数据节点 仅支持和当前DRDS实例处于相同VPC、且未被其他DRDS实例使用的数据节点(RDS for MySQL实例)。DRDS将在选择的数据节点上新建数据库,不会影响数据节点上已有的库表。 逻辑库总分片数 逻辑库总分片数是所选数据节点分片数的总和,为了确保每个数据节点上都能均匀分配到分片,逻辑库总分片数不能小于选择的数据节点数。考虑到业务会持续增长,建议每个数据节点上最小8分片,最大不超过64分片。 步骤 4 单击“下一步”。 步骤 5 在数据节点可用性检测页面,输入关联数据节点的账号及密码,单击“测试”。 说明 数据节点账号所需权限: SELECT, INSERT, UPDATE, DELETE, CREATE, DROP, RELOAD, PROCESS, REFERENCES, INDEX, ALTER, SHOW DATABASES, CREATE TEMPORARY TABLES, LOCK TABLES, EXECUTE, REPLICATION SLAVE, REPLICATION CLIENT, CREATE VIEW, SHOW VIEW, CREATE ROUTINE, ALTER ROUTINE, CREATE USER, EVENT, TRIGGER WITH GRANT OPTION。 建议您提前在数据节点上创建具有上述权限的账号。 步骤 6 测试通过后,单击页面下方的“完成”。 结束
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤三:创建逻辑库并关联RDS for MySQL实例
      • 服务版本差异
        版本 支持纳管的数据库数量 数据脱敏能力 水印溯源能力 基本数据库 国产数据库 大数据组件 标准版 4/8/16/32 √ √ √ × × 高级版 4/8/16/32 √ √ √ √ × 企业版 4/8/16/32 √ √ √ √ √
        来自:
        帮助文档
        数据安全专区
        产品介绍
        服务版本差异
      • 产品优势
        本节介绍了内容审核的产品优势。 海量数据样本 基于多年积累的海量互联网数据,训练出先进的AI模型。 数据样本涵盖了文本、图像等多种类型,并对数据进行严格的筛选、清洗和标注,确保数据的质量和多样性。 性价比高 自动化精准识别,节省大量审核人力投入,毫秒级结果返回。 通过内容审核能够处理的数据量、速度和准确度都远超人工,将繁琐、重复性的审核工作交给内容审核,让人力资源投入到更有价值的工作中。 单次审核多个数据 支持同时审核多张图片或者多条文本,一次性返回所有数据的审核结果,处理效率显著提高,带来极大的便利。 识别准确率高 使用深度学习与机器学习相结合的方式,基于大规模和多主题数据的模型训练,具备较高的识别率和较低的误判率。深度学习可以从大规模数据中自动提取有效的特征,而机器学习分类器则可以对这些特征进行快速、准确的分类和识别。大规模数据可以提供更多的样本和场景,使得模型能够更好地适应各种情况和变化。多主题数据则可以提供更全面的信息和知识,使得模型能够更加准确地识别和分类内容。 覆盖多领域的内容审核 涵盖目前主要的违规非法类的信息审核,可持续扩展更多领域的审核能力。包括但不限于以下方面: 涉黄信息:检测文本、图片和视频中的涉黄信息,包括露骨色情内容、性暗示等。 暴力内容:检测文本、图片和视频中的暴力内容,包括血腥、残酷、暴力的场面或语言。 政治敏感内容:检测文本中的政治敏感词汇、观点和言论,以防止恶意攻击、造谣传谣等行为。 内容审核具有覆盖多领域的能力,可以根据具体需求进行定制化开发,实现高效、准确的内容审核。
        来自:
        帮助文档
        内容审核(文档停止维护)
        产品介绍
        产品优势
      • 关联服务
        操作名称 资源类型 事件名称 授权或者取消对DSC的授权 dscGrant grantOrRevokeTodsc 添加OBS桶资产 dscObsAsset addBuckets 删除OBS桶资产 dscObsAsset deleteBucket 添加数据库资产 dscDatabaseAsset addDatabase 修改数据库资产 dscDatabaseAsset updateDatabase 删除数据库资产 dscDatabaseAsset deleteDatabase 添加大数据资产 dscBigdataAsset addBigdata 修改大数据资产 dscBigdataAsset updateBigdata 删除大数据资产 dscBigdataAsset deleteBigdata 更新对象名称 dscAsset updateAssetName 下载批量添加模板 dscBatchImportTemplate downloadBatchImportTemplate 批量添加数据库 dscAsset batchAddDatabase 批量添加资产 dscAsset batchAddAssets 展示异常事件 dscExceptionEvent listExceptionEventInfo 获取异常事件详细信息 dscExceptionEvent getExceptionEventDetail 添加告警配置 dscAlarmConfig addAlarmConfig 修改告警配置 dscAlarmConfig updateAlarmConfig 下载报表 dscReport downloadReport 删除报表 dscReport deleteReport 添加扫描规则 dscRule addRule 修改扫描规则 dscRule editRule 删除扫描规则 dscRule deleteRule 添加扫描规则组 dscRuleGroup addRuleGroup 修改扫描规则组 dscRuleGroup editRuleGroup 删除扫描规则组 dscRuleGroup deleteRuleGroup 添加扫描任务 dscScanTask addScanJob 修改扫描任务 dscScanTask updateScanJob 删除扫描子任务 dscScanTask deleteScanTask 删除扫描任务 dscScanTask deleteScanJob 启动扫描任务 dscScanTask startJob 停止扫描任务 dscScanTask stopJob 启动扫描子任务 dscScanTask startTask 停止扫描子任务 dscScanTask stopTask 启用/停用ES脱敏 dscBigDataMaskSwitch switchBigDataMaskStatus 获取ElasticSearch field信息 dscBigDataMetaData getESField 添加ES脱敏模板 dscBigDataMaskTemplate addBigDataTemplate 编辑ES脱敏模板 dscBigDataMaskTemplate editBigDataTemplate 删除ES脱敏模板 dscBigDataMaskTemplate deleteBigDataTemplate 查询ES脱敏模板列表 dscBigDataMaskTemplate showBigDataTemplates 启动/停止ES脱敏模板 dscBigDataMaskTemplate operateBigDataTemplate 切换ES脱敏模板状态 dscBigDataMaskTemplate switchBigDataTemplate 启用/停用数据库脱敏 dscDBMaskSwitch switchDBMaskStatus 获取数据库字段信息 dscDBMetaData getColumn 添加数据库脱敏模板 dscDBMaskTemplate addDBTemplate 修改数据库脱敏模板 dscDBMaskTemplate editDBTemplate 删除数据库脱敏模板 dscDBMaskTemplate deleteDBTemplate 查询数据库脱敏模板列表 dscDBMaskTemplate showDBTemplates 启动/停止数据库脱敏模板 dscDBMaskTemplate operateDBTemplate 切换数据库脱敏模板状态 dscDBMaskTemplate switchDBTemplate 添加脱敏算法 dscMaskAlgorithm addMaskAlgorithm 编辑脱敏算法 dscMaskAlgorithm editMaskAlgorithm 删除脱敏算法 dscMaskAlgorithm deleteMaskAlgorithm 测试脱敏算法 dscMaskAlgorithm testMaskAlgorithm 获取字段与脱敏算法的映射关系 dscMaskAlgorithm getFieldAlgorithms 添加加密算法配置 dscEncryptMaskConfig addEncryptConfig 修改加密算法配置 dscEncryptMaskConfig editEncryptConfig 删除加密算法配置 dscEncryptMaskConfig deleteEncryptConfig
        来自:
        帮助文档
        数据安全中心
        产品介绍
        关联服务
      • 作业运维报错
        本章节主要介绍Spark作业相关问题中有关作业运维报错的问题。 Spark作业访问OBS数据时报ResponseCode: 403和ResponseStatus: Forbidden错误 问题现象 Spark程序访问OBS数据时上报如下错误。 Caused by: com.obs.services.exception.ObsException: Error message:Request Error.OBS servcie Error Message. ResponseCode: 403, ResponseStatus: Forbidden 解决方案 Spark程序访问OBS数据时,需要通过配置AK、SK的访问进行访问。具体访问方式可以参考上方:通用队列操作OBS表如何设置AK/SK。 有访问OBS对应的桶的权限,但是Spark作业访问时报错 verifyBucketExists on XXXX: status [403] 请排查“全局配置 > 作业配置” 对应OBS桶是否被设置为了DLI日志桶。 日志桶不能用于DLI的其他业务功能中。 Spark作业运行大批量数据时上报作业运行超时异常错误 Spark作业程序访问大批量数据,如访问DWS大批量数据库数据时,建议设置并发数,启动多任务的方式运行,避免作业运行超时。 使用Spark作业访问sftp中的文件,作业运行失败,日志显示访问目录异常 Spark作业不支持访问sftp。 建议将文件数据上传到OBS,再通过Spark作业进行读取和分析。 执行作业的用户数据库和表权限不足导致作业运行失败 问题现象 Spark作业运行报数据库权限不足,报错信息如下: org.apache.spark.sql.AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveException: MetaException(message:Permission denied for resource: databases.xxx,action:SPARKAPPACCESSMETA) 解决方案 需要给执行作业的用户赋数据库的操作权限,具体操作参考如下: 1. 在DLI管理控制台左侧,单击“数据管理”>“库表管理”。 2. 单击所选数据库“操作”栏中的“权限管理”,将显示该数据库对应的权限信息。 3. 在数据库权限管理页面右上角单击“授权”。 4. 在“授权”弹出框中,选择“用户授权”或“项目授权”,填写需要授权的用户名或选择需要授权的项目,选择相应的权限。 5. 单击“确定”,完成授权。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业运维报错
      • 1
      • ...
      • 71
      • 72
      • 73
      • 74
      • 75
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      科研助手

      人脸属性识别

      推荐文档

      个性化工作台

      天翼云进阶之路③:top使用方法

      FTP访问

      安全类问题

      邀请参会方

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号