云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(独享版)_相关内容
      • 配置HBase连接
        本章节主要介绍数据治理中心的配置HBase连接功能。 目前CDM支持连接的HBase数据源有以下几种: MRS HBase FusionInsight HBase Apache HBase MRS HBase 连接MRS上的HBase数据源时,相关参数如下表所示。 说明 新建MRS连接前,需在MRS中添加一个kerberos认证用户并登录MRS管理页面更新其初始密码,然后使用该新建用户创建MRS连接。 如需连接MRS 2.x版本的集群,请先创建2.x版本的CDM集群。CDM 1.8.x版本的集群无法连接MRS 2.x版本的集群。 需确保MRS集群和DataArts Studio实例之间网络互通,网络互通需满足如下条件: DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,MRS集群可以访问公网且防火墙规则已开放连接端口。 DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见 Type Ⅰ)> 添加路由信息”章节,配置安全组规则请参见《虚拟 > 添加安全组规则”章节。 此外,还需确保该MRS集群与DataArts Studio工作空间所属的企业项目相同,如果不同,您需要修改工作空间的企业项目。 详见下表:MRS上的HBase连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mrshbaselink Manager IP MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 127.0.0.1 用户名 选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”和“密码”填写为新建的MRS用户及其密码。 说明 如果CDM集群为2.9.0版本及之后版本,且MRS集群为3.1.0及之后版本,则所创建的用户至少需具备Managerviewer的角色权限才能在CDM创建连接;如果需要对MRS组件的库、表、列进行操作,还需要参考MRS文档添加对应组件的库、表、列操作权限。 如果CDM集群为2.9.0之前的版本,或MRS集群为3.1.0之前的版本,则所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在CDM创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 cdm 密码 访问MRS Manager的用户密码。 认证类型 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 SIMPLE HBase版本 HBase版本。 HBASE2X 运行模式 “HBASE2X”版本支持该参数。选择HBase连接的运行模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 说明 :STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 STANDALONE 是否使用集群配置 您可以通过使用集群配置,简化Hadoop连接参数配置。 否 集群配置名 仅当“是否使用集群配置”为“是”时,此参数有效。此参数用于选择用户已经创建好的集群配置。 hbase01 单击“显示高级属性”,然后单击“添加”,您可以添加客户端的配置属性。所添加的每个属性需配置属性名称和值。对于不再需要的属性,可单击属性后的“删除”按钮进行删除。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置HBase连接
      • 配置参数管理
        本章节介绍如何对DRDS实例进行参数配置管理 操作场景 为了确保DRDS服务发挥出最优性能,您可以根据自己的业务情况对DRDS实例的运行参数进行配置。 前提条件 已有DRDS实例,且实例状态处于“运行中”。 操作步骤 1.登录管理控制台。 2.在导航栏选择“数据库 > 分布式数据库件间件”,进入总览页面。 3.单击左侧菜单栏的“实例管理”,进入实例管理页面。 4.在实例管理页面单击实例名称,进入实例信息详情页。 5.在该页面单击“参数管理”。您可以根据需要修改对应参数,确认无误后,单击“保存”即可。 DRDS实例配置参数说明 参数名称 缺省值 取值范围 参数说明 :::: bindtable 格式要求:[{tb.col1,tb2.col2},{tb.col2,tb3.col1},...]该参数要以“表名.列名”的形式出现且可以多对同时出现。 版本要求: DRDS 2.3.2.7版本及以上。 用于描述多个拆分表的内在数据关联性,用于告知优化器在处理join时,把join下推到MySQL层执行。参数举例请详见表下的说明。 maxconnections 1000 10~10000 允许同时连接的客户端总数。 此参数需要结合RDS for MySQL实例的规格及处理能力配置合适的值。连接数过多,可能造成连接等待,影响性能。DRDS的连接数消耗与分片数量和SQL设计等因素相关。 例如:SQL带拆分键时,1个DRDS连接同时消耗后面1个RDS for MySQL实例连接;SQL不带拆分键时,假设分片个数为N,那么会消耗N个RDS连接。 因此,SQL合理设计且DRDS和RDS的处理能力不成为瓶颈的前提,DRDS最大连接数可以配置成略小于“后端RDS的数量 单个RDS for MySQL实例支持的最大连接数”。 建议根据自己的业务进行实际压测,配置合理的值。 connectionidletimeout 28800 60~86400 (s) 服务器关闭连接之前等待连接活动的秒数。 longquerytime 1 0.1~3600 (s) 记录慢查询的最小秒数。 sqlexecutetimeout 28800 100~28800(s) SQL执行超时秒数。 connectionfailedthreshold 50 1~10000 客户端连接失败达到多少次后帐号和IP地址被锁定。 connectionfaileddelay 1200 1~86400 (s) 帐号和IP地址被锁定后延迟多少秒解锁。 maxallowedpacket 16777216 1024~1073741824 包或任何生成的中间字符串的最大值。包缓冲区初始化为netbufferlength字节,但需要时可以增长到maxallowedpacket字节。该值默认很小,以捕获大的(可能是错误的)数据包,该值必须设置为1024的倍数。 charactersetserver utf8 gbk、utf8、utf8mb4 DRDS服务端字符集,如果需要存储emoji表情符号,请选择utf8mb4并设置RDS for MySQL实例字符集也为utf8mb4。 说明 DRDS字符集与RDS for MySQL字符集(包括charactersetclient、charactersetconnection、charactersetdatabase、charactersetresults、charactersetserver)需要保持一致。 collationserver 将根据您设置的charactersetserver项进行匹配。 将根据您设置的charactersetserver项进行匹配。 DRDS服务端字符序。 根据您所设置的charactersetserver联动匹配collationserver选项: l gbk >gbkchineseci、gbkbin; l utf8 >utf8unicodeci、utf8bin; l utf8mb4 > utf8mb4unicodeci、utf8mb4bin。 sqlaudit OFF OFF、ON 开启或关闭SQL审计。 DRDSinstancetype SINGLE,MASTER,SLAV SINGLE:设置DRDS实例为单实例。 SLAVE:设置DRDS实例在灾备中作为备实例。 MASTER:设置DRDS实例在灾备中作为主实例。 transactionpolicy XA XA、FREE、NODTX XA:XA 事务,保证原子性,保证可见性; FREE:允许多写,不保证原子性,无性能损耗; NODTX:单分片事务。 说明 DRDS默认支持修改以上实例参数,特殊场景(如数据迁移)下如需修改更多实例参数请联系技术支持人员协助处理。 参数举例: 未使用bindtable结果展示。 使用bindtable结果展示。 单击“保存”,在弹框中单击“确定”完成参数修改。 说明 修改配置参数可能影响应用访问DRDS实例,请谨慎操作。 修改参数命令下发成功后,预计需要20~60秒生效,请耐心等待。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        配置参数管理
      • R1
        技术亮点 DeepSeekR1 的技术亮点包括: ●大规模预训练:R1 模型在超大规模文本数据上进行预训练,学习到了丰富的语言知识和模式。 ●多任务学习:通过多任务学习框架,R1 模型能够在不同任务之间共享知识,提升泛化能力。 ●自适应微调:R1 模型支持针对特定任务的自适应微调,能够快速适应新任务和新领域。 ●高效推理:R1 模型在推理阶段采用了多种优化技术,确保在保持高性能的同时,具备较高的推理效率。 ●可解释性:R1 模型在设计中考虑了可解释性,能够提供一定程度的决策解释,增强用户信任。 通过这些技术亮点,DeepSeekR1在自然语言处理领域展现了强大的竞争力和应用潜力。 版本列表 版本列表 版本说明 DeepSeekR1 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 相关资源及引用 相关资源 DeepSeekR1的使用协议见License 相关引用 @misc{deepseekai2025deepseekr1incentivizingreasoningcapability, title{DeepSeekR1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning}, author{DeepSeekAI and Daya Guo and Dejian Yang and Haowei Zhang and Junxiao Song and Ruoyu Zhang and Runxin Xu and Qihao Zhu and Shirong Ma and Peiyi Wang and Xiao Bi and Xiaokang Zhang and Xingkai Yu and Yu Wu and Z. F. Wu and Zhibin Gou and Zhihong Shao and Zhuoshu Li and Ziyi Gao and Aixin Liu and Bing Xue and Bingxuan Wang and Bochao Wu and Bei Feng and Chengda Lu and Chenggang Zhao and Chengqi Deng and Chenyu Zhang and Chong Ruan and Damai Dai and Deli Chen and Dongjie Ji and Erhang Li and Fangyun Lin and Fucong Dai and Fuli Luo and Guangbo Hao and Guanting Chen and Guowei Li and H. Zhang and Han Bao and Hanwei Xu and Haocheng Wang and Honghui Ding and Huajian Xin and Huazuo Gao and Hui Qu and Hui Li and Jianzhong Guo and Jiashi Li and Jiawei Wang and Jingchang Chen and Jingyang Yuan and Junjie Qiu and Junlong Li and J. L. Cai and Jiaqi Ni and Jian Liang and Jin Chen and Kai Dong and Kai Hu and Kaige Gao and Kang Guan and Kexin Huang and Kuai Yu and Lean Wang and Lecong Zhang and Liang Zhao and Litong Wang and Liyue Zhang and Lei Xu and Leyi Xia and Mingchuan Zhang and Minghua Zhang and Minghui Tang and Meng Li and Miaojun Wang and Mingming Li and Ning Tian and Panpan Huang and Peng Zhang and Qiancheng Wang and Qinyu Chen and Qiushi Du and Ruiqi Ge and Ruisong Zhang and Ruizhe Pan and Runji Wang and R. J. Chen and R. L. Jin and Ruyi Chen and Shanghao Lu and Shangyan Zhou and Shanhuang Chen and Shengfeng Ye and Shiyu Wang and Shuiping Yu and Shunfeng Zhou and Shuting Pan and S. S. Li and Shuang Zhou and Shaoqing Wu and Shengfeng Ye and Tao Yun and Tian Pei and Tianyu Sun and T. Wang and Wangding Zeng and Wanjia Zhao and Wen Liu and Wenfeng Liang and Wenjun Gao and Wenqin Yu and Wentao Zhang and W. L. Xiao and Wei An and Xiaodong Liu and Xiaohan Wang and Xiaokang Chen and Xiaotao Nie and Xin Cheng and Xin Liu and Xin Xie and Xingchao Liu and Xinyu Yang and Xinyuan Li and Xuecheng Su and Xuheng Lin and X. Q. Li and Xiangyue Jin and Xiaojin Shen and Xiaosha Chen and Xiaowen Sun and Xiaoxiang Wang and Xinnan Song and Xinyi Zhou and Xianzu Wang and Xinxia Shan and Y. K. Li and Y. Q. Wang and Y. X. Wei and Yang Zhang and Yanhong Xu and Yao Li and Yao Zhao and Yaofeng Sun and Yaohui Wang and Yi Yu and Yichao Zhang and Yifan Shi and Yiliang Xiong and Ying He and Yishi Piao and Yisong Wang and Yixuan Tan and Yiyang Ma and Yiyuan Liu and Yongqiang Guo and Yuan Ou and Yuduan Wang and Yue Gong and Yuheng Zou and Yujia He and Yunfan Xiong and Yuxiang Luo and Yuxiang You and Yuxuan Liu and Yuyang Zhou and Y. X. Zhu and Yanhong Xu and Yanping Huang and Yaohui Li and Yi Zheng and Yuchen Zhu and Yunxian Ma and Ying Tang and Yukun Zha and Yuting Yan and Z. Z. Ren and Zehui Ren and Zhangli Sha and Zhe Fu and Zhean Xu and Zhenda Xie and Zhengyan Zhang and Zhewen Hao and Zhicheng Ma and Zhigang Yan and Zhiyu Wu and Zihui Gu and Zijia Zhu and Zijun Liu and Zilin Li and Ziwei Xie and Ziyang Song and Zizheng Pan and Zhen Huang and Zhipeng Xu and Zhongyu Zhang and Zhen Zhang}, year{2025}, eprint{2501.12948}, archivePrefix{arXiv}, primaryClass{cs.CL}, url{ }
        来自:
      • 通过云主机创建Linux私有镜像
        本节为您介绍如何通过云主机创建 Linux 私有镜像。 操作场景 您可以通过云主机创建自定义的Linux镜像,通过创建Linux私有镜像,您可以获得更高度定制化和灵活性,确保应用环境的一致性和可重复性。 本节为您介绍如何通过云主机创建 Linux 私有镜像。 前提条件 已有安装 Linux 操作系统的云主机。 需要确保创建私有镜像所使用的云主机网卡设置为 DHCP 的方式来动态获取网络地址,系统默认满足此配置。 操作步骤 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择“镜像服务”。 3. 单击“创建私有镜像”。 4. 从弹出的云主机列表中选择相应的Linux云主机。 5. 输入“镜像名称”,单击“下一步”按钮。 6. 检查确认创建私有镜像参数,确认无误后勾选“我已阅读”,单击“确认下单”。 7. 镜像创建时间与镜像文件本身大小有关可能稍慢,当镜像的状态为“正常”时,表示创建完成。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机镜像
        通过云主机创建Linux私有镜像
      • 操作Flink作业
        参数 参数说明 名称 作业的名称。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:从已保存的checkpoint恢复作业。 说明 Flink SQL作业需要在编辑页面勾选“开启Checkpoint”才可配置该参数。 勾选该参数后,Flink jar作业还需要选择“Checkpoint路径”。 “Checkpoint路径”:选择checkpoint保存路径。必须和应用程序中配置的Checkpoint地址相对应。且不同作业的路径不可一致,否则无法获取准确的Checkpoint。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        操作Flink作业
      • 功能概述
        功能概述 用户数据漫游(UPM),全称:User Profile Management,用户配置文件管理,指用户登录到计算机时系统所需要加载的工作环境设置与文件的集合。 启用用户数据漫游后,用户在池化桌面场景中,或者重启还原AI云电脑时,用户配置文件作为用户的私人数据,可以保持不丢失,保持一致的用户体验。包括IE、Chrome等应用程序的个性化配置数据。 功能优势 (1)在池化桌面中,用户登录到任何一台AI云电脑都是随机的,对用户配置文件进行配置管理后,即可获得一致性的使用体验。 (2)用户在重装还原AI云电脑时,通过对用户配置文件控制管理,有助于保护用户数据免受用户本人不当操作的影响,更便捷可靠的访问自己的专属数据。 使用场景 (1)对于随机分配的池化桌面,用户退出后,该桌面可能被其他用户占用,用户只能使用其他桌面,此时用户配置文件没有同步,如使用数据漫游,用户在访问其他桌面时,使用同一份配置文件,可保持一致的使用体验。 (2)专属AI云电脑重装还原之后,用户系统配置文件不会被重置。 (3)管理员强制下发配置文件,包括环境变量、执行脚本、注册表、文件、文件夹用户桌面使用管理员下发的配置文件。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        用户数据漫游(UPM)
        功能概述
      • GET Bucket CORS
        名称 描述 CORSConfiguration 最多包含100个CORSRules元素的容器。 类型:容器 CORSRule 用户允许跨域的源和方法。 类型:容器。 子节点: AllowedOrigin、 AllowedMethod、MaxAgeSeconds、ExposeHeader、ID。 父节点: CORSConfiguration。 ID 规则的唯一标示。最长255个字符。 类型:字符串。 父节点: CORSRule。 AllowedMethod 用户允许跨域的HTTP方法。每个CORSRule应至少包含一个源和一个方法。 类型: 枚举。 取值:GET、PUT、HEAD、POST、DELETE。 父节点:CORSRule。 AllowedOrigin 用户允许跨域的源。最多包含一个 通配符。比如: 用户也可以只指定 表示允许所有源跨域访问。 类型:字符串。 父节点: CORSRule。 AllowedHeader 通过AccessControlRequestHeaders请求头,指定预检OPTIONS请求中允许的请求头。AccessControlRequestHeaders中的每个请求头名称,必须在规则中有匹配的相应条目。OOS将仅发送允许的响应头。规则中的每个 AllowedHeader 字符串可以最多包含一个 通配符字符。例如:xamz。 类型:字符串。 父节点:CORSRule。 MaxAgeSeconds 指定浏览器为预检请求缓存响应的时间 (以秒为单位)。 一个CORSRule最多包含一个MaxAgeSeconds元素。 类型:整型。 父节点:CORSRule。 ExposeHeader 指定客户应用程序 (例如,JavaScript XMLHttpRequest文件) 能够访问的响应头。 类型:字符串。 父节点: CORSRule。
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        GET Bucket CORS
      • 通知策略(1)
        您可通过配置通知策略,自定义告警事件的匹配条件。当触发相应匹配条件时,系统将按照预设的通知方式向指定对象推送告警信息,提醒其及时开展问题排查与处理工作。 前提条件 已创建通知对象,具体操作,请参见【告警通知对象】。 新建通知策略 1. 登录【应用性能监控控制台】,在左侧导航栏选择告警管理 > 通知策略。 2. 在通知策略 页面左上角单击创建通知策略。 3. 点击“高级设置”(如只需要设置通知对象与通知时段,可无需点击高级设置)。 4. 在新建通知策略页面顶部设置通知策略名称。 5. 在匹配规则区域设置告警事件的匹配规则,点击添加规则,然后进行以下设置: 注意 静默策略优先于通知策略,即已被静默策略匹配到的告警事件将会被静默,无法再进行通知策略的事件匹配。创建静默策略的操作,请参见【静默策略】。 1. 选择数据来源。 指定来源:通知策略会针对指定来源(集成)的告警事件进行匹配规则过滤并发送通知。 无预设来源:通知策略会针对所有告警事件进行匹配规则过滤并发送通知。 2. 设置匹配规则表达式,您可以自定义标签或选择已有的标签。 已有的标签包括: 告警规则表达式指标中携带的标签。 系统自带的默认标签,默认标签说明如下。 分类 标签 说明 常用字段 alertname 告警规则名称 常用字段 carmsobjid 告警对象ID 常用字段 carmsobjtype 告警对象类型 常用字段 carmsobjname 告警对象名称 常用字段 alertGroup 告警规则的group属性 系统预置字段 ctyunarmsregioncode 资源池编码 系统预置字段 ctyunarmsregionname 资源池名称 系统预置字段 ctyunarmstenantcode 租户编码 系统预置字段 ctyunarmstenantname 租户名称 系统预置字段 ctyunarmsalertlevel 告警等级: 1一般 2次要 3重要 4紧急 系统预置字段 ctyunarmsalertruleid 告警规则ID,在告警规则页面选择通知策略后,在对应通知策略中会新增一条匹配规则ctyunarmsalertruleid告警规则ID 系统预置字段 ctyunarmsnotifystrategyid 告警通知策略ID 系统预置字段 ctyunarmsintegrationname 集成名称,ARMS默认上报的告警集成名称为ARMSDEFAULT。 系统预置字段 ctyunarmsalertrulefrequency 告警通知频率 说明 如果需同时满足多个匹配规则才告警,则单击添加条件 编辑第二条匹配规则条件。 如果需满足任意一个匹配告警事件规则就告警,则单击添加规则 编辑第二条匹配规则。 在配置通知策略并设置匹配规则时,需注意所有关联规则的描述内容总和不可超过 64KB,大约100条匹配规则(具体数量与实际规则的复杂度相关),如超过限制则会配置失败,此时为确保配置顺利完成,请重新创建一条通知策略关联更多的匹配规则。 若将通知策略中的匹配规则删除(ctyunarmsalertruleid告警规则ID),告警规则详情中关联的通知策略虽仍可看到,但无法发出通知。 3. 单击下一步。 6. 在事件分组 区域,设置告警事件是否需要分组,然后单击下一步。 不需要分组:所有告警事件会以一条告警信息发送给处理人。 设置分组字段:选择指定字段,该字段内容相同的告警事件会汇总到同一告警发送通知,减少联系人需要处理的告警。 7. 在通知对象区域,设置以下参数。 1. 单击+添加通知对象 选择通知对象。 通知对象类型如下: 联系人:选择具体联系人后还需选择使用电话、短信或邮件的通知方式。 联系人组:选择具体联系人组后还需选择使用电话、短信或邮件的通知方式。 排班:选择具体排班后还需选择使用电话、短信或邮件的通知方式。 钉钉/飞书/企微:通过钉钉、飞书或企业微信发送告警通知。 通用Webhook:通过Webhook发送告警通知。 2. 选择告警恢复后是否发送恢复通知。 发送恢复通知:当告警下面全部事件都恢复时,告警状态是否自动恢复为已解决。当告警恢复时,系统将会发送通知给告警处理人。 3. 如选择邮件或短信方式,可设置邮件与短信通知模板。 4. 设置通知时段,告警会在设置的通知时段内发送告警通知。 5. 单击下一步。 8. 在重复/升级/恢复策略 区域设置告警是否需要重复通知或使用升级策略,然后单击下一步。 告警是否需要重复通知:如果需要重复通知,设置重复频率。当告警未恢复或未认领时,告警会以设置的重复频率循环发送告警信息直至告警恢复。 告警是否配置升级策略: 不需要升级策略,告警未恢复状态下只发送一次。 选择升级策略后,告警未恢复状态下,告警通知将会根据升级策略发送通知给其他通知对象。 告警是否开启手动恢复:关闭手动恢复,则当告警事件在告警集成中设置的自动恢复时间内都没有再触发,告警将会自动恢复;开启手动恢复,当告警事件在告警集成中设置的自动恢复时间内都没有再触发,告警不会自动恢复,必须人工干预调整状态。 9. 在行动集成 区域可以设置告警触发或恢复后自动执行的行动。具体可参考【行动集成】。 10. 设置完成后,单击提交。
        来自:
      • 数据权限管理
        本文介绍数据权限管理功能,使用户可以快速熟悉数据权限管理页面的相关操作,以及如何添加授权、回收权限。 前提条件 用户需要具有进入数据权限管理 页面的菜单权限。菜单权限请参考权限说明。 注意事项 数据权限管理功能仅限企业版。 多次授权同一用户、同一资源、同一权限后,最后一次授权的结果会覆盖之前授权的结果。 不同资源粒度的数据权限管理功能基本相同,本文以库/模式授权为例进行介绍。 操作步骤 1. 点击 数据资产 >实例管理 ,进入实例列表界面。 2. 在列表中找到目标实例,点击列表中 更多 > 数据权限管理 。 查看权限列表 页面上方展示了当前资源的信息,包括库/模式名称、实例信息、管控规则、所属团队、环境。 页面下方展示了当前资源的权限被授予了哪些用户,列表的信息字段及说明如下: 信息字段 说明 用户名 该用户在DMS内的名称。 权限 该用户拥有当前资源的哪些权限,以分号分隔。 开通时间 该用户拥有当前资源的所有权限中,最早的一个权限的开通时间。 到期时间 该用户拥有当前资源的所有权限中,最早的一个权限的到期时间。 操作 包括详情、回收按钮,可查看权限详情、回收权限。 权限列表按照到期时间从早到晚排序,第一条权限信息中包含了最近到期的权限。 查看权限详情 点击权限列表中某个用户的“详情”按钮后,弹出数据权限详情对话框,可以查看该用户拥有当前资源的权限详情。 对话框上方展示了该用户的基本信息,包括用户名、系统角色、手机号码(脱敏后)、邮箱、所属团队。 对话框下方展示了该用户拥有当前资源的哪些权限,列表的信息字段及说明如下: 信息字段 说明 权限 权限的类型,包括查询、DDL、DML、DCL、导出、导入。 权限获取方式 权限的来源,分为数据权限工单、某个用户授权。 开通时间 权限开通的时间。 到期时间 权限到期的时间,权限到期后会自动失效并删除。 所有权限按照到期时间从早到晚排序,第一条权限即最近到期的权限。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        数据权限管理
      • 产品优势
        物理机服务为您提供优质的服务体验,本文带您了解产品优势。 安全稳定 天翼云物理机提供硬件隔离,确保敏感数据物理隔离,避免与其他租户共享计算资源,提供了更高的安全性和隔离性。 性能可靠 用户可以在无虚拟化层的情况下直接访问物理硬件资源,获得更高的性能和更低的延迟。这使用户可以将自己的操作系统、虚拟化软件和应用程序部署到物理机上,获得与传统物理机相似的性能。 高吞吐低时延 结合天翼云全新分布式4.0架构及深度学习智能调度引擎,实现超大规模部署,云网络访问性能带宽最高可达50Gbps,支持高带宽、低时延云存储,满足企业数据库、大数据、容器、HPC、AI等关键业务部署密度和性能诉求。 灵活可控 天翼云物理机允许用户根据需求选择硬件配置、存储选项和网络设置,并根据需要进行动态调整。用户可以定制适合自己业务需求的物理机环境,提供灵活的部署和管理选项。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        产品优势
      • 约束与限制
        本章节主要介绍约束与规范。 在使用翼MapReduce前,您需要认真阅读并了解以下使用规则。 1. 集群必须创建在VPC子网内。 2. 创建集群时,从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组,否则可能导致集群异常,影响集群的使用。 1. 集群使用的安全组请勿随意放开权限,避免被恶意访问。 2. 创建安全组时,出、入方向规则中的端口需要放开,授权策略不能选择“拒绝”,否则会导致不能部署集群和拉起服务。 3. 部署Hive/Ranger/Amoro/Hue/DolphinScheduler组件时,元数据配置的数据库与集群需要在同一个VPC下,并通过内网地址进行连接。 4. 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间,以防止存储空间不足影响节点正常运行。 5. 集群节点仅用于运行翼MapReduce集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        约束与限制
      • 云监控
        您可以根据需要查看并行文件服务的监控数据,本文帮助您了解云监控服务的基本信息。 云监控服务概述 云监控服务是天翼云对云产品资源提供的实时监控和告警的服务。云监控服务提供性能指标监控、自动告警、历史信息查询等功能,默认开通,免费使用,使您全面了解天翼云上的资源使用情况、业务的健康状况,并及时收到异常报警,保证应用程序顺畅运行。 并行文件服务通过云监控服务提供用户侧的监控和告警能力,通过查看文件系统资源使用情况、业务运行状况,通过设置告警规则可以监控文件系统实例异常情况,保证业务正常运行。 并行文件服务开通后自动接入云监控,无需开通。通过云监控查看文件系统的监控数据,您可以了解到文件系统的使用情况。 更多信息,请参见 云监控服务。 数据保留策略 告警历史可以展示近30天所有告警规则的状态变化,帮助您统一、方便地回溯和查看告警记录。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        监控告警
        云监控
      • Windows云主机如何配置多用户登录?(Windows 2008)
        本文向您介绍如何配置多用户登录Windows云主机。 操作场景 本文档将指导您配置多用户登录的Windows云主机,以Windows Server 2008标准版R2中文版为例。 说明 远程桌面授权仅支持120天,过期后将因为缺失远程桌面授权服务器许可证而导致多用户登录无法使用,需要重新激活。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,解决方法请参考 操作步骤 1. 安装桌面会话主机和远程桌面授权。 (1) 登录Windows云主机。 (2) 在操作系统界面,打开“服务器管理器”,单击“角色>操作>添加角色”。 (3) 跳转至左侧导航栏为“服务器角色”,选择“远程桌面服务”,单击“下一步”。 (4) 保持默认参数,单击“下一步”。 (5) 跳转至左侧导航栏为“角色服务”,依次勾选“远程桌面会话主机”和“远程桌面授权”,单击“下一步”。 (6) 保持默认参数,单击“下一步”。 (7) 跳转至左侧导航栏为“身份验证方法”,指定远程桌面会话主机的身份验证方法,单击“下一步”。本示例选择的是“需要使用网络级别身份验证”,之后单击“下一步”。 (8) 跳转至左侧导航栏为“授权模式”,指定授权模式。本示例选择“以后配置”,之后单击“下一步”。 (9) 跳转至左侧导航栏为“用户组”,选择允许访问此RD会话主机服务器的用户组,单击“下一步”。 (10) 跳转至左侧导航栏为“客户端体验”。本示例选择的是“音频和视频播放”,之后单击“下一步”。 (11) 跳转至左侧导航栏为“RD授权配置”,为RD授权配置搜索范围,配置完成后单击“下一步”。 (12) 单击“安装(I)”。 2. 允许多用户远程连接云主机。 (1) 在运行里输入 gpedit.msc,打开计算机本地组策略。 (2) 选择“计算机配置>管理模板>windows组件>远程桌面服务>远程桌面会话主机>连接”。设置“允许用户通过使用远程桌面服务进行远程连接”、“限制连接数量”和“将远程桌面服务用户限制到单独的远程桌面”。 (3) 选中“允许用户使用远程桌面服务进行远程连接”,右键单击“编辑”,将其设置为已启用。 (4) 选中“限制连接数量”,右键单击“编辑”,选择已启用,可根据具体数量设置,本示例设置允许的RD最大连接数为999。 (5) 选中“将远程桌面服务用户限制到单独的远程桌面服务会话”,右键单击“编辑”,选择已启用,或者已禁用。本示例以勾选“已启用”为例。 说明 请注意此处已启用和已禁用的区别: l 已启用:允许多个用户同时登录,不能单个用户同时多人登录。 例如:配置为已启用,用户A、用户B、用户C可以分别使用账号A、账号B、账号C同时登录云主机,但是用户A、用户B、用户C无法使用同一账号同时登录云主机。 l 已禁用:允许单个用户同时多人登录。 例如:配置为已禁用,用户A、用户B、用户C可以使用同一个账号同时登录云主机。 (6) 运行cmd,输入 gpupdate /force,强制执行本地组策略,重启服务器,整个配置过程完成。 3. 配置新用户并加入远程桌面用户组。 (1) 在运行中输入 lusrmgr.msc,打开本地用户和组,进行新用户创建。 (2) 单击“用户”,在空白处右键选择新用户。 (3) 填写新用户信息,单击“创建”。 (4) 单击“组”,双击打开Remote Desktop Users 单击“添加”。 (5) 进入选择用户界面,单击“高级”。 (6) 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 (7) 单击“确定”,添加用户Remote Desktop Users组。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        多用户登录
        Windows云主机如何配置多用户登录?(Windows 2008)
      • Windows云主机如何配置多用户登录?(Windows 2012)
        本文向您介绍Windows云主机如何配置多用户登录(Windows 2012)。 操作场景 本文档指导您配置Windows云主机实现多用户登录,以Windows Server 2012标准版R2中文版操作系统的云主机为例。 说明 远程桌面授权仅支持120天,过期后将因缺失远程桌面授权服务器许可证而导致多用户登录无法使用,需激活远程桌面授权。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考 操作须知 请确保云主机带宽资源充足,避免由于多用户同时操作负载过高导致云主机卡顿或登录异常。 所在安全组入方向已开放云主机登录使用的端口,默认使用3389端口。 云主机已经绑定弹性公网IP。 配置多用户登录后,不同的用户登录云服务器操作互相之间无影响。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,请参考多用户登录Windows主机时无法打开浏览器。 操作步骤 步骤一:安装桌面会话主机和远程桌面授权。 1. 登录弹性云主机。 2. 在操作系统界面, 打开“服务器管理器”,单击“添加角色和功能”。 3. 保持默认参数,单击“下一步”。 4. 左侧导航栏选择“安装类型”,选择“基于角色或基于功能的安装”,单击“下一步”。 5. 左侧导航栏选择“服务器选择”,选择“从服务器池中选择服务器”,单击“下一步”。 6. 左侧导航栏选择“服务器角色”,选择“远程桌面服务”,单击“下一步”。 7. 左侧导航栏选择“功能”,在此页面保持默认参数,单击两次“下一步”。 8. 左侧导航栏选择“角色服务”,在此界面依次选择“远程桌面会话主机”和“远程桌面授权”,在弹出的窗口单击“添加功能”,单击“下一步”。 9. 确认在云主机上安装的角色,单击“安装(I)”。 10. 安装完成后,重启云主机。 第二步:允许多用户远程连接云主机。 1. 在运行里输入 gpedit.msc,打开计算机本地组策略 2. 选择“计算机配置>管理模板>windows组件>远程桌面服务>远程桌面会话主机>连接”,并依次设置“允许用户通过使用远程桌面服务进行远程连接”、“限制连接数量”和“将远程桌面服务用户限制到单独的远程桌面” 3. 右键单击“编辑”,设置“允许用户通过使用远程桌面服务进行远程连接”设置为“已启用”。 4. 右键单击“编辑”,设置“限制连接数量”选择为已启用,可根据具体数量设置,这里示例将允许的RD最大连接数设置为999。 5. 右键单击“编辑”,“将远程桌面服务用户限制到单独的远程桌面”选择已启用,或者已禁用,请注意此处已启用和已禁用的区别。本示例勾选“已启用”。 说明 l 已启用:多个用户同时登录的多用户登录,不能单个用户多登录 例如:配置为已启用,用户A、用户B、用户C可以分别使用账号A、账号B、账号C同时登录云主机,但是不支持用户A、用户B、用户C使用同一个账号同时登录云主机 l 已禁用:单个用户同时多个登录的多用户登录 例如:配置为已禁用,用户A、用户B、用户C可以使用同一个账号同时登录云主机 6. 运行cmd,输入 gpupdate /force,强制执行本地组策略,重启服务器,整个配置过程完成。 第三步:配置新用户并加入远程桌面用户组。 1. 在运行中输入 lusrmgr.msc,打开本地用户和组,进行新用户创建。 2. 单击“用户”,在空白处右键选择新用户。 3. 填写新用户信息,单击“创建”。 4. 单击“组”,双击打开Remote Desktop Users组,单击“添加”。 5. 进入选择用户界面,单击“高级”。 6. 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 7. 单击“确定”,添加用户到Remote Dsektop Users组。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        多用户登录
        Windows云主机如何配置多用户登录?(Windows 2012)
      • 功能概述
        特性 说明 相关操作 使用云主机创建系统盘镜像 创建云主机实例后,您可以根据业务需求自定义实例(例如:安装软件、部署应用环境), 并使用更新后的云主机创建系统盘镜像。 通过该镜像创建的新实例,会包含您已配置的自定义项,节省您重复配置的时间。 使用外部镜像文件创建系统盘镜像(也称导入镜像) 可以将您本地或者其他云平台的云主机系统盘镜像文件导入至天翼云镜像服务中。 导入后,可使用该镜像创建新的弹性云主机,或对已有实例的系统进行重装或更换。 使用ISO文件创建系统盘镜像 相比其他格式的外部镜像文件,ISO文件无法直接使用, 需要利用一些工具进行解压后才能使用。 创建流程较为复杂,详见“相关操作”。 使用外部镜像文件创建数据盘镜像 可以将您本地或者其他云平台的服务器数据盘镜像文件导入至天翼云镜像服务中。 导入后,可使用该镜像创建新的云硬盘。 使用云主机、云主机备份,或者云服务备份创建整机镜像 将云主机及其上挂载的数据盘一起创建整机镜像,此镜像包含操作系统、应用软件, 以及用户的业务数据,可用于快速发放相同配置的云主机,实现数据搬迁。 支持使用云主机、云主机备份、云服务备份三种整机镜像创建方式。 通过私有镜像创建云主机 系统盘镜像或者整机镜像创建成功后,在该镜像所在行单击“申请主机”即可创建新的云主机。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        功能概述
      • 配置Linux主机授权
        该任务指导用户通过漏洞扫描服务对已添加的Linux主机进行扫描授权。 前提条件 已获取管理控制台的登录账号与密码。 已添加Linux主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 批量选择需要配置的主机,单击“批量操作 > 编辑”,进入批量授权入口,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“编辑”。 5. 在主机授权页面,批量选择需要授权的主机,单击“批量配置授权信息”。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“配置授权信息”。 如果需要修改主机名称,单击编辑按钮,在弹出的对话框中,进行修改。 6. 选择SSH授权方式进行主机授权。 说明 如果需要修改已有SSH授权,单击“编辑”,进行修改。 如果需要删除已有SSH授权,单击“删除”,进行删除。 选择已有SSH授权,或者单击“创建SSH授权”创建SSH授权,如下图所示,参数说明如下表所示。 参数说明: 参数名称 参数说明 SSH授权别称 自定义SSH授权名称。 登录端口 SSH授权登录的端口号。 请确保安全组已添加该端口,以便主机可通过该端口访问VSS。 选择登录方式 “密码登录” “密钥登录” 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 Root权限是否加固 打开该权限后,不可以用root账号直接登录,而只能通过普通用户登录,然后才能切换到root用户。 sudo用户名 默认为root。 sudo密码 设置sudo用户对应的密码,为了您的账号安全,您的密码会加密保存。 7. 单击“确认”,完成Linux主机授权。 8. 单击“确定”,Linux主机授权成功。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        配置主机授权
        配置Linux主机授权
      • 添加跳板机
        本节介绍如何通过漏洞扫描服务为Linux系统的主机配置跳板机。 操作场景 该任务指导用户通过漏洞扫描服务为Linux系统的主机配置跳板机。 说明 当前仅支持添加Linux系统跳板机。 前提条件 已获取管理控制台的登录账号和密码。 已添加Linux系统的主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 批量选择需要配置的主机,单击“批量操作 > 编辑”,进入批量授权入口,如下图所示。 说明 用户也可以单台主机授权,在目标主机所在行的“操作”列,单击“编辑”。 5. 在主机授权页面,批量选择需要添加跳板机的主机,单击“批量配置跳板机”。 说明 用户也可以单台主机添加跳板机,在目标主机所在行的“操作”列,单击“配置跳板机”。 如果需要修改主机名称,单击编辑按钮,在弹出的对话框中,进行修改。 6. 在“配置跳板机”对话框中,选择已有跳板机,或者单击“添加新的跳板机”,添加跳板机,如下图所示。 说明 如果需要修改已有跳板机,单击“编辑”,进行修改。 如果需要删除已有跳板机,单击“删除”,删除跳板机。 如果需要添加新的跳板机,请执行以下操作步骤。 1. 单击“新增跳板机”。 2. 在“添加跳板机”对话框中,设置配置参数,配置说明如下表所示。 参数名称 参数说明 主机名称 添加的跳板机的主机名称。 公网IP 添加的跳板机的公网IP。 登录端口 添加的跳板机的登录端口。 选择登录方式 “密码登录”和“密钥登录”。 选择密码登录时,需要添加跳板机的用户名和密码。 选择密钥登录时,需要添加跳板机的用户名、私钥和私钥密码。 选择加密密钥 为了保护主机登录密码或密钥安全,请您必须使用加密密钥,以避免登录密码或密钥明文存储和泄露风险。 您可以选择已有的加密密钥,如果没有可选的加密密钥,请单击“创建密钥”,创建VSS专用的默认主密钥。 3. 单击“确认”。 7. 单击“确定”,跳板机配置成功。 如果需要解除绑定主机的跳板机,在目标主机的“操作”列,单击“更多 > 解除跳板机”,解除跳板机。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        其他操作
        添加跳板机
      • 异常行为智能识别
        本文介绍如何使用异常行为智能识别。 功能介绍 基于智能算法和大数据行为分析,分析客户业务流量的特征,智能识别攻击和误拦截请求。 前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 开通套餐为旗舰版及以上版本。 设置异常行为智能识别模型 1. 登录边缘安全加速平台控制台。 2. 在左侧导航栏中选择【安全能力】,进入【智能防护】菜单,选择【异常行为智能识别】模块。 3. 选择业务适合的【分析模型】,模型配置说明如下: 配置说明 配置项 说明 开关 分析模型开关。 开关开启,模型运行; 开关关闭,模型停止运行。 分析域名 选择需要分析的对象,选择已经完成接入服务的域名。 异常判断条件 不同分析模型的分析条件不同,您可以根据实际的业务场景选择适合的模型。 异常客户端IP识别多UA:适用于单客户端IP有多UA的攻击特征; 异常客户端IP识别扫描大量URL:适用于单客户端IP扫描大量URL的攻击特征; 异常客户端IP识别攻击集中少量URL:适用于单客户端IP集中攻击少量URL的攻击特征; 异常客户端IP识别反复触发策略:适用于单客户端IP反复触发访问控制/频率控制/CC防护策略的攻击特征; 异常客户端IP+UA识别反复攻击少量URL:适用于单客户端(IP+UA),反复攻击少量的URL的攻击特征; 异常UA识别识别单客户端IP变更UA扫描:适用于单客户端IP变更UA扫描的攻击特征。 分析频率 分析频率为分析任务执行频率;统计周期超过12小时,建议分析频率设置大于等于5分钟;统计周期达到24小时,建议分析频率设置大于等于10分钟。 URL是否统计问号后参数 统计URL的范围是否包含问号后参数。 注意 如果我们开放的分析模型不能满足您的需求,请通过
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        智能防护
        异常行为智能识别
      • 路由设置
        本文向您介绍企业版VPN中路由设置的常见问题。 如何理解VPN连接中的对端网关和对端子网? 对端网关和对端子网是两个相对的概念,在建立VPN连接时,从云的角度出发,VPC网络就是本地子网,创建的VPN网关就是本地网关,与之对接的用户侧网络就是对端子网,用户侧的网关就是对端网关。 对端网关IP就是用户侧网关的公网IP,对端子网指需要和VPC子网互联的子网。 Console界面在哪添加VPN远端路由? 云端在VPN连接创建时会自动下发到达远端子网的路由,无需手动配置。 ECS主机多网卡是否需要添加去往线下网络的路由? 如果客户使用主网卡与线下网络建立了VPN,不需要添加路由。 如果客户使用非主网卡与线下网络建立了VPN,需要添加去往线下网段的路由指向非主网卡的网关。 什么是NQA 什么是NQA 网络质量分析(Network Quality Analysis,NQA)是一种实时的网络性能探测和统计技术,可以对响应时间、网络抖动、丢包率等网络指标进行统计。NQA能够实时监视网络服务质量,在网络发生故障时进行有效的故障诊断和定位。 为什么需要NQA 随着运营商增值业务的开展,用户和运营商对QoS(Quality of Service)的相关要求越来越高,特别是在传统的IP网络承载语音和视频业务后,运营商与客户之间签订SLA(Service Level Agreement)成为普遍现象。 为了让用户看到承诺的带宽是否达到需求,运营商需要提供相关的时延、抖动、丢包率等相关的统计参数,以及时了解网络的性能状况。传统的网络性能分析方法(如Ping、Tracert等)已经不能满足用户对业务多样性和监测实时性的要求。NQA可以实现对网络运行状况的准确测试,输出统计信息。NQA可以监测网络上运行的多种协议的性能,使网络运营商能够实时采集到各种网络运行指标,例如:HTTP的总时延、TCP连接时延、DNS解析时延、文件传输速率、FTP连接时延、DNS解析错误率等。通过对这些指标进行控制,网络运营商可以为用户提供不同等级的网络服务。同时,NQA也是网络故障诊断和定位的有效工具。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        路由设置
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • Llama3-70B-Instruct
        版本列表 版本列表 版本说明 Llama370BInstruct Llama370BInstruc模型是Meta Llama 3 系列大型语言模型指令调优版本模型之一,针对对话用例进行了优化,在常见的行业基准上优于许多可用的开源聊天模型。 相关资源及引用 相关资源 许可证 定制:商业许可证可在以下网址获得: < 有关模型的问题、评论及反馈,请参阅模型自述文件。 有关生成参数和如何在应用程序中使用Llama3的更多技术信息,请访问此处。 相关引用 如对您有帮助,欢迎引用。 plaintext @article{llama3modelcard, title{Llama 3 Model Card}, author{AI@Meta}, year{2024}, url { } 免责声明 Llama370BInstruct模型,来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        训推服务
        模型简介
        Llama3-70B-Instruct
      • 概念类问题
        对比维度 备份 容灾 使用目的 避免数据丢失,一般通过快照、备份等技术构建数据的数据备份副本, 故障时可以通过数据的历史副本恢复用户数据。 避免业务中断,一般是通过复制技术(应用层复制、主机I/O层复制、存储层复制) 在异地构建业务的备用主机和数据, 主站点故障时备用站点可以接管业务。 使用场景 针对病毒入侵、人为误删除、软硬件故障等场景, 可将数据恢复到任意备份点。 针对软硬件故障以及海啸、火灾、地震等重大自然灾害,运行故障切换,尽快恢复业务。 源端可用区恢复正常时,可轻松利用故障恢复能力重新切换回到源端可用区。 成本 通常是生产系统的1~2%。 通常是生产系统的20%~100%(根据不同的RPO/RTO要求而定),高级别的双活容灾, 要求备用站点也要部署一套和主站点相同的业务系统,基础设施成本需要翻倍计算。
        来自:
      • 功能特性
        本文带您了解并行文件服务HPFS的功能特性。 多协议配置 支持NFS、HPFSPOSIX协议类型,通过标准POSIX接口访问数据,无缝适配主流应用程序进行数据读写。 通过协议服务功能实现HPFSPOSIX和NFS多协议互访,实现一份数据多种业务平台同时访问。 文件系统管理 支持创建、挂载、搜索、查看、扩容、删除、子目录挂载、子目录配额等基本文件系统管理操作,支持上千台客户端挂载同一文件系统,满足高性能计算场景需求。 文件系统在线扩容 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程IO不中断,保障业务连续性。 权限与安全 HPFSPOSIX协议访问文件系统,可以通过seckey实现租户隔离,每个租户有唯一的seckey,通过seckey挂载到服务器,保障用户数据独立性。 NFS协议访问文件系统,通过VPC保证租户间数据隔离,且支持跨VPC访问文件系统。 数据监控 提供基础性能指标监控和容量指标监控,了解文件系统运行情况,并可根据业务要求配置相关告警。
        来自:
        帮助文档
        并行文件服务 HPFS
        产品介绍
        功能特性
      • 使用GeminiDB Redis时要注意什么
        使用GeminiDB Redis时要注意什么 使用GeminiDB Redis时要注意什么 1. 实例的操作系统,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 2. 对象存储服务(Object Storage Service,简称OBS)上的备份文件以及GeminiDB Redis使用的系统容器,都对用户不可见,它们只对GeminiDB Redis后台管理系统可见。 3. 申请数据库实例后,您还需要做什么。 申请实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: a. 数据库实例的CPU、IOPS、空间是否足够。 b. 数据库实例是否存在性能问题,是否需要优化等。 什么是GeminiDB Redis实例可用性 实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 其中,故障时间是指数据库实例创建完成后,运行期间累计发生故障的总时长。服务总时间指数据库实例创建完成后运行的总时长。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        产品咨询
        使用GeminiDB Redis时要注意什么
      • Windows客户端安装
        Windows Installer服务被禁用解决办法 方法一: 1. 用鼠标右键点击【计算机】,再单击下拉菜单中的【管理】; 2. 在【计算机管理】的界面里单击【服务和应用程序】; 3. 单击【服务】; 4. 找到并点击【Windows Installer】,再点击【启动】生效该服务。 方法二: 1. 鼠标右键点击【开始】菜单,并单击【运行】; 2. 【运行】中输入【services.msc】,最后点击【确定】; 3. 找到并点击【Windows Installer】,再点击【启动】生效该服务。 5. 提示“系统盘容量不足”怎么办? 请查看本地计算机系统盘(Windows系统下一般默认为C盘)剩余空间情况,建议彻底删除垃圾文件或将文件迁移到其他磁盘,以释放系统盘空间,确保其剩余容量大于600M。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        Windows客户端安装
      • 透明加密简介
        本页介绍透明数据加密的实现原理和使用方法。 透明数据加密(Transparent Data Encryption)通过在磁盘上存储的数据进行加密和解密来实现数据的保护。 透明:当使用者在打开或编辑指定文件时,系统将自动对未加密的文件进行加密,对已加密的文件自动解密。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密:透明加密使用加密算法来加密数据,并将密钥存储在数据库服务器的受信任位置,以确保安全性。 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建立关联。同时支持将已经绑定的算法从schema,表和列上解绑,从而取消加密算法和数据库对象之间的关联关系。 透明加密通过teledbxmls插件,需要创建插件: plaintext 创建插件 create extension teledbxmls;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        透明加密
        透明加密简介
      • 设置可维护时间段
        说明:本章节会介绍如何设置可维护时间段 操作场景 默认可维护时间段为02:00~06:00,您可以根据业务需求,设置可维护时间段。建议将可维护时间段设置在业务低峰期,避免业务在维护过程中异常中断。 注意事项 在可维护时间段内,实例会发生1到2次连接闪断, 请确保应用程序具备重连机制。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台左上角的,选择区域和项目。 3. 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4. 在“实例管理”页面,单击目标实例名称,进入“基本信息”页面,在“数据库信息”模块的“可维护时间段”处,单击“修改”。 5. 在“修改可维护时间段”弹框中,选择一个可维护时间段,单击“确定”。 修改可维护时间段,不影响原有可维护时间段内定时任务的执行时间。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        实例管理
        设置可维护时间段
      • 查看Topic日志
        关闭Topic日志 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务Kafka”,进入Kafka总览页面。 4. 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 5. 单击Kafka实例的名称,进入实例详情页面。 6. 在左侧导航栏选择“日志管理 > Topic日志”,进入“Topc日志”页面。 7. 在页面右上角单击“关闭日志”,弹出确认关闭对话框。 8. 单击“确定”,自动跳转到“后台任务管理”页面,“状态”为“成功”时,表示关闭Topic日志成功。 关闭Topic日志只是停止Topic日志上报功能,LTS控制台的日志组和日志流仍然保留,还会继续收费,如不需要保留该日志,可以在LTS控制台删除对应的日志组和日志流。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic日志
      • 使用限制
        操作 使用限制 访问实例 若文档数据库实例未开通公网访问,则必须与弹性云主机在同一个虚拟私有云子网内才能访问。 文档数据库服务和弹性云主机在不同的安全组默认不能访问,需要在文档数据库服务安全组添加一条“入”的访问规则。 文档数据库服务默认端口:8635,需要手动修改才能访问其它端口。 部署 实例所部署的弹性云主机,对用户不可见,即只允许应用程序通过IP地址和端口访问数据库。 数据库的rwuser权限 创建实例页面只提供管理员帐户rwuser权限。 修改数据库参数设置 用户创建的参数组中大部分数据库参数可以修改。 数据迁移 可以使用mongoexport和mongoimport命令行工具等方式迁移数据。 存储引擎 支持WiredTiger存储引擎。 重启实例或节点 必须通过管理控制台操作重启实例。 查看备份文件 文档数据库服务在对象存储服务上的备份文件,对用户不可见。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        集群快速入门
        使用限制
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • 无状态
        数据卷类型 对应k8s中的类型 用途 解释 临时目录 emptyDir 主要用于某些应用程序无需永久保存的临时目录,多个容器的共享目录 当Pod分配到Node上时,将会创建emptyDir,当Pod(不管任何原因)从Node上被删除时,emptyDir也同时会删除,存储的数据也将永久删除。 主机目录 hostPath hostPath允许挂载Node上的文件系统到Pod里面去。如果Pod需要使用Node上的文件,可以使用hostPath。 在使用hostPath volume卷时,即便pod已经被删除了,volume卷中的数据仍在。但是Pod调度到其他节点之后就无法使用这个目录了。 secret secret 用于将敏感信息(如密码)传递给pod 将k8s中的Secret资源对象挂载到Pod中 configMap configMap 用于挂载配置文件到Pod中 将k8s中的ConfigMap资源对象挂载到Pod中 使用已有PVC persistentVolumeClaim 用来挂载持久化磁盘 需要提前创建持久卷声明(PVC) downwardAPI downwardAPI 将Pod的信息挂载到容器中(如上图中将Pod的标签挂载到容器中,并且用”labels”这个文件存储Pod的标签),pod版本号要么不填要么填’v1’ Downward API提供了两种方式用于将POD的信息注入到容器内部,一是此处介绍的Volume挂载,二是下面我们将介绍的环境变量
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        无状态
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • 1
      • ...
      • 274
      • 275
      • 276
      • 277
      • 278
      • ...
      • 349
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      应用托管

      一站式智算服务平台

      智算一体机

      推荐文档

      产品功能

      如何修改账号的密码?

      RDP/VNC访问

      删除消费组

      删除手动备份

      新增实例

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号