活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      安全加速_相关内容
      • 功能特性
        在线加密 在线加密是对称密钥加密的场景,适用于保护小型敏感数据(小于6KB),如口令、证书、身份信息、后台配置文件等。通过密钥管理服务KMS的在线加密API,使用用户主密钥(CMK)直接加密敏感数据信息,而非直接将明文存储,确保敏感数据安全。 信封加密 信封加密是对称密钥加密的场景,是一种应对海量数据的高性能加解密方案。这种技术不再使用用户主密钥(CMK)直接加密和解密数据,而是通过生成加密数据的数据密钥(DEK),将其封入信封中(即通过CMK加密)存储、传递和使用,由KMS确保数据密钥的随机性和安全性。 实际使用时,用户无需将大量业务数据上传至KMS服务端,直接通过离线的数据密钥在本地实现加解密,有效避免安全隐患,保证了业务加密性能的要求。 签名验签 数字签名技术是非对称加密算法的另一种典型应用。用户可在KMS中创建非对称用户主密钥(CMK),其由一对关联的公钥和私钥构成。公钥可以被分发给任何人,而私钥由KMS确保安全性,不提供任何接口导出非对称密钥的私钥。 使用者仅能通过接口调用私钥进行签名运算。 实际使用时,签名者将验签公钥分发给消息接收者,签名者使用签名私钥,对数据产生签名,签名者将数据以及签名传递给消息接收者,消息接收者获得数据和签名后,使用公钥针对数据验证签名的合法性。
        来自:
        帮助文档
        密钥管理
        产品介绍
        功能特性
      • 实例连接方式介绍
        本页介绍了实例连接方式。 连接方式 IP地址 使用场景 说明 内网连接 内网IP地址 系统默认提供内网IP地址。 当应用部署在弹性云主机上,且该弹性云主机与文档数据库服务实例处于同一区域,同一VPC时,建议使用内网IP地址连接文档数据库服务实例。 安全性高。 为了获得更快的传输速率和更高的安全性,建议您将应用迁移到与您的DDS实例在同一虚拟私有云子网内,使用内网连接。 公网连接 弹性公网IP 当应用部署在弹性云主机上,且该弹性云主机与文档数据库服务实例处于不同区域时,建议使用弹性公网IP连接文档数据库实例。 如果您使用天翼云以外的设备(例如本地设备、其他云厂商服务器等)连接文档数据库服务实例,建议使用弹性公网IP连接文档数据库服务实例。 安全性稍低。 公网连接需要购买弹性公网IP,并与文档数据库服务实例节点进行绑定。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        连接文档数据库服务实例
        实例连接方式介绍
      • 数据源监控
        本节介绍对数据源的管理,可以启用停止/数据源。 在数据源监控中可以查看到已经接入到系统的数据源。可以直接通过开关对数据源进行开启或关闭,云安全中心会根据您的操作对数据源数据进行收取或拒绝收取。 注意事项 选择需要接入的数据源时,只能针对您已经购买的云产品。 启用数据源 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 数据源监控”,打开数据源监控页面。 3. 选择需要接入的数据源,在操作列单击启用图标,启用数据源。 停止数据源 注意 停止数据源后,对应的“集成配置”将不允许操作。 1. 登录云安全中心控制台。 2. 在左侧导航栏,选择“设置 > 数据源监控”,打开数据源监控页面。 3. 选择需要停止的数据源,在操作列单击停止图标,停止数据源。
        来自:
        帮助文档
        云安全中心
        用户指南
        设置
        数据源监控
      • TeleDB助力广州12345政府热线平稳落地
        广州12345政府服务热线,业务的核心TeleDB服务器部署内网,敏感数据部署在这个核心TeleDB实例中,并涉及到130个部门,8千余个分类,4万余条知识点。该系统要求系统具备高安全性,目前存储了6000+加密表,同时要求通信链路加密,数据脱敏,访问白名单,TeleDB的多级安全策略在该业务系统有了完美的落地。该系统的核心系统结构如下:
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        典型案例分享
        TeleDB助力广州12345政府热线平稳落地
      • 监控
        此小节介绍监控服务。 DBSS监控指标说明 功能说明 本节定义了数据库安全服务上报云监控服务的监控指标的命名空间,监控指标列表和维度定义,用户可以通过云监控服务提供管理控制台或API接口来检索数据库安全服务的监控指标和告警信息。 命名空间 SYS.DBSS 说明 命名空间是对一组资源和对象的抽象整合。在同一个集群内可创建不同的命名空间,不同命名空间中的数据彼此隔离。使得它们既可以共享同一个集群的服务,也能够互不干扰。 监控指标 数据库安全服务支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) cpuutil CPU使用率 该指标用于统计测量对象的CPU利用率。 单位:百分比 采集方式:100%减去空闲CPU占比 0~100 % 值类型:Float 数据库审计实例 1分钟 memutil 内存使用率 该指标用于统计测量对象的内存利用率。 单位:百分比 采集方式:100%减去空闲内存占比 0~100 % 值类型:Float 数据库审计实例 1分钟 diskutil 磁盘使用率 该指标用于统计测量对象的磁盘利用率。 单位:百分比 采集方式:100%减去空闲磁盘占比 0~100 % 值类型:Float 数据库审计实例 1分钟 设置监控告警规则 通过设置DBSS告警规则,用户可自定义监控目标与通知策略,设置告警规则名称、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数,帮助您及时了解数据库安全状况,从而起到预警作用。
        来自:
        帮助文档
        数据库安全
        用户指南
        监控
      • 产品优势
        VPC终端节点产品为您提供安全可靠的私网连接服务,本文带您了解VPC终端节点的产品优势。 性能优异 每个网关节点可提供百万级对话,满足多种应用场景需求。 即开即用 秒级创建,快速生效,迅速响应,方便用户即时使用。 使用灵活 无需弹性IP,直连内网,使用更加灵活。 安全性高 用户能够通过终端节点私密地连接到终端节点服务,避免泄漏服务端相关信息所带来不可知的风险。
        来自:
        帮助文档
        虚拟私有云 VPC
        VPC终端节点
        产品优势
      • 数据安全中心是否会保存您的数据和文件?
        数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据安全中心(DSC)不会保存您的数据和文件,在您授权访问数据源后,DSC会对数据进行识别、脱敏、或添加水印等操作。 数据识别的结果将展示在DSC的控制台,如何查看敏感数据识别结果,请参见敏感数据识别结果。
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心是否会保存您的数据和文件?
      • 知识库问答
        本文介绍知识库问答内容。 接口描述 依据知识库与大模型进行对话问答 请求方法 POST 接口要求 无 URI /openapi/v1/rag/talk 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json Accept 否 String 设置开启接收ServerSent Events (SSE) 格式的流式响应 text/eventstream tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 text 是 String 问题的文本内容 infobaseIds 否 Array[String] 通用知识库ID列表 customBaseIds 否 Array[String] 自定义知识库ID列表 modelId 是 String 模型ID contextId 否 String 上一轮会话的ID,需要多轮对话时使用 searchEnable 否 Boolean 是否开启联网搜索 index 否 Boolean 是否输出文档索引引用标签 prompt 否 String 用户自定义输入的prompt 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "Accept: text/eventstream" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "text": "总结下文档内容", "infobaseIds": [123456789, 987654321], "modelId": "d5f09a41d4584715a5d94a4892411c0f", "searchEnable": false, "index": true, "prompt": "请依据文档内容进行回答,不得使用超出文档内容的知识;n 确保您的回答既精确又实用且忠实于原文,同时覆盖所有相关的要点,以满足用户的查询需求;n 要求语句通顺,条理清晰,易于阅读;n 请不要随意发散,尽量以原文档内容输出;n 对于包含多个子问题的问题,请回答每一个子问题,不要遗漏问题; n下面是文档信息:n{chunks}n问题为:{question}n开始回答:n" }' 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 code Int 0表示成功 0 message String 返回success success result Object 对话结果 result表 result表 参数 参数类型 说明 示例 下级对象 input String 对话输入文本 介绍下定积分 output String 对话输出文本 定积分是一种.... contextId String 此轮对话的ID finishState String 会话状态 状态取值:start(开始)/continued(生成中)/stop(正常结束)/interrupt(中断) stop inferSource Array[Object] 拼入模型prompt的参考文档信息。请求体参数index为false时生效 inferSource对象 indexInfo Array[Object] 模型回复的参考引用片段。请求体参数index为true时生效 indexInfo对象 indexInfo表 参数 参数类型 说明 示例 下级对象 indexId int 引用下标 1 subTitle String 子标题 docTitlec String 文档标题 文档.doc docTitle String 来源 Knowledge content String 引用片段内容 fileName String 引用文档名称 文档.doc fileId String 引用文档id 133 inferSource表 参数 参数类型 说明 示例 下级对象 fileName String 检索到的参考文档名称 文档.doc fileId String 检索到的参考文档id 133 fileType String 文档类型 doc contentText String 参考文档的内容 score Float 参考文档和用户输入的相关性分数,取值[01] 0.33 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 该接口为SSE接口,返回值为流式返回,返回时ContentType为text/eventstream。 1.请求成功返回值示例(关闭引用开关indexfalse) plaintext data:{ 'statusCode': 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": " n好的,我现在需要处理用户的问题:“水泥的国标”。首先。。。", "finishState": "stop", "contextId": "2f963a77e58b467ead9223ddf2e4015b", "inferSource": [ { "fileName": "筑府办函xx号附件.wps", "fileId": 32432, "fileType": "doc", "contentText": "xxx", "score": 0.37754068 } ], "indexInfo": [] }, "details": null } } 2.请求成功返回值示例(开启引用开关indextrue) plaintext data:{ "statusCode": 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": "根据提供的文档内容,水泥的参考标准为GB 16780[[1]]。。。", "finishState": "stop", "contextId": "bcca2bb95b454d41b9b878a24659b3d5", "inferSource": [], "indexInfo": [ { "indexId": 1, "subTitle": "", "docTitle": "筑府办函xx号附件.wps", "from": "Knowledge", "content": "xxx", "fileName": "筑府办函xx号附件.wps", "fileId": 32432 } ] }, "details": null } } 3.请求失败返回值示例 plaintext data:{ "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40013 对话出现异常 无法进行正常交互
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库问答
      • Volcano调度器
        本文主要介绍Volcano调度器。 插件简介 Volcano调度器是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。(目前Volcano项目已经在Github开源) Volcano针对计算型应用提供了作业调度、作业管理、队列管理等多项功能,主要特性包括: 丰富的计算框架支持:通过CRD提供了批量计算任务的通用API,通过提供丰富的插件及作业生命周期高级管理,支持TensorFlow,MPI,Spark等计算框架容器化运行在Kubernetes上。 高级调度:面向批量计算、高性能计算场景提供丰富的高级调度能力,包括成组调度,优先级抢占、装箱、资源预留、任务拓扑关系等。 队列管理:支持分队列调度,提供队列优先级、多级队列等复杂任务调度能力。 项目开源地址: 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 Volcano ,单击“安装”。 步骤 2 该插件可配置“单实例”、“高可用”或自定义规格。 选择自定义时,volcanocontroller和volcanoscheduler的建议值如下: 小于100个节点,可使用默认配置,即CPU的申请值为500m,限制值为2000m;内存的申请值为500Mi,限制值为2000Mi。 高于100个节点,每增加100个节点(10000个Pod),建议CPU的申请值增加500m,内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 volcanocontroller和volcanoscheduler的建议值 节点/Pods规模 CPU Request(m) CPU Limit(m) Memory Request(Mi) Memory Limit(Mi) 50/5k 500 2000 500 2000 100/1w 1000 2500 1500 2500 200/2w 1500 3000 2500 3500 300/3w 2000 3500 3500 4500 400/4w 2500 4000 4500 5500 步骤 3 配置volcano默认调度器配置参数。 cacert: '' defaultschedulerconf: actions: 'allocate, backfill' tiers: plugins: name: 'priority' name: 'gang' name: 'conformance' plugins: name: 'drf' name: 'predicates' name: 'nodeorder' plugins: name: 'ccegputopologypredicate' name: 'ccegputopologypriority' name: 'ccegpu' plugins: name: 'nodelocalvolume' name: 'nodeemptydirvolume' name: 'nodeCSIscheduling' name: 'networkresource' servercert: '' serverkey: '' 插件 功能 参数说明 用法演示 binpack 将pod调度到资源使用较高的节点以减少资源碎片 binpack.weight:binpack插件本身在所有插件打分中的权重 binpack.cpu:cpu资源在资源比重的比例,默认是1 binpack.memory:memory资源在所有资源中的比例,默认是1l binpack.resources: plugins: name: binpack arguments: binpack.weight: 10 binpack.cpu: 1 binpack.memory: 1 binpack.resources: nvidia.com/gpu, example.com/foo binpack.resources.nvidia.com/gpu: 2 binpack.resources.example.com/foo: 3 conformance 跳过关键Pod,比如在kubesystem命名空间的Pod,防止这些Pod被驱逐 gang 将一组pod看做一个整体去分配资源 priority 使用用户自定义负载的优先级进行调度 overcommit 将集群的资源放到一定倍数后调度,提高负载入队效率。负载都是deployment的时候,建议去掉此插件或者设置扩大因子为2.0。 overcommitfactor: 扩大因子,默认是1.2 plugins: name: overcommit arguments: overcommitfactor: 2.0 drf 根据作业使用的主导资源份额进行调度,用的越少的优先 predicates 预选节点的常用算法,包括节点亲和,pod亲和,污点容忍,node ports重复,volume limits,volume zone匹配等一系列基础算法 nodeorder 优选节点的常用算法 nodeaffinity.weight:节点亲和性优先调度,默认值是1 podaffinity.weight:pod亲和性优先调度,默认值是1 leastrequested.weight:资源分配最少的的节点优先,默认值是1 balancedresource.weight:node上面的不同资源分配平衡的优先,默认值是1 mostrequested.weight:资源分配最多的的节点优先,默认值是0 tainttoleration.weight:污点容忍高的优先调度,默认值是1 imagelocality.weight:node上面有pod需要镜像的优先调度,默认值是1 selectorspread.weight: 把pod均匀调度到不同的节点上,默认值是0 volumebinding.weight: local pv延迟绑定调度,默认值是1 podtopologyspread.weight: pod拓扑调度,默认值是2 plugins: name: nodeorder arguments: leastrequested.weight: 1 mostrequested.weight: 0 nodeaffinity.weight: 1 podaffinity.weight: 1 balancedresource.weight: 1 tainttoleration.weight: 1 imagelocality.weight: 1 volumebinding.weight: 1 podtopologyspread.weight: 2 ccegputopologypredicate GPU拓扑调度预选算法 ccegputopologypriority GPU拓扑调度优选算法 ccegpu 结合CCE的GPU插件支持GPU资源分配,支持小数GPU配置 numaaware numa拓扑调度 weight: 插件的权重 networkresource 支持预选过滤ENI需求节点,参数由CCE传递,不需要手动配置 NetworkType: 网络类型(eni或者vpcrouter类型) nodelocalvolume 支持预选过滤不符合local volume需求节点 nodeemptydirvolume 支持预选过滤不符合emptydir需求节点 nodeCSIscheduling 支持预选过滤everest组件异常节点 步骤 4 单击“安装”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • 创建组播域
        本文简要介绍了如何创建组播域。 操作场景 您需要通过创建组播域来划分一个组播网络范围,仅在此组播域内的组播源和组播成员才能发送和接收组播流量。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 操作步骤 1. 登录管理控制台。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 在系统首页, 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面 。 4. 在左侧导航栏,选择“组播”。 5. 进入组播操作页,在界面右侧详情区域单击“创建组播域”。 6. 在创建组播域对话框,根据以下信息进行配置,然后单击“确定”创建完成。 配置项 说明 组播域名称 输入组播域的名称。 组播域来源 选择组播域的来源,支持云间和云内两种方式,只可同时选择一项。 当组播域中存在通过专线从 IDC 机房接入组播源的场景,需要选择云间组播域。 当组播域中的组播源全部都在天翼云内部,不存在组播源为 IDC 机房的场景,需要选择云内组播域。 所属vpc 选择组播域关联的VPC。 成员加入方式 选择组播成员加入组播域的方式,支持动态加入和静态加入。成员动态加入和静态加入只可同时选择一项。 成员动态加入时,根据行情接收者 APP 所使用的 IGMP 版本选择IGMP 协议,IGMPv2、IGMPv3至少选择一个。 云间组播域选择IGMPv3协议时,需填写SSM组地址。SSM组地址默认为232.0.0.0/8,可输入范围格式如225.0.0.0/24225.100.100.0/24,多个IP地址间用“;”隔开。 成员静态加入时,需手动填写组播组地址,目前只支持填写单个地址且不可相同。 描述 输入组播域的描述信息。 注意 1、目前成员静态加入方式只支持云服务器的主网卡。系统将以该网卡的主私网IP地址接收组播流量。 2、一个组播组地址可以添加多个网卡。 3、组播接收云服务器所在的安全组需放通组播源的端口和地址。 4、知名组播地址(224.0.0.0~224.0.0.255,239.0.0.0~239.255.255.255)会做下发限制,暂不允许添加,如您的页面不支持添加知名组播地址的特殊入口,联系工单开放白名单功能。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        创建组播域
      • MCP服务管理
        本章节介绍如何进行MCP服务的注册与配置管理 概述 MSE Nacos 企业版支持MCP(Model Context Protocol,模型上下文协议)服务的注册与配置管理。MCP是一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议,解决当前 AI 模型数据孤岛限制,使得 AI 应用能够安全地访问和操作本地及远程数据。 说明 目前只有 MSE Nacos企业版3.0及以上版本支持MCP服务。您可以根据业务需求的不同,选择微服务引擎注册配置中心提供的三种MCP服务创建方式: 标准MCP服务:从零构建完整MCP配置。 HTTP转化MCP服务:将存量HTTP服务转换为MCP服务。 动态注册MCP服务:通过Nacos SDK实现服务自动注册。 创建MCP服务 在微服务引擎MSE注册配置中心管理控制台可以创建标准MCP服务和HTTP转化MCP服务,下面分别说明创建操作步骤: 创建标准MCP服务 1. 登录微服务引擎 MSE注册配置中心管理控制台,选择实例所在的资源池。 2. 在左侧导航栏,选择注册配置中心 > 实例列表,选择企业版Nacos实例,单击实例ID 或者管理按钮跳转至基础信息页面。 3. 在基础信息页面,左侧菜单点击MCP管理 > MCP列表,选择命名空间, 然后单击创建MCP服务,并单击标准MCP服务页签。 4. 在标准MCP服务页面,配置服务名称、描述、版本号等基本信息,其中重要参数说明如下: MCP协议类型: Stdio:无网络依赖,只能访问本地资源无法访问云端资源,数据不会传输到外部,适用于本地开发调试,离线环境验证。 SSE:支持远程访问,仅支持服务端到客户端的单向流,适用于服务推送等单向实时通信场景,延迟低、兼容性强。 Streamable HTTP:基于标准的HTTP协议,双向通信,可灵活切换流式、非流式连接,适合正式环境部署和跨网络通信(如混合云/跨VPC)以及分布式系统。这是目前官方推荐的远程通信方式。 后端服务: 使用已有服务:如果您的MCP服务已经通过控制台或SDK注册到MSE Nacos中,可直接选择。 新建服务:如果您的MCP服务尚未注册到MSE Nacos中,需要配置服务 IP/服务域名(域名不能包含中文)、服务端口及访问路径(必须以/开头,如/v1/mcp)。 5. MCP工具为选填项,工具可以包含0个或者多个。点击添加工具按钮,可以添加1个工具,包括工具名称、工具描述、参数信息。其中参数包括:参数名称、参数类型可从下拉框选择,参数描述信息。 参数可以添加0个或者多个,参数信息可以嵌套,可以实现复杂的嵌套参数。添加的参数在服务保存或发布后生效。 6. 信息填写完毕后,点击发布。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        Nacos
        MCP服务管理
      • 多台云主机实例批量挂载同一文件系统
        本文介绍多台云主机实例批量挂载同一文件系统的操作方法。 操作场景 海量文件服务适用于共享访问的场景,当业务中需要使用多台云主机访问同一文件系统时,您可以通过我们提供的脚本,填写配置文件、执行脚本命令,实现多台云主机批量挂载同一文件系统,减少操作时间,提高工作效率。 注意 执行批量挂载的云主机实例需要与文件系统归属于同一资源池的同一VPC下。 目前仅支持Linux操作系统的云主机,请参考使用限制。 仅支持root账户进行批量挂载操作。 务必按照本文中要求的固定格式填写需要执行批量挂载的云主机的相关信息。 请保证本文中创建的inventory、autobatchmount.sh文件与mountnfs.yml文件在同一目录下,否则会导致挂载失败。 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算>弹性云主机”,进入弹性云主机控制台页面,找到即将执行批量挂载操作的任何一台云主机。 3. 以root用户登录该弹性云主机,登录方法参考登录Linux弹性云主机。 4. 创建并填写配置文件inventory。 1)在Linux vi命令行工具中依次执行以下命令创建配置文件inventory并打开。 plaintext touch inventory plaintext vi inventory 2)将按照下述格式填写的内容复制到配置文件inventory中,保存并退出。需要将各参数替换成相应的实际值,各参数说明见下方表格。配置文件内容可在Windows记事本中或者Linux vi命令实现编辑,供后续使用。复制完成后输入 :wq保存并退出。 plaintext [all:vars] sharepath挂载地址 [targethost] 弹性IP passwdroot用户密码 localpath本地挂载路径 弹性IP passwdroot用户密码 localpath本地挂载路径 弹性IP passwdroot用户密码 localpath本地挂载路径 …… 参数 说明 云主机弹性IP 在云主机详情页中“弹性IP”页签获取该云主机公网IP的IP地址。 root用户密码 root用户密码。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,本操作中将通过脚本自动创建,无须额外创建。 挂载地址 可在文件系统详情页获取。 5. 创建批量挂载脚本autobatchmount.sh。 1)创建脚本文件,并打开: plaintext touch autobatchmount.sh plaintext vi autobatchmount.sh 2)将下列内容复制到挂载脚本中,保存退出 (:wq): plaintext
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        挂载访问
        使用弹性云主机挂载文件系统
        多台云主机实例批量挂载同一文件系统
      • 批量管理作业
        本章节主要介绍批量管理作业。 操作场景 这里以表/文件迁移的作业为例进行介绍,指导用户批量管理CDM作业,提供以下操作: 作业分组管理 批量运行作业 批量删除作业 批量导出作业 批量导入作业 批量导出、导入作业的功能,适用以下场景: CDM集群间作业迁移:例如需要将作业从老版本集群迁移到新版本的集群。 备份作业:例如需要将CDM集群停掉或删除来降低成本时,可以先通过批量导出把作业脚本保存下来,仅在需要的时候再重新创建集群和重新导入作业。 批量创建作业任务:可以先手工创建一个作业,导出作业配置(导出的文件为JSON格式),然后参考该作业配置,在JSON文件中批量复制出更多作业,最后导入CDM以实现批量创建作业。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.单击“表/文件迁移”显示作业列表,提供以下批量操作: 作业分组 CDM支持对分组进行新增、修改、查找、删除。删除分组时,会将组内的所有作业都删除。 创建作业的第三步任务配置中,如果已经将作业分配到了不同的分组中,则这里可以按分组显示作业、按组批量启动作业、按分组导出作业等操作。 批量运行作业 勾选一个或多个作业后,单击“运行”可批量启动作业。 批量删除作业 勾选一个或多个作业后,单击“删除”可批量删除作业。 批量导出作业 单击“导出”,弹出批量导出页面,如下图。 图 批量导出页面 −全部作业和连接:勾选此项表示一次性导出所有作业和连接。 −全部作业:勾选此项表示一次性导出所有作业。 −全部连接:勾选此项表示一次性导出所有连接。 −按作业名导出:勾选此项并选择需要导出的作业,单击确认即可导出所选作业。 −按分组导出:勾选此项并下拉选择需要导出的分组,单击确认即可导出所选分组。 批量导出可将需要导出的作业导出保存为JSON文件,用于备份或导入到别的集群中。 说明 由于安全原因,CDM导出作业时没有导出连接密码,连接密码全部使用“Add password here”替换。 批量导入作业 单击“导入”,选择JSON格式的文件导入或文本导入。 −文件导入:待导入的作业文件必须为JSON格式(大小不超过1M)。如果待导入的作业文件是之前从CDM中导出的,则导入前必须先编辑JSON文件,将“Add password here”替换为对应连接的正确密码,再执行导入操作。 −文本导入:无法正确上传本地JSON文件时可选择该方式。将作业的JSON文本直接粘贴到输入框即可。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        批量管理作业
      • 主机策略管理
        新增策略 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“策略管理 > 主机策略”。 3. 将光标移至左上角图标,在下拉框中选择“新增”。 4. 在弹出的对话框中填写策略信息,点击“确定”,即可新增策略。 配置策略 说明 系统默认策略模板(内置模板)无法编辑,仅支持编辑自定义策略。 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“策略管理 > 主机策略”。 3. 选择需要编辑的策略,点击该策略,进入策略配置页面。 4. 编辑需要修改的策略信息,点击“保存”即可成功修改该策略。 策略的详细配置说明请参见主机策略配置说明。 相关操作 还支持导入、导出策略。创建策略后,支持查看策略、将策略设为默认模板、删除策略。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        策略管理
        主机策略
        主机策略管理
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • GDS实践指南
        本章节主要介绍GDS最佳实践。 安装GDS前必需确认GDS所在服务器环境的系统参数是否和数据库集群的系统参数一致。 GDS与DWS通信要求物理网络畅通,尽量使用万兆网。因为千兆网无法承载高速的数据传输压力,极易出现断连,使用千兆网时DWS无法提供通信保障。满足万兆网的同时,要求数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s),才能保证单文件导入速率最大化。 提前做好服务部署规划,数据服务器上,建议一个Raid只布1~2个GDS。GDS跟DN的数据比例建议在1:3至1:6之间。一台加载机的GDS进程不宜部署太多,千兆网卡部署1个GDS进程即可,万兆网卡机器建议部署不大于4个进程。 提前对GDS导入导出的数据目录做好层次划分,避免一个数据目录包含过多的文件,并及时清理过期文件。 合理规划目标数据库的字符集,强烈建议使用UTF8作为数据库的字符集,不建议使用sqlascii编码,因为极易引起混合编码问题。GDS导出时保证外表的字符集和客户端字符集一致即可,导入时保证客户端编码,数据文件内容编码和客户端一致。 如果存在无法变更数据库,客户端,外表字符集时,可以尝试使用iconv命令进行手动转换。 注意 f 表示源文件的字符集,t为目标字符集 iconv f utf8 t gbk utf8.txt o gbk.txt 关于GDS导入实践可参考“导入数据最佳实践”章节中的“使用GDS导入数据”。 GDS支持CSV、TEXT、FIXED三种格式,缺省为TEXT格式。不支持二进制格式,但是可以使用encode/decode函数处理二进制类型。例如: 对二进制表导出: 创建表。 CREATE TABLE blobtypet1 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet1( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ) WRITE ONLY; INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO fblobtypet1 select encode(BTCOL,'base64') from blobtypet1; 对二进制表导入: 创建表。 CREATE TABLE blobtypet2 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet2( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/fblobtypet1.dat.0', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ); insert into blobtypet2 select decode(BTCOL,'base64') from fblobtypet2; SELECT FROM blobtypet2; btcol xdeadbeef xdeadbeef xdeadbeef xdeadbeef (4 rows) 对同一张外表重复导出会覆盖之前的文件,因此不要对同一个外表重复导出。 若不确定文件是否为标准的csv格式,推荐将quote参数设置为0x07,0x08或0x1b等不可见字符来进行GDS导入导出,避免文件格式问题导致任务失败。 CREATE FOREIGN TABLE foreignHRstaffSft1 ( MANAGERID NUMBER(6), sectionID NUMBER(4) ) SERVER gsmppserver OPTIONS (location 'file:///inputdata/', format 'csv', mode 'private', quote '0x07', delimiter ',') WITH errHRstaffSft1; GDS支持并发导入导出,gds t参数用于设置gds的工作线程池大小,控制并发场景下同时工作的工作线程数且不会加速单个sql任务。gds t缺省值为8,上限值为200。在使用管道功能进行导入导出时,t参数应不低于业务并发数。 GDS外表参数delimiter是多字符时,建议TEXT格式下字符不要完全相同,例如不建议使用delimiter ''。 GDS多表并行导入同一个文件提升导入性能(仅支持text和csv文件)。 创建目标表。 CREATE TABLE pipegdswidetb1 (city integer, telnum varchar(16), cardcode varchar(15), phonecode vcreate table pipegdswidetb3 (city integer, telnum varchar(16), cardcode varchar(15), phonecode varchar(16), regioncode varchar(6), stationid varchar(10), tmsi varchar(20), recdate integer(6), rectime integer(6), rectype numeric(2), switchid varchar(15), attachcity varchar(6), opc varchar(20), dpc varchar(20)); 创建带有filesequence字段的外表。 CREATE FOREIGN TABLE gdspipcsvr1( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '51'); CREATE FOREIGN TABLE gdspipcsvr2( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '52'); CREATE FOREIGN TABLE gdspipcsvr3( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '53'); CREATE FOREIGN TABLE gdspipcsvr4( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '54'); CREATE FOREIGN TABLE gdspipcsvr5( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '55'); 将widetb.txt并发导入到pipegdswidetb1。 parallel on INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr1; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr2; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr3; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr4; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr5; parallel off filesequence参数详细内容,可参考《开发指南》中的“CREATE FOREIGN TABLE (GDS导入导出)”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        GDS实践指南
      • 创建VPC边界防火墙
        本节介绍如何创建VPC边界防火墙。 VPC边界防火墙能够检测和统计VPC间的通信流量数据,帮助您发现异常流量。开启VPC边界防火墙之前,您需要先创建VPC边界防火墙并关联企业路由器。 前提条件 当前账号下需存在可用的企业路由器。 关于企业路由器的收费,请参见《企业路由器用户指南> 计费说明》。 创建企业路由器请参见《企业路由器用户指南> 创建企业路由器》。 说明 创建时,建议取消勾选“默认路由表关联”和“默认路由表传播”。 创建说明 创建防火墙时为了引流需选择企业路由器和配置IPV4网段。 企业路由器用于引流,选择时需满足以下限制: 没有与其它防火墙实例关联。 需归属本账号,非共享企业路由器。 需关闭“默认路由表关联”、“默认路由表传播”和“自动接收共享连接”功能。 网段用于将流量转发至云防火墙,选择时需注意以下限制: 该网段不可与需要开启防护的私网网段重合,否则会导致路由冲突。 10.6.0.0/1610.7.0.0/16网段为防火墙保留网段,不可使用。 创建VPC边界防火墙 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“资产管理> VPC边界防火墙管理”,进入“VPC边界防火墙管理”页面。 5. 单击“创建防火墙”,选择企业路由器并配置合适的网段。 企业路由器用于引流,选择时需满足以下限制: 没有与其它防火墙实例关联。 需归属本账号,非共享企业路由器。 需关闭“默认路由表关联”、“默认路由表传播”和“自动接收共享连接”功能。 网段配置后默认创建InspectionVPC将流量转发至云防火墙,并自动分配云墙关联子网,将云防火墙流量转发到企业路由器,选择时需注意以下限制: 创建防火墙后不支持修改网段。 该网段需满足以下条件: 仅支持私网地址段(即在10.0.0.0/8、172.16.0.0/12、192.168.0.0/16范围中),否则可能在SNAT等访问公网的场景下产生路由冲突, 10.6.0.0/1610.7.0.0/16网段为防火墙保留网段,不可使用。 不可与需要开启防护的私网网段重合,否则会因路由冲突,导致该网段无法防护。 如果您参数界面如下图所示,则您目前云防火墙版本为旧版,VPC边界防火墙配置请参见“企业路由器模式”。 6. 单击“确认”,需等待35分钟,完成防火墙创建。 创建过程中您只能浏览“概览”页,防火墙的“状态”会变为“升级中”。
        来自:
        帮助文档
        云防火墙
        用户指南
        开启VPC边界流量防护
        企业路由器模式(新版)
        创建VPC边界防火墙
      • 通过JDBC连接池连接DRDS
        本章节主要介绍了如何通过JDBC连接池与DRDS对接,实现数据操作。 应用连接池选择 连接资源是数据库中非常宝贵及有限的资源,应用并发量很大时,如果没有连接池,会占用大量的数据库的连接,导致后端数据库连接不足,无法正常提供服务,我们建议应用使用连接池来完成连接工作。在java中,推荐HikariCP作为应用连接池。 JDBC约束 不支持 rewriteBatchedStatementstrue 参数设置(默认为 false)。 BLOB, BINARY, VARBINARY 字段不能使用 setBlob() 或 setBinaryStream() 方法设置参数 。 操作步骤 1. 在控制台创建表并配置分片规则,参考建表DDL如下。 json create table if not exists enumtable( id int not null, code int not null, content varchar(250) not null, primary key(id) )engineinnodb charsetutf8; 2. 配置依赖。 json com.zaxxer HikariCP 4.0.3 3. 配置JDBC连接池参数。 yaml > 4. 连接DRDS实例执行相关sql。 json import com.zaxxer.hikari.HikariDataSource; import org.springframework.context.ApplicationContext; import org.springframework.context.support.ClassPathXmlApplicationContext; import java.sql.Connection; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException; public class JDBCTest { public static void main(String[] args) throws SQLException { ApplicationContext app new ClassPathXmlApplicationContext("application.xml"); HikariDataSource dataSource (HikariDataSource) app.getBean("dataSourceHikari"); Connection conn null; try { conn dataSource.getConnection(); //开启事务 conn.setAutoCommit(false); // 插入测试数据 PreparedStatement ps1 conn.prepareStatement("insert into enumtable (id,code,content) values (?,?,?);"); ps1.setInt(1, 1); ps1.setInt(2, 1001); ps1.setString(3, "测试数据"); ps1.executeUpdate(); conn.commit (); //查询条件带上分片键或切片索引键,否则语句将广播执行 PreparedStatement ps2 conn.prepareStatement("SELECT FROM enumtable WHERE id ?"); ps2.setInt(1, 1); ResultSet rs ps2.executeQuery(); rs.next(); String space ""; for (int i 1; i < rs.getMetaData().getColumnCount(); i++) { System.out.print(space + rs.getMetaData().getColumnName(i) + " " + rs.getString(i)); space ", "; } } catch (Exception e) { e.printStackTrace(); } finally { if (conn ! null) { conn.close(); } } } }
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        通过JDBC连接池连接DRDS
      • 服务
        本章节为您介绍服务相关的内容。 服务通常指的是 API 网关要连接和转发请求的目标服务。在微服务架构中 ,这些目标服务可以是各种不同的后端服务 , 比如数据库服务、用户服务、支付服务等。服务可以是内部的私有服务 ,也可以是外部的第三方服务。 本系统还提供服务发现、负载均衡、健康检查等功能。 创建服务 1.登录API安全网关。 2.在左侧导航栏选择“资源 > 服务”,进入服务列表页面。 3.单击页面左上方的“新增”按钮,在左侧弹出的“新增服务”对话框中填写相关内容。 字段 说明 服务名称 自定义服务名称,只能取唯一值。 大模型 选择是否使用大模型,选择开启后需要选择“模型提供方”。 应用代理 选择是否开启代理,开启后需要填写“代理端口”及“代理协议”。 描述 对新增的服务添加简要描述。 负载均衡算法 选择负责均衡算法,目前支持以下四种: 一致哈希:相同特征的请求将分配至同一个上游节点。 带权轮询:按照配置的权重比例分配请求数量至上游节点。 指数加权移动平均法:请求将更多地分配给效率高的上游节点。 最小连接数:选取当前连接数量最少的上游节点分发请求。 上游类型 节点:需要填写节点主机名、端口、权重。 服务发现:选择服务发现的类型,支持选择DNS、Consul KV、Nacos、Euereka、Kubernetes。 Host请求头 保持与客户端一致的主机名。 使用目标节点列表中的主机名或IP。 重试次数 重试机制将请求发到下一个上游节点。 值为0表示禁用重试机制,留空表示使用可用后端节点的数量。 重试超时时间 限制是否继续重试的时间,若之前的请求和重试请求花费太多时间就不再继续重试。 0代表不启用重试超时机制。 协议 服务端使用的协议类型,默认为:HTTP协议。 支持选择:HTTP、HTTPs、gRPC、gRPCs、TCP、TLS、UDP、Kafka。 连接超时 建立从请求到后端服务器的连接的超时时间,默认值6s。 发送超时 发送数据到后端服务器的超时时间,默认值6s。 接收超时 从后端服务器接收数据的超时时间,默认值6s。 连接池容量 为后端设置独立的连接池,默认值320。 连接池空闲超时时间 默认值60。 连接池请求数量 默认值1000。 健康监测 选择是否开启健康监测功能。 身份认证 选择身份认证方式,支持以下四种选择: 无认证:不开启身份认证方式。 Key认证:Key认证用于向API添加身份验证密钥。它需要与API调用者一起配合才能工作,通过API调用者将其密钥添加到查询参数或请求头中以验证其请求。 摘要签名认证:摘要签名认证可以将HMAC认证添加到服务。它需要与API调用者一起配合才能工作,通过API调用者将其密钥添加到查询参数或请求头中以验证其请求。 JWT认证:将JWT身份验证添加到服务中,通过API调用者将其密钥添加到查询字符串参数、请求头或Cookie中用来验证其请求。 4.添加完成后,单击“下一步”,进入插件配置环节,具体的插件功能请参照控制台说明,若需要启用插件单击对应插件下方的“启用”按钮即可启用。 5.完成插件配置后,单击“下一步”确认服务信息,若信息无误单击“保存”即可完成添加服务。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        资源
        服务
      • 统计配额数据
        接口功能介绍 服务器安全卫士系统,配额统计 接口约束 已经签约安全卫士服务协议 URI GET /v1/quota/overview 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 regionid 是 String 资源池id 100054c0416811e9a6690242ac110002 urlType 是 String 请求地址类型。CTAPI CTAPI ContentType 是 String ContentType application/json 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 状态码 200成功 error String 返回码 CTCSSCN000000 :成功; CTCSSCN000001:失败; CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用; CTCSSCN000004:鉴权错误; CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 成功 returnObj Object 返回对象 QuotaDto 表 QuotaDto 参数 参数类型 说明 示例 下级对象 bindingCount Integer 使用中配额数量 1 unbindingCount Integer 未绑定配额数量 10 normalCount Integer 正常配额数量,bindingCount+unbindingCount 11 expirationCount Integer 过期配额数量 20 cancelCount Integer 退订配额数量 1 quotaTotal Integer 配额总数 1 expirationDate String 配额到期时间,取所有配额中,到期时间最大值 20220721T06:18:58.000+00:00
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        配额管理
        统计配额数据
      • 查看事件信息
        本节主要介绍如何查看事件信息。 操作场景 通过查看事件列表,您可以了解近360天的事件的统计信息列表,列表内容包括事件的名称、类型、等级和发生时间等。并可通过自定义过滤条件,如事件名称、事件等级和发生时间等,快速查询到相应事件的统计信息。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 事件管理”,进入事件管理页面。 5. 在事件管理页面上方,查看事件统计情况。 急需处理事件 :呈现事件等级为致命或高危,且状态为非关闭的事件总数。 超期事件 :呈现已超过事件设置的计划关闭时间,且还未关闭的事件总数。 事件状态 :呈现“打开”、“阻塞”、“关闭”状态的事件总数及对应状态下事件数量。 事件数量 :当前工作空间内的事件总数,以及各个等级对应的事件数量。 6. 在事件列表中,查看事件详细信息。 页面最多可查看9999条事件信息。 参数 说明 事件名称 事件名称。 事件ID 事件对应的ID。 事件等级 事件严重等级,分为以下等级:提示、低危、中危、高危、致命。 类型 事件类型。 状态 事件状态,分为以下状态:打开、阻塞、关闭。 影响资产 受此事件影响的资产。 验证状态 此事件的验证状态,即事件的准确性。分为以下状态:未知、确认、误报。 责任人 此事件的主要责任人。 创建时间 此事件的创建时间。 首次发生时间 此事件首次发生时间。 最近发生时间 此事件最近一次发生的具体时间。 计划关闭时间 此事件的计划关闭时间。 描述 事件的描述信息。 数据源产品名称 事件来源产品的名称。 标签 事件的标签信息 操作 可对事件进行编辑、关闭等操作。 7. 如需查看某个事件详概览,可单击告警名称,页面右侧将展示事件的概览信息。 在事件概览页面可以查看事件的处置建议、基本信息和关联信息(包括关联的威胁指标、告警、事件、攻击信息等)。 如果需要查看事件详情,可以在事件概览页面右下角单击“事件详情”,进入事件详情页面。 在详情页面除了可以查看概览页面的信息外,还可以查看事件的时间线和攻击信息。例如:事件首次发生时间、检测时间、攻击进程ID等。 在事件概览/详情页面可以在事件等级和状态的下拉箭头中修改事件等级、状态。 在事件概览/详情页面可以关联或取消关联告警、事件、情报,还可以查看受影响资产相关信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        事件管理
        查看事件信息
      • 创建API分组
        本章主要介绍创建API分组。 创建API前,需要先创建API分组。API分组相当于API的集合,API提供者以API分组为单位,管理分组内的所有API。 目前支持以下创建分组方式: 直接创建 创建一个简单的分组,不包含API,用户可自行创建API。 导入API设计文件 从本地导入已有的API文件,同步创建分组。 说明 对外开放API时,您需要为API分组绑定自己的独立域名。 一个API只能属于某一个API分组。 API分组创建后,系统为分组自动分配一个内部测试用的调试域名,此调试域名每天最多可以访问1000次。 实例创建后,有一个DEFAULT分组,可直接通过虚拟私有云地址调用默认分组中的API。 前提条件 已创建API网关实例。 直接创建 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 直接创建”,在弹框中填写分组信息。 参数 说明 :: 分组名称 API分组名称,用于将API接口进行分组管理。 描述 对分组的介绍。 步骤 5 单击“确定”,创建完成。 导入API设计文件 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 导入API设计文件”。 步骤 5 在弹窗中选择本地路径下的API文件,然后单击“打开”导入文件。 步骤 6 填写导入信息。 参数名称 说明 :: 导入方式 导入方式包含以下2种: 生成新的分组:将API定义导入到一个新的分组,导入过程中系统会自动创建一个新的API分组,并将导入的API归属到该分组。 选择已有分组:将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 API分组 仅在选择“选择已有分组”时,需要选择API分组。 是否覆盖 勾选后,当导入的API名称与已有的API名称相同时,导入的API会覆盖已有的API。 仅在选择“选择已有分组”时,需要选择是否覆盖。 扩展覆盖 勾选后,当导入API扩展定义项名称(ACL,流控等)与已有的策略(ACL,流控等)名称相同时,会覆盖已有的策略(ACL,流控等)。 步骤 7 (可选)单击“全局配置(可选)”。 1. 选择安全配置。 2. 选择后端请求配置。 3. 单击“下一步”,支持通过“表单”、“JSON”、“YAML”样式查看配置详情。 4. 确认无误后,单击“提交”,完成配置。 步骤 8 单击“立即导入”,在弹窗中选择是否现在发布API到环境。 步骤 9 单击“确定”,跳转到“API运行”页面,可查看分组下的API。
        来自:
        帮助文档
        API网关
        用户指南
        API管理
        创建API分组
      • 使用多活容灾服务实现Redis容灾切换
        步骤一:准备Redis数据库 在使用MDR实现Redis故障切换前,需要提前准备一个多活实例和一个Redis数据库。 当前仅支持对云上资源进行故障切换, 因此需要购买一台规格类型为“主备”、“集群主备”、“Cluster主备”的天翼云Redis数据库。 创建数据库实例,具体请参考:创建实例。 步骤二:同步资源 在资源管理模块中同步数据库资源到多活容灾服务平台,具体参考:同步天翼云数据库。 步骤三:创建容灾管理中心 创建容灾管理中心的具体请参考:创建容灾管理中心。 步骤四:接入应用 将需要进行故障切换的Redis数据库接入创建好的容灾管理中心,具体操作请参考:应用接入。 步骤五:编排预案阶段和预案 1. 创建预案阶段,具体操作请参考:创建预案阶段。 2. 创建预案,具体操作请参考:创建预案。 步骤六:容灾切换 进行容灾切换,具体操作请参考:容灾切换。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        使用多活容灾服务实现Redis容灾切换
      • 如何卸载数据库安全审计Agent程序?
        在数据库端或应用端的节点安装Agent后,当不需要停止审计数据库时,您可以在安装Agent的节点卸载Agent。 前提条件 已在安装节点安装了Agent程序。 在Linux操作系统上卸载Agent 1. 使用跨平台远程访问工具(例如PuTTY)以root用户通过SSH方式,登录已安装Agent的节点。 2. 执行以下命令,进入Agent安装包“xxx.tar.gz”解压后所在目录。cd Agent安装包解压后所在目录 3. 执行以下命令,查看是否有卸载脚本“uninstall.sh”的执行权限。如果有卸载脚本的执行权限,请执行步骤4。如果没有卸载脚本的执行权限,请执行以下操作: 执行以下命令,添加卸载脚本执行权限。chmod +x uninstall.sh 确认有安装脚本执行权限后,请执行步骤4。 4. 执行以下命令,卸载Agent。sh uninstall.sh。如果界面回显以下信息,说明卸载成功。 uninstall audit agent... exist osrelease file stopping audit agent audit agent stopped stop auditagent success service auditagent does not support chkconfig uninstall audit agent completed! 在Windows操作系统上卸载Agent 1. 进入Agent安装文件的目录。 2. 双击“uninstall.bat”执行文件,卸载Agent。 3. 验证Agent已卸载成功。
        来自:
        帮助文档
        数据库安全
        常见问题
        Agent相关
        如何卸载数据库安全审计Agent程序?
      • IaC告警
        查看告警详情 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 点击告警列表“报警名称”,可查看报警详情。 4. 在报警详情页面,可查看该告警的基本信息、告警命中规则、处置建议等信息。 处理告警 处理单个告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 单击告警列表操作列的“处理”,或单击报警名称进入告警详情页面后,单击“立即处理”按钮。 4. 进入处理告警页面,对本条告警进行处理。 若您已手动处理该告警,或判断当前报警为误报,可以将其“标记为已处理”。 5. 选择处理方式后单击“确认”,即可完成告警处理。 批量处理告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 筛选告警,并勾选需要标记为已处理的告警,单击列表页右上方的“标记已处理”按钮。 4. 在“标记为已处理”窗口,选择标记范围。 5. 选择标记范围后,单击“确认”。 导出告警 1. 登录容器安全卫士控制台。 2. 在左侧导航栏,选择“告警响应 > IaC告警”,进入IaC告警页面。 3. 筛选告警,并勾选需要导出的告警,单击列表页右上方的“生成报告”按钮。 4. 在“导出”窗口,选择导出范围。 5. 选择导出范围后,单击“确认”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        告警响应
        IaC告警
      • 分组标签
        本节介绍如何管理分组标签。 对终端设置分组、标签,方便对终端进行分类管理以及对终端进行批量操作。 租户可对分组及标签进行管理,包括新增、编辑和删除等操作。同时可为终端选择分组及添加标签。 Linux操作系统终端默认划分为Linux服务器组。 其他的为系统默认组。 新增分组 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 分组标签”,选择分组页签。 3. 点击“新增”。 4. 在弹出的对话框中按情况填写和选择分组名称、重要性、自动分组及其规则,点击 确定 ,即可新增分组。 新增标签 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 分组标签”,选择“标签”页签。 3. 点击“新增”。 4. 在弹出的对话框中输入标签名称,选择颜色,点击“确定”,即可新增标签。 其他操作 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 分组标签”,选择“分组”页签。租户可在此页面对分组进行编辑及删除操作。 点击操作项 列中的“编辑”,在弹出的对话框中修改组名称,即可编辑分组。 点击操作项 列中的“删除” ,在弹出的对话框中点击“确定”,即可删除分组。 勾选分组(可勾选多个),点击列表上方的“删除” ,在弹出的对话框中点击“确定”,即可批量删除分组。 3. 在左侧导航栏选择“资产中心 > 分组标签”,选择“标签”页签。租户可在此页面对标签进行编辑和删除操作。 点击操作项 列中的“编辑” ,在弹出的对话框中修改标签名称和颜色,点击“确定”,即可编辑标签。 点击操作项 列中的“删除” ,在弹出的对话框中点击“确定”,即可删除标签。 勾选需要删除标签(可勾选多个),点击列表上方的“删除” ,在弹出的对话框中点击“确定”,即可批量删除标签。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        资产中心
        分组标签
      • 同步资产间隔设置
        接口功能介绍 服务器设置中心,同步资产设置 接口约束 已经签约安全卫士服务协议 URI POST /v1/sync/update/ 路径参数 参数 是否必填 参数类型 说明 示例 下级对象 interval 是 Integer 数据id。取值范围(0,24) 1 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 状态码 200成功 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 成功 returnObj Object 返回对象 枚举参数 无 请求示例 请求url 无 请求头header {"regionid": "100054c0416811e9a6690242ac110002","ContentType":"application/json","urlType": "CTAPI"} 请求体body 无 响应示例 {"statusCode": "200","error": "CTCSSCN000000","message": "查询成功!","returnObj": null} 状态码 请参考 状态码
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        安全配置
        同步资产间隔设置
      • 步骤五:创建DRDS帐号
        本文介绍如何创建DRDS账号。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击目标实例名称或单击操作 列的管理 ,进入实例基本信息页面。 4. 单击用户管理 ,进入用户管理页面。 5. 单击创建用户 ,根据实际情况配置如下参数,然后单击确定。 说明 用户创建成功后,如果您需要设置权限,只需单击目标用户的操作 列的设置权限 ,进入到设置权限页面,然后单击新增权限,选中Schema和所需的权限即可。 参数 说明 用户名 由数字、字母、短横线()、下划线()组成,并且只能以字母开头。 密码安全策略 支持5种不同的密码安全策略: 复杂度低临时有效 复杂度中短期有效 复杂度高中期有效 复杂度高长期有效 复杂度高永久有效 说明 选择不同的密码安全策略,对密码的复杂度、有效期以及旧密码是否可重用三项规则可进行不同的设置。 密码 密码复杂度由密码安全策略决定。 管理命令权限 开启后用户具备管理命令的权限。 过载保护白名单 开启后用户加入过载保护白名单。 前端连接数不受限 开启后用户不受前端最大连接数设置的限制。 角色 用户关联角色后,拥护角色设置的权限。角色相关内容请参见角色管理。 具有Hint权限 开启后用户具有Hint权限。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤五:创建DRDS帐号
      • 申请发票
        本文主要介绍了申请发票的常见问题。 购买按需付费的产品什么时候能开发票? 按需付费次月出账后可申请开票。 开票时提示超出单张限额? 普票单张不能超过十万,自行开票不超过十万即可,专票是可以超过十万的。 企业实名认证的账号是否可以开具其它企业抬头的普通发票? 不可以。实名认证为企业的客户,创建企业抬头的发票模板时, 发票抬头必须和实名认证名称保持一致,否则只能通过重新实名认证进行修改。 可开具的发票条目有哪些? 云主机服务费、数据服务费、云业务服务费、服务费、技术服务费、云备份服务费、CDN服务费、IDC服务费、云加速服务费、云存储服务费、信息服务费、广告发布费、广告费、云资源技术服务费、天翼云资源技术服务、查询费、云资源服务费、域名服务费。 现金充值后,能否开具发票? 不能,发票开具额度只与已完成的订单金额有关。 开具发票注意事项有哪些? 增值税发票仅面向中国大陆客户,港澳台及海外企业客户无法开具此类发票。 实名认证为个人或企业的客户,均可以创建增值税普通发票模板,实名认证为企业的客户还可创建增值税专用发票模板。 实名认证为企业的客户,创建企业抬头的发票模板时,发票抬头必须和实名认证名称保持一致,否则只能通过重新实名认证进行修改。创建个人抬头的发票模板时,发票抬头可以手动设置,支持修改。 实名认证为个人的客户,创建发票模板时,发票抬头可以手动设置,支持修改。 代金券消费不纳入可开票金额。 月产生的按需产品账单在下个月3日后才可以索取发票。 账号每个月可进行5次发票申请操作(含退票),超过则无法操作。 企业账号类型是政府、军队、事业单位、社团团体、其他,发票不允许开增值税专用发票。
        来自:
        帮助文档
        费用中心
        常见问题
        发票管理
        申请发票
      • 查看网络雷达图
        本节介绍如何通过网络策略页面进入网络雷达视图。 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“网络安全 > 策略管理”,进入策略管理页面。 3. 单击页面右上角“网络雷达”。 4. 进入网络雷达图页面,在工作负载详情中的“策略”页面,可查看正常流量和预发布流量。 关于网络雷达的更多详细信息,请参见网络雷达。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        网络安全
        查看网络雷达图
      • 创建扫描任务
        本节介绍如何创建扫描任务。 操作场景 该任务指导用户通过漏洞扫描服务创建扫描任务。 前提条件 已获取管理控制台的登录帐号与密码。 域名的“认证状态”为“已认证”。 如果您的网站设置了防火墙或其他安全策略,将导致VSS的扫描IP被当成恶意攻击者而误拦截。因此,在使用VSS前,请您将以下VSS的扫描IP添加至网站访问的白名单中:114.217.39.79,222.93.127.109 操作步骤 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务页面。 3. 在“资产列表 > 网站”页签,单击对应的网站信息“操作”列的“扫描”。 4. 进入创建扫描任务入口,如下图所示。 5. 在“创建任务”界面,请根据下表进行扫描设置,设置后如下图所示。 扫描设置参数说明: 参数 参数说明 任务名称 用户自定义。 目标网址 待扫描的网站地址或IP地址。 通过下拉框选择已认证通过的域名。 开始时间 可选参数,设置开始扫描的时间,不设置默认立即扫描。 扫描策略 三种扫描策略: 极速策略:扫描耗时最少,能检测到的漏洞相对较少。 标准策略:扫描耗时适中,能检测到的漏洞相对较多。 深度策略:扫描耗时最长,能检测到最深处的漏洞。 有些接口只能在登录后才能访问,建议用户配置对应接口的用户名和密码,VSS才能进行深度扫描。 说明 “极速策略”:扫描的网站URL数量有限且VSS会开启耗时较短的扫描插件进行扫描。 “深度策略”:扫描的网站URL数量不限且VSS会开启所有的扫描插件进行耗时较长的遍历扫描。 “标准策略”:扫描的网站URL数量和耗时都介于“极速策略”和“深度策略”两者之间。 是否扫描登录URL 默认不扫描登录URL,开启扫描登录URL前请先评估业务影响。 是否将本次扫描升级为专业版规格 基础版用户开启此功能后,扫描过程中会按需扣费: 鼠标移动至“?”了解升级后影响。 打开此功能时,扫描时会自动升级为专业版按需扣费,关闭该功能时,扫描时不会升级。 扫描项设置 VSS支持的扫描功能参照下表。 :开启。 :关闭。 扫描项设置: 扫描项名称 说明 Web常规漏洞扫描(包括XSS、SQL注入等30多种常见漏洞) 提供了常规的30多种常见漏洞的扫描,如XSS、SQL等漏洞的扫描。默认为开启状态,不支持关闭。 端口扫描 检测主机打开的所有端口。 弱密码扫描 对网站的弱密码进行扫描检测。 CVE漏洞扫描 CVE,即公共暴露漏洞库。VSS可以快速更新漏洞规则,扫描最新漏洞。 网页内容合规检测(文字) 对网站文字的合规性进行检测。 网页内容合规检测(图片) 对网站图片的合规性进行检测。 网站挂马检测 挂马:上传木马到网站上,使得网站在运行的时候执行木马程序,被黑客控制,遭受损失。VSS可以检测网站是否存在挂马。 链接健康检测(死链、暗链、恶意外链) 对网站的链接地址进行健康性检测,避免您的网站出现死链、暗链、恶意链接。 说明 如果您当前的服务版本已经为专业版,不会提示升级。 基础版支持常见漏洞检测、端口扫描,每日扫描任务上限5个,单个扫描任务时长限制2小时。 专业版支持常见漏洞检测、端口扫描、弱密码扫描,每日扫描任务上限多达60次。 高级版支持常见漏洞检测、端口扫描、弱密码扫描,每日扫描任务上限多达60次。 企业版支持常见网站漏洞扫描、基线合规检测、弱密码、端口检测、紧急漏洞扫描、周期性检测,每日扫描任务上限多达60次。 6. 设置完成后,单击“开始扫描”。 说明 如果没有设置开始扫描时间,且此时服务器没有被占用,则创建的任务可立即开始扫描,任务状态为“进行中”;否则进入等待队列中等待,任务状态为“等待中”。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        网站漏洞扫描
        创建扫描任务
      • 挂载NFS文件系统到弹性云主机 (Linux)
        您可以将文件系统挂载至Linux云主机,本文帮助您快速上手文件系统挂载。 操作场景 文件系统不可独立使用,当创建文件系统后,您需要使用云主机来挂载该文件系统,以实现多个云主机共享使用文件系统的目的。若您选择使用Linux操作系统和NFS文件系统,可使用本文指导挂载操作。 注意 不推荐NFS协议的文件系统挂载至Windows,Windows系统对NFS协议文件系统兼容性较差,会出现中文乱码和无法进行重命名等问题,影响正常使用。因此推荐使用NFS文件系统挂载至Linux操作系统的计算服务上,以避免不兼容的问题。 如果仍然期望采用NFS协议的文件系统挂载至Windows的方式,请务必知晓上述风险,若采用此种挂载方式,本服务不承诺SLA。 前提条件 在同地域已创建虚拟私有云VPC,具体操作步骤参见创建虚拟私有云VPC。 已创建该VPC下的弹性云主机且操作系统为Linux,具体操作步骤参见创建弹性云主机,海量文件服务兼容的操作系统请参考使用限制。 已创建同VPC下的NFS协议文件系统,具体操作步骤参见创建文件系统。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算>弹性云主机”,进入弹性云主机控制台页面,找到即将执行挂载操作的云主机。 3. 以root用户登录该弹性云主机,登录方法参考登录Linux弹性云主机。 注意 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 4. 执行以下命令查询该云主机是否安装NFS客户端,若没有返回安装结果,执行第5步进行安装。 plaintext rpm qa grep nfsutils 5. 安装NFS客户端。安装时注意不同操作系统执行命令不同。 CentOS系统,执行以下命令: plaintext yum y install nfsutils Ubuntu系统,执行以下命令: plaintext sudo aptget install nfscommon 6. 执行如下命令创建本地挂载路径,例如“/mnt/sfs”。 plaintext mkdir /mnt/sfs 7. 执行如下命令挂载文件系统。挂载完成后使用 df h命令查看文件系统挂载情况。 注意 请务必在挂载时使用noresvport参数,防止文件系统卡住。 IPv4地址挂载命令: plaintext mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径 IPv6地址挂载命令: plaintext mount t nfs o vers3,prototcp6,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        挂载文件系统
        挂载NFS文件系统到弹性云主机 (Linux)
      • 1
      • ...
      • 233
      • 234
      • 235
      • 236
      • 237
      • ...
      • 298
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      应用托管

      智算一体机

      人脸检测

      人脸活体检测

      人脸比对

      推荐文档

      7天无理由退款如何操作?

      产品价格

      产品定义

      首次备案

      产品规格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号