活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(独享版)_相关内容
      • 数据授权
        本文介绍数据授权功能,使用户可以快速熟悉数据授权页面的相关操作,以及如何进行数据授权。 前提条件 用户需要具有进入数据授权 页面的菜单权限。菜单权限请参考权限说明。 注意事项 数据授权功能仅限企业版。 超级管理员、管理员可以授权组织内所有实例 的数据权限,团队管理员可以授权团队内所有实例的数据权限。 每次授权仅限一种类型的资源粒度,资源粒度从大到小依次是实例、库/模式、表。 数据权限支持按资源粒度继承,即用户拥有大粒度资源的数据权限时,则默认拥有该大粒度资源下所有小粒度资源的数据权限。 多次授权同一用户、同一资源、同一权限后,最后一次授权的结果会覆盖之前授权的结果。 操作步骤 用户可以在安全协作>用户与角色 页面中点击某个用户信息的“数据授权”按钮进入数据授权页面,也可以在安全协作>团队管理>团队成员管理页面中点击某个团队成员信息的“数据授权”按钮进入数据授权页面。 数据授权的具体操作流程如下: 1. 选择资源的粒度。进入数据授权页面后,默认选择库/模式授权,可以点击其他标签,切换到其他资源粒度,每次授权仅限一种类型的资源粒度。 2. 选择授权的资源。在左侧”请选择“框内勾选想要授权的资源的复选框,然后点击中间的”>“按钮,即可将当前页选中的资源加入到右侧”已选择“框内。如果想要删除右侧“已选择”框内的资源,可以勾选想要删除的资源的复选框,然后点击中间的“<”按钮,即可将右侧“已选择”框内的资源删除。每次授权可以同时选择多个资源。 3. 选择权限的类型。根据用户需要,勾选对应权限类型的复选框。每次授权可以同时选择多种权限。 4. 选择权限的有效期。权限有效期默认为1个月,根据用户需要,可以选择3个月、半年或者1年,也可以点击时间栏,直接指定权限的到期时间。 5. 确定信息无误后,点击页面右下角的“确认授权”按钮即可完成授权。
        来自:
        帮助文档
        数据管理服务
        用户指南
        安全协作
        用户与角色
        数据授权
      • 带宽与网速
        本文向您介绍企业版VPN中带宽与网速类常见问题。 如何测试VPN速率情况? 假设测试环境VPN连接已经创建,在VPN连接两端VPC的本端子网下分别创建ECS,并使两个VPC之间的ECS相互能够ping通的情况下,测试VPN的速率情况。 当用户购买的VPN网关的带宽为200Mbit/s时,测试情况如下。 1. 互为对端的ECS都使用Windows系统,测试速率可达180Mbit/s,使用iperf3和filezilla(是一款支持ftp的文件传输工具)测试均满足带宽要求。 说明 基于TCP的FTP协议有拥塞控制机制,180Mbit/s为平均速率,且IPsec协议会增加新的IP头,因此10%左右的速率误差在网络领域是正常现象。 使用iperf3客户端测试结果如下图所示。 使用iperf3服务器端测试结果如下图所示。 2. 互为对端的ECS都使用Centos7系统,测试速率可达180M,使用iperf3测试满足带宽要求。 3. 服务器端ECS使用Centos7系统,客户端使用Windows系统,测试速率只有20M左右,使用iperf3和filezilla测试均不能满足带宽要求。 原因在于Windows和Linux对TCP的实现不一致,导致速率慢。所以对端ECS使用不同的系统时,无法满足带宽要求。 使用iperf3测试结果如下图所示。 用户购买的VPN网关为网关的整体吞吐能力,即该VPN网关下所有VPN连接的带宽之和。在大带宽场景下,由于主机的转发性能限制,需要使用多台主机构建多条流量才能充分利用网关的带宽。这种场景下对ECS的配置要求也很高,建议ECS的网卡支持2G以上的带宽。 测试总结:综上测试结果,云网关能够满足带宽速率要求,但是建议两端主机使用相同的操作系统,并且网卡要达到配置要求。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        带宽与网速
      • Llama3-70B-Instruct
        版本列表 版本列表 版本说明 Llama370BInstruct Llama370BInstruc模型是Meta Llama 3 系列大型语言模型指令调优版本模型之一,针对对话用例进行了优化,在常见的行业基准上优于许多可用的开源聊天模型。 相关资源及引用 相关资源 许可证 定制:商业许可证可在以下网址获得: < 有关模型的问题、评论及反馈,请参阅模型自述文件。 有关生成参数和如何在应用程序中使用Llama3的更多技术信息,请访问此处。 相关引用 如对您有帮助,欢迎引用。 plaintext @article{llama3modelcard, title{Llama 3 Model Card}, author{AI@Meta}, year{2024}, url { } 免责声明 Llama370BInstruct模型,来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        训推服务
        模型简介
        Llama3-70B-Instruct
      • 概念类问题
        对比维度 备份 容灾 使用目的 避免数据丢失,一般通过快照、备份等技术构建数据的数据备份副本, 故障时可以通过数据的历史副本恢复用户数据。 避免业务中断,一般是通过复制技术(应用层复制、主机I/O层复制、存储层复制) 在异地构建业务的备用主机和数据, 主站点故障时备用站点可以接管业务。 使用场景 针对病毒入侵、人为误删除、软硬件故障等场景, 可将数据恢复到任意备份点。 针对软硬件故障以及海啸、火灾、地震等重大自然灾害,运行故障切换,尽快恢复业务。 源端可用区恢复正常时,可轻松利用故障恢复能力重新切换回到源端可用区。 成本 通常是生产系统的1~2%。 通常是生产系统的20%~100%(根据不同的RPO/RTO要求而定),高级别的双活容灾, 要求备用站点也要部署一套和主站点相同的业务系统,基础设施成本需要翻倍计算。
        来自:
      • 功能特性
        本文带您了解并行文件服务HPFS的功能特性。 多协议配置 支持NFS、HPFSPOSIX协议类型,通过标准POSIX接口访问数据,无缝适配主流应用程序进行数据读写。 通过协议服务功能实现HPFSPOSIX和NFS多协议互访,实现一份数据多种业务平台同时访问。 文件系统管理 支持创建、挂载、搜索、查看、扩容、删除、子目录挂载、子目录配额等基本文件系统管理操作,支持上千台客户端挂载同一文件系统,满足高性能计算场景需求。 文件系统在线扩容 分钟级别快速扩容,用户可根据实际需要对文件系统进行在线扩容,扩容过程IO不中断,保障业务连续性。 权限与安全 HPFSPOSIX协议访问文件系统,可以通过seckey实现租户隔离,每个租户有唯一的seckey,通过seckey挂载到服务器,保障用户数据独立性。 NFS协议访问文件系统,通过VPC保证租户间数据隔离,且支持跨VPC访问文件系统。 数据监控 提供基础性能指标监控和容量指标监控,了解文件系统运行情况,并可根据业务要求配置相关告警。
        来自:
        帮助文档
        并行文件服务 HPFS
        产品介绍
        功能特性
      • 使用GeminiDB Redis时要注意什么
        使用GeminiDB Redis时要注意什么 使用GeminiDB Redis时要注意什么 1. 实例的操作系统,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 2. 对象存储服务(Object Storage Service,简称OBS)上的备份文件以及GeminiDB Redis使用的系统容器,都对用户不可见,它们只对GeminiDB Redis后台管理系统可见。 3. 申请数据库实例后,您还需要做什么。 申请实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: a. 数据库实例的CPU、IOPS、空间是否足够。 b. 数据库实例是否存在性能问题,是否需要优化等。 什么是GeminiDB Redis实例可用性 实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 其中,故障时间是指数据库实例创建完成后,运行期间累计发生故障的总时长。服务总时间指数据库实例创建完成后运行的总时长。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        产品咨询
        使用GeminiDB Redis时要注意什么
      • Windows客户端安装
        Windows Installer服务被禁用解决办法 方法一: 1. 用鼠标右键点击【计算机】,再单击下拉菜单中的【管理】; 2. 在【计算机管理】的界面里单击【服务和应用程序】; 3. 单击【服务】; 4. 找到并点击【Windows Installer】,再点击【启动】生效该服务。 方法二: 1. 鼠标右键点击【开始】菜单,并单击【运行】; 2. 【运行】中输入【services.msc】,最后点击【确定】; 3. 找到并点击【Windows Installer】,再点击【启动】生效该服务。 5. 提示“系统盘容量不足”怎么办? 请查看本地计算机系统盘(Windows系统下一般默认为C盘)剩余空间情况,建议彻底删除垃圾文件或将文件迁移到其他磁盘,以释放系统盘空间,确保其剩余容量大于600M。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        Windows客户端安装
      • 透明加密简介
        本页介绍透明数据加密的实现原理和使用方法。 透明数据加密(Transparent Data Encryption)通过在磁盘上存储的数据进行加密和解密来实现数据的保护。 透明:当使用者在打开或编辑指定文件时,系统将自动对未加密的文件进行加密,对已加密的文件自动解密。文件在硬盘上是密文,在内存中是明文。一旦离开使用环境,由于应用程序无法得到自动解密的服务而无法打开,从而起到保护文件内容的效果。 加密:透明加密使用加密算法来加密数据,并将密钥存储在数据库服务器的受信任位置,以确保安全性。 用户可以通过函数创建加密算法,之后可以通过函数将创建的算法绑定到schema,表和列上,实现加密算法和数据库对象建立关联。同时支持将已经绑定的算法从schema,表和列上解绑,从而取消加密算法和数据库对象之间的关联关系。 透明加密通过teledbxmls插件,需要创建插件: plaintext 创建插件 create extension teledbxmls;
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        透明加密
        透明加密简介
      • 设置可维护时间段
        说明:本章节会介绍如何设置可维护时间段 操作场景 默认可维护时间段为02:00~06:00,您可以根据业务需求,设置可维护时间段。建议将可维护时间段设置在业务低峰期,避免业务在维护过程中异常中断。 注意事项 在可维护时间段内,实例会发生1到2次连接闪断, 请确保应用程序具备重连机制。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台左上角的,选择区域和项目。 3. 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4. 在“实例管理”页面,单击目标实例名称,进入“基本信息”页面,在“数据库信息”模块的“可维护时间段”处,单击“修改”。 5. 在“修改可维护时间段”弹框中,选择一个可维护时间段,单击“确定”。 修改可维护时间段,不影响原有可维护时间段内定时任务的执行时间。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        实例管理
        设置可维护时间段
      • 查看Topic日志
        关闭Topic日志 1. 登录管理控制台。 2. 在管理控制台左上角单击,选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“应用服务 > 分布式消息服务Kafka”,进入Kafka总览页面。 4. 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 5. 单击Kafka实例的名称,进入实例详情页面。 6. 在左侧导航栏选择“日志管理 > Topic日志”,进入“Topc日志”页面。 7. 在页面右上角单击“关闭日志”,弹出确认关闭对话框。 8. 单击“确定”,自动跳转到“后台任务管理”页面,“状态”为“成功”时,表示关闭Topic日志成功。 关闭Topic日志只是停止Topic日志上报功能,LTS控制台的日志组和日志流仍然保留,还会继续收费,如不需要保留该日志,可以在LTS控制台删除对应的日志组和日志流。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看Topic日志
      • 使用限制
        操作 使用限制 访问实例 若文档数据库实例未开通公网访问,则必须与弹性云主机在同一个虚拟私有云子网内才能访问。 文档数据库服务和弹性云主机在不同的安全组默认不能访问,需要在文档数据库服务安全组添加一条“入”的访问规则。 文档数据库服务默认端口:8635,需要手动修改才能访问其它端口。 部署 实例所部署的弹性云主机,对用户不可见,即只允许应用程序通过IP地址和端口访问数据库。 数据库的rwuser权限 创建实例页面只提供管理员帐户rwuser权限。 修改数据库参数设置 用户创建的参数组中大部分数据库参数可以修改。 数据迁移 可以使用mongoexport和mongoimport命令行工具等方式迁移数据。 存储引擎 支持WiredTiger存储引擎。 重启实例或节点 必须通过管理控制台操作重启实例。 查看备份文件 文档数据库服务在对象存储服务上的备份文件,对用户不可见。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        集群快速入门
        使用限制
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • 产品优势
        物理机服务为您提供优质的服务体验,本文带您了解产品优势。 安全稳定 天翼云物理机提供硬件隔离,确保敏感数据物理隔离,避免与其他租户共享计算资源,提供了更高的安全性和隔离性。 性能可靠 用户可以在无虚拟化层的情况下直接访问物理硬件资源,获得更高的性能和更低的延迟。这使用户可以将自己的操作系统、虚拟化软件和应用程序部署到物理机上,获得与传统物理机相似的性能。 高吞吐低时延 结合天翼云全新分布式4.0架构及深度学习智能调度引擎,实现超大规模部署,云网络访问性能带宽最高可达50Gbps,支持高带宽、低时延云存储,满足企业数据库、大数据、容器、HPC、AI等关键业务部署密度和性能诉求。 灵活可控 天翼云物理机允许用户根据需求选择硬件配置、存储选项和网络设置,并根据需要进行动态调整。用户可以定制适合自己业务需求的物理机环境,提供灵活的部署和管理选项。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        产品优势
      • 约束与限制
        本章节主要介绍约束与规范。 在使用翼MapReduce前,您需要认真阅读并了解以下使用规则。 1. 集群必须创建在VPC子网内。 2. 创建集群时,从下拉框中选择已有的安全组。集群创建完成后,请勿随意删除或更改已使用的安全组,否则可能导致集群异常,影响集群的使用。 1. 集群使用的安全组请勿随意放开权限,避免被恶意访问。 2. 创建安全组时,出、入方向规则中的端口需要放开,授权策略不能选择“拒绝”,否则会导致不能部署集群和拉起服务。 3. 部署Hive/Ranger/Amoro/Hue/DolphinScheduler组件时,元数据配置的数据库与集群需要在同一个VPC下,并通过内网地址进行连接。 4. 请根据业务需要规划集群节点的磁盘,如果需要存储大量业务数据,请增加云硬盘数量或存储空间,以防止存储空间不足影响节点正常运行。 5. 集群节点仅用于运行翼MapReduce集群,其他客户端应用程序、用户业务程序建议申请独立弹性云服务器部署。
        来自:
        帮助文档
        翼MapReduce
        产品介绍
        约束与限制
      • 云监控
        您可以根据需要查看并行文件服务的监控数据,本文帮助您了解云监控服务的基本信息。 云监控服务概述 云监控服务是天翼云对云产品资源提供的实时监控和告警的服务。云监控服务提供性能指标监控、自动告警、历史信息查询等功能,默认开通,免费使用,使您全面了解天翼云上的资源使用情况、业务的健康状况,并及时收到异常报警,保证应用程序顺畅运行。 并行文件服务通过云监控服务提供用户侧的监控和告警能力,通过查看文件系统资源使用情况、业务运行状况,通过设置告警规则可以监控文件系统实例异常情况,保证业务正常运行。 并行文件服务开通后自动接入云监控,无需开通。通过云监控查看文件系统的监控数据,您可以了解到文件系统的使用情况。 更多信息,请参见 云监控服务。 数据保留策略 告警历史可以展示近30天所有告警规则的状态变化,帮助您统一、方便地回溯和查看告警记录。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        监控告警
        云监控
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • 数据库命令授权
        本章节为您介绍数据库授权的相关内容。 数据库命令授权是用于拦截数据库会话敏感操作,实现数据库运维操作的细粒度控制。授权用户登录策略关联的数据库资源,当数据库运维会话触发规则,将会拦截数据库会话操作。 数据库命令授权支持以下功能项: 支持按命令组列表排序区分优先级,排序数字越小优先级越高。 支持以下控制命令的动作。 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认允许或默认拒绝。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 约束限制 仅企业版堡垒机支持数据库运维操作审计。 仅针对MySQL、Oracle、Postgresql类型数据库,支持通过数据库命令授权设置操作细粒度控制。 新增命令组 您在新增数据库命令授权前需要进行新增命令组的操作。 1. 使用“管理角色”账户登录云堡垒机系统。 2. 在左侧导航栏选择“授权管理 > 数据库命令授权”,进入“数据库命令授权”页面。 3. 在页面上面选择“命令组”页签,单击“新增”,开始新增命令组。 参数 参数说明 名称 自定义命令组的名称。 动作 选择该命令组中的命令触发时产生的动作: 触发审批:拦截该命令,并自动创建为审批工单。支持审批超时配置,超时xx分钟默认允许或默认拒绝。 说明 对于包含“触发审批”动作的命令组,需要当前选择的用户(组)具有审批规则,否则无法配置“触发审批”动作,请先前往工单管理配置审核人。 断开连接:触发该策略规则后,断开与数据库的连接。 允许执行:默认允许执行所有操作。当触发策略规则后,放行规则集中操作。 SQL命令类型 根据您业务的需求,选择需要进行控制的命令,云堡垒机目前支持选择如下命令: SELECT、INSERT、UPDATE、DELETE、TRUNCATE、CREATE、DROP、ALTER、GRANT、REVOKE、SHOW、DESCRIBE、EXPLAIN、RENAME。 SQL库名 填写命令生效的SQL库名。 SQL表名 填写命令生效的SQL表名。 风险等级 选择该命令组的风险等级,共可选5个等级。 说明 命令匹配上多条策略时,动作执行优先级:触发审批 > 断开连接 > 允许执行,若未匹配上任何策略则放行。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        授权管理
        数据库命令授权
      • 无状态
        数据卷类型 对应k8s中的类型 用途 解释 临时目录 emptyDir 主要用于某些应用程序无需永久保存的临时目录,多个容器的共享目录 当Pod分配到Node上时,将会创建emptyDir,当Pod(不管任何原因)从Node上被删除时,emptyDir也同时会删除,存储的数据也将永久删除。 主机目录 hostPath hostPath允许挂载Node上的文件系统到Pod里面去。如果Pod需要使用Node上的文件,可以使用hostPath。 在使用hostPath volume卷时,即便pod已经被删除了,volume卷中的数据仍在。但是Pod调度到其他节点之后就无法使用这个目录了。 secret secret 用于将敏感信息(如密码)传递给pod 将k8s中的Secret资源对象挂载到Pod中 configMap configMap 用于挂载配置文件到Pod中 将k8s中的ConfigMap资源对象挂载到Pod中 使用已有PVC persistentVolumeClaim 用来挂载持久化磁盘 需要提前创建持久卷声明(PVC) downwardAPI downwardAPI 将Pod的信息挂载到容器中(如上图中将Pod的标签挂载到容器中,并且用”labels”这个文件存储Pod的标签),pod版本号要么不填要么填’v1’ Downward API提供了两种方式用于将POD的信息注入到容器内部,一是此处介绍的Volume挂载,二是下面我们将介绍的环境变量
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        无状态
      • 数据权限管理
        本文介绍数据权限管理功能,使用户可以快速熟悉数据权限管理页面的相关操作,以及如何添加授权、回收权限。 前提条件 用户需要具有进入数据权限管理 页面的菜单权限。菜单权限请参考权限说明。 注意事项 数据权限管理功能仅限企业版。 多次授权同一用户、同一资源、同一权限后,最后一次授权的结果会覆盖之前授权的结果。 不同资源粒度的数据权限管理功能基本相同,本文以库/模式授权为例进行介绍。 操作步骤 1. 点击 数据资产 >实例管理 ,进入实例列表界面。 2. 在列表中找到目标实例,点击列表中 更多 > 数据权限管理 。 查看权限列表 页面上方展示了当前资源的信息,包括库/模式名称、实例信息、管控规则、所属团队、环境。 页面下方展示了当前资源的权限被授予了哪些用户,列表的信息字段及说明如下: 信息字段 说明 用户名 该用户在DMS内的名称。 权限 该用户拥有当前资源的哪些权限,以分号分隔。 开通时间 该用户拥有当前资源的所有权限中,最早的一个权限的开通时间。 到期时间 该用户拥有当前资源的所有权限中,最早的一个权限的到期时间。 操作 包括详情、回收按钮,可查看权限详情、回收权限。 权限列表按照到期时间从早到晚排序,第一条权限信息中包含了最近到期的权限。 查看权限详情 点击权限列表中某个用户的“详情”按钮后,弹出数据权限详情对话框,可以查看该用户拥有当前资源的权限详情。 对话框上方展示了该用户的基本信息,包括用户名、系统角色、手机号码(脱敏后)、邮箱、所属团队。 对话框下方展示了该用户拥有当前资源的哪些权限,列表的信息字段及说明如下: 信息字段 说明 权限 权限的类型,包括查询、DDL、DML、DCL、导出、导入。 权限获取方式 权限的来源,分为数据权限工单、某个用户授权。 开通时间 权限开通的时间。 到期时间 权限到期的时间,权限到期后会自动失效并删除。 所有权限按照到期时间从早到晚排序,第一条权限即最近到期的权限。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        数据权限管理
      • Windows云主机如何配置多用户登录?(Windows 2008)
        本文向您介绍如何配置多用户登录Windows云主机。 操作场景 本文档将指导您配置多用户登录的Windows云主机,以Windows Server 2008标准版R2中文版为例。 说明 远程桌面授权仅支持120天,过期后将因为缺失远程桌面授权服务器许可证而导致多用户登录无法使用,需要重新激活。 配置多用户登录后,如果出现多用户登录Windows主机时无法打开浏览器的问题,解决方法请参考 操作步骤 1. 安装桌面会话主机和远程桌面授权。 (1) 登录Windows云主机。 (2) 在操作系统界面,打开“服务器管理器”,单击“角色>操作>添加角色”。 (3) 跳转至左侧导航栏为“服务器角色”,选择“远程桌面服务”,单击“下一步”。 (4) 保持默认参数,单击“下一步”。 (5) 跳转至左侧导航栏为“角色服务”,依次勾选“远程桌面会话主机”和“远程桌面授权”,单击“下一步”。 (6) 保持默认参数,单击“下一步”。 (7) 跳转至左侧导航栏为“身份验证方法”,指定远程桌面会话主机的身份验证方法,单击“下一步”。本示例选择的是“需要使用网络级别身份验证”,之后单击“下一步”。 (8) 跳转至左侧导航栏为“授权模式”,指定授权模式。本示例选择“以后配置”,之后单击“下一步”。 (9) 跳转至左侧导航栏为“用户组”,选择允许访问此RD会话主机服务器的用户组,单击“下一步”。 (10) 跳转至左侧导航栏为“客户端体验”。本示例选择的是“音频和视频播放”,之后单击“下一步”。 (11) 跳转至左侧导航栏为“RD授权配置”,为RD授权配置搜索范围,配置完成后单击“下一步”。 (12) 单击“安装(I)”。 2. 允许多用户远程连接云主机。 (1) 在运行里输入 gpedit.msc,打开计算机本地组策略。 (2) 选择“计算机配置>管理模板>windows组件>远程桌面服务>远程桌面会话主机>连接”。设置“允许用户通过使用远程桌面服务进行远程连接”、“限制连接数量”和“将远程桌面服务用户限制到单独的远程桌面”。 (3) 选中“允许用户使用远程桌面服务进行远程连接”,右键单击“编辑”,将其设置为已启用。 (4) 选中“限制连接数量”,右键单击“编辑”,选择已启用,可根据具体数量设置,本示例设置允许的RD最大连接数为999。 (5) 选中“将远程桌面服务用户限制到单独的远程桌面服务会话”,右键单击“编辑”,选择已启用,或者已禁用。本示例以勾选“已启用”为例。 说明 请注意此处已启用和已禁用的区别: l 已启用:允许多个用户同时登录,不能单个用户同时多人登录。 例如:配置为已启用,用户A、用户B、用户C可以分别使用账号A、账号B、账号C同时登录云主机,但是用户A、用户B、用户C无法使用同一账号同时登录云主机。 l 已禁用:允许单个用户同时多人登录。 例如:配置为已禁用,用户A、用户B、用户C可以使用同一个账号同时登录云主机。 (6) 运行cmd,输入 gpupdate /force,强制执行本地组策略,重启服务器,整个配置过程完成。 3. 配置新用户并加入远程桌面用户组。 (1) 在运行中输入 lusrmgr.msc,打开本地用户和组,进行新用户创建。 (2) 单击“用户”,在空白处右键选择新用户。 (3) 填写新用户信息,单击“创建”。 (4) 单击“组”,双击打开Remote Desktop Users 单击“添加”。 (5) 进入选择用户界面,单击“高级”。 (6) 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 (7) 单击“确定”,添加用户Remote Desktop Users组。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        多用户登录
        Windows云主机如何配置多用户登录?(Windows 2008)
      • 配置HDFS连接
        本章节主要介绍数据治理中心的配置HDFS连接功能。 目前CDM支持连接的HDFS数据源有以下几种: MRS HDFS FusionInsight HDFS Apache HDFS MRS HDFS 连接MRS上的HDFS数据源时,相关参数详见表MRS上的HDFS连接参数。 说明 新建MRS连接前,需在MRS中添加一个kerberos认证用户并登录MRS管理页面更新其初始密码,然后使用该新建用户创建MRS连接。 如需连接MRS 2.x版本的集群,请先创建2.x版本的CDM集群。CDM 1.8.x版本的集群无法连接MRS 2.x版本的集群。 需确保MRS集群和DataArts Studio实例之间网络互通,网络互通需满足如下条件: DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群处于不同区域的情况下,需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP,MRS集群可以访问公网且防火墙规则已开放连接端口。 DataArts Studio实例(指DataArts Studio实例中的CDM集群)与MRS集群同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但子网或安全组不同,还需配置路由规则及安全组规则,配置路由规则请参见 Type Ⅰ)> 添加路由信息”章节,配置安全组规则请参见 > 添加安全组规则”章节。 此外,还需确保该MRS集群与DataArts Studio工作空间所属的企业项目相同,如果不同,您需要修改工作空间的企业项目。 详见下表:MRS上的HDFS连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mrshdfslink Manager IP MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 127.0.0.1 用户名 选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”和“密码”填写为新建的MRS用户及其密码。 说明 如果CDM集群为2.9.0版本及之后版本,且MRS集群为3.1.0及之后版本,则所创建的用户至少需具备Managerviewer的角色权限才能在CDM创建连接;如果需要对MRS组件的库、表、列进行操作,还需要参考MRS文档添加对应组件的库、表、列操作权限。 如果CDM集群为2.9.0之前的版本,或MRS集群为3.1.0之前的版本,则所创建的用户需要具备Manageradministrator或Systemadministrator权限,才能在CDM创建连接。 仅具备Managertenant或Managerauditor权限,无法创建连接。 cdm 密码 访问MRS Manager的用户密码。 认证类型 访问MRS的认证类型: SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 SIMPLE 运行模式 选择HDFS连接的运行模式: EMBEDDED:连接实例与CDM运行在一起,该模式性能较好。 STANDALONE:连接实例运行在独立进程。如果CDM需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式或者配置不同的Agent。 说明 STANDALONE模式主要是用来解决版本冲突问题的运行模式。当同一种数据连接的源端或者目的端连接器的版本不一致时,存在jar包冲突的情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 Agent:连接实例运行在Agent上。 若不使用AGENT运行模式,且在一个CDM中同时连接两个及以上开启Kerberos认证且realm相同的集群,只能使用EMBEDDED运行模式连接其中一个集群,其余需使用STANDALONE。 STANDALONE Agent 单击“选择”,选择连接Agent中已创建的Agent。运行模式选择Agent时显示此参数。 是否使用集群配置 您可以通过使用集群配置,简化Hadoop连接参数配置。 否 集群配置名 仅当“是否使用集群配置”为“是”时,此参数有效。此参数用于选择用户已经创建好的集群配置。 hdfs01 单击“显示高级属性”,然后单击“添加”,您可以添加客户端的配置属性。所添加的每个属性需配置属性名称和值。对于不再需要的属性,可单击属性后的“删除”按钮进行删除。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置HDFS连接
      • 网关访问保留源IP
        本节主要介绍网关访问保留源IP 操作场景 服务通过网关访问时,默认情况下,目标容器中看到的不是客户端的源IP,如果需要保留源IP,请参考本节指导操作。 配置方法 请在CCE控制台“服务发现”页面,istiosystem命名空间下,更新服务所关联的网关服务,将服务亲和改成“节点级别”。前提是已开启ELB的获取客户端IP功能(当前为默认开启)。 externalTrafficPolicy:表示此Service是否希望将外部流量路由到节点本地或集群范围的端点。有两个可用选项:Cluster(默认)和Local。Cluster隐藏了客户端IP,可能导致第二跳到另一个节点,但具有良好的整体负载分布。Local保留客户端源IP并避免LoadBalancer和NodePort类型服务的第二跳,但存在潜在的不均衡流量传播风险。 验证方式 结合httpbin镜像在“xforwardfor”字段中可以看到源IP,httpbin是一个HTTP Request & Response Service,可以向他发送请求,他将会按照指定的规则将请求返回。httpbin镜像可在SWR中搜索。使用httpbin镜像进行验证时请确保集群已开通网格。 1. 登录ASM应用服务网格控制台,选择一个可用的测试网格并单击进入。 2. 选择左侧“网格配置”查看其关联的集群。 3. 单击集群名称进入集群详情页,单击对应集群右上角第三个图标“工作负载”进入“工作负载”页签。 4. 配置工作负载的信息。 5. 单击右下角“确定”完成服务创建。 6. 单击右下角“创建工作负载”完成工作负载创建。 7. 在集群详情页选择左侧“服务发现”页签,可在服务列表中查看到所创建的httpbin服务。 8. 返回ASM应用服务网格,选择左侧“服务管理”页签,在服务管理中可查看到httpbin的配置诊断显示为异常。 9. 单击此服务配置诊断中的“处理”按钮,按照弹出“配置诊断”页面对应的修复指导进行修复。 10. 选择左侧“网关管理”页签,单击右上角“添加网关”,在弹出“添加网关”页面输入配置信息。 11. 单击“确定”完成网关添加。 12. 选择左侧“服务管理”页签,可以在“访问地址”查看到所创建路由的外部访问地址。 13. 单击之前添加路由时设置映射的外部访问地址,可以在“xforwardfor”字段中查看网关获取的IP为容器段IP。 14. 返回集群详情页,选择左侧导航栏“服务发现”,更改服务所关联的网关服务的配置。方法如下: 下拉上方“命名空间”列表选择“istiosystem”。 展开服务后方“更多”选项,单击“更新”,在弹出“更新服务”页面将“服务亲和”更改为“节点级别”,单击“确定”。 15. 返回13中访问的外部地址并刷新,若设置之后“xforwardfor”字段中显示的网关获取IP的结果为本机源IP,则完成验证。
        来自:
        帮助文档
        应用服务网格
        最佳实践
        网关访问保留源IP
      • Llama3-70B-Instruct
        版本列表 版本列表 版本说明 Llama370BInstruct Llama370BInstruc模型是Meta Llama 3 系列大型语言模型指令调优版本模型之一,针对对话用例进行了优化,在常见的行业基准上优于许多可用的开源聊天模型。 相关资源及引用 相关资源 许可证 定制:商业许可证可在以下网址获得:License 有关模型的问题、评论及反馈,请参阅模型自述文件。 有关生成参数和如何在应用程序中使用Llama3的更多技术信息,请访问此处。 相关引用 如对您有帮助,欢迎引用。 @article{llama3modelcard, title{Llama 3 Model Card}, author{AI@Meta}, year{2024}, url { } 免责声明 Llama370BInstruct模型,来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        一站式智算服务平台
        模型简介
        Llama3-70B-Instruct
      • Windows客户端安装
        Windows Installer服务被禁用解决办法 方法一: 用鼠标右键点击【计算机】,再单击下拉菜单中的【管理】; 在【计算机管理】的界面里单击【服务和应用程序】; 单击【服务】; 找到并点击【Windows Installer】,再点击【启动】生效该服务。 方法二: (1)鼠标右键点击【开始】菜单,并单击【运行】; (2)【运行】中输入【services.msc】,最后点击【确定】; (3)找到并点击【Windows Installer】,再点击【启动】生效该服务。 提示“系统盘容量不足”怎么办? 请查看本地计算机系统盘(Windows系统下一般默认为C盘)剩余空间情况,建议彻底删除垃圾文件或将文件迁移到其他磁盘,以释放系统盘空间,确保其剩余容量大于600M。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南
        Windows客户端安装
      • 添加SRV类型记录集
        参数 说明 取值样例 主机记录 SRV主机记录格式:服务的名字.协议的类型,协议通常为TCP或UDP,服务为应用层服务名,如FTP/SIP等。 ftp.tcp表示通过TCP协议提供FTP服务。 类型 记录集的类型,此处为SRV类型。添加记录集时,如果提示解析记录集已经存在,说明待添加的记录集与已有的记录集存在限制关系或者冲突。 SRV – 记录提供特定服务的服务器 TTL 必填项,默认选择5分钟。 TTL规格共四种:5分钟、1小时、12小时、1天(24小时),对应TTL值为5分钟(60s),1小(3600s),12小时(43200s),1天(86400s)TTL指解析记录在本地DNS服务器的缓存时间。如果您的服务地址经常更换,建议TTL值设置相对小些,反之,建议设置相对大些。 300 值 SRV记录:填写指定服务的服务器地址,最多可以输入8个不重复地址,每行一个。格式:[优先级] [权重] [端口号] [目标地址] 3 0 2176 xmppserver.example.com 描述 选填字段,最多支持输入100个字符。
        来自:
        帮助文档
        内网DNS
        用户指南
        解析记录管理
        创建解析记录
        添加SRV类型记录集
      • 通过Go客户端接入Elasticsearch实例
        本文为您介绍如何通过Go客户端接入天翼云云搜索Elasticsearch实例。 概述 Go客户端(elasticsearchgo)是Elasticsearch官方提供的Golang库,适用于构建高性能的应用程序。它提供了与Elasticsearch实例进行交互的完整 API,支持索引创建、数据查询等操作。 前提条件 已开通天翼云云搜索服务Elasticsearch实例。 实例已绑定公网IP,具体可参考“实例公网访问”章节。 已安装Go语言开发环境。 已安装Elasticsearch官方Go客户端库。 操作步骤 安装 Go 客户端库: go get github.com/elastic/goelasticsearch/v7 使用以下代码连接到 Elasticsearch实例: package main import ( "context" "fmt" "log" "github.com/elastic/goelasticsearch/v7" ) func main() { // 创建Elasticsearch客户端 es, err : elasticsearch.NewClient(elasticsearch.Config{ Addresses: []string{" Username: " ", Password: " ", }) if err ! nil { log.Fatalf("Error creating the client: %s", err) } // 创建索引 res, err : es.Indices.Create("myindex") if err ! nil { log.Fatalf("Error creating index: %s", err) } fmt.Println(res) } host:集群绑定的公网 IP。 user:Elasticsearch 集群用户名,例如 admin。 password:用户密码,例如 admin 用户的密码。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        访问Elasticsearch实例
        通过Go客户端接入Elasticsearch实例
      • 使用须知
        本节说明了客户在使用智能边缘云需要明确注意的事项 节点资源差异 不同的边缘节点存在资源差异,包括但不限于云硬盘、本地盘、本地裸盘的资源服务能力,GPU卡的资源服务能力,裸金属的资源服务能力。 本地硬盘可提供的规格大小根据宿主机型号不同而不同,不同资源节点宿主机型号也可能存在差异。 不同资源节点可提供的虚拟机、裸金属规格可能存在差异。 节点可用性 ECX的服务可用性(SLA)不低于99.9%,详情请参见[[服务等级协议]](/portal/protocol/10012558)。 以下原因所导致的服务不可用时间,不在计算范围内: 中国电信预先通知客户后进行系统维护所引起的,包括割接、维修、升级和模拟故障演练。 任何中国电信所属设备以外的网络、设备故障或配置调整引起的。 客户的应用程序受到黑客攻击而引起的。 客户维护不当或保密不当致使数据、口令、密码等丢失或泄漏所引起的。 客户的疏忽或由客户授权的操作所引起的。 客户未遵循中国电信产品使用文档或使用建议引起的。 不可抗力引起的。
        来自:
        帮助文档
        智能边缘云
        产品简介
        使用须知
      • 产品定义
        本文主要介绍天翼云分布式消息服务RabbitMQ的产品定义。 天翼云分布式消息服务RabbitMQ完全兼容开源RabbitMQ,为您提供即开即用、消息特性丰富、灵活路由、高可用、监控和告警等特性,广泛应用于秒杀、流控、系统解耦等场景。 即开即用 天翼云分布式消息服务RabbitMQ提供单机和集群的消息实例,拥有丰富内存规格,您可以通过控制台直接下单购买并创建,无需单独准备服务器资源。 消息特性丰富 支持AMQP协议,支持普通消息、广播消息、死信、延迟消息等特性。 灵活路由 在RabbitMQ中,生产者将消息发送到交换器,由交换器将消息路由到队列中。交换器支持Direct、Topic、Headers和Fanout四种路由方式,同时支持交换机组合和自定义。 高可用 RabbitMQ集群提供镜像队列,可通过镜像在其他节点同步数据,单节点宕机时,仍可通过唯一的访问地址对外提供服务,数据不丢失。 监控和告警 支持对RabbitMQ实例状态进行监控,支持对集群每个代理的内存、CPU、网络流量等进行监控。如果集群或节点状态异常,将触发告警。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        产品定义
      • 使用限制
        操作 使用限制 访问实例 若文档数据库实例未开通公网访问,则必须与弹性云主机在同一个虚拟私有云子网内才能访问。 文档数据库服务和弹性云主机在不同的安全组默认不能访问,需要在文档数据库服务安全组添加一条“入”的访问规则。文档数据库服务默认端口:8635,需要手动修改才能访问其它端口。 部署 实例所部署的弹性云主机,对用户不可见,即只允许应用程序通过IP地址和端口访问数据库。 数据库的rwuser权限 创建实例页面只提供管理员帐户rwuser权限。 修改数据库参数设置 用户创建的参数组中大部分数据库参数可以修改。 数据迁移 可以使用mongoexport和mongoimport命令行工具等方式迁移数据,具体请参见 存储引擎 支持WiredTiger存储引擎。 重启实例或节点 必须通过管理控制台操作重启实例。 查看备份文件 文档数据库服务在对象存储服务上的备份文件,对用户不可见。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        副本集快速入门
        使用限制
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • 用户须知
        为了保证翼加密的正常使用,在使用之前,请您务必认真阅读以下注意事项。 客户端兼容性 (1)翼加密支持的Windows镜像版本是server 2016,暂不支持server 2008及win7操作系统版本。 (2)如果您的AI云电脑需要安装杀毒软件,建议使用“火绒”杀毒软件。 注意:翼加密目前不兼容腾讯电脑管家、非最新版本的360卫士以及其他第三方杀毒软件。使用这类杀毒软件可能会造成加密文件无法正常读写等问题。 加密规则和使用说明 透明加密&落盘加密 加密AI云电脑内传输、下载、编辑保存的符合加密策略的文件会被自动加密。加密全程无感知,不影响员工正常办公。 在AI云电脑内可正常打开已加密文件,在AI云电脑外打开是乱码。 同租户内加密文件互通 加密文件只要满足密级权限要求,在同租户下的加密AI云电脑可以互通,明文读写。外发到非加密的外部电脑打开为密文数据。如需外发请通过翼加密客户端提交脱密申请。 部分预览功能可能会被影响 浏览器、邮箱、OA办公或IM软件等的预览功能可能存在无法正常预览加密文件的情况。因为这些软件的预览功能一般是下载到本地后打开预览。文件下载后会被自动落盘加密,故无法正常打开。加密文件仅可以被加密策略中配置的相关应用程序明文打开。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        用户须知
      • 纳管节点
        前提条件 支持纳管符合如下条件的云主机: 待纳管节点必须状态为“运行中”,未被其他集群所使用,且不携带 CCE 专属节点标签CCEDynamicProvisioningNode。 待纳管节点需与集群在同一虚拟私有云内(若集群版本低于1.13.10,纳管节点还需要与CCE集群在同一子网内)。 待纳管节点需挂载数据盘,数据盘需满足至少有1块,容量不少于100GB。关于节点挂载数据盘的操作说明,请参考新增磁盘。 待纳管节点规格要求:CPU必须2核及以上,内存必须4GB及以上,网卡有且仅能有一个。 如果使用了企业项目,则待纳管节点需要和集群在同一企业项目下,不然在纳管时会识别不到资源,导致无法纳管。 批量纳管仅支持添加相同规格、相同可用区、相同数据盘配置的云主机。 操作步骤 步骤 1 登录CCE控制台,进入要纳管节点的集群。 步骤 2 在左侧列表中选择节点管理,单击右上角纳管节点。 步骤 3 配置节点参数。 计算配置 表 计算配置参数 参数 参数说明 节点规格 单击添加已有云主机,选择要纳管的服务器。 可以选择多台云主机批量纳管,但批量纳管仅支持添加相同规格、相同可用区、相同数据盘配置的云主机。 如果云主机有多块数据盘,需要选择其中一块作为供容器运行时和Kubelet组件使用。 容器引擎 CCE集群支持Docker。 操作系统 公共镜像:请选择节点对应的操作系统。 登录方式 密码 用户名默认为“root”,请输入登录节点的密码,并确认密码。登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 密钥对选择用于登录本节点的密钥对,支持选择共享密钥。密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 存储配置 配置节点云主机上的存储资源,方便节点上的容器软件与容器应用使用。 表 存储配置参数 参数 参数说明 系统盘 直接使用云主机的系统盘。 数据盘 至少需要一块数据盘 ,供容器运行时和Kubelet组件使用,该数据盘不能被删除卸载,否则会导致节点不可用。 单击后方的“展开高级设置”可设置自定义空间分配:勾选后可定义容器运行时在数据盘上占用的空间比例,容器运行时的空间用于存放容器运行时工作目录、容器镜像数据以及镜像元数据。数据盘空间分配详细说明请参见数据盘空间分配说明。 其他数据盘默认情况直接创建为裸盘,不做任何处理。您也可以展开高级配置,将磁盘挂载到指定目录。另外还可以作为持久存储卷或临时存储卷,具体使用请参见本地持久存储卷和临时存储卷。 高级配置 表 高级配置参数 参数 参数说明 K8S标签 单击“添加标签”可以设置附加到Kubernetes 对象(比如Pods)上的键值对,最多可以添加10条标签使用该标签可区分不同节点, 可结合工作负载的亲和能力实现容器Pod调度到指定节点的功能。 详细请参见Labels and Selectors。 资源标签 通过为资源添加标签,可以对资源进行自定义标记,实现资源的分类。 CCE服务会自动帮您创建CCEDynamicProvisioningNode节点id的标签。 污点(Taints) 默认为空。 支持给节点加Taints来设置反亲和性,每个节点最多配置10条Taints,每条Taints包含以下3个参数: Key:必须以字母或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符;另外可以使用DNS子域作为前缀。 Value:必须以字符或数字开头,可以包含字母、数字、连字符、下划线和点,最长63个字符。 Effect:只可选NoSchedule,PreferNoSchedule或NoExecute。须知l Taints配置时需要配合Pod的toleration使用,否则可能导致扩容失败或者Pod无法调度到扩容节点。 节点池创建后可单击列表项的“编辑”修改配置,修改后将同步到节点池下的已有节点。 最大实例数 节点最大可以正常运行的实例数(Pod),该数量包含系统默认实例,取值范围为16~256。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 安装前执行脚本 请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。 安装后执行脚本 请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。 步骤 4 单击“下一步:规格确认”,确认已阅读并知晓服务协议,并单击“提交”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        节点管理
        纳管节点
      • 1
      • ...
      • 276
      • 277
      • 278
      • 279
      • 280
      • ...
      • 351
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      产品价格

      云课堂 第十三课:如何远程管理天翼云RDS数据库

      云安备信息查看

      全面了解天翼云③:Linux云主机配置snat

      代金券使用后是否可以退换?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号