活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      EasyCoding敏捷开发平台_相关内容
      • 续费与退订
        本节介绍云下一代防火墙续费与退订。 云下一代防火墙支持续订,续订内容包含规格续订和功能续订,续订时间与订购计费模式一致,以包年/包月(预付费)方式进行,仅支持续订一个月时长。 注意 根据业务调整,云下一代防火墙已限制续订,单次续订只能选择1个月。 续订 1.用户需登录至官网,选择“产品 > 安全及管理 > 云下一代防火墙”,进入云下一代防火墙的产品页面。 2.单击“管理控制台”,进入云下一代防火墙实例管理页面。 2.勾选“我已阅读,理解并同意《云下一代防火墙》”,单击“确定”后进入支付页面,支付后等待订单完成即可。 说明 系统会提前1个月进行产品续订的提示; 云下一代防火墙建议最少提前3个工作日进行续订申请; 用户可通过登录天翼云官网或者拨打天翼云客服电话4008109889,由客服指导操作进行续订,在支付完服务费用之后即可申请续订天翼云平台【云下一代防火墙安全产品】服务。
        来自:
        帮助文档
        云下一代防火墙
        计费说明
        续费与退订
      • 步骤二:创建RabbitMQ实例
        本章节主要介绍如何创建分布式消息服务RabbitMQ实例。 RabbitMQ是一款基于AMQP协议的开源服务,用于在分布式系统中存储转发消息,服务器端用Erlang语言(支持高并发、分布式以及健壮的容错能力等特点)编写,支持多种语言的客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP、AJAX等。 AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层的一个开放标准协议。 前提条件 在创建RabbitMQ专享版实例前,需要保证存在可使用的虚拟私有云。创建虚拟私有云的方法,请参考《虚拟私有云用户指南》。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 为RabbitMQ授权 如果RabbitMQ实例需要开启IPv6功能,在创建实例前,需要授予RabbitMQ操作VPC终端节点的权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess 操作步骤 步骤1 登录管理控制台。 步骤2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的应用服务相同的区域。 步骤3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务>RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤4 单击页面右上方的“购买RabbitMQ实例”。 每个项目默认最多可以创建100个RabbitMQ专享版实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤6 设置“实例名称”和“企业项目”。 步骤7 设置实例信息。 1. 版本:RabbitMQ的版本号,当前仅支持3.8.35。 2. 实例类型:支持“单机”和“集群”。 单机:表示部署一个RabbitMQ代理。 集群:表示部署多个RabbitMQ代理,实现高可靠的消息存储。 3. 鲲鹏实例:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 4. 规格:根据实际情况选择规格。 说明 为了保证服务的稳定可靠,RabbitMQ采用了默认的40%高水位配置。当内存占用率到达40%高水位后,会触发流控,生产者发送消息会被阻塞。为了避免高水位的产生,请及时消费积压在队列中的消息。 5. 代理个数:根据实例情况选择代理个数。 6. 存储空间:选择RabbitMQ实例的磁盘类型和存储空间总量。 单机实例的取值范围:100GB ~ 30000GB 集群实例的取值范围为:100GB 代理数 ~ 30000GB 代理数 7. 虚拟私有云:选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的RabbitMQ专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在RabbitMQ实例创建完成后,不支持修改。 子网开启IPv6后,RabbitMQ实例支持IPv6功能。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 8. 安全组:在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对弹性云主机的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。 您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 图1 设置实例信息 步骤8 设置连接RabbitMQ实例的用户名和密码。 步骤9 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤10 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 您可以选择是否打开公网访问开关。 如果选择了开启,表示访问RabbitMQ实例可以通过弹性IP访问。这时页面会显示“弹性IP地址”,在“弹性IP地址”区域,您可下拉选择已有的弹性IP。另外,您可单击右侧的“创建弹性IP”,跳转到网络控制台的弹性IP页面,购买弹性IP。 图2 购买RabbitMQ实例时公网访问设置 说明 公网访问与VPC内访问相比,可能存在网络丢包和抖动等情况,且访问时延有所增加,因此建议仅在业务开发测试阶段开启公网访问进行调试。 如果用户在虚拟私有云的服务页面手动解绑定或删除EIP,相应RabbitMQ实例的公网访问功能会自动关闭。 2. 设置“SSL”。 客户端连接实例时SSL认证的开关。开启SSL,则数据加密传输,安全性更高。 SSL开关在实例创建完成后不支持修改,请明确是否需要开启 。 3. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击右侧的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个RabbitMQ实例最多支持设置20个不同标签。 4. 设置实例的描述信息。 步骤11 填写完上述信息后,单击“立即购买”,进入“规格确认”页面。 步骤12 确认实例信息无误且阅读并同意《分布式消息服务RabbitMQ服务等级协议》、《天翼云分布式消息服务协议》后,提交请求。 步骤13 在实例列表页面查看实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的RabbitMQ实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤二:创建RabbitMQ实例
      • GDS实践指南
        本章节主要介绍GDS最佳实践。 安装GDS前必需确认GDS所在服务器环境的系统参数是否和数据库集群的系统参数一致。 GDS与DWS通信要求物理网络畅通,尽量使用万兆网。因为千兆网无法承载高速的数据传输压力,极易出现断连,使用千兆网时DWS无法提供通信保障。满足万兆网的同时,要求数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s),才能保证单文件导入速率最大化。 提前做好服务部署规划,数据服务器上,建议一个Raid只布1~2个GDS。GDS跟DN的数据比例建议在1:3至1:6之间。一台加载机的GDS进程不宜部署太多,千兆网卡部署1个GDS进程即可,万兆网卡机器建议部署不大于4个进程。 提前对GDS导入导出的数据目录做好层次划分,避免一个数据目录包含过多的文件,并及时清理过期文件。 合理规划目标数据库的字符集,强烈建议使用UTF8作为数据库的字符集,不建议使用sqlascii编码,因为极易引起混合编码问题。GDS导出时保证外表的字符集和客户端字符集一致即可,导入时保证客户端编码,数据文件内容编码和客户端一致。 如果存在无法变更数据库,客户端,外表字符集时,可以尝试使用iconv命令进行手动转换。 注意 f 表示源文件的字符集,t为目标字符集 iconv f utf8 t gbk utf8.txt o gbk.txt 关于GDS导入实践可参考“导入数据最佳实践”章节中的“使用GDS导入数据”。 GDS支持CSV、TEXT、FIXED三种格式,缺省为TEXT格式。不支持二进制格式,但是可以使用encode/decode函数处理二进制类型。例如: 对二进制表导出: 创建表。 CREATE TABLE blobtypet1 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet1( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ) WRITE ONLY; INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO fblobtypet1 select encode(BTCOL,'base64') from blobtypet1; 对二进制表导入: 创建表。 CREATE TABLE blobtypet2 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet2( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/fblobtypet1.dat.0', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ); insert into blobtypet2 select decode(BTCOL,'base64') from fblobtypet2; SELECT FROM blobtypet2; btcol xdeadbeef xdeadbeef xdeadbeef xdeadbeef (4 rows) 对同一张外表重复导出会覆盖之前的文件,因此不要对同一个外表重复导出。 若不确定文件是否为标准的csv格式,推荐将quote参数设置为0x07,0x08或0x1b等不可见字符来进行GDS导入导出,避免文件格式问题导致任务失败。 CREATE FOREIGN TABLE foreignHRstaffSft1 ( MANAGERID NUMBER(6), sectionID NUMBER(4) ) SERVER gsmppserver OPTIONS (location 'file:///inputdata/', format 'csv', mode 'private', quote '0x07', delimiter ',') WITH errHRstaffSft1; GDS支持并发导入导出,gds t参数用于设置gds的工作线程池大小,控制并发场景下同时工作的工作线程数且不会加速单个sql任务。gds t缺省值为8,上限值为200。在使用管道功能进行导入导出时,t参数应不低于业务并发数。 GDS外表参数delimiter是多字符时,建议TEXT格式下字符不要完全相同,例如不建议使用delimiter ''。 GDS多表并行导入同一个文件提升导入性能(仅支持text和csv文件)。 创建目标表。 CREATE TABLE pipegdswidetb1 (city integer, telnum varchar(16), cardcode varchar(15), phonecode vcreate table pipegdswidetb3 (city integer, telnum varchar(16), cardcode varchar(15), phonecode varchar(16), regioncode varchar(6), stationid varchar(10), tmsi varchar(20), recdate integer(6), rectime integer(6), rectype numeric(2), switchid varchar(15), attachcity varchar(6), opc varchar(20), dpc varchar(20)); 创建带有filesequence字段的外表。 CREATE FOREIGN TABLE gdspipcsvr1( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '51'); CREATE FOREIGN TABLE gdspipcsvr2( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '52'); CREATE FOREIGN TABLE gdspipcsvr3( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '53'); CREATE FOREIGN TABLE gdspipcsvr4( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '54'); CREATE FOREIGN TABLE gdspipcsvr5( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '55'); 将widetb.txt并发导入到pipegdswidetb1。 parallel on INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr1; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr2; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr3; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr4; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr5; parallel off filesequence参数详细内容,可参考《开发指南》中的“CREATE FOREIGN TABLE (GDS导入导出)”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        GDS实践指南
      • 知识库问答
        本文介绍知识库问答内容。 接口描述 依据知识库与大模型进行对话问答 请求方法 POST 接口要求 无 URI /openapi/v1/rag/talk 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json Accept 否 String 设置开启接收ServerSent Events (SSE) 格式的流式响应 text/eventstream tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 text 是 String 问题的文本内容 infobaseIds 否 Array[String] 通用知识库ID列表 customBaseIds 否 Array[String] 自定义知识库ID列表 modelId 是 String 模型ID contextId 否 String 上一轮会话的ID,需要多轮对话时使用 searchEnable 否 Boolean 是否开启联网搜索 index 否 Boolean 是否输出文档索引引用标签 prompt 否 String 用户自定义输入的prompt 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "Accept: text/eventstream" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "text": "总结下文档内容", "infobaseIds": [123456789, 987654321], "modelId": "d5f09a41d4584715a5d94a4892411c0f", "searchEnable": false, "index": true, "prompt": "请依据文档内容进行回答,不得使用超出文档内容的知识;n 确保您的回答既精确又实用且忠实于原文,同时覆盖所有相关的要点,以满足用户的查询需求;n 要求语句通顺,条理清晰,易于阅读;n 请不要随意发散,尽量以原文档内容输出;n 对于包含多个子问题的问题,请回答每一个子问题,不要遗漏问题; n下面是文档信息:n{chunks}n问题为:{question}n开始回答:n" }' 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 code Int 0表示成功 0 message String 返回success success result Object 对话结果 result表 result表 参数 参数类型 说明 示例 下级对象 input String 对话输入文本 介绍下定积分 output String 对话输出文本 定积分是一种.... contextId String 此轮对话的ID finishState String 会话状态 状态取值:start(开始)/continued(生成中)/stop(正常结束)/interrupt(中断) stop inferSource Array[Object] 拼入模型prompt的参考文档信息。请求体参数index为false时生效 inferSource对象 indexInfo Array[Object] 模型回复的参考引用片段。请求体参数index为true时生效 indexInfo对象 indexInfo表 参数 参数类型 说明 示例 下级对象 indexId int 引用下标 1 subTitle String 子标题 docTitlec String 文档标题 文档.doc docTitle String 来源 Knowledge content String 引用片段内容 fileName String 引用文档名称 文档.doc fileId String 引用文档id 133 inferSource表 参数 参数类型 说明 示例 下级对象 fileName String 检索到的参考文档名称 文档.doc fileId String 检索到的参考文档id 133 fileType String 文档类型 doc contentText String 参考文档的内容 score Float 参考文档和用户输入的相关性分数,取值[01] 0.33 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 该接口为SSE接口,返回值为流式返回,返回时ContentType为text/eventstream。 1.请求成功返回值示例(关闭引用开关indexfalse) plaintext data:{ 'statusCode': 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": " n好的,我现在需要处理用户的问题:“水泥的国标”。首先。。。", "finishState": "stop", "contextId": "2f963a77e58b467ead9223ddf2e4015b", "inferSource": [ { "fileName": "筑府办函xx号附件.wps", "fileId": 32432, "fileType": "doc", "contentText": "xxx", "score": 0.37754068 } ], "indexInfo": [] }, "details": null } } 2.请求成功返回值示例(开启引用开关indextrue) plaintext data:{ "statusCode": 200, "error": null, "message": "Success", "returnObj": { "code": 0, "message": "success", "result": { "input": "水泥的国标", "output": "根据提供的文档内容,水泥的参考标准为GB 16780[[1]]。。。", "finishState": "stop", "contextId": "bcca2bb95b454d41b9b878a24659b3d5", "inferSource": [], "indexInfo": [ { "indexId": 1, "subTitle": "", "docTitle": "筑府办函xx号附件.wps", "from": "Knowledge", "content": "xxx", "fileName": "筑府办函xx号附件.wps", "fileId": 32432 } ] }, "details": null } } 3.请求失败返回值示例 plaintext data:{ "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40013 对话出现异常 无法进行正常交互
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库问答
      • Volcano调度器
        本文主要介绍Volcano调度器。 插件简介 Volcano调度器是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。(目前Volcano项目已经在Github开源) Volcano针对计算型应用提供了作业调度、作业管理、队列管理等多项功能,主要特性包括: 丰富的计算框架支持:通过CRD提供了批量计算任务的通用API,通过提供丰富的插件及作业生命周期高级管理,支持TensorFlow,MPI,Spark等计算框架容器化运行在Kubernetes上。 高级调度:面向批量计算、高性能计算场景提供丰富的高级调度能力,包括成组调度,优先级抢占、装箱、资源预留、任务拓扑关系等。 队列管理:支持分队列调度,提供队列优先级、多级队列等复杂任务调度能力。 项目开源地址: 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 Volcano ,单击“安装”。 步骤 2 该插件可配置“单实例”、“高可用”或自定义规格。 选择自定义时,volcanocontroller和volcanoscheduler的建议值如下: 小于100个节点,可使用默认配置,即CPU的申请值为500m,限制值为2000m;内存的申请值为500Mi,限制值为2000Mi。 高于100个节点,每增加100个节点(10000个Pod),建议CPU的申请值增加500m,内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 volcanocontroller和volcanoscheduler的建议值 节点/Pods规模 CPU Request(m) CPU Limit(m) Memory Request(Mi) Memory Limit(Mi) 50/5k 500 2000 500 2000 100/1w 1000 2500 1500 2500 200/2w 1500 3000 2500 3500 300/3w 2000 3500 3500 4500 400/4w 2500 4000 4500 5500 步骤 3 配置volcano默认调度器配置参数。 cacert: '' defaultschedulerconf: actions: 'allocate, backfill' tiers: plugins: name: 'priority' name: 'gang' name: 'conformance' plugins: name: 'drf' name: 'predicates' name: 'nodeorder' plugins: name: 'ccegputopologypredicate' name: 'ccegputopologypriority' name: 'ccegpu' plugins: name: 'nodelocalvolume' name: 'nodeemptydirvolume' name: 'nodeCSIscheduling' name: 'networkresource' servercert: '' serverkey: '' 插件 功能 参数说明 用法演示 binpack 将pod调度到资源使用较高的节点以减少资源碎片 binpack.weight:binpack插件本身在所有插件打分中的权重 binpack.cpu:cpu资源在资源比重的比例,默认是1 binpack.memory:memory资源在所有资源中的比例,默认是1l binpack.resources: plugins: name: binpack arguments: binpack.weight: 10 binpack.cpu: 1 binpack.memory: 1 binpack.resources: nvidia.com/gpu, example.com/foo binpack.resources.nvidia.com/gpu: 2 binpack.resources.example.com/foo: 3 conformance 跳过关键Pod,比如在kubesystem命名空间的Pod,防止这些Pod被驱逐 gang 将一组pod看做一个整体去分配资源 priority 使用用户自定义负载的优先级进行调度 overcommit 将集群的资源放到一定倍数后调度,提高负载入队效率。负载都是deployment的时候,建议去掉此插件或者设置扩大因子为2.0。 overcommitfactor: 扩大因子,默认是1.2 plugins: name: overcommit arguments: overcommitfactor: 2.0 drf 根据作业使用的主导资源份额进行调度,用的越少的优先 predicates 预选节点的常用算法,包括节点亲和,pod亲和,污点容忍,node ports重复,volume limits,volume zone匹配等一系列基础算法 nodeorder 优选节点的常用算法 nodeaffinity.weight:节点亲和性优先调度,默认值是1 podaffinity.weight:pod亲和性优先调度,默认值是1 leastrequested.weight:资源分配最少的的节点优先,默认值是1 balancedresource.weight:node上面的不同资源分配平衡的优先,默认值是1 mostrequested.weight:资源分配最多的的节点优先,默认值是0 tainttoleration.weight:污点容忍高的优先调度,默认值是1 imagelocality.weight:node上面有pod需要镜像的优先调度,默认值是1 selectorspread.weight: 把pod均匀调度到不同的节点上,默认值是0 volumebinding.weight: local pv延迟绑定调度,默认值是1 podtopologyspread.weight: pod拓扑调度,默认值是2 plugins: name: nodeorder arguments: leastrequested.weight: 1 mostrequested.weight: 0 nodeaffinity.weight: 1 podaffinity.weight: 1 balancedresource.weight: 1 tainttoleration.weight: 1 imagelocality.weight: 1 volumebinding.weight: 1 podtopologyspread.weight: 2 ccegputopologypredicate GPU拓扑调度预选算法 ccegputopologypriority GPU拓扑调度优选算法 ccegpu 结合CCE的GPU插件支持GPU资源分配,支持小数GPU配置 numaaware numa拓扑调度 weight: 插件的权重 networkresource 支持预选过滤ENI需求节点,参数由CCE传递,不需要手动配置 NetworkType: 网络类型(eni或者vpcrouter类型) nodelocalvolume 支持预选过滤不符合local volume需求节点 nodeemptydirvolume 支持预选过滤不符合emptydir需求节点 nodeCSIscheduling 支持预选过滤everest组件异常节点 步骤 4 单击“安装”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • CCE节点故障检测
        本文主要介绍CCE节点故障检测插件。 插件简介 CCE节点故障检测(nodeproblemdetector,简称npd)是一款监控集群节点异常事件的插件,以及对接第三方监控平台功能的组件。它是一个在每个节点上运行的守护程序,可从不同的守护进程中搜集节点问题并将其报告给apiserver。nodeproblemdetector可以作为DaemonSet运行, 也可以独立运行。 有关社区开源项目nodeproblemdetector的详细信息,请参见nodeproblemdetector。 约束与限制 使用NPD插件时,不可对节点磁盘进行格式化或分区。 节点上每个NPD进程标准占用30mCPU,100MB内存。 权限说明 NPD插件为监控内核日志,需要读取宿主机/dev/kmsg设备,为此需要开启容器特权,详见privileged。 同时CCE根据最小化权限原则进行了风险消减,NPD运行限制只拥有以下特权: capdacreadsearch,为访问/run/log/journal capsysadmin,为访问/dev/kmsg 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 npd ,单击“安装”。 步骤 2 根据下表配置参数,然后单击“安装”。 仅v1.16.0及以上版本支持配置。 npc.enable:是否启用npc,默认值为 false ,true表示启用。 NPD检查项 说明 当前检查项仅1.16.0及以上版本支持。 NPD的检查项主要分为事件类检查项和状态类检查项。 事件类检查项 对于事件类检查项,当问题发生时,NPD会向APIServer上报一条事件,事件类型分为Normal(正常事件)和Warning(异常事件) 故障检查项 功能 说明 KubeletStart 检查kubelet启动并上报 Normal类事件 DockerStart 检查Docker启动并上报 Normal类事件 ContainerdStart 检查Containerd启动并上报 Normal类事件 OOMKilling 检查oom事件发生并上报 Warning类事件 TaskHung 检查taskHung事件发生并上报 Warning类事件 KernelOops 检查内核0指针panic错误 Warning类事件 ConntrackFull 检查连接跟踪表是否满 Warning类事件周期:30秒阈值:80% 状态类检查项 对于状态类检查项,当问题发生时,NPD会向APIServer上报一条事件,并同步修改节点状态,可配合Nodeproblemcontroller故障隔离对节点进行隔离。 下列检查项中若未明确指出检查周期,则默认周期为30秒。 故障检查项 功能 说明 FrequentKubeletRestart 通过监听journald日志检测kubelet是否频繁重启 周期:5分钟 回溯时间:10分钟 阈值:10次即在回溯时间段内重启10次表示频繁重启,将会产生故障告警。 监听对象:/run/log/journal目录下的日志说明Ubuntu操作系统由于日志格式不兼容,暂不支持上述检查项。 FrequentDockerRestart 通过监听journald日志检测docker是否频繁重启 FrequentContainerdRestart 通过监听journald日志检测containerd是否频繁重启 CRIProblem 检查容器CRI组件状态 检查对象:Docker或Containerd KUBELETProblem 检查Kubelet状态 无 NTPProblem 检查ntp、chrony服务状态检查节点时钟是否偏移 时钟偏移阈值:8000ms PIDProblem 检查Pid是否充足 阈值:90% 使用量:/proc/loadavg中nrthreads 最大值:/proc/sys/kernel/pidmax和/proc/sys/kernel/threadsmax两者的较小值。 FDProblem 检查文件句柄数是否充足 阈值:90% 使用量:/proc/sys/fs/filenr中第1个值 最大值:/proc/sys/fs/filenr中第3个值 MemoryProblem 检查节点整体内存是否充足 阈值:90% 使用量:/proc/meminfo中MemTotalMemAvailable 最大值:/proc/meminfo中MemTotal ResolvConfFileProblem 检查ResolvConf配置文件是否丢失检查ResolvConf配置文件是否异常异常定义:不包含任何上游域名解析服务器(nameserver)。 检查对象:/etc/resolv.conf ProcessD 检查节点是否存在D进程 数据来源: /proc/{PID}/stat 等效命令:ps aux例外场景:ProcessD忽略BMS节点下的SDI卡驱动依赖的常驻D进程heartbeat、update ProcessZ 检查节点是否存在Z进程 ScheduledEvent 检查节点是否存在主机计划事件典型场景:底层宿主机异常,例如风扇损坏、磁盘坏道等,导致其上虚机触发冷热迁移。 数据来源: 网络连通类检查项 故障检查项 功能 说明 CNIProblem 检查容器CNI组件是否正常运行 无 KUBEPROXYProblem 检查Kubeproxy是否正常运行 无 另外kubelet组件内置如下检查项,但是存在不足,您可通过集群升级或安装NPD进行补足。 Kubelet内置检查项 故障检查项 功能 说明 PIDPressure 检查Pid是否充足 周期:10秒 阈值:90% 缺点:社区1.23.1及以前版本,该检查项在pid使用量大于65535时失效,详见issue 107107。社区1.24及以前版本,该检查项未考虑threadmax。 MemoryPressure 检查容器可分配空间(allocable)内存是否充足 周期:10秒 阈值:最大值100M 最大值(Allocable):节点总内存节点预留内存 缺点:该检测项没有从节点整体内存维度检查内存耗尽情况,只关注了容器部分(Allocable),在低。 DiskPressure 检查kubelet盘和docker盘的磁盘使用量及inodes使用量 周期:10秒阈值:90%
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        CCE节点故障检测
      • 权限管理
        本文主要介绍分布式消息服务RabbitMQ的权限管理。 如果您需要对云服务平台上购买的DMS for RabbitMQ资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并使用策略来控制他们对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有DMS for RabbitMQ的使用权限,但是不希望他们拥有删除RabbitMQ实例等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用DMS for RabbitMQ,但是不允许删除RabbitMQ实例的权限策略,控制他们对DMS for RabbitMQ资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用DMS for RabbitMQ服务的其它功能。 IAM是云服务平台提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见《IAM产品介绍》。 DMS for RabbitMQ权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 DMS for RabbitMQ部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DMS for RabbitMQ时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云服务平台各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对DMS for RabbitMQ服务,管理员能够控制IAM用户仅能对实例进行指定的管理操作。 说明 DMS for RabbitMQ的权限与策略基于分布式消息服务DMS,因此在IAM服务中为RabbitMQ分配用户与权限时,请选择并使用“DMS”的权限与策略。 如表1所示,包括了DMS for RabbitMQ的所有系统权限。 表1 DMS for RabbitMQ系统权限 系统角色/策略名称 描述 类别 依赖关系 DMS FullAccess 分布式消息服务管理员权限,拥有该权限的用户可以操作所有分布式消息服务的功能。 系统策略 无 DMS UserAccess 分布式消息服务普通用户权限(没有实例创建、修改、删除、扩容)。 系统策略 无 DMS ReadOnlyAccess 分布式消息服务的只读权限,拥有该权限的用户仅能查看分布式消息服务数据。 系统策略 无 DMS Administrator 分布式消息服务的管理员权限。 系统角色 依赖Tenant Guest和VPC Administrator。 表2列出了DMS for RabbitMQ常用操作与系统策略的授权关系,您可以参照该表选择合适的系统策略。 表2 常用操作与系统策略的关系 操作 DMS FullAccess DMS UserAccess DMS ReadOnlyAccess 创建实例 √ × × 按需转包周期 √ × × 修改实例 √ × × 删除实例 √ × × 变更实例规格 √ × × 重启实例 √ √ × 查询实例信息 √ √ √
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        权限管理
      • 系统管理概述
        同一个微服务引擎可能会有多个用户共同使用,而不同的用户根据其责任和权限,需要具备不同的微服务引擎访问和操作权限。 开启了“安全认证”的微服务引擎专享版,通过微服务控制台提供了基于RBAC(RoleBased Access Control,基于角色的访问控制)的系统管理功能。 开启了“安全认证”的微服务引擎专享版,支持Spring Cloud、Java Chassis微服务框架正常接入。 说明: 基于RBAC的系统管理功能与IAM权限管理无关,仅是CSE内部微服务的权限管理机制。 如果您通过ServiceStage控制台操作微服务引擎,必须同时具备IAM和RBAC的操作权限,且IAM权限优先级要高于RBAC权限。 如果您通过API接口或者微服务框架操作微服务引擎,则只需具备RBAC相关权限。 当前系统管理功能仅支持微服务权限管理,暂不支持配置管理、服务治理。 1. 您可以使用关联了admin角色权限的帐号创建新帐号,根据实际业务需求把合适的角色同帐号关联。使用该帐号的用户则具有对该微服务引擎的相应的访问和操作权限。 − 创建开启了“安全认证”的微服务引擎专享版时,系统自动创建1个关联了admin角色权限的root帐号。不能编辑、删除root帐号。 − 您可以使用创建该微服务引擎的root帐号或者该微服务引擎下关联了admin角色权限的帐号创建新帐号。创建和管理帐号,请参考帐号管理。 2. 您可以使用关联了admin角色权限的帐号创建自定义角色,根据业务需求把合适的微服务引擎访问和操作权限赋予该角色。 − 系统默认内置两种角色:管理员(admin)、开发者(developer)。不能编辑、删除内置角色。 − 您可以使用创建该微服务引擎的root帐号或者该微服务引擎下关联了admin角色权限的帐号创建自定义角色。创建和管理角色,请参考角色管理。 − 角色权限说明,请参见下表。 表 角色权限说明 角色 权限说明 admin 具有该微服务引擎下所有微服务、帐号和角色的所有操作权限。 developer 具有该微服务引擎下所有微服务的所有操作权限。 自定义角色 根据实际业务需求创建角色,给角色分配相应微服务的操作权限。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务引擎 CSE
        系统管理
        系统管理概述
      • 惰性队列
        介绍分布式消息服务RabbitMQ惰性队列能力。 使用场景 RabbitMQ从3.6.0版本开始引入了惰性队列(Lazy Queue)的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了 默认情况下,当生产者将消息发送到RabbitMQ的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当RabbitMQ需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然RabbitMQ的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候 惰性队列会将接收到的消息直接存入文件系统中,而不管是持久化的或者是非持久化的,这样可以减少了内存的消耗,但是会增加I/O的使用,如果消息是持久化的,那么这样的I/O操作不可避免,惰性队列和持久化消息可谓是“最佳拍档”。注意如果惰性队列中存储的是非持久化的消息,内存的使用率会一直很稳定,但是重启之后消息一样会丢失。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        惰性队列
      • 安装与配置
        客户端加密SDK是一个用于数据加密和解密的Java算法库,支持多种加密算法和密钥管理策略。本SDK提供了简单易用的API,帮助开发者快速实现数据的安全加密和解密操作。 前提条件 已购买企业版客户端加密模块license。 已开通KMS包周期服务。 已完成访问凭证AKSK创建。 已完成用户主密钥资源创建。 下载SDK 请点击下载客户端加密模块SDK(企业版).zip。 安装与配置 1. 依赖库部署。 使用SDK前需将 C 依赖库放入相应的路径下,否则无法调用相关功能。 Linux环境 将文件夹lib中对应版本的xxx.so放置对应目录下: 64 位系统:库文件放入/lib64目录下。 32 位系统:库文件放入/usr/lib目录下。 Windows环境 将文件夹lib中对应的版本的xxx.dll 放置对应目录下: 64 位系统:DLL文件存放在C:WindowsSystem32目录或者jar包同级目录下。 32 位系统:DLL文件存放在C:WindowsSysWOW64目录或者jar包同级目录下。 2. 集成配置。 应用系统新增依赖配置: plaintext 安装加密软模块sdk包 mvn install:installfileDfilelib/TASSLAPIv1.5.220251215.1.jarDgroupIdorg.tasslsdk DartifactIdtasslDversion1.5.2Dpackagingjar 安装kms终端节点sdk mvn install:installfileDfilelib/ctyunkmssdkjava.jarDgroupIdorg.kmssdk DartifactIdctyunkmssdkjavaDversion1.2.1.1Dpackagingjar 添加依赖: plaintext org.tasslsdk tassl 1.5.2 其他依赖jar包信息: annotations13.0.jar hutoolall5.8.5.jar kotlinstdlib1.4.0.jar okhttp4.9.0.jar  okio2.8.0.jar
        来自:
        帮助文档
        密钥管理
        SDK参考(应用接入点)
        客户端加密SDK
        企业版
        安装与配置
      • 批量删除桶内对象
        本文帮助您了解对象存储批量删除桶内对象的最佳实践。 本文主要针对用户需要批量删除一个桶中的对象的场景,介绍几种批量删除的方法。 一、使用客户端工具批量删除 使用S3Browser批量删除桶中的对象 S3Browser工具是一款客户端工具,可在S3Browser官网下载,安装即可使用非商用版。使用方法可参考S3Browser网站相关文章。 S3Browser对象列表中选择多个对象删除 按住Ctrl 键,鼠标点击S3Browser对象列表中的对象,可以同时选中多个对象,点击对象列表下方【Delete】按钮,弹出确认对话框,点击【确认】按钮可同时删除多个对象。 S3Browser全选对象列表删除 点击S3Browser 菜单项中的【Files】项,再点击【Select All】项,可将对象列表中展示的对象(最多1000个)全部选中。 点击对象列表下方的【Delete】按钮,并点击【确认】后,可将对象列表中展示的对象全部删除。 二、使用SDK调用接口删除桶内对象 参考《开发者文档》,选择合适的SDK,适配环境后,调用接口,即可删除对象。 Python SDK 删除桶中对象 以Python SDK 为例,Python SDK的使用方法请参考《ZOS对象存储PythonSDK使用手册》,此处举例说明调用接口删除一个桶中的全部对象。 config.py Bucketname"testbk" AK"test" SK"test" URL" multipoolnum16 loglevel"debug" log.py
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        批量删除桶内对象
      • 云日志服务Python SDK
        本文主要介绍云日志服务Python SDK接入指南。 1. 前言 安装使用Python SDK可以帮助开发者快速接入并使用天翼云的云日志服务相关功能。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK Python 版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装Python3.6或以上版本。 2.2. 下载及安装 下载压缩包,放到相应位置后并解压。“ctyunltspythonsdk”目录中“example”为SDK的使用示例代码。 在“ctyunltspythonsdk”目录下执行标准 python 包安装命令: plaintext python setup.py install 安装命令会安装SDK所需要的依赖包,并将整个SDK作为一个python包安装到您的python环境中。其中会同步安装lz4、six、protobuf>3.5.2、requests。 如果上述命令安装不成功,也可以手动逐步安装这四个python包。 plaintext pip install requests2.27.1 pip install lz43.1.10 pip install six pip install protobuf3.5.2 之后可以通过一下命令查看是否安装成功,安装后的python包名为ctyunltspythonsdk。 plaintext pip list 成功安装会出现 ctyunltspythonsdk 如果修改了SDK的源码,并希望重新安装使用,可以先卸载再安装。 plaintext pip uninstall ctyunltspythonsdk python setup.py install 安装完python包之后,只需要引入lts的包就可以使用SDK的功能了。 plaintext from lts import LogItem, getcurrenttimestamp, LogClient, LogException 然后运行程序,以sampleputlogs举例: plaintext python sampleputlogs.py 3. SDK使用设置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Python SDK
      • 云日志服务Python SDK
        本文主要介绍云日志服务Python SDK接入指南。 1. 前言 安装使用Python SDK可以帮助开发者快速接入并使用天翼云的云日志服务相关功能。 2. 使用条件 2.1. 先决条件 用户需要具备以下条件才能够使用LTS SDK Python 版本: 1、购买并订阅了天翼云的云日志服务,并创建了日志项目和日志单元,获取到相应编码(logProject、logUnit)。 2、已获取AccessKey 和 SecretKey。 3、已安装Python3.6或以上版本。 2.2. 下载及安装 下载压缩包,放到相应位置后并解压。“ctyunltspythonsdk”目录中“example”为SDK的使用示例代码。 在“ctyunltspythonsdk”目录下执行标准 python 包安装命令: plaintext python setup.py install 安装命令会安装SDK所需要的依赖包,并将整个SDK作为一个python包安装到您的python环境中。其中会同步安装lz4、six、protobuf>3.5.2、requests。 如果上述命令安装不成功,也可以手动逐步安装这四个python包。 plaintext pip install requests2.27.1 pip install lz43.1.10 pip install six pip install protobuf3.5.2 之后可以通过一下命令查看是否安装成功,安装后的python包名为ctyunltspythonsdk。 plaintext pip list 成功安装会出现 ctyunltspythonsdk 如果修改了SDK的源码,并希望重新安装使用,可以先卸载再安装。 plaintext pip uninstall ctyunltspythonsdk python setup.py install 安装完python包之后,只需要引入lts的包就可以使用SDK的功能了。 plaintext from lts import LogItem, getcurrenttimestamp, LogClient, LogException 然后运行程序,以sampleputlogs举例: plaintext python sampleputlogs.py 3. SDK使用设置
        来自:
      • 使用说明类
        如何获取访问者真实IP? 网站接入WAF后,WAF作为一个反向代理存在于客户端和服务器之间,服务器的真实IP被隐藏起来,Web访问者只能看到WAF的IP地址。 通常情况下,网站访问并不是简单地从用户的浏览器直达服务器,中间可能部署有CDN、WAF、高防。例如,采用这样的架构:“用户 > CDN/WAF/高防 > 源站服务器” 。那么,在经过多层代理之后,服务器如何获取发起请求的真实客户端IP呢? 一个透明的代理服务器在把用户的HTTP请求转到下一环节的服务器时,会在HTTP的头部中加入一条“XForwardedFor”记录,用来记录用户的真实IP,其形式为“XForwardedFor:访问者的真实IP,代理服务器1IP, 代理服务器2IP,代理服务器3IP,……”。 因此,访问者的真实IP可以通过获取“XForwardedFor”对应的第一个IP来得到。 本地文件包含和远程文件包含是指什么? 您可以在WAF的防护事件中查看文件包含等安全事件,快速定位攻击源或对攻击事件进行分析。 文件包含是指程序开发人员一般会把重复使用的函数写到单个文件中,需要使用某个函数时直接调用此文件,而无需再次编写,这种文件调用的过程一般被称为文件包含。文件包含分为本地文件包含和远程文件包含,说明如下: 当被包含的文件在服务器本地时,称为本地文件包含。 当被包含的文件在第三方服务器时,称为远程文件包含。 文件包含漏洞是指通过函数包含文件时,由于没有对包含的文件名进行有效的过滤处理,被攻击者利用从而导致了包含了Web根目录以外的文件进来,导致文件信息的泄露甚至注入了恶意代码。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        产品咨询
        使用说明类
      • 产品定义
        本章节介绍什么是媒体存储。 产品简介 媒体存储(CTXStor,原对象存储融合版)是天翼云基于分布式数据存储和媒体处理技术,为客户提供海量视频、图片及其他非结构化数据存取与处理的云服务,具有弹性灵活、安全可靠、高性价比等优点,支持多种存储协议及多档资源类型,深度匹配各类行业场景应用。 产品架构 支持多种网络接入,如公网、内网、专线等接入方式,满足用户不同的网络环境情况。 提供多种接入方式,如标准存储协议、流直存,并提供丰富的API与SDK,供用户、开发者使用,便捷快速上云。 通过数据迁移服务,用户可以轻松地将海量数据迁入媒体存储。 提供多种标准存储协议以及多档资源类型,精细匹配应用场景需求。 搭配基础管理、生命周期、数据安全与数据处理等功能,完成数据的全生命周期管理。 重要特性 版本控制:媒体存储支持版本控制,针对Object的覆盖和删除操作以历史版本的形式保存下来,可将 Object 恢复至任意的历史版本。 存储桶复制:支持跨不同存储区域或同一存储区域的Bucket 自动、异步(近实时)复制对象(Object),可根据配置,将源桶Object的创建、更新和删除等操作复制到目标Bucket。 合规保留:开启合规保留后,处于合规保留期的对象均“不可删除、不可篡改”。 图片处理:针对媒体存储内存储的图片文件(Object),您可以在GetObject请求中携带图片处理参数对图片文件进行处理。例如添加图片水印、转换格式等。 媒体存储为客户提供更多数据管理、数据安全和数据处理等功能,详情请参见 产品功能 文档。
        来自:
        帮助文档
        媒体存储
        产品介绍
        产品定义
      • Java应用实践
        本页主要介绍了 JDBC、连接池和数据库访问框架。 通常 Java 应用中和数据库相关的常用组件有: JDBC API 及实现:Java 应用通常使用 JDBC (Java Database Connectivity) 来访问数据库。JDBC 定义了访问数据库 API,而 JDBC 实现完成标准 API 到 MySQL 协议的转换,常见的 JDBC 实现是 MySQL Connector/J,此外有些用户可能使用 MariaDB Connector/J。 数据库连接池:为了避免每次创建连接,通常应用会选择使用数据库连接池来复用连接,JDBC DataSource 定义了连接池 API,开发者可根据实际需求选择使用某种开源连接池实现。 数据访问框架:应用通常选择通过数据访问框架 (MyBatis, Hibernate) 的封装来进一步简化和管理数据库访问操作。 JDBC 为避免重复解析和生成 SQL 执行计划的开销,注意选择使用 Prepare API,并且需要在 JDBC 连接参数中配置 useServerPrepStmts true。 对于批量插入更新,如果插入记录较多,可以选择使用 addBatch/executeBatch API。通过 addBatch 的方式将多条 SQL 的插入更新记录先缓存在客户端,然后在 executeBatch 时一起发送到数据库服务器,如果希望 Batch 网络发送,需要在 JDBC 连接参数中配置 rewriteBatchedStatements true。 在查询返回超大结果集的场景中,推荐设置 FetchSize为Integer.MINVALUE让客户端不缓存,客户端通过 StreamingResult 的方式从网络连接上流式读取执行结果。使用流式读取数据时,需要将resultset读取完成或 close 后,才能继续使用该语句进行下次查询,否则会报错。如果需要在resultset读取完成或 close 前进行查询避免报错,可在 URL 中添加配置参数clobberStreamingResultstrue,这样会自动 close resultset,但之前流式查询未被读取的结果集会丢失。
        来自:
        帮助文档
        分布式融合数据库HTAP
        最佳实践
        Java应用实践
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • MRS Spark Python
        本章节主要介绍节点参考的MRS Spark Python。 功能 通过MRS Spark Python节点实现在MRS中执行预先定义的Spark Python作业。 MRS Spark Python算子的具体使用教程,请参见开发一个MRS Spark Python作业。 参数 用户可参考下表配置MRS Spark Python节点的参数。 属性参数 参数 是否必选 说明 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“ ”等各类特殊字符,长度为1~128个字符。 MRS集群名 是 选择支持spark python的mrs集群。MRS只有特定版本支持spark python的集群,请先测试运行,保证集群支持。如需新建集群,请参考以下方法: 单击,进入“集群列表”页面新建MRS集群。 前往MRS管理控制台进行新建。 如何新建集群,请参见《MapReduce服务使用指南》中的创建集群。 作业名称 是 MRS作业名称,只能包含英文字母、数字、“”,且长度为1~64个字符。 说明 作业名称不得包含中文字符、超出长度限制等。 如果作业名称不符合规则,将导致提交MRS作业失败。 参数 是 输入MRS的执行程序参数,多个参数间使用Enter键分隔。 属性 否 输入keyvalue格式的参数,多个参数间使用Enter键分割。 高级参数 参数 是否必选 说明 节点执行的最长时间 是 设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。 失败重试 是 节点执行失败后,是否重新执行节点。 是:重新执行节点,请配置以下参数。 − 最大重试次数 − 重试间隔时间(秒) 否:默认值,不重新执行节点。 说明 如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。 失败策略 是 节点执行失败后的操作: 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。 继续执行下一节点:忽略当前节点失败,当前作业实例状态显示为“忽略失败成功”。 挂起当前作业执行计划:暂停当前作业运行,当前作业实例状态显示为“等待运行”。 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 空跑 否 如果勾选了空跑,该节点不会实际执行,将直接返回成功。 血缘关系 参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击,删除节点输入功能的参数配置。 查看表详情 单击,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击,删除节点输出功能的参数配置。 查看表详情 单击,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        MRS Spark Python
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • 使用多活容灾服务实现Redis容灾切换
        步骤一:准备Redis数据库 在使用MDR实现Redis故障切换前,需要提前准备一个多活实例和一个Redis数据库。 当前仅支持对云上资源进行故障切换, 因此需要购买一台规格类型为“主备”、“集群主备”、“Cluster主备”的天翼云Redis数据库。 创建数据库实例,具体请参考:创建实例。 步骤二:同步资源 在资源管理模块中同步数据库资源到多活容灾服务平台,具体参考:同步天翼云数据库。 步骤三:创建容灾管理中心 创建容灾管理中心的具体请参考:创建容灾管理中心。 步骤四:接入应用 将需要进行故障切换的Redis数据库接入创建好的容灾管理中心,具体操作请参考:应用接入。 步骤五:编排预案阶段和预案 1. 创建预案阶段,具体操作请参考:创建预案阶段。 2. 创建预案,具体操作请参考:创建预案。 步骤六:容灾切换 进行容灾切换,具体操作请参考:容灾切换。
        来自:
        帮助文档
        多活容灾服务
        快速入门
        使用多活容灾服务实现Redis容灾切换
      • 如何卸载数据库安全审计Agent程序?
        在数据库端或应用端的节点安装Agent后,当不需要停止审计数据库时,您可以在安装Agent的节点卸载Agent。 前提条件 已在安装节点安装了Agent程序。 在Linux操作系统上卸载Agent 1. 使用跨平台远程访问工具(例如PuTTY)以root用户通过SSH方式,登录已安装Agent的节点。 2. 执行以下命令,进入Agent安装包“xxx.tar.gz”解压后所在目录。cd Agent安装包解压后所在目录 3. 执行以下命令,查看是否有卸载脚本“uninstall.sh”的执行权限。如果有卸载脚本的执行权限,请执行步骤4。如果没有卸载脚本的执行权限,请执行以下操作: 执行以下命令,添加卸载脚本执行权限。chmod +x uninstall.sh 确认有安装脚本执行权限后,请执行步骤4。 4. 执行以下命令,卸载Agent。sh uninstall.sh。如果界面回显以下信息,说明卸载成功。 uninstall audit agent... exist osrelease file stopping audit agent audit agent stopped stop auditagent success service auditagent does not support chkconfig uninstall audit agent completed! 在Windows操作系统上卸载Agent 1. 进入Agent安装文件的目录。 2. 双击“uninstall.bat”执行文件,卸载Agent。 3. 验证Agent已卸载成功。
        来自:
        帮助文档
        数据库安全
        常见问题
        Agent相关
        如何卸载数据库安全审计Agent程序?
      • 产品定义与优势
        本小节介绍域名无忧产品定义与优势。 产品定义 域名是互联网业务的入口,域名劫持是通过拦截域名解析请求或篡改域名服务器上的数据,使用户在访问相关域名时返回虚假IP地址或使用户的请求失败。因此域名系统故障、配置错误、恶意篡改将直接造成业务中断,给政府和企业客户信誉带来恶劣影响的同时,还可能造成巨大的经济损失。 天翼云域名无忧为天翼云用户自助实现域名监测、域名告警、域名刷新,通过对电信所有省份的DNS服务器的检测及时发现域名是否被污染,并且提供按次刷新的服务,清除DNS服务器缓存还原原始DNS解析记录。 产品优势 智能监控 实时监控客户域名列表的安全状态,支持对监控指标设置报警规则,提供多种告警方式并及时预警,为客户域名的安全和稳定保驾护航。 秒级刷新 得益于中国电信骨干网络控制能力,实现中国电信全网缓存DNS服务器的秒级刷新,高速解决客户遭遇的域名劫持问题。 便捷操作 客户登录服务平台即可便捷查看各项指标,启动域名修正服务。
        来自:
        帮助文档
        域名无忧
        产品介绍
        产品定义与优势
      • 消息通知概览
        本文介绍消息通知的功能。 消息通知是什么 消息通知功能是网络管理与业务运营系统中的关键组件,它主要负责及时、精准地将各类重要事件信息传达给相关人员。无论是网络监测中带宽使用超量,还是业务流程出现异常状况,该功能都能自动生成对应的消息通知,让相关人员第一时间掌握情况,为后续处理争取时间,保障系统稳定运行和业务顺利开展。 消息通知特点 拥有高度灵活的配置能力,支持对消息类型、通知方式和接收对象进行自由组合设置。比如,针对带宽超量事件可选择短信通知特定网络管理员,针对业务订单异常可通过邮件通知负责人,满足多样化的业务需求。 通知方式丰富多样,如短信、邮件、客户端等,每种方式各有特点,能适配不同场景。像短信通知即时性强,可确保信息快速触达;邮件通知适合传递详细内容,方便接收者深入了解事件。 短信通知方面,支持接入如阿里短信网关等多种可靠的短信网关,借助成熟的短信服务平台,保证短信通知的高效性和稳定性,避免重要信息遗漏,提升整体系统的可靠性和响应速度。 消息通知功能 功能 功能说明 通知类型 产品识别并针对不同性质的事件生成相应的消息通知。例如,套餐用量使用方面,当短信使用出现超量事件时,系统会自动生成对应的通知消息,消息通知需要由客户进行设定通知的方式、通知对象以便更及时的进行消息传递。 通知渠道 为了实现高效、稳定的通知服务,产品除了自身携带的通知网关后,还支持接入多种网关,比如阿里云短信服务网关。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        设置
        消息通知
        消息通知概览
      • 查看监控指标数据
        本文主要介绍如何查看监控指标数据。 操作场景 为使用户更好地掌握自己的弹性云主机运行状态,云平台提供了云监控。通过本节,您可以了解如何查看伸缩组的监控指标详情,更好地了解弹性云主机的各项性能指标。 前提条件 弹性伸缩组中的弹性云主机正常运行。 说明 当伸缩组中的实例数为0时,只能查看“实例数”这一项监控指标;CPU使用率、磁盘读速率等指标只有在伸缩组中有实例时才能查看。 关机、故障、删除状态的弹性云主机,无法查看其CPU使用率、磁盘读速率等监控指标。当弹性云主机再次启动或恢复后,即可正常查看。 在弹性伸缩组页面查看 1. 登录管理控制台。 2. 选择“计算 > 弹性伸缩服务 > 弹性伸缩组”。 3. 选择需要查看监控数据的伸缩组,单击伸缩组名称进入详情页面。 4. 单击“监控”页签,查看伸缩组各项监控指标的数据。 支持查看“近1小时”、“近3小时”、“近12小时”、“近24小时”、“近7天”的数据。如果您想查看更长时间范围的监控曲线,请单击“查看更多指标详情”跳转至云监控页面,在监控视图中单击图标,进入大图模式查看。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组和实例的监控
        查看监控指标数据
      • 使用ECX部署OpenClaw
        购买大模型服务并获取配置 1、登录++天翼云息壤一体化智算服务平台++。 2、进入++服务接入++,创建服务组。 3、点击【+创建服务组】。 配置服务组名称等信息,建议勾选全部服务,点击提交创建服务组。 点击刚刚创建的服务组,查看详情。 获取App Key、App ID、模型调用地址、模型ID等信息。 4、配置并启用模型服务。 登录虚拟机,执行以下命令,配置大模型。 shell openclaw config set 'models.providers.ctyun' json '{ "baseUrl": " ", "apiKey": " ", "api": "openaicompletions", "models": [ { "id": " ", "name": " ", "reasoning": false, "input": ["text"], "contextWindow": 65536, "maxTokens": 65536 } ] }' 配置启用的大模型。 shell openclaw config set agents.defaults.model.primary "ctyun/ " openclaw config set agents.defaults.models.[ctyun/ ] {} 执行如下命令,重启openclaw gateway,使大模型配置生效。 shell openclaw gateway restart
        来自:
        帮助文档
        智能边缘云
        最佳实践
        ECX+OpenClaw,快速构建你的个人AI助理
        使用ECX部署OpenClaw
      • 功能简介
        功能概述 依托中电信量子安全加密体系,深度集成量子安全服务平台,基于“量子软模块/量子安全盾+云电脑”,提供更高级别的量子安全防护。 客户端(V3.1.1版本以上)已全面集成量子安全软模块,用户可通过管理控制台免费开通。 开通后,即可享受两大核心安全升级: 量子级身份认证:结合量子安全介质,为终端接入提供量子安全级身份认证保障; 动态量子加密传输:采用"一次一密"量子会话密钥机制,每次连接使用一个量子会话密钥,会话结束后立即销毁,保障端到端数据传输安全。 功能优势 量子身份认证:结合量子软模块/安全盾,提供终端接入的量子身份认证保护。 “一次一密”量子加密保护:每次连接使用一个量子会话密钥,会话结束后立即销毁,从根本上杜绝暴力破解风险。 使用场景 政务领域:XC、党政办公 政务领域涉及大量国家机密、政策文件及敏感数据,安全要求高; 金融领域:金融办公、服务外包办公 金融行业涉及客户数据、交易记录、财务信息等高度敏感数据,需更高的安全保护; 科研领域:高校、科研办公 科研机构对知识产权保护有更高要求,近年来科研数据泄露成重灾区。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        量子安全加密
        功能简介
      • 创建容灾
        参数 说明 取值样例 类型 选择需要创建的站点复制对类型。 跨可用区 复制场景 选择需要创建的复制场景。当前支持类型:H2C(IDC容灾到云平台)。仅当创建“IDC”类型的复制对时,需要设置复制场景。 H2C 名称 站点复制对名称。 名称只能由中文字符、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 Sitereplication001 生产站点 说明 仅当创建“跨区域”和“跨可用区”类型的复制对时,需要设置生产站点。 区域 生产站点所在的区域。 说明 仅当创建“跨区域”类型的复制对时,需要设置区域。 可用区 生产站点服务器所在的可用区。 说明 当创建“跨区域”和“跨可用区”类型的复制对时,需要设置可用区。 AZ1 网络 生产站点服务器所在的VPC。 VPC01 容灾站点 区域 容灾站点所在的区域。 选择步骤一:搭建云上专有网络时选择的区域。 说明 仅当创建“IDC上云”和“跨区域”类型的复制对时,需要设置区域。 可用区 容灾站点服务器所在的可用区。 AZ2 网络 容灾站点服务器所在的VPC。 选择步骤一:搭建云上专有网络时创建的VPC。 VPC02
        来自:
        帮助文档
        存储容灾服务
        快速入门
        异步复制
        创建容灾
      • 创建有状态应用
        本文介绍如何创建有状态应用。 有状态应用与无状态应用的创建流程相似,有状态应用(StatefulSet)包含pod一致性、稳定的持久化存储、稳定的网络标志、稳定的次序。 注: 创建多个容器应用时,请确保容器应用使用的端口不冲突 ,否则部署会失败。 操作前提 若基于私有镜像创建应用,用户首先需要将镜像上传至镜像仓库。将镜像上传至容器镜像仓库的具体操作请参考客户端上传私有镜像。 操作步骤 1.在左侧控制台导航栏中选择【工作负载】>【有状态应用】,进入有状态应用列表; 2.单击【创建应用】,进入应用创建页面; 3.按照页面提示填写,包含基本信息、容器设置、添加服务、高级配置几步。 1)基本信息填写:按照下表设置基本信息,其中带“”标志的参数为必填参数: 参数 说明 应用名称 新建容器应用的名称,命名必须唯一 集群 应用所在集群。若没有可选集群,单击“创建集群”进行创建,操作步骤请参见集群创建 命名空间 应用所在命名空间。若没有可选命名空间,单击“创建命名空间”进行创建,操作步骤请参见创建命名空间 实例数量 应用可以有一个或多个实例,用户可以设置具体实例个数。每个应用实例都由相同的容器部署而成。设置多个实例主要用于实现高可靠性,当某个实例故障时,应用还能正常运行 2)单击【下一步】,进入容器设置页面,完成镜像选择及容器配置(可选项:一个应用实例包含1个或多个相关容器。若您的应用包含多个容器,请单击【添加】,进行容器的添加);请按照下表设置基本信息,其中带“”标志的参数为必填参数: 参数 说明 选择镜像 天翼云官方镜像:展示了天翼云官方平台的公开镜像 我的镜像:展示了用户创建的所有镜像仓库 镜像版本 根据导入的镜像,决定其可选择的版本 容器名称 容器的名称,可修改 容器规格 可选择设定的配额,或选择自定义配额 高级配置 生命周期:生命周期脚本定义,针对容器类应用的生命周期事件采取的动作。步骤参见设置应用生命周期 . 启动命令:输入容器启动命令,容器启动后会立即执行 . 启动后处理:应用启动后触发 . 停止前处理::应用停止前触发 高级配置 环境变量:容器运行环境中设定的一个变量。可以在应用部署后修改,为应用提供极大的灵活性。 在“环境变量”页签,单击“添加环境变量”。变量类型分三种:手动添加、私密凭据导入、配置项导入。手动添加时,输入变量名称、变量/变量引用;私密凭据导入时,填写变量名称,并选择已经导入的变量/变量引用;配置项导入时,填写变量名称,并选择已经导入的变量/变量引用 高级配置 数据存储:支持挂载本地磁盘到容器中,以实现数据文件的持久化存储。详细步骤请参见为应用挂载数据卷 高级配置 健康检查:用于监测容器是否正常运行。设置了存活与业务两种探针 高级配置 安全设置:请输入用户ID,对容器权限进行设置,保护系统和其他容器不受其影响。 高级配置 容器日志:设置日志采集策略、配置日志目录。用于收集容器日志以及日志防爆 3)单击【下一步】,进入添加服务页面>【添加服务】; 有状态应用必须填写【实例间发现服务】,请输入服务名称、端口名称、端口号完成添加; (可选)点击【添加服务】,该步骤非必要步骤,也可后期进行配置,具体配置参数说明请参考设置应用访问策略。 4)(可选)单击【下一步】,进入高级配置页面,为应用设置更多高级设置,你可以为集群添加升级策略、迁移策略、缩容策略、调度则略,具体相关说明如下: 配置升级策略 参数 说明 替换升级 先删除旧实例,再创建新实例。升级过程中业务会中断 滚动升级 滚动升级将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断 配置迁移策略 选择是,输入时间,可设置范围(09999秒),默认30秒,输入为有效整数。当应用实例所在的节点不可用时,系统将实例重新调度到其它可用节点的时间窗; 选择否,应用实例所在的节点不可用时,应用实例将不会调度到其它可用节点。 配置缩容策略 输入时间,可设置范围(09999秒),默认30秒;为应用删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该应用将被强制删除。 配置调度策略 你可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。详情请参见设置应用调度策略。 5)配置完成后请单击【提交】,等待应用创建完成,创建完成后返回应用列表; 4.在应用列表中,待应用状态为“运行中”,应用创建成功。应用状态不会实时更新,请按F5查看。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        创建有状态应用
      • 权限管理
        本章主要介绍权限管理 如果您需要对云服务平台上创建的DCS资源,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云服务资源的访问。 通过IAM,您可以在云服务帐号中给员工创建IAM用户,并使用策略来控制IAM用户对云服务资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有DCS的使用权限,但是不希望他们拥有删除DCS实例等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用DCS,但是不允许删除DCS实例的权限策略,控制他们对DCS资源的使用范围。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用DCS服务的其它功能。 DCS权限 默认情况下,帐号管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 DCS部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DCS时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云服务平台各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对DCS服务,帐号管理员能够控制IAM用户仅能对DCS实例进行指定的管理操作。权限策略以API接口为粒度进行权限拆分,权限的最小粒度为API授权项(action)。 如下表所示,包括了DCS的所有系统权限。 DCS系统策略 系统角色/策略名称 描述 类别 依赖关系 DCS FullAccess 分布式缓存服务所有权限,拥有该权限的用户可以操作所有分布式缓存服务的功能。 系统策略 无 DCS UserAccess 分布式缓存服务普通用户权限(无实例创建、修改、删除、扩容和缩容的权限)。 系统策略 无 DCS ReadOnlyAccess 分布式缓存服务的只读权限,拥有该权限的用户仅能查看分布式缓存服务数据。 系统策略 无 DCS AgencyAccess 分布式缓存服务申请创建租户委托时需要授权的操作权限。该权限为租户委托权限,用于租户在需要时委托DCS服务对租户资源做以下相关操作,与授权用户操作无关。 查询子网 查询子网列表 查询端口 查询端口列表 更新端口 创建端口 系统策略 无 由于DCS UserAccess策略和DCS FullAccess策略存在差异,如果您同时配置了这两个系统策略,由于DCS UserAccess策略存在Deny,根据Deny优先原则,您无法执行实例创建、修改、删除、扩容和缩容操作。 下表列出了DCS常用操作与系统策略的授权关系,您可以参照该表选择合适的系统策略。 常用操作与系统策略的关系 操作 DCS FullAccess DCS UserAccess DCS ReadOnlyAccess 修改实例配置参数 √ √ × 删除实例后台任务 √ √ × Web CLI √ √ × 修改实例运行状态 √ √ × 缓存实例扩容 √ × × 修改实例访问密码 √ √ × 修改缓存实例 √ × × 实例主备倒换 √ √ × 备份实例数据 √ √ × 分析实例的大key或者热key √ √ × 创建缓存实例 √ × × 删除实例数据备份文件 √ √ × 恢复实例数据 √ √ × 重置实例访问密码 √ √ × 迁移实例数据 √ √ × 下载备份实例数据 √ √ × 删除缓存实例 √ × × 查询实例配置参数 √ √ √ 查询实例数据恢复日志 √ √ √ 查询实例数据备份日志 √ √ √ 查询缓存实例信息 √ √ √ 查询实例后台任务 √ √ √ 查询实例列表 √ √ √ 查看实例性能监控 √ √ √ 修改参数模板 √ √ × 删除参数模板 √ √ × 创建参数模板 √ √ × 参数模板列表 √ √ √ 查询参数模板 √ √ √
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        权限管理
      • 基于多机多龙虾实现电商定制化营销素材自动生成工作流
        为“美工Claw”增加文生图、图生图模型能力 根据您的需要,购买有文生图、图生图能力的大模型,以与机器人对话的模式添加到Claw能力中,您需要提供:大模型名称、APP KEY、回调地址、提供商。使用与机器人对话的形式,让“美工Claw”新增加图片相关大模型,当“美工Claw”返回如下信息时,则视为添加成功。 如果“美工Claw”无法理解,可以在Skills中添加对应模型的Skills,后面我们会提到如何添加skills。 机器人权限开通 为了让您的机器人与您正常沟通并在文档正常协作与监控文档,您需要在 plaintext sheets:spreadsheet:read sheets:spreadsheet:writeonly base:app:read base:app:update im:resource 您可以使用批量导入导出添加如下json以完成权限的发布: { "scopes": { "tenant": [ "im:message:sendasbot", "docx:document:readonly", "sheets:spreadsheet:read", "sheets:spreadsheet:writeonly", "base:app:read", "base:app:update", "im:resource" ], "user": [ "docx:document:readonly" ] } } 对三个机器人配置权限之后,机器人就具备了操作飞书文档所需的权限。 Skills的增加和测试 为了让机器人尽快学会操作飞书文档,可以为其添加skills。根据 ++《OpenClaw技能配置指南》++ 在云主机的应用配置界面中配置skills。 为所有三台机配置 feishudoceditor 的skill,为“分析Claw”单独添加marketanalysiscn,为“美工Claw”单独添加aliyunqwenimage。之后,让Claw机器人学习所有相关Skill,并询问能力。 plaintext 给你配了飞书相关的skills,学习一下
        来自:
        帮助文档
        虚拟私有云 VPC
        最佳实践
        基于多机多龙虾实现电商定制化营销素材自动生成工作流
      • 大文件分段上传
        本文帮助您了解对象存储大文件分段上传的最佳实践。 前提条件 开通对象存储服务。 在天翼云对象存储控制台获取Access Key、Secret Key和外网访问控制的endpoint。 安装Python环境,下载对应版本的ZOS官方Python SDK (本文以sdkpython3.X.tar为例),请参见开发者文档。 环境配置 解压sdkpython3.X.tar,在解压出的sdk文件夹下,打开cmd导入需要的包。 python pip3 install r requirements.txt 把sdk文件夹中的service2.sns.sdkextras.json和service2.s3.sdkextras.json文件放到“C:Users你的用户名.awsmodelss320060301”文件夹(如果不存在该文件夹,可自行创建)下。 分段上传 操作场景 大文件上传:当需要上传大文件(指数据量偏大的单个文件,例如单个文件数据大小为30MB)时,使用分段上传可以更高效地完成任务。相比于一次性上传整个文件,分段上传允许在网络故障或其他原因导致上传中断时,只需要重新传输中断的片段,而不需要重新上传整个文件。 网络不稳定环境:在网络连接不稳定或带宽有限的环境中,分段上传可以降低因网络中断或超时导致整个文件上传失败的风险。当上传过程中发生中断,只需要重新上传中断的片段,而不需要重新上传整个文件。 文件大小不确定:可以在需要上传的文件大小还不确定的情况下开始上传,这种场景在视频监控等行业应用中比较常见。 操作步骤 1. 创建py文件,并引入boto3包的session模块。 python from boto3.sessionimport Session 2. 配置用于访问对象存储服务的凭证Access Key、Secret Key和外网访问地址endpoint。 python accesskey "此处输入你的Access Key"
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        大文件分段上传
      • 基于弹性云主机的视频处理应用加速实践
        本文主要介绍基于弹性云主机的视频处理应用加速实践。 镜像描述 当前镜像处于公测阶段,您可在华东1资源池试用。如果您希望在其他资源池试用该镜像,可以提交工单申请。 Intel® iVTAL 是一种用于视频处理 加速的软件库,利用英特尔® 处理器中的硬件加速性能,以提供 快速而优化的视频处理解决方案。通过使用 Intel® iVTAL 库, 开发人员可以轻松地在其应用程序中集成视频处理功能。 视频处理专用镜像是一款集成intel视频处理调优工具iVTAL的专用的视频处理镜像,镜像内置视频抽帧工具ivtalDecoder和视频转码工具FFmepg(intel版),支持常见的音频和视频格式。专用视频处理镜像专为提升视频转码/解码/编码任务的速度和效率而生,告别通用镜像的平庸性能。 配置要求 推荐规格:c7.4xlarge.2或者c8.4xlarge.2 推荐配置:vCPU≥16核,内存≥32G 免责说明 免责声明:本公司发布的视频处理专用镜像,集成的转码和解码工具均来源自第三方或者开源社区,仅供用户参考和使用。本公司不对因不当使用该镜像而导致的任何损害承担法律责任,用户应当确保其使用行为符合相关法律法规,并遵守相应协议。 实践指南 视频转码工具(英特尔版) 视频转码工具介绍 转码是将视频码流转换成另一个视频码流的过程。使用转码功能可以实现将视频转换成流畅、标清、高清以及超清等输出,从而用户可以选择合适的视频播放。视频转码最常用的三个软件工具是FFmpeg,x264,x265。在FFmpeg(version release/4.4),x264( version 0.164),x265(version 3.6)这三个工具的基础上,intel采用MVReuse算法策略实施了进一步的优化,能够在几乎不影响视频质量·压缩率的情况下,显著提升转码速度。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        基于弹性云主机的视频处理应用加速实践
      • 1
      • ...
      • 101
      • 102
      • 103
      • 104
      • 105
      • ...
      • 157
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      弹性伸缩服务 AS

      AI Store

      一站式智算服务平台

      智算一体机

      知识库问答

      人脸实名认证

      人脸属性识别

      动作活体识别

      推荐文档

      如何设置和修改绑定手机?

      配置选择

      只读实例简介

      首页

      个性化工作台

      天翼云最佳实践⑤:linux搭建pureftp

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号