云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(融合版)_相关内容
      • 扩展磁盘分区和文件系统(Windows 2008)
        本文以“Windows Server 2008 R2 标准版 64位中文版”操作系统为例,分别介绍如何将系统盘和数据盘的扩容部分容量划分至原有分区内与新增分区中。 操作场景 在控制台上扩容成功后,用户需要将扩容部分的容量划分至原有分区内,或者对扩容部分的容量分配新的分区,具体说明如下。 云硬盘 扩容场景 操作示例 系统盘 系统盘扩容至原有分区 已有C盘的情况下,将扩容部分的容量划分至原有分区中,即增加到C盘中。 系统盘 系统盘扩容至新增分区 已有C盘的情况下,为扩容部分的容量分配新的分区,即新创建一块F盘,用作数据盘。 数据盘 数据盘扩容至原有分区 已有E盘的情况下,将扩容部分的容量划分至原有分区中,即增加到E盘中。 数据盘 数据盘扩容至新增分区 已有E盘的情况下,为扩容部分的容量分配新的分区,即新创建一块G盘,用作数据盘。 本文以“Windows Server 2008 R2 标准版64位中文版”操作系统为例,分别介绍如何将系统盘和数据盘的扩容部分容量划分至原有分区与新增分区内。不同操作系统的操作可能不同,本文仅供参考。 注意 扩容时请谨慎操作,误操作可能会导致数据丢失或者异常,建议扩容前对数据进行备份,推荐使用云硬盘备份。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        扩展磁盘分区和文件系统(Windows 2008)
      • 规格类
        本节主要介绍弹性文件服务的规格类常见问题 在文件系统中存放的单个文件最大支持多少? SFS支持存放最大为240TB的单个文件。 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB等类型的SFS Turbo文件系统支持存放最大为320TB的单个文件;标准型、标准型增强版、性能型、性能型增强版等类型的SFS Turbo文件系统支持存放最大为16TB的单个文件。 弹性文件服务支持哪些访问协议? SFS容量型支持标准的NFSv3协议和CIFS协议;SFS Turbo支持标准的NFSv3协议。 每个帐户最多可以创建多少个文件系统? SFS容量型文件系统支持同时创建多个。当需要创建多于20个SFS容量型文件系统时,可“提交工单”申请扩大配额。 SFS Turbo文件系统单次只能创建一个。当需要创建多于20个SFS Turbo文件系统时,可“提交工单”申请扩大配额。 一个文件系统最多支持同时挂载到多少台云服务器上? 一个SFS容量型文件系统最多支持同时挂载到10000台云服务器上。 一个SFS Turbo文件系统标准型、标准型增强版、性能型、性能型增强版最多支持同时挂载到500台云服务器上。 一个SFS Turbo文件系统20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB最多支持同时挂载到3000台云服务器上。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        规格类
      • 签名应用及示例(V4版本)
        介绍媒体存储V4版本签名应用及示例。 认证流程概述 V4签名认证用于对请求进行安全验证,确保请求在传输过程中未被篡改,并且确认请求来源合法。以下是实现 V4 签名认证的详细过程。 生成签名步骤 提取基本元素 最终的请求鉴权头 Authorization 头中主要包含如下元素: algorithm Credential SignedHeaders Signature algorithm元素与生成步骤 algorithm表示签名的哈希算法,V4签名通常取值是AWS4HMACSHA256。格式如下: algorithm"AWS4HMACSHA256" Credential元素与生成步骤 Credential 格式如下: Credential{accessKey}/{credentialScope} 其中 credentialScope 格式如下: credentialScope"{dateStamp}/{regionName}/{serviceName}/aws4request" SignedHeaders元素与生成步骤 SignedHeaders主要是由参与签名的请求头headerName按自然序排列并转为小写后用 ; 连接进行拼接而成,如: signedHeaders"headerName1;headerName2;headerName3" Signature 生成 stringToSign Signature 的生成需要先生成 stringToSign,stringToSign的格式如下: stringToSign"{algorithm}n{requestDate}n{credentialScope}n{canonicalRequestHash}" 其中计算 canonicalRequestHash 需要先生成 canonicalRequest,其格式如下: canonicalRequest"{httpMethod}n{canonicalUri}n{canonicalQueryString}n{canonicalHeaders}n{signedHeaders}n{payloadHash}" httpMethod: 请求方法 canonicalUri: 标准化的 URI,如: /{bucketName}/{objectKey} canonicalQueryString: 标准化的查询字符串 canonicalHeaders: 标准化的请求头,如:headerName1:headerValue1nheaderName2:headerValue2n signedHeaders: 已签名的请求头列表 payloadHash: 请求负载的 SHA256 哈希值(未签名的负载使用 UNSIGNEDPAYLOAD) 得到canonicalRequest后,就可以计算canonicalRequestHash HMACSHA256(canonicalRequest),并得到stringToSign
        来自:
        帮助文档
        媒体存储
        API参考
        如何调用API
        认证鉴权(原生接口)
        签名应用及示例(V4版本)
      • 读写外部PostgreSQL数据(postgres_fdw)
        本小节主要介绍RDSPostgreSQL的postgresfdw插件使用方法。 操作场景 RDSPostgreSQL支持 postgresfdw插件,它可以被用来访问存储在外部PostgreSQL服务器中的数据。 前提条件 请确保您的实例内核大版本满足,本插件所支持的内核版本,请参考支持的版本插件列表。 注意事项 请确保目标数据库的网络与您的数据库实例互通。 插件使用 安装插件 sql CREATE EXTENSION IF NOT EXISTS postgresfdw; 卸载插件 sql DROP EXTENSION IF EXISTS postgresfdw; 使用示例 sql 1.创建外部服务器。 CREATE SERVER foreignserver FOREIGN DATA WRAPPER postgresfdw OPTIONS (host ' ', dbname ' '); 2.需要使用 CREATE USER MAPPING 定义的用户映射来标识将在远程服务器上使用的角色: CREATE USER MAPPING FOR root SERVER foreignserver OPTIONS (user 'root', password ' '); 3.同步外部表数据到本地表中。 CREATE FOREIGN TABLE foreigntable ( userid integer NOT NULL, name text ) SERVER foreignserver OPTIONS (schemaname 'public', tablename 'users'); 4.查看数据结果 select from foreigntable; IP:目标数据库的IP地址。 DBPORT:目标数据库实例的端口。 DBNAME:目标数据库名称。 USERNAME:目标数据库用户名称。 ROOTPWD:目标数据库root用户密码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        插件管理
        读写外部PostgreSQL数据(postgres_fdw)
      • 告警策略
        本页介绍天翼云TeleDB数据库如何创建编辑告警策略。 操作步骤 1. 以用户名和密码登录TeleDBDCP数据库管理平台,在左侧导航树单击告警中心 > 告警设置 ,进入告警设置页面。 2. 新建告警策略 1. 在告警设置页面,选择告警策略 页签,单击 新建策略 ,进入新建告警策略对话框。 2. 在新建告警策略对话框,根据以下内容填写基本信息,单击确定完成告警策略设置。 告警对象 选择实例TELEDBX ,并选择对应实例。 沉默周期:指告警发生后如果未恢复正常,间隔多久重复发送一次告警通知。 告警级别:紧急、告警、普通。 告警模板可选择已有模板和手动创建两种方式进行构造。 3. 编辑告警策略 1. 当关闭 已有告警策略的告警启停时 您可单击编辑 ,修改告警策略。 您可单击删除 ,删除该告警策略。 您可勾选多条告警策略,批量删除该告警策略。 您可单击查看详情 ,查看告警策略具体信息。 2. 当打开 已有告警策略的告警启停时,只支持单击查看详情,查看告警策略具体信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        实例告警
        告警策略
      • 计费方式
        产品 规格 说明 标准价格(元/月) 标准价格(元/年) 大模型安全卫士 标准版 关键词拦截 语义拦截 支持私有语料库敏感信息识别及分类分级(规则匹配方式) RAG代理网关(输入阻断) 可配置模型代理数量 x 1 大模型安全管理平台 支持同时对大模型发起20个请求 7000 70000 大模型安全卫士 性能扩展包(标准版) 1个扩展包可以增加对大模型发起10个请求 5500 55000
        来自:
        帮助文档
        智算安全专区
        计费说明
        计费方式
      • Kafka消息格式
        本章节介绍同步到Kafka集群中的数据以Avro、JSON和JSONC格式存储。 同步到Kafka集群中的数据以Avro、JSON和JSONC格式存储。 avro格式 Avro格式的schema定义详情请参见record.rar。在实时同步到Kafka集群后,您需要根据schema定义进行数据解析,数据解析样例请参见drsavroread.rar。 JSON格式 MySQL到Kafka的JSON格式定义详情参考表,Oracle到Kafka的JSON格式定义详情参考表。 表 MySQL到Kafka的参数说明 参数名称 说明 :: mysqlType 源端表字段名称和类型。 id DRS内部定义的事件操作的序列号,单调递增。 es 源库产生这一条记录的时间,13位Unix时间戳,单位为毫秒。 ts 写入到目标kafka的时间,13位Unix时间戳,单位为毫秒。 database 数据库名称。 table 表名。 type 操作类型,比如DELETE,UPDATE,INSERT,DDL。 isDdl 是否是DDL操作。 sql DDL的SQL语句,在DML操作中,取值为""。 sqlType 源端表字段的jdbc类型。 data 最新的数据,为JSON数组,如果type参数是插入则表示最新插入的数据,如果是更新,则表示更新后的最新数据。 old 旧数据,如果type参数是更新,则表示更新前的数据;如果是删除,则表示被删除的数据;如果是插入,取值为null。 pkNames 主键名称。 { "mysqlType":{ "c11":"binary", "c10":"varchar", "c13":"text", "c12":"varbinary", "c14":"blob", "c1":"varchar", "c2":"varbinary", "c3":"int", "c4":"datetime", "c5":"timestamp", "c6":"char", "c7":"float", "c8":"double", "c9":"decimal", "id":"int" }, "id":27677, "es":1624614713000, "ts":1625058726990, "database":"test01", "table":"test ", "type":"UPDATE", "isDdl":false, "sql":"", "sqlType":{ "c11":2, "c10":12, "c13":1, "c12":3, "c14":2004, "c1":12, "c2":3, "c3":4, "c4":94, "c5":93, "c6":1, "c7":6, "c8":8, "c9":3, "id":4 }, "data":[ { "c11":"[]", "c10":"cloud", "c13":"asfiajhfiaf9390239uoituqorjoqirfoidjfqrniowejoiwqjroqwjrowqjojoiqgoiegnkjgoi23roiugouofdug9u90weurtg103", "c12":"[106, 103, 111, 106, 103, 111, 105, 100, 115, 106, 103, 111, 106, 111, 115, 111, 103, 57, 51, 52, 48, 57, 52, 51, 48, 57, 116, 106, 104, 114, 103, 106, 101, 119, 57, 116, 117, 48, 57, 51, 52, 48, 116, 101, 114, 111, 101, 106, 103, 57, 56, 51, 48, 52, 105, 101, 117, 114, 103, 57, 101, 119, 117, 114, 103, 48, 119, 101, 117, 116, 57, 114, 48, 52, 117, 48, 57, 53, 116, 117, 51, 48, 57, 50, 117, 116, 48, 57, 51, 117, 116, 48, 119, 57, 101]", "c14":"[106, 103, 111, 106, 103, 111, 105, 100, 115, 106, 103, 111, 106, 111, 115, 111, 103, 57, 51, 52, 48, 57, 52, 51, 48, 57, 116, 106, 104, 114, 103, 106, 101, 119, 57, 116, 117, 48, 57, 51, 52, 48, 116, 101, 114, 111, 101, 106, 103, 57, 56, 51, 48, 52, 105, 55, 57, 56, 52, 54, 53, 52, 54, 54, 54, 49, 52, 54, 53, 33, 64, 35, 36, 37, 94, 42, 40, 41, 95, 41, 43, 95, 43, 124, 125, 34, 63, 62, 58, 58, 101, 117, 114, 103, 57, 101, 119, 117, 114, 103, 48, 119, 101, 117, 116, 57, 114, 48, 52, 117, 48, 57, 53, 116, 117, 51, 48, 57, 50, 117, 116, 48, 57, 51, 117, 116, 48, 119, 57, 101]", "c1":"cf3f70a7756544b0ae3c83bec549ea8e:104", "c2":"[]", "c3":"103", "c4":"20210625 17:51:53", "c5":"1624614713.201", "c6":"!@
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        Kafka消息格式
      • 告警规则
        本文主要介绍云日志服务如何创建告警规则。 告警规则为监控告警的管理单元,一条完整的告警规则包含监控日志单元对象、触发条件、检查频率、通知策略与告警内容等信息。本文将介绍如何创建告警规则。 前提条件 已创建日志项目、日志单元并完成日志数据接入。 已创建通知策略,详情请查看通知策略管理。 操作步骤 1. 登录云日志服务控制台。 2. 左侧导航栏点击告警规则模块,进入告警规则页面。 3. 点击创建告警规则。 4. 创建告警配置,请按如下说明配置参数。并点击新建,完成告警规则设置。 参数 说明 告警名称 设置告警名称 检查频率 告警规则的执行周期,支持固定频率与固定时间; 固定频率:按固定的时间间隔执行一次监控任务时间间隔,支持设置分钟、小时、天的频率; 固定时间:按固定的时间点,每天执行一次监控任务。 日志查询 查询对象:选择需要进行监控的日志项目与日志单元; 查询时间范围:针对目标日志单元进行检索时的时间范围; 查询执行:针对目标日志单元的查询分析条件,填入日志查询分析语句,点击【预览】按钮可预览检索结果,当检索结果满足触发条件时,则触发告警。关于如何填写查询分析语句,请参考日志查询语法与SQL统计语法。 触发条件 当目标日志单元的检索结果满足触发条件时,则触发告警通知。可同时设置多条触发条件,目前支持两类触发条件: 检索结果有数据:当检索结果有日志数据时即触发告警; 检索结果有特定条数据:当检索结果中的日志数据满足一定条件时即触发告警,可设置条件表达式。 有数据匹配:输入具体的条件表达式,当条件表达式返回为true的时候,产生告警,否则不产生告警。 有特定条数据匹配:输入具体的条件表达式,当条件表达式返回为true且满足特定条数据条件时,产生告警,否则不产生告警。 通知策略 选择已创建好的通知策略。 告警内容 告警内容将作为告警信息中的一个字段,告警内容支持插入各类变量。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志告警
        告警规则
      • 使用须知
        类型 使用限制 (DRS自动检查) 数据库权限配置 业务数据库帐户需要具备如下权限:SELECT、CREATE、ALTER、DROP、DELETE、INSERT、UPDATE、TRIGGER、SHOW VIEW、EVENT、INDEX、LOCK TABLES、CREATE VIEW、 CREATE ROUTINE、 ALTER ROUTINE、 CREATE USER、RELOAD、REPLICATION SLAVE、REPLICATION CLIENT、WITH GRANT OPTION。 灾备数据库帐户需要具备如下权限:SELECT、CREATE、ALTER、DROP、DELETE、INSERT、UPDATE、TRIGGER、SHOW VIEW、EVENT、INDEX、LOCK TABLES、CREATE VIEW、 CREATE ROUTINE、 ALTER ROUTINE、 CREATE USER、RELOAD、REPLICATION SLAVE、REPLICATION CLIENT、WITH GRANT OPTION。 RDS for MySQL实例的root帐户默认已具备上述权限。 灾备对象约束 不支持非MyISAM和非InnoDB表的灾备。 不支持系统表。l不支持触发器和事件的灾备。 不支持对系统库下自定义对象有操作权限的帐号灾备。 不支持指定部分业务库进行灾备,跨库DDL、rename等操作将造成容灾失败。 业务数据库配置 MySQL业务数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议业务数据库binlog保存时间越长越好,建议为7天。 业务库不允许存在空账号或者空密码。 灾备中,必须设置MySQL业务数据库的server-id。如果业务数据库版本小于或等于MySQL5.6,server-id的取值范围为24294967296;如果业务数据库版本大于或等于MySQL5.7,server-id的取值范围为14294967296。 业务数据库须开启GTID。l业务数据库名称在1到64个字符之间,由小写字母、数字、中划线、下划线组成,不能包含其他特殊字符。 业务数据库中的表名、视图名不能包含:'<>/以及非ASCII字符。l数据库expirelogsdays参数值为0,可能会导致灾备失败。 灾备数据库配置 灾备数据库实例的运行状态必须正常,若数据库实例是主备实例,复制状态也必须正常。 灾备数据库实例必须有足够的磁盘空间。 灾备数据库大版本号必须与业务库保持一致。 除了MySQL系统数据库之外,灾备库必须是空实例,且灾备任务开始后灾备库会被设置成只读。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时灾备
        使用须知
      • PostgreSQL为源强制结束任务
        本节主要介绍PostgreSQL为源强制结束任务 本小节介绍PostgreSQL为源的同步链路在强制结束任务后,如何清理源库逻辑复制槽、如何同步序列值以及如何在源数据库已经无法连接的情况下,重置目标库中自增或自减列关联序列的序列值。 清理源库逻辑复制槽 步骤 1 使用对应DRS任务的源数据库连接用户,登录该同步任务的源数据库。 步骤 2 查询同步任务选择的database对象所对应的流复制槽名称。 select slotname from pgreplicationslots where database 'database'; 注意 其中database为DRS同步任务中选择同步的database。 步骤 3 执行如下语句,删除对应的流复制槽。 select from pgdropreplicationslot('slotname'); 注意 其中slotname为步骤2中查询的流复制槽名称。 步骤 4 执行如下语句,查询流复制槽是否成功删除。 select slotname from pgreplicationslots where slotname 'slotname'; 查询结果为空表示DRS同步任务对应的流复制槽已成功删除。 同步序列值 如果未同步序列对象或者目标库为GaussDB(for openGauss),可忽略此节。 步骤 1 使用高权限账号(需要具有所有序列的USAGE权限)连接对应DRS任务同步的源数据库,执行如下语句。 select 'SELECT pgcatalog.setval('quoteliteral(quoteident(n.nspname)'.'quoteident(c.relname))', 'nextval(c.oid)');' as sqls from pgclass c join pgnamespace n on c.relnamespacen.oid where c.relkind 'S' and n.nspname !~'^pg' and n.nspname<>'informationschema' and not (c.relname'hwdrsddlinfoidseq' and n.nspname'public') order by n.nspname, c.relname; 查询结果为需要在目标数据库中执行的sql语句。 步骤 2 使用对应DRS任务的目标数据库链接用户连接该任务同步的目标数据库,在目标库中执行步骤步骤1中查询出的sql语句。 步骤 3 在目标库中执行如下语句,检查序列值同步结果。 SELECT n.nspname, c.relname, nextval(c.oid) from pgclass c join pgnamespace n on c.relnamespacen.oid where c.relkind 'S' and n.nspname !~'^pg' and n.nspname<>'informationschema' order by 1,2;
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        PostgreSQL为源强制结束任务
      • 查询FILESET
        FILESET提供子目录配额管理能力,本文介绍查询FILESET的操作步骤。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>并行文件服务HPFS”,进入并行文件服务的控制台页面。 3. 点击目标文件系统,进入文件系统详情页,点击FILESET页签,即可进入FILESET页面。 4. 在FILESET列表页查看所有FILESET的基本信息,参数说明如表所示: 参数 说明 FILESET ID FILESET的ID,创建时自动生成,不支持修改。 状态 FILESET状态: 可用、异常 目录 FILESET在文件系统中的绝对路径。 如您在客户端对FILESET父目录进行mv操作之后,列表的FILESET目录大约会有510分钟延迟更新。 已用容量/分配容量 已用容量为FILESET中已写入容量,统计约有15分钟延迟。分配容量为FILESET设置的容量配额,达到配额上限后无法再写入新数据。 已用文件数/分配文件数 已用容量为FILESET中已写入文件的数量,统计约有15分钟延迟。分配文件数为FILESET设置的文件数配额,达到配额上限后无法再写入新数据。 数据流动 展示FILESET绑定的数据流动策略ID,点击可跳转到对应策略详情页面。 创建时间 FILESET的创建时间。 描述 FILESET的描述信息。 操作 支持修改、删除操作。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        FILESET管理
        查询FILESET
      • 产品定义
        本章介绍文档数据库服务的相关定义。 为什么选择文档数据库服务 自动搭建基于三副本的副本集实例供用户使用,提供一键式部署、数据高可靠存储、容灾以及故障切换等功能。 提供基于shard、mongos、config组成的分片集群实例,轻松扩展读写性能,用户可以方便快捷地构建DDS分布式数据库系统。 提供一键式的数据库备份、恢复功能。用户可以通过管理控制台进行数据库常规备份及恢复。 提供多项性能监控指标及告警功能,数据库性能可视化管理。 更多选择理由,请参见文档数据库服务与自建数据库的对比优势和典型应用。 兼容的引擎和版本 文档数据库服务兼容的引擎和版本,请参见数据库引擎和版本。 产品架构 文档数据库服务支持多种部署方式,能够满足不同的业务场景。 表 架构说明 实例架构 说明 使用场景 ::: 集群 文档数据库服务集群架构提供mongos、shard、config三类节点。您可以自主选择mongos和shard节点的个数。其中,mongos为单节点架构,shard和config为三节点副本集架构。详情请参见集群架构。 业务系统除了要求高可用之外,还需要较高的可扩展性,建议选择集群。 副本集 在文档数据库服务的副本集实例中,提供Primary,Secondary
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        产品定义
      • API使用说明
        本页主要介绍天翼云云间高速(标准版)服务的API使用说明。 OpenAPI门户提供了产品的API 文档、API调试等。 关于用户如何使用云间高速(标准版)服务API的详细介绍,请参见使用API。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。
        来自:
        帮助文档
        云间高速(标准版)EC
        API参考
        API使用说明
      • 设置资产订阅
        本节介绍如何订阅资产。 操作场景 态势感知(专业版)只有在开启资产订阅设置的工作空间才能同步资产相关信息。订阅后,资产信息将在每天晚上进行更新。 说明 仅支持订阅和同步云上资产。同时,不建议同一个区域的资产订阅至多个工作空间。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“资产管理 > 资产管理”,进入资产管理页面。 5. 在资产管理页面中,单击页面右上角“资产订阅设置”,右侧弹出订阅资产设置页面。 6. 在订阅资产设置页面中,在需要订阅资产所在的region所在行“是否开通”列开启订阅。 7. 单击页面右下角的“确认”。 订阅后,资产信息将在每天晚上进行更新。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        资产管理
        设置资产订阅
      • 使用限制
        本文简要介绍组播的使用限制及使用前提。 使用限制 在VPC中创建的弹性网卡,如果未绑定到云服务器,不支持加入组播网络。 弹性网卡被指定为组播成员后,如果您在VPC中删除该弹性网卡,则该弹性网卡关联的组播对象关系自动解除,当前弹性网卡(辅助网卡)仅支持动态加入。 在云间组播场景时,若组播成员同时选择IGMPv2和IGMPv3加入组播组,则只会接受IGMPv2的(,G)的report。 同地域的多个组播域之间互不相通。 一个VPC下仅支持创建一个组播域。 一个组播域下支持创建多个组播组,各个组播组的IP地址不能相同。 仅支持弹性网卡的主私网IP地址作为组播网络通信对象,弹性网卡其余IP地址不支持组播通信。 当前不支持IPv6类型组播,仅支持IPv4类型。 对于知名组播地址(224.0.0.0~224.0.0.255,239.0.0.0~239.255.255.255)会做下发限制,暂不允许添加,如您的页面不支持添加知名组播地址的特殊入口,联系工单开放白名单功能。 组播资源的配额限制如下表所示。 资源 默认配额 提升配额 单个租户可以创建的组播域数量 50 不可申请 单个组播域可以创建的组播组数量 30 不可申请 使用前提 1、您已创建虚拟私有云、云服务器等实例。如有云上云下建立组播的需求,需提前准备好云专线。 2、您已配置好客户侧路由及云内专线与VPC的关系(专线的配置仅当云上云下建立组播的时候需要)。 3、确保安全组已放通组播源和组播成员对应的端口号。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        使用限制
      • PostgreSQL数据库用户管理
        本文介绍如何管理PostgreSQL数据库账号或者建库等权限。 前提条件 用户已登录数据管理服务。 在数据管理服务DMS中录入目标实例,数据库类型为PostgreSQL。 登录实例的数据库用户具有管理数据库用户密码的权限。 操作步骤 1. 点击左侧菜单栏 数据资产 > 实例管理 进入实例列表页面。 2. 选择目标实例,点击操作菜单栏 登录 按钮。 3. 输入数据库的用户名和密码,完成该实例的登录。 4. 登录实例后,点击 更多 > 数据库用户管理按钮。 功能介绍 数据库用户管理支持查看当前实例所有数据库账号、新建账号、删除账号、编辑账号。 账号列表 显示实例下所有账号信息,包括账号名、权限、密码到期时间、注释等,支持按账号名模糊搜索。 新建账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 >数据库用户管理按钮进入管理页面。 4. 点击创建账号按钮,输入账号名、密码等必填信息。 5. 点击 确定 按钮,生成创建账号的DDL语句。 6. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的创建。 7. 可以为账号设置全局权限和对象权限,以及密码到期时间、连接数限制、注释等选项。连接数默认为1,表示不限制。 编辑账号 1. 登录数据管理服务。 2. 从 数据资产 > 实例管理 进入实例列表页面。 3. 在实例列表页面点击 更多 > 数据库用户管理 按钮进入管理页面。 4. 点击列表操作菜单的 编辑 按钮,进入编辑页面。 5. 按需修改所需要的属性内容。 6. 点击 确定 按钮,生成修改账号的DDL语句。 7. 在DDL预览弹窗中,点击 执行 按钮即可完成账号的修改。 8. 可以编辑修改账号的账密、全局权限、对象权限,以及密码到期时间、连接数限制、注释等选项。 注意 注意不支持修改用户名。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        实例管理
        数据库用户管理
        PostgreSQL数据库用户管理
      • 表管理
        重命名 表创建成功后,支持修改表名称。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 4、在左侧导航栏中,单击“开发工具”,进入开发工具页面。 5、选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 6、在顶部导航栏选择“库管理”, 7、在页面右上方“当前所在库”右侧单击“切换库”,切换目标数据库。 8、在对象列表页签左侧菜单栏选择“表”。 9、在该数据库表列表右侧操作栏选择“重命名”。 10、在编辑重命名弹出框中,填写新表名称,单击“确定”。 清空表 支持清空表中的数据。 使用须知 清空表后无法恢复,请谨慎操作。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 4、在左侧导航栏中,单击“开发工具”,进入开发工具页面。 5、选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 6、在顶部导航栏选择“库管理”, 7、在页面右上方“当前所在库”右侧单击“切换库”,切换目标数据库。 8、在对象列表页签左侧菜单栏选择“表”。 9、在列表右侧操作栏选择“更多”>“清空”。 10、如确定清空表信息,在弹窗中单击“是”。 删除表 如果您不再需要某个表,可以手动删除该表。
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL Server数据库管理(开发工具)
        表管理
      • 入侵检测策略
        本文介绍如何管理入侵检测策略。 容器的入侵行为主要是对命令执行、读写文件、网络活动、主机异常等类型进行监测。 平台支持多类检测规则,对黑客的攻击行为进行检测防护,且支持预设策略的方式,将入侵行为在事件发生的第一时间对容器进行暂停并支持对容器所在的Pod进行隔离或重启。 默认策略 平台内置默认策略的启用状态默认为“启用”,且仅支持查看、编辑,不支持删除。 编辑默认策略时,支持选择应用对象、自定义规则等操作。 默认策略包含的检测规则请参见系统内置规则。 添加策略 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“容器安全 > 容器策略”,进入容器策略页面。 3. 在“入侵检测策略”页签,单击“添加策略”,进入添加策略页面。 4. 配置基本信息。 5. 选择策略应用的对象。 6. 配置策略规则,包括使用哪些规则,配置规则处置方式等。 每条入侵行为下,有相关的行为描述和开启建议,用户可进行参考设置。 说明 可以为单个规则修改处置方式,也可以批量为规则修改处置方式: 单个规则:规则启用后才支持修改处置方式。 批量设置:勾选规则前的复选框,选择要启动报警的内置策略,在列表上方的报警“处置方式”下拉框中批量设置报警处理方式。 处置方式包含只报警、报警且隔离Pod、报警且重启Pod、报警且暂停容器这四种处理方式。 仅系统内置策略支持配置“主机异常”规则: 7. 参数配置完成后,单击“保存”。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        容器安全
        容器策略管理
        入侵检测策略
      • 类CTyunOS私有镜像制作(1)
        5.2 禁用SELinux 开启SELinux会导致天翼云物理机装机异常,需要关闭SELinux。使用下面命令禁用SELinux。 plaintext sed i.bak 's/SELINUX./SELINUXdisabled/g' /etc/selinux/config 重启后,可用sestatus v检查SELinux是否已禁用。 6. 清理系统 6.1 删除网络配置(重要) 物理机装机时会根据实际情况生成网络配置,保留镜像中的网络配置可能会造成干扰。需要删除不必要的网络配置。具体网络配置和系统使用的网络管理方式有关,下面列举一些常见的情况。 Redhat系发行版:删除/etc/sysconfig/networkscripts/目录下除了ifcfglo外的ifcfg文件 Debian:删除/etc/network/interfaces.d/下的网络配置文件 Ubuntu:删除/etc/netplan/目录下的网络配置文件 6.2 删除machine ID(重要) machine ID标识了唯一的一台机器,在首次启动系统时一般会自动生成。需要删除镜像中的machine ID。 plaintext rm f /var/lib/dbus/machineid truncate s 0 /etc/machineid 下面的清理项可有可无。但为了生成的镜像更小,请删除这些无用的文件。 6.3 清空软件包缓存 plaintext dnf clean all 使用dnf的发行版 yum clean all 使用yum的发行版 使用apt的发行版 aptget y autoclean aptget y clean rm rf /var/lib/apt/lists/ rm rf /var/cache/apt/archives/.deb 6.4 清理临时文件 plaintext find /tmp type f exec rm f {} ; 6.5 清理日志 plaintext find /var/log type f exec rm f {} ; 7. 镜像制作完成 完成上述配置后,关闭虚拟机,qcow2格式的镜像文件默认位于/var/lib/libvirt/images/目录下,镜像制作完成。
        来自:
      • 类Ubuntu私有镜像制作(1)
        5.2 禁用SELinux 开启SELinux会导致天翼云物理机装机异常,需要关闭SELinux。 查看selinux是否disabled plaintext apt install y selinuxutils 查看selinux状态,返回Disabled则表示SElinux已关闭 getenforce 可使用下面命令禁用SELinux。 plaintext sed i.bak 's/SELINUX./SELINUXdisabled/g' /etc/selinux/config 重启后,可用‘sestatus v’或‘getenforce’或查看‘/etc/selinux/config’文件检查SELinux是否已禁用。 6 清理系统 6.1 删除网络配置(重要) 物理机装机时会根据实际情况生成网络配置,保留镜像中的网络配置可能会造成干扰。需要删除不必要的网络配置。具体网络配置和系统使用的网络管理方式有关,下面列举一些常见的情况。 Redhat系发行版:删除/etc/sysconfig/networkscripts/目录下除了ifcfglo外的ifcfg文件 Debian:删除/etc/network/interfaces.d/下的网络配置文件 Ubuntu:删除/etc/netplan/目录下的网络配置文件 6.2 删除machine ID(重要) machine ID标识了唯一的一台机器,在首次启动系统时一般会自动生成。需要删除镜像中的machine ID。 plaintext rm vf /var/lib/dbus/machineid truncate s 0 /etc/machineid 下面的清理项可有可无。但为了生成的镜像更小,请删除这些无用的文件。 6.3 清空软件包缓存 plaintext dnf clean all 使用dnf的发行版 yum clean all 使用yum的发行版 使用apt的发行版 aptget y autoclean aptget y clean rm rf /var/lib/apt/lists/ rm rf /var/cache/apt/archives/.deb 6.4 清理临时文件 plaintext find /tmp type f exec rm f {} ;
        来自:
      • 云企业路由器工作原理
        管控路由 路由表 在云间高速网络中,云企业路由器是一种连接网络并转发网络流量的重要设备。云企业路由器通过查询路由表中的路由条目信息,将网络流量准确地转发到目标网络。 每个云企业路由器都默认携带一个默认路由表,但您可以根据需要为云企业路由器创建自定义路由表。两个路由表之间互不相通,有助于实现访问隔离。 关联转发 关联转发功能控制网络实例的流量转发。网络实例通过与云企业路由器建立关联转发关系,可以将流量进行转发。云企业路由器则会通过查询路由表中的路由条目信息,来转发网络实例的流量。 一个网络实例只能与云企业路由器建立一种关联转发关系。 自定义路由条目 云企业路由器路由表支持添加自定义路由条目。您可以通过在云企业路由器路由表中添加自定义路由条目辅助控制网络实例流量的转发。 路由策略 路由策略功能可精准控制企业版转发路由器路由表中的路由传播。借助路由策略,您能够自主决定是否将企业版转发路由器路由表内的路由传播至网络实例,或是其他地域的转发路由器。不仅如此,您还能利用路由策略对企业版转发路由器路由表中路由的属性进行修改。 当您添加路由策略时,需选定与该路由策略相关联的企业版转发路由器路由表。值得注意的是,路由策略仅对其关联的路由表内的路由进行过滤和属性修改操作。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        云企业路由器工作原理
      • 管理流程
        删除流程 说明 删除流程需要全部满足下列条件: “流程状态”为“未启用”。 当前流程中不存在激活的流程版本。 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 剧本编排”,进入剧本管理页面后,选择“流程”页签,进入流程管理页面。 5. 在流程管理页面中,单击目标流程所在行“操作”列的“删除”,弹出删除流程确认框。 6. 单击“确认”,删除流程。 注意 删除时,默认删除当前流程中的所有历史版本,删除后不可恢复,请谨慎操作。 禁用流程 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 剧本编排”,进入剧本管理页面后,选择“流程”页签,进入流程管理页面。 5. 在目标流程所在行的“操作”列,单击“禁用”,页面弹出禁用确认框。 6. 在弹出的确认框中,单击“确认”,完成流程禁用。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        剧本编排管理
        流程
        管理流程
      • 管理数据投递任务
        挂起投递任务 数据投递新增并授权成功后,投递任务状态自动更新为投递中,如需停止投递,可挂起目标投递任务。 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面后,选择“数据投递管理”页签,进入数据投递管理页面。 5. 在数据投递管理页面,单击目标投递任务所在行“操作”列的“挂起”。 挂起后,投递任务状态更新为“挂起”,则表示挂起投递任务成功。 启动投递任务 数据投递任务停止投递后,如需重启投递,可启动目标投递任务。 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面后,选择“数据投递管理”页签,进入数据投递管理页面。 5. 在数据投递管理页面,单击目标投递任务所在行“操作”列的“启动”。 启动后,投递任务状态更新为“投递中”,则表示启动投递任务成功。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        管理数据投递任务
      • AI风险概览
        通过控制台“AI风险概览”为您呈现推理安全、语料安全、环境安全的风险态势。 操作场景 AI风险概览实时为您呈现大模型合规态势,支持大模型的数据语料风险运营、推理业务风险运营和环境安全风险运营,实时呈现大模型的风险概览,助您识别大模型风险和潜在威胁。 推理安全:基于WAF攻击日志和访问日志,分析呈现大模型接口的调用请求次数、调用请求命中防护策略数、以及命中防护策略数排名前5的推理模型域名和数量、提示词注入的攻击分布、推理模型攻击类型分布等。 语料安全:基于DSC告警日志,分析呈现大模型中的语料风险类别和数量、TOP5语料风险资产分布等。 环境安全:基于态势感知(专业版)基线检查、漏洞管理、告警管理功能,分析呈现当前工作空间的TOP5合规检查风险、TOP5漏洞风险、TOP5告警和最近攻击列表。 前提条件 推理安全 依赖Web应用防火墙 WAF服务,在使用AI风险概览的推理安全功能模块前需要确保Web应用防火墙 WAF服务在有效使用期内,且仅WAF云模式支持。 语料安全 依赖数据安全中心DSC服务,在使用AI风险概览的语料安全功能模块前需要确保大模型数据安全防护在有效使用期内。 已经在态势感知(专业版)控制台接入“WAF攻击日志”,“WAF访问日志”和“DSC告警日志”。接入云服务日志请参见接入日志数据。 仅态势感知(专业版)专业版支持。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        态势感知
        AI风险概览
      • 产品优势
        训推服务为您提供优质的服务体验,本文带您了解平台产品优势。 简单易用 开通后无需额外的配置或调试,3步操作实现零代码多机多卡微调,减少安装组件、下载模型和数据的重复操作。 功能全面 集成多种加速及并行技术,满足模型训练推理业务需求。支持断点续训、优雅容错等管理功能。 性能优异 万卡算力集群纳管,训推综合性能提升30%。相对于裸机运行,稳定运行时长提升50%。 生态开放 引入20+生态大模型、闭源模型和电信大模型。专业团队开发模型及算子库,助力客户完成昇腾迁移适配。 全流程开发工具 提供训练数据管理、模型开发(代码式开发工具、预置大模型、预置开发环境)、模型训练、模型精调、模型管理、模型评估、服务部署到模型服务调用的全链路功能。集成分布式训练调度技术、多种训练加速方法和高性能存储,支撑大模型训练,并极大降低训练和应用模型成本、缩短训练时长。 兼顾各类用户需求 面向需要开发复杂模型的用户,提供完整的代码式开发工具、预置大模型、预置开发环境等,满足用户的各种复杂模型开发需求。面向希望能快速、便捷建模的用户,则充分利用大模型微调训练的特点,提供快速微调工具,只需选择数据、配置参数即可完成大模型微调,降低大模型训练的使用门槛。
        来自:
        帮助文档
        训推服务
        产品介绍
        产品优势
      • 立即执行备份策略
        本文带您熟悉立即执行备份的操作步骤。 操作场景 通过手动执行备份策略时,可以立即对该策略下的云主机进行备份,灵活地控制备份的时间和范围。 约束与限制 如果备份策略中的云主机正在执行备份任务,则无法手动执行备份策略。 如果周期性备份调度计划开始时,手动备份任务仍未完成,则系统自动取消当次周期性调度任务。 建议手动执行备份策略的时间与周期性备份的备份策略执行时间间隔≥3小时。 前提条件 已创建至少1个备份策略,且备份策略中至少绑定了一个云主机。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择上海上海36。 3. 在系统首页,选择“存储>云主机备份”。 4. 选择“备份策略”页签,在需要手动执行备份的备份策略所在行点击“更多”,再点击“立即备份”。 5. 点击“确定”,则可立即执行备份。 6. 执行备份后,您可以点击对应的备份策略名称,进入备份策略详情。 7. 在“备份任务”页签下,查看备份任务状态,当状态变为“可用”时,则表示备份策略执行成功。
        来自:
        帮助文档
        云主机备份 CSBS
        用户指南
        策略管理
        立即执行备份策略
      • 云影音
        本节介绍云智手机的云影音功能。 点击进入云影音模块,可享受即点即看,海量影音内容秒加载,不占本地存储的观看体验。 播放视频 点击板块上方推荐位,如KV图板块、竖屏滑动推荐板块、智能体悬浮推荐板块,任意选择一部节目内容,即可直接跳转播放相应的节目播放详情页,用户可全屏观看选择的节目内容内容。 AI智能推荐 点击下方的指令输入框,进行文字/语音的输入,即可跳转进入与AI助手的智能对话界面,可以和AI助手进行智能的问答。 关键字精准搜索 用户可以输入影视内容的题目、演员等关键字,AI助手可进行精准内容的智能的问答及推荐。 模糊语义识别 用户可以输入影视内容的剧情等模糊语义,AI助手可针对输入的内容进行语义识别推荐。 模糊语义搜索 用户可以输入想要观看影视的相关模糊描述,AI助手可针对输入的内容进行语义搜索推荐。 聊天记录 点击历史记录主界面的“聊天记录”按钮,即可展现同AI助手的聊天历史记录,点击任一记录,即可跳转进入以往的智能对话界面进行查看,也可继续进行智能对话。 观影记录 点击历史记录主界面的“观影记录”按钮,即可展现最近20条历史播放记录,点击任一记录,即可跳转进入该条历史播放内容,并继续之前的进度进行播放。
        来自:
        帮助文档
        云智手机
        用户指南
        云影音
      • Git用户凭证泄露漏洞(CVE-2020-5260)
        本章介绍Git用户凭证泄露漏洞问题。 2020年4月15日,Git发布安全通告公布了一个导致Git用户凭证泄露的漏洞(CVE20205260)。Git使用凭证助手(credential helper)来帮助用户存储和检索凭证。 当URL中包含经过编码的换行符(%0a)时,可能将非预期的值注入到credential helper的协议流中。受影响Git版本对恶意URL执行git clone命令时,会触发此漏洞,攻击者可利用恶意URL欺骗Git客户端发送主机凭据。 漏洞编号 CVE20205260 漏洞名称 Git用户凭证泄露漏洞 影响范围 影响版本 Git 2.17.x < 2.17.3 Git 2.18.x < 2.18.2 Git 2.19.x < 2.19.3 Git 2.20.x < 2.20.2 Git 2.21.x < 2.21.1 Git 2.22.x < 2.22.2 Git 2.23.x < 2.23.1 Git 2.24.x < 2.24.1 Git 2.25.x < 2.25.2 Git 2.26.x < 2.26.0 安全版本 Git 2.17.4 Git 2.18.3 Git 2.19.4 Git 2.20.3 Git 2.21.2 Git 2.22.3 Git 2.23.2 Git 2.24.2 Git 2.25.3 Git 2.26.1 官网解决方案 目前官方已在最新版本中修复了该漏洞,请受影响的用户及时升级到安全版本。 官方下载链接:<
        来自:
        帮助文档
        企业主机安全
        最佳实践
        漏洞检测与修复最佳实践
        Git用户凭证泄露漏洞(CVE-2020-5260)
      • 典型应用场景
        系统解耦 以电商秒杀、抢购等流量短时间内暴增场景为例,传统做法是,用户下单后,订单系统发送查询请求到库存系统,等待库存系统返回请求结果给订单系统。如果库存系统发生故障,订单系统获取不到数据,订单失败。这种情况下,订单系统和库存系统是两个高耦合的子系统。 图4 系统高耦合 引入RabbitMQ消息队列,当用户下单后,将消息写入到RabbitMQ消息队列中,然后返回用户下单成功。 库存系统订阅下单的消息,消费下单消息,然后进行库操作。即使库存系统出现故障,也不影响用户下单。 图5 系统解耦 高可用 普通队列,由于队列以及队列内容仅存储在单代理上,当该代理故障后,对应的队列不可用。 RabbitMQ引入镜像队列机制,镜像队列是开源RabbitMQ 2.6.0版本新增的一个功能,允许集群将队列镜像到其他代理上,当集群某一代理宕机后,队列能自动切换到镜像中的其他代理,保证服务的可用性。 RabbitMQ引入仲裁队列机制,仲裁队列是开源RabbitMQ 3.8版本新增的一个功能,提供队列复制的能力,当集群某一代理宕机后,队列依旧可以正常运行,保证服务的可用性。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        典型应用场景
      • Hudi对接OBS文件系统
        本章节主要介绍Hudi对接OBS文件系统。 Hudi对接OBS文件系统 1. 使用安装客户端用户登录客户端安装节点。 2. 配置环境变量。 source ${clienthome}/bigdataenv source ${clienthome}/Hudi/componentenv 3. 修改配置文件: vim ${clienthome}/Hudi/hudi/conf/hdfssite.xml dfs.namenode.acls.enabled false 4. 如果是安全集群,使用以下命令用户进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 用户名 5. 启动sparkshell,执行下面的命令创建COW表存储到OBS中: importorg.apache.hudi.QuickstartUtils. importscala.collection.JavaConversions. importorg.apache.spark.sql.SaveMode. importorg.apache.hudi.DataSourceReadOptions. importorg.apache.hudi.DataSourceWriteOptions. importorg.apache.hudi.config.HoodieWriteConfig. valtableName "hudicowtable" valbasePath "obs://testhudi/cowtable/" valdataGen new DataGenerator valinserts convertToStringList(dataGen.generateInserts(10)) valdf spark.read.json(spark.sparkContext.parallelize(inserts, 2)) df.write.format("org.apache.hudi"). options(getQuickstartWriteConfigs). option(PRECOMBINEFIELDOPTKEY,"ts"). option(RECORDKEYFIELDOPTKEY,"uuid"). option(PARTITIONPATHFIELDOPTKEY,"partitionpath"). option(TABLENAME,tableName). mode(Overwrite). save(basePath); 6. 使用datasource查看表建立成功,数据正常。 valroViewDF spark. read. format("org.apache.hudi"). load(basePath·"/ / / / ") roViewDF.createOrReplaceTempView("hudirotable") spark.sql("select·from hudirotable").show() 7. 执行:q退出sparkshell命令行。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        使用存算分离集群
        Hudi对接OBS文件系统
      • 应用场景
        Kafka作为一款热门的消息队列中间件,具备高效可靠的消息异步传递机制,主要用于不同系统间的数据交流和传递,在企业解决方案、金融支付、电信、电子商务、社交、即时通信、视频、物联网、车联网等众多领域都有广泛应用。 异步通信 将业务中属于非核心或不重要的流程部分,使用消息异步通知的方式发给目标系统,这样主业务流程无需同步等待其他系统的处理结果,从而达到系统快速响应的目的。 如网站的用户注册场景,在用户注册成功后,还需要发送注册邮件与注册短信,这两个流程使用Kafka消息服务通知邮件发送系统与短信发送系统,从而提升注册流程的响应速度。 图 串行发送注册邮件与短信流程 图 借助消息队列异步发送注册邮件与短信流程 错峰流控与流量削峰 在电子商务系统或大型网站中,上下游系统处理能力存在差异,处理能力高的上游系统的突发流量可能会对处理能力低的某些下游系统造成冲击,需要提高系统的可用性的同时降低系统实现的复杂性。电商大促销等流量洪流突然来袭时,可以通过队列服务堆积缓存订单等信息,在下游系统有能力处理消息的时候再处理,避免下游订阅系统因突发流量崩溃。消息队列提供亿级消息堆积能力,3天的默认保留时长,消息消费系统可以错峰进行消息处理。 另外,在商品秒杀、抢购等流量短时间内暴增场景中,为了防止后端应用被压垮,可在前后端系统间使用Kafka消息队列传递请求。 图 消息队列应对秒杀大流量场景 日志同步 在大型业务系统设计中,为了快速定位问题,全链路追踪日志,以及故障及时预警监控,通常需要将各系统应用的日志集中分析处理。 Kafka设计初衷就是为了应对大量日志传输场景,应用通过可靠异步方式将日志消息同步到消息服务,再通过其他组件对日志做实时或离线分析,也可用于关键日志信息收集进行应用监控。 日志同步主要有三个关键部分:日志采集客户端,Kafka消息队列以及后端的日志处理应用。 1. 日志采集客户端,负责用户各类应用服务的日志数据采集,以消息方式将日志“批量”“异步”发送Kafka客户端。 Kafka客户端批量提交和压缩消息,对应用服务的性能影响非常小。 2. Kafka将日志存储在消息文件中,提供持久化。 3. 日志处理应用,如Logstash,订阅并消费Kafka中的日志消息,最终供文件搜索服务检索日志,或者由Kafka将消息传递给Hadoop等其他大数据应用系统化存储与分析。 图 日志同步示意图 上图中Logstash、ElasticSearch分别为日志分析和检索的开源工具,Hadoop表示大数据分析系统。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        产品简介
        应用场景
      • 消息类问题
        消息超过老化时间,消息仍存在的原因 问题现象: 消息超过设置的老化时间(如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。),消息仍存在。 可能原因1: Topic的每个分区都是由多个大小相同的segment文件组成,每个segment文件的大小为500MB,当segment文件存储的消息大小到达500MB后,才会新建下一个segment文件。Kafka删除消息是删除segment文件,而不是删除一条消息。Kafka要求至少保留一个segment文件用来存储消息,如果正在使用的segment文件中包含超过老化时间的消息,由于此时segment文件不会被删除,所以超过老化时间的消息也不会被删除。 处理方法: 等待segment文件被使用完,或者删除超过老化时间的消息所在的Topic。 可能原因2: Topic中存在一条create time为未来时间的消息(例如当前时间为1月1日,create time设置成了2月1日),此消息在72小时后,并不会被老化,导致在此消息后创建的其他消息都不会被老化。 处理方法: 删除create time为未来时间的消息所在的Topic。 Kafka实例是否支持延迟消息? 不支持延迟消息。 如何查看堆积消息数? 通过以下任意一种方法,查看堆积消息数。 在Kafka控制台的“消费组管理”页面,单击待查看堆积消息的消费组名称,进入消费组详情页。在“消费进度”页签,查看消费组中每个Topic的总堆积数。具体步骤,请参考查询消费组信息。 在Kafka控制台的“监控”页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。 在云监控页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。 在Kafka客户端,在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过 kafkaconsumergroups.sh bootstrapserver {kafka连接地址} describe group {消费组} 命令查看消费组中每个Topic的堆积消息数。“LAG”表示每个Topic的总堆积数。 图 查看每个Topic的总堆积数 说明 如果Kafka实例开启SASL认证,则以上命令还需要增加SASL认证的“consumer.properties”配置文件参数: commandconfig {SASL认证的consumer.properties配置文件} ,“consumer.properties”配置文件参考开启SASL认证的Kafka命令行连接说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        消息类问题
      • 1
      • ...
      • 276
      • 277
      • 278
      • 279
      • 280
      • ...
      • 413
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      应用托管

      推荐文档

      性能瓶颈定界

      常见问题

      价格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号