活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 计费模式
        本文为知识库问答的计费模式介绍。 目前,知识库问答处于公测阶段,公测期间 0 元购买不收费。 计费方式 知识库问答在公测期间的免费资源包括两大部分,第一部分是知识库问答的免费资源点,第二部分是大语言模型的免费资源点。 其中,第一部分知识库问答采用按量付费的方式,根据用户实际消费的资源进行计费。目前产品处于公测阶段,公测期间系统按月免费发放 10 万资源点,用于抵扣实际项目中的资源消耗。第二部分大语言模型的免费资源点由息壤一体化智算平台提供,每个模型自调用日起14日内,每个账号可免费使用2500W tokens额度。超出后,可前往息壤一体化智算平台进行付费开通。 计费项与计费规则 计费项 单位 计费规则 文档解析 页 按照文档解析的页数进行资源点抵扣,1 页消耗 30 资源点。 智能调用 次 根据实际对话调用的次数进行资源点抵扣,调用 1 次消耗 25 资源点。 知识库容量 GB 产品内置 1GB 免费容量,超额部分按 2 点/GB/小时进行资源点抵扣。 计费示例 场景: 用户 A 开通了知识库问答服务 时间段 用户操作 资源点消耗 费用(元) 67 点 没有进行问答调用且知识库使用量小于 1GB 0 0 78 点 上传了一份 100 页的文档,知识库容量 2GB(假设 7 点已上传完成) 10030+(21)2 3002 0 89 点 进行了 10 次对话调用 (21)2+1025 252 0 910 点 没有进行任何操作 (21)2 2 0 1011 点 删除部分文档,知识库容量小于 1GB(假设 10 点已删除完成) 0 0
        来自:
        帮助文档
        知识库问答
        计费说明
        计费模式
      • 产品组件
        本章节主要介绍云搜索服务(ES)的产品组件。 CSS服务支持Kibana和Cerebro组件。 Kibana Kibana是一个开源的数据分析与可视化平台,与Elasticsearch搜索引擎一起使用。通过Kibana可以搜索、查看存放在Elasticsearch索引中的数据,也可以实现以图表、地图等方式展示数据。 云搜索服务的Elasticsearch集群默认提供Kibana,无需安装部署,即可一键访问Kibana。云搜索服务兼容了开源Kibana可视化展现和Elasticsearch统计分析能力。 支持10余种数据呈现方式。 支持近20种数据统计方式。 支持时间、标签等各种维度分类。 Cerebro Cerebro是使用Scala、Play Framework、AngularJS和Bootstrap构建的基于Elasticsearch Web的开源可视化管理工具。通过Cerebro可以对集群进行Web可视化管理,如执行Rest请求、修改Elasticsearch配置、监控实时的磁盘、集群负载、内存使用率等。 云搜索服务的Elasticsearch集群默认提供Cerebro,无需安装部署,即可一键访问Cerebro。云搜索服务完全兼容开源Cerebro,适配最新0.8.4版本。 支持Elasticsearch可视化实时负载监控。 支持Elasticsearch可视化数据管理。
        来自:
        帮助文档
        云搜索服务
        产品简介
        产品组件
      • 计费项
        功能类型 链路规格 包年包月(元/月) 按需(元/小时) RPS性能上限 数据同步 小规格 768 1.60 1000 数据同步 中规格 1104 2.30 3000 数据同步 大规格 1656 3.45 5000 数据同步 超大规格 2486.4 5.18 7000 数据同步 极大规格 4056 8.45 12000 数据同步 特大规格 5625.6 11.72 30000
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        计费说明
        计费项
      • 基础模型设置
        1. 登录大模型安全卫士实例。 2. 在菜单栏选择“系统管理 > 模型设置”,选择“基础模型设置”页签。 3. 根据实际情况修改配置参数。 参数 说明 模型提供方 支持DeepSeek、Kimi、通义千问、OpenAI。 模型接口地址 根据实际情况进行填写。例如 API密钥 根据实际情况进行填写。没有密钥可不填。 模型名称 配置模型名称。 4. 配置完成后,单击“测试连接”,稍等几秒钟弹窗“连接测试成功”后,点击“保存设置”即可。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        系统管理
        模型设置
        基础模型设置
      • 资源及磁盘管理类
        本章节会介绍关系型数据库在资源及磁盘管理时遇到的常见问题。 创建实例需要多长时间 对于RDS for MySQL和RDS for PostgreSQL实例: 正常情况下,无论是主备实例还是单机实例,创建时间都在57分钟之间。只读实例的创建时间与主实例的数据量有关,数据量越大,创建时间越长。如果是主实例是空实例,创建实例需78分钟。 对于RDS for SQL Server实例: 单机实例创建时间约1215分钟,主备实例创建时间约1518分钟。 如果超过这个时间,创建过程可能存在问题。 占用RDS磁盘空间的日志及文件有哪些 占用关系型数据库实例的磁盘空间的日志及文件如下表: MySQL数据库文件类型 数据库引擎 文件类型 :: MySQL 日志文件:数据库undolog、redolog和Binlog文件。 MySQL 数据文件:数据库内容文件和索引文件。 MySQL 其他文件:ibdata、iblogfile0和临时文件等。 PostgreSQL数据库文件类型 数据库引擎 文件类型 :: PostgreSQL 日志文件:数据库错误日志文件和事务日志文件。 PostgreSQL 数据文件:数据库内容文件、索引文件、复制槽数据文件、事务状态数据文件和数据库配置文件。 PostgreSQL 其他文件:临时文件。 Microsoft SQL Server数据库文件类型 数据库引擎 文件类型 :: Microsoft SQL Server 日志文件:数据库的错误日志、事务日志文件和跟踪文件。 Microsoft SQL Server 数据文件:数据库内容文件。 解决方案 1. 随着业务数据的增加,原来申请的数据库磁盘容量可能会不够用,您需要为关系型数据库实例进行扩容。 2. 针对数据空间过大,可以删除无用的历史表数据进行释放空间(DROP或TRUNCATE操作,如果是执行DELETE操作,需要使用OPTIMIZE TABLE来释放空间);如果没有可删除的历史数据,需要进行磁盘扩容。 3. 针对大量排序查询导致的临时文件过大,建议进行优化SQL查询。 1. 应用中存在大量的排序查询,产生了大量的临时文件。 2. 短期内大量增、删、改,产生大量binlog文件占用空间。 3. 由于大量的事务和写入操作产生了大量的binlog日志文件。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        资源及磁盘管理类
      • 数据存储
        本节介绍天翼云电脑(公众版)在数据存储方面的常见问题。 天翼AI云电脑能存储多大数据量? 天翼AI云电脑自带系统盘规格:80G。操作系统安装会占用30G,剩余50G可用。 如果您使用的是天翼AI云电脑(公众版),则无法进行系统盘扩容,但如果在订购时购买了数据盘,则对数据盘进行扩容。如有更大存储空间需求,建议使用天翼云盘或开通天翼AI云电脑(政企版)。 如果您使用的是天翼AI云电脑(政企版),若需要增加存储空间,可对数据盘进行扩容,以100G步长为单位。数据盘扩容对天翼AI云电脑(政企版)内已有的数据无任何影响,简单方便。 数据信息是否可以长期保持? 已购的天翼AI云电脑会留数据。切换天翼AI云电脑的使用平台,或重装APP均不影响,用户的文档和相关设置等数据信息在付费情况下是可以长期保持。如果退订天翼AI云电脑(或者欠费拆机,数据将不再保留且无法恢复)。 如果误删文件,导致天翼AI云电脑无法运行,数据会丢失吗? 可能会丢失部分系统盘和用户数据。可以通过工具栏中的“系统恢复”功能进行系统还原,系统盘将进行重装,数据盘不会受影响。因此请及时保存及备份好个人数据。
        来自:
        帮助文档
        天翼云电脑(公众版)
        常见问题
        数据存储
      • ALM-27006 数据目录磁盘空间使用率超过阈值
        可能原因 告警阈值配置不合理。 数据库数据量过大或磁盘配置无法满足业务需求,导致磁盘使用率达到上限。 处理步骤 检查阈值设置是否合理 1. 在FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > DBService > 数据库 > 数据目录磁盘空间使用率”,查看该告警阈值是否合理(默认值80%为合理值)。 是,执行步骤3。 否,执行步骤2。 2. 根据实际服务的使用情况修改告警阈值。 3. 选择“集群 > 待操作集群的名称 > 服务 > DBService”,在“概览”页面查看“数据目录磁盘空间使用率”图表,检查数据目录磁盘空间使用率是否低于设置的阈值。 是,执行步骤4。 否,执行步骤5。 4. 等待2分钟查看告警是否自动恢复。 是,处理完毕。 否,执行步骤5。 检查磁盘是否有误写入的大文件 5. 以omm用户登录DBService主管理节点。 6. 执行以下命令,查看数据目录磁盘空间下超过500MB的文件,检查该目录下是否有误写入的大文件存在。 source $DBSERVERHOME/.dbserviceprofile find "$DBSERVICEDATADIR"/../ type f size +500M 是,执行步骤7。 否,执行步骤8。 7. 根据实际情况处理误写入的文件,并等待2分钟,查看告警是否清除。 是,执行完毕。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-27006 数据目录磁盘空间使用率超过阈值
      • 弹性伸缩搭配GPU云主机水平扩展最佳实践
        对比传统部署模式,GPU云主机配合弹性伸缩使用,可以帮助您在推理任务高峰期自动扩容GPU节点减少卡顿,在任务请求低峰期减少GPU服务器规模节约成本,保障业务连续性的同时降低资源、运维成本。 操作步骤 1. 使用大模型镜像创建包年包月的云主机实例 创建一定数量的包年包月GPU实例,用于后续将实例添加到伸缩组,满足大模型业务模块的非高峰或低谷时间段要求。 1. 登录控制中心。 2. 根据业务部署需求选择弹性伸缩组及其管理的云主机实例所在地域。 3. 单击“计算>弹性云主机”,进入弹性云主机管理控制台。 4. 在右上角点击“创建云主机”按钮,进入到弹性云主机创建页面。 5. 在弹性云主机创建页面,完成云主机参数配置。创建成功之后如图: 说明 搭建DeepSeek等大模型云主机选型、部署等说明可参考GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南弹性云主机DeepSeek专题实践指南:DeepSeek驱动高效能云生态 天翼云。 2. 创建使用大模型镜像的伸缩配置 为业务创建可用于自动扩容的云主机模板,即弹性伸缩配置。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台并切换到伸缩配置页面。 3. 点击右上角“创建伸缩配置”,进入“创建伸缩”配置页面。使用步骤1中创建的实例作为模板创建伸缩配置。 4. 点击“确认”,即可创建伸缩配置成功,创建成功如图所示: 3. 创建伸缩组并添加云主机实例 为低成本、高稳定性业务集群创建弹性伸缩组,并将创建好的云主机实例添加至此伸缩组内,来满足日常业务的需求。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 3. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 4. 在“伸缩参数”页面完成基础配置,具体参数配置可参见创建伸缩组。 5. 在“配置来源”页面,选择已有配置,为伸缩组绑定一个或多个配置。 6. 点击“立即创建”伸缩组创建成功,如下图: 7. 伸缩组创建成功之后,进入到伸缩组详情页面,将步骤1中创建包年包月弹性云主机添加至伸缩组内并开启伸缩保护防止实例被移除,用于日常业务需求的满足。具体操作步骤请参见将实例移入伸缩组。添加成功之后如图: 4. 根据业务场景为伸缩组设置自动伸缩策略 为已创建好的伸缩组设置伸缩策略,来满足突发的业务流量变化,确保业务的稳定运行。 1. 进入弹性伸缩管理控制台,点击步骤3创建好的伸缩组名称,进入到伸缩组详情页面。 2. 单击“伸缩策略”进入伸缩策略页签,单击“创建策略”按钮,进入到“创建伸缩策略”页面。 3. 在“创建伸缩策略”页面中完成策略的配置。您可以根据使用场景选择告警、定时等自动伸缩策略,帮助伸缩组在业务高峰期自动扩容大模型实例、在业务低谷期自动释放实例,保证业务稳定的同时最大程度的优化资源使用成本。具体操作步骤可参见创建伸缩策略。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        弹性伸缩搭配GPU云主机水平扩展最佳实践
      • Redis连接失败问题排查和解决
        公网连接Redis 在进行公网访问时,请仔细阅读公网连接Redis实例的相关章节,并确保实例满足公网访问的要求。 Connection reset by peer错误或远程主机强迫关闭连接: 原因: 安全组未正确配置。 解决方法:需要允许Redis实例被访问,具体配置请按照公网连接Redis实例章节中的操作进行。 Redis实例绑定的弹性公网IP被解绑,导致公网访问关闭。 解决方法:在控制台重新开启实例的公网访问,绑定弹性公网IP,并重新连接。 密码问题 密码输入错误时,端口可以连接上,但鉴权认证会失败。如果忘记了密码,可以重置缓存实例密码。 实例配置问题 连接Redis时存在拒绝连接,可登录分布式缓存服务控制台,进入实例详情页面,调整实例参数maxclients的配置,具体操作可参考修改实例配置参数。 客户端连接问题 在使用Rediscli连接Cluster集群时,连接失败。 解决方法:请检查连接命令是否加上 c ,在连接Cluster集群节点时务必使用正确连接命令。 Cluster集群连接命令: ./rediscli h {dcsinstanceaddress} p {port} a {password} c 单机、主备、Proxy集群连接命令: ./rediscli h {dcsinstanceaddress} p {port} a {password} 具体连接操作,请参考rediscli连接方式。 出现Read timed out或Could not get a resource from the pool。 解决方法: 排查是否使用了keys命令,keys命令会消耗大量资源,造成Redis阻塞。建议使用scan命令替代,且避免频繁执行。 连接断开。 解决方法: 调整应用超时时间。 优化业务,避免出现慢查询。 建议使用scan命令替代keys命令。 性能问题导致连接超时 执行资源密集型的命令如 keys 可能导致 CPU 使用率急剧上升。另一方面,若实例没有设置适当的过期时间或未清理已过期的键,可能导致存储的数据不断增加,一直保存在内存中,从而导致内存使用率升高。这些情况都有可能引发访问缓慢和连接不上等问题。 避免使用资源密集型命令: 使用一些耗费资源的命令,如 keys,可能导致CPU使用率升高,从而影响性能。建议改用更轻量级的命令,如 scan,以减轻服务器负载。 设置合适的过期时间: 如果实例中的数据没有设置过期时间,可能导致存储的数据过多一直在内存中,增加内存使用率。请确保对于不再需要的数据设置适当的过期时间,并定期清理过期数据。 监控和告警设置: 配置监控指标并设置相应的告警,以及时发现和应对性能问题。关注内存利用率、已用内存以及活跃的客户端数量等监控项,通过这些指标评估实例的健康状态。 检查大Key和热Key: 大Key和热Key可能会影响性能。使用 DCS 控制台提供的分析功能,检查是否存在大Key和热Key,并根据需要采取相应的优化措施。详细操作请参考分析Redis实例的大Key和热Key文档。 合理使用缓存策略: 考虑使用适当的缓存策略,根据业务需求选择合适的数据存储和过期策略。这可以帮助提高缓存效率和减轻性能压力。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        网络与连接
        Redis连接失败问题排查和解决
      • 数据读写
        类别 限制项 说明 备注 天翼云账号 日志写入流量 您在1个天翼云账号下,写入流量最大为500MB/s。 如您有更大的使用需求,请提工单申请。 天翼云账号 日志写入次数 您在1个天翼云账号下,写入次数最大为10000次/s。 如您有更大的使用需求,请提工单申请。 天翼云账号 日志读取次数 您在1个天翼云账号下,读取次数最大为1000次/min。 如您有更大的使用需求,请提工单申请。 日志项目 日志写入流量 您在1个日志项目下,写入流量最大为200MB/s。 非硬性限制,超过限制不保证服务质量。 日志项目 日志写入次数 您在1个日志项目下,写入次数最大为1000次/s。 非硬性限制,超过限制不保证服务质量。 日志项目 日志查询流量 您在1个日志项目下,通过API查询日志,单次返回日志最大为10MB。 不涉及。 日志项目 日志读取次数 您在1个日志项目下,读取次数最大为500次/min。 非硬性限制,超过限制不保证服务质量。 日志单元 日志写入流量 您在1个日志单元下,写入流量最大为100MB/s。 非硬性限制,超过限制不保证服务质量。 日志单元 日志写入次数 您在1个日志单元下,写入次数最大为500次/s。 非硬性限制,超过限制不保证服务质量。 日志单元 日志查询流量 您在1个日志单元下,通过API查询日志,单次返回日志最大为10MB。 不涉及。 日志单元 日志读取次数 您在1个日志单元下,读取次数最大为100次/min。 非硬性限制,超过限制不保证服务质量。 日志单元 日志查询速度 您在1个日志单元下,读取速度为20MB/s 非硬性限制。超过限制时,系统会尽可能提供服务,但不保证服务质量。 SDK SDK上报日志流量 推荐使用1.0.0以上SDK正式版本,若有低版本,请尽快升级,否则无法保证SLA。 低版本SDK可能会导致上报失败。
        来自:
        帮助文档
        云日志服务
        产品介绍
        使用限制
        数据读写
      • 配置单实例多并发
        配置单实例多并发 1. 登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 选择待配置的函数,单击进入函数详情页。 3. 选择“设置 > 并发”,开始配置。 参见表进行配置,完成后单击“保存”。 并发基础配置 参数说明 参数 说明 单实例并发数 单个实例支持的请求并发数。取值范围为11000。 单函数最大实例数 单个函数的运行实例数,默认值400,最大值为1000;1表示不限制实例数;0代表禁用。 说明 超过实例数限制处理能力的请求会被直接丢弃,而不是重试。 当前超过实例数限制导致的请求错误不会直接显示在函数日志中,您可以通过配置函数异步来获取错误详细信息。 配置约束 对于Python函数,由于Python GIL锁导致实例上的线程被绑定到一个核上,造成多并发无法使用多核,即使配置更大资源规格也无法提升函数处理性能。 对于Node.js函数,由于V8引擎的单进程单线程,造成多并发无法使用多核,即使配置更大资源规格也无法提升函数处理性能。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置函数
        配置单实例多并发
      • 查询数据库参数模板
        名称 二级节点 三级节点 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object pageNum Integer 当前页 pageSize Integer 页大小 pageTotal Integer 页码总数 total Integer 总记录数 list Array 记录 pgTemplateId Long 参数模板ID name String 参数模板名称 description String 参数模板描述 version String 数据库大版本 updateTimestamp String 更新时间
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        参数
        查询数据库参数模板
      • 调整HTTP请求头尺寸限制插件
        默认情况下服务网格可以处理的最大请求头部大小为60KiB,基本可以满足常规需求,如果您的业务有更大的请求头部,可以通过该配置进行调整。 配置说明 字段 类型 是否必填 默认值 说明 maxHeaderSizeKb uint32 是 60 单位(KB),限制HTTP请求头部的大小
        来自:
        帮助文档
        应用服务网格
        用户指南
        扩展中心
        内置插件说明
        调整HTTP请求头尺寸限制插件
      • 视频直播是否限制每日播放流量
        本文介绍视频直播每日播放流量的限制情况。 天翼云视频直播服务对播放流量未做限制。 但如果每日播放流量过大,则有可能无相应资源影响播放。 若能够预知对应流量,建议提交工单提前准备对应的分发资源。
        来自:
        帮助文档
        视频直播
        常见问题
        直播播放类
        视频直播是否限制每日播放流量
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        一站式智算服务平台
        推理服务API
        API列表
      • 主机资产
        编辑终端 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 主机资产”,进入主机资产页面。 3. 选择需要编辑的终端,点击右侧操作项 中的“编辑”。 4. 在弹出的对话框中编辑终端信息,点击“确定”,即可修改终端信息。 编辑终端信息时,若绑定状态开关的状态调整为关闭,将解绑该终端,被解绑的终端会从终端列表中删除。 查看策略 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 主机资产”,进入主机资产页面。 3. 选择需要查看的终端,点击右侧操作项 的“策略” ,即可对该终端的策略信息进行查看和编辑操作,详情请参考策略管理。 其他操作 1. 登录大模型安全卫士实例。 2. 在菜单栏选择“资产中心 > 主机资产”,进入主机资产页面。用户可在此页面修改终端分组、修改终端标签、导出终端、登记管理操作。 3. 勾选终端,点击“更多”,在弹出的下拉框中选择不同的菜单项,可对终端进行卸载客户端、删除终端、停止防护、启动防护、关闭主机、重启主机、重启客户端、迁移终端、修改远程管理端口、导出终端调试日志、消息推送、一键隔离、取消隔离等操作。 具体操作说明如下: 操作 说明 导出终端 可将终端信息以CSV格式导出至本地。 修改分组/修改标签 修改所选终端的分组/标签,每个终端必须且只能在一个分组内,可以有多个标签。 卸载客户端 卸载终端上的EDR客户端软件。 删除终端 删除终端后,EDR不能对终端进行管控,许可也将释放。终端信息以及相关日志将会删除,但部分防护依然有效。 停止防护 关闭所选终端当前所有防护。 启动防护 启动对终端的防护。 关闭主机/重启主机 对所选终端进行关机或重启。 重启客户端 对客户端进行重启。 锁定主机 锁定目标客户端。 迁移终端 填写新中心IP和UUID,点击 ,可对租户内终端进行同中心跨租户迁移以及不同中心间迁移。 修改远程管理端口 填写需要修改的远程管理端口,勾选立即重启,点击 即可修改远程管理端口。 导出终端调试日志 将所选终端的客户端运行日志,异常转储日志,操作系统日志信息导出。 升级 对客户端主程序进行升级操作。 消息推送 对客户端所在终端进行消息推送(仅适用于Windows主机)。 重新登记信息 对客户端重新登记资产信息。 一键隔离 对选定客户端进行一键断网。 取消隔离 对选定客户端取消一键断网策略。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        资产中心
        主机资产
      • 为组织成员分配权限
        本文介绍为组织或成员分配权限的方式 创建自定义策略 目前组织策略管理支持以下两种方式创建自定义策略: 可视化视图:通过可视化视图创建自定义策略,无需了解JSON语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图:通过JSON视图创建自定义策略,可以直接在编辑框内编写JSON格式的策略内容。 可视化视图配置自定义策略 1. 进入“组织策略管理>全部策略”页面。 2. 点击“创建自定义策略”按键,进入创建自定义策略页面。 3. 输入策略名称、策略描述等基本信息后,点击“下一步”。 4. 选择“可视化视图”,按页面提示进行选择。 效果:选择“允许”或“拒绝”。 云服务:选择需要进行权限控制的云服务。 说明 1. 此处只能选择一个云服务,如需配置多个云服务的自定义策略,请在完成此条配置后,点击“添加权限”。 2. 暂不支持一个自定义策略同时包含全局级云服务和资源池级云服务。如果需要同时设置全局级服务和资源池级服务的自定义策略,请创建两条自定义策略,便于授权时设置最小授权范围。 3. 操作:根据需求勾选产品的操作权限。 4. 资源:默认配置所有资源。若选择“特定资源”,可以根据目前权限的关联资源路径模板,通过单击“添加资源”来指定需要授权的资源。 5. (可选)选择“JSON视图”,将可视化视图配置的策略内容转换为JSON语句进行检视和编辑,您可以在JSON视图中对策略内容进行修改。 如果您修改后的JSON语句有语法错误,将无法创建策略,可以根据提示信息自行检查并修改内容。 此外,如果将JSON语句重新转换到可视化视图时失败,一般是由于Statement下包含多个不同云服务的Action,和可视化的映射规则不符合,这种情况不会影响策略的正常创建。 6. 点击“保存”,完成自定义策略的创建。
        来自:
        帮助文档
        组织管理
        用户指南
        为组织成员分配权限
      • 新增敏感数据识别任务
        本章节介绍如何创建敏感数据识别任务 DSC将会根据创建的识别任务,在选定的OBS桶、数据库、大数据或者MRS的指定范围中,对敏感数据进行自动识别,并生成识别数据和结果。 前提条件 已添加OBS、数据库、大数据源资产或MRS,具体操作请参见资产列表。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中,选择“敏感数据识别(新) > 识别任务”,进入识别任务界面。 5. 在任务列表左上角,单击“新建任务”。 6. 在弹出的“新建任务”的对话框中,参照下表配置相关参数。 参数 说明 取值样例 开启任务 是否开启敏感数据识别任务,系统默认开启任务。 任务名称 您可以自定义敏感数据识别任务名称。 任务名称需要满足以下要求: 4~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 开头需为中文或者字母。 任务名称不能与已有的任务名称重复。 Test任务01 数据类型 选择识别的数据类型,可多选。 OBS:授权DSC访问您的OBS资产后,DSC将对OBS里的资产进行敏感数据识别,添加OBS资产的相关操作请参见OBS资产列表。 数据库:授权DSC访问您的数据库,DSC将对数据库资产进行敏感数据识别,添加数据库资产的相关操作请参见数据库资产列表。 大数据:授权DSC访问您的大数据源资产后,DSC将支持对相关资产进行敏感数据识别,添加大数据源资产请参见大数据资产列表。 MRS:授权DSC访问您的Hive资产后,DSC将支持对相关资产进行敏感数据识别,相关操作请参见MRS资产列表。 数据库 识别模板 选择内置模板或者自定义模板,DSC将根据您选择的模板对数据进行分级分类展示。添加模板请参见新增识别模板。 数据安全分类分级模板 识别周期 设置数据识别任务的执行策略: 单次:根据设置的执行计划,在设定的时间执行一次该识别任务。 每天:选择该选项,即在每天的固定时间执行该识别任务。 每周:选择该选项,即在设定的每周这一时间点执行该识别任务。 每月:选择该选项,即在设定的每月这一时间点执行该识别任务。 单次 执行计划 “识别周期”为“单次”时,显示该选项: 立即执行:选择该选项,单击“确定”,系统立即执行数据识别任务。 定时启动:在指定时间执行一次该识别任务。 立即执行 启动时间 “识别周期”为“每天”、“每周”、“每月”时显示该选项: 选择识别任务执行时间。选择时间后,该任务在每天、每周、每月或者当前时间点执行此识别任务。 7. 单击“确定”,界面右上角提示创建任务成功,即识别任务创建成功。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(新)
        敏感数据识别任务
        新增敏感数据识别任务
      • 在科研助手使用OpenManus快速生成应用
        本文主要介绍了如何在科研助手上使用OpenManus快速生成应用。 概述 智能体 智能体是一种由人工智能技术驱动的自主智能系统或软件程序。它能够感知所处的环境,包括从环境中收集和分析数据,通过内置的 “大脑”—— 如大型语言模型进行推理和决策,利用记忆系统存储临时数据和知识,借助工具与外部系统交互,进而独立地执行特定任务以实现既定目标,并且还能根据新信息和环境变化实时动态调整和适应,广泛应用于自动化任务、问题解决、客户服务、生产力提升等诸多领域。 OpenManus OpenManus 是由 MetaGPT 团队复刻 Manus 而成的开源智能代理软件。它以 MIT 协议在 GitHub 上开源,采用模块化 Agent 系统,开发者能自由组合功能模块创建个性化 AI 助手。其具备思维过程透明化、可本地化部署的特点,还配备浏览器自动化、代码执行器等强大工具链来处理复杂任务。目前在 GitHub 上已收获大量星标,获得了开源社区的广泛认可。 科研助手新增 OpenManus 能力概述 科研助手平台在 OpenManus 开源的基础上,为方便您的使用,增加了如下能力: 支持使用本地 QWQ32B 大模型,无需 API Key 外连其他大模型 支持 bing search toolkit,无需代理,在国内就可以进行问题搜索 支持GUI方式操作 OpenManus,进度可视,简便易用
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用OpenManus快速生成应用
      • 迁移时长
        本节为您介绍数据库迁移迁移时长相关问题。 我如何能知道迁移任务的进度? 一般情况,数据库迁移工具的迁移速度的参考值是200240GB/小时。由于迁移速度受源端对象个数、大小以及公网传输距离影响,建议用户创建一个实际数据的迁移任务来测试实际迁移速度。 为什么有时候迁移速度会很慢? 迁移速度的影响因素很多,比如迁移的表大小、正在迁移的表个数、网络传输情况等。在不考虑网络环境的情况下分析迁移速度慢的原因可能有下面几个方面: 大量的小表 由于每个迁移任务的最大并发数是固定的,导致同时在迁移的表数是有限制的。迁移前会列举表。相比于迁移大表,迁移同样大小的数据量,会有更多的列举表的时间消耗。 解决方式:通过将源端待迁移的表拆分到多个迁移任务中并行迁移,提升迁移速度。 迁移数量较少的大对象 当迁移的对象数量较少(小于10个)且大小很大时,导致迁移的并发低,所以迁移速度会较慢。 这种情况请耐心等待,无法提升迁移的速度。 迁移需要多长时间? 您可以通过以下公式进行迁移前估算:迁移时长总数据量/带宽大小/81.25。详细时间预估请参见评估迁移时间与测试传输速度。
        来自:
        帮助文档
        云迁移服务CMS
        常见问题
        数据库迁移服务模块
        迁移时长
      • 应用开发问题
        类型 微服务 普通应用 开发 每个微服务的体量相对较小,业界的two pizza团队和“2周即可全部重写全部代码”等都可以作为微服务划分的参考。 在开发时期,需注意服务接口的定义以与周边微服务进行配合,“基于契约”的开发方式是非常推荐的。 微服务开发,请参考“帮助中心 > 微服务云应用平台 > 开发指南 > 微服务开发指南 > 开发微服务应用”章节。 普通应用逻辑复杂、模块耦合、代码臃肿、修改难度大、版本迭代效率低下。 部署 微服务组成的应用系统通常比较复杂,在一次性部署的时候,需要进行编排部署。 微服务应用部署,请参考 部署组件 。 普通应用可能会比较大,构建和部署时间也相应地比较长,不利于频繁部署,阻碍持续交付。 在移动应用开发中,这个问题会显得尤为严重。 运维 在原来的指标监控、日志收集之外还非常强调治理。 其核心理念是在运行时期通过对线上系统的各种调整以达到系统整体健康度要求的效果。 应用运维,请参考 应用运维 。 普通应用线上问题修复周期长,任何一个线上问题修复都需要对整个应用系统进行全面升级。
        来自:
        帮助文档
        微服务云应用平台
        常见问题
        应用开发问题
      • 创建应用用户和密码
        $%^&)。 按照实际需求填写描述。 4)设置用户主题或订阅组权限 点击“主题权限”或“订阅组”,可以设置该用户的主题或订阅组发布或订阅权限: 5)选择主题名称及对应权限,PUB代表生产权限 SUB代表消费权限,DENY代表无任何权限,用符号相连即表示两种权限都有 如PUBSUB。 6)选择订阅组名称及对应权限,权限说明同上。 (2)新模式维护用户及权限 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 1)点击【新建用户】按钮 2)弹出框填写用户字段 填写应用用户名,请输入大于6位字符,只能输入大小写字母,下划线,数字。 填写密钥,请输入大于8位字符,需要包含数字大小写字母以及特殊符号(!@
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建应用用户和密码
      • 网络安全产品推荐
        DDoS基础防护封禁通知 当您的IP遭受的DDoS攻击峰值超过IP的防护阈值时,会对IP所在服务器和网络的稳定性造成影响,根据用户协议,IP会进入封禁状态,封禁时间持续24小时。 该封禁状态有通知,会通过IP所属账户的站内信、短信、邮箱渠道进行通知,告知封禁信息。除了账户所有人,您还可以在天翼云控制台消息中心消息订阅消息管理安全消息处配置多个消息接收人,比如将您业务的多位值班或运维人员配置到联系人中,此时安全消息短信会通知告知多个人。 通知内容仅有攻击峰值,不包含攻击源信息。DDoS基础防护主要防护IP所在网络的整体稳定,非单个IP的攻击分析产品,仅能提供目的IP级别遭受DDoS大流量攻击的攻击峰值信息,无法提供源IP级别的信息。若客户需要源IP级别的分析,可选择任意渠道和厂商的DDoS高防产品防护自身业务IP并免于触发DDoS封禁,不局限于天翼云的DDoS高防产品。天翼云和其他云厂商均提供有DDoS高防产品,一般可提供高防IP隐藏业务IP、大流量攻击防护和攻击源分析能力。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        网络安全
        网络安全产品推荐
      • 将PostgreSQL迁移到TeleDB
        资源信息 源库规格信息 例:4C8G + 500G + SSD 目标库磁盘信息 例:4C8G + 500G + SSD 网络情况 例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息 总数据量 例:30GB 总库表数量 例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级 例:一天的WAL日志新增大概100GB 是否所有表都有主键 建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次 例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务 例:能/不能 增量迁移情况 例:开启增量迁移,持续时间5天 可停业务时间长度 例:服务停机时间预计48小时 业务中是否存在百万级别的大事务 例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将PostgreSQL迁移到TeleDB
      • 图片涉暴恐识别
        错误码 错误信息 错误描述 AIOP4002 请求文件格式不支持 请求的数据格式该接口暂不支持 AIOP4006 base64数据处理异常 客户端传递的base64格式在处理时发生异常,可以尝试在本地转换base64是否有异常 AIOP4008 图片分辨率不符合要求 该图片的分辨率过大或过小,目前系统可接受的尺寸在 3232 到 5000 5000 之间 AIOP4009 图片文件大小不符合要求 该文件大小不符合要求,静态图片要求小于10M,动态图片要求小于50M AIOP4017 处理该请求超时 该请求内部处理超时,请稍后再试。 AIOP4018 单次批量请求数量超过限制 该批次请求量超过限制,请降低单批次请求量 AIOP5000 服务内部错误 需要联系管理员处理 AIOP5001 服务接口异常,请联系管理员 当前接口无法正常处理请求,需要联系管理员处理。 AIOP5003 场景接口异常,具体参见返回消息 后端服务超时等
        来自:
        帮助文档
        内容审核(文档停止维护)
        API参考
        API
        图片涉暴恐识别
      • 资源及磁盘管理类
        本章介绍天翼云关系型数据库在资源及磁盘管理时的常见问题及解决办法。 创建实例需要多长时间 对于RDS for MySQL和RDS for PostgreSQL实例: 正常情况下,无论是主备实例还是单机实例,创建时间都在57分钟之间。只读实例的创建时间与主实例的数据量有关,数据量越大,创建时间越长。如果是主实例是空实例,创建实例需78分钟。 对于RDS for SQL Server实例: 单机实例创建时间约1215分钟,主备实例创建时间约1518分钟。 如果超过这个时间,创建过程可能存在问题。 占用RDS磁盘空间的日志及文件有哪些 占用关系型数据库实例的磁盘空间的日志及文件如下表: MySQL数据库文件类型 数据库引擎 文件类型 :: MySQL 日志文件:数据库undolog、redolog和Binlog文件。 MySQL 数据文件:数据库内容文件和索引文件。 MySQL 其他文件:ibdata、iblogfile0和临时文件等。 PostgreSQL数据库文件类型 数据库引擎 文件类型 :: PostgreSQL 日志文件:数据库错误日志文件和事务日志文件。 PostgreSQL 数据文件:数据库内容文件、索引文件、复制槽数据文件、事务状态数据文件和数据库配置文件。 PostgreSQL 其他文件:临时文件。 Microsoft SQL Server数据库文件类型 数据库引擎 文件类型 :: Microsoft SQL Server 日志文件:数据库的错误日志、事务日志文件和跟踪文件。 Microsoft SQL Server 数据文件:数据库内容文件。 解决方案 1. 随着业务数据的增加,原来申请的数据库磁盘容量可能会不够用,您需要为关系型数据库实例进行扩容。 2. 针对数据空间过大,可以删除无用的历史表数据进行释放空间(DROP或TRUNCATE操作,如果是执行DELETE操作,需要使用OPTIMIZE TABLE来释放空间);如果没有可删除的历史数据,需要进行磁盘扩容。 3. 针对大量排序查询导致的临时文件过大,建议进行优化SQL查询。 1. 应用中存在大量的排序查询,产生了大量的临时文件。 2. 短期内大量增、删、改,产生大量binlog文件占用空间。 3. 由于大量的事务和写入操作产生了大量的binlog日志文件。 4. 云监控服务目前可以监控存储空间的大小、使用量、利用率等,并且设置告警策略。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        资源及磁盘管理类
      • 创建只读实例
        参数 描述 购买时长 选择所需的时长,可选择包周期或者按需计费,系统会自动计算对应的配置费用,包周期时间越长,折扣越大。 购买数量 关系数据库MySQL版服务支持批量创建只读实例,只读总数上限为5个。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        只读实例
        创建只读实例
      • 步骤一:创建实例
        参数 描述 购买时长(包年/包月) 选择所需的时长,系统会自动计算对应的配置费用,时间越长,折扣越大。 购买数量 关系型数据库服务支持批量创建实例,如果您选择创建主备实例,数量选择为1,那么会同步创建一个主实例和一个备实例。
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        通过公网连接Microsoft SQL Server实例
        步骤一:创建实例
      • 购买
        参数 描述 购买时长(包年/包月) 选择所需的时长,系统会自动计算对应的配置费用,时间越长,折扣越大。 购买数量 关系型数据库支持批量创建实例,如果您选择创建主备实例,数量选择为1,那么会同步创建一个主实例和一个备实例。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        计费说明
        购买
      • API列表
        平台提供了以下大模型API能力。 模型 模型简介 模型ID DoubaoSeed2.0pro DoubaoSeed2.0Pro 是字节跳动推出的最新一代旗舰级通用Agent大模型,隶属于豆包大模型2.0系列,专为应对大规模生产环境下的深度推理与长链路任务执行场景而设计,全面对标GPT 5.2与Gemini 3 Pro。该模型围绕真实世界复杂任务需求进行系统性优化,强化了多模态理解、复杂指令执行与长尾领域知识储备,在数学推理、视觉感知、长上下文处理等多个基准测试中达到业界顶尖水平。其token定价较同级海外模型降低约一个数量级,在保证卓越性能的同时大幅降低部署与使用成本,进一步缩小了与前沿闭源模型的差距,目前已在豆包App、电脑端、网页版及火山引擎API服务同步上线。 d4432662ebed421890bf8fe60e400439 Qwen3Max 千问3系列Max模型,相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。 3d1c69eb6e1d40f186124b98141e64fd DoubaoSeed1.8 DoubaoSeed1.8是字节跳动自主研发的最新一代旗舰级多模态通用智能体(General Agent)大模型,于2025年12月18日在FORCE原动力大会上正式发布,专为应对真实场景中的复杂工作流、多模态交互及智能体执行任务而设计。该模型突破传统单一语言模型局限,实现从“回答问题”到“执行任务”的质变,融合视觉、语言、推理和行动能力于一体,优化了图片编码token数量与推理效率,在多模态理解、智能体操作、代码编写等领域表现卓越,跻身全球大模型第一梯队,其日均token使用量已突破50万亿,进一步缩小了与前沿闭源模型的差距,成为面向实际应用场景的高效实干型AI助手superscript:3。 87f80d930d3e4c478e50f7a121dfbb97 DoubaoSeed1.60615 DoubaoSeed1.60615是全新多模态深度思考模型,同时支持minimal/low/medium/high 四种reasoning effort。 更强模型效果,服务复杂任务和有挑战场景。 651c9b454b58458f9b604e67c03ab73f Doubao1.5pro32k Doubao1.5pro32k 是字节跳动自主研发的新一代旗舰级大模型,专为长文本处理、多场景适配及高精度任务需求而设计,是豆包1.5系列产品线的核心成员之一。该模型坚持高质量训练路线,在14.8万亿高质量tokens上完成预训练,并通过监督微调和强化学习进一步优化,相较于前代模型实现了知识、代码、推理等核心能力的全面跃升。Doubao1.5pro32k集成了稀疏MoE架构与高效上下文管理技术,坚持不使用任何其他模型生成的数据,凭借极低的幻觉率和优异的综合表现,在多项公开评测基准中达到全球领先水平,显著缩小了与前沿闭源模型(如GPT4 Turbo)的差距,可广泛适配个人、企业及专业领域的多样化需求。 3b4f6505923d48beb3d779a28c704a4e Qwen3CoderPlus Qwen3CoderPlus 是阿里通义千问团队研发的顶级代码专用大模型,在 Qwen3 通用模型基座上进行了大规模的代码专项继续预训练与指令微调。该模型熟练掌握 92 种编程语言,在代码生成、Bug 修复、代码解释及跨语言翻译等任务上表现卓越。Qwen3CoderPlus 引入了“仓库级(Repositorylevel)”代码理解技术,能够处理复杂的项目依赖关系,是程序员、数据科学家及自动化运维人员的理想开发助手。 f9089c3c29b24ac7a0148efad6c0650d Qwen3VLPlus Qwen3VLPlus 是阿里通义千问 Qwen3 家族中的增强型视觉语言模型(VisionLanguage Model),专为处理高难度的图像与视频理解任务而设计。相较于开源版本,Plus 版在视觉感知的清晰度、长视频时序分析及视觉智能体(Visual Agent)交互能力上进行了大幅强化。它采用了先进的“原生动态分辨率”技术,支持任意长宽比的图像输入,能够像人类一样精准识别密集文本、复杂图表及长达数小时的视频内容,是构建多模态应用的理想基座。 b0d79f4a19bb4fa8a71745fff38325a4 Qwen3.5397BA17B Qwen3.5397BA17B 是阿里通义千问团队研发的新一代旗舰级开源多模态 MoE(Mixture of Experts)模型。该模型拥有 3970 亿总参数,但在推理时仅激活 170 亿参数(A17B),实现了极致的性能与效率平衡。Qwen3.5 采用了创新的“门控 DeltaNet + MoE”混合架构,实现了视觉与语言的早期融合训练。它不仅在推理、编码和多语言理解上跨代际超越了前代 Qwen3,更在智能体(Agent)和视觉理解任务上表现卓越,原生支持“思考模式”,具备强大的现实世界适应能力。 06b788a9218d4a5b905e5681c2f4e721 GLM5 GLM5 是智谱 AI 推出的最新一代旗舰级开源大模型,专为应对复杂系统工程和长周期智能体(Agent)任务而设计。该模型坚持扩展(Scaling)路线,参数量从前代的 355B(激活 32B)扩展至 744B(激活 40B),预训练数据量提升至 28.5T tokens。GLM5 集成了 DeepSeek 稀疏注意力(DSA)机制,并引入了全新的异步强化学习基础设施“slime”,在推理、编程和智能体任务上表现卓越,是目前全球开源模型中的佼佼者,进一步缩小了与前沿闭源模型(如 GPT5.2)的差距。 6d3a57c3a6fb465e968b604783b89eda DeepSeekV3.2(正式版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 64badd7229504be5a44123367666a51f DeepSeekV3.2(体验版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 2656053fa69c4c2d89c5a691d9d737c3 Qwen3Coder480BA35BInstruct Qwen3Coder480BA35BInstruct是阿里通义千问开源的顶尖代码大模型,采用混合专家(MoE)架构,总参 4800 亿、激活 350 亿参数,实现性能与成本的平衡,能处理仓库级代码与跨文件依赖。 e8ffc9d7e2b34a7487b30d6682207376 Qwen3235BA22BInstruct2507 Qwen3235BA22BInstruct2507是阿里通义千问发布的开源 MoE 架构大模型,总参 2350 亿、激活 220 亿参数,在指令遵循、推理、编码等多领域性能突出,覆盖 100 多种语言与长尾知识。 aab61a64c8504336848e1720bd379ed4 KimiK2Instruct Kimi K2 是一款先进的混合专家(MoE)语言模型,激活参数为 320 亿,总参数为 1 万亿。通过 Muon 优化器进行训练,Kimi K2 在前沿知识、推理和编码任务上表现出色,同时精心优化了代理能力。 38a6a77904264b3dac4644aedb0e5ced Qwen330BA3B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 4efd64f3736d41a08f89db919dbe9c6b BGERerankerLarge BGERerankerLarge是北京智源人工智能研究院(BAAI)发布的一款基于深度学习的重排序模型,能够在中英文两种语言环境下,对检索结果进行优化,提高检索的准确性和相关性。与嵌入模型不同,Reranker使用question和document作为输入,直接输出相似度而不是嵌入。 0cb4c1ed8f374eadbe8bffe30bd039dc BaichuanM232B BaichuanM232B是百川 AI 的医疗增强推理模型,是百川发布的第二个医疗模型。该模型专为现实世界的医疗推理任务设计,在 Qwen2.532B的基础上引入了创新的大型验证系统。通过对真实医疗问题的领域特定微调,它在保持强大通用能力的同时实现了突破性的医疗性能。 9488c08cf627421aacdeb44bd9c2f95c DeepSeekV3.1 DeepSeekV3.1是一个支持思考模式和非思考模式的混合模型。是在 DeepSeekV3.1Base 的基础上进行后训练得到的,后者是通过两阶段长上下文扩展方法在原始 V3 基础检查点上构建的,遵循了原始 DeepSeekV3 报告中概述的方法。通过收集额外的长文档并大幅扩展两个训练阶段来扩大的数据集。 37d1d0f4183b4800a44a69abf9102dfa DeepSeekV30324 DeepSeekV30324是DeepSeek团队于2025年3月24日发布的DeepSeekV3语言模型的新版本。是一个专家混合(MoE)语言模型,总参数为6710亿个,每个Token激活了370亿个参数。0324版本开创了一种用于负载均衡的辅助无损策略,并设定了多令牌预测训练目标以提高性能。该模型版本在几个关键方面比其前身DeepSeekV3有了显著改进。 11bd888a35434486bf209066c7dad0ee DeepSeekR10528 DeepSeekR10528是DeepSeek团队推出的最新版模型。模型基于 DeepSeekV30324 训练,参数量达660B。该模型通过利用增加的计算资源并在后训练期间引入算法优化机制,显著提高了其推理和推理能力的深度。该模型在各种基准测试评估中表现出出色的性能,包括数学、编程和一般逻辑。它的整体性能现在接近 O3 和 Gemini 2.5 Pro 等领先机型。 ff3f5c450f3b459cbe5d04a5ea9b2511 DeepSeekR1 DeepSeekR1 是一款具有创新性的大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekV3 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10 BGEm3 BGEm3是智源发布的通用语义向量模型BGE家族新成员,支持超过100种语言,具备领先的多语言、跨语言检索能力,全面且高质量地支撑“句子”、“段落”、“篇章”、“文档”等不同粒度的输入文本,最大输入长度为8192,并且一站式集成了稠密检索、稀疏检索、多向量检索三种检索功能,在多个评测基准中达到最优水平。 46c1326f63044fbe80443af579466fe3 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 Qwen3235BA22B Qwen3235BA22B是Qwen3系列大型语言模型的旗舰模型。拥有2350多亿总参数和220多亿激活参数。在代码、数学、通用能力等基准测试中,与DeepSeekR1、o1、o3mini、Grok3和Gemini2.5Pro等顶级模型相比,表现出极具竞争力的结果。 35af69e0d4af492ca366cf2df03c3172 Qwen332B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen332B是参数量为32.8B的密集(Dense)模型。 3836b8d2ec5d46fc94cc7891064940aa Qwen314B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen314B是参数量为14.8B的密集(Dense)模型。 5873b698960f45c8ae36e72566f7f141 Qwen38B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen38B是参数量为82亿的密集(Dense)模型。 dceefe3233794dd385e3c2ab500dc6c8 Qwen34B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 8606056bfe0c49448d92587452d1f2fc QwQ32B QwQ32B是一款拥有 320 亿参数的推理模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)的 DeepSeekR1 媲美。该模型集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。 b9293363bfbf4db2bccb839ff4300d17 Qwen2.5VL72BInstruct Qwen2.5VL72BInstruct模型是阿里云通义千问开源的全新视觉模型,具有720亿参数规模,以满足高性能计算场景的需求。目前共推出3B、7B、32B和72B四个尺寸的版本。这是旗舰版Qwen2.5VL72B的指令微调模型,在13项权威评测中夺得视觉理解冠军,全面超越GPT40与Claude3.5。 88003ac1ca7a4e4e8efa7caee648323b
        来自:
        帮助文档
        模型推理服务
        API参考
        推理服务API
        API列表
      • 内存相关参数
        tempbuffers (integer) 设置每个数据库会话使用的临时缓冲区的最大数目。这些都是会话的本地缓冲区,只用于访问临时表。默认是8 兆字节(8MB)。这个设置可以在独立的会话内部被改变,但是只有在会话第一次使用临时表之前才能改变; 在会话中随后企图改变该值是无效的。一个会话将按照tempbuffers给出的限制根据需要分配临时缓冲区。如果在一个并不需要大量临时缓冲区的会话里设置一个大的数值, 其开销只是一个缓冲区描述符,或者说tempbuffers每增加一则增加大概 64 字节。不过,如果一个缓冲区被实际使用,那么它就会额外消耗 8192 字节(或者BLCKSZ字节)。 maxpreparedtransactions (integer) 设置可以同时处于“prepared”状态的事务的最大数目(见PREPARE TRANSACTION)。把这个参数设置 为零(这是默认设置)将禁用预备事务特性。这个参数只能在服务器启动时设置。如果你不打算使用预备事务,可以把这个参数设置为零来防止意外创建预备事务。如果你正在使用预备事务,你将希望把maxpreparedtransactions至少设置为maxconnections一样大,因此每一个会话可以有一个预备事务待处理。当运行一个后备服务器时,这个参数必须至少与主服务器上的一样大。否则,后备服务器上将不会执行查询。 workmem (integer) 指定在写到临时磁盘文件之前被内部排序操作和哈希表使用的内存量。该值默认为四兆字节(4MB)。注意对于一个复杂查询, 可能会并行运行好几个排序或者哈希操作;每个操作都会被允许使用这个参数指定的内存量,然后才会开始写数据到临时文件。同样,几个正在运行的会话可能并发进行这样的操作。因此被使用的总内存可能是workmem值的好几倍,在选择这个值时一定要记住这一点。ORDER BY、DISTINCT和归并连接都要用到排序操作。哈希连接、基于哈希的聚集以及基于哈希的IN子查询处理中都要用到哈希表。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        资源消耗相关参数
        内存相关参数
      • 集群管理
        创建Task节点 特性简介 支持创建Task节点,只作为计算节点,不存放持久化的数据,是实现弹性伸缩的基础。 客户价值 在翼MR服务只作为计算资源的场景下,使用Task节点可以节省成本,并可以更加方便快捷地对集群节点进行扩缩容,满足用户对集群计算能力随时增减的需求。 用户场景 当集群数据量变化不大而集群业务处理能力需求变化比较大,大的业务处理能力只是临时需要,此时选择添加Task节点。 临时业务量增大,如年底报表处理。 需要在短时间内处理完原来需要处理很久的任务,如一些紧急分析任务。 升级Master节点规格 翼MR大数据集群采用Manager实现集群的管理,而管理集群的相关服务,如HDFS存储系统的NameNode,Yarn资源管理的ResourceManager,以及MRS的Manager管理服务都部署在集群的Master节点。 随着新业务的上线,集群规模不断扩大,Master节点承担的管理负荷也越来越高,企业用户面临CPU负载过高,内存使用率超过阈值的问题。通常自建大数据集群需要完成数据搬迁,采购升级节点硬件配置实现Master规格提升,而MRS服务借助云服务的优势,实现一键式Master节点升级,并在升级过程中通过Master节点的主备HA保证已有业务的不间断,方便快捷帮助用户解决主节点规格升级问题。 隔离主机 用户发现某个主机出现异常或故障,无法提供服务或影响集群整体性能时,可以临时将主机从集群可用节点排除,使客户端访问其他可用的正常节点。在为集群安装补丁的场景中,也支持排除指定节点不安装补丁。隔离主机仅支持隔离非管理节点。 主机隔离后该主机上的所有角色实例将被停止,且不能对主机及主机上的所有实例进行启动、停止和配置等操作。另外,主机隔离后无法统计并显示该主机硬件和主机上实例的监控状态及指标数据。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        集群管理
      • 1
      • ...
      • 16
      • 17
      • 18
      • 19
      • 20
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      科研助手

      一站式智算服务平台

      推荐文档

      修改自动备份策略

      操作类

      网页防篡改集中管理中心安装

      域名的种类

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号