活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云堤·抗D_相关内容
      • 经典场景示例
        本页面介绍云数据库ClickHouse单副本实例分布式数据操作的经典场景示例。 本节介绍云数据库ClickHouse的经典场景示例,示例数据集由一个表组成,这个表包含有关Yandex.Metrica的匹配(hitsv1)的匿名数据。数据集可以作为压缩的tsv.xz文件下载或作为准备好的分区下载。 下载TSV文件,并且将数据导入数据库。 如果直接下载tsv数据较慢,可以先使用其他工具或源下载数据文件,再使用xz d hitsv1.tsv.xz 命令解压 ,然后再导入。 单节点示例 下载数据包并解压 curl unxz threads nproc > hitsv1.tsv 创建数据库 clickhouseclient query "CREATE DATABASE IF NOT EXISTS datasets" 创建表 clickhouseclient query "CREATE TABLE datasets.hitsv1 ( WatchID UInt64, JavaEnable UInt8, Title String, GoodEvent Int16, EventTime DateTime, EventDate Date, CounterID UInt32, ClientIP UInt32, ClientIP6 FixedString(16), RegionID UInt32, UserID UInt64, CounterClass Int8, OS UInt8, UserAgent UInt8, URL String, Referer String, URLDomain String, RefererDomain String, Refresh UInt8, IsRobot UInt8, RefererCategories Array(UInt16), URLCategories Array(UInt16), URLRegions Array(UInt32), RefererRegions Array(UInt32), ResolutionWidth UInt16, ResolutionHeight UInt16, ResolutionDepth UInt8, FlashMajor UInt8, FlashMinor UInt8, FlashMinor2 String, NetMajor UInt8, NetMinor UInt8, UserAgentMajor UInt16, UserAgentMinor FixedString(2), CookieEnable UInt8, JavascriptEnable UInt8, IsMobile UInt8, MobilePhone UInt8, MobilePhoneModel String, Params String, IPNetworkID UInt32, TraficSourceID Int8, SearchEngineID UInt16, SearchPhrase String, AdvEngineID UInt8, IsArtifical UInt8, WindowClientWidth UInt16, WindowClientHeight UInt16, ClientTimeZone Int16, ClientEventTime DateTime, SilverlightVersion1 UInt8, SilverlightVersion2 UInt8, SilverlightVersion3 UInt32, SilverlightVersion4 UInt16, PageCharset String, CodeVersion UInt32, IsLink UInt8, IsDownload UInt8, IsNotBounce UInt8, FUniqID UInt64, HID UInt32, IsOldCounter UInt8, IsEvent UInt8, IsParameter UInt8, DontCountHits UInt8, WithHash UInt8, HitColor FixedString(1), UTCEventTime DateTime, Age UInt8, Sex UInt8, Income UInt8, Interests UInt16, Robotness UInt8, GeneralInterests Array(UInt16), RemoteIP UInt32, RemoteIP6 FixedString(16), WindowName Int32, OpenerName Int32, HistoryLength Int16, BrowserLanguage FixedString(2), BrowserCountry FixedString(2), SocialNetwork String, SocialAction String, HTTPError UInt16, SendTiming Int32, DNSTiming Int32, ConnectTiming Int32, ResponseStartTiming Int32, ResponseEndTiming Int32, FetchTiming Int32, RedirectTiming Int32, DOMInteractiveTiming Int32, DOMContentLoadedTiming Int32, DOMCompleteTiming Int32, LoadEventStartTiming Int32, LoadEventEndTiming Int32, NSToDOMContentLoadedTiming Int32, FirstPaintTiming Int32, RedirectCount Int8, SocialSourceNetworkID UInt8, SocialSourcePage String, ParamPrice Int64, ParamOrderID String, ParamCurrency FixedString(3), ParamCurrencyID UInt16, GoalsReached Array(UInt32), OpenstatServiceName String, OpenstatCampaignID String, OpenstatAdID String, OpenstatSourceID String, UTMSource String, UTMMedium String, UTMCampaign String, UTMContent String, UTMTerm String, FromTag String, HasGCLID UInt8, RefererHash UInt64, URLHash UInt64, CLID UInt32, YCLID UInt64, ShareService String, ShareURL String, ShareTitle String, ParsedParams Nested(Key1 String, Key2 String, Key3 String, Key4 String, Key5 String, ValueDouble Float64), IslandID FixedString(16), RequestNum UInt32, RequestTry UInt8) ENGINE MergeTree() PARTITION BY toYYYYMM(EventDate) ORDER BY (CounterID, EventDate, intHash32(UserID)) SAMPLE BY intHash32(UserID) SETTINGS indexgranularity 8192";
        来自:
        帮助文档
        云数据库ClickHouse
        快速入门
        经典场景示例
      • 插件说明与使用介绍
        如何使用 在配置窗口页以 YAML 格式填写 配置示例 下面是一个示例,在指定的 API 上开启了proxyrewrite 插件。 curl H 'XAPIKEY: 2571e288e8f4cd273cab342440068469' X PUT d ' { "methods": ["GET"], "uri": "/test/index.html", "plugins": { "proxyrewrite": { "uri": "/test/home.html", "scheme": "http", "host": "ctyun.com", "headers": { "XApiVersion": "v1", "XApiEngine": "apisix", "XApiuseless": "" } } }, "upstream": { "type": "roundrobin", "nodes": { "127.0.0.1:80": 1 } } }' 启用/停用 在配置页面设置生效开关 验证插件 发送请求,查看上游服务的 access.log,如果输出信息与配置一致: curl X GET 127.0.0.1 [2/Aug/2023:10:52:20 +0800] ctyun.com GET /test/home.html HTTP/1.1 200 38 curl/7.29.0 0.000 199 107 这就表示proxyrewrite 插件已经生效了。 重写proxycookie插件 描述 proxycookie插件是对响应头部setcookie字段中的path属性或者domain属性进行重写,校验的对象: 请求目标服务的返回头部SetCookie中Path属性。 请求目标服务的返回头部SetCookie中Domain属性。 注意 setcookie头部不区分大小写 作用范围 该插件只能用于路由级插件,因为每条路由响应头部setcookie字段中的path属性或者domain属性不同,要视具体情况而定。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        插件市场
        插件说明与使用介绍
      • 日期和时间函数
        占位符 说明 样例 %a 星期的英文缩写 (MonSun) Fri %b 月份的英文缩写 (JanDec) Sep %c 月份 (0112) 09 %C 年份后两位 (0099) 23 %d 每月的第几天。1位数的前面补0 (0131) 01 %e 每月的第几天。前面不补0 (131) 1 %h 小时,12小时制 (0112) 10 %H 小时,24小时制 (0023) 22 %i 分钟 (0059) 30 %j 每年的第几天 (001366) 003 %k 小时,24小时制 (0023) 22 %l 小时,12小时制 (0112) 10 %m 月份 (0112) 09 %M 月份的英文全称 (JanuaryDecember) September %p AM/PM PM %Q 每年的第几季度 (14) 3 %r 时间。12小时制,格式为hh:mm AM/PM。相当于%h:%i %p 10:30 PM %R 时间。24小时制,格式为HH:MM。相当于%H:%i 22:30 %s 秒 (0059) 32 %S 秒 (0059) 32 %T 时间。ISO 8601格式(HH:MM:SS),相当于%H:%i:%S 22:30:32 %u 每周的第几天,从周一开始 (17) 2 %V 每年的第几周 (0153) 01 %w 每周的第几天,从周日开始 (06) 2 %W 星期的英文全称 (MondaySunday) Monday %y 年份后两位 (0099) 23 %Y 年份,4位数 2023 %z 相较UTC的时钟偏移 +HHMM 或 HHMM 0800 %% %的转义字符 %
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        日期和时间函数
      • 日期和时间函数(1)
        占位符 说明 样例 %a 星期的英文缩写 (MonSun) Fri %b 月份的英文缩写 (JanDec) Sep %c 月份 (0112) 09 %C 年份后两位 (0099) 23 %d 每月的第几天。1位数的前面补0 (0131) 01 %e 每月的第几天。前面不补0 (131) 1 %h 小时,12小时制 (0112) 10 %H 小时,24小时制 (0023) 22 %i 分钟 (0059) 30 %j 每年的第几天 (001366) 003 %k 小时,24小时制 (0023) 22 %l 小时,12小时制 (0112) 10 %m 月份 (0112) 09 %M 月份的英文全称 (JanuaryDecember) September %p AM/PM PM %Q 每年的第几季度 (14) 3 %r 时间。12小时制,格式为hh:mm AM/PM。相当于%h:%i %p 10:30 PM %R 时间。24小时制,格式为HH:MM。相当于%H:%i 22:30 %s 秒 (0059) 32 %S 秒 (0059) 32 %T 时间。ISO 8601格式(HH:MM:SS),相当于%H:%i:%S 22:30:32 %u 每周的第几天,从周一开始 (17) 2 %V 每年的第几周 (0153) 01 %w 每周的第几天,从周日开始 (06) 2 %W 星期的英文全称 (MondaySunday) Monday %y 年份后两位 (0099) 23 %Y 年份,4位数 2023 %z 相较UTC的时钟偏移 +HHMM 或 HHMM 0800 %% %的转义字符 %
        来自:
      • ALM-28001 Spark服务不可用(2.x及以前版本)
        本章节主要介绍告警ALM28001 Spark服务不可用(2.x及以前版本)。 告警解释 系统每30秒周期性检测Spark服务状态,当检测到Spark服务不可用时产生该告警。 Spark服务恢复时,告警清除。 告警属性 告警ID 告警级别 可自动清除 ::: 28001 致命 是 告警参数 参数名称 参数含义 :: ServiceName 产生告警的服务名称。 RoleName 产生告警的角色名称。 HostName 产生告警的主机名。 对系统的影响 用户提交的Spark任务执行失败。 可能原因 KrbServer服务异常。 LdapServer服务异常。 ZooKeeper服务异常。 HDFS服务故障。 Yarn服务故障。 对应的Hive服务故障。 处理步骤 检查Spark依赖的服务是否有服务不可用告警。 1. 登录MRS集群详情页面,选择“告警管理”。 2. 在告警列表中,查看是否存在以下告警: a.ALM25500 KrbServer服务不可用 b.ALM25000 LdapServer服务不可用 c.ALM13000 ZooKeeper服务不可用 d.ALM14000 HDFS服务不可用 e.ALM18000 Yarn服务不可用 f.ALM16004 Hive服务不可用 是,执行3。 否,执行 收集故障信息。 3. 根据对应服务不可用告警帮助提供的故障处理对应告警。告警全部恢复后,等待几分钟,检查本告警是否恢复。 是,处理完毕。 否,执行 收集故障信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-28001 Spark服务不可用(2.x及以前版本)
      • 恢复租户数据
        本章节主要介绍如何恢复租户数据。 操作场景 租户的数据默认在Manager和集群组件中保存相关数据,在组件故障恢复或者卸载重新安装的场景下,所有租户的部分配置数据可能状态不正常,需要手动恢复。 前提条件 已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 操作步骤 1.在集群详情页,单击“租户管理”。 说明 MRS 3.x及之后版本请参考 2.在左侧租户列表,单击某个租户节点。 3.检查租户数据状态。 a.在“概述”,查看“基本信息”左侧的圆圈,绿色表示租户可用,灰色表示租户不可用。 b.单击“资源”,查看“Yarn”或者“HDFS 存储”左侧的圆圈,绿色表示资源可用,灰色表示资源不可用。 c.单击“服务关联”,查看关联的服务表格的“状态”列,“良好”表示组件可正常为关联的租户提供服务,“故障”表示组件无法为租户提供服务。 d.任意一个检查结果不正常,需要恢复租户数据,请执行步骤4。 4.单击“恢复租户数据”。 5.在“恢复租户数据”窗口,选择一个或多个需要恢复数据的组件,单击“确定”,等待系统自动恢复租户数据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        租户管理
        恢复租户数据
      • 查看表和数据库的信息
        本章节主要介绍查看表和数据库信息的最佳实践。 查询表信息 使用系统表pgtables查询数据库所有表的信息。 SELECT FROM pgtables; 使用gsql的d+命令查询表结构。 示例:先创建表customert1并插入数据。 CREATE TABLE customert1 ( ccustomersk integer, ccustomerid char(5), cfirstname char(6), clastname char(8) ) with (orientation column,compressionmiddle) distribute by hash (clastname); INSERT INTO customert1 (ccustomersk, ccustomerid, cfirstname) VALUES (6885, 'map', 'Peter'), (4321, 'river', 'Lily'), (9527, 'world', 'James'); 查询表结构。(若建表时不指定schema,则表的默认schemaname是public) d+ customert1; Table "public.customert1" Column Type Modifiers Storage Stats target Description +++++ ccustomersk integer plain ccustomerid character(5) extended cfirstname character(6) extended clastname character(8) extended Has OIDs: no Distribute By: HASH(clastname) Location Nodes: ALL DATANODES Options: orientationcolumn, compressionmiddle, colversion2.0, enabledeltafalse 使用函数pggettabledef查询表定义。 SELECT FROM PGGETTABLEDEF('customert1'); pggettabledef SET searchpath tpchobs; + CREATE TABLE customert1 ( + ccustomersk integer, + ccustomerid character(5), + cfirstname character(6), + clastname character(8) + ) + WITH (orientationcolumn, compressionmiddle, colversion2.0, enabledeltafalse)+ DISTRIBUTE BY HASH(clastname) + TO GROUP groupversion1; (1 row) 执行如下命令查询表customert1的所有数据。 SELECT FROM customert1; ccustomersk ccustomerid cfirstname clastname +++ 6885 map Peter 4321 river Lily 9527 world James (3 rows) 使用SELECT查询表customert1中某一字段的所有数据。 SELECT ccustomersk FROM customert1; ccustomersk 6885 4321 9527 (3 rows) 查询表是否做过表分析,执行如下命令会返回每个表最近一次做analyze的时间,没有返回的则表示没有做过analyze。 select pgstatgetlastanalyzetime(oid),relname from pgclass where relkind'r'; 查询public下的表做表分析的时间: select pgstatgetlastanalyzetime(c.oid),c.relname from pgclass c left join pgnamespace n on c.relnamespace n.oid where c.relkind'r' and n.nspname'public'; pgstatgetlastanalyzetime relname + 20220517 07:48:26.923782+00 warehouset19 20220517 07:48:26.964512+00 emp 20220517 07:48:27.016709+00 testtriggersrctbl 20220517 07:48:27.045385+00 customer 20220517 07:48:27.062486+00 warehouset1 20220517 07:48:27.114884+00 customert1 20220517 07:48:27.172256+00 productinfoinput 20220517 07:48:27.197014+00 tt1 20220517 07:48:27.212906+00 timezonetest (9 rows)
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        查看表和数据库的信息
      • 大数据业务开发
        HiveDriver是否支持对接dbcp2? Hive driver不支持对接dbcp2数据库连接池。dbcp2数据库连接池调用isValid方法检查连接是否可用,而Hive对于这个方法的实现就是直接报错。 用户A如何查看用户B创建的Hive表? MRS 3.x之前版本 1.登录MRS Manager,选择“系统设置 > 权限配置 > 角色管理”。 2.单击“添加角色”,输入“角色名称”和“描述”。 3.在“权限”的表格中选择“Hive > Hive Read Write Privileges”。 4.在数据库列表中单击用户B创建的表所在的数据库名称,显示用户B创建的表。 5.在用户B创建的表的“权限”列,勾选“Select”。 6.单击“确定”,返回“角色”。 7.选择“系统设置 > 用户管理”,在用户A所在的行,单击“修改”,为用户A绑定新创建的角色,单击“确定”,等待5分钟左右即可访问到用户B创建的表。 MRS 3.x及之后版本 1.登录FusionInsight Manager,选择“集群 > 服务 > Hive > 更多”,查看“启用Ranger鉴权”是否置灰。 −是,执行9。 −否,执行28。 2.登录FusionInsight Manager,选择“系统 > 权限 > 角色”。 3.单击“添加角色”,输入“角色名称”和“描述”。 4.在“配置资源权限”的表格中选择“待操作集群的名称 > Hive > Hive读写权限”。 5.在数据库列表中单击用户B创建的表所在的数据库名称,显示用户B创建的表。 6.在用户B创建的表的“权限”列,勾选“查询”。 7.单击“确定”,返回“角色”。 8.单击“用户”,在用户A所在行,单击“修改”,为用户A绑定新创建的角色,单击“确定”,等待5分钟左右即可访问到用户B创建的表。 9.添加Hive的Ranger访问权限策略: a.使用Hive管理员用户登录FusionInsight Manager,选择“集群 > 服务 > Ranger”,单击“Ranger WebUI”右侧的链接进入Ranger管理界面。 b.在首页中单击“HADOOP SQL”区域的组件插件名称,例如“Hive”。 c.在“Access”页签单击“Add New Policy”,添加Hive权限控制策略。 d.在“Create Policy”页面填写如下内容: Policy Name:策略名称,例如:tabletesthive。 database:填写或选择用户B创建的表所在的数据库,例如:default。 table:填写或选择用户B创建的表,例如:test。 column:填写并选择对应的列,例如:。 在“Allow Conditions”区域,单击“Select User”下选择框选择用户A,单击“Add Permissions”,勾选“select”。 单击“Add”。 10.添加HDFS的Ranger访问权限策略: a.使用rangeradmin用户登录FusionInsight Manager,选择“集群 > 服务 > Ranger”,单击“Ranger WebUI”右侧的链接进入Ranger管理界面。 b.在首页中单击“HDFS”区域的组件插件名称,例如“hacluster”。 c.单击“Add New Policy”,添加HDFS权限控制策略。 d.在“Create Policy”页面填写如下内容: Policy Name:策略名称,例如:tablehdfstest。 Resource Path:配置用户B创建的表所在的HDFS路径,例如:/user/hive/warehouse/ 数据库名称 /表名 在“Allow Conditions”区域,单击“Select User”下选择框选择用户A,单击“Add Permissions”,勾选“Read”和“Execute”。 单击“Add”。 11.在策略列表可查看策略的基本信息。等待策略生效后,用户A即可查看用户B创建的表。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        大数据业务开发
      • MRS集群中的用户与权限
        本章节主要介绍MRS集群中的用户与权限。 概述 MRS集群用户 Manager中的安全帐号,包含用户名、密码等属性,MRS集群的使用者通过这类用户访问集群中的资源。每个启用Kerberos认证的MRS集群可以有多个用户。 MRS集群角色 用户在实际使用MRS集群时需根据业务场景获取访问资源的权限,访问资源的权限是定义到MRS集群对象上的。集群的角色就是包含一个或者多个权限的集合。例如,HDFS中某个目录的访问权限,需要在指定的目录上配置,并保存在角色中。 Manager支持MRS集群用户权限管理功能,使权限管理与用户管理更加直观、易用。 权限管理:使用RBAC(RoleBased Access Control)方式,即基于角色授予权限,形成权限的集合。用户通过分配一个或多个已授权的角色取得对应的权限。 用户管理:使用Manager统一管理MRS集群用户,并通过Kerberos协议认证用户,LDAP协议存储用户信息。 权限管理 MRS集群提供的权限包括Manager和各组件(例如HDFS、HBase、Hive和Yarn等)的操作维护权限,在实际应用时需根据业务场景为各用户分别配置不同权限。为了提升权限管理的易用性,Manager引入角色的功能,通过选取指定的权限并统一授予角色,以权限集合的形式实现了权限集中查看和管理,提升了权限管理的易用性和用户体验。 角色可以理解为集中一个或多个权限的逻辑体,角色被授予指定的权限,用户通过绑定角色获得对应的权限。 一个角色可以有多个权限,一个用户可以绑定多个角色。 角色1:授予操作权限A和B,用户a和用户b通过绑定角色1取得对应的权限。 角色2:授予操作权限C,用户c和用户d通过绑定角色2取得对应的权限。 角色3:授予操作权限D和F,用户a通过绑定配角色3取得对应的权限。 例如,MRS集群用户绑定了管理员角色,那么这个用户成为MRS集群的管理员用户。 Manager界面显示系统默认创建的角色如下表所示。 Manager默认角色与描述 默认角色 角色描述 default 为租户创建的角色。 Manageradministrator Manager管理员,具有Manager的管理权限。 Managerauditor Manager审计员,具有查看和管理审计信息的权限。 Manageroperator Manager操作员,具有除租户管理、配置管理和集群管理功能以外的权限。 Managerviewer Manager查看员,具有查看系统概览,服务,主机,告警,审计日志等信息的权限。 Systemadministrator 系统管理员,具有Manager的管理权限及所有服务管理员的所有权限。 Managertenant Manager租户管理页面查看角色,具有Manager“租户管理”页面查看权限。 通过Manager创建角色时支持对Manager和组件进行授权管理,如下表所示。 Manager与组件授权管理 授权类型 授权描述 Manager Manager访问与登录权限。 HBase HBase管理员权限设置和表、列族授权。 HDFS HDFS中的目录和文件授权。 Hive Hive Admin Privilege Hive管理员权限。 Hive Read Write Privileges Hive数据表管理权限,可设置与管理已创建的表的数据操作权限。 Hue 存储策略管理员权限。 Yarn Cluster Admin Operations Yarn管理员权限。 Scheduler Queue 队列资源管理。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        MRS集群中的用户与权限
      • 管理云硬盘过户
        本节介绍了管理云硬盘过户的操作场景、约束与限制、操作步骤。 操作场景 通过云硬盘过户功能把一个帐号的云硬盘过户给另一个帐号,过户成功后,该云硬盘就属于接受过户的帐号。 云硬盘过户当前只支持数据盘。当前需要使用API接口来使用云硬盘过户功能,如有需要,请提交工单进行咨询。 约束与限制 包周期的云硬盘不支持过户。 冻结的云硬盘不支持过户。 加密的云硬盘不支持过户。 云硬盘有对应的备份和快照时不支持过户。 云硬盘有备份策略时不支持过户。 DSS的云硬盘不支持过户。 云硬盘不支持跨区域过户。 操作步骤 以将帐号A的云硬盘过户给帐号B为例。用户A属于帐号A,用户B属于帐号B。由用户A创建过户记录,用户B通过云硬盘过户记录ID(transferid)和云硬盘过户的身份认证密钥(authkey)接受过户,接受成功后即完成过户,基本流程如下图所示。 说明 ● transferid:云硬盘过户记录ID,每个云硬盘过户记录对应一个transferid,用户B需要通过transferid接受待过户的云硬盘。 ● authkey:云硬盘过户的身份认证密钥,每个云硬盘过户记录对应一个authkey,用户B在接受云硬盘过户时需要使用authkey进行身份认证。 图 云硬盘过户操作流程 步骤 1 用户A创建云硬盘过户记录。 云硬盘过户记录创建成功后会返回transferid和authkey。 步骤 2 (可选)用户A可以查看云硬盘过户记录。如果创建了多个云硬盘过户记录,还可以查询过户记录列表。 步骤 3 用户A将返回的transferid和authkey传递给用户B。 步骤 4 用户B是否接受云硬盘过户? ● 是,请执行步骤5。 ● 否,任务结束。 对于未被接受的云硬盘过户,用户A可以进行删除。 步骤 5 用户B接受transferid和authkey。 步骤 6 用户B通过transferid和authkey接受云硬盘过户。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理云硬盘过户
      • 配置用户访问模式权限
        您可以参考本文,配置用户访问模式权限。 普通用户对于某个模式下的对象访问除了访问对象要授权外,模式也需要授权。 plaintext [teledb@localhost bin]$ ./telesql p 11111 U teledb d teledb Password for user teledb: telesql (TeleDB V6) Type "help" for help. 创建shema teledb create schema test; CREATE SCHEMA 创建表 teledb create table test.t1(id int); CREATE TABLE 创建用户user1 teledb create role user1 with login password 'User@184'; CREATE ROLE 授权表访问权限给用户user1 teledb grant select on test.t1 to user1; GRANT 切换到普通用户user1,尝试访问test.t1表,由于没有授权test模式,仍然无法访问 plaintext teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; ERROR: permission denied for schema test LINE 1: select from test.t1; ^ 切换到teledb用户,将test模式的访问权限授权给user1,重新用user1访问t1表 plaintext teledb> c teledb Password for user teledb: You are now connected to database "teledb" as user "teledb". 授权schema teledb grant usage on schema test to user1; GRANT teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; id (0 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        配置用户访问模式权限
      • 配置用户访问模式权限
        您可以参考本文,配置用户访问模式权限。 普通用户对于某个模式下的对象访问除了访问对象要授权外,模式也需要授权。 plaintext [teledb@localhost bin]$ ./telesql p 11111 U teledb d teledb Password for user teledb: telesql (TeleDB V6) Type "help" for help. 创建shema teledb create schema test; CREATE SCHEMA 创建表 teledb create table test.t1(id int); CREATE TABLE 创建用户user1 teledb create role user1 with login password 'User@184'; CREATE ROLE 授权表访问权限给用户user1 teledb grant select on test.t1 to user1; GRANT 切换到普通用户user1,尝试访问test.t1表,由于没有授权test模式,仍然无法访问 plaintext teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; ERROR: permission denied for schema test LINE 1: select from test.t1; ^ 切换到teledb用户,将test模式的访问权限授权给user1,重新用user1访问t1表 plaintext teledb> c teledb Password for user teledb: You are now connected to database "teledb" as user "teledb". 授权schema teledb grant usage on schema test to user1; GRANT teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; id (0 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        配置用户访问模式权限
      • Teledb管控服务安装部署
        该任务用于指导软件工程师安装部署teledb管控服务。 前提条件 已安装dcp。 已初始化环境,包括创建teledb用户,挂载磁盘,并给于sudo权限。 操作步骤 1. 创建根目录提供给挂载盘/data使用,并给于sudo权限。 mkdir p /data mount /dev/vdb /data echo "UUID"blkid /dev/vdbcut d '"' f2" /data xfs defaults 0 0" sudo tee a /etc/fstab 2. 上传并解压安装包 cd /app 上传teledbconsole centos.x8664.tar.gz压缩包至app目录下。 tar zxvf teledbconsole centos.x8664.tar.gz cd teledbconsole centos.x8664 3. 安装dos2unix 执行如下命令 cd /app/teledbconsole centos.x8664/teledbxmirror/deploy/utils/ rpm ivh dos2unix6.0.34.el7.x8664.rpm 出现如下回显信息。 cd /app chmod R 755 teledbconsole centos.x8664 chown R teledb:teledb /app 4. 修改配置文件role.info、ossdcp.conf和ossinit.conf。 执行如下命令修改role.info配置文件。 su teledb cd /app/teledbconsole centos.x8664/teledbxmgr/conf vim role.info 您可按照如下模版修改配置文件内容:
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        Teledb管控服务安装部署
      • 应用场景
        产品优势 保持对存储服务器的实际管控权,不独占硬件,完全接管服务器,可部署其他应用。 对资源池进行升级扩容,可以任意选择任意规格和型号的服务器,无供应商锁定问题。 兼容 Kubernetes CSI,支持为容器提供存储资源,部署成本降低,同时支持弹性扩展能力。 建议搭配产品 物理机、专属云(存储独享型) 场景架构图
        来自:
        帮助文档
        存储资源盘活系统
        产品简介
        应用场景
      • DeepSeek模型调用-快捷版
        400 role参数错误,不能以assistant开头 问题原因:模型setting首次配置错误,更改配置后,因为本次对话包含历史错误信息,导致仍然会报错。 解决方案:开启一个新的对话即可。 API statuscode429:DEEPSEEKMODELCONCURRENCYLIMIT ruby 报错信息为:[openaiapicompatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEPSEEKMODELCONCURRENCYLIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEPSEEKMODELCONCURRENCYLIMIT"}} 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。 解决方案:等一段时间再调用,或增加重试机制。 API 直连调用耗时长 问题原因:大模型API同步耗时长是因为其推理过程复杂,需要逐个生成token并拼接结果,且在处理长文本或复杂问题时,等待完整结果返回的时间过长。而流式API可以在推理过程中逐步返回结果,用户无需等待全部结果生成,从而提升交互效率。 解决方案:改为流式调用。
        来自:
        帮助文档
        一站式智算服务平台
        最佳实践
        DeepSeek模型调用-快捷版
      • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        2.1 服务配置 2.1.1 调度参数配置 编辑/home/vllm/srundeepseek.sh,如果是2台或者3台,需修改N后面的数值: !/bin/bash SBATCH N 4 ... 2.1.2 模型参数配置 编辑/home/vllm/node.sh: export MODELDIR/mnt/data/hfcache/DeepSeekR1 export MODELNAMEDeepSeekR1 export VLLMIMAGEvllmopenaiv0.8.1.sif export VLLMAPIKEY"password" 其中: MODELDIR为模型具体位置 MODELNAME为显示的模型名称 VLLMIMAGE为使用的vllm apptainer容器 VLLMAPIKEY为模型密钥,默认为password 2.2 DeepSeek服务启动 cd /home/deepseek sbatch srundeepseek.sh 输出示例:Submitted batch job 403 查看日志目录下的err文件,当出现如下信息时,表示服务启动: INFO: Started server process [409] INFO: Waiting for application startup. INFO: Application startup complete. 2.3 查看DeepSeek状态 可通过slurm命令squeue,查看作业运行信息: $ squeue JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON) 403 batch DSL40S root R 8:19 4 compute[0104] 注意 可在/home/deepseek/log目录中查看当前作业的日志文件。 2.4 DeepSeek服务停止 上述示例中,DeepSeek服务的JOB ID为403,如果需停止DeepSeek服务,命令为: scancel 403 或 scancel me
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机搭建DeepSeek指南
        NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
      • 数据面ebpf加速
        开启方法 登录服务网格控制台后,在 网格优化中心 > 数据面ebpf中,选择集群后,点击“开启数据面ebpf加速”即可。 如果开启时存在节点不符合以上条件,页面会进行报错,您仍可以选择开启,开启后再升级内核或者切换cgroup为v2。在此之前,加速功能不生效,但是不会对原业务产生不良影响。 启用验证 开启成功后,会产生DaemonSet,查看DaemonSet状态可以确认ebpf挂载点是否已经成功挂载。即使DaemonSet已经成功拉起,还需要进一步确认容器是否正常启动。 如图中所示,点击pod也可以展开容器信息,可以通过状态或启动日志判断执行结果。 程序成功挂载后,网络转发是否生效可以通过日志确认 查看bpf日志方法:先到达相应的集群node上 sudo cat /sys/kernel/debug/tracing/tracepipe(这个是管道) sudo cat /sys/kernel/debug/tracing/trace(这个是有限文本) 转发是否成功,通过日志查看,出现以下关键字with eBPF successfully表示转发成功了。 python552600 [007] d... 172606.097546: bpftraceprintk: [debug] redirect 4183 bytes with eBPF successfully
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格优化中心
        数据面ebpf加速
      • 微服务引擎仪表盘中的数据通过ServiceStage对接到AOM
        背景信息 部署到微服务引擎的Java Chassis应用,在微服务引擎仪表盘上的实时监控数据默认保留5分钟。如果需要持久化存储历史监控数据用于后续查询分析,可以使用ServiceStage的自定义指标监控功能,将微服务显示到微服务引擎仪表盘中的数据对接到AOM。 本章节以软件包部署应用为例,指导您完成将微服务引擎仪表盘中的数据通过ServiceStage对接到AOM。 操作步骤 1.添加依赖 在开发环境中,打开需要持久化存储历史监控数据的应用项目,在微服务pom文件中添加如下依赖: org.apache.servicecomb metricscore org.apache.servicecomb metricsprometheus 2.将添加依赖后的应用项目重新编译打包并上传。 3.部署组件 4.更新已部署组件来源 5.对接监控指标到AOM a. 登录ServiceStage控制台,选择“应用管理 > 应用列表”。 b. 单击组件所在应用名称,进入应用“概览”页。 c. 在“环境视图”页签,选择部署了组件的“环境”。 d. 单击组件名称,进入组件实例“概览”页。 e. 单击“更新升级”。 f. 选择“高级设置 > 运维监控 > 自定义指标监控”,填写下表参数: 参数名称 参数值 上报路径 /metrics 上报端口 9696 6.单击“重新部署”,等待组件重新部署成功。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        微服务引擎仪表盘中的数据通过ServiceStage对接到AOM
      • 配置用户访问模式权限
        您可以参考本文,配置用户访问模式权限。 当普通用户访问某个模式下的对象时,需要对对象授权,也需要对模式授权。 [teledb@localhost bin]$ ./telesql p 11111 U teledb d teledb Password for user teledb: telesql (TeleDB V6) Type "help" for help. 创建schema teledb create schema test; CREATE SCHEMA 创建表 teledb create table test.t1(id int); CREATE TABLE 创建用户user1 teledb create role user1 with login password 'User@184'; CREATE ROLE 给用户user1授权表访问权限 teledb grant select on test.t1 to user1; GRANT 示例: 切换至普通用户user1,尝试访问test.t1表。由于没有授权test模式,仍然无法访问。 teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; ERROR: permission denied for schema test LINE 1: select from test.t1; ^ 切换至teledb用户,将test模式的访问权限授权给user1,重新用user1访问t1表。 teledb> c teledb Password for user teledb: You are now connected to database "teledb" as user "teledb". 授权schema teledb grant usage on schema test to user1; GRANT teledb c user1 Password for user user1: You are now connected to database "teledb" as user "user1". teledb> select from test.t1; id (0 rows)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据库基础开发
        DDL操作
        模式管理
        配置用户访问模式权限
      • 一键式重置密码插件启动失败时如何操作?
        本节介绍了一键式重置密码插件启动失败时的解决办法。 问题描述 一键式重置密码插件安装完成后,插件启动失败。 处理方法 在云主机中增加如下配置,完成一键重置密码插件的启动。不同操作系统的文件路径不同,具体操作请参见下文“操作步骤”。 /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start 说明: 如果文件最后有“exit 0”,则在文件最后的“exit 0”前一行输入以上内容。如果文件最后无“exit 0”,则在文件最后一行输入。 使用SUSE 11 SP4镜像创建的云主机,内存需要大于等于4G时才能支持一键式密码重置功能。 操作步骤 CoreOS操作系统,请执行如下命令完成一键式重置密码插件的启动。 cat >/etc/systemd/system/cloudResetPwdAgent.service /etc/systemd/system/cloudResetPwdUpdateAgent.service <dResetPwdUpdateAgent service Wantslocalfs.target Requireslocalfs.target [Service] Typesimple ExecStart/CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start RemainAfterExityes ExecStop/CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script stop KillModenone [Install] WantedBymultiuser.target EOT systemctl enable cloudResetPwdUpdateAgent.service SUSE、Ubuntu或Debian操作系统 a. 执行如下命令,打开rc文件。 vi /etc/init.d/rc b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。 CentOS 7系列操作系统 a. 执行如下命令,打开rc.local文件。 chmod +x /etc/rc.d/rc.local vi /etc/rc.d/rc.local b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。 openSUSE 13系列操作系统 a. 执行如下命令,打开boot.local文件。 vi /etc/init.d/boot.local b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。 Debian 8系列操作系统 a. 执行如下命令,打开rc.local文件。 vi /etc/rc.local b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。 Fedora 20系列操作系统 a. 执行如下命令,打开rc.local文件。 touch /etc/rc.d/rc.local chmod +x /etc/rc.d/rc.local vi /etc/rc.d/rc.local b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。 其他操作系统 a. 执行如下命令,打开rc.local文件。 vi /etc/rc.d/rc b. 按“i”进入编辑模式,在文件末尾补充如下内容: /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script start /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script start c. 按“Esc”后,输入:wq,按“Enter”,保存设置并退出。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        操作系统类
        一键式重置密码插件启动失败时如何操作?
      • DeepSeek模型调用-快捷版
        400 role参数错误,不能以assistant开头 问题原因:模型setting首次配置错误,更改配置后,因为本次对话包含历史错误信息,导致仍然会报错。 解决方案:开启一个新的对话即可。 API statuscode429:DEEPSEEKMODELCONCURRENCYLIMIT ruby 报错信息为:[openaiapicompatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEPSEEKMODELCONCURRENCYLIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEPSEEKMODELCONCURRENCYLIMIT"}} 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。 解决方案:等一段时间再调用,或增加重试机制。 API 直连调用耗时长 问题原因:大模型API同步耗时长是因为其推理过程复杂,需要逐个生成token并拼接结果,且在处理长文本或复杂问题时,等待完整结果返回的时间过长。而流式API可以在推理过程中逐步返回结果,用户无需等待全部结果生成,从而提升交互效率。 解决方案:改为流式调用。
        来自:
        帮助文档
        模型推理服务
        最佳实践
        DeepSeek模型调用-快捷版
      • 软件连接器实例安装
        网络配置 可以访问公网,如果存在防火墙且出方向流量存在限制,则需进行放行,允许连接器可以访问公网的TCP 443端口、UDP 53端口和UDP xxx端口,具体端口号请在生成连接器后的页面获取。 其中出方向流量指连接器需对外进行连通,安装连接器后并不会产生公网端口暴露。 为保障访问连接高可用,建议您一个连接器集群安装并启动至少2个服务器或虚拟机。 Docker环境安装指导 零信任连接器当前支持多种部署方式,若您选择Docker方式,且所需部署的服务器没有Docker环境,可以按照如下方式部署Docker环境: 1. 安装必要的一些系统工具: sudo yum install y yumutils devicemapperpersistentdata lvm 2. 添加软件源信息,请选择合适的docker镜像源,以下命令行请补充替换docker源地址后使用: sudo yumconfigmanager addrepo docker源地址 3. 以下命令行请补充替换docker源地址后使用: sudo sed i 's+download.docker.com+docker源地址/dockerce+' /etc/yum.repos.d/dockerce.repo 4. 更新并安装DockerCE: sudo yum makecache fast sudo yum y install dockerce 5. 开启Docker服务 sudo service docker start 6. 开启Docker服务开机自启动 sudo systemctl enable docker
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        网络管理
        连接器管理
        软件连接器实例安装
      • CentOS操作系统安装NVIDIA GPU驱动
        本文为您介绍Centos操作系统安装Nvidia GPU驱动。 CentOS操作系统安装NVIDIA GPU驱动 本章以CentOS 7.6系统为例,介绍NVIDIA GPU驱动的安装方法。 1.1 禁用nouveau驱动 Bash 修改distblacklist.conf文件: vim /lib/modprobe.d/distblacklist.conf 1. 将nvidiafb注释掉:blacklist nvidiafb >变为 blacklist nvidiafb 2. 然后在文件末尾添加以下语句: blacklist nouveau options nouveau modeset0 注意 安装NVIDIA GPU驱动需要在非桌面环境运行。如果处于桌面环境中,可以执行命令systemctl setdefault multiuser.target,然后重启来切换到虚拟终端界面。稍后可以执行命令systemctl setdefault graphical.target,然后重启再切换回桌面环境中。 1.2 使用run文件安装驱动 1.2.1 下载驱动 使用下述链接下载驱动: 1.2.2 安装驱动 假设下载好的驱动放在/root/NVIDIALinuxx8664470.129.06.run Bash yum y install buildessential 添加必要依赖 chmod +x /root/NVIDIALinuxx8664470.129.06.run /root/NVIDIALinuxx8664470.129.06.run 1.2.3 验证驱动是否正常安装 Bash nvidiasmi 出现类似如下界面,说明驱动安装完成。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        GPU驱动安装说明
        CentOS操作系统安装NVIDIA GPU驱动
      • 分片上传接口
        代码示例 python def multipartupload(self): bucket ' ' key ' ' localpath ' ' parts [] part list uploaded by client partsize 5 1024 1024 createmultipartupload resp self.s3client.createmultipartupload( Bucketbucket, Keykey ) uploadid resp['UploadId'] print('createmultipartupload success uploadid: %s' %uploadid) uploadpart with open(localpath, 'rb') as f: s f.read(partsize) partnum 1 while s: filechunk io.BytesIO(s) resp self.s3client.uploadpart( Bucketbucket, Keykey, Bodyfilechunk, UploadIduploadid, PartNumberpartnum, ) print('upload part %d success' %partnum) part { 'ETag': resp['ETag'], 'PartNumber': partnum } parts.append(part) s f.read(partsize) partnum + 1 completemultipartupload resp self.s3client.completemultipartupload( Bucketbucket, Keykey, UploadIduploadid, MultipartUpload{ 'Parts': parts }, ) print('completemultipartupload success uploadid: %s' %uploadid) 请求参数 参数 类型 说明 是否必要 Bucket string 桶名称 是 Key string 对象key 是 Body bytesfile 对象的数据 是 PartNumber int 当前分片号码 是 UploadId string 通过创建上传任务接口获取到的任务Id 是 返回结果 参数 类型 说明 ETag string 本次上传分片对应的Entity Tag 合并分片
        来自:
        帮助文档
        媒体存储
        SDK参考
        Python
        分片上传接口
      • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        2.1 服务配置 2.1.1 调度参数配置 编辑/home/vllm/srundeepseek.sh,如果是2台或者3台,需修改N后面的数值: plaintext !/bin/bash SBATCH N 4 ... 2.1.2 模型参数配置 编辑/home/vllm/node.sh: plaintext export MODELDIR/mnt/data/hfcache/DeepSeekR1 export MODELNAMEDeepSeekR1 export VLLMIMAGEvllmopenaiv0.8.1.sif export VLLMAPIKEY"password" 其中: MODELDIR为模型具体位置 MODELNAME为显示的模型名称 VLLMIMAGE为使用的vllm apptainer容器 VLLMAPIKEY为模型密钥,默认为password 2.2 DeepSeek服务启动 plaintext cd /home/deepseek sbatch srundeepseek.sh 输出示例:Submitted batch job 403 查看日志目录下的err文件,当出现如下信息时,表示服务启动: plaintext INFO: Started server process [409] INFO: Waiting for application startup. INFO: Application startup complete. 2.3 查看DeepSeek状态 可通过slurm命令squeue,查看作业运行信息: plaintext $ squeue JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON) 403 batch DSL40S root R 8:19 4 compute[0104] 注意 可在/home/deepseek/log目录中查看当前作业的日志文件。 2.4 DeepSeek服务停止 上述示例中,DeepSeek服务的JOB ID为403,如果需停止DeepSeek服务,命令为: plaintext scancel 403 或 scancel me
        来自:
        帮助文档
        物理机 DPS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU物理机:物理机搭建DeepSeek指南
        NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
      • 分布
        指标分类 指标项 进程 运行的进程总数 进程总数 omm进程总数 D状态进程总数 网络状态 主机网络数据包冲突数 LASTACK状态数量 CLOSING状态数量 LISTENING状态数量 CLOSED状态数量 ESTABLISHED状态数量 SYNRECV状态数量 TIMEWAITING状态数量 FINWAIT2状态数量 FINWAIT1状态数量 CLOSEWAIT状态数量 DNS解析时长 TCP临时端口使用率 主机网络数据包帧错误数 网络读信息 主机网络读包数 主机网络读包丢包数 主机网络读包错误数 主机网络接收速率 磁盘 主机磁盘写速率 主机磁盘已使用大小 主机磁盘未使用大小 主机磁盘读速率 主机磁盘使用率 内存 未使用内存 缓存内存大小 内核缓存的内存总量 共享内存大小 主机内存使用率 已使用内存 网络写信息 主机网络写包数 主机网络写包错误数 主机网络发送速率 主机网络写包丢包数 CPU 改变过优先级的进程占CPU的百分比 用户空间占用CPU百分比 内核空间占用CPU百分比 主机CPU使用率 CPU总时间 CPU闲置时间 主机状态 主机文件句柄使用率 每1分钟系统平均负载 每5分钟系统平均负载 每15分钟系统平均负载 主机PID使用率
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        主机管理
        资源概况
        分布
      • 钢筋计数模型训练教学与实践
        forward t0 time.time() out net(images) backprop optimizer.zerograd() lossl, lossc criterion(out, priors, targets) loss lossl + lossc loss.backward() optimizer.step() t1 time.time() locloss + lossl.item() confloss + lossc.item() loadt1 time.time() if iteration % 10 0: print('Epoch:' + repr(epoch) + ' epochiter: ' + repr(iteration % epochsize) + '/' + repr(epochsize) ' Totel iter ' + repr(iteration) + ' L: %.4f C: %.4f' % ( lossl.item(),lossc.item()) + 'Batch time: %.4f sec. ' % (loadt1 loadt0) + 'LR: %.8f' % (lr)) torch.save(net.statedict(), os.path.join(savefolder, 'epoch' + repr(epoch).zfill(3) + 'loss'+ '%.4f' % loss.item() + '.pth')) 5. 开始训练,每个epoch训练耗时约60秒,这里共运行25个epoch,耗时较久,请耐心等待。 输入: t1 time.time() print('开始训练,本次训练总共需%d个epoch,每个epoch训练耗时约60秒' % maxepoch) train() print('training cost %.2f s' % (time.time() t1)) 输出: 开始训练,本次训练总共需25个epoch,每个epoch训练耗时约60秒 Loading dataset... Epoch:1 epochiter: 0/50 Totel iter 0 L: 3.5865 C: 4.3866Batch time: 4.4935 sec. LR: 0.00000001 Epoch:1 epochiter: 10/50 Totel iter 10 L: 4.1511 C: 3.8391Batch time: 1.0780 sec. LR: 0.00020001 .....
        来自:
        帮助文档
        科研助手
        最佳实践
        钢筋计数模型训练教学与实践
      • Linux系统基础命令实验
        文件查看 文件查看的命令主要介绍三个,一个是cat,一个是head,一个是tail。 cat命令主要是查看文件的所有内容;head用作查看文件的头部内容;tail用作查看文件的末尾内容。 步骤1 cat查看文件 查看系统环境变量文件/etc/profile。 输入: cat /etc/profile 输出: /etc/profile: systemwide .profile file for the Bourne shell (sh(1)) and Bourne compatible shells (bash(1), ksh(1), ash(1), ...). if [ "${PS1}" ]; then if [ "${BASH}" ] && [ "$BASH" ! "/bin/sh" ]; then The file bash.bashrc already sets the default PS1. PS1'h:w$ ' if [ f /etc/bash.bashrc ]; then . /etc/bash.bashrc fi else if [ "$(id u)" eq 0 ]; then PS1' ' else PS1'$ ' fi fi fi if [ d /etc/profile.d ]; then for i in /etc/profile.d/.sh; do if [ r $i ]; then . $i fi done unset i fi cat命令紧跟需要查看的文件路径,这个路径可以是绝对路径也可以是相对路径。 > cat 详细参数: > > 输入: > > cat help 步骤2 head查看文件 查看环境变量文件/etc/profile前5行的信息。 输入: head 5 /etc/profile 输出: /etc/profile: systemwide .profile file for the Bourne shell (sh(1)) and Bourne compatible shells (bash(1), ksh(1), ash(1), ...). if [ "${PS1}" ]; then if [ "${BASH}" ] && [ "$BASH" ! "/bin/sh" ]; then 通过5的方式来指定需要查看多少行的数据(不指定参数默认查看前10行的数据)。 > head命令参数详情: > > 输入: > > head help
        来自:
        帮助文档
        科研助手
        最佳实践
        Linux系统基础命令实验
      • 快速导入镜像文件
        操作场景 本节指导您基于Windows操作系统环境完成镜像文件快速导入,推荐使用Windows系统本地PC作为转换镜像格式和生成位表文件的环境。 Windows操作系统环境下,必须使用开源qemuimg工具进行镜像格式转换,qemuimg支持vhd、vmdk、qcow2、raw、vhdx、qcow、vdi或qed格式的镜像的相互转换,因此需要转换为raw格式,再使用CreateMF.jar工具生成位表文件。 前提条件 已完成镜像文件优化,详细操作请参考优化私有镜像(Windows)或优化私有镜像(Linux);同时需要确保镜像文件符合Windows操作系统的镜像文件限制中的限制条件。 说明 根据镜像文件的操作系统类型来选择所参考内容。 已在管理控制台创建OBS桶,并下载OBS Browser+工具。 操作步骤 1. 安装开源镜像转换工具qemuimg。 2. 通过cmd命令进入qemuimg安装目录,执行qemuimg命令将镜像文件转换为raw格式。 以将“image.qcow2”格式文件转换成“image.raw”格式为例: qemuimg convert p O raw image.qcow2 image.raw 3. 使用CreateMF.jar工具生成位表文件。 1. 获取工具并解压。 请联系管理员获取工具。 2. 请确保当前环境已安装jdk。 可通过CreateMF如下方法验证: 打开cmd.exe,执行java version,若显示java版本信息,证明已安装jdk。 3. 进入.jar程序所在的路径。 以将CreateMF.jar程序下载到“D:/test”目录为例,执行以下命令进入CreateMF.jar程序所在的路径: D: cd test 4. 执行以下命令,生成raw格式镜像文件对应的位表文件。 java jar CreateMF.jar D:/image01.raw D:/image01.mf 注意 生成的.mf位表文件和raw格式镜像文件必须是相同名称。例如镜像文件名称为:image01.raw,那么生成的位表文件名称为:image01.mf。 4. 使用OBS Browser+工具上传文件至OBS桶。 必须将raw格式镜像文件及其位表文件上传至同一OBS桶。 5. 注册私有镜像。 您可以通过控制台方式、API接口方式,将转换后的zvhd2或raw文件注册为私有镜像。 方法一:通过控制台创建私有镜像 1. 登录IMS控制台。 1. 登录管理控制台。 2. 选择“计算 > 镜像服务”。 进入镜像服务页面。 2. 单击右上角的“创建私有镜像”。 3. 在“创建方式”区域,选择镜像的创建方式为“导入私有镜像”。 4. 在“镜像类型”区域,选择镜像类型为“系统盘镜像”或“数据盘镜像”。 5. 镜像源选择“镜像文件”,从列表中选择转换为zvhd2或raw文件的桶,再选择转换后的镜像文件。如果是raw格式镜像文件,需要确保同名位表文件已上传。 6. 勾选快速通道栏的“开启快速通道”,并确认已优化镜像文件,然后勾选“镜像文件准备”栏的内容。 7. 根据界面提示填写配置信息。 具体的配置参数说明,请参见通过外部镜像文件创建Windows系统盘镜像。 注意 操作系统必须要和镜像文件所含的操作系统一致。 系统盘大小必须大于镜像文件的大小。 通过qemuimgctc工具可查询镜像文件大小: qemuimgctc info test.zvhd2 方法二:通过API方式创建私有镜像 您可以通过接口POST /v2/cloudimages/quickimport/action,实现镜像文件快速导入功能。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        快速导入镜像文件
      • 支持的编程语言
        运行时环境变量说明 下面是FunctionGraph执行环境中运行时相关的环境变量列表,除此之外,还有用户自定义的环境变量,都可以在函数代码中直接使用。 环境变量说明 键 值说明 RUNTIMEPROJECTID projectID RUNTIMEFUNCNAME 函数名称 RUNTIMEFUNCVERSION 函数的版本 RUNTIMEPACKAGE 函数组 RUNTIMEHANDLER 函数执行入口 RUNTIMETIMEOUT 函数超时时间 RUNTIMEUSERDATA 用户通过环境变量传入的值 RUNTIMECPU 分配的CPU数 RUNTIMEMEMORY 分配的内存 RUNTIMECODEROOT 包含函数代码的目录 RUNTIMEAPIADDR 自定义运行时API的主机和端口 用户定义的环境变量也同FunctionGraph环境变量一样,可通过环境变量获取方式直接获取用户定义环境变量。 示例说明 此示例包含1个文件(bootstrap文件),该文件都在Bash中实施。 运行时将从部署程序包加载函数脚本。它使用两个变量来查找脚本。 引导文件bootstrap内容如下: !/bin/sh set o pipefail Processing requests loop while true do HEADERS"$(mktemp)" Get an event EVENTDATA$(curl sS LD "$HEADERS" X GET " Get request id from response header REQUESTID$(grep Fi xcffrequestid "$HEADERS" tr d '[:space:]' cut d: f2) if [ z "$REQUESTID" ]; then continue fi Process request data RESPONSE"Echoing request: hello world!" Put response curl X POST " d "$RESPONSE" done 加载脚本后,运行时将在一个循环中处理事件。它使用运行时API从FunctionGraph检索调用事件,将事件传递到处理程序,并将响应发布回给FunctionGraph。 为了获取请求ID,运行时会将来自API响应的标头保存到临时文件,并从该文件读取xcffrequestid读取请求头的请求唯一标识。将获取到的事件数据做处理并响应发布返回FunctionGraph。 go源码示例,需要通过编译后才可执行。 package main import ( "bytes" "encoding/json" "fmt" "io" "io/ioutil" "log" "net" "net/http" "os" "strings" "time" ) var ( getRequestUrl os.ExpandEnv(" putResponseUrl os.ExpandEnv(" putErrorResponseUrl os.ExpandEnv(" requestIdInvalidError fmt.Errorf("request id invalid") noRequestAvailableError fmt.Errorf("no request available") putResponseFailedError fmt.Errorf("put response failed") functionPackage os.Getenv("RUNTIMEPACKAGE") functionName os.Getenv("RUNTIMEFUNCNAME") functionVersion os.Getenv("RUNTIMEFUNCVERSION") client http.Client{ Transport: &http.Transport{ DialContext: (&net.Dialer{ Timeout: 3 time.Second, }).DialContext, }, } ) func main() { // main loop for processing requests. for { requestId, header, payload, err : getRequest() if err ! nil { time.Sleep(50 time.Millisecond) continue } result, err : processRequestEvent(requestId, header, payload) err putResponse(requestId, result, err) if err ! nil { log.Printf("put response failed, err: %s.", err.Error()) } } } // event processing function func processRequestEvent(requestId string, header http.Header, evtBytes []byte) ([]byte, error) { log.Printf("processing request '%s'.", requestId) result : fmt.Sprintf("function: %s:%s:%s, request id: %s, headers: %+v, payload: %s", functionPackage, functionName, functionVersion, requestId, header, string(evtBytes)) var event FunctionEvent err : json.Unmarshal(evtBytes, &event) if err ! nil { return (&ErrorMessage{ErrorType: "invalid event", ErrorMessage: "invalid json formated event"}).toJsonBytes(), err } return (&APIGFormatResult{StatusCode: 200, Body: result}).toJsonBytes(), nil } func getRequest() (string, http.Header, []byte, error) { resp, err : client.Get(getRequestUrl) if err ! nil { log.Printf("get request error, err: %s.", err.Error()) return "", nil, nil, err } defer resp.Body.Close() // get request id from response header requestId : resp.Header.Get("XCFFRequestId") if requestId "" { log.Printf("request id not found.") return "", nil, nil, requestIdInvalidError } payload, err : ioutil.ReadAll(resp.Body) if err ! nil { log.Printf("read request body error, err: %s.", err.Error()) return "", nil, nil, err } if resp.StatusCode ! 200 { log.Printf("get request failed, status: %d, message: %s.", resp.StatusCode, string(payload)) return "", nil, nil, noRequestAvailableError } log.Printf("get request ok.") return requestId, resp.Header, payload, nil } func putResponse(requestId string, payload []byte, err error) error { var body io.Reader if payload ! nil && len(payload) > 0 { body bytes.NewBuffer(payload) } url : "" if err nil { url strings.Replace(putResponseUrl, "{REQUESTID}", requestId, 1) } else { url strings.Replace(putErrorResponseUrl, "{REQUESTID}", requestId, 1) } resp, err : client.Post(strings.Replace(url, "{REQUESTID}", requestId, 1), "", body) if err ! nil { log.Printf("put response error, err: %s.", err.Error()) return err } defer resp.Body.Close() responsePayload, err : ioutil.ReadAll(resp.Body) if err ! nil { log.Printf("read request body error, err: %s.", err.Error()) return err } if resp.StatusCode ! 200 { log.Printf("put response failed, status: %d, message: %s.", resp.StatusCode, string(responsePayload)) return putResponseFailedError } return nil } type FunctionEvent struct { Type string json:"type" Name string json:"name" } type APIGFormatResult struct { StatusCode int json:"statusCode" IsBase64Encoded bool json:"isBase64Encoded" Headers map[string]string json:"headers,omitempty" Body string json:"body,omitempty" } func (result APIGFormatResult) toJsonBytes() []byte { data, err : json.MarshalIndent(result, "", " ") if err ! nil { return nil } return data } type ErrorMessage struct { ErrorType string json:"errorType" ErrorMessage string json:"errorMessage" } func (errMsg ErrorMessage) toJsonBytes() []byte { data, err : json.MarshalIndent(errMsg, "", " ") if err ! nil { return nil } return data } 代码中的环境变量说明如下,请参见下表。 环境变量说明 环境变量 说明 RUNTIMEFUNCNAME 函数名称 RUNTIMEFUNCVERSION 函数版本 RUNTIMEPACKAGE 函数组
        来自:
        帮助文档
        函数工作流
        用户指南
        使用前必读
        支持的编程语言
      • 使用Cubecni网络插件
        添加该配置,改为true } ] } 3. 重建Cubecni Pods使得配置生效。 plaintext 滚动重建Pod kubectl nkubesystem rollout restart ds/cubecni 等待Pod重建完成 kubectl nkubesystem get po l appcubecni owide w IPv6支持 IPv6处于内测阶段,当开启IPv6后,有如下限制: 暂不支持使用多个Pod子网; 单个节点可申请50个IPv6地址,故单节点最多创建50个使用容器网络的Pod。 低网络时延 Pod直接访问Pod场景,时延对比如下图所示。可见cubecni IPVLAN模式时延接近主机网络。独占ENI模式时延有时约略优于主机网络,理想情况下相比于calico IPIP模式提升约30%: 图示中,host表示主机网络时延,集群停止k8s服务后,节点运行sockperf客户端访问另一节点sockperf服务端的时延; cubecni IPVLAN模式时延接近baseline,该场景流量不经主机网络栈处理,不会因此额外引入时延; cubecni 独占ENI模式,Pod独占弹性网卡,时延无限接近主机网络; cubecni PolicyRoute模式,流量经主机网络栈处理,故时延较高; calico IPIP模式,流量均经过主机网络栈处理,且有IPIP解封包开销,iptables更为复杂,故时延较高。 当集群部署监控和日志等消耗带宽的插件后,容器网络整体时延均会增加,calico IPIP模式时延增加幅度大于cubecni。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        使用Cubecni网络插件
      • 使用Cubecni网络插件(1)
        添加该配置,改为true } ] } 3. 重建Cubecni Pods使得配置生效。 plaintext 滚动重建Pod kubectl nkubesystem rollout restart ds/cubecni 等待Pod重建完成 kubectl nkubesystem get po l appcubecni owide w IPv6支持 IPv6处于内测阶段,当开启IPv6后,有如下限制: 暂不支持使用多个Pod子网; 单个节点可申请50个IPv6地址,故单节点最多创建50个使用容器网络的Pod。 低网络时延 Pod直接访问Pod场景,时延对比如下图所示。可见cubecni IPVLAN模式时延接近主机网络。独占ENI模式时延有时约略优于主机网络,理想情况下相比于calico IPIP模式提升约30%: 图示中,host表示主机网络时延,集群停止k8s服务后,节点运行sockperf客户端访问另一节点sockperf服务端的时延; cubecni IPVLAN模式时延接近baseline,该场景流量不经主机网络栈处理,不会因此额外引入时延; cubecni 独占ENI模式,Pod独占弹性网卡,时延无限接近主机网络; cubecni PolicyRoute模式,流量经主机网络栈处理,故时延较高; calico IPIP模式,流量均经过主机网络栈处理,且有IPIP解封包开销,iptables更为复杂,故时延较高。 当集群部署监控和日志等消耗带宽的插件后,容器网络整体时延均会增加,calico IPIP模式时延增加幅度大于cubecni。
        来自:
      • 1
      • ...
      • 14
      • 15
      • 16
      • 17
      • 18
      • ...
      • 415
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      训推服务

      公共算力服务

      应用托管

      科研助手

      智算一体机

      推荐文档

      服务器迁移的优势

      创建阈值规则

      消费消息

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号