活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云堤·抗D_相关内容
      • ALM-16001 Hive数据仓库空间使用率超过阈值
        对系统的影响 系统可能无法正常写入数据,导致部分数据丢失。 可能原因 Hive使用HDFS容量上限过小。 HDFS空间不足。 部分数据节点瘫痪。 处理步骤 扩展系统配置 1.分析集群HDFS使用情况,增加HDFS分配给Hive使用的容量上限。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”,然后查找“hive.metastore.warehouse.size.percent”,调大该配置项。设配置项的值为A,HDFS总存储空间为B,阈值为C,Hive已经使用HDFS的空间大小为D。调整策略为A x B x C > D ,HDFS总存储空间可在HDFS NameNode页面查看,Hive已经使用HDFS的空间大小可在Hive的监控界面查看监控指标“Hive已经使用的HDFS空间大小”。 2.检查该告警是否恢复。 是,操作结束。 否,执行步骤3。 对系统进行扩容 3.对系统进行扩容。 4.检查该告警是否恢复。 是,操作结束。 否,执行步骤5。 检查数据节点是否正常 5.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”。 6.查看是否有“ALM12006 节点故障”、“ALM12007 进程故障”、“ALM14002 DataNode磁盘空间使用率超过阈值”告警。 是,执行步骤7。 否,执行步骤9。 7.分别参考“ALM12006 节点故障”、“ALM12007 进程故障”、“ALM14002 DataNode磁盘空间使用率超过阈值”的处理步骤处理告警。 8.查看本告警是否恢复。 是,操作结束。 否,执行步骤9。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16001 Hive数据仓库空间使用率超过阈值
      • 磁盘类
        “源端磁盘信息发生变化,任务执行失败,请删除任务重新启动源端agent”该如何处理? 问题现象 开始服务器复制时提示“SMS.0515 源端磁盘信息发生变化,任务执行失败,请删除任务重新启动源端agent”。 问题分析 Agent会每隔1个小时收集一次源端服务器的磁盘信息,如果在最后一次收集源端服务器信息到开始服务器复制这段时间内,源端服务器磁盘发生变化,就会提示该错误。主要变化包括以下方面: 源端挂载、卸载磁盘和分区 源端分区扩容导致目的端磁盘大小不够 源端分区新增大量数据导致目的端分区容量不够 源端分区文件系统类型发生变化 解决方案 1. 登录目的端管理控制台。 2. 在左侧导航树中,选择“迁移服务器”。在服务器列表页面选择该服务器,单击“操作”列下“更多 > 删除”。 3. 登录源端服务器,重新启动Agent,Agent会自动更新磁盘信息。 4. 重新设置目的端并启动迁移。 迁移Windows服务器时如何调整分区、磁盘? 背景说明 存在以下情况时需要手动调整源端分区: 1. 系统盘超过1T。 2. 存在不支持的文件系统。 3. 存在不想迁移的数据分区或者有其他调整分区的需求。 场景一 假设源端系统所在磁盘为1.1T:系统分区和启动分区总大小为 100G,数据盘 D盘:1024G。迁移到目的端后要拆分成两个磁盘:第一块盘100G,第二块盘1024G。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] D 2 说明 D 2表示D盘迁移到目的端第二块磁盘。 若源端有多个分区,迁移到目的端后想拆分为多个盘,可按照D2、E3、F4…修改disk.cfg文件。 2. 在RDA管理控制台中删除服务器。 3. 重新启动agent,去源端服务器详情中验证磁盘信息是否发生更改。 说明 源端系统分区和启动分区只能迁移到第一块盘,所以对于系统分区和启动分区不能使用这种方式。 场景二 假设源端数据盘 D盘:为FAT32文件系统,源端校验不通过,想通过配置文件屏蔽此分区。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] D 1 说明 D 1表示不会迁移D盘。 3. 在主机迁移服务管理控制台中删除服务器。 4. 重新启动agent,可以看到源端服务器详情中磁盘信息中已经没有D盘。 场景三 假设源端有两块数据盘 :第二块磁盘D和第三块磁盘E,系统盘为第一块磁盘,需要将两块数据盘合并迁移到同一块磁盘。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] E 2 说明 E 2表示将E盘迁移到目的端第二块磁盘。 3. 在主机迁移服务管理控制台中删除服务器。 4. 重新启动agent,可以看到源端服务器详情中磁盘信息数据盘只有一块分别为D分区和E分区。
        来自:
        帮助文档
        云迁移工具RDA
        常见问题
        磁盘类
      • 容器网络限速
        本节介绍使容器网络限速的用户指南。 在离线应用混部中通过使用容器网络限速,帮助用户为不同应用配置网络带宽限制与优先级,提升集群资源隔离与网络体验。 适用场景 需要对容器的入站/出站网络带宽进行限制,防止单一业务占用过多带宽。 希望为延迟敏感或大带宽业务设置网络优先级,实现更优的流量调度。 功能说明 带宽限制 网络优先级控制 配置方法 启用网络优先级能力(可选) 如需使用网络优先级控制,请确保集群已启用 Cubecni 的优先级功能: 1. 编辑 Cubecni 配置: plaintext kubectl n kubesystem edit cm cubecniconfig 2. 在 10cubecni.conflist 下添加/修改 enablenetworkpriority 为 true: plaintext { "cniVersion": "0.3.1", "name": "cubecni", "plugins": [ { "type": "cubecni", "capabilities": {"bandwidth": true}, "enablenetworkpriority": true } ]} 3. 滚动重启 Cubecni Pod: plaintext kubectl n kubesystem rollout restart ds/cubecni kubectl n kubesystem get po l appcubecni owide w 配置带宽与优先级注解 在 Pod/Deployment YAML 的 metadata.annotations 字段中添加带宽和优先级注解。例如: plaintext apiVersion: apps/v1kind: Deploymentmetadata: name: netperfclient8000 namespace: demospec: replicas: 2 template: metadata: annotations: kubernetes.io/egressbandwidth: 10M kubernetes.io/ingressbandwidth: 20M k8s.ctyun.com/networkpriority: guaranteed spec: containers: name: netperf image: ciliumnetperf:2.0
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        调度
        在离线混部
        容器网络限速
      • 创建列存储分区表
        本页介绍天翼云TeleDB数据库创建列存储分区表的语法。 列存储引擎中分区表主表作为逻辑表仍是行存结果,实际存储数据的分区表需要指定使用USING PAX 命令创建,创建一个 HASH 分区的列存储分区表如下: teledb create table testhash ( teledb( "userid" int4 not null, teledb( "name" varchar(64)) teledb partition by hash(userid); CREATE TABLE teledb create table testhashc1 partition of testhash for values WITH (modulus 4, remainder 0) using pax; CREATE TABLE teledb create table testhashc2 partition of testhash for values WITH (modulus 4, remainder 1) using pax; CREATE TABLE teledb create table testhashc3 partition of testhash for values WITH (modulus 4, remainder 2) using pax; CREATE TABLE teledb create table testhashc4 partition of testhash for values WITH (modulus 4, remainder 3) using pax; CREATE TABLE teledb d+ testhash Table "public.testhash" Column Type Collation Nullable Default Storage Stats target Description +++++++ userid integer not null plain name character varying(64) extended Partition key: HASH (userid) Partitions: testhashc1 FOR VALUES WITH (modulus 4, remainder 0), testhashc2 FOR VALUES WITH (modulus 4, remainder 1), testhashc3 FOR VALUES WITH (modulus 4, remainder 2), testhashc4 FOR VALUES WITH (modulus 4, remainder 3) Distribute By: HASH(userid) Location Nodes: ALL DATANODES
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        列存储引擎
        基础使用介绍
        创建列存储分区表
      • 使用说明类
        服务器安全卫士是否支持病毒查杀 ? 服务器安全卫士支持检测恶意程序、勒索病毒等入侵威胁。对于恶意进程和进程异常行为,服务器安全卫士支持手动隔离查杀。 服务器安全卫士病毒查杀原理? 病毒查杀过程: 1. Agent监控进程启动,进程信息中包含进程文件路径、大小、文件MD5值;上报服务端 2. 服务端根据MD5值查找文件检测记录,如未被检测过且未被其它主机上传过,向Agent下发文件上传任务;上传大小限制30M,上传限速500kb/s,可配置。 3. 病毒处理方式:阻断进程、隔离文件、删除文件 风险发现中风险评分是怎么定义的?处理完告警的风险后,怎样量化系统的健康程度? 在风险发现模块中,定义安全评分来量化系统的健康程度,安全评分总分为100分,分数越高,表示系统越健康。 评分范围 安全补丁、漏洞检测、弱密码、应用风险、系统风险、账号风险。 评分定义 根据安全评分的值,我们将系统的健康程度量化为AE 5个级别。评级越低,则认为系统中存在的问题越严重。 安全评级为A,安全评分为90100 安全评级为B, 安全评分为8089 安全评级为C, 安全评分为7079 安全评级为D, 安全评分为6069 安全评级为E,安全评分为60分以下
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        常见问题
        使用说明类
      • 配置分库源端参数
        参数类型 参数名 说明 取值样例 基本参数 模式或表空间 表示待抽取数据的模式或表空间名称。单击输入框后面的按钮可进入模式选择界面,分库连接时此处默认展示对应第一个后端连接的表空间。用户也可以直接输入模式或表空间名称。 如果选择界面没有待选择的模式或表空间,请确认对应连接里的帐号是否有元数据查询的权限。 说明 该参数支持配置正则表达式,实现导出满足规则的所有数据库。 SCHEMAE 基本参数 表名 表示要抽取的表名。单击输入框后面的按钮可进入表的选择界面,用户也可以直接输入表名称。 如果选择界面没有待选择的表,请确认表是否已经创建,或者对应连接里的帐号是否有元数据查询的权限。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 说明 该参数支持配置正则表达式,实现导出满足规则的所有数据库。 table 高级属性 Where子句 表示配置抽取范围的Where子句,不配置时抽取整表。 该参数支持配置为时间宏变量,实现抽取指定日期的数据。 DS'${dateformat(yyyyMMdd,1,DAY)}'
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置分库源端参数
      • 微服务治理
        本章节演示通过使用ServiceStage的灰度发布功能部署weather服务的新版本weatherbeta。 ServiceStage提供了灰度发布功能,可以达到上述目的。 本章节演示通过使用ServiceStage的灰度发布功能部署weather服务的新版本weatherbeta。 业务场景 微服务引擎提供负载均衡、降级、限流、容错、熔断、错误注入、黑白名单等治理策略。 用户故事 用户可以根据实际的业务场景提前配置相应的治理策略,灵活应对业务需求变化,保障应用的稳定运行。 降级:在本实践中,假设前台请求剧增,导致系统响应缓慢甚至可能崩溃,在这样的场景下,我们可以在fusionweather对forecast使用降级策略,对forecast 进行降级处理,只请求比较重要的实时天气weather的数据,保障重要业务功能的正常运行,等流量洪峰过去再进行复原。 体验微服务降级 ServiceStage支持从界面上设置按微服务或接口粒度降级。 以对forecast微服务降级为例,操作步骤如下。 1. 登录ServiceStage控制台,选择“微服务引擎 CSE”。 2. 选择创建环境时选择的微服务引擎,单击“查看控制台”。 3. 单击“服务治理”。 4. 单击创建应用时创建的应用名称(例如weathermap) 5. 配置降级策略。 a. 选择fusionweather微服务。 b. 选择“降级”。 c. 单击“新增”。 d. “降级对象”选择“forecast”和“所有方法”。 e. “降级策略”设置为“开启”。 f. 单击“确定”
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        使用ServiceStage托管天气预报微服务应用
        微服务治理
      • 自定义日志时间
        时间格式 说明 示例 EEE 星期的缩写。 Fri EEEE 星期的全称。 Friday MMM 月份的缩写。 Jan MMMM 月份的全称。 January dd 每月第几天,十进制,范围为01~31。 07, 31 HH 小时,24小时制。 22 hh 小时,12小时制。 11 MM 月份,十进制,范围为01~12。 08 mm 分钟,十进制,范围为00~59。 59 a AM或PM。 AM、PM hh:mm:ss a 12小时制的时间组合。 11:59:59 AM HH:mm 小时和分钟组合。 23:59 ss 秒数,十进制,范围为00~59。 59 yy 年份,十进制,不带世纪,范围为00~99。 04、98 yyyy 年份,十进制。 2004、1998 d 每月第几天,十进制,范围为1~31。如果是个位数字,前面需要加空格。 7、31 DDD 一年中的天数,十进制,范围为001~366。 365 u 星期几,十进制,范围为1~7,1表示周一。 2 w 每年的第几周,星期天是一周的开始,范围为00~53。 23 w 每年的第几周,星期一是一周的开始,范围为01~53。如果一月份刚开始的一周>4天,则认为是第1周,否则认为下一个星期是第1周。 24 U 星期几,十进制,范围为0~6,0代表周日。 5 EEE MMM dd HH:mm:ss yyyy 标准的日期和时间。 Tue Nov 20 14:12:58 2020 EEE MMM dd yyyy 标准的日期,不带时间。 Tue Nov 20 2020 HH:mm:ss 标准的时间,不带日期。 11:59:59 %s Unix时间戳。 147618725
        来自:
        帮助文档
        云日志服务
        用户指南
        日志搜索与分析
        云端结构化解析
        自定义日志时间
      • ALM-27007 数据库进入只读模式
        本章节主要介绍ALM27007 数据库进入只读模式的告警。 告警解释 系统每30秒周期性检查DBServer主节点的数据目录磁盘空间使用率,当数据目录磁盘空间使用率超过90%时,系统将产生此告警。 当数据目录磁盘空间使用率低于80%时,此告警恢复。 告警属性 告警ID 告警级别 是否自动清除 27007 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 数据库进入只读模式,业务数据丢失。 可能原因 磁盘配置无法满足业务需求,磁盘使用率达到上限。 处理步骤 检查磁盘使用率是否达到上限 1. 在FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > DBService”。 2. 在“概览”页面查看“数据目录磁盘空间使用率”图表,检查数据目录磁盘空间使用率是否超过90%。 是,执行步骤3。 否,执行步骤13。 3. 以omm用户登录DBServer主管理节点,执行以下命令,查看数据库是否进入只读模式。 source $DBSERVERHOME/.dbserviceprofile gsql U omm W password d postgres p 20051 show defaulttransactionreadonly; 说明 其中password为DBService数据库的omm用户密码,用户可以执行q退出数据库界面。 结果如下所示,查看“defaulttransactionreadonly”的值是否为“on”。 POSTGRES
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-27007 数据库进入只读模式
      • 设置LTS日志内容分词
        67 C 99 c 4 EOT(传输结束) 36 $ 68 D 100 d 5 ENQ(询问字符) 37 % 69 E 101 e 6 ACK(确认回应) 38 & 70 F 102 f 7 BEL(响铃) 39 ' 71 G 103 g 8 BS(退格) 40 ( 72 H 104 h 9 HT(水平定位符号,制表符) 41 ) 73 I 105 i 10 LF(换行) 42 74 J 106 j 11 VT(垂直定位符号) 43 + 75 K 107 k 12 FF(换页键) 44 , 76 L 108 l 13 CR(归位键) 45 77 M 109 m 14 SO(取消变换) 46 . 78 N 110 n 15 SI(启用变换) 47 / 79 O 111 o 16 DLE(跳出数据通讯) 48 0 80 P 112 p 17 DC1(设备控制1) 49 1 81 Q 113 q 18 DC2(设备控制2) 50 2 82 R 114 r 19 DC3(设备控制3) 51 3 83 S 115 s 20 DC4(设备控制4) 52 4 84 T 116 t 21 NAK(确认失败回应) 53 5 85 U 117 u 22 SYN(同步用暂停) 54 6 86 V 118 v 23 ETB(区块传输结束) 55 7 87 W 119 w 24 CAN(取消) 56 8 88 X 120 x 25 EM(连接介质中断) 57 9 89 Y 121 y 26 SUB(替换) 58 : 90 Z 122 z 27 ESC(跳出) 59 ; 91 [ 123 { 28 FS(文件分割符) 60 94 ^ 126 ~ 31 US(单元分隔符) 63 ? 95 127 DEL(删除)
        来自:
        帮助文档
        云日志服务
        用户指南
        LTS配置中心管理
        设置LTS日志内容分词
      • 磁盘问题
        “源端磁盘信息发生变化,任务执行失败,请删除任务重新启动源端agent”该如何处理? 问题现象 开始服务器复制时提示“SMS.0515 源端磁盘信息发生变化,任务执行失败,请删除任务重新启动源端agent”。 问题分析 Agent会每隔1个小时收集一次源端服务器的磁盘信息,如果在最后一次收集源端服务器信息到开始服务器复制这段时间内,源端服务器磁盘发生变化,就会提示该错误。主要变化包括以下方面: 源端挂载、卸载磁盘和分区 源端分区扩容导致目的端磁盘大小不够 源端分区新增大量数据导致目的端分区容量不够 源端分区文件系统类型发生变化 解决方案 1. 登录目的端管理控制台。 2. 在左侧导航树中,选择“迁移服务器”。在服务器列表页面选择该服务器,单击“操作”列下“更多 > 删除”。 3. 登录源端服务器,重新启动Agent,Agent会自动更新磁盘信息。 4. 参考设置迁移目的端、开始服务器复制、启动目的端重新设置目的端并启动迁移。 迁移Windows服务器时如何调整分区、磁盘? 背景说明 存在以下情况时需要手动调整源端分区: 1. 系统盘超过1T。 2. 存在不支持的文件系统。 3. 存在不想迁移的数据分区或者有其他调整分区的需求。 场景一 假设源端系统所在磁盘为1.1T:系统分区和启动分区总大小为 100G,数据盘 D盘:1024G。迁移到目的端后要拆分成两个磁盘:第一块盘100G,第二块盘1024G。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] D 2 说明 D 2表示D盘迁移到目的端第二块磁盘。 若源端有多个分区,迁移到目的端后想拆分为多个盘,可按照D2、E3、F4…修改disk.cfg文件。 2. 在主机迁移服务管理控制台中删除服务器。 3. 重新启动agent,去源端服务器详情中验证磁盘信息是否发生更改。 注意 源端系统分区和启动分区只能迁移到第一块盘,所以对于系统分区和启动分区不能使用这种方式。 场景二 假设源端数据盘 D盘:为FAT32文件系统,源端校验不通过,想通过配置文件屏蔽此分区。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] D 1 说明 D 1表示不会迁移D盘。 3. 在主机迁移服务管理控制台中删除服务器。 4. 重新启动agent,可以看到源端服务器详情中磁盘信息中已经没有D盘。 场景三 假设源端有两块数据盘 :第二块磁盘D和第三块磁盘E,系统盘为第一块磁盘,需要将两块数据盘合并迁移到同一块磁盘。 操作步骤为: 1. 打开源端Agent config目录。Python3版本为:C:SMSAgentPy3config,Python2版本为:C:SMSAgentPy2config。 2. 按如下所示修改 disk.cfg文件并保存。 [volmountmodify] E 2 说明 E 2表示将E盘迁移到目的端第二块磁盘。 3. 在主机迁移服务管理控制台中删除服务器。 4. 重新启动agent,可以看到源端服务器详情中磁盘信息数据盘只有一块分别为D分区和E分区。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        磁盘问题
      • 获取证书详情
        参数 参数类型 说明 示例 下级对象 workOrderNo String 工单号 20240719152808491958 resourceId String 资源id e736f6cd1649442893d7b205fe7d95de brand String 品牌方 TRUSTASIA origin String 证书来源 PURCHASE type String 证书种类 OV certificateId String 证书id aHz0Djw7 status String 证书当前状态 REVOKEAUDITING fingerprint String 证书指纹 45324B2FD17DBAA0808FFFE6547D2E83DD5ACD52 issueTime String 证书签发时间 20240719T08:00:00Z expireTime String 证书过期时间 20250719T08:00:00Z serviceBeginTime String 服务开始时间 20240719T00:00:00Z serviceEndTime String 服务结束时间 20250719T00:00:00Z domainType String 域名类型 WILDCARD domainName String 域名 .test.cn singleDomainNum Integer 单域名数量 0 wildcardDomainNum Integer 通配符域名数量 1 orderingDurationUnit Integer 购买时长单位 5 orderingDurationValue Integer 购买时长 1 encryptionStandard String 加密标准类型 INTERNATIONAL encryptionAlgorithm String 加密算法 RSA csrId String CSR id 51951c6edfe64caf9f7c6f95d59fb840 csr String CSR证书签名请求 BEGIN CERTIFICATE REQUEST MIIC1TCCAb0CAQAwaDELMAkGA1UEBhMCQ04xEjAQBgNVBAgMCeWkqea0peW4gjES MBAGA1UEBwwJ5aSp5rSl5biCMRAwDgYDVQQDDAd0ZXN0LmNuMQ0wCwYDVQQKDARh YWFhMRAwDgYDVQQLDAdzZGFkcXdkMIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIB CgKCAQEAs7inXHHqxxamBtnYMVM+7XBsbdFgddeEE/cU85N/+D/1RfSGp6cy/KV1 UnT7+irDbaWDDUiY+tLrB/ndaKFkpTomqEkItAcXmSVcMcJ7TppClo6WukaWv/qz cg+tLFOWbQmwrgziNg4M1Z2fyCGOCyy/Tzq5++rREwqXwMTP+uUOZDTxiODEmt7v BtNs/S50GD8ymGs8JiGkL2F2+Og1B59aJt6h3i9OBPRmpcKJslDRSxyVS5GBvoju 6NdGyJMKeSIUicuvKWe8j4AbQls8secptMplXKaBtWgU0VU97aw61UfOe8EBQA/s KwHu20oXLznLa0+BVPHcoMTOm+qnjQIDAQABoCgwJgYJKoZIhvcNAQkOMRkwFzAV BgNVHREBAf8ECzAJggdhYmMuY29tMA0GCSqGSIb3DQEBCwUAA4IBAQCaFI8SRhpl NAjTWnz9QjOBJJUV1EfVedIWC8C4TiguZDQa3uYjUkFYdX3lEzNYBhAUeYyJGqNZ 2qM8v8HJ1cm+FTGaWrqcaJIWsdRSLRTVVkt0svqe0HzWtBQYlkUa+GrY9qZ+XmNo E6nbeLtUrz/6y4yFKHiZsztqIXH4VdI6KQ4WiXPE16ZMPdziN6AXNmcu+8o6PpF9 P7yenMUq05lIFQ174M8wzWX1r7GiD/ren3tJLJ3W4FK/CtdAC/TR95IFkZr4eMf2 5LZeAPmsagmeSUus2WynqPr+XRgZCOOgkb1meV5XwUIwqgXifvSZoiFCLqcv8IOb P5FiphJf13tU END CERTIFICATE REQUEST companyId String 公司id aaf7148728a613aef96a5b9944291657 contactId String 联系人id 34a97e72db3cad6b6dd1841233314698 contactName String 联系人名称 李四 firstName String 第一位名称 李 lastName String 第二位名称 四 email String 邮箱地址 sss@qq.com telephone String 联系电话 1315555
        来自:
        帮助文档
        证书管理服务
        API参考
        API
        2024-01-10
        获取证书详情
      • 开发HTTP函数示例
        步骤三:本地验证 1. 启动docker容器 docker run u 1003:1003 p 8000:8000 customcontainerhttpexample:latest 2. 打开一个新的命令行窗口,向开放的8000端口发送消息,访问模板代码中指定的/invoke路径 curl XPOST H 'ContentType: application/json' d '{"message":"HelloWorld"}' localhost:8000/helloworld 按照模块代码中返回 Hello FunctionGraph, method POST 3. 在容器启动端口可以看到 receive {"message":"HelloWorld"} 或者使用docker logs命令获取容器的日志 步骤四:上传镜像 1. 登录容器镜像服务控制台,在左侧导航栏选择“我的镜像”。 2. 单击右上角的“客户端上传”或“页面上传”。 3. 根据指示上传镜像。 4. 上传成功后,在“我的镜像”界面可查看。 步骤五:创建函数 1. 登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2. 单击右上方的“创建函数”,进入“创建函数”页面,使用容器镜像部署函数。 3. 填写基本信息。 1. 函数类型:选择“HTTP函数” 2. 函数名称:输入“customcontainerhttp” 3. 容器镜像:选择上一步上传到SWR的镜像。 4. 现有委托:使用包含SWR Admin权限的委托。 4. 完成后单击“创建函数”。
        来自:
        帮助文档
        函数工作流
        快速入门
        使用容器镜像部署函数
        开发HTTP函数示例
      • 线下IDC通过专线和代理服务器接入HSS
        Load modular configuration files from the /etc/nginx/conf.d directory. for more information. include /etc/nginx/conf.d/.conf; upstream backendhss { server ADDR:10180; } server { listen 10180; servername ADDR; root /usr/share/nginx/html; Load configuration files for the default server block. include /etc/nginx/default.d/.conf; ssl on; sslprotocols TLSv1.2; sslcertificate "server.pem"; sslcertificatekey "server.key"; sslsessioncache shared:SSL:10m; sslsessiontimeout 10m; sslpreferserverciphers on; location / { limitexcept GET POST PUT { deny all; } proxysetheader Host ADDR; proxypass proxysetheader Upgrade $httpupgrade; proxysetheader Connection "upgrade"; } errorpage 404 /404.html; location /40x.html { } errorpage 500 502 503 504 /50x.html; location /50x.html { } } } 4. 可选: 粘贴完成后,按Esc键,输入以下命令,按回车键退出,完成配置。:wq! 5. 执行以下命令自动替换nginx.conf中的地址。 sed i "s ADDR cat /usr/local/hostguard/conf/connect.conf grep masteraddress cut d '' f 2 cut d ':' f 1 g" nginx.conf 6. 执行以下操作,创建nginx的监控脚本。创建完成后,每分钟定时检测nginx运行状态 1. 依次执行以下命令,创建nginx的监控脚本。 echo '/1 root sh /etc/nginx/nginxmonitor.sh' >> /etc/crontab vi /etc/nginx/nginxmonitor.sh 2. 将以下内容复制粘贴到nginxmonitor.sh中。 3. plaintext
        来自:
        帮助文档
        企业主机安全
        最佳实践
        线下IDC通过专线和代理服务器接入HSS
      • 新建衍生指标
        管理衍生指标 进入数据架构的“技术指标 > 衍生指标”页面,您可以对衍生指标进行编辑、发布、下线、查看发布历史或删除操作。 1. 在数据架构控制台,单击左侧导航树中的“技术指标”,选择“衍生指标”页签,进入衍生指标页面。 2. 您可以根据实际需要选择如下操作。 当需要... 则... 新建 执行新建衍生指标并发布。 编辑 执行3。 发布 执行4。 查看发布历史 执行5。 预览SQL 执行6。 下线 执行7。 查看汇总表 执行8。 删除 执行9。 导入 执行10。 导出 执行11。 3. 编辑 a. 在需要编辑的衍生指标右侧,单击“编辑”,进入编辑衍生指标页面。 b. 根据实际需要编辑相关内容。 c. 在页面下方,单击“试运行”按钮,然后在弹出框中单击“试运行”按钮,测试所设置的衍生指标是否可以正常运行。 如果试运行失败,请根据错误提示定位错误原因,将配置修改正确后,再单击“试运行”按钮进行重试。 d. 如果试运行成功,单击“发布”,提交发布审核。 4. 发布 a. 在需要发布的衍生指标右侧,单击“发布”,弹出“提交发布”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 5. 查看发布历史 a. 在列表中,找到需要查看的衍生指标,在右侧单击“更多 > 发布历史”,将显示“发布历史”页面。 b. 在“发布历史”中,您可以查看衍生指标的发布历史和版本对比信息。 6. 预览SQL a. 在列表中,找到所需要的衍生指标,在右侧单击“更多 > 预览SQL”,弹出“预览SQL”对话框。 b. 在“预览SQL”中,您可以查看SQL语句,也可以复制SQL。 7. 下线 说明 下线衍生指标的前提是无依赖引用,即无复合指标引用。 a. 在需要下线的衍生指标右侧,单击“更多 > 下线”,系统弹出“提交下线”对话框。 b. 在下拉菜单中选择审核人。 c. 单击“确认提交”。 8. 查看汇总表 当前仅支持查看自动汇聚的汇总表详情。在需要查看汇总表的指标右侧,选择“更多 > 查看汇总表”,跳转到汇总表详情页面。 9. 删除 说明 删除衍生指标的前提是无依赖引用,即无复合指标引用。 a. 在衍生指标列表中,勾选需要删除的衍生指标,单击页面上方“更多 > 删除”,系统弹出“删除”对话框。 b. 单击“是”。 10. 导入 可通过导入的方式将衍生指标批量快速的导入到系统中。 a. 在汇总表上方,单击“更多>导入”,进入“导入配置”页签。 b. 下载衍生指标导入模板,编辑完成后保存至本地。 c. 选择是否更新已有数据。 说明 如果系统中已有的编码和模板中的编码相同,系统则认为是数据重复。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 d. 单击“添加文件”,选择编辑完成的导入模板。 e. 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 f. 单击“关闭”。 11. 导出 可通过导出的方式将衍生指标导出到本地。 a. 在衍生指标列表选中待导出的指标。 b. 在列表上方,单击“更多>导出”,即可将系统中的衍生指标导出到本地。 说明 在左侧主题树中选中某个主题,可以导出该主题下的所有衍生指标; 当该空间下不超过500条衍生指标数据时可以全部导出。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        指标设计
        技术指标
        新建衍生指标
      • 元数据获取
        User data(OpenStack元数据API) 用于查询弹性云主机的用户数据。该值仅在创建弹性云主机时指定,不支持修改。 URI /169.254.169.254/openstack/latest/userdata 方法 支持GET请求。 示例 Linux操作系统: curl Windows操作系统: InvokeRestMethod ICAgICAgDQoiQSBjbG91ZCBkb2VzIG5vdCBrbm93IHdoeSBpdCBtb3ZlcyBpbiBqdXN0IHN1Y2ggYSBkaXJlY3Rpb24gYW5kIGF0IHN1Y2ggYSBzcGVlZC4uLkl0IGZlZWxzIGFuIGltcHVsc2lvbi4uLnRoaXMgaXMgdGhlIHBsYWNlIHRvIGdvIG5vdy4gQnV0IHRoZSBza3kga25vd3MgdGhlIHJlYXNvbnMgYW5kIHRoZSBwYXR0ZXJucyBiZWhpbmQgYWxsIGNsb3VkcywgYW5kIHlvdSB3aWxsIGtub3csIHRvbywgd2hlbiB5b3UgbGlmdCB5b3Vyc2VsZiBoaWdoIGVub3VnaCB0byBzZWUgYmV5b25kIGhvcml6b25zLiINCg0KLVJpY2hhcmQgQmFjaA 说明 如果创建弹性云主机时未注入用户数据,此时,该接口的查询结果是404。 如下图所示,图 404 Not Found Network data(OpenStack元数据API) 查询弹性云主机的网络信息 URI /openstack/latest/networkdata.json 方法 支持GET请求 示例 说明 instancemaxbandwidth、instanceminbandwidth的单位是Mbps,如果取值为1,说明对带宽大小无限制。 Linux操作系统: curl Windows操作系统: InvokeRestMethod ConvertToJson { "services": [{ "type": "dns", "address": "xxx.xx.x.x" }, { "type": "dns", "address": "100.1 25.21.250" }], "networks": [{ "networkid": "67dc10ce441f45929a80cc709f6436e7", "type": "i pv4dhcp", "link": "tap68a9272d71", "id": "network0" }], "links": [{ "type": "cascading", "vi fid": "68a9272d71524ae7a1383ef53af669e7", "ethernetmacaddress": "fa:16:3e:f7:c1:47", "id": "tap68a9272d71", "mtu": null }], "qos":{ "instancemaxbandwidth": 1200, "instanceminbandwidth": 4000 } }
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        使用用户数据和元数据
        元数据获取
      • CLI使用
        日志检索查询 plaintext Usage: ctlts log [command] Available Commands: getLogs Get logs from log service 日志下载管理 plaintext Usage: ctlts dataDownload [command] Available Commands: create Create download task delete Delete download task getSignUrl Get the download link for the specified download task list List download task query Get the download message for the specified download task. 服务开通管理 plaintext Usage: ctlts instance [command] Available Commands: checkLicense Check order instance status getInstanceInfo Get instance information under tenant resource pool getInstanceStatus Get instance status orderLogInstance Order cloud log service instance CLI命令执行示例 createProject :创建日志项目 plaintext Usage: ctlts project createProject [flags] Examples: ctlts project createProject projectname [description ] [ak sk endpoint regionid or config ] Flags: d, description string log project description h, help help for createProject n, projectname string name of the project to create Global Flags: a, ak string accessid c, config string use config.yaml ,such as: confighuadong1 e, endpoint string endpoint i, regionid string regionid s, sk string accesskey 说明 Flages 中的 n, projectname string 代表可以使用project 或缩写n 来添加string 类型的字符串。 [description ] 这类方括号的代表是该参数不是openApi 的必须值,是可选的。 [ak sk endpoint regionid or config ] 代表可以使用命令注入四个参数,可以使用config配置文件注入,详情见全局配置。
        来自:
        帮助文档
        云日志服务
        API参考
        日志服务CLI
        CLI使用
      • 节点异常问题排查
        本节介绍了:节点异常问题排查的用户指南。 Kubelet异常处理 问题原因 通常是Kubelet进程异常、运行时异常、Kubelet配置有误等原因导致。 问题现象 Kubelet状态为inactive。 解决方案 1、执行 systemctl restart kubelet 命令重启Kubelet。重启Kubelet不会影响运行中的容器。 2、Kubelet重启后,登录节点执行 systemctl status kubelet命令,再次查看kubelet状态是否恢复正常。 3、若Kubelet重启后状态仍异常,请登录节点执行 journalctl u kubelet 命令查看Kubelet日志。 若日志中有明确的异常信息,请根据异常关键字进行排查。 若确认是Kubelet配置异常,请执行如下命令修改Kubelet配置。 plaintext vi /etc/systemd/system/kubelet.service.d/10kubeadm.conf 修改Kubelet配置。 systemctl daemonreload;systemctl restart kubelet 重新加载配置并重启Kubelet。 Dockerd异常处理RuntimeOffline 问题原因 通常是Dockerd配置异常、进程负载异常、节点负载异常等原因导致。 问题现象 1、Dockerd状态为inactive。 2、Dockerd状态为active(running),但未正常工作,导致节点异常。通常有docker ps、docker exec等命令执行失败的现象。 3、节点状态中RuntimeOffline为True。 解决方案 1、执行如下命令重启Dockerd。 plaintext systemctl restart docker 2、Dockerd重启后,登录节点执行以下命令,再次查看Dockerd状态是否恢复正常。 plaintext systemctl status docker 3、若Dockerd重启后状态仍异常,请登录节点执行以下命令查看Dockerd日志。 plaintext journalctl u docker Containerd异常处理RuntimeOffline
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        节点与节点池
        节点异常问题排查
      • 通过创建触发器和函数实现PostgreSQL增量DDL同步
        操作步骤 说明 若源库为本云RDS for PostgreSQL,可以使用root用户创建相关对象,如果执行时报“Must be superuser to create an event trigger”错误,可以通过工单申请处理。本云RDS for PostgreSQL的root用户权限请参见RDS用户指南。 步骤 1 使用拥有创建事件触发器权限的用户连接要同步的数据库。 步骤 2 执行如下语句,创建存储DDL信息的表。 DROP TABLE IF EXISTS public.hwdrsddlinfo; DROP SEQUENCE IF EXISTS public.hwdrsddlinfoidseq; CREATE TABLE public.hwdrsddlinfo( id bigserial primary key, ddl text, username varchar(64) default currentuser, txid varchar(16) default txidcurrent()::varchar(16), tag varchar(64), database varchar(64) default currentdatabase(), schema varchar(64) default currentschema, clientaddress varchar(64) default inetclientaddr(), clientport integer default inetclientport(), eventtime timestamp default currenttimestamp ); 步骤 3 执行如下语句,创建函数。 CREATE OR REPLACE FUNCTION public.hwdrsddlfunction() RETURNS eventtrigger LANGUAGE plpgsql SECURITY INVOKER AS ​BODYBODY​ declare ddl text; declare realnum int; declare maxnum int : 50000; begin if (tgtag in ('CREATE TABLE','ALTER TABLE','DROP TABLE','CREATE SCHEMA','CREATE SEQUENCE','ALTER SEQUENCE','DROP SEQUENCE','CREATE VIEW','ALTER VIEW','DROP VIEW','CREATE INDEX','ALTER INDEX','DROP INDEX')) then select currentquery() into ddl; insert into public.hwdrsddlinfo(ddl, username, txid, tag, database, schema, clientaddress, clientport, eventtime) values (ddl, currentuser, cast(txidcurrent() as varchar(16)), tgtag, currentdatabase(), currentschema, inetclientaddr(), inetclientport(), currenttimestamp); select count(id) into realnum from public.hwdrsddlinfo; if realnum > maxnum then if currentsetting('serverversionnum')::int pgbackendpid() and locktype'relation' and relationtoregclass('public.hwdrsddlinfopkey')::oid and mode'RowExclusiveLock'); else delete from public.hwdrsddlinfo where id 'in progress'); end if; end if; end if; end; ​​BODYBODY​; 步骤 4 执行以下语句,为步骤2和步骤3中创建的对象赋予必要权限。 GRANT USAGE ON SCHEMA public TO public; GRANT SELECT,INSERT,DELETE ON TABLE public.hwdrsddlinfo TO public; GRANT SELECT,USAGE ON SEQUENCE public.hwdrsddlinfoidseq TO public; GRANT EXECUTE ON FUNCTION public.hwdrsddlfunction() TO public; 步骤 5 执行以下语句,创建DDL事件触发器。 CREATE EVENT TRIGGER hwdrsddlevent ON ddlcommandend EXECUTE PROCEDURE public.hwdrsddlfunction(); 步骤 6 执行以下语句,将创建的事件触发器设置为enable。 ALTER EVENT TRIGGER hwdrsddlevent ENABLE ALWAYS; 步骤 7 返回数据复制服务控制台,创建PostgreSQL>RDS for PostgreSQL的同步任务。 步骤 8 待同步任务结束后,请执行下语句删除创建的表、函数、触发器。 DROP EVENT trigger hwdrsddlevent; DROP FUNCTION public.hwdrsddlfunction(); DROP TABLE public.hwdrsddlinfo;
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        同步场景操作参考
        通过创建触发器和函数实现PostgreSQL增量DDL同步
      • 智算场景NVIDIA GPU镜像组件的安装指南
        二、组件版本 宿主机操作系统:Ubuntu20.04 NVIDIA驱动:Driver Version: 530.30.02 CUDA版本:11.8 cuDNN版本:8.6.0 IB驱动:LINUX23.041.1.3.0ubuntu20.04x8664 三、安装过程 利用nvidiasmi查看Nvidiadriver是否安装,若已安装则跳过步骤1; 3.1 安装Nvidiadriver 默认Ubuntu 20.04/20.10存储库中提供的稳定的NVIDIA驱动程序,如果您希望得到更前沿的驱动程序,则可以从NVIDIA网站(地址: Drivers PPA安装最新的驱动程序。 方法一:从NVIDIA网站下载驱动并安装 安装驱动前一定要更新软件列表和安装必要软件、依赖 apt y install buildessential 更新必要依赖 查看GPU型号 lspci grep i nvidia 官网下载对应GPU驱动: 下载链接 中的NVIDIALinuxx8664530.30.02.run 注意:将驱动放在英文名文件夹下,例如:/driver。驱动名称为:NVIDIALinuxx8664530.30.02.run 禁用nouveau通用驱动,执行 cat >> /etc/modprobe.d/blacklistnouveau.conf << EOF blacklist nouveau blacklist lbmnouveau options nouveau modeset0 EOF 添加完成后检查,并进入文本界面 sudo updateinitramfs –u 更新initramfs镜像文件 reboot 重启电脑 lsmod grep nouveau 检查,输入之后无其他输出,成功,继续 sudo telinit 3
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        智算场景NVIDIA GPU镜像组件的安装指南
      • AnythingLLM 协同 Ollama 启用
        AnythingLLM 使用 DeepSeek API a.前往 DeepSeek API 开放平台 注册一个账号,购买 API 使用资格。 b.参考下述操作步骤,选择 Generic OpenAI 选项,填入 API 认证信息。或者选择 DeepSeek 选项,填入 API 认证信息。 c.到您想要使用的工作区,点击设置,更新当前聊天设置,以启用 DeepSeeK API 服务。 d.需要点击下图按钮来保存配置。 4. 调整对话模型及提示词 5. 知识库构建 a.上传文件。 其中第3步需要第二部选择上传的文件后才会出现按钮,点击“Move to Workspace”,等待出现成功提示即可。 b.基于知识库的对话。 首先选择上传了语料的工作区,随后直接提问即可。 返回DeepSeek专题导航。
        来自:
      • 集群访问类
        本章节主要介绍操作类问题中有关集群访问的问题。 MRS集群内节点的登录方式(密码或密钥对)如何切换? 不可以切换。 创建集群时选择了节点登录方式后不能更改登录方式。 如何获取ZooKeeper的IP地址和端口? ZooKeeper的IP地址和端口可以通过MRS控制台或登录Manager界面获取。 方法一:通过MRS控制台获取 1. 在MRS集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 2. 选择“组件管理 > ZooKeeper > 实例”,获取ZooKeeper实例的“业务IP”地址。 3. 选择“服务配置”页签,搜索“clientPort”参数,该参数的值即为ZooKeeper的端口。 方法二:通过Manager界面获取 1. 登录Manager界面。 2. 在Manager界面获取ZooKeeper的IP地址和端口。 −针对MRS 3.x之前版本集群 i.选择“服务管理 > ZooKeeper > 实例”,获取ZooKeeper实例的“业务IP”地址。 ii.选择“服务配置”页签,搜索“clientPort”参数,该参数的值即为ZooKeeper的端口。 −针对MRS 3.x及之后版本集群 i.选择“集群 > 服务 ZooKeeper > 实例”,获取ZooKeeper实例的“业务IP”地址。 ii.选择“配置”页签,搜索参数“clientPort”值,该参数的值即为ZooKeeper的端口。 如何通过集群外的节点访问MRS集群? 创建集群外Linux操作系统ECS节点访问MRS集群 1.创建一个集群外ECS节点。 ECS节点的“可用区”、“虚拟私有云”、“安全组”,需要和待访问集群的配置相同。 2.在VPC管理控制台,申请一个弹性IP地址,并与ECS绑定。 3.配置集群安全组规则。 a.在集群“概览”界面,选择“添加安全组规则 > 管理安全组规则”。 b.在“入方向规则”页签,选择“添加规则”,在“添加入方向规则”配置ECS节点的IP和放开所有端口。 c.安全组规则添加完成后,可以直接下载并安装客户端到集群外ECS节点。 d.使用客户端。 使用客户端安装用户,登录客户端节点,执行以下命令切换到客户端目录。 cd /opt/hadoopclient 执行以下命令加载环境变量。 source bigdataenv 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则通常情况下无需认证。 kinit MRS集群用户 例如: kinit admin 直接执行组件的客户端命令。 例如: 使用HDFS客户端命令查看HDFS根目录文件。 hdfs dfs ls / Found 15 items drwxrwxx hive hive 0 20211026 16:30 /apps drwxrxrx hdfs hadoop 0 20211018 20:54 /datasets drwxrxrx hdfs hadoop 0 20211018 20:54 /datastore drwxrwx+ flink hadoop 0 20211018 21:10 /flink drwxrx flume hadoop 0 20211018 20:54 /flume drwxrwxx hbase hadoop 0 20211030 07:31 /hbase ...
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        集群访问类
      • Helm v2 Release转换成Helm v3 Release
        ./2to3 convert tilleroutcluster s configmaps testconvert Release "testconvert" will be converted from Helm v2 to Helm v3. [Helm 3] Release "testconvert" will be created. [Helm 3] ReleaseVersion "testconvert.v1" will be created. [Helm 3] ReleaseVersion "testconvert.v1" created. [Helm 3] Release "testconvert" created. Release "testconvert" was converted successfully from Helm v2 to Helm v3. Note: The v2 release information still remains and should be removed to avoid conflicts with the migrated v3 release. v2 release information should only be removed using helm 2to3 cleanup and when all releases have been migrated over. 步骤 5 转换完成后进行v2 release资源的清理,同样先进行模拟清理,成功后正式清理v2 release资源。 模拟清理: ./2to3 cleanup dryrun tilleroutcluster s configmaps name testconvert NOTE: This is in dryrun mode, the following actions will not be executed. Run without dryrun to take the actions described below: WARNING: "Release 'testconvert' Data" will be removed. [Cleanup/confirm] Are you sure you want to cleanup Helm v2 data? [y/N]: y Helm v2 data will be cleaned up. [Helm 2] Release 'testconvert' will be deleted. [Helm 2] ReleaseVersion "testconvert.v1" will be deleted. 正式清理: ./2to3 cleanup tilleroutcluster s configmaps name testconvert WARNING: "Release 'testconvert' Data" will be removed. [Cleanup/confirm] Are you sure you want to cleanup Helm v2 data? [y/N]: y Helm v2 data will be cleaned up. [Helm 2] Release 'testconvert' will be deleted. [Helm 2] ReleaseVersion "testconvert.v1" will be deleted. [Helm 2] ReleaseVersion "testconvert.v1" d
        来自:
        帮助文档
        云容器引擎
        用户指南
        模板管理(helm)
        Helm v2 Release转换成Helm v3 Release
      • 网络及安全
        本节主要介绍网络及安全问题 数据复制服务有哪些安全保障措施 网络 使用安全组确保访问源为可信的。 使用SSL通道,确保数据传输加密。 如何处理迁移过程中出现的网络中断 迁移过程中如果出现网络中断,可先观察任务状态,当如下状态的迁移任务出现失败时,可在任务列表上单击“续传”,进行任务续传。 全量迁移 增量迁移 如何通过设置VPC安全组,允许本云VPC访问外部弹性IP 默认情况下,基于安全的考虑,本云VPC与外部网络是隔离的,VPC内是无法访问外部的弹性IP,如其他云数据库的弹性IP、云下数据库的弹性IP等。但数据库迁移场景需要确保本云VPC内的迁移实例或者目标数据库可连通外部的弹性IP,从而实现数据库迁移。 为此,您需要在安全组里设置一个出口规则,出口规则控制的是本云VPC可以访问哪些外部的弹性IP和端口范围,安全组的出入口规则一般需要满足“严进宽出”的要求。 如何处理迁移实例和数据库网络连接异常 数据迁移前请确保完成网络准备和安全规则设置。如果连接异常,请按照本节方法排查网络配置是否正确。 本节将以MySQL到RDS for MySQL的迁移为示例,从三种迁移场景(跨云数据库实时迁移、本地数据库实时迁移、ECS自建数据库实时迁移)进行说明。 跨云数据库实时迁移 1. 网络准备。 源数据库需要开放公网访问。 源数据库的网络设置: 源数据库MySQL实例需要开放外网域名的访问。 具体的操作及注意事项可以参考源数据库所在云提供的相关指导。 目标数据库的网络设置: 目标数据库默认与DRS迁移实例处在同一个VPC内,网络是互通的,不需要进行任何设置。 2. 安全规则准备。 源数据库的安全规则设置: 源数据库MySQL实例需要将目标端DRS迁移实例的弹性公网IP添加到其网络白名单中,确保源数据库MySQL实例可以与上述弹性公网IP连通。 在设置网络白名单之前,需要先获取目标端DRS迁移实例的弹性公网IP,具体方法如下:DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的弹性公网IP。 以上讲述的是精细配置白名单的方法,还有一种简单设置白名单的方法, 在安全允许的情况下 ,可以将源数据库MySQL实例的网络白名单设置为0.0.0.0/0,代表允许任何IP地址访问该实例。 上述的网络白名单是为了进行数据迁移设置的,迁移结束后可以删除。 目标数据库安全规则设置: 目标数据库默认与DRS迁移实例处在同一个VPC,网络是互通的,DRS可以直接写入数据到目标数据库,不需要进行任何设置。 本地数据库实时迁移 3. 网络准备: 源数据库的网络设置: 本地MySQL数据库实时迁移至本云云数据库 RDS for MySQL的场景,一般可以使用VPN网络和公网网络两种方式进行迁移,您可以根据实际情况为本地MySQL数据库开放公网访问或建立VPN访问。一般推荐使用公网网络进行迁移,该方式下的数据迁移过程较为方便和经济。 目标数据库的网络设置 : 若通过VPN访问,请先开通VPN服务,确保源数据库MySQL和目标端本云云数据库 RDS for MySQL的网络互通。 若通过公网网络访问,本云云数据库 RDS for MySQL实例不需要进行任何设置。 4. 安全规则准备: a. 源数据库的安全规则设置: 若通过公网网络进行迁移,源数据库MySQL需要将DRS迁移实例的弹性公网IP添加到其网络白名单内,使源数据库与本云的网络互通。在设置网络白名单之前,需要获取DRS迁移实例的弹性公网IP,具体方法如下: DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的弹性公网IP。 若通过VPN网络进行迁移,源数据库MySQL需要将DRS迁移实例的私有IP添加到其网络白名单内,使源数据库与本云的网络互通。DRS迁移实例创建成功后,可在“源库及目标库”页面获取DRS迁移实例的私有IP。 以上白名单是为了进行迁移针对性设置的,迁移结束后可以删除。 b. 目标数据库安全规则设置: 目标数据库默认与DRS迁移实例处在同一个VPC,网络是互通的,DRS可以直接写入数据到目标数据库,不需要进行任何设置。 ECS自建数据库实时迁移 5. 网络准备: 源数据库所在的region要和目标端本云云数据库 RDS for MySQL实例所在的region保持一致。 源数据库可以与目标端本云云数据库 RDS for MySQL实例在同一个VPC,也可以不在同一个VPC。 当源库和目标库处于同一个VPC时,网络默认是互通的。 当不在同一个VPC的时候,要求源数据库实例和目标端本云云数据库 RDS for MySQL实例所处的子网处于不同网段,此时需要通过建立对等连接实现网络互通。 6. 安全规则准备: 同一VPC场景下,默认网络是连通的,不需要单独设置安全组。 不同VPC场景下,通过建立对等连接就可以实现网络互通,不需要单独设置安全组。 排查iptables设置 以源数据库为本云ECS自建数据库为例,如果在上述的操作后,仍无法连通,此时需要额外排查iptables设置,因为HOSTGUARD服务在DRS发起频繁连接请求失败时,会将请求IP加入黑名单中。 7. 登录弹性云主机。 8. 执行以下命令,排查是否有DENY相关的项目包含DRS实例的IP,一般项目名称为INHIDSMYSQLDDENYDROP 。 iptables list 9. 如果存在,执行以下命令,查询iptables入方向规则列表,获取具体规则编号(linenumbers)。 iptables L INPUT linenumbers 10. 执行以下命令,删除DRS实例的IP相关的入方向规则(注意:必须从后往前删,不然linenumbers会更新,需要重新查询)。 iptables D 规则项目名 具体规则编号 11. 删除相关iptables规则后重新进行测试连接即可。
        来自:
        帮助文档
        数据库复制
        常见问题
        网络及安全
      • ALM-12042 关键文件配置异常
        收集故障信息 6.在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 7.在“服务”中勾选“NodeAgent”,单击“确定”。 8.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 9.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 /etc/fstab 检查文件的检查标准 检查“/etc/fstab”文件中配置的分区,是否在“/proc/mounts”中能找到。 检查在“fstab”中配置的swap分区,是否和“/proc/swaps”一一对应。 /etc/hosts 检查文件的检查标准 通过命令cat /etc/hosts查看是否存在以下几种情况,如果是,则说明该配置文件配置异常。 a. “/etc/hosts”文件不存在。 b. 该主机的主机名不在文件中配置。 c. 该主机名对应的IP不唯一。 d. 该主机名对应的IP在ifconfig命令下的回显列表中不存在。 e. 该文件中存在一个IP对应多个主机名的情况。 /etc/ssh/sshdconfig 检查文件的检查标准 通过命令vi /etc/ssh/sshdconfig查看下面几个配置项是否正确。 a. “UseDNS”项必须配置为“no”。 b. “MaxStartups”必须配置为大于等于1000。 c. “PasswordAuthentication”和“ChallengeResponseAuthentication”两个配置项中必须至少有一项没有配置或者至少有一项配置为“yes”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12042 关键文件配置异常
      • 故障切换
        响应参数 参数 是否必填 参数类型 说明 示例 下级对象 :: statusCode 是 Integer 返回状态码(800为成功,900为失败) 参考响应示例 message 是 String 成功或失败时的描述,一般为英文描述 参考响应示例 description 是 String 成功或失败时的描述,一般为中文描述 参考响应示例 returnObj 否 Object 成功时返回对象 returnObj 表 errorCode 否 String 业务细分码,为product.module.code三段式码 参考状态码 error 否 String 业务细分码,为product.module.code三段式大驼峰码 参考状态码 表 returnObj 参数 是否必填 参数类型 说明 示例 下级对象 status 是 String 云容灾故障切换操作下发成功 参考响应示例 msg 是 String 云容灾故障切换操作下发成功描述 参考响应示例 请求示例 请求头header 无 请求体body json { "regionID":"81f7728662dd11ec810800155d307d5b", "pairID": "88c715b02f954aa6b6ddd81a033e2566", "ecsID":"48f9c789b1428c6e8ac290741ad14fcd", "instanceName": "drilltest01", "favorID":"24ac7dad3e8eacc12b3f297623d793bd", "volumeType": "SATA", "restoreID": "e2c7f2ca578c11eebc48fa163e5f3a5d", "publicIpID": "eip200ebcg", "FailoverIp":"0.0.0.0" }
        来自:
        帮助文档
        云容灾 CDR
        API参考
        API(公测中)
        故障切换
        故障切换
      • 安装CUDA
        本文介绍如何在边缘虚拟机上安装CUDA。 CUDA为NVIDIA提供的运算平台,包含了CUDA指令集架构以及GPU内部的并行计算引擎。若想要在NVIDIA系列GPU上运行GPU加速计算任务,需要安装CUDA环境。 CUDA安装 安装前准备 步骤1、确认GPU驱动已安装。 shell nvidiasmi 步骤2、确认适配的CUDA版本。 安装步骤 步骤1、确定适配的CUDA版本,在CUDA Toolkit Archive查找适配CUDA软件包。 步骤2、点击进入,找到适配的runfile。 步骤3、执行下载命令,注意检查CUDA版本和GPU驱动版本是否一致。 shell wget 步骤4、执行安装命令。 shell wget 若已安装GPU驱动需要取消勾选Driver,若未安装GPU驱动请勾选安装。 步骤5、执行命令配置CUDA环境变量。 shell echo 'export PATH/usr/local/cuda/bin:$PATH' sudo tee /etc/profile.d/cuda.sh source /etc/profile 步骤6、检查安装是否成功。 shell nvcc V
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机安装和升级GPU驱动
        安装CUDA
      • TeleDB管控服务安装部署
        该任务用于指导软件工程师安装部署teledb管控服务。 该任务用于指导软件工程师安装部署teledb管控服务。 前提条件 已初始化环境,包括创建teledb用户,挂载磁盘,并给于sudo权限。 操作步骤 本次安装以X86安装包为例: 1. 创建根目录提供给挂载盘/data使用,并给于sudo权限。 plaintext mkdir p /data mount /dev/vdb /data echo "UUID"blkid /dev/vdbcut d '"' f2" /data xfs defaults 0 0" sudo tee a /etc/fstab 2. 上传并解压安装包 plaintext cd /app 上传teledbdeployx86centos.zip和teledbxossxxxi.x8664.rpm至app目录下。 unzip teledbdeployx86centos.zip cd teledbdeployx86centos/teledbxmirror/pgxzm cp teledbxossxxxi.x8664.rpm 3. 安装dos2unix 执行如下命令 plaintext cd /app/teledbdeployx86centos/teledbxmirror/deploy/utils/ rpm ivh dos2unix6.0.34.el7.x8664.rpm 出现如下回显信息。 plaintext cd /app chmod R 755 teledbdeployx86centos chown R teledb:teledb /app 4. 修改配置文件role.info和ossinit.conf 执行如下命令修改role.info配置文件 plaintext su teledb cd /app/teledbdeployx86centos/teledbxmgr/conf vim role.info 您可按照如下模版修改配置文件内容: 需要修改的就是主机ip、ssh端口、ssh连接用户(teledb)、用户密码
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        安装过程
        TeleDB管控服务安装部署
      • 操作类
        Elasticsearch集群设置默认分页返回最大条数 解决方案 方法1: 打开kibana,在devtools界面执行如下命令: PUT all/settings?preserveexistingtrue { "index.maxresultwindow" : "10000000" } 方法2: 后台执行如下命令进行设置: curl –XPUT ‘ { "index.maxresultwindow":"1000000" } 注意 该配置会相应的消耗内存与CPU,请谨慎设置。 使用deletebyquery命令删除数据后,为什么磁盘使用率反而增加? 使用deletebyquery命令删除数据并不是真正意义上的物理删除,它仅仅是对数据增加了删除标记。当再次搜索的时,会搜索全部数据后再过滤掉带有删除标记的数据。 因此,该索引所占的空间并不会因为执行磁盘删除命令后马上释放掉,只有等到下一次段合并时才真正的被物理删除,这个时候磁盘空间才会释放。 相反,在查询带有删除数据时需要占用磁盘空间,这时执行磁盘删除命令不但没有被释放磁盘空间,反而磁盘使用率上升了。 ES集群如何清理缓存? 清理fielddata 进行聚合和排序时,会使用fielddata数据结构,会占用较大内存。 1.在Kibana执行如下命令,查看索引的fielddata占用情况。 DELETE /search/scroll { "scrollid" : "DXF1ZXJ5QW5kRmV0Y2gBAAAAAAAAAD4WYm9laVYtZndUQlNsdDcwakFMNjU1QQ" } 2.当fielddata 占用内存过高时,可以执行如下命令清理 fielddata 。 POST /test/cache/clear?fielddatatrue “test”为fielddata占用内存较高的索引名称。
        来自:
        帮助文档
        云搜索服务
        常见问题
        操作类
      • 类CTyunOS私有镜像制作
        4.2 更新initramfs 为了确保Linux操作系统在物理机上也能正常启动,需要把必要的驱动加入到initramfs中,以便Linux操作系统在启动时能找到必要的驱动。常见的情况如下 对使用本地盘的物理机,通常使用RAID,需要包含RAID驱动,以访问硬盘。 对使用DPU虚拟盘的物理机,需要有访问DPU虚拟盘相关的驱动。 4.2.1 生成initramfs 使用下面的命令生成initramfs。 plaintext generate initramfs export KERNELVERSION$(rpm q kernel rpmdevsort tail n1 sed e 's/kernel//') cat >> /etc/dracut.conf <dddracutmodules+" dm lvm dmraid mdraid " adddrivers+" ahci megaraidsas mpt3sas mpt2sas aacraid smartpqi qla2xxx lpfc dmmod dmmirror dmlog dmregionhash " filesystems+" vfat msdos isofs ext4 xfs squashfs " mdadmconf"yes" lvmconf"yes" EOF rm rvf /etc/dracut.conf.d/ dracut force fstab earlymicrocode kmoddir /lib/modules/${KERNELVERSION} kver${KERNELVERSION} add multipath include /etc/multipath /etc/multipath adddrivers中需要根据实际情况添加系统启动时需要的内核模块。 filesystems中需要根据实际情况添加要支持的文件系统类型。 kmoddir /lib/modules/${KERNELVERSION} kver${KERNELVERSION}:用来指定内核版本。若为当前运行的内核生成initramfs,则不必指定这部分参数。 add multipath include /etc/multipath /etc/multipath:用来添加multipath配置。如果您不打算在物理机上使用multipath,则不必加这部分参数。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        镜像
        通过镜像文件制作系统盘私有镜像
        制作镜像文件
        制作系统盘私有镜像
        类CTyunOS私有镜像制作
      • 类CTyunOS私有镜像制作(1)
        4.2 更新initramfs 为了确保Linux操作系统在物理机上也能正常启动,需要把必要的驱动加入到initramfs中,以便Linux操作系统在启动时能找到必要的驱动。常见的情况如下 对使用本地盘的物理机,通常使用RAID,需要包含RAID驱动,以访问硬盘。 对使用DPU虚拟盘的物理机,需要有访问DPU虚拟盘相关的驱动。 4.2.1 生成initramfs 使用下面的命令生成initramfs。 plaintext generate initramfs export KERNELVERSION$(rpm q kernel rpmdevsort tail n1 sed e 's/kernel//') cat >> /etc/dracut.conf <dddracutmodules+" dm lvm dmraid mdraid " adddrivers+" ahci megaraidsas mpt3sas mpt2sas aacraid smartpqi qla2xxx lpfc dmmod dmmirror dmlog dmregionhash " filesystems+" vfat msdos isofs ext4 xfs squashfs " mdadmconf"yes" lvmconf"yes" EOF rm rvf /etc/dracut.conf.d/ dracut force fstab earlymicrocode kmoddir /lib/modules/${KERNELVERSION} kver${KERNELVERSION} add multipath include /etc/multipath /etc/multipath adddrivers中需要根据实际情况添加系统启动时需要的内核模块。 filesystems中需要根据实际情况添加要支持的文件系统类型。 kmoddir /lib/modules/${KERNELVERSION} kver${KERNELVERSION}:用来指定内核版本。若为当前运行的内核生成initramfs,则不必指定这部分参数。 add multipath include /etc/multipath /etc/multipath:用来添加multipath配置。如果您不打算在物理机上使用multipath,则不必加这部分参数。
        来自:
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 1
      • ...
      • 15
      • 16
      • 17
      • 18
      • 19
      • ...
      • 415
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      一站式智算服务平台

      知识库问答

      人脸实名认证

      动作活体识别

      推荐文档

      如何修改账号的密码?

      如何充值?

      VPN删除

      扶持政策

      EIP释放和批量释放

      域名相关常见问题

      充值预付款能否开具发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号