云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      关系数据库SQL Server版_相关内容
      • 正则表达式分隔半结构化文本
        Apache server日志 日志样例: [Mon Jan 08 20:43:51.854334 2018] [mpmevent:notice] [pid 36465:tid 140557517657856] AH00489: Apache/2.4.12 (Unix) OpenSSL/1.0.1t configured resuming normal operations 正则表达式为: ^[(. )][(. )] [(. )] (. ). 解析结果如下: 表 Apache server日志解析结果 列号 样值 1 Mon Jan 08 20:43:51.854334 2018 2 mpmevent:notice 3 pid 36465:tid 140557517657856 4 AH00489: Apache/2.4.12 (Unix) OpenSSL/1.0.1t configured resuming normal operations
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        正则表达式分隔半结构化文本
      • 分布式关系型数据库DRDS支持的事件列表
        分布式关系型数据库DRDS支持的事件列表 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 创建实例失败 createDDM InstanceFailed 重要 一般是由于底层资源不足等原因导致。 释放资源后重新创建。 无法创建DRDS实例。 变更规格失败 resizeFlavor Failed 重要 一般是由于底层资源不足等原因导致。 请工单联系运维在后台协调资源再重试规格变更操作。 部分节点业务中断 节点扩容失败 enlargeNode Failed 重要 一般是由于底层资源不足等原因导致。 请工单联系运维后台协调资源,删除添加失败的节点,重新尝试添加节点 节点扩容失败 节点缩容失败 reduceNode Failed 重要 一般是由于底层释放资源失败等原因导致。 请工单联系运维后台处理资源。 节点缩容失败 重启实例失败 restartInstance Failed 重要 一般是由于底层关联数据库实例异常等原因导致。 建议先排查底层数据库实例是否异常,如果无异常请工单联系运维进行排查。 部分节点业务中断 创建逻辑库失败 createLogic DbFailed 重要 一般是由于以下几种原因导致的: 1、数据库实例账号密码错误; 2、DRDS实例与底层数据库实例安全组设置错误,导致无法通信。 请排查: 1、数据库实例账号密码是否错误; 2、DRDS实例与底层数据库实例安全组是否设置正确等问题。 业务无法正常运行 绑定弹性公网IP失败 bindEipFailed 重要 一般是由于EIP服务繁忙。 稍后重试,紧急情况下请联系运维排查问题。 无法通过公网访问服务 逻辑库扩容失败 migrateLogic DbFailed 重要 一般是由于底层处理失败。 请工单联系运维处理。 无法实现逻辑库扩容 逻辑库扩容重试失败 retryMigrate LogicDbFailed 重要 一般是由于底层处理失败。 请工单联系运维处理。 无法实现逻辑库扩容
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        分布式关系型数据库DRDS支持的事件列表
      • 更换HA证书
        本章主要介绍翼MapReduce的更换HA证书功能。 操作场景 HA证书用于主备进程与高可用进程的通信过程中加密数据,实现安全通信。该任务指导系统管理员FusionInsight Manager完成主备管理节点的HA证书替换工作,以确保产品安全使用。适用于以下场景: 首次安装好集群以后,需要更换企业证书。 企业证书有效时间已过期或安全性加强,需要更换为新的证书。 说明 不适用于未安装主备管理节点的场景。 证书文件和密钥文件可向企业证书管理员申请或由系统管理员生成。 对系统的影响 更换过程中FusionInsight Manager需要重启,此时系统无法访问且无法提供服务。 前提条件 获取需要更换的HA根证书文件“rootca.crt”和密钥文件“rootca.pem”。 准备一个访问密钥文件的密码 password ,例如“Userpwd@123”用于访问密钥文件。 密码复杂度要求如下,如果密码复杂度不满足如下要求,可能存在安全风险: − 密码字符长度最小为8位。 − 至少需要包含大写字母、小写字母、数字、特殊字符~!?,.;'(){}[]/<>@ $%^&+中的4种类型字符 向证书管理员申请证书时,请提供访问密钥文件的密码并申请crt、cer、cert和pem格式证书文件,以及key和pem格式密钥文件。申请的证书需要有签发功能。 操作步骤 1.以omm用户通过主管理节点IP登录主管理节点。 2.选择证书和密钥文件的生成方式: 若由证书管理员生成,请在主备管理节点“${OMSRUNPATH}/workspace0/ha/local/cert”目录保存申请的证书文件与密钥文件。 说明 若获取的证书文件格式不是“.crt”,密钥文件格式不是“.pem”,执行以下命令修改: mv证书名称.证书格式rootca.crt mv密钥名称.密钥格式rootca.pem 例如,将证书文件命名为“rootca.crt”,密钥文件命名为“rootca.pem”: mv server.cer rootca.crt mv serverkey.key rootca.pem 若由系统管理员生成,执行以下命令在主管理节点“${OMSRUNPATH}/workspace0/ha/local/cert”目录生成“rootca.crt”和“rootca.pem”: sh ${OMSRUNPATH}/workspace/ha/module/hacom/script/gencert.sh rootca countryCN state state city city company company organize organize commonname commonname email 管理员邮箱 说明 生成的证书文件有效期为10年,在系统证书文件即将过期时,系统将产生告警“ALM12055 证书文件即将过期”。 例如,执行以下命令: sh ${OMSRUNPATH}/workspace/ha/module/hacom/script/gencert.sh rootca countryCN stateguangdong cityshenzhen companyxxx organizeIT commonnameHADOOP.COM emailabc@xxx.1com 根据提示信息输入 password ,并按回车键确认。 Enter pass phrase for /opt/xxx/Bigdata/omserver/OMS/workspace/ha/local/cert/rootca.pem: 提示以下信息表示命令执行成功: Generate rootca pair success. 3.在主管理节点以omm用户执行以下命令,复制“rootca.crt”和“rootca.pem”到“${BIGDATAHOME}/omserver/om/security/certHA”目录。 cp arp ​{OMSRUNPATH}/workspace0/ha/local/cert/rootca. OMSR​UNP​ATH/workspace0/ha/local/cert/root−ca.∗​{BIGDATAHOME}/omserver/om/security/certHA 4.使用omm用户将主管理节点生成的“rootca.crt”和“rootca.pem”复制到备管理节点“${BIGDATAHOME}/omserver/om/security/certHA”目录。 scp ​ ​{OMSRUNPATH}OMSRUNPATH}/workspace0/ha/local/cert/rootca. omm@备管理节点IP:${BIGDATAHOME}/omserver/om/security/certHA 5.执行以下命令,生成HA用户证书并自动替换。 sh ${BIGDATAHOME}/omserver/om/sbin/replacehaSSLCert.sh 根据提示信息输入 password ,并按回车键确认。 Please input ha ssl cert password: 界面提示以下信息表示HA用户证书替换成功: [INFO] Succeed to replace ha ssl cert. 说明 如果用户需要更新HA密码加密套件,可以带u参数。 6.执行以下命令,重启OMS。 sh ${BIGDATAHOME}/omserver/om/sbin/restartoms.sh 界面提示以下信息: start HA successfully. 7.以omm用户通过备管理节点IP登录备管理节点,重复56。 执行 sh ${BIGDATAHOME}/omserver/om/sbin/statusoms.sh 查看管理节点的“HAAllResOK”是否为“Normal”,并可以重新登录FusionInsight Manager表示操作成功。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        证书管理
        更换HA证书
      • 重启服务器上的HBlock
        本节主要介绍如何使用API重启服务器上的HBlock。 此操作用来重启服务器上的HBlock。 请求语法 plaintext PUT /rest/v1/system/server/serverId/restart HTTP/1.1 Date: date ContentType: application/json; charsetutf8 ContentLength: length Host: ip:port Authorization: authorization { "force": force } 请求参数 参数 类型 描述 是否必须 serverId String 要重启的服务器ID。 是 force Boolean 是否强制重启。 注意 强制重启服务器,可能造成数据丢失。 取值: true:强制重启。 false:不强制重启。 默认值为false。 否 请求示例 重启服务器hblock4上的HBlock服务。 plaintext PUT /rest/v1/system/server/hblock4/restart HTTP/1.1 Date: Thu, 17 Mar 2022 02:00:12 GMT Authorization: HBlock userName:signature Host: 192.168.0.121:1443 响应示例 plaintext HTTP/1.1 202 Accepted xhblockrequestid: c221ede9cf764ce39a06c3e8ea930fdd Connection: keepalive Date: Thu, 17 Mar 2022 02:00:16 GMT ContentLength: 0 Server: HBlock
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        重启服务器上的HBlock
      • 计费项
        本页为您介绍WPS云文档天翼云版的计费项 WPS云文档天翼云版 标准版365/元/人/年 WPS云文档天翼云版 高级版599/元/人/年 WPS云文档天翼云版 基础版168/元/人/年 WPS云文档天翼云版 WPS会员89/元/人/年 WPS云文档天翼云版 稻壳会员 89/元/人/年 WPS云文档天翼云版 超级会员179/元/人/年 WPS云文档天翼云版 咨询服务8100元/人/天
        来自:
        帮助文档
        WPS云文档天翼云版
        计费说明
        计费项
      • TaurusDB读写分离最佳实践
        本节介绍了云数据库TaurusDB的读写分离最佳实践。 用户认证 用户账号如果需要使用数据库代理登录,则必须赋予账号远程登录权限,否则无法通过数据库读写分离访问。 操作步骤 1、连接TaurusDB实例。 通过DAS连接TaurusDB实例 通过内网连接TaurusDB实例 通过公网连接TaurusDB实例 2、实例连接成功后,执行下列SQL语句,查看使用的账号的host是否包含数据库读写分离地址。 SELECT user,host FROM mysql.user; 读写分离地址获取方式: 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 在左侧导航栏,单击“数据库代理”。 方法一:在“数据库代理”页面中,在“代理地址”模块“链接地址”,获取当前实例的数据库读写分离地址。 方法二:在“读写分离”页面中,在“读写分离信息”模块“读写分离地址”处,获取当前实例的数据库读写分离地址。 3、如果查询的host不包含数据库代理所在网段,则需要赋予远程访问权限。例如root用户从192.168.0网段连接到TaurusDB数据库: GRANT ALL PRIVILEGES ON . TO 'root'@'192.168.0.%' IDENTIFIED BY password WITH GRANT OPTION; flush privileges; 4、当修改安全组时,确保入方向规则和出方向规则允许读写分离的地址访问,读写分离默认端口号为3306。 登录管理控制台。 单击管理控制台右上角的,选择Region。 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页面。 在“基本信息”页面中,在“网络信息”模块的“内网安全组”处,单击安全组名称,进入安全组页面。 在入方向规则页签下,默认允许3306端口访问。如果没有该条规则,单击“快速添加规则”,弹框页面中勾选“MySQL(3306)”,单击“确定”。 图 放通3306端口 图 快速添加3306端口 说明 当您使用MySQL8.0客户端访问数据库读写分离时,可能会报错auth user failed。 在连接数据库时添加 defaultauthmysqlnativepassword。
        来自:
        帮助文档
        云数据库TaurusDB
        最佳实践
        TaurusDB读写分离最佳实践
      • 产品架构和功能原理
        备份迁移基本原理 图 备份迁移原理 备份迁移实现SQLServer数据库的离线迁移功能。用户需要提前将源数据库的全量备份包和增量备份包上传到OBS桶中,DRS服务会从OBS桶中下载备份包并上传到目标数据库本地磁盘,在对文件完成预检查和校验后,执行导入命令将数据恢复到目标数据库。 实时同步基本原理 图 实时同步原理 实时同步功能实现源数据库和目标数据库的数据长期同步,主要用于OLTP到OLAP、OLTP到大数据组件的数据实时同步。全量和增量的数据同步和实时迁移的技术原理基本一致,但是基于不同的业务使用场景,两个功能还是有些差异。 1. 实时同步支持异构数据库,针对异构数据库结构同步,DRS服务会通过语法转换,将源数据库的结构定义语句转换为目标库的结构定义语句在目标数据库执行,同时数据库字段类型也会进行映射转换。 2. 实时同步会提供更多的数据加工规则可供用户在数据同步时使用,这些规则会在数据抽取、解析、回放阶段进行处理,最终满足用户需要的各种数据同步规则。 3. 实时同步不会同步账号、触发器、事件等对象。 4. 实时同步经常用于多个源数据库到一个目标数据库的数据同步,对于多对一、一对多场景的DDL操作有专门的处理。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品架构和功能原理
      • ALM-12039 OMS数据库主备不同步
        检查备OMS数据库状态是否正常 6.以root用户登录备OMS数据库节点。 7.执行su omm命令切换到omm用户。 8.进入“${BIGDATAHOME}/omserver/om/sbin/”目录,然后执行./statusoms.sh命令检查备OMS数据库资源状态是否正常,查看回显中,“ResName”为“gaussDB”的一行,是否显示如下信息: 例如: 101010231 gaussDB Standbynormal Normal Activestandby 是,执行步骤9。 否,执行步骤16。 检查备节点磁盘是否已满 9.以root用户登录备OMS数据库节点。 10.执行su omm 命令切换到omm用户。 11.执行echo ${BIGDATADATAHOME}/dbdataom命令获取OMS数据库的数据目录。 12.执行df h命令,查看系统磁盘分区的使用信息。 13.查看OMS数据库数据目录挂载磁盘是否已满。 是,执行步骤14。 否,执行步骤16。 14.进行磁盘扩容。 15.磁盘扩容后,等待2分钟检查告警是否清除。 是,操作结束。 否,执行步骤16。 收集故障信息 16. 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 17. 在“服务”中勾选“OmmServer”,单击“确定”。 18. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 19. 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12039 OMS数据库主备不同步
      • 计费购买类
        本节介绍服务器安全卫士(原生版)计费购买类常见问题。 服务器安全卫士(原生版)和网页防篡改(原生版)的计费方式是什么? 服务器安全卫士(原生版)和网页防篡改(原生版)计费方式均为包周期计费,包周期计费是一种预付费模式,即先付费再使用,支持包年/包月。 服务器安全卫士(原生版)和网页防篡改(原生版)的计费项是什么? 网页防篡改(原生版)是服务器安全卫士(原生版)的增值产品,计费项均为您订购的防护服务器台数,您选定防护台数和订购时长后,系统可自动计算出您的计费情况。 不购买服务器安全卫士(原生版)能购买网页防篡改(原生版)吗? 服务器安全卫士(原生版)企业版与网页防篡改(原生版)不需要绑定购买;网页防篡改(原生版)可在服务器安全卫士(原生版)基础版上升级购买使用。 网页防篡改(原生版)可以单独购买吗? 网页防篡改(原生版)和服务器安全卫士(原生版)配额均可单独购买。 服务器安全卫士(原生版)可以免费使用吗? 您购买天翼云的服务器后,可以免费使用服务器安全卫士(原生版)的基础版服务。 服务器安全卫士(原生版)可以按天购买吗? 不支持,目前只支持包月和包年购买。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        常见问题
        计费购买类
      • 变量使用介绍
        在一个块中使用的所有变量必须在该块的声明小节中事先进行声明,PL/pgSQL变量可以是任意SQL数据类型,可以是一个简单数据类型、复合类型、RECORD、已经存在的表行类型、表字段类型、游标。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        PL:pgsql开发
        变量使用
        变量使用介绍
      • 我的镜像
        vscode curl fsSL sh codeserver installextension mspython.python jupyterlab pip install jupyterlab 方法2:将打包好的镜像在本地起起来,然后运行如下命令安装软件,安装完成后,执行 docker commit {容器名称},打包成新镜像后,即可上传。 vscode curl fsSL sh codeserver installextension mspython.python jupyterlab pip install jupyterlab 2、如果在自定义镜像列表看不到分享过来的镜像,请检查: 容器镜像服务所选区域与平台是不是同资源池。 截止时间是不是>当前时间,超出截止时间后共享失效。 共享的镜像状态是不是启用。 镜像分享 在本平台制作的自定义镜像支持租户级别的分享,您可以将制作的镜像分享给目标租户及下所有子用户 分享与取消分享 1. 点击【我的镜像】>【自定义镜像】>【镜像名称】,进入版本列表页。 2. 分享:选择您想要分享的镜像版本,操作列点击【分享给账户】,输入需要分享的账号ID,点击确认,完成分享。注意:1)仅制作成功的镜像支持分享;2)本功能以账户维度分享,即分享给该账户下所有用户;3)账号ID的获取:请联系您的目标账户,登录天翼云官网,点击【右上角名称】>【账号中心】>【统一身份认证】,在概览页右侧查看账号信息。 3. 查看分享的账户:点击分享用户数,可查看已分享的账号。 4. 取消分享:点击【取消分享】,选择需要取消分享的账号名,点击确认即可取消该账号的分享。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        智算资产
        我的镜像
      • 与其他服务的关系
        本文介绍弹性文件服务与其他服务之间的关系。 弹性文件服务与其他云服务的关系如图所示: 弹性文件服务与其他云服务详细关系如下: 服务名称 弹性文件服务与其他服务之间的关系 相关内容 弹性云主机/物理机 文件系统不可独立使用,须挂载至同一VPC下的弹性云主机、物理机等计算服务后进行访问和读写。 挂载文件系统 容器 弹性文件服务可为容器应用提供共享存储,可以满足用户容器高可用和容器数据持久化存储及备份需求。 容器挂载文件系统 虚拟私有云 虚拟私有云VPC为弹性文件服务构建隔离的、用户自主配置和管理的虚拟网络环境,提升用户云中资源的安全性,简化用户的网络部署。计算服务无法访问不在同一VPC下的文件系统,使用弹性文件服务时需将文件系统和计算服务归属于同一VPC下。 创建文件系统 云监控 当用户开通了弹性文件服务后,无需额外安装其他插件,即可在云监控查看对应服务的性能指标,包括读带宽、写带宽和读写带宽等。 数据监控
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        与其他服务的关系
      • 根据需要设置关联发生的节点
        多表关联的逻辑默认是在DN节点执行,在发生重分布后,可能会因为重分布原因性能明显下降。您可以选择将关联逻辑上拉到CN节点执行,避免DN之间的重分布。 多表关联的逻辑默认是在DN节点执行,在发生重分布后,可能会因为重分布原因性能明显下降。 针对此问题,TeleDB支持通过参数preferolap设置,可以选择将关联逻辑上拉到CN节点执行,避免DN之间的重分布。参数preferolap默认为on,表示关联下推到DN执行,off则表示关联上拉到DN执行。 这里需要注意,设置关联上拉CN节点执行,需要提前做好评估,如果上拉数据量过大,大量并发SQL发起上拉数据到CN动作,会导致CN节点负载过高,甚至OOM。 通常可以在TP类业务中可以针对SQL会话级设置上拉,性能会有所提升,同时CN节点应配置较大的资源,避免OOM发生。 例如,下面的SQL,teledb1关联没有用到分布键,发生了重分布。 teledb explain select teledb1. from teledb1,teledb2 where teledb1.f1teledb2.f1 ; QUERY PLAN Remote Subquery Scan on all (dn001,dn002) (cost29.80..186.32 rows3872 width40) > Hash Join (cost29.80..186.32 rows3872 width40) Hash Cond: (teledb1.f1 teledb2.f1) > Remote Subquery Scan on all (dn001,dn002) (cost100.00..158.40 rows880 width40) Distribute results by S: f1 > Seq Scan on teledb1 (cost0.00..18.80 rows880 width40) > Hash (cost18.80..18.80 rows880 width4) > Seq Scan on teledb2 (cost0.00..18.80 rows880 width4) (8 rows) 设置preferolapoff后,关联上拉到CN上执行,重分布消失。 执行计划如下: teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        性能优化最佳实践
        SQL优化最佳实践
        根据需要设置关联发生的节点
      • 概述
        本文为您介绍DRDS实例的全局日志(全局Binlog),以及使用流程。 注意 仅V5.1.9.6020.2533及以后版本的实例,支持该功能。 全局Binlog介绍 DRDS实例的全局日志(全局Binlog)是一种二进制日志文件,内容包括该DRDS实例所有的DML操作以及DDL操作,同时为了便于一致性恢复,全局Binlog中也包含DRDS实例元数据和全局一致性位点信息。DRDS全局Binlog兼容MySQL Binlog格式,由CDC(Change Data Capture)节点生成。CDC节点完全兼容MySQL的Binlog dump协议,第三方程序可以像消费(即使用工具实时解析或处理全局Binlog,或进行数据同步等)单个MySQL实例的Binlog一样消费全局Binlog。 工作原理 DRDS由计算节点(Compute Node,简称CN)和存储节点(Data Node,简称DN)组成,存储节点为独立的RDS实例。CDC会存储DRDS实例的元信息,例如逻辑库和逻辑表的对应关系、物理库与物理表的对应关系、白名单表等。CDC使用dump协议,以slave的角色从各DN节点拉取Local Binlog(即RDS产生的Binlog),然后对Local Binlog进行整形、去重、合并等,最终生成全局Binlog。DRDS实例全局Binlog架构如下: 全局Binlog完全采用单机MySQL Binlog的格式,能够提供与单机MySQL数据库相同的使用体验。同时CDC支持dump协议,无论是将全局Binlog日志同步到下游的大数据系统,还是作为DRDS实例的的备份,均可通过直接订阅全局Binlog来实现。您只需在创建DRDS实例后,创建日志节点并完成初始化(也可以在创建DRDS实例时同步创建日志节点,待创建完毕后,再进行日志节点初始化操作),即可生成全局Binlog日志。 注意 开启日志节点后,当您续订或删除DRDS实例时,会同步续订或删除日志节点。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        日志管理
        全局Binlog日志管理
        概述
      • 产品咨询类
        本页介绍分布式融合数据库HTAP的常见产品咨询类问题。 分布式融合数据库HTAP易用性如何? 首先,分布式融合数据库HTAP高度兼容MySQL 5.7的网络协议、SQL功能及语法,同时也与生态工具(如PHPMyAdmin、Navicat、MySQL Workbench、mysqldump、Mydumper/Myloader)无缝对接。这使得分布式融合数据库HTAP的使用非常简单,你可以将HTAP集群视为MySQL数据库来使用。无论是在现有的以MySQL作为后台存储服务的应用中,还是在新的应用开发中,基本上都不需要修改应用代码,同时,流行的MySQL管理工具也能够轻松地用于管理分布式融合数据库HTAP。 其次,分布式融合数据库HTAP拥有分布式数据库的诸多优点。它采用Raft一致性算法,保证了数据在各个节点之间的一致性,从而确保了数据的可靠性和准确性。同时它支持自动的水平扩展,能够根据实际需求灵活地增加或减少节点数量,从而有效地应对不断增长的数据量和访问量。 总体来看,它兼具了MySQL的易用性与分布式数据库的高可用性、可扩展性,是一个非常可靠和高效的数据存储和处理解决方案,能为用户提供了卓越的性能和便利性,为业务的发展提供了强有力的支持。 分布式融合数据库HTAP如何进行水平扩展? 当您的业务不断增长时,数据库可能会面临三方面瓶颈,第一是存储空间,第二是计算资源,第三是读写容量,这时可以对分布式融合数据库HTAP集群做水平扩展。 如果是存储资源不够,可以通过添加存储节点来解决,管理节点会自动将其他存储节点的部分数据迁移过去,无需人工介入。 如果是计算资源不够,可以查看计算节点和存储节点的 CPU 消耗情况,再考虑添加计算节点或者是存储节点来解决。 如果是读写容量跟不上,一般可以考虑同时增加计算节点和存储节点。
        来自:
        帮助文档
        分布式融合数据库HTAP
        常见问题
        产品咨询类
      • 线下OpenStack环境导入公有云环境
        cat CentOSOpenStackrocky.repo [centotackrocky] nameopenstackrocky baseurl enabled1 gpgcheck0 [qumekvm] nameqemukvm baseurl enabled1 gpgcheck0 7. 执行以下命令,安装packstack。 plaintext 安装leatherman yum y install leatherman 安装packstack yum y install openstackutils openstackpackstack 8. 执行以下命令,生成应答文件并编辑配置文件。 plaintext packstack genanswerfile/root/openstack.ini vim openstack.ini 除修改以下所列项外,其他项不保持变(密码字段,可根据需要自行修改,这里全部配置为了 123456) CONFIGDEFAULTPASSWORD123456 CONFIGAODHINSTALLn CONFIGMARIADBUSERroot CONFIGMARIADBPW123456 CONFIGKEYSTONEDBPW123456 CONFIGKEYSTONEADMINEMAILroot@localhost CONFIGKEYSTONEADMINUSERNAMEadmin CONFIGKEYSTONEADMINPW123456 CONFIGNEUTRONML2TYPEDRIVERSvxlan,flat CONFIGNEUTRONML2TENANTNETWORKTYPESvxlan CONFIGNEUTRONML2MECHANISMDRIVERSopenvswitch CONFIGNEUTRONL2AGENTopenvswitch CONFIGNEUTRONOVSBRIDGEMAPPINGSextnet:brex CONFIGNEUTRONOVSBRIDGEIFACESbrex:eth0 CONFIGNEUTRONOVSEXTERNALPHYSNETextnet CONFIGPROVISIONDEMOn 9. 执行以下命令,通过应答文件进行安装。 plaintext packstack answerfile/root/openstack.ini 10. 打开浏览器,输入 11. 执行以下命令,导入镜像。 plaintext openstack image create "centos" file centos.img diskformat qcow2 containerformat bare public 12. 执行以下命令,创建网络。 plaintext openstack create net vnet openstack network create providernetworktypeflat providerphysicalnetworkextnet external share extnet 13. 执行以下命令,创建子网。 plaintext openstack subnet create subnet1 network int subnetrange 172.16.1.0/24 gateway 172.16.1.1 openstack subnet create ex network extnet gateway 192.168.101.254 allocationpool start192.168.101.200,end192.168.101.205 subnetrange 192.168.101.0/24 14. 执行以下命令,创建路由。 plaintext openstack router create route openstack router add subnet route ex openstack router add subnet route subnet1 15. 执行以下命令,创建规格。 plaintext openstack flavor create vcpus 1 ram 512 disk 10 test1 16. 执行以下命令,创建密钥。 plaintext openstack keypair create cy 17. 执行以下命令,创建虚拟机。 plaintext openstack server create flavor test1 image centos nic netidcc9d7710d82e4109941256ae02a18d7d securitygroup default keyname cy test 18. 执行以下命令,连接虚拟机并上传qemuga、cloudinit以及virtio组件。 下载路径在“镜像服务”>“私有镜像”>“创建私有镜像”页面中连接下载。 根据说明文档安装后关闭虚拟机。 19. 执行以下命令,将云主机转为image。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 20. 执行以下命令,将image保存到本地(此时的镜像为raw格式)。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 21. 执行以下命令,将镜像转换为qcow2格式(防止镜像过大,上传到桶失败)。 plaintext qemuimg convert f raw o qcow2 cytestimg centos.qcow2 22. 将镜像上传到天翼云。 进入对象存储原生版,创建桶后,上传镜像到桶中(镜像较大建议通过oss api上传)。 23. 创建私有镜像。 通过“镜像服务”>“私有镜像”>“创建私有镜像”,选择镜像文件并填写对象的地址,然后转为私有镜像。 其中,地址可以在对象存储控制台中的“更多”>“复制URL”选项中复制获得。 24. 创建成功后,“弹性云主机”>“创建云主机”,镜像处选择私有镜像。创建完成后可进入云主机查看数据完整性。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        线下OpenStack环境导入公有云环境
      • UDFScript变量说明
        变量名 变量说明 示例 arg参数名 url中的某个具体参数的值。 比如:请求为: http参数名 某个请求头xxx的值。 比如:请求为: H "test: hello" H "headacc: 222"。 调用ctyun.var("httptest")返回“hello”。 调用ctyun.var("httpheadacc") 返回“222”。 注意: 如果xxx有破折号,通过var调用时,用下划线代替。 cookiexxx 请求cookie头中的name值。 使用方式同上。 scheme 请求使用的Web协议,“http” 或 “https”。 ctyun.var("scheme") 返回http。 serverprotocol 服务器的HTTP版本,通常为 “HTTP/1.0” 或 “HTTP/1.1”。 ctyun.var("serverprotocol") 返回HTTP/1.1。 timeiso8601 服务器时间的ISO 8610格式。 ctyun.var("timeiso8601") 返回 20220714T11:13:56+08:00。 timelocal 服务器时间。 ctyun.var("timelocal") 返回14/Jul/2022:11:13:56 +0800。 timehttp 服务器时间的http表示法。 ctyun.var("timehttp") 返回 Thu, 14 Jul 2022 03:13:56 GMT。 host 客户端请求的域名。 ctyun.var("host") 返回ctyun.cn。 requesturi 用户原始请求url包括查询参数。 比如:客户端发送请求uri为: /%E4%BD%A0%E5%A5%BD?tt123。 ctyun.var("requesturi") 返回/%E4%BD%A0%E5%A5%BD?tt123。 uri requesturi变量中不带查询参数部分,且进行urldecode。 比如:客户端发送请求uri为: /%E4%BD%A0%E5%A5%BD?tt123。 ctyun.var("uri") 返回 /你好。 querystring 查询参数, requesturi的参数部分。 比如:请求uri为: /hello?tt123&t2%E4%BD%A0%E5%A5%BD。 ctyun.var("querystring") 返回 tt123&t2%E4%BD%A0%E5%A5%BD。 requestmethod HTTP请求方法,通常为"GET"或"POST"等。 ctyun.var("requestmethod") 返回GET。 remoteaddr 返回客户端ip。 ctyun.var("remoteaddr") 返回172.21.51.44。 remoteport 客户端端口号。 ctyun.var("remoteport") 返回38966。 serveraddr 服务端ip。 ctyun.var("serveraddr") 返回172.21.51.88。 serverport 服务端端口号。 ctyun.var("serverport") 返回80。 isargs 是否有请求参数。 ctyun.var.isargs 返回 "?"或者空字符串。 args 请求参数。 ctyun.var.args 返回 "a1&b2&c3"。
        来自:
        帮助文档
        CDN加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript变量说明
      • 为什么找不到实例?
        本文介绍SQL Server找不到实例的原因。 如果您无法在SQL Server控制台上看到您所订购的实例,可能有如下两点原因。 原因 解决办法 未选择正确的资源池 需要切换至正确的资源池。 实例未完成开通 极端情况下会存在着底层资源不足、开通缓慢的情况,此时需要您耐心等待即可。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        购买/付费
        为什么找不到实例?
      • 移除服务器(集群版适用)
        本节主要介绍如何使用API移除服务器(集群版适用)。 此操作用来从HBlock集群中移除服务器。 注意 如果移除服务器上有target,该target对应卷的高可用类型是ActiveStandby,移除服务器时,业务不会中断,此卷对应的target会切换到其他服务器上,客户端需要重新连接target对应的新服务器IP。 如果移除服务器上有target,该target对应卷的高可用类型是Disabled,移除服务器时,业务会中断,此卷对应的target会切换到其他服务器上,客户端需要重新连接target对应的新服务器IP。但服务器移除时,会有数据丢失风险。 如果执行日志采集后,产生的日志保存在服务器安装目录下,在服务器移除之后,该日志将被删除。如果产生的日志保存在HBlock的数据目录内,并且deleteLocalData为true,该日志也将被删除。 有服务器正在移除时,不能再移除其他服务器。如果必须移除,请使用强制移除,但有丢数据风险。 该节点的所有数据目录不属于任何存储池,允许移除该服务器。否则不能移除,如果必须移除,请使用强制移除,但有丢数据风险。 如果要移除服务器的某个数据目录属于基础存储池,且是基础存储池中仅剩的一个可用故障域中的节点,不允许移除。 如果服务器上有基础服务,不允许移除。 请求语法 plaintext DELETE /rest/v1/system/server/serverId?forceforce&deleteLocalDatadeleteLocalData HTTP/1.1 Date: date Host: ip:port Authorization: authorization 请求参数 参数 类型 描述 是否必须 serverId String 要移除服务器的服务器ID。 是 force Boolean 是否强制移除服务器。 注意 强制移除服务器,可能造成数据丢失。 取值: true:是。 false:否。 默认值为false。 否 deleteLocalData Boolean 移除服务器时,是否删除服务器上HBlock数据目录中的数据。 取值: true:删除服务器上HBlock数据目录中的数据。 false:不删除服务器上HBlock数据目录中的数据。 默认值为false。 否
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        服务器管理
        移除服务器(集群版适用)
      • 功能特性
        连接查询 设备连接信息、订阅关系、分组在线设备数的实时查询。 轨迹查询 提供设备维度的上下线轨迹的查询。 运维能力 在线连接、主题、订购关系、会话以及消息收发统计历史查询并提供指标的阈值设置,超过阈值进行告警提示。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        功能特性
      • 创建/邀请子账号
        创建/邀请子账号方式 绑定方式 进入“企业中心组织管理”,进入界面点击“创建/邀请”子账号,并勾选管理员账号所需权限范围。邀请子账号加入组织,需要子账号在企业中心入口,查阅授权范围并勾选“同意邀请”后才能建立绑定关系。 勾选权限 在关联关系绑定时,主账号需要选择对子账号的管理权限。邀请模式下,关联关系的绑定,需要子账号确认授权并接受邀请。 允许主账号查看子账号的财务信息(余额/消费/成本/订单/账单等) 为子账号发票开具 允许子账号集成主账号的商务折扣 允许主账号管理子账号的云资源
        来自:
        帮助文档
        组织管理
        快速入门
        创建/邀请子账号
      • Eureka FAQ
        本章节介绍Eureka引擎的常见问题 如何解决Eureka连接失败问题? 问题现象 使用Eureka客户端连接Eureka服务端时,报错Cannot execute request on any known server,如下图所示。 或是报错There is no known eureka server; cluster server list is empty,如下图所示。 问题原因 Eureka客户端无法连通任意您指定的Eureka服务端地址,或是您指定的Eureka服务端地址配置不符合标准格式。 解决方案 请检查您在客户端配置中指定的eureka.client.serviceurl.defaultZone配置项,确保所填写的服务端地址正确且在客户端侧能够telnet通。格式需为 如何诊断注册到Eureka服务的健康状态? 注册到Eureka的服务有时可能会因为宕机或者网络原因而无法继续提供服务,Eureka提供了健康检测机制来保证消费者不会调用到不健康的服务。 您也可以在Eureka实例控制台服务管理服务列表,选择服务,点击详情按钮,查看当前服务实例的实时健康状态。当服务实例出现不健康的情况时,Eureka服务端会定期对其进行驱逐。若此类情况发生,请检查您服务的真实状态。 如何查看Eureka开源控制台UI? 默认不支持查看您实例的Eureka开源控制台UI,您可以通过我们提供的Eureka实例控制台对Eureka的基本信息进行查询,并进行相关管理端操作,功能更加全面。 如何解决Eureka服务消费者获取不到服务提供者地址的问题?
        来自:
        帮助文档
        微服务引擎
        常见问题
        注册配置中心
        Eureka FAQ
      • 慢查询
        本页面介绍云数据库ClickHouse如何通过控制台查看慢查询语句。 我们提供了强大的慢查询监控功能,让您能够深入了解和优化长时间运行的查询。通过这个功能,您可以查看在指定时间段内执行时间超过特定阈值(以毫秒为单位)的慢查询: 慢查询监控功能提供了以下关于慢查询的详细信息: 返回信息 描述 用户 执行慢查询的用户。这可以帮助您识别哪些用户的查询较慢,并可能需要进行性能调优或优化。 访问源地址 执行慢查询的客户端的IP地址或主机名。这个信息可以帮助您追踪慢查询的来源,并定位潜在的网络或连接问题。 起始时间 慢查询的开始时间。这个时间戳可以让您了解慢查询发生的具体时间,以便进行更精确的分析和对比。 持续时间 慢查询的执行时间,以毫秒为单位。这个指标反映了查询的耗时,让您可以找出执行时间较长的查询,并进行性能优化。 查询ID 每个查询都有一个唯一的查询ID。这个ID可以用于标识和跟踪慢查询,便于日志记录和调试。 内存使用量 慢查询执行期间使用的内存量。了解查询的内存消耗情况可以帮助您优化内存配置和调整查询的资源需求。 异常码 如果慢查询期间发生了异常或错误,会显示相应的异常码。这可以帮助您排查和解决慢查询过程中出现的问题。 SQL语句 慢查询的具体SQL语句。您可以查看查询的详细语句,从而深入分析查询逻辑和优化查询性能。 读取行数 查询期间读取的行数。这个指标可以帮助您了解查询的数据访问情况,并针对性地进行数据读取的优化。 读取数据大小 查询期间读取的数据量。这个指标可以帮助您评估查询的数据规模,并根据需要进行存储和网络资源的优化。 结果集行数 查询返回的结果集中的行数。这个指标可以帮助您了解查询结果的规模,并进行结果集处理的优化。 通过这些返回的信息,您可以全面了解慢查询的性能指标和查询细节,从而更好地分析、调优和优化您的系统。 通过监控慢查询,您可以及时发现执行时间较长的查询,识别可能存在的性能问题,并采取相应的优化措施。这可以提高系统的响应速度、减少查询的执行时间,并提升用户体验。 慢查询监控功能是优化云数据库ClickHouse性能的有力工具,它使您能够更好地了解系统中的查询行为,从而针对性地进行性能调优和优化。通过监控慢查询,您可以提升系统的整体性能,并确保高效处理大量查询请求。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        查询
        慢查询
      • 元数据管理
        本章节主要介绍操作类问题中有关元数据管理的问题。 如何查看MRS Hive元数据? Hive的元数据存放在MRS服务集群的GaussDB中,可执行如下步骤查看: 1.以root用户登录到DBServer主节点。 2.执行以下命令登录Hive元数据库: su omm source $DBSERVERHOME/.dbserviceprofile gsql p 20051 U USER W PASSWD d hivemeta 3.执行以下命令可以查看Hive元数据库中的所有元数据表: d+ 4.执行q退出查看元数据表页面。 5.执行以下命令可以查看元数据表中的数据: select from 表名; 说明 DBServer主节点的IP地址可登录Manager界面,选择“集群 > 服务 > DBService > 实例 ”查看。 Hive元数据存放在外部的关系型数据库存储时,请通过如下步骤获取信息: 1.集群详情页的“数据连接”右侧单击“单击管理”。 2.在弹出页面中查看“数据连接ID”。 3.在MRS控制台,单击“数据连接”。 4.在数据连接列表中根据集群所关联的数据连接ID查找对应数据连接。 5.在对应数据连接的“操作”列单击“编辑”,查看该数据连接所连接的RDS实例及数据库。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
        元数据管理
      • 操作类
        本节主要介绍操作类问题 如何判断数据迁移任务可以停止? 通常,在业务割接完成后,为了防止源数据库的操作继续同步到目标数据库,造成数据覆盖问题,您可选择结束迁移任务。结束之前您需要确认完成以下几点: 1、请您确认至少在业务低峰期有过一次完整的数据对比。 2、完成业务割接。 a. 先中断业务(如果业务负载非常轻,也可以尝试不中断业务)。 b. 在源数据库端执行如下语句(此处以MySQL为例,其余引擎可以参考《数据库复制服务最佳实践》),并观察在15分钟内若无任何新会话执行SQL ,则可认为业务已经完全停止。 show processlist 说明 上述语句查询到的进程列表中,包括DRS迁移实例的连接,您需要确认除DRS迁移实例的连接外无任何新会话执行SQL,即可认为业务已经完全停止 c. 实时同步时延为0,并稳定保持一段时间;同时,您可以使用数据级对比功能,进行割接前的最后一次数据级对比,耗时可参考之前的对比记录。 如果时间允许,则选择全部对比。 如果时间不允许,则推荐对比活跃表,关键业务表,第二步对比多次存在差异的表等。 d. 确定系统割接时机,业务系统指向目标数据库,业务对外恢复使用。 3、结束迁移任务,该操作仅删除了迁移实例,迁移任务仍显示在任务列表中,您可以进行查看或删除。 多对一的场景约束及操作建议? 因业务需要,不同实例、不同表的数据需要进行合并时,数据库复制服务提供的数据迁移和实时同步均支持多对一的场景。 操作建议 1、为避免创建任务过程中出现空间不足问题,建议提前计算源数据库的数据量总和,根据该总和一次性规划目标实例的磁盘空间,剩余磁盘空间需大于源库实际数据量大小的总和(例如“源系统1”数据量大小为1GB,“源系统2”数据量大小为3GB,“源系统3”数据量大小为6GB,则目标实例的剩余磁盘空间应该大于10GB)。 2、对于MySQL引擎,目标端参数的设置需要考虑整体资源的提升,建议使用第一个任务的参数对比功能中“常规参数”的“一键修改”(其中maxconnections除外),而“性能参数”应该结合目标端实际规格做相应的手工设置。 3、对于多对一同步任务场景,由于该场景是一个一个任务逐步创建的,后面创建任务时可能会造成已创建任务的同步阻塞,为了避免这个情况发生,请注意创建技巧。 每个同步任务都会涉及创建索引步骤,而创建索引时数据库可能会导致Schema锁进而阻塞Schema下的其他表的数据同步,从而导致后创建的任务可能在索引创建阶段对已经同步中的任务阻塞一段时间,我们可以选择在创建同步任务最后设置为“稍后启动”,这样设定在业务低峰期后创建任务,从而避免后创建任务的索引创建对已有任务的同步阻塞。 4、如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。 图 参数对比 场景一:多对一数据迁移 数据迁移是以整体数据库搬迁为目的,可以实现实例级多对一迁移,不支持源端具有同名的数据库,不支持库名映射。 图 多对一数据迁移 场景二:多对一实时同步 实时同步不同于数据迁移,是维持不同业务之间的数据持续性流动,可以实现表级数据多对一同步,并支持库级映射。 图 多对一实时同步 操作流程 创建任务时,为方便多对一任务间的相互识别,请在创建顺序上确保第一个任务进入全量迁移后再创建第二个任务。 图 操作流程
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • Python
        环境安装 1. 安装Python。(Python版本为2.7或3.X。) 2. 安装依赖库。(使用公网连接需要安装confluentkafka 1.9.2及以下版本的依赖库) pip install confluentkafka1.9.2 3. 下载Demo包kafkaconfluentpythondemo.zip。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改setting.py文件。(calocation仅在ssl连接时需要配置) kafkasetting { 'bootstrapservers': 'XXX', 'topicname': 'XXX', 'groupname': 'XXX' } 生产消息 发送以下命令发送消息。 python kafkaproducer.py 生产消息示例代码如下: from confluentkafka import Producer import setting conf setting.kafkasetting """初始化一个 Producer 对象""" p Producer({'bootstrap.servers': conf['bootstrapservers']}) def deliveryreport(err, msg): """ Called once for each message produced to indicate delivery result. Triggered by poll() or flush(). """ if err is not None: print('Message delivery failed: {}'.format(err)) else: print('Message delivered to {} [{}]'.format(msg.topic(), msg.partition())) """异步发送消息""" p.produce(conf['topicname'], "Hello".encode('utf8'), callbackdeliveryreport) p.poll(0) """在程序结束时,调用flush""" p.flush() 消费消息 发送以下命令消费消息。 python kafkaconsumer.py 消费消息示例代码如下: from confluentkafka import Consumer, KafkaError import setting conf setting.kafkasetting c Consumer({ 'bootstrap.servers': conf['bootstrapservers'], 'group.id': conf['groupname'], 'auto.offset.reset': 'latest' }) c.subscribe([conf['topicname']]) while True: msg c.poll(1.0) if msg is None: continue if msg.error(): if msg.error().code() KafkaError.PARTITIONEOF: continue else: print("Consumer error: {}".format(msg.error())) continue print('Received message: {}'.format(msg.value().decode('utf8'))) c.close()
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Python
      • 设置卷主备优先级或自动切换(集群版适用)
        示例 示例1 设置卷lun04a的主备优先级为hblock3,hblock1,hblock2,后期如果其中的一个服务器故障,lun04a会按照此优先级顺序选择主备IQN。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64] ./stor lun prefer n lun04a priority hblock3,hblock1,hblock2 Set LUN lun04a with server affinity successfully. 示例2 设置卷lun04a、lun04b的自动进行主备切换为Disabled。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64] ./stor lun prefer n lun04a,lun04b autofailback Disabled Set LUN lun04a,lun04b with server affinity successfully. 示例3 根据卷的当前主备target所在服务器,设置卷lun04a、lun04b的主备优先级。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64] ./stor lun prefer n lun04a,lun04b priority CUSTOM Set LUN lun04a,lun04b with server affinity successfully.
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        设置卷主备优先级或自动切换(集群版适用)
      • 服务授权
        服务授权 当您寻求天翼云的技术支持(不限于官网工单、线下咨询、电话等渠道)时默认运维人员已获得您的授权,技术支持过程中可能需要登陆您的数据库实例所在的主机执行一些运维命令,或者对您的数据库实例进行简单运维操作,但是都不会擅自更改您的数据。 当您向天翼云寻求技术支持(包括但不限于官网工单、线下咨询、电话等渠道)时,您默认已授权运维人员进行必要的操作。在技术支持过程中,运维人员可能需要登录您数据库实例所在的主机执行相关运维命令,或对数据库实例进行操作。但请注意,运维人员不会擅自更改您的数据。 若您需要天翼云的售后团队和DBA团队查看您实例的其它问题,您可以在工单或者其他渠道对他们进行如下书面授权: 配置权限 当您授权了该权限后,天翼云的售后团队和DBA团队可以在用户自定义的时间段内查看和修改RDS实例的配置信息。例如,RDS实例的白名单、数据复制模式、备份策略和数据库参数。但是在所有情况下,天翼云的售后团队和DBA团队都不会擅自更改RDS实例的连接信息(含连接地址和数据库账号)。 数据权限 当您授权了该权限后,天翼云的售后团队和DBA团队可以在用户自定义的时间段内查看RDS实例内的用户数据。例如,RDS实例的库表结构、索引字段、数据样本和SQL历史。但是在所有情况下,天翼云的售后团队和DBA团队都不会擅自更改RDS实例的库表结构、索引字段、数据。 我们始终致力于为您提供高效、安全的技术支持服务,同时严格遵守您的授权范围,确保您的数据安全和隐私不受侵犯。
        来自:
        帮助文档
        关系数据库MySQL版
        安全白皮书
        服务授权
      • 区分IPv4/IPv6回源
        配置说明 该功能暂不支持客户自助配置,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 提交工单时,请您提供如下信息: IPv4和IPv6用户与IPv4和IPv6源站对应关系;如存在IPv4或IPv6用户有多个源站,请说明不同源站的主备和权重关系。 不在指定范围内的用户,具体回哪个源站;如存在多个源站,请说明不同源站的主备和权重关系。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        区分IPv4/IPv6回源
      • 登录Windows物理机
        本章将介绍如何远程登录到Windows物理机。 前提条件 物理机已绑定弹性IP。 操作步骤 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”,此处我们选择内蒙6。 3. 单击“左侧导航栏>服务列表”,选择“计算 > 物理机服务”。 4. 在目标物理机的“操作”列,单击“远程登录”。 5. 进入SAC界面,输入“CMD”后按“Enter”建立命令提示通道。 6. 按“ESC+TAB”进入“cmd0003”通道,按“Enter”进入登录验证。 7. 在“用户名”输入“administrator”,“域”输入物理机公网IP,“密码”输入设置好的物理机密码,按“Enter”进行登录。 8. 进入系统界面,表示登录已完成。 后续操作 安装GUI图形化界面 如果您需要安装GUI图形化界面,请参考如下操作。 1. 在命令行提示输入符处,输入“PowerShell” 进入PowerShell。 2. 输入“InstallWindowsFeature ServerGuiShell, ServerGuiMgmtInfra”安装GUI,可看到安装进度显示。 InstallWindowsFeature ServerGuiShell, ServerGuiMgmtInfra 3. 完成该安装后需要重启服务器,在确认目前工作已保存或者物理机可以暂时中断服务重启的情况下,可以在命令行中输入“shutdown r t 0”实现系统重启 shutdown r t 0
        来自:
        帮助文档
        物理机 DPS
        用户指南
        实例
        登录物理机
        登录Windows物理机
      • 添加数据目录
        本节主要介绍添加数据目录命令。 ./stor server { A addpath } { p path } PATH & [ { n server } SERVERID ] [ capacityquota CAPACITYQUOTA ] 此命令用来为HBlock的指定服务器添加数据目录。一次可以添加多个数据目录,以英文逗号(,)分开。 说明 对于新增的数据目录,建议设置开机自动挂载,或使用已设置自动挂载的目录或子目录。 注意 每台服务器最多只能添加100个数据目录。 参数 参数 描述 p PATH 或 path PATH 要添加的数据目录。一次可以添加多个数据目录,以英文逗号(,)分开。 说明 该数据目录用于存储数据,建议不要与操作系统共用磁盘或文件系统。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 n SERVERID 或 server SERVERID 要添加的数据目录所属服务器ID。 如果未指定服务器ID,则为执行该命令的服务器添加数据目录。 capacityquota CAPACITYQUOTA 指定数据目录的容量配额,即针对加入到服务器中的每个数据目录,HBlock可写入的数据总量。当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 取值:整型。小于数据目录所在磁盘的总容量,单位是K/k、M/m、G/g、T/t、P/p,默认单位是G/g。负整数表示无限制写入,0表示禁止写入。默认不限制写入。 注意 如果一次添加多个数据目录,只能配置一个容量配额,配置的容量配额适用添加的所有目录。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        服务器操作
        添加数据目录
      • 天翼云云主机内网 NTP 时间同步配置指南(1)
        为保障您的天翼云弹性云主机系统时间精准统一,避免因时钟偏差引发业务异常、日志时序错乱、合规审计不达标等问题,推荐您配置天翼云内网 NTP 时间同步服务。本文为您介绍内网 NTP 时间同步的核心作用,以及红帽系、Debian 系 Linux 操作系统的标准化配置方法。 一、内网 NTP 时间同步核心作用 保障业务稳定运行:确保分布式集群、数据库主从同步、交易订单等业务的时序一致性,避免因时钟偏差引发数据错乱、服务异常。 提升运维排障效率:统一全量云主机系统时间,保障日志时序准确,便于故障溯源与问题定位。 满足合规审计要求:符合网络安全等级保护等监管规范对系统时间统一、日志可追溯的硬性要求。 低延迟高可靠:使用天翼云内网 NTP 专用地址,无需占用公网带宽,同步链路稳定、精度更高。 二、前置说明 适用范围:天翼云弹性云主机,涵盖红帽系(RHEL 7/8/9、CentOS 7/Stream、Rocky Linux、AlmaLinux 等)、Debian 系(Debian 10/11/12、Ubuntu 18.04+)Linux 操作系统。 天翼云内网 NTP 服务器地址:169.254.169.254。 三、配置步骤 红帽系操作系统配置(chronyd) 红帽系操作系统官方推荐使用 chronyd 服务实现时间同步,RHEL 8/9 系列默认预装并启用,配置步骤如下: 1. 备份原始配置文件(便于异常回滚) plaintext cp /etc/chrony.conf /etc/chrony.conf.bak 2. 写入天翼云内网 NTP 配置 清理原有NTP源配置 plaintext sed i E '/^(poolserver)/d' /etc/chrony.conf 新增内网NTP同步配置 plaintext cat >> /etc/chrony.conf << EOF server 169.254.169.254 iburst prefer EOF 3. 重启服务并配置开机自启 plaintext systemctl restart chronyd systemctl enable now chronyd
        来自:
      • 1
      • ...
      • 87
      • 88
      • 89
      • 90
      • 91
      • ...
      • 376
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      应用托管

      科研助手

      智算一体机

      知识库问答

      推荐文档

      客户端下载安装

      NAT网关删除

      天翼云最佳实践⑥:Win Server php-asp 环境安装

      绑定和解绑弹性IP

      术语解释

      mstsc 远程登录报错-要求的函数不受支持

      产品定义

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号