云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 更新超时策略
        参数 是否必填 参数类型 说明 示例 下级对象 connect 否 Float 连接超时时间(s),默认值为10 6 instId 是 String 实例ID 878da73f7dba36ff0ae80e004a4f28f9 id 是 String 服务内部id 1234563f7dba36ff0ae80e004a4f28f9 read 否 Float 接收消息超时时间(s),默认值为60 6 send 否 Float 发送消息超时时间(s),默认值为60 6
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        更新超时策略
      • 应用一致性Agent脚本无法下载或安装失败
        原因2解决方法 原因2:目标服务器openssl版本过低。 步骤1、使用远程管理工具(例如:PuTTY、Xshell等)连接您服务器的弹性IP。 步骤2、根据需要选择相应的Agent版本,并将安装方式二安装命令复制到该服务器,并将wget中链接中的https改为http。再以root权限执行即可。
        来自:
        帮助文档
        云服务备份
        故障案例
        应用一致性Agent脚本无法下载或安装失败
      • 远程连接Linux云主机报错:Permission denied
        本文主要介绍远程连接Linux云主机报错:Permission denied如何处理。 问题现象 远程连接Linux云主机报错:Permission denied 图 Permission denied 说明 修改此问题需要重启进入救援模式,请评估风险后进行操作。 本节操作涉及云主机重启操作,可能会导致业务中断,请谨慎操作。 根因分析 /etc/security/limits.conf中的nofile 用来设置系统允许打开的最大文件数目,如果nofile值大于PermissionDenied.png内核设置的fs.nropen参数值(默认为1048576),会导致登录校验错误,导致登录云主机时提示“Permission denied”。 处理方法 1.进入云主机的单用户模式。 以CentOS 7操作系统为例: a.重启云主机,单击“远程登录”。 b.按上方向键,阻止系统自动继续,在出现内核选项时按字母键e进入内核编辑模式。 图 进入内核编辑模式 说明 Euler镜像默认对grub文件进行了加密,进入编辑内核模式时会提示:Enter username,需要输入用户和密码,请联系客服获取。 c.找到linux16行末尾,删除不需要加载的参数到ro参数。 d.修改ro为rw,以读写方式挂载根分区。 e.并添加rd.break,然后执行Ctrl+X。 图 修改前 图 修改后 f.执行以下命令切换至/sysroot目录。 chroot /sysroot 2.执行以下命令,查询内核的fs.nropen值。 sysctl fs.nropen 3.编辑 /etc/security/limits.conf,修改配置的nofile值为合理的值,需小于2中查询的fs.nropen值,例如65535。 vi /etc/security/limits.conf 说明 limits.conf 文件实际是Linux PAM(插入式认证模块,Pluggable Authentication Modules)中pamlimits.so 的配置文件。更多详细配置信息请查看man手册,执行:man limits.conf 4.重启服务器,重试连接云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Linux远程登录报错类
        远程连接Linux云主机报错:Permission denied
      • 本地MacOS系统主机上传文件到Windows云主机
        本次我们通过Microsoft官方网站,采用Microsoft Remote Desktop for Mac作为远程连接工具。 1. 启动Microsoft Remote Desktop。单击“Add Desktop”。 2. 设置登录信息。 PC name:输入需要登录的Windows实例的弹性公网IP地址。 User account:在下拉列表中选择“Add user account”。 弹出“Add user account”对话框。 输入Windows实例账户“administrator”,并输入实例的登录密码,单击“Add”。 3. 选择待上传的文件夹。 单击“Folders”切换至选择文件夹列表。 勾选“Redirect folders”。 单击左下角,选择需上传的文件夹,并单击“Add”。 在“Remote Desktop”页面,双击需要登录的Windows实例图标。 确认登录信息后,选择“Continue”。 至此,您已经连接Windows实例。 4. 打开Windows云主机,查看共享的文件夹。 将需要上传的文件复制到Windows云主机。或将Windows云主机的文件下载到本地主机。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        文件上传/数据传输
        本地MacOS系统主机上传文件到Windows云主机
      • 使用ZOS静态存储卷
        2、创建持久卷声明(PVC) 使用kubectl连接集群,创建示例yaml文件pvcexample.yaml: plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: {YOURPVCNAME} namespace: default spec: accessModes: ReadWriteOnce resources: requests: storage: 5Gi volumeMode: Filesystem volumeName: {YOURPVNAME} 替换PV名称 执行以下命令,创建PVC plaintext kubectl apply f pvcexample.yaml 查看创建的PVC:登录“云容器引擎”管理控制台;在集群列表页点击进入指定集群;进入主菜单“存储”——“持久卷声明”,在列表查看。 3、创建工作负载 使用kubectl连接集群,创建示例yaml文件stsexample.yaml: plaintext apiVersion: "apps/v1" kind: "StatefulSet" metadata: name: "zostest" namespace: "default" spec: podManagementPolicy: "OrderedReady" replicas: 1 revisionHistoryLimit: 10 serviceName: "" template: spec: containers: image: "nginx:1.25alpine" imagePullPolicy: "IfNotPresent" name: "container1" resources: limits: cpu: "100m" memory: "256Mi" requests: cpu: "100m" memory: "256Mi" terminationMessagePath: "/dev/terminationlog" terminationMessagePolicy: "File" volumeMounts: mountPath: "/ccetmp" name: "volume1" subPath: "ccsetest" dnsPolicy: "ClusterFirst" restartPolicy: "Always" schedulerName: "defaultscheduler" securityContext: {} terminationGracePeriodSeconds: 30 volumes: name: "volume1" persistentVolumeClaim: claimName: {YOURPVCNAME} 替换为步骤2中的PVC名称 updateStrategy: rollingUpdate: partition: 0 type: "RollingUpdate" 执行以下命令,创建StatefulSet plaintext kubectl apply f stsexample.yaml 查看创建的有状态负载:登录“云容器引擎”管理控制台;在集群列表页点击进入指定集群;进入主菜单“工作负载”——“有状态”,在列表查看
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        对象存储(CT-ZOS)
        使用ZOS静态存储卷
      • 使用SFS静态存储卷
        2、创建持久卷声明(PVC) 使用kubectl连接集群,创建示例yaml文件pvcexample.yaml: plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: {YOURPVCNAME} namespace: default spec: accessModes: ReadWriteOnce resources: requests: storage: 500Gi volumeMode: Filesystem volumeName: {YOURPVNAME} 替换PV名称 执行以下命令,创建PVC plaintext kubectl apply f pvcexample.yaml 查看创建的PVC:登录“云容器引擎”管理控制台;在集群列表页点击进入指定集群;进入主菜单“存储”——“持久卷声明”,在列表查看。 3、创建工作负载 使用kubectl连接集群,创建示例yaml文件stsexample.yaml: plaintext apiVersion: "apps/v1" kind: "StatefulSet" metadata: name: "nastest" namespace: "default" spec: podManagementPolicy: "OrderedReady" replicas: 1 revisionHistoryLimit: 10 serviceName: "" template: spec: containers: image: "nginx:1.25alpine" imagePullPolicy: "IfNotPresent" name: "container1" resources: limits: cpu: "100m" memory: "256Mi" requests: cpu: "100m" memory: "256Mi" terminationMessagePath: "/dev/terminationlog" terminationMessagePolicy: "File" volumeMounts: mountPath: "/ccetmp" name: "volume1" dnsPolicy: "ClusterFirst" restartPolicy: "Always" schedulerName: "defaultscheduler" securityContext: {} terminationGracePeriodSeconds: 30 volumes: name: "volume1" persistentVolumeClaim: claimName: {YOURPVCNAME} 替换为步骤2中的PVC名称 updateStrategy: rollingUpdate: partition: 0 type: "RollingUpdate" 执行以下命令,创建StatefulSet plaintext kubectl apply f stsexample.yaml 查看创建的有状态负载:登录“云容器引擎”管理控制台;在集群列表页点击进入指定集群;进入主菜单“工作负载”——“有状态”,在列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        弹性文件存储(CT-SFS)
        使用SFS静态存储卷
      • 基础策略
        本节介绍通过配置策略,对用户终端与云电脑之间的数据传输和外设接入的权限进行控制的操作说明。 操作场景 管理员可以通过配置策略,对用户终端与AI云电脑之间的数据传输和外设接入的权限进行控制。 新建策略 管理员可以根据实际情况自定义电脑策略。 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“策略管理”,点击“基础策略管理”,进入“基础策略管理”页面; 3.单击“新建策略”,进入新建策略页面; 4.填写“策略名称”; 5.选择策略对应的“安全组”; 6.选择策略对应的“网络控制QoS规则”; 7.并根据需求配置其他策略项; 8.点击“确认提交”,完成自定义电脑策略生成。 外设策略 外设重定向 AI云电脑策略支持配置USB重定向规则,将接入端设备的 USB 设备重定向至AI云电脑,如存储类 USB 设备、扫描仪、打印机、摄像头、Ukey等。支持配置USB存储设备权限为只读或读写。 网络打印机工具 该策略开启后,用户可以在桌面里通过网络打印机工具使用网络打印机。用户在AI云电脑配置网络打印机请参考打印机配置 设备状态监测 管理员添加设备后,用户登录桌面检测所添加的设备是否正常连接设备,若设备连接异常提示用户检查。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        策略管理
        基础策略
      • 通过命令创建数据库
        本章主要介绍通过命令创建数据库 数据库是表、索引、视图、存储过程、操作符的集合。为了更方便地管理文档数据库实例,创建数据库实例后,您可以通过命令为其创建数据库。如果数据库不存在,则创建数据库并切换到新创数据库,否则,直接切换到指定数据库。 前提条件 成功连接文档数据库实例,请参见《文档数据库服务快速入门》各实例类型下,通过内网和公网连接实例的内容。 操作步骤 步骤 1 创建数据库。 use dbname “ dbname ”是待创建数据库的名称。 图 创建数据库 步骤2 创建后必须向数据库中插入数据,才能在数据库的列表中看到新创建的数据库。 图 插入数据 说明 系统自带三个数据库:admin、local、test。如果不创建新的数据库,直接插入数据,则数据默认插入到test库中。 图 查看数据库 步骤 3查看数据库中的数据。 图 查看数据
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库使用
        通过命令创建数据库
      • 重置缓存实例密码
        本节主要介绍重置缓存实例密码 当您忘记了DCS缓存实例密码时,可通过DCS重置密码功能,重新设置一个密码,可使用新密码使用DCS缓存实例。 说明 Redis支持通过重置密码功能将密码模式修改为免密模式,或者将免密模式修改为密码模式,具体请参考 只有处于“运行中”状态的DCS缓存实例支持重置密码。 重置密码后,服务端无需重启,立即生效。客户端需使用重置后的密码才能连接(长连接断开重连时才需要使用新密码,断开前还可以继续使用旧密码)。 前提条件 已成功创建DCS缓存实例。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”。进入缓存管理页面。 步骤 4 在需要重置密码的DCS缓存实例右侧,单击“操作”栏下的“更多 > 重置密码”。 步骤 5 系统弹出重置密码对话框。输入“新密码”和“确认密码”。 说明 DCS帐号密码必须满足以下复杂度要求: 密码不能为空。 密码长度在8到32位之间。 至少必须包含如下四种字符中的三种: 小写字母 大写字母 数字 特殊字符包括(~!@
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        密码管理
        重置缓存实例密码
      • 功能特性
        功能大类 功能点 基础功能 基于MySQL语法和协议对外提供数据访问,支持Workbench、Navicat、SQLyog等客户端连接,支持JDBC连接访问。 数据分片 支持多种数据切分方式,提供水平扩展数据能力。 读写分离 支持透明读写分离和应用级读写分离方案,识别应用发送过来的语句,区分出语句类型,判定为读语句,则自动发送到只读实例执行SQL操作。 全局序列 提供全局唯一的序列号,可用于替换单机数据库的自增序列。 库内分表 提供水平切分后在单库再次进行分表功能,解决超大表水平切分后单片数据量依然很大的问题。 全局表 通过全局表同步,可以将数据更新少的数据单表同步到需要联合查询分表对应的分库上,以小表作为驱动表加速分布式联合查询。 事务支持 DRDS当前支持单机、补偿、XA三种事务模型。 单机事务:不允许跨分片事务。 补偿事务:跨分片事务commit时部分失败,补偿线程会尝试在失败节点重新执行SQL。 XA分布式事务:两阶段提交,为了保证事务内数据一致性,跨分片事务commit时若部分失败会自动回滚。 管理命令 为方便用户使用和维护,提供DRDS特有的管理命令,包括:配置查看、状态查看、统计监控、序列运维等。 SQL执行统计分析 通过SQL执行统计分析,可判断数据分片的合理性,是否存在热点。 通过分析TOP慢语句、广播语句,不断优化应用程序对数据库使用的合理性。 运维监控 支持对实例、慢SQL、事务等进行监控,可实时查看分布式数据库的运行状况。 支持对数据库运行情况进行实时监控,提供物理数据库运行中语句、连接数统计及锁情况实时监控功能,在数据库资源被大量慢语句占用时,通过批量kill连接功能可快速恢复数据库服务。 运维管理可视化 DRDS提供Console界面,可在线对DRDS实例、逻辑库等进行管理和维护。
        来自:
        帮助文档
        分布式关系型数据库
        产品介绍
        功能特性
      • 绑定弹性公网IP
        本文主要介绍绑定弹性公网IP 操作场景 集群实例创建成功后,支持用户绑定弹性公网IP,通过公共网络访问数据库实例,绑定后也可根据需要解绑。 注意事项 在访问数据库前,您需要在虚拟私有云申请一个弹性公网IP,并将访问数据库的IP地址,或者IP段加安全组入方向的访问规则。 集群实例仅支持mongos节点绑定弹性公网IP。对于已绑定弹性公网IP的节点,需解绑后,才可重新绑定其他弹性公网IP。 绑定弹性IP 步骤 1 在“实例管理”页面,选择指定的集群实例,单击实例名称。 步骤 2 在左侧导航树,单击“连接管理”。在“基本信息”区域的mongos节点上,单击“绑定弹性IP”。 您也可以在“基本信息”页面的节点信息区域,选择指定mongos节点,单击操作列的“更多 > 绑定弹性IP”。 步骤 3 在弹出框的弹性IP列表中,显示“未绑定”状态的弹性IP,选择所需绑定的弹性IP,单击“确定”,提交绑定任务。如果没有可用的弹性IP,单击“查看弹性IP”,创建新的弹性IP。 步骤 4 在mongos节点的“弹性IP”列,查看绑定成功的弹性IP。 解绑弹性IP 步骤 1 对于已绑定弹性IP的节点,在“实例管理”页面,选择指定的集群实例,单击实例名称。 步骤 2 在左侧导航树,单击“连接管理”。在“基本信息”区域的mongos节点上,单击“解绑弹性IP”。 您也可以在“基本信息”页面的节点信息区域,选择指定mongos节点,单击操作列的“更多 > 解绑弹性IP”。 步骤 3 在弹出框中,单击“确定”,解绑弹性IP。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        集群快速入门
        通过公网连接集群实例
        绑定弹性公网IP
      • VPN连接服务创建方式二
        本章节向您主要介绍第二种VPN连接服务创建方式。 操作场景 通过执行该操作,您可以创建VPN,以便在您的数据中心与天翼云VPC之间建立一条保密而安全的通信隧道。 前提条件 请确认虚拟私有云VPC已经创建完成。 请确认虚拟私有云VPC的安全组规则已经配置,ECS通信正常。 操作步骤 1. 登录管理控制台。 2. 在管理控制台上方选择区域和项目。 3. 在系统首页,单击“网络 > 虚拟专用网络”。 4. 在“虚拟专用网络”界面,单击“购买VPN”。 5. 根据界面提示配置参数,并单击“立即购买”。 6. 提交申请。 创建成功后云为该IPsec VPN分配一个公网出口IP地址。该地址为VPN页面中,已创建的VPN的本端网关地址。在您自己数据中心配置对端隧道时,远端网关需要配置为该IP地址。 7. 因为隧道的对称性,还需要在您自己数据中心的路由器或者防火墙上进行IPsec VPN隧道配置。 说明 IKE策略指定了IPsec 隧道在协商阶段的加密和认证算法,IPsec策略指定了IPsec在数据传输阶段所使用的协议,加密以及认证算法;这些参数在VPC上的VPN和您数据中心的VPN中需要进行相同的配置,否则会导致VPN无法建立连接。 以下算法安全性较低,请慎用: 认证算法:SHA1、MD5。 加密算法:3DES。 DH算法:Group 1、Group 2、Group 5。 配置对端设备 配置对端设备可参见以下示例,帮助您配置本地的VPN设备,实现您本地网络与天翼云VPC子网的互联互通。
        来自:
        帮助文档
        VPN连接
        快速入门
        VPN连接服务创建方式二
      • 运行Hue任务
        本章节主要介绍翼MapReduce运行Hue任务。 前提条件 1. 使用Hue WebUI编辑器前,请前往翼MR Manager集群服务Hue连接器管理页面,选择需要启用的连接器,启用成功后,请在页面右上角的运维操作中重启Hue集群服务。重启后,即可前往Hue WebUI页面进行使用。 2. 当前版本支持使用LDAP账号访问Hue。若使用admin、hdfs或hive等已有权限的用户登录Hue,无需进行Ranger授权,可以跳过此步骤;如果新建LDAP用户,需要通过Ranger授予Hive与HDFS权限,操作步骤如下: 1)前往翼MR Manager集群服务中点击Ranger插件启用启用Hive与HDFS,并重启Hive与HDFS服务; 2)登录Ranger WebUI界面给需要登录的用户授权HADOOP SQL/HDFS等权限。 注意 如果没有给登录用户授权,查询hive可能报错Error, Permission denied: usertest, accessWRITE等问题。 3. 修改coresite.xml文件,为Hue用户配置代理权限。在HDFS配置管理中修改coresite.xml文件配置,新增 hadoop.proxyuser.hue.hosts与hadoop.proxyuser.hue.groups配置项,配置值可按需设置为,保存并同步配置后,请重启HDFS与Hivehiveserver2。 注意 如果没有为Hue用户配置代理权限,可能会报错Failed to validate proxy privilege of hue for test(登录用户)。 4. 若通过公网访问Hue WebUI,需保障网络畅通,您可前往控制台节点管理,为Hue所在的master节点绑定弹性IP,为安全组配置入方向访问规则后,点击访问链接与端口页面中的链接,前往Hue WebUI页面。 5. Hue通过JDBC连接Trino 查询引擎。Trino支持多个Catalog(如 hive、mysql等),但Hue默认连接Trino自带system的系统Catalog ,仅用于监控和元数据查询,无法访问Hive表等业务数据。如何查询Hive或其他业务数据?您有两种方式: 方式一:修改Hue默认连接的Catalog(推荐) 编辑Hue配置文件hue.ini,将Trino URL中的system替换为您实际使用的Catalog名称(例如hive) plaintext [[[trino]]] nameTrino JDBC interfacejdbc options'{"url":"jdbc:trino://yourtrinohost:9808/hive", "driver": "io.trino.jdbc.TrinoDriver", "user": "trino", "passwordscript": "/path/to/passwordscript.sh"}' 保存后重启Hue,即可在查询编辑器中直接使用SQL plaintext SELECT FROM default.users 方式二:在SQL中显式指定Catalog(无需改配置) 即使默认Catalog是system,您仍可通过完整表名查询任意Catalog中的数据。 使用SQL查询Hive 中的表 plaintext SELECT FROM hive.default.users 注意 请确保Trino服务端已正确配置对应的Catalog(如 hive.properties)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Hue任务
      • 其他目的网段配置
        本章介绍如何为专线配置访问VPC连接的其他资源的路由。 操作场景 用户通过云专线访问当前VPC连接的其他资源,比如NAT网关等。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 单击“网络>云专线”,进入到云专线操作导航页面,在左侧导航栏中,单击“云专线>专线网关”,进入到专线网关列表页面。 4. 点击目标专线网关“操作”列的“详情”,进入到专线网关详情页面,在专线网关详情页面点击“VPC”,进入到“VPC”页签。 5. 在“VPC”页签中,单击目标VPC“操作”列的“更多>修改其他目的网段配置”,打开【修改其他目的网段配置】弹窗。 6. 输入待访问的其他目的网段,请确保填写的目的网段与当前VPC已经连通。 7. 点击“确定”,可添加到其他目的网段的路由。 8. 修改其他目的网段的配置,需要在【其他目的网段配置】弹窗中,修改目的网段,点击“确定”,即可完成修改。 9. 删除其他目的网段的配置,需要在【删除其他目的网段】弹窗中,清空目的网段,点击“确定”,即可完成删除。
        来自:
        帮助文档
        云专线 CDA
        用户指南
        VPC配置
        其他目的网段配置
      • 基于NAT网关和云专线的混合云Internet加速
        本文介绍基于NAT网关和云专线的混合云Internet加速的操作实践。 使用背景 用户通过专线已连接到天翼云VPC的IDC,自身无internet或希望统一线上线下公网出口,可以选择使用天翼云NAT网关作为统一公网出口,实现混合云Internet加速。 方案优势 节省成本:云上云下多台服务器,可以通过NAT网关功能共用同一弹性IP,可以有效降低成本。 配置简单,即开即用:NAT网关关联的弹性IP可以根据需求调整带宽大小,以适应应用流量变化的需求。 安全高效:云专线提供云上云下高速、低时延、稳定安全的专属连接通道,结合NAT网关的SNAT和DNAT功能,可满足各类用户带宽需求。 方案涉及产品 VPC,NAT网关,弹性IP,云专线 方案架构 本方案网络拓扑架构如图所示 实现方式如下: 1. 通过云专线将用户IDC与VPC连通。 2. 在VPC中搭建公网NAT网关,连通Internet。 操作步骤 步骤一:创建云上VPC环境 配置云专线需要做好云上VPC和本地数据中心的网段规划,确保云上VPC网段和本地IDC网段没有冲突或重叠。 具体操作步骤参见虚拟私有云创建VPC、子网搭建私有网络。
        来自:
        帮助文档
        NAT网关
        NAT网关实践方案
        基于NAT网关和云专线的混合云Internet加速
      • 标签管理
        查看详情 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 详见下图:选择数据目录 2. 单击相应工作空间的“数据目录”,系统跳转至“数据目录”页面。 3. 选择“数据地图 > 数据目录”,在“技术资产”页签,选择“数据连接”,类型选择“Table”。筛选出该数据连接下的所有表。 详见下图:筛选表 4. 单击相应的表名称,即可跳转至表详情页面。 表详情页为用户展示表的详情、权限信息、列属性、血缘信息、概要、数据预览和变更记录。 详见下图:表详情页 数据预览 用户可以通过表的数据预览模块,预览当前表的业务数据。根据列的分类信息,支持对预览的数据进行实时脱敏。 数据预览支持的数据源类型:DWS、DLI、Hive、MySQL。 列的分类信息支持在新建采集任务时自动设置和在数据分类菜单中手动添加两种方式。其中仅DWS、DLI支持新建采集任务时自动设置分类。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        数据地图
        标签管理
      • 最佳实践概述
        本章节会介绍如何通过常用工具Navicat连接PostgreSQL。 场景描述 概述: Navicat for PostgreSQL 是一套易于使用的图形化 PostgreSQL 数据库开发工具。从编写简单的 SQL 查询到开发复杂的数据库,Navicat for PostgreSQL 都能迎合大部份用户的需要,包括 PostgreSQL 初学者以及经验丰富的开发人员。 典型行业:互联网企业。 适配场景:适用于 PostgreSQL 初学者以及经验丰富的开发人员。 方案优势 简单的SQL编辑,可视化SQL创建工具 跨平台许可,支持包括Windows、macOS、Linux等
        来自:
        帮助文档
        关系数据库PostgreSQL版
        最佳实践
        通过Navicat连接PostgreSQL
        最佳实践概述
      • DMS for Kafka 消费者poll的优化
        本文主要介绍DMS for Kafka 消费者poll的优化。 场景介绍 在DMS提供的原生Kafka SDK中,消费者可以自定义拉取消息的时长,如果需要长时间的拉取消息,只需要把poll(long)方法的参数设置合适的值即可。但是这样的长连接可能会对客户端和服务端造成一定的压力,特别是分区数较多且每个消费者开启多个线程的情况下。 如图所示,Kafka队列含有多个分区,消费组中有多个消费者同时进行消费,每个线程均为长连接。当队列中消息较少或者没有时,连接不断开,所有消费者不间断地拉取消息,这样造成了一定的资源浪费。 图 Kafka消费者多线程消费模式 优化方案 在开了多个线程同时访问的情况下,如果队列里已经没有消息了,其实不需要所有的线程都在poll,只需要有一个线程poll各分区的消息就足够了,当在polling的线程发现队列中有消息,可以唤醒其他线程一起消费消息,以达到快速响应的目的。如图所示。 这种方案适用于对消费消息的实时性要求不高的应用场景。如果要求准实时消费消息,则建议保持所有消费者处于活跃状态。 图 优化后的多线程消费方案 说明 消费者(Consumer)和消息分区(Partition)并不强制数量相等,Kafka的poll(long)方法帮助实现获取消息、分区平衡、消费者与Kafka broker节点间的心跳检测等功能。 因此在对消费消息的实时性要求不高场景下,当消息数量不多的时候,可以选择让一部分消费者处于wait状态。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        DMS for Kafka 消费者poll的优化
      • 内核版本说明
        版本 说明 3.1.2.0 新功能 连接池增强异常处理,增加DN节点的failfast特性(默认关闭)。 强化分片变更数据校验性能。 优化内存设置。 支持ANALYZE TABLE语句。 全局二级索引重建(白名单特性)。 3.1.1 新功能 支持全局二级索引(白名单特性)。 支持SSL加密连接。 3.1.0 新功能 新增Show Processlist和Kill Sessionid支持增加过滤条件。 新增支持MySQL 8.0 Online DDL相关关键字。 修复问题 修复执行使用DATESUB函数进行update语句后出现毫秒值丢失。 优化部分复杂查询下的字段别名显示。 修复Rename操作混在其他ddl语句后面操作成功后,新表无法使用。 修复Sequence并发插入报错问题。 3.0.9 新功能 支持对Sequence自增进度查询能力。 支持单条大小超过16M的记录查询。 支持MariaDB Connector/J驱动。 优化读写分离中的事务拆分功能,事务中连接未发生事务更新时可根据读写分离权重决定路由到主实例或只读实例。 3.0.8 新增功能 新增支持ROW表达式的路由计算。 新增支持表级回收站能力。 新增支持METADATA备份恢复能力。 修复问题 优化DDM MetaDb链接池。 优化DDM进程监控机制。 优化Show Processlist显示。 优化Reload获取元数据的流程。 优化增量回放如果遇到XA ROLLBACK时报错流程。 3.0.6 新增功能 支持分片变更内核讲METADATA链接统一使用链接池。 修复问题 修复对执行中的DDL命令做Ctrl+C操作, 无法记录结束状态问题。 优化客户端大数据查询下,进程Kill场景下CPU使用率高。 3.0.4 修复问题 修复部分异常场景下的读写分离报错问题。 优化groupconcat函数在数据量下的执行。
        来自:
        帮助文档
        分布式关系型数据库
        产品简介
        产品发布说明
        内核版本说明
      • 管理只读实例
        本页介绍了如何管理天翼云RDSPostgreSQL产品的只读实例。 RDSPostgreSQL产品支持管理只读实例的功能,主要包括以下操作: 基础操作:重启、停止、升级等,支持绑定EIP和设置标签。 生命周期:退订、扩容(包括规格扩容和磁盘扩容)等。 参数设置:修改实例参数,并支持设置参数模板应用到只读实例。 实例操作:包括空闲连接查杀、清理在线表等。 实例监控:资源监控(主机资源包括CPU、IO等核心监控数据)、引擎监控(QPS、TPS、连接数、缓存等内核指标监控)、日志监控(慢日志、错误日志等)以及操作日志(包括控制台操作在内的监控等)。 数据库安全:白名单管理、数据库审计等安全操作。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        只读实例
        管理只读实例
      • 记录数据迁移入库时间
        本章节主要介绍记录数据迁移入库时间。 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 创建表/文件迁移作业 1.在创建表/文件迁移作业时,选择已创建的源端连接器、目的端连接器。 图 配置作业 2.单击“下一步”,进入“字段映射”配置页面后,单击源字段图标。 图 配置字段映射 3.选择“自定义字段”页签,填写字段名称及字段值后单击“确认”按钮,例如: 名称:InputTime。 值:${timestamp()},更多时间宏变量请参见下表。 图 添加字段 表 时间变量宏定义具体展示 宏变量 含义 实际显示效果 ${dateformat(yyyyMMdd)} 以yyyyMMdd格式返回当前时间。 20171016 ${dateformat(yyyy/MM/dd)} 以yyyy/MM/dd格式返回当前时间。 2017/10/16 ${dateformat(yyyyMMdd HH:mm:ss)} 以yyyyMMdd HH:mm:ss格式返回当前时间。 20171016 09:00:00 ${dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} 以yyyyMMdd HH:mm:ss格式返回时间,时间为当前时间的前一天。 20171015 09:00:00 ${timestamp()} 返回当前时间的时间戳,即1970年1月1日(00:00:00 GMT)到当前时间的毫秒数。 1508115600000 ${timestamp(10, MINUTE)} 返回当前时间点10分钟前的时间戳。 1508115000000 ${timestamp(dateformat(yyyyMMdd))} 返回今天0点的时间戳。 1508083200000 ${timestamp(dateformat(yyyyMMdd,1,DAY))} 返回昨天0点的时间戳。 1507996800000 ${timestamp(dateformat(yyyyMMddHH))} 返回当前整小时的时间戳。 1508115600000 说明 添加完字段后,新增的字段在界面不显示样值,不会影响字段值的传输,CDM会将字段值直接写入目的端。 这里“添加字段”中“自定义字段”的功能,要求源端连接器为JDBC连接器、HBase连接器、MongoDB连接器、ElasticSearch连接器、Kafka连接器,或者目的端为HBase连接器。 4.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。这里保持默认值“1”。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入数据前需要先配置好OBS连接。这里保持默认值“否”即可,不记录脏数据。 作业运行完是否删除:这里保持默认值“不删除”。 5.单击“保存并运行”,回到作业管理的表/文件迁移界面,在作业管理界面可查看作业执行进度和结果。 6.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        记录数据迁移入库时间
      • 通过mongodump和mongorestore工具迁移数据
        本页介绍了通过mongodump和mongorestore工具迁移数据操作步骤。 通过使用mongodump和mongorestore工具来迁移文档数据库服务数据是一种常见且可靠的方法。这两个工具是MongoDB官方提供的备份和还原工具,可以帮助您将数据从一个文档数据库服务实例备份到文件,然后再将备份文件还原到另一个文档数据库服务实例。 以下是使用mongodump和mongorestore工具进行文档数据库服务数据迁移的步骤: 1. 使用mongodump备份数据: 在源文档数据库服务实例所在的服务器上运行mongodump命令,用于备份数据到文件。 mongodump命令:mongodump uriyoursourcemongodburi out/path/to/backupdirectory。 其中,yoursourcemongodburi是源文档数据库服务实例的连接URI,/path/to/backupdirectory是备份文件保存的目录。请确保您有权限在该目录下写入文件。 2. 将备份文件传输到目标服务器: 将上一步备份的文件传输到目标文档数据库服务实例所在的服务器,可以使用scp、rsync或其他文件传输工具。 3. 使用mongorestore还原数据: 在目标文档数据库服务实例所在的服务器上运行mongorestore命令,用于将备份文件还原到目标MongoDB实例。 mongorestore命令:mongorestore uriyourtargetmongodburi /path/to/backupdirectory。 其中,yourtargetmongodburi是目标MongoDB实例的连接URI,/path/to/backupdirectory是备份文件所在的目录。 4. 验证数据迁移: 运行完mongorestore命令后,您可以连接到目标文档数据库服务实例,并使用mongo shell或MongoDB客户端工具验证数据是否成功迁移。 注意 使用mongodump和mongorestore工具进行数据迁移会导致目标MongoDB实例上的数据完全被源实例中的数据覆盖。因此,在进行数据迁移前,请务必谨慎备份数据,并在生产环境之外进行测试和验证。如果迁移的目标实例上已经存在数据,那么请特别注意避免数据冲突和重复插入。另外,如果数据量较大或者需要在生产环境中进行数据迁移,考虑使用文档数据库服务副本集或分片集群,并采用逐步迁移的方式,以确保数据的连续性和一致性。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongodump和mongorestore工具迁移数据
      • SQL命令管理数据库
        本章节主要介绍了在SQL Server实例中使用SQL语句进行数据库管理。 删除数据库 连接sqlserver实例,执行以下命令,删除数据库: DROP DATABASE [TESTDB]; GO 注意 用户需要配置为所有者权限才能执行删除数据库的命令,否则会产生如下报错: "Cannot drop the database 'TESTDB', because it does not exist or you do not have permission."
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库
        SQL命令管理数据库
      • 创建集群
        参数名 样例值 协议/应用 TCP 端口 8000 说明 输入创建DWS集群时设置的“数据库端口”,这个端口是DWS用于接收客户端连接的端口,默认为8000。 源地址 选择“IP地址”,输入访问DWS的客户端主机的IP地址和子网掩码,例如“192.168.0.10/16”。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        创建集群
      • MySQL迁移/同步到MySQL
        失败原因 处理建议 源库为集群的从节点,且logslaveupdates参数不为ON,期间源库重放集群主节点的事务将不会同步到目标库。 如果所连接的源库为集群的从节点,需要将源库的logslaveupdates设置为ON。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        预检查不通过修复方法
        MySQL迁移/同步到MySQL
      • 通过mongoexport和mongoimport工具迁移数据
        导出源库数据 步骤 1 登录到已准备的弹性云服务器或可访问源数据库的设备。 步骤 2 使用mongoexport,将源数据库转储至JSON文件。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoexport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection out DBADDRESS为数据库地址。 DBPORT为数据库端口。 AUTHDB为存储DBUSER信息的数据库,一般为admin。 DBUSER为数据库用户。 DBNAME为要迁移的数据库名称。 DBCOLLECTION为要迁移的数据库集合。 DBPATH为存储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下,命令执行完会生成“exportfile.json”文件: ./mongoexport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test out /tmp/mongodb/export/exportfile.json 步骤 3 查看导出结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 exported x records 步骤 4 压缩导出的JSON文件。 gzip exportfile.json 压缩是为了方便网络传输,压缩后生成“exportfile.json.gz”文件。 将数据导入至目标DDS 步骤 1 登录到已准备的弹性云服务器或可访问文档数据库的设备。 步骤 2 将要导入的数据上传到弹性云服务器或可访问文档数据库的设备。 根据不同的平台选择相应的上传方法。 Linux下可参考命令: scp @ : − IDENTITYFILE为存储“exportfile.json.gz”的文件目录,该文件目录权限为600。 − REMOTEUSER为弹性云服务器的操作系统用户。 − REMOTEADDRESS为弹性云服务器的主机地址。 − REMOTEDIR为将“exportfile.json.gz”上传到弹性云服务器的文件目录。 Windows平台下,请使用传输工具上传“exportfile.json.gz”至弹性云服务器。 步骤 3 解压数据包。 gzip d exportfile.json.gz 步骤 4 将转储文件导入到文档数据库。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoimport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection file DBADDRESS为数据库实例的IP地址。 DBPORT为数据库端口。 AUTHDB为DBUSER进行权限验证的数据库,一般为admin。 DBUSER为数据库管理员帐号名。 DBNAME为要导入的数据库。 DBCOLLECTION为要导入的数据库中的集合。 DBPATH为转储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下: ./mongoimport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test file /tmp/mongodb/export/exportfile.json 步骤 5 查看迁移结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 imported x records
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongoexport和mongoimport工具迁移数据
      • 用户升级CentOS系统内核后,无法连接服务器
        问题描述 已经正常开通并使用的裸金属,用户升级CentOS系统内核后,无法连接服务器 (升级内核前使用NetworkManager)。 可能原因 内核升级后NetworkManager未设置开机自启动。 解决方案 联系运营管理员,登录服务器查看NetworkManager状态,是否正常运行; Bash 查看NetworkManager是否开机自启动 systemctl isenabled NetworkManager 如图所示: 其中 disabled 说明NetworkManager服务未启动。 执行下述命令行 Bash systemctl start NetworkManager 开启NetworkManager服务 systemctl enable NetworkManager 设置开机自启动
        来自:
        帮助文档
        物理机 DPS
        故障排除
        用户升级CentOS系统内核后,无法连接服务器
      • 命令行客户端
        本页面介绍云数据库ClickHouse如何通过命令行客户端进行连接。 本节演示命令行客户端通过TCP端口9000连接云数据库ClickHouse。 1. 根据云数据库ClickHouse版本下载对应客户端。 2. 使用下列命令连接集群。 clickhouseclient host port user password 参数说明: host:集群节点ip地址。 port:host地址参数连接串上显示的端口号。 user:数据库用户名。 password:数据库用户密码。 更多详细的参数可以使用 clickhouseclient help 查看。 3. 示例。 以一个2节点的单副本集群为例,演示命令行客户端操作,示例集群节点信息如下:集群名inst2shards1replicas。 ClickHouse节点IP TCP端口 HTTP端口 分片(shard) 副本数量 A.A.A.207 9000 8123 1 1 A.A.A.208 9000 8123 2 1 连接命令行客户端。 clickhouseclient h IP地址 port TCP端口 u 用户名 password 密码 创建表。 集群模式下创建表分为两个步骤,第一步创建本地表,第二步是创建分布式表。如果只创建本地表而不创建分布式表,那么本地表的数据仅所在节点可见其它节点不可见。 创建本地表。 sql CREATE TABLE IF NOT EXISTS tutorial.eventslocal ON CLUSTER 'inst2shards1replicas' ( tsdate Date, tsdatetime DateTime, userid Int64, eventtype String, siteid Int64, grouponid Int64, categoryid Int64, merchandiseid Int64, searchtext String ) ENGINE ReplicatedMergeTree('/clickhouse/tables/{shard}/tutorial/eventslocal','{replica}') PARTITION BY tsdate ORDER BY(tsdate,toStartOfHour(tsdatetime),siteid,eventtype) SETTINGS indexgranularity 8192; 其中,ON CLUSTER语法表示分布式DDL,即执行一次就可在集群所有实例上创建同样的本地表。Tutorial和 eventslocal分别是数据库和本地表名,inst2shards1replicas是集群名。ReplicatedMergeTree是表引擎,PARTITION BY指定分区键。 集群标识符{cluster}、分片标识符{shard}和副本标识符{replica}来自复制表宏配置,即配置文件中一节的内容,配合 ON CLUSTER语法一同使用,可以避免建表时在每个实例上反复修改这些值。 创建分布式表。 sql CREATE TABLE IF NOT EXISTS tutorial.eventsall ON CLUSTER ‘inst2shards1replicas’ AS tutorial.eventslocal ENGINE Distributed(inst2shards1replicas,tutorial,eventslocal,rand()); 创建分布式表是读时检查的机制,也就是说对创建分布式表和本地表的顺序并没有强制要求。 插入数据。 sql insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200801','20200801 09:30:01',10009,'event1',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200802','20200802 09:30:01',10009,'event1',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200803','20200802 09:30:01',10009,'event2',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200804','20200803 10:30:01',10009,'event3',10,20,30,40,'search text'); insert into eventsall (tsdate,tsdatetime,userid,eventtype,siteid,grouponid,categoryid,merchandiseid,searchtext)values('20200805','20200804 11:30:01',10009,'event4',10,20,30,40,'search text'); 查看分布式表。 查看本地表。 查看A.A.A.207节点。 查看A.A.A.208节点。 可以发现数据分布在不同的节点上。由此说明数据实际上保存在各个节点的本地表中,而分布式表可以看做一个视图,将本地表的数据联合起来。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        客户端连接
        命令行客户端
      • 通过Kubectl命令行创建Ingress
        参数 是否必填 参数类型 描述 port 是 Integer 集群虚拟IP的访问端口,取值范围为1 ~ 65535。 protocol 是 String 该端口的IP协议,支持“TCP”和“UDP”。 targetPort 是 String 对应界面上的容器端口,应用程序实际监听的端口,取值范围为1 ~ 65535。 type 是 String 采用Nodeport的访问类型连接负载均衡,NodePort表示“节点私有IP”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        Service
        通过Kubectl命令行创建Ingress
      • 登录ECI实例
        本文介绍如何登录ECI实例。 前提条件 实例中的容器处于运行中状态。 操作步骤 1. 在弹性容器实例控制台左侧导航栏中选择“容器组”,进入容器组列表页。 2. 在容器组列表中找到想要调试的实例,点击实例名称进入实例详情页面。 3. 点击远程连接,进入容器登录终端。
        来自:
        帮助文档
        弹性容器实例
        快速入门
        登录ECI实例
      • 监控告警类
        本章节主要介绍监控告警类问题。 云监控无法展示RabbitMQ监控数据 监控数据无法展示,可能原因:队列名称开头包含特殊字符,例如点号“.”、下划线“”,建议删除带特殊字符的队列。 云监控显示通道数一直上升报警有影响吗? 一个连接最大通道数是2047,超过后再创建通道数会失败,建议排查是否为资源没有释放导致的。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        监控告警类
      • 使用OceanFS静态存储卷(sharePath模式)
        2、创建持久卷声明(PVC) 使用kubectl连接集群,创建示例yaml文件pvcexample.yaml: plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: {YOURPVCNAME} namespace: default spec: accessModes: ReadWriteOnce resources: requests: storage: 100Gi volumeMode: Filesystem volumeName: {YOURPVNAME} 替换PV名称 执行以下命令,创建PVC plaintext kubectl apply f pvcexample.yaml 查看创建的PVC: 登录“云容器引擎”管理控制台; 在集群列表页点击进入指定集群; 进入主菜单“存储”——“持久卷声明”,在列表查看。 3、创建工作负载 使用kubectl连接集群,创建示例yaml文件stsexample.yaml: plaintext apiVersion: "apps/v1" kind: "StatefulSet" metadata: name: "oceanfsstest" namespace: "default" spec: podManagementPolicy: "OrderedReady" replicas: 1 revisionHistoryLimit: 10 serviceName: "" template: spec: containers: image: "nginx:1.25alpine" imagePullPolicy: "IfNotPresent" name: "container1" resources: limits: cpu: "100m" memory: "256Mi" requests: cpu: "100m" memory: "256Mi" terminationMessagePath: "/dev/terminationlog" terminationMessagePolicy: "File" volumeMounts: mountPath: "/ccetmp" name: "volume1" dnsPolicy: "ClusterFirst" restartPolicy: "Always" schedulerName: "defaultscheduler" securityContext: {} terminationGracePeriodSeconds: 30 volumes: name: "volume1" persistentVolumeClaim: claimName: {YOURPVCNAME} 替换为步骤2中的PVC名称 updateStrategy: rollingUpdate: partition: 0 type: "RollingUpdate" 执行以下命令,创建StatefulSet plaintext kubectl apply f stsexample.yaml 查看创建的有状态负载: 登录“云容器引擎”管理控制台,在集群列表页点击进入指定集群。进入主菜单“工作负载”——“有状态”,在列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        海量文件
        使用OceanFS静态存储卷(sharePath模式)
      • 1
      • ...
      • 60
      • 61
      • 62
      • 63
      • 64
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      一站式智算服务平台

      推荐文档

      导出数据

      备案概述

      开票月账单金额与消费记录金额不一致怎么办?

      CentOS 磁盘挂载教程

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号