云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 入门指引
        VPC边界防护 操作步骤 说明 相关文档 购买云防火墙(原生版) 成功注册天翼云账号后,打开控制中心,切换资源池至目标资源池,选择云防火墙(原生版)产品,点击购买配额。 购买C100实例 开启防护 打开云防火墙(原生版)控制台,选择防火墙开关,开启防护。 开启对等连接防护 开启云专线防护 开启云间高速防护 配置防护策略 购买成功后,打开云防火墙(原生版)控制台,配置访问控制策略和防护策略。 支持配置以下防护策略: 内网互访规则:按照IP地址、端口、协议、应用等维度设置防护规则进行流量管控。 黑/白名单规则:按照IP地址进行流量管控,来自黑名单内的流量会直接拦截,来自白名单内的流量会直接放行。 入侵防御:根据入侵防御规则库拦截网络攻击,支持基础防御、虚拟补丁、DDoS防护。 配置VPC边界防护规则 配置入侵防御防护规则 查看防护结果 策略配置成功后,查看防护结果日志,防火墙成功开启。 日志审计
        来自:
        帮助文档
        云防火墙(原生版)
        快速入门
        C100快速入门
        入门指引
      • 使用AI云电脑
        本节介绍天翼AI云电脑移动终端的功能使用说明。 拖动工具栏 进入AI云电脑后,可在桌面顶部看到工具栏,点击“拖动”图标,支持工具栏任意位置移动,支持隐藏在桌面顶部和左右两侧屏幕边。 锁定/解锁工具栏 进入AI云电脑后,可在桌面顶部看到工具栏,支持锁定和解锁工具栏。 自动收起工具栏 工具栏在不使用时会自动收起吸附在屏幕边缘,点击可快速展开 。 退出/重启/关机 工具栏“退出”模块,包含以下操作: 退出:点击“退出“,断开AI云电脑连接,退出到AI云电脑列表页。 重启:点击“重启”,将对AI云电脑进行重启,同时退出到AI云电脑列表页。 关机:点击“关机”,仅对AI云电脑进行关机(而非终端关机),同时退出到AI云电脑列表页。 网络状态 工具栏点击“网络状态”,可查看详细的网络状态,包括往返时延,网速上下行。 当AI云电脑遇到卡顿情况时,可点击“一键优化”开启智能检测,优化程序。
        来自:
        帮助文档
        天翼云电脑(公众版)
        移动终端指南
        使用AI云电脑
      • 存储管理
        参数 配置说明 名称 自定义的对象存储的名称,支持中文和英文字符。 存储类型 仅支持选择S3 Compatible。 存储访问地址 对象存储的访问域名endpoint,需要写明协议类型(https/http),如果是URL形式,则不需要包含桶名。 证书校验 用于Console Server访问对象存储时校验认证使用,此配置默认开启。此功能仅在对象存储使用HTTPS协议且拥有对应证书的前提下可开启使用,如果环境不满足要求,则需要关闭此配置项,否则无法正常连接/浏览对象存储。 Access Key 对象存储的访问账户对应的Access Key(即Secret ID)。 Access Secret 对象存储的访问账户对应的Access Secret(即Secret Key)。 大文件分片大小 用于将大文件分成小文件,加速传输效率的一个选项。默认值为:200,单位为MiB。输入框内右侧有增加和减少的按钮。 签名版本 访问对象存储发出请求时使用的签名版本。 地域 对象存储所属地域,如果对象存储有地域区分时需要填写。 访问模式 对象存储提供两种访问模式:Path、Virtual Hosting;在实际配置时建议先使用Path方式。 备注 自定义此对象存储的备注内容。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据定时灾备
        存储管理
      • 如何将RDS实例的SSL证书导入Windows/Linux操作系统
        本节介绍了如何将RDS实例的SSL证书导入Windows/Linux操作系统的相关内容。 导入Windows操作系统 1. 单击“开始”,运行框输入“MMC”,回车。 2. 在MMC控制台菜单栏中单击“文件”,选择“添加/删除管理单元”。 3. 在“添加或删除管理单元”对话框,选择“可用管理单元”区域的“证书”。单击“添加”添加证书。 4. 在“证书管理”对话框,选择“计算机账户”,单击“下一步”。 5. 在“选择计算机”对话框,单击“完成”。 6. 在“添加或删除管理单元”对话框,单击“确定”。 7. 在MMC控制台,双击“证书”。 8. 右键单击“受信任的根证书颁发机构”,选择“所有任务”,单击“导入”。 9. 单击“下一步”。 10. 单击“浏览”,将文件类型更改为“所有文件 (.)”。 11. 找到下载的根证书ca.pem文件,单击“打开”,然后在向导中单击“下一步”。 注意 您必须在浏览窗口中将文件类型更改为“所有文件 (.)”才能执行此操作,因为“.pem”不是标准证书扩展名。 12. 单击“下一步”。 13. 单击“完成”。 14. 单击“确定”,完成根证书导入。 导入Linux操作系统 您可以使用任何终端连接工具(如WinSCP、PuTTY等工具)将证书上传至Linux系统任一目录下。 示例: 图 导入证书
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        网络安全
        如何将RDS实例的SSL证书导入Windows/Linux操作系统
      • 应用场景
        组网架构 高可用SNAT的组网如图所示: 应用场景四:多NAT网关实例 场景说明 当单网关性能达到瓶颈,如SNAT支持最大100万连接,如果无法满足业务需求时,推荐使用多NAT网关组成集群来横向扩展容量。 推荐配置 集群资源池支持多NAT实例组成集群,可横向扩充公网访问能力,需要一个VPC创建多个NAT网关,并使用自定义路由表和路由把流量分散到多个NAT网关,实现公网访问能力的横向扩容。 组网架构 NAT网关集群组网如图所示: 应用场景五:云间NAT网关高速访问互联网 场景说明 用户本地数据中心的服务器需要访问公网或为公网提供服务时,集群资源池NAT网关可为您提供高效、优质的网络服务。 推荐配置 通过开通云专线实现本地数据中心上云,然后购买公网NAT网关,通过配置SNAT规则实现访问公网。 组网架构 云间NAT网关高速访问互联网组网如图所示: 私网NAT网关 应用场景一:混合云使用指定地址互访场景
        来自:
        帮助文档
        虚拟私有云 VPC
        NAT网关
        应用场景
      • 设置健康检查
        参数 填写说明 专线网关ID/名称 待配置健康检查规则的专线网关 VPC ID/名称 待配置健康检查规则的VPC 权重 当前VPC的权重 VPC子网 选择已添加到专线网关的任一VPC子网 源IP 可填写VPC子网范围内的任一空闲IP地址 目的IP 可选客户侧32位子网IP。 注意: 该32位IP地址需已经添加到客户侧路由中。如果专线网关仅绑定一条物理专线,建议配置为物理专线的远端互联IP地址(需配置为32位掩码)。 如果专线网关上绑定了多条物理专线,建议配置为客户侧IDC内的业务地址(需配置为32位掩码)。 发包数量 可选2、3、4、5 发包间隔 可选5、6、7、8、9、10 自动切换路由 是否开启健康检查的路由切换功能。 系统默认选择是,即开启健康检查的路由切换功能。健康检查探测到专线链路故障时,如果该VPC存在冗余的路由(专线网关),健康检查则会立刻触发路由切换使用可用链路。 若选择否,则表示不开启健康检查的路由切换功能,健康检查仅执行链路探测功能。若健康检查探测到物理专线连接故障,不会触发路由切换。
        来自:
        帮助文档
        云专线 CDA
        用户指南
        健康检查
        设置健康检查
      • 对象存储迁移任务恢复(1)
        接口功能介绍 对象存储迁移任务恢复 接口约束 1、支持的线上资源池 :华东1 2、仅“暂停”或“迁移中断”状态的任务能够恢复。若您的任务为半托管模式,则还需要确定您的代理为已连接状态,并且指定的代理下至少存在一个“可用”状态的worker节点。 URI POST /v4/zms/restoremigration 路径参数 无 Query参数 无 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池 ID 81f7728xxxxx0155d307d5b migrationID 是 String 迁移任务ID 222migf441673xxxx575a2695318f 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为处理中/失败) 800 message String 状态描述 SUCCESS returnObj Object 响应对象 returnObj description String 状态描述,一般为中文 成功 errorCode String 业务细分码(仅失败时具有此参数),为product.module.code三段式码 openapi.userPermission.accessFailed error String 业务细分码(大驼峰形式,仅失败时具有此参数),为 Product.Module.Code 三段式码 Openapi.UserPermission.AccessFailed 表 returnObj 参数 参数类型 说明 示例 下级对象 result String 任务结果 success migrationID String 迁移任务ID 222migf441673xxxx575a2695318f
        来自:
      • 云容器集群节点网络包乱序
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络包乱序动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察运行在目标节点上的业务 Pod 与其他 Pod 或外部服务通信时,是否出现性能下降、卡顿或功能异常。 某些对数据包顺序敏感的应用层协议(如HTTP/2的部分场景、实时音视频流)可能会出现解析错误或连接中断。 检查应用日志,确认是否有因超时或数据完整性问题而产生的错误。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群节点网络包乱序
      • 参数模板
        修改参数值 点击自定义参数模板名进入参数详情页面,可以在范围内修改某些参数值,然后点击保存,在弹出的会话框(确定要保存本次修改么)中点击确定。 注意 修改完参数模板,只有应用到实例才能生效。 修改参数模板描述 点击对应参数模板的描述,填写新的描述,即可修改参数模板描述。 比较参数模板 比较参数模板用来比较两个参数模板的差异,如果两个参数模板的某些参数名相同,但是值不同,则会显示出来。 复制参数模板 用户可以在自定义参数模板的操作中点击复制按钮来复制自定义的参数模板。 应用参数模板 用户可以将默认或者自定义的参数模板应用到自己的实例,参数模板上的值会立即生效,不需要重启实例。但是会断开实例当前所有连接的会话。 查看实例参数 用户可以在实例管理界面中点击操作>更多中,查看当前实例的参数取值情况,也可以用当前实例的参数与其他模板相对比,查看参数取值的差异。 删除参数模板 如果用户想删除某个参数模板,只需在参数模板的操作中选择 更多> 删除,最后确认即可。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        参数模板
      • 导入数据最佳实践
        使用INSERT多行插入 如果不能使用COPY命令,而您需要进行SQL插入,可以根据情况使用多行插入。如果一次只添加一行或几行,则数据压缩效率低下。 多行插入是通过批量进行一系列插入而提高性能。下面的示例使用一条INSERT语句向一个三列表插入三行。这仍属于少量插入,只是用来说明多行插入的语法。 向表customert1中插入多行数据: INSERT INTO customert1 VALUES (6885, 'maps', 'Joes'), (4321, 'tpcds', 'Lily'), (9527, 'world', 'James'); 使用COPY命令导入数据 COPY命令从本地或其它数据库的多个数据源并行导入数据。COPY导入大量数据的效率要比INSERT语句高很多,而且存储数据也更有效率。 使用gsql元命令导入数据 copy命令在任何psql客户端登录数据库成功后可以执行导入数据。与COPY命令相比较,copy命令不是读取或写入指定文件的服务器,而是直接读取或写入文件。 这个操作不如SQL COPY命令有效,因为所有的数据必须通过客户端/服务器的连接来传递。对于大量的数据来说SQL命令可能会更好。 说明 COPY只适合小批量,格式良好的数据导入,容错能力较差。导入数据应优先选择GDS或COPY 。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        导入数据最佳实践
      • 添加安全组规则
        dbss010354/li0918135319384的安装节点IP配置了TCP协议(端口为8000)和UDP协议(端口为70007100)规则。 如果该安全组已配置安装节点的入方向规则,请执行下载Agent。 如果该安全组未配置安装节点的入方向规则,请执行步骤12。 12. 为安装节点添加入方向安全规则。 在入方向规则页面,单击“添加规则”,如图所示。 在“添加入方向规则”对话框中,为 dbss010354/fig133221637175316中的安装节点IP添加TCP协议(端口为8000)和UDP协议(端口为70007100)规则,如图所示。 说明 源地址可以是单个IP地址、IP地址段或安全组: 单个IP地址:例如192.168.10.10/32。 IP地址段:例如192.168.52.0/24。 所有IP地址:0.0.0.0/0。 安全组:例如sgabc。 13. “添加入方向规则”对话框 单击“确定”,完成添加入方向规则。安全组规则添加完成后,您还需要下载Agent,并根据Agent的添加方式在数据库端或应用端安装Agent,将添加的数据库连接到数据库安全审计实例,才能开启数据库安全审计功能。
        来自:
        帮助文档
        数据库安全
        快速入门
        添加安全组规则
      • 集群管理权限控制
        操作场景 若需要对集群中的资源进行权限控制,(例如A用户只能对某个命名空间下的应用有读写权限,B用户只能对集群下的资源有读权限等),请参照本章节操作。 操作步骤 步骤 1 若需要对集群进行权限控制,请在创建集群时的“认证方式”参数后勾选“认证能力增强”,选择“认证代理”。单击“CA根证书”后的“上传文件”,上传符合规范且合法的证书。 步骤 2 通过kubectl创建角色。 下面的例子展示了如何创建一个角色,并允许该角色读取default空间下的所有Pod。参数详细解释请参见Kubernetes官方文档。 kind: Role apiVersion: rbac.authorization.k8s.io/v1 metadata: namespace: default name: podreader rules: apiGroups: [""] resources: ["pods"] verbs: ["get", "watch", "list"] 步骤 3 通过kubectl创建角色绑定。 下面的例子给出RoleBindings赋予default命名空间下的podreader的角色给用户jane。该策略允许用户jane可以读取default命名空间下的所有pods。参数详细解释请参见Kubernetes官方文档。 kind: RoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: readpods namespace: default subjects: kind: User name: jane 的用户名 apiGroup: rbac.authorization.k8s.io roleRef: kind: Role name: podreader 创建的角色名 apiGroup: rbac.authorization.k8s.io 步骤 4 创建角色并与用户绑定成功后,请在接口请求的headers中携带用户信息以及集群创建时上传的证书访问kubernetes接口。例如调取查询pod的接口时,执行命令如下: curl k H "XRemoteUser: jane" cacert /root/tlsca.crt key /root/tls.key cert /root/tls.crt 返回200表示访问成功,返回403表示没有权限访问。 说明:为避免命令执行失败,请提前把证书上传到/root目录下。 参数解释如下: XRemoteUser: jane:请求头固定为XRemoteUser,jane为用户名。 tlsca.crt :创建集群时上传的CA根证书。 tls.crt:与集群创建时所上传的CA根证书配套的客户端证书。 tls.key:与集群创建时所上传的CA根证书配套的客户端秘钥。 192.168.23.5:5443:为连接集群的地址,获取方式如下: 登录CCE控制台,在左侧导航栏中选择“资源管理 > 集群管理”,单击待连接集群的名称,在集群基本信息中获取“内网apiserver地址”后的IP地址和端口号。 说明 CCE支持天翼云帐号和IAM用户分别下载config文件(kubeconfig.json),IAM用户下载的config文件只有30天的有效期,而天翼云帐号下载的config文件会长期有效。该文件用户对接认证用户集群,请用户妥善保存该认证凭据,防止文件泄露后,集群有被攻击的风险。如果不幸泄露,可以通过证书更新的方式,替换认证凭据。 IAM用户下载的config文件所拥有的Kubernetes权限与CCE控制台上IAM用户所拥有的权限一致。 另外,还支持XRemoteGroup的头域:用户组名,在做RoleBinding时,可以将Role与Group进行绑定,并在访问集群时携带用户组信息。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        集群管理权限控制
      • 消息类问题
        消息超过老化时间,消息仍存在的原因 问题现象: 消息超过设置的老化时间(如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。),消息仍存在。 可能原因1: Topic的每个分区都是由多个大小相同的segment文件组成,每个segment文件的大小为500MB,当segment文件存储的消息大小到达500MB后,才会新建下一个segment文件。Kafka删除消息是删除segment文件,而不是删除一条消息。Kafka要求至少保留一个segment文件用来存储消息,如果正在使用的segment文件中包含超过老化时间的消息,由于此时segment文件不会被删除,所以超过老化时间的消息也不会被删除。 处理方法: 等待segment文件被使用完,或者删除超过老化时间的消息所在的Topic。 可能原因2: Topic中存在一条create time为未来时间的消息(例如当前时间为1月1日,create time设置成了2月1日),此消息在72小时后,并不会被老化,导致在此消息后创建的其他消息都不会被老化。 处理方法: 删除create time为未来时间的消息所在的Topic。 Kafka实例是否支持延迟消息? 不支持延迟消息。 如何查看堆积消息数? 通过以下任意一种方法,查看堆积消息数。 在Kafka控制台的“消费组管理”页面,单击待查看堆积消息的消费组名称,进入消费组详情页。在“消费进度”页签,查看消费组中每个Topic的总堆积数。具体步骤,请参考查询消费组信息。 在Kafka控制台的“监控”页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。 在云监控页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。 在Kafka客户端,在“/{命令行工具所在目录}/kafka{version}/bin/”目录下,通过 kafkaconsumergroups.sh bootstrapserver {kafka连接地址} describe group {消费组} 命令查看消费组中每个Topic的堆积消息数。“LAG”表示每个Topic的总堆积数。 图 查看每个Topic的总堆积数 说明 如果Kafka实例开启SASL认证,则以上命令还需要增加SASL认证的“consumer.properties”配置文件参数: commandconfig {SASL认证的consumer.properties配置文件} ,“consumer.properties”配置文件参考开启SASL认证的Kafka命令行连接说明。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        消息类问题
      • 数据库使用规范
        数据库SQL开发规范 在程序中,建议使用预编译语句进行数据库操作。预编译只编译一次,以后在该程序中就可以调用多次,比SQL效率高。 避免数据类型的隐式转换,隐式转换会导致索引失效。禁止在where从句中对列进行函数转换和计算,会导致索引失效。 避免使用双%号或前置%号的查询条件,这样无法利用到索引。 禁止在查询中使用 select 语句。原因如下: 1. 使用 select 会消耗更多的CPU和IP以及网络带宽资源。 2. 使用 select 无法使用覆盖索引。 3. 不使用 select 可以减少表结构变更对代码带来的影响。 避免使用子查询,子查询会产生临时表,临时表没有任何索引,数据量大时严重影响效率。建议把子查询转化成关联查询。 避免使用JOIN关联太多的表,建议不要超过5个表的JOIN操作。需要JOIN的字段,数据类型必须绝对一致。每JOIN一个表会多占用一部分内存(由“joinbuffersize”控制),会产生临时表操作,影响查询效率。避免使用自然连接(natural join)。 尽量减少同数据库的交互次数,数据库更适合处理批量操作。 使用IN代替OR IN操作可以有效的利用索引,IN的值不要超过500个。 不使用反向查询,如:NOT IN、NOT LIKE 禁止使用 ORDER BY RAND() 进行随机排序。该操作会把表中所有符合条件的数据装载到内存中进行排序,消耗大量的CPU和IO及内存资源。推荐在程序中获取一个随机值,然后根据随机值从数据库获取数据。 在不需要去重的情况下,要使用UNION ALL代替UNION。UNION ALL不需要对结果集再进⾏行排序。 合并多个相同操作到一起,可以提高处理效率,数据库更适合处理批量操作。通过批量操作减少同数据库交互次数。 超过100万行的批量写操作,要分批多次进行操作。大批量写操作可能会造成严重的主从延迟。 如果有ORDER BY的场景,请注意利用索引的有序性。ORDER BY最后的字段是组合索引的一部分,并且放在索引组合顺序的最后。避免出现filesort的情况,影响查询性能。正例: where a? and b? order by c; ,索引:abc反例:索引中有范围查找,那么索引有序性无法利用,如: WHERE a>10 ORDER BY b; ,索引ab无法排序。 尽量使用ANSI SQL标准语法进行DML操作,而不是用MySQL扩展的SQL语法。常见的MySQL扩展SQL语法有: 1. REPLACE INTO 2. INSERT ... ON DUPLICATE KEY UPDATE 不建议使用存储过程,存储过程难以调试和扩展,更没有移植性。 不建议使用触发器,事件调度器(event scheduler)和视图实现业务逻辑,这些业务逻辑应该在业务层处理,避免对数据库产生逻辑依赖。 不建议使用大事务,业务允许的情况下,事务里包含SQL语句越少越好,尽量不超过5个。因为过长的事务会导致锁数据较久,以及MySQL内部缓存、连接消耗过多等问题。 TRUNCATE TABLE比DELETE速度快,且使用的系统和日志资源少,如果删除的表上没有TRIGGER,且进行全表删除,建议使用TRUNCATE TABLE。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        使用规范
        数据库使用规范
      • 升级
        如何升级HBlock CSI插件。 前置条件 请在升级之前,进行如下场景检查: 检查是否进行调整PV的服务端连接位置操作,如果执行过,需要确保满足以下条件: 如果PV只会被一个Pod挂载,不受影响。 如果PV被多个Pod挂载,请确保全部的Pod都没有进行过重启,或者全部完成了重启。 检查是否在HBlock侧执行过卷的target迁移操作(此处的卷为CSI侧的PV对应的HBlock侧的实例): 如果Kubernetes版本低于1.21,请确保挂载了该PV的Pod全部完成了重启。 Kubernetes版本为1.21及以上,不受影响。 说明 如果对升级方案有任何问题,请联系我们协助处理。如果升级前没有进行检查就执行了升级操作,可能会导致iSCSI连接无法断开,如果遇到此问题,请联系我们进行处理。 iscsid守护进程位置不变的升级 下列情况使用该方案升级: 升级前的版本values.yaml中没有参数iscsiOnHost(1.5.1之前版本不能设置该参数),升级后版本values.yaml中没有iscsiOnHost或者values.yaml中参数iscsiOnHost设置为false。 升级前的版本values.yaml中iscsiOnHost为false,升级后版本values.yaml中的参数iscsiOnHost设置为false。 升级前升级后values.yaml中的参数iscsiOnHost都为true。 升级步骤 1. 更新驱动镜像:请根据逐台导入镜像的方式或docker私仓导入镜像的方式章节的步骤,导入最新安装包的驱动。 2. 在升级版本的charts/csidriverstor下修改values.yaml,使其HBlock相关配置与升级前版本的相同。 3. 在升级版本的charts/csidriverstor下执行下列命令升级: plaintext helm upgrade stor ./ 4. 升级后检查: 可以在宿主机启动样例POD,进行基础流程测试,确认功能正常。 重启Kubernetes所有的slave宿主机节点,确认各存量POD能正确启动。(如果不验证重启恢复的场景,可跳过这步。) 从低版本(小于等于1.6.0)升级到高版本(大于等于1.6.1)后,如存在业务POD,确保在没有正在新建或者删除POD的前提下,执行命令kubectl get pod A grep csistorpluginnode awk '{print $2}' xargs I {} kubectl exec {} c storpluginnode sh c'/storadmupgrade addmissingtrackfile',补齐缺失的trackfile。 注意 kubectl get pod A grep csistorpluginnode的作用是过滤出所有CSI节点的驱动POD。执行此命令前需管理员检查此处需要与驱动实际部署方案一致,如果不一样,请修改为对应CSI节点的驱动POD。 命令执行完成后,将显示添加成功与失败的 tracefile 数量。若存在添加失败的情况(如提示“Failed to add x file(s)”),管理员需及时排查原因并处理。 如果用户使用了自定义的驱动部署方案,请注意:storadm工具的执行依赖于环境变量DRIVERNAME和KUBENODENAME,因此必须在 CSI Node Server 的Pod中配置这两个环境变量,否则可能导致功能异常。 plaintext env: name: DRIVERNAME value: 驱动名 name: KUBENODENAME valueFrom: fieldRef: apiVersion: v1 fieldPath: spec.nodeName
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        HELM方式使用指南
        升级
      • 数据库使用规范
        数据库SQL开发规范 在程序中,建议使用预编译语句进行数据库操作。预编译只编译一次,以后在该程序中就可以调用多次,比SQL效率高。 避免数据类型的隐式转换,隐式转换会导致索引失效。禁止在WHERE从句中对列进行函数转换和计算,会导致索引失效。 避免使用双%号或前置%号的查询条件,这样无法利用到索引。 禁止在查询中使用SELECT 语句。原因如下: 使用SELECT 会消耗更多的CPU和IP以及网络带宽资源。 使用SELECT 无法使用覆盖索引。 不使用SELECT 可以减少表结构变更对代码带来的影响。 避免使用子查询,子查询会产生临时表,临时表没有任何索引,数据量大时严重影响效率。建议把子查询转化成关联查询。 避免使用JOIN关联太多的表,建议不要超过5个表的JOIN操作。需要JOIN的字段,数据类型必须绝对一致。每JOIN一个表会多占用一部分内存(由 joinbuffersize 控制),会产生临时表操作,影响查询效率。避免使用自然连接(NATURAL JOIN)。 尽量减少同数据库的交互次数,数据库更适合处理批量操作。 使用IN代替OR IN操作可以有效的利用索引,IN的值不要超过500个。 不使用反向查询,如:NOT IN、NOT LIKE。 禁止使用 ORDER BY RAND() 进行随机排序。该操作会把表中所有符合条件的数据装载到内存中进行排序,消耗大量的CPU和IO及内存资源。推荐在程序中获取一个随机值,然后根据随机值从数据库获取数据。 在不需要去重的情况下,要使用UNION ALL代替UNION。UNION ALL不需要对结果集再进⾏行排序。 合并多个相同操作到一起,可以提高处理效率,数据库更适合处理批量操作。通过批量操作减少同数据库交互次数。 超过100万行的批量写操作,要分批多次进行操作。大批量写操作可能会造成严重的主从延迟。 如果有ORDER BY的场景,请注意利用索引的有序性: ORDER BY最后的字段是组合索引的一部分,并且放在索引组合顺序的最后。 避免出现filesort的情况,影响查询性能。 正例:WHERE a? and b? ORDER BY c;,索引:abc。 反例:索引中有范围查找,那么索引有序性无法利用,如:WHERE a>10 ORDER BY b;,索引ab无法排序。 尽量使用ANSI SQL标准语法进行DML操作,而不是用MySQL扩展的SQL语法。常见的MySQL扩展SQL语法有: REPLACE INTO。 INSERT ... ON DUPLICATE KEY UPDATE。 不建议使用存储过程,存储过程难以调试和扩展,更没有移植性。 不建议使用触发器,事件调度器(event scheduler)和视图实现业务逻辑,这些业务逻辑应该在业务层处理,避免对数据库产生逻辑依赖。 不建议使用大事务,业务允许的情况下,事务里包含SQL语句越少越好,尽量不超过5个。因为过长的事务会导致锁数据较久,以及MySQL内部缓存、连接消耗过多等问题。 TRUNCATE TABLE比DELETE速度快,且使用的系统和日志资源少,如果删除的表上没有TRIGGER,且进行全表删除,建议使用TRUNCATE TABLE。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        使用规范总览
        数据库使用规范
      • Go
        环境准备 1. 下载Demo包kafkaconfluentgodemo.zip。 2. 使用开发工具导入Demo。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改kafka.json文件。(security.protocol仅在ssl连接时需要配置) { "topic": "XXX", "topic2": "XXX", "group.id": "XXX", "bootstrap.servers" : "XXX:XX", "security.protocol" : "SSL" } 生产消息 发送以下命令发送消息。 go run modvendor producer/producer.go 生产消息示例代码如下: package main import ( "encoding/json" "fmt" "github.com/confluentinc/confluentkafkago/kafka" "log" "os" "path/filepath" "strconv" "time" ) const ( INT32MAX 2147483647 1000 ) type KafkaConfig struct { Topic string json:"topic" Topic2 string json:"topic2" GroupId string json:"group.id" BootstrapServers string json:"bootstrap.servers" SecurityProtocol string json:"security.protocol" SslCaLocation string json:"ssl.ca.location" } // config should be a pointer to structure, if not, panic func loadJsonConfig() KafkaConfig { workPath, err : os.Getwd() if err ! nil { panic(err) } configPath : filepath.Join(workPath, "conf") fullPath : filepath.Join(configPath, "kafka.json") file, err : os.Open(fullPath); if (err ! nil) { msg : fmt.Sprintf("Can not load config at %s. Error: %v", fullPath, err) panic(msg) } defer file.Close() decoder : json.NewDecoder(file) var config &KafkaConfig{} err decoder.Decode(config); if (err ! nil) { msg : fmt.Sprintf("Decode json fail for config file at %s. Error: %v", fullPath, err) panic(msg) } json.Marshal(config) return config } func doInitProducer(cfg KafkaConfig) kafka.Producer { fmt.Print("init kafka producer, it may take a few seconds to init the connectionn") //common arguments var kafkaconf &kafka.ConfigMap{ "api.version.request": "true", "message.max.bytes": 1000000, "linger.ms": 500, "sticky.partitioning.linger.ms" : 1000, "retries": INT32MAX, "retry.backoff.ms": 1000, "acks": "1"} kafkaconf.SetKey("bootstrap.servers", cfg.BootstrapServers) switch cfg.SecurityProtocol { case "PLAINTEXT" : kafkaconf.SetKey("security.protocol", "plaintext"); case "SSL": kafkaconf.SetKey("security.protocol", "ssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem") case "SASLSSL": kafkaconf.SetKey("security.protocol", "saslssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism); kafkaconf.SetKey("enable.ssl.certificate.verification", "false") case "SASLPLAINTEXT": kafkaconf.SetKey("security.protocol", "saslplaintext"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism) default: panic(kafka.NewError(kafka.ErrUnknownProtocol, "unknown protocol", true)) } producer, err : kafka.NewProducer(kafkaconf) if err ! nil { panic(err) } fmt.Print("init kafka producer successn") return producer } func main() { // Choose the correct protocol cfg : loadJsonConfig(); producer : doInitProducer(cfg) defer producer.Close() // Delivery report handler for produced messages go func() { for e : range producer.Events() { switch ev : e.(type) { case kafka.Message: if ev.TopicPartition.Error ! nil { log.Printf("Failed to write access log entry:%v", ev.TopicPartition.Error) } else { log.Printf("Send OK topic:%v partition:%v offset:%v content:%sn", ev.TopicPartition.Topic, ev.TopicPartition.Partition, ev.TopicPartition.Offset, ev.Value) } } } }() // Produce messages to topic (asynchronously) i : 0 for { i i + 1 value : "this is a kafka message from confluent go " + strconv.Itoa(i) var msg kafka.Message nil if i % 2 0 { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic2, Partition: kafka.PartitionAny}, Value: []byte(value), } } else { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic, Partition: kafka.PartitionAny}, Value: []byte(value), } } producer.Produce(msg, nil) time.Sleep(time.Duration(1) time.Millisecond) } // Wait for message deliveries before shutting down producer.Flush(15 1000) }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Go
      • 查看审计报表
        此小节介绍数据库安全如何查看审计报表。 数据库安全审计默认提供一条“全审计规则”的审计范围,可以对成功连接数据库安全审计的所有数据库进行审计。添加的数据库连接到数据库安全审计实例后,您可以立即生成审计报表,并在线预览或下载审计报表。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 已成功添加数据库并开启审计功能。 已成功添加并安装Agent。 立即生成审计报表 1. 登录管理控制台。 2. 单击管理控制台上方的“服务列表”,选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 3. 进入报表管理页面,操作步骤如下图所示。 4. 在需要生成报表的模板所在行的“操作”列,单击“立即生成报表”,如下图所示。 5. 在弹出的对话框中,单击,设置报表的开始时间和结束时间,选择生成报表的数据库,如下图所示。 6. 单击“确定”。 系统跳转到“报表结果”页面,您可以查看报表的生成进度。报表生成后,您可以预览或下载报表。 预览或下载审计报表 预览或下载审计报表前,请确认报表的“状态”为“100%”。 如果您需要在线预览报表,请使用Google Chrome或Mozilla FireFox浏览器。 1. 登录管理控制台。 2. 单击管理控制台上方的“服务列表”,选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 3. 进入报表结果页面,操作步骤如下图所示。 4. 在需要预览或下载的报表所在行的“操作”列,单击“预览”或“下载”,如下图所示,在线预览报表结果,或下载并查看报表。 设置报表的执行任务 1. 登录管理控制台。 2. 单击管理控制台上方的“服务列表”,选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 3. 进入报表管理页面,操作步骤如下图所示。 4. 在需要立即生成报表的模板所在行的“操作”列,单击“设置任务”,如下图所示。 5. 在弹出的对话框中,设置计划任务参数,如下图所示,相关参数说明如下表所示。 参数名称 说明 取值样例 启动任务 开启或关闭计划任务。 邮件通知 开启或关闭邮件通知。数据库安全审计默认开启邮件通知,当数据库生成报表时,数据库安全审计将发送通知邮件。 报表类型 选择生成的报表类型,可以选择:l 日报l 周报l 月报 日报 执行方式 选择报表执行的方式,可以选择:l 执行一次l 周期执行 执行一次 执行时间 选择报表执行的时间点。 18点 格式 当前支持PDF格式。 PDF 数据库 选择执行报表任务的数据库。 6. 单击“确定”。
        来自:
        帮助文档
        数据库安全
        用户指南
        查看审计结果
        查看审计报表
      • 配置单实例并发度
        您可以在函数计算中设置实例并发度,即指定每个函数实例可以同时处理的最大并发请求数。这使您能够在流量高峰期有效管理资源使用,降低冷启动的影响,从而实现提升性能和控制成本的目标。 背景信息 函数计算按实例执行时长计费。假设有3个请求需要同时处理,每个请求都需要10秒,根据不同的并发度设置,执行时长会有所不同。 如果实例并发度设置为1,每个实例一次只能处理1个请求,那么函数计算需要创建3个实例来处理这3个请求,总执行时长为30秒。 如果实例并发度设置为10,每个实例可以同时处理最多10个请求,那么函数计算只需创建1个实例即可处理这3个请求,总执行时长仅为10秒。 说明 默认情况下,函数的实例并发度为1,这意味着一个实例只能同时处理一个请求。当您将单实例并发度设置为大于1时,函数计算在进行弹性伸缩时,会在充分利用现有实例的并发度后,才会创建新的实例。 实例并发度设置为不同的值时,请求执行的区别如下图所示: 应用场景 单实例多并发功能适用于函数中存在大量等待下游服务响应的场景。由于等待响应通常不消耗资源,通过在一个实例内并发处理,不仅能够节省成本,还能提高应用的响应能力和吞吐量。 优势 节省费用并减少执行时长。 例如,对于偏重 I/O 的函数,可以在一个实例内并发处理,从而减少所需实例数量并降低总执行时长。 实现请求之间的状态共享。 多个请求可以共用一个实例内的数据库连接池,从而减少与数据库的连接次数。 降低冷启动的概率。 由于多个请求能够在一个实例内处理,新实例的创建次数减少,从而降低了冷启动的发生概率。
        来自:
        帮助文档
        函数计算
        用户指南
        函数配置
        配置单实例并发度
      • Redis到GeminiDB Redis的迁移
        本节主要介绍社区版Redis到GeminiDB Redis的迁移方案。 社区版Redis是非常受欢迎的内存数据库,具有性能高,数据结构丰富等优点。GeminiDB Redis是兼容Redis生态的持久化数据库,不仅提供优秀的读写性能,还提供数据持久化能力,依托超前的系统架构,以极低的成本保证了数据三副本强一致特性,避免了社区版Redis需要Fork、成本高等问题。 迁移原理 使用自研的迁移工具drsredis进行源端Redis到目标端GeminiDB Redis的迁移。 迁移过程中,drsredis伪装成源端Redis的从节点运行,与源端Redis建立连接后,触发Redis的主从同步。源端Redis生成RDB文件,传输给drsredis完成全量同步。然后发送缓冲区保存的所有写命令到drsredis完成增量同步。 drsredis迁移工具接收并解析源端Redis的RDB文件,将解析后的数据通过redis命令的方式发送到GeminiDB Redis,然后以命令传播的方式将增量数据也发送到GeminiDB Redis,完成迁移。 使用须知 drsredis伪装成源端Redis的从节点,只读取源端的全量数据和增量命令,无数据受损风险。 源端增加对drsredis写数据的流程,因此性能会有轻微影响。 GeminiDB Redis支持多DB,若源端是单节点Redis,需要保留多DB时,可以在GeminiDB Redis侧开启namespace功能,避免将多DB数据迁移到同一空间,造成数据丢失。 如果之前源端不存在从节点,源端会新增replicationbuffer来缓存增量命令。 问题 :redis主从同步的replicationbuffer是ring buffer,若写入buffer太快,会覆盖掉未发送给drsredis的数据,源端Redis为了数据一致性会主动断开连接,造成迁移失败。 建议 :迁移过程中,降低源端Redis写入数据的速率,在低压时间段进行迁移。配置redis的clientoutputbufferlimit参数,适量增大replicationbuffer的大小。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        数据迁移
        Redis到GeminiDB Redis的迁移
      • 备份OMS数据
        本章主要介绍翼MapReduce的备份OMS数据功能。 操作场景 为了确保FusionInsight Manager系统日常数据安全,或者系统管理员需要对Manager进行重大操作(如扩容、减容等)前后,需要对Manager数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 管理员可以通过FusionInsight Manager创建备份Manager任务并备份数据。支持创建任务自动或手动备份数据。 前提条件 如果数据要备份至远端HDFS中,需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。其他备份方式不需要准备备集群。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 根据业务需要,规划备份的类型、周期和策略等规格,并检查主备管理节点“ 数据存放路径 /LocalBackup/”是否有充足的空间。 如果数据要备份至NAS中,需要提前部署好NAS服务端。 如果数据要备份至OBS中,需要当前集群已对接OBS,并具有访问OBS的权限。 操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.设置“备份对象”为“OMS”。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 详见下表: 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份说明 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“OMS”。 7.在“OMS”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。 默认保存目录为“ 数据存放路径 /LocalBackup/”,例如“/srv/BigData/LocalBackup”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。 “LocalHDFS”:表示将备份文件保存在当前集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端路径”:填写备份文件在HDFS中保存的目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “备份时使用集群”:填写备份目录对应的集群名称。 “目标NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。 选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “源集群”:选择要备份数据使用的Yarn队列所在的集群。 “队列名称”:填写备份任务执行时使用的Yarn队列的名称。需和源集群中已存在且状态正常的队列名称相同。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “OBS”:表示将备份文件保存在OBS中。 选择此参数值,还需要配置以下参数: “目的端路径”:填写保存备份数据的OBS目录。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 说明 MRS 3.1.0及之后版本才支持备份数据到OBS。 8.单击“确定”保存。 9.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备份目录中为每个备份任务创建子目录,目录名为“ 备份任务名任务创建时间” ,用于保存数据源的备份文件。 备份文件的名称为“ 版本号数据源任务执行时间 .tar.gz”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份OMS数据
      • 备份Hive业务数据
        操作步骤 1.在FusionInsight Manager,选择“运维 > 备份恢复 > 备份管理”。 2.单击“创建”。 3.在“任务名称”填写备份任务的名称。 4.在“备份对象”选择待操作的集群。 5.在“备份类型”选择备份任务的运行类型。 “周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 周期备份参数 参数名称 描述 开始时间 任务第一次启动的时间。 周期 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明 备份Manager数据和组件元数据时不支持增量备份,仅支持“每次都全量备份”。 如果“路径类型”要使用NFS或CIFS,不能使用增量备份功能。因为在NFS或CIFS备份时使用增量备份时,每次增量备份都会刷新最近一次全量备份的备份数据,所以不会产生新的恢复点。 6.在“备份配置”,勾选“Hive > Hive”。 7.在“Hive”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS”:表示将备份文件保存在备集群的HDFS目录。选择此参数值,还需要配置以下参数: “目的端NameService名称”:填写备集群的NameService名称。可以输入集群内置的远端集群的NameService名称(haclusterX,haclusterX1,haclusterX2,haclusterX3,haclusterX4),也可输入其他已配置的远端集群NameService名称。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “目的端NameNode IP地址”:填写备集群NameNode业务平面IP地址,支持主节点或备节点。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “NFS”:表示将备份文件通过NFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写NAS服务器IP地址。 “端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “服务器共享路径”:填写用户配置的NAS服务器共享目录。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 “SFTP”:表示将备份文件通过SFTP协议保存到服务器中。 选择此参数值,还需要配置以下参数: “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。 “服务器IP地址”:填写备份数据的服务器IP地址。 “端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “服务器共享路径”:SFTP服务器上的备份路径。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “队列名称”:填写备份任务执行时使用的YARN队列的名称。需和集群中已存在且状态正常的队列名称相同。 “最大map数”:填写执行MapReduce任务的最大map数,默认值为“20”。 “单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 “NameService名称”:选择备份目录对应的NameService名称。默认值为“hacluster”。 8.在“最大恢复点个数”填写备份任务在本集群中备份可保留的快照数量。 9.在“备份内容”中,选择一个或多个需要备份的Hive表。 支持两种方式选择备份数据: 直接选择 单击导航中某个数据库的名称,将展开显示此数据库中的所有表,勾选指定的表。 正则表达式筛选 a. 单击“正则表达式输入”。 b. 根据界面提示,在第一个输入框填写Hive表所在的数据库,需要与当前存在的数据库完全匹配。例如“defalut”。 c. 在第二个输入框输入正则表达式,支持标准正则表达式。例如要筛选数据库中所有的表,输入“([sS] ?)”。例如要筛选命名规则为字母数字组合的表,如tb1可输入“tbd ”。 d. 单击“刷新”,在“目录名称”查看筛选的表。 e. 单击“同步”保存筛选结果。 说明 输入正则表达式时,可以使用和增加或删除一条表达式。 如果已选择的表或目录不正确,可以单击“清除选中节点”清除勾选。 10.单击“校验”查看备份任务的配置是否正确。 校验失败可能存在以下原因: 目的端NameNode IP地址不正确。 队列名称不正确。 待备份的数据文件所在HDFS路径的父目录或子目录存在HDFS快照。 待备份的目录或表不存在。 NameService名称不正确。 11.单击“确定”保存。 12.在备份任务列表中已创建任务的“操作”列,选择“更多 > 即时备份”,开始执行备份任务。 备份任务执行完成后,系统自动在备集群的备份路径中为每个备份任务创建子目录,目录名为 “备份任务名数据源任务创建时间” ,数据源每次备份的最新备份文件保存在此目录中。所有备份文件集保存在对应的快照目录中。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        备份数据
        备份Hive业务数据
      • NAT64服务概述
        本节主要介绍NAT64服务组成、产品特性、应用场景和使用限制。 NAT64服务可实现公网IPv6和公网IPv4的网络地址和协议转换,为部署在IPv4网络环境下的业务提供IPv6访问能力,支持通过 IPv6 网络侧用户发起连接访问 IPv4 网络侧的资源。 NAT64实例创建成功后,可以自主添加多个公网IP,快速进行NAT64转换,为原有的服务提供对应的IPv6访问能力。可以在一个NAT64实例中按需配置多个NAT64转换关系,同时还提供了细粒度的IP黑白名单能力,保证网络安全。 产品特性 NAT服务转换,每个公网IPv4地址在做NAT64后会有一个唯一的公网IPv6地址。 快速部署,只需要把已有的公网IPv4做NAT64映射,即可实现业务的IPv6访问能力。 支持添加白名单或者黑名单实现访问控制。 应用场景 部署在云上的服务,其通过对公网IPv4地址做NAT64后,原有的服务可以同时为IPv4和IPv6网络提供服务访问能力。 使用限制 限制 说明 IPv4公网地址 当前支持的IPv4公网地址为云上的公网IP。 单向访问 在做NAT64后,只支持从公网单向访问转换后的IPv6地址。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        NAT64服务
        NAT64服务概述
      • SD-WAN通过云间高速网络访问云上资源
        云间高速(标准版)加载SDWAN网络实例后,可以实现SDWAN网络访问天翼云的多区域资云上资源。本文帮助您快速构建自己的云间高速互通网络。 应用场景 某公司的北京分部和上海分部需要进行私网通信和数据传输。通过天翼云云间高速(标准版),将北京和上海两个区域的VPC建立连接,使得两地VPC上的业务系统可以互相访问。 组网拓扑 配置流程 说明:确保SDWAN网络实例与VPC关联同一个云企业路由器的路由表。 1. 创建云间高速网络和云企业路由器 创建云间高速网络 云间高速的创建,具体操作请参见:创建云间高速(标准版)实例云间高速 创建上海云企业路由器。 具体操作请参见:创建云企业路由器实例云间高速 2. 加载网络实例(VPC) 1. 选择步骤二创建的云企业路由器,点击名称进入云企业路由器详情页面。 2. 点击“加载本地网络实例”,在弹出弹窗。根据页面提示,加载上海的VPC及VPC子网。 3. 如果有多个VPC,确保都关联到同一个云企业路由器路由表。 4. 点击“确定”,完成网络实例加载。
        来自:
        帮助文档
        云间高速(标准版)EC
        最佳实践
        SD-WAN通过云间高速网络访问云上资源
      • 使用云原生网关实现websocket流量代理
        本章节介绍如何使用云原生网关实现websocket流量代理 概述 WebSocket 协议允许客户端和服务器之间进行实时的双向数据传输,从而确保了连接的持久性和低延迟。可以在云原生网关中开启websocket支持,实现websocket流量代理。 前提 1. 已开通云原生网关实例; 2. 已部署后端websocket server服务 云原生网关中开启WebSocket支持 我们采用在MSE Nacos中注册后端websocket服务的方式进行服务部署,后端服务示例可部署demo应用(暴漏websocket应用路径为/ws/server)。在创建服务时打开“开启websocket支持”开关,则可对该服务进行websocket协议请求。 为该服务创建一条路由,匹配路径填写/即可。 结果验证 可通过postman软件发起到网关的websocket请求,请求协议前缀为ws://或wss://。当服务关闭websocket支持时,请求失败。 当服务开启websocket支持时,请求成功。 注意 后端服务开启/关闭websocket支持无法在已经被引用的多服务路由或标签路由上生效。
        来自:
        帮助文档
        微服务引擎
        快速入门
        云原生网关
        使用云原生网关实现websocket流量代理
      • 基本概念
        RPS RPS是指性能测试在统计周期内每秒发送到被测服务器的请求数实时统计,RPS统计周期内发送的请求数/统计周期。 VUM VUM指的是任务对资源的消耗数,计算公式为VUM VU(虚拟并发用户数) M(分钟)。 带宽 记录压测任务运行所消耗的实时带宽变化。上行带宽指从CPTS测试执行机往外发送出去数据的速度;下行带宽指CPTS测试执行机接收到数据的速度。 响应时间 指从客户端发一个请求开始计时,到客户端接收到从服务器端返回的响应结果结束所经历的时间。 响应超时 在设置的响应超时时间内(默认5s),对应的TCP连接中没有响应数据返回,为响应超时。出现原因一般是被测服务器繁忙、崩溃、网络带宽被占满等。 校验失败 从服务器返回的响应报文不符合预期(针对HTTP/HTTPS默认的预期响应码为200),比如服务器返回404、502等。出现原因一般为高并发情况下被测服务无法正常处理导致的,如分布式系统中数据库出现瓶颈、后端应用返回错误等。 解析失败 响应报文已全部接收完成,但是部分报文丢失导致整个事务响应不完整,这种情况一般需要考虑网络丢包。
        来自:
        帮助文档
        性能测试PTS
        产品介绍
        基本概念
      • 相关概念
        本文主要介绍云防火墙的相关概念,帮助您快速了解产品。 防护流量 入云流量:从Internet流入云防火墙方向的流量,例如,从公网下载资源到云内服务器。 出云流量:从云防火墙流出到Internet方向的流量,例如,云内服务器对外提供服务,外部用户下载云内的资源。 防护带宽:所有经过云防火墙防护的业务带宽。 互联网边界的流量峰值:所有经过云防火墙防护的EIP的流量总和最大值,按照入云流量(入流量)或出云流量(出流量)的最大值取值。 VPC边界的流量峰值:所有经过云防火墙防护的VPC的流量总和最大值。 边界防火墙 边界防火墙EdgeFW(Edge Firewall),位于内、外部网络的边界处,是连接内网与外网的桥梁。边界防火墙针对云数据中心与外部网络之间的南北向流量,为用户提供边界安全防护功能,支持以弹性IP为防护对象的入侵检测防御(IPS)和网络防病毒(AV)功能。 Internet访问 Internet访问是指互联网IP访问云主机的行为,通过对Internet访问防护,可以帮助您及时防御外部入侵。 主动外联访问 主动外联访问是指云主机主动访问外部IP的行为,通过对主动外联访问防护,可以帮助您有效管理和控制主机外联行为。
        来自:
        帮助文档
        云防火墙
        产品介绍
        相关概念
      • 与其他云服务的关系
        类别 云防火墙(原生版) Web应用防火墙(原生版) 产品定义 云防火墙(原生版)(CTCFW,Cloud Firewall)是一款云原生的云上边界网络安全防护产品,可提供统一的互联网边界管控与安全防护,并提供业务整体情况可视化、日志审计和分析等功能,帮助您完成网络边界防护与等保合规。 Web应用防火墙(原生版)(CTWAF,Web Application Firewall)为用户Web应用提供一站式安全防护,对Web业务流量进行智能全方位检测,有效识别恶意请求特征并防御,避免源站服务器被恶意入侵,保护网站核心业务安全和数据安全。 防护对象 IP(弹性公网IP、内网IP等) 域名 网络层级 四层 七层 应用场景 边界网络防护 Web业务安全防护 核心技术 ACL访问控制、DPI深度包检测、IPS入侵检测技术 HTTP协议解析、Web攻击检测 安全能力 支持外部访问控制和主动外联管控,能够检测攻击者对用户网络发起的攻击,同时也能对用户网络主动外联行为进行分析,阻断由内而外的恶意连接行为,保护用户的资产安全。 集成机器学习检测引擎,支持专家经验特征与语义特征,有效检测SQL 注入、XSS等基于形式语言的攻击类型,对OWASP常见攻击类型进行了良好覆盖。
        来自:
        帮助文档
        云防火墙(原生版)
        产品介绍
        与其他云服务的关系
      • V5.1.20.0.13版本更新详情
        457 [前端]优化实例监控展示逻辑,支持更细粒度(如1小时等)查看监控,提升准确性。详见:实例计算/存储节点监控。 473 优化租户权限配置策略,实现精细化的权限控制。 481 [DBProxy]优化扩容节点时新增节点版本获取逻辑,使各节点扩容前后版本一致。 513 优化实例防火墙白名单更新策略,提升运维效率,该优化对公有云租户端不可见。 516 [管理平台]优化企业项目权限分配逻辑,精细化权限控制,该优化公有云租户端不可见。 551 优化查询执行计划的接口的传输加密策略,提升安全性,该优化租户端不可见。 问题修复 302 [GiServer]修复索引重建时出现的重复任务名称问题。 358 修复相关社区新增安全风险。 365、366 [DBProxy]修复控制台执行类似sharding @@table name'' set type' single ' 的语句,任务执行失败后无法回滚问题。 383 [DBProxy]修复在加密表中,执行INSERT操作失败问题。 400 [DBProxy]修复新创建的表名称与回收站中存在的表名称相同,导致无法通过udal show ddlJob where taskidxx命令查看建表任务进度问题。 432 [DBProxy]修复DBProxy侧执行DDL语句时,由于未设置超时时间,导致底层MySQL连接一直持续,执行的DDL语句卡住问题。
        来自:
        帮助文档
        分布式关系型数据库
        版本说明
        V5.1.20.0.13版本更新详情
      • 禁用root账号
        本页主要介绍禁用root账号的操作方法和影响。 注意 禁用root账号权限功能仅华东1,华北2,西南1II类型资源池支持,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 使用场景 root 账号权限过高,为防止恶意操作或误操作导致数据破坏,您可以选择禁用root账号来实现安全管控。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在实例信息栏目,找到管理员账户名。 5. 点击root右侧的禁用账号按钮,并于弹框中点击确定。 6. 如果禁用后想重新启用,点击root账号旁的启用按钮即可。 注意 若您的应用程序、脚本或运维工具仍在使用 root 账号连接数据库,禁用后所有依赖 root 的新连接将会失败,请谨慎操作!
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        账号与安全
        禁用root账号
      • ECI实例访问弹性文件数据
        本文为您介绍如何使用ECI实例访问弹性文件数据。 背景信息 天翼云弹性文件服务(CTSFS,Scalable File Service)提供按需扩展的高性能文件存储,可以为ECI提供共享访问,具备高可用性和高数据持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。 前期准备 已开通天翼云弹性容器实例服务。 已创建至少一个弹性文件实例,且要求与待创建ECI实例归属同一VPC。 弹性文件需要满足按量计费模式,仅支持NFS协议。 操作步骤 天翼云弹性容器实例ECI支持用户通过控制台和OpenAPI等多种方式创建挂载弹性文件作为数据卷的ECI实例。下面将介绍在ECI实例中如何访问云硬盘中数据: 1. 打开ECI控制台页面。 2. 点击实例ID进入实例详情页面。 3. 点击“远程连接”,建立一个访问容器的通道。 4. 用户可以通过df h命令查看已挂载的文件系统及挂载目录。如下图所示,我们为ECI实例挂载了一块500G大小的弹性文件,挂载目录为/nastest。 5. 让我们尝试在/nastest目录下创建名为helloworld.txt的文件。 6. 让我们尝试读取/nastest目录下名为helloworld.txt的文件。
        来自:
        帮助文档
        弹性容器实例
        最佳实践
        常用数据源对接
        ECI实例访问弹性文件数据
      • 解绑/绑定集群的EIP
        本章节主要介绍解绑/绑定集群的EIP。 操作场景 CDM集群创建完成后,支持解绑或绑定EIP。 如果CDM需要访问本地数据源、Internet的数据源,或者跨VPC的云服务,则必须要为CDM集群绑定一个弹性IP,或者使用NAT网关让CDM集群与其他弹性云主机共享弹性IP访问Internet。 EIP的异常通知,需要先在IAM控制台创建对应Region的VPC策略委托才能生效。也可以在CDM集群管理界面选择“弹性IP检测授权 > 创建委托”来创建。 说明 如果用户对本地数据源的访问通道做了SSL加密,则CDM无法通过弹性IP连接数据源。 前提条件 已创建CDM集群。 已拥有EIP配额,才能绑定EIP。 操作步骤 1.登录CDM管理控制台。单击左侧导航上的“集群管理”,进入集群管理界面。集群列表详见下图 说明 “创建来源”列仅通过DataArts Studio服务进入数据集成界面可以看到。 2.对相应需要操作的集群可以进行绑定EIP或解绑EIP的操作。 绑定EIP:单击集群操作列中的“绑定弹性IP”,进入EIP选择界面。 解绑EIP:选择“更多 > 解绑弹性IP”。 3.单击“确定”绑定或解绑EIP。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理集群
        解绑/绑定集群的EIP
      • 1
      • ...
      • 92
      • 93
      • 94
      • 95
      • 96
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      训推服务

      AI Store

      应用托管

      一站式智算服务平台

      人脸检测

      人脸活体检测

      人脸比对

      动作活体识别

      通用型OCR

      推荐文档

      术语解释

      主机新手使用指南

      产品购买

      还原参数组

      创建

      设置告警规则

      代金券支付后是否可以开发票?

      应用场景

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号