爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云电脑mac_相关内容
      • 云通信产品隐私政策声明
        “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 云通信产品隐私政策声明 版本生效日期:20220223 “云通信产品”(简称“本产品”)由天翼云科技有限公司(简称“我们”)创建和运营,我们的注册地址为:北京市东城区青龙胡同甲1号、3号2幢2层20532室。为方便用户(简称“您”)使用本产品的服务,我们可能会处理您的相关数据和个人信息(统称“信息”或“用户信息”)。我们将通过《云通信产品隐私政策》(简称“本隐私政策”)向您说明我们如何处理您的个人信息,请您在注册和使用本产品之前认真阅读、充分理解本隐私政策,尤其是划线和加粗的内容。如果您对本隐私政策有疑问的,请通过本隐私政策约定的方式询问,我们将向您解释本隐私政策内容。 如您为未满18周岁的未成年人,请在法定监护人陪同下阅读本协议,并特别注意未成年人使用条款。 定义: 本隐私政策中涉及的个人信息,是指以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。 本隐私政策中涉及的个人敏感信息,主要是涉及在自助订购时的交易信息及财产信息。此类信息经过组合、关联和分析后可能产生高敏感程度的信息,遭到未经授权的查看或未经授权的变更,会对个人信息安全与财产安全造成严重危害。 本政策将帮助您了解以下内容: 一、隐私政策适用范围 二、我们如何收集和使用您的个人信息 三、信息使用 四、信息存储 五、信息共享、转移、公开披露 六、信息保护 七、信息管理 八、我们如何保护未成年人的信息 九、隐私政策的修订 十、联系方式 一、隐私政策的适用范围 本隐私政策适用于我们为您提供的短信服务。需要特别说明的是,本协议不适用于第三方向您提供的服务或产品。 二、个人信息的收集 短信业务功能的运行需要您向我们提供或允许我们收集以下信息,我们仅会出于本政策所述的以下目的,收集和使用您的个人信息,收集过程中我们将遵循合法、正当、必要、最小化的原则。 我们的角色:我们是您的数据的控制者。我们知道您关心如何使用和分享您的数据,同时我们感谢您的信任,我们将谨慎且理智地做到这一点。 2.1短信订购 为了能让您使用短信订购功能,我们将在你进行交易时记录您的交易信息(包括订单号、资源ID、订单创建时间、支付总金额、支付金额、支付状态、支付时间)及财产信息(包括优惠券ID)。如果不提供前述信息,可能无法使用本产品。 2.2操作日志 为了能让您使用操作日志功能,我们将在你进行短信操作时记录您的操作任务、资源名称、资源ID、操作时间、操作用户、地域。如果不提供前述信息,可能无法使用本产品。 2.3随着短信业务功能进一步丰富,后续新增功能如涉及获取用户授权权限时,我们将明确提示并在您授权同意后才会获取该功能所需权限。如未取得您的授权,我们将不会收集和使用相关信息。 2.4您充分知晓,以下情形中,我们收集、使用个人信息无需征得您的授权同意: • 为订立、履行个人作为一方当事人的合同所必需; • 为履行法定职责或者法定义务所必需; • 为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需; • 为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息; • 依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息; • 法律、行政法规规定的其他情形。 三、信息使用 3.1 为更好地向您提供服务,在严格按照法律法规遵循必要性原则基础上,我们将收集的信息用于以下目的和用途: (1)为您提供服务,包括但不限于应您的要求进行账号管理、变更;以及提供技术支持和客户服务; (2)开展内部审计、研究和分析,改善本平台和产品服务; (3)遵从和执行适用的法律法规要求,相关的行业标准或我们的政策; (4)其他为向您提供服务而需要使用您用户信息的情形。 四、信息存储 4.1 短信产品收集有关您的信息将保存在中华人民共和国境内(为本隐私政策之目的,不含香港、澳门、台湾地区)的服务器上。 4.2 对于所收集的信息,我们将在法律规定的最短期限内保存。在您的信息已经不再需要用于实现本隐私政策规定的目的和用途,也无需根据相关法律法规的规定保存时,我们将采取合理步骤以安全的方式销毁个人信息或使进行匿名化处理使其不可识别并不可被再次编辑、修改、使用。 4.3 当您自主删除个人信息或注销账户,我们将按照法律、法规规定的最短期限保留您的现有个人信息,在法律法规要求的最短保存期限内,我们将不再对您的个人信息进行商业化使用。当您的个人信息超出上述保存期限,我们将会对其进行删除或者匿名化处理。 五、信息共享、转移、公开披露 5.1 共享 未经您事先同意,我们不会与任何第三方共享您的信息,但以下情形除外: (1)在获取明确同意的情况下共享:经您事先明确同意,我们会与其他方共享您的信息; (2)根据相关法律法规的规定,或者行政、司法机关的要求,向行政以及司法机关披露您的信息; (3)对我们与之共享您的信息的组织和个人,我们会与其签署严格的保密协定,要求他们按照我们的说明、本隐私政策以及其他任何相关的保密和安全措施来处理您的信息。 5.2 转移 我们不会将您的个人信息转移给任何公司、组织和个人,但以下情况除外: (1)在获取明确同意的情况下转让:获得您的明确同意后,我们会向其他方转移您的个人信息; (2)在涉及合并、收购或破产清算时,如涉及到个人信息转让,我们会要求新的持有您的信息的公司、组织继续受此隐私政策的约束,否则我们将要求该公司、组织重新向您征求授权同意。 5.3 公开披露 我们仅会在以下情况下,公开披露您的个人信息: (1)获得您明确同意后; (2)基于法律的披露:在法律、法律程序、诉讼或政府主管部门强制性要求的情况下,我们可能会公开披露您的个人信息。 六、信息保护 6.1 我们对用户信息的保护 我们非常重视您的信息安全。我们采用适当的物理、管理和技术保障措施来防止您的信息遭到未经授权访问、披露、使用、修改、损坏或丢失。 例如,我们会使用混合加密技术提高信息的保密性;我们会使用受信赖的保护机制防止您的信息遭到恶意攻击;我们会部署访问控制机制,确保只有授权人员才可访问用户信息;我们会举办安全和培训,加强员工对于保护用户信息重要性的认识。 但请您理解,由于技术的限制以及可能存在的各种恶意手段,在互联网环境下,即便竭尽所能加强安全措施,也不可能始终保证信息百分之百的安全。若不幸发生信息泄露等安全事件,我们会立即启动应急预案,阻止事件扩大,及时采取补救措施,并推送通知、公告等多种形式告知您。 6.2 用户对信息的保管 尽管有前述安全措施,但请您妥善保管您的账户、密码及其他信息,避免您的个人信息泄露。如果您发现您的账号、密码或其他信息被他人非法使用或有使 用异常的情况的,应及时通知我们,我们将采取相应安全保障措施。 七、 信息管理 由于云通信产品不具备对用户信息进行管理功能,您需要使用天翼云官网对您的个人信息进行管理。 7.1 查询 您可以在天翼云APP我的账户管理模块查询、管理您向我们提交的基本信息,或者登录天翼云门户官网( 7.2 变更或者修正错误信息 您可以登录天翼云APP,在我的账户管理模块修改您的个人资料,或者登录天翼云门户官网的管理中心进行修改;如果您要变更实名认证信息,您可以通过在天翼云门户提交工单、联系业务受理渠道等方式要求我们对相关信息予以更正。验证身份和权限后,我们将会在5个工作日内为您完成实名认证信息变更。 7.3 删除 若您发现我们未按照法律法规的规定或者本隐私政策约定收集和使用您的信息,您可以通过工单、邮件等方式联系我们对相关信息(包含副本、数据备份)进行删除。验证身份和权限后,我们将会在5个工作日内为您完成信息删除。 7.4 改变或撤回您的授权信息 对于您已经授权同意我们收集和使用的终端设备权限信息,您可以通过在终端设备进行设置、改变或撤回您的授权同意;您改变或撤回授权同意后,可能无法使用相应的功能服务。 7.5 注销账户 您可以登录天翼云门户,在天翼云门户官网个人中心基本信息页面进行账户注销,或天翼云APP管理工具账户注销中提请工单要求注销账户。 在您仔细阅读《天翼云账号注销条款》( 7.6 个人信息副本获取权 如您需要您的个人信息的副本,您可以通过本隐私政策文末提供的方式联系我们,在核实您的身份后,我们将向您提供您在我们的服务中的个人信息副本(包括基本资料、身份信息),但法律法规另有规定的或本政策另有约定的除外。 7.7为保障安全,您申请查询、变更、删除您的信息或注销账户时,可能需要提供书面请求,或以其他方式证明您的身份。我们可能会先要求您验证自己的身份,然后再处理您的请求。 7.8 如果我们停止运营某一产品或者服务,我们将及时停止收集和使用该产品或服务所需的您的信息,同时将停止运营的通知通过天翼云门户进行发布,同时以短信、电话、邮件、站内信、APP消息推送等渠道告知您。对于该产品或服务运营期间已经收集的您的个人信息,我们将依法保存,并在保存期限届满后进行匿名化处理或删除。 7.9 如果我们发生合并、分立、收购、重组等变更,会将变更信息通过天翼云门户进行发布。变更后我们会继续履行信息保护的责任和义务,如果信息使用目的有所变化,我们将明确提示并在您授权同意后才会获取权限,如未取得您的授权,我们将不会收集和使用相关信息。 7.10 尽管有上述约定,但按照法律法规要求,在以下情形下,我们可能无法响应您的请求: (1)与国家安全、国防安全有关的; (2)与公共安全、公共卫生、重大公共利益相关的; (3)与犯罪侦查、起诉和审判等有关的; (4)有充分证据表明您存在主观恶意或滥用权利的; (5)响应您的请求将导致其他个人、组织的合法权益受到严重损害的。 7.11如您需要将您的个人信息转移至您指定的其他个人信息处理者,您可以随时联系我们。在符合相关法律规定且技术可行的前提下的,我们将根据您的要求向您提供转移的途径。 八、我们如何保护未成年人的信息 8.1 我们期望父母或监护人指导未成年人使用我们的服务。我们将根据国家相关法律法规的规定保护未成年人的信息的保密性及安全性。 8.2 如您为未成年人,建议请您的父母或监护人阅读本政策,并在征得您父母或监护人同意的前提下使用我们的服务或向我们提供您的信息。对于经父母或监护人同意而收集您的信息的情况,我们只会在受到法律允许、父母或监护人明确同意或者保护您的权益所必要的情况下使用或公开披露此信息。如您的监护人不同意您按照本政策使用我们的服务或向我们提供信息,请您立即终止使用我们的服务并及时通知我们,以便我们采取相应的措施。 8.3 如您为未成年人的父母或监护人,当您对您所监护的未成年人的信息处理存在疑问时,请通过上文中的联系方式联系我们。 九、隐私政策的修订 9.1 基于为您提供更好的服务的目的,并根据电信业务的发展或法律法规及监督政策变化的要求,我们可能会适时修订本隐私政策,对于本隐私政策的重大改动,我们会请您重新授权同意。 十、联系方式 10.1 如您对本隐私政策或您个人信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云门户端的在线客服、在线反馈留言、拨打我们的客服电话 4008109889 等多种方式与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn,与短信产品的个人信息保护负责人进一步沟通。 10.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        相关协议
        云通信产品隐私政策声明
      • 服务等级目标(SLO)
        本主题介绍天翼云服务等级目标(SLO),包括天翼云服务在计算、存储、网络和CDN方面的可用性。本主题中的SLO是指基于工程设计测量的预期值。因此,我们不保证满足SLO。如果未满足SLO,我们不提供服务补偿或其他财务补偿。有关天翼云服务SLA的更多信息,请参阅产品服务等级协议。 可用性SLO 产品名称 可用性SLO :: 弹性云主机 99.995% 物理机 99% 弹性伸缩服务 99.95% 云硬盘 99.999% 弹性文件服务 99.9% 对象存储(经典I型) 99.99% 对象存储(原生版)I型 99.95% 媒体存储 99.99% 弹性IP 99% 弹性负载均衡 99.95% VPN连接 99.95% 分布式缓存Redis 99.95% 分布式消息RocketMQ 99.95% 分布式消息RabbitMQ 99.95% 分布式消息Kafka 99.95% CDN加速 99.90%
        来自:
        帮助文档
        服务等级目标
        天翼云服务等级目标
        服务等级目标(SLO)
      • 修改快照策略v3
        接口功能介绍 快照策略功能请联系客户经理开通。 快照策略仅支持资源包来源的云电脑(即不支持单实例来源的云电脑)。 如果云电脑已存在快照,且上一个快照时间点到执行周期时一直关机,则不自动创建快照,当用户开机后且到下一个执行周期,再创建快照。 接口约束 无 URI POST /v3/snapshotPolicy/modify 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 d8bbd132b53a11e9b0e40242ac110002 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 snapshotPolicyOid 是 String 快照策略ID。 sspzf13as8ds7ccqb86z8s57 snapshotPolicyName 是 String 快照策略名称。只能包含中文、数字、英文字母、下划线、中划线,长度限制164个字符。 AS116 snapshotType 是 String 快照类型。枚举值范围:sys系统盘;data数据盘;all系统盘和数据盘,其中data和all是数据盘相关的快照类型,请联系客户经理开通。 sys snapshotTimePoints 是 Array of Strings 快照时间点集合。使用UTC+8时间。任意2个时间差必须大于等于1小时。时间点数量范围[1,24]。时间点格式:HH:mm。 cycleType 是 String 快照的周期类型。枚举值范围:Week按周;Day按天。 Day daysOfWeek 否 Array of Strings 一个星期中需要快照的天。快照周期为按周时必填。取值范围[1,7],数量限制[1,7],不允许重复值。 [2,7] cycleDayCnt 否 Integer 快照周期天数。快照周期为按天时必填。取值范围[1,10000]。 3 retentionRule 是 String 保留规则。枚举值范围:Month按月;Day按天;Quantity按数量;Forever永久保留。 Day retentionMonthCnt 否 Integer 保留月数。retentionRule为Month时必填。取值范围[1,12]。 2 retentionDayCnt 否 Integer 保留天数。retentionRule为Day时必填。取值范围[1,99999]。 1 retentionCnt 否 Integer 保留数量。retentionRule为Quantity时必填。取值范围[1,99999]。 4 autoDelete 否 Boolean 是否自动删除。retentionRule为Quantity时需要填写,默认为true。 autoDelete description 是 String 描述。字符数限制[0,254]。 0
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        快照策略
        修改快照策略v3
      • 运维历史-查看运维历史
        本章节主要介绍如何查看运维历史。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“运维与配置 > 运维历史”。默认打开“正在进行”标签页,展示正在进行的运维操作。可切换至“全部操作”标签页,展示进行中和已完成的运维操作历史,如图所示: 5. 单击想要查看的某个运维操作的详情按钮,进入到运维操作的“详情”页面,可查看运维操作的步骤、操作状态。如图所示:
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        运维与配置
        运维历史-查看运维历史
      • 云审计
        天翼云云审计服务提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑合规审计、安全分析、资源跟踪和问题定位等常见应用场景。
        来自:
        帮助文档
        云审计
      • 使用mysqldump迁移MySQL数据
        本文为您介绍如何通过mysqldump将用户自建数据库数据迁移到天翼云关系数据库MySQL。 前期准备 准备能够远程连接关系数据库MySQL的机器。 通过弹性云主机连接关系数据库MySQL,需要创建一台弹性云主机。 通过公网地址连接关系数据库MySQL,需要将关系数据库MySQL绑定公网地址。 关系数据库MySQL实例设置白名单。 在准备的弹性云主机或其他可访问关系数据库MySQL的设备上,安装MySQL客户端。 创建关系数据库MySQL账号。 说明 弹性云主机或可访问关系数据库MySQL的设备需要安装和关系数据库MySQL相同版本的数据库客户端。(如果不相同则只能够向后兼容,例如用5.7版本的mysqldump来导出5.5版本的数据库数据) 适用场景 mysqldump迁移复杂,且需要停止源数据库的应用程序,建议数据量小的场景下使用。 数据量大的场景下建议优先使用DTS迁移数据。 导出数据 需要先对源数据库进行导出,才能将其迁移到关系数据库MySQL。 1. 登录源数据库。 2. 使用mysqldump导出自建数据库的表结构和数据,命令如下: 说明 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 下文中的自建数据库用户需要具备相关的操作权限。 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 bash mysqldump h u p P databases opt defaultcharactersetutf8 hexblob singletransaction setgtidpurgedOFF skiptriggers skipevents skiproutines > /tmp/ data.sql 示例: bash mysqldump h xxx u root p P databases test opt defaultcharactersetutf8 hexblob singletransaction setgtidpurgedOFF skiptriggers skipevents skiproutines > /tmp/testdata.sql 3. 使用mysqldump导出自建数据库的触发器、事件、存储过程和函数,命令如下: 说明 如果源数据库中没有使用触发器、事件、存储过程和函数,可跳过此步骤。 bash mysqldump h u p P database opt defaultcharactersetutf8 hexblob singletransaction setgtidpurgedOFF nocreateinfo nodata routines events sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > /tmp/ trigger.sql 示例: bash mysqldump h xxx u root p P databases test opt defaultcharactersetutf8 hexblob singletransaction setgtidpurgedOFF nocreateinfo nodata routines events sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > /tmp/testtrigger.sql
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        使用mysqldump迁移MySQL数据
      • MacOS如何安装堡垒机访问插件
        下载MacOS版控件 1. 使用访问用户登录云堡垒机(原生版)控制台。 2. 在左侧导航栏选择“运维设置”,进入“运维设置”页面。 3. 单击页面右上角的“访问插件”按钮。 4. 在访问插件窗口,下载MacOS版控件到本地。 5. 下载完成后,可以查看文件“cbhcontrolxxx.dmg”。 示例: 安装MacOS版控件 1. 双击下载的MacOS版控件。 2. 在弹出的窗口中,将CBHCMD、CBHsom、vncviewer放入应用程序。 3. 在安装过程中出现的权限申请,需要选择“允许”,如果点击其他地方或点击不允许,弹框消失后,只能卸载重装插件。 允许插件添加代理配置:在如下窗口中,单击“允许”。 允许系统扩展:在如下窗口中,单击“打开系统设置”。 在如下页面,单击“允许”,允许应用程序“CBHsom”的系统软件载入。 4. 安装完成后,能在应用程序里看到已安装的插件。 5. 若使用了本地初始化功能,在“设置 > 网络 > 过滤条件”里能看到名为CBHAppProxy的透明代理状态为已启用。 若无法拉起CBHAppProxy的透明代理,请在“通用 > 登录项与扩展 > 网络拓展”中启用CBHsom,需要卸载重装插件,并确保安装过程中权限申请均选择“允许”。 注意 高版本的Mac需要手动打开网络拓展才能正常拉起代理,如下图所示。
        来自:
        帮助文档
        云堡垒机(原生版)
        常见问题
        操作类
        MacOS如何安装堡垒机访问插件
      • 自定义引导操作
        本章节主要介绍翼MapReduce服务的自定义引导特性。 特性简介 翼MR提供标准的云上弹性大数据集群,目前可安装部署包括hadoop、spark等9种大数据组件。当前标准的云上大数据集群不能满足所有用户需求,例如如下几种场景: 通用的操作系统配置不能满足实际数据处理需求,例如需调大系统最大连接数。 需要安装自身业务所需的软件工具或运行环境,例如须安装gradle、业务需要依赖R语言包。 根据自身业务对大数据组件包做修改,例如对hadoop或spark安装包做修改。 需要安装其他翼MR还未支持的大数据组件。 对于上述定制化的场景,可以选择登录到每个节点上手动操作,之后每扩容一个新节点,再执行一次同样的操作,操作相对繁琐,也容易出错。同时手动执行记录不便追溯,不能实现“按需创建、创建成功后即处理数据”的目标。 因此,翼MR提供了自定义引导操作,在启动集群组件前(或后)可以在指定的节点上执行脚本。用户可以通过引导操作来完成安装MRS还没支持的第三方软件,修改集群运行环境等自定义操作。如果集群扩容,选择执行引导操作,则引导操作也会以相同方式在新增节点上执行。翼MR会使用root用户执行您指定的脚本,脚本内部您可以通过su xxx命令切换用户。 客户价值 翼MR提供了自定义引导操作,用户可以以此为入口,灵活、便捷地配置自己的专属集群,自定义安装软件。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        自定义引导操作
      • 配置管理-查看配置状态
        本章节主要介绍翼MR Manager的集群服务查看配置状态的操作。 操作场景 支持查看指定集群服务所有配置文件的同步状态。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“运维与配置 > 配置管理”。 5. 查询条件选择指定集群服务。 6. 单击“查看配置状态”按钮。如图所示: 7. 出现配置同步状态弹框,展示所有配置文件的同步状态。如图所示: 8. 可进行配置一致性校验,勾选需要校验的主机后,点击“操作已选项”按钮,点击“一致性检测”,比对主机上配置文件是否与Manager上一致。点击校验后,“配置状态”列将进入“检测中”状态,检测完成会自动刷新。说明列将展示上一次检测配置一致性状态的时间。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        运维与配置
        配置管理-查看配置状态
      • 新增配置组
        本章节主要介绍翼MR Manager的集群服务新增配置组的操作。 操作场景 用户可以根据不同的分组标准,对集群服务中的主机进行分组,一个配置分组下的主机共享一套配置。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab。 7. 单击“新增配置组”,进入新增配置组页面。 8. 根据需要选择分组方式,选择主机,单击右下角“保存”按钮即可。如图所示: 注意 分组方式为:全部、按组件角色、按实例分组、按主机配置时,配置组名称默认且不可改。 分组方式为:单个主机时,需要选择要分组的主机,配置组名称为所选主机的名称且不可改。 分组方式为:自定义时,需要选择分组的主机,配置组名称可以自定义但不能与其他配置组名称相同。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        新增配置组
      • 高危操作一览表
        本章节主要介绍翼MapReduce服务中具有高危险性的操作说明,如不当操作,可能会触发翼MR服务的不可用。 禁用操作 下表中描述了在集群操作与维护阶段,进行日常操作时应注意的禁用操作。 类别 操作风险 严禁删除ZooKeeper相关数据目录 HDFS/Yarn/HBase/Hive等很多组件都依赖于ZooKeeper,在ZooKeeper中保存元数据信息。删除ZooKeeper中相关数据目录将会影响相关组件的正常运行。 严禁手动修改Hive元数据库的数据(Hivemeta数据库) 修改Hive元数据可能会导致Hive数据解析错误,Hive无法正常提供服务。 禁止对Hive的元数据表手动进行insert 和update操作 修改Hive元数据可能会导致Hive数据解析错误,Hive无法正常提供服务。 严禁修改Hive私有文件目录的权限 修改该目录权限可能会导致Hive服务不可用。 严禁修改Kafka配置文件中broker.id 修改Kafka配置文件中broker.id将会导致该节点数据失效。 严禁修改节点主机名 主机名修改后会导致该主机上相关实例和上层组件无法正常提供服务,且无法修复。 禁止重装节点OS 该操作会导致翼MR集群进入异常状态,影响翼MR集群使用。 禁止使用私有镜像 该操作会导致翼MR集群进入异常状态,影响翼MR集群使用。 高危操作 以下各表分别描述了各组件在操作与维护阶段,进行日常操作时应注意的高危操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        高危操作一览表
      • 趋势
        本章节主要介绍翼MapReduce的趋势操作。 选择“主机 > 资源概况 > 趋势”,可查看所有集群或者单个集群的资源趋势监控页面,如下图所示。默认显示1小时的监控数据。用户可单击自定义时间区间,缺省时间区间包括:1小时、2小时、6小时、12小时、1天、1周、1月。各指标趋势图默认显示整个集群的最大值、最小值、平均值。 详见下图:资源趋势 单击“为图表添加主机”,可在定制显示的趋势指标图中,添加个别节点的指标趋势线,最多可添加12个主机。 单击,选择“定制”,可以自定义需要在页面上显示的指标项,详细指标项参考分布中的表。 选择“导出数据”,可以导出集群中所有节点,在所有选中的指标项下,选中时间范围内的最大值、最小值、平均值。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        主机管理
        资源概况
        趋势
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 天翼云云硬盘备份服务协议
        天翼云为您提供云硬盘备份产品服务协议,请您点击查看。 天翼云云硬盘备份服务协议
        来自:
        帮助文档
        云硬盘备份 VBS
        相关协议
        天翼云云硬盘备份服务协议
      • 查看主机实例列表-实例操作
        本章节主要介绍翼MR Manager的查看主机实例列表的实例操作。 操作场景 对主机上实例,进行启动、停止、重启等批量操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“主机”,进入主机列表页面。 5. 单击指定主机的主机IP或主机名称进入到主机详情页面。 6. 单击“实例列表”tab,即可查看该主机上安装的实例服务,勾选想要进行批量运维操作的实例。 7. 点击“操作已选项”按钮,选择相应的运维操作,在提示弹窗中点击确定按钮。单次只支持批量进行同一种运维操作。如图所示: 8. 进入引导式运维操作界面,展示待操作的实例列表,点击下一步运行流水线。如图所示: 9. 进入流水线运行界面,可查看流水线的运行状态,如图所示。运维操作结束后会自动跳出界面,可在运维历史界面查看运维记录信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        主机
        查看主机实例列表-实例操作
      • 配置同步
        本章节主要介绍翼MR Manager的集群服务配置同步的操作。 操作场景 支持将新的配置文件或修改后的配置同步到相应主机上。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab。 7. 如果配置信息存在变更需要同步生效,“同步”按钮上有数字提示待同步配置文件数。此时单击“同步”按钮,进行配置同步操作。如图所示: 8. 进入待同步配置页面,可查看待同步的配置文件、目标主机等信息。如图所示: 9. 单击“配置同步”按钮,跳转到配置同步菜单页面,点击刷新图标直到同步完成。如图所示: 10. 单击“详情”操作,进入到配置同步详情页面,查看配置同步进度。如图所示:
        来自:
      • 海量文件概述
        本节介绍了用户指南: 海量文件概述。 云容器引擎支持挂载天翼云海量文件存储卷。cstorcsi插件支持使用海量文件动态存储卷和静态存储卷,通过将海量文件存储卷挂载到容器指定目录下,以满足数据持久化需求。 海量文件服务OceanFS为全托管、可扩展的海量文件系统,适用于海量数据及高带宽应用场景。OceanFS支持弹性扩展至PB级别,具备高可用性与数据持久性,适用于高性能计算、媒体处理、文件共享、内容管理及Web服务等多种场景。 使用限制 插件版本 使用海量文件存储功能,需要cstorcsi插件版本 >3.6.0 文件协议 当前cstorcsi插件仅支持NFS协议 容量 单个文件系统最小容量为100GB subpath模式 在subpath模式下,暂不支持目录配额,subpath使用的容量实际上是整个海量文件的容 其他限制 参见 海量文件使用限制 产品优势 共享访问 1. 支持多台客户端挂载访问同一文件系统,可支持连接上千个客户端实例。 2. 支持NFSv3/v4.1。 3. 支持IPv4和IPv6网络协议。 海量可扩展 1. 用户可以根据业务需要配置文件系统的初始存储容量,后续可以随着数据量的变化而扩容。 2. 支持PB级存储空间。 安全可信 1. 支持使用VPC用户隔离、权限组等安全管理功能进行访问权限控制,保障数据安全可靠。 2. 文件服务支持HA高可用,出现任何硬件故障时,业务自动切换到其他节点,服务可用性在99.95%及以上。 友好易用 1. 操作界面友好、简单易用,用户可通过控制台界面快速轻松地创建、配置和管理文件系统,省去复杂的文件系统部署工作。 2. 提供全托管服务,不必考虑复杂的安装、配置及性能调优工作,用户可轻松创建使用文件系统,只需几分钟便可使用高性能的文件系统。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        海量文件
        海量文件概述
      • 操作类
        如何关闭ZooKeeper的SASL认证? 1. 登录翼MR Manager。 2. 选择“集群服务 > ZooKeeper > 配置管理 ”。 3. 在左侧导航栏选择“配置组 > zoo.cfg”,然后,选择该配置文件右上角的“+”号,添加参数名称:zookeeper.sasl.disable,再添加参数值:false。 4. 在左侧导航栏选择“配置组 > 同步”,执行配置同步工作。 5. 重启ZooKeeper服务。 在翼MR集群外客户端中执行kinit报错“Permission denied”如何处理? 问题现象 在翼MR集群外节点上安装了客户端后并执行kinit命令报错如下: bash kinit Permission denied 执行java命令正常如下: bash: /xxx/java: Permission denied 执行 ll / java安装路径 /JDK/jdk/bin/java命令查看该文件执行权限信息正常。 原因分析 执行mount column t查看挂接的分区状态,发现java执行文件所在的挂载点的分区状态是“noexec”。当前环境中将安装翼MR客户端所在的数据盘配置成“noexec”,即禁止二进制文件执行,从而无法使用java命令。 解决方法 1. 以root用户登录翼MR客户端所在节点。 2. 移除“/etc/fstab”文件中翼MR客户端所在的数据盘的配置项“noexec”。 3. 执行umount 命令卸载数据盘,然后再执行mount a重新挂载数据盘。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        操作类
      • 产品服务协议
        天翼云为您提供云专线产品服务协议,请您点击查看。 天翼云云专线服务协议
        来自:
        帮助文档
        云专线 CDA
        相关协议
        产品服务协议
      • 软件开发生产线使用流程
        本章主要介绍软件开发生产线使用流程 图:基本操作流程 前提条件 1. 拥有天翼云帐号。若没有,请先注册天翼云帐号。 2. 已购买软件开发生产线。 3. 若需要向主机中部署应用,则需要准备一台具有弹性IP的主机,可以使用已有主机,也可以购买云主机。 配置项目 需求管理服务是使用软件开发生产线各服务的基础,首先需要创建项目、添加项目成员,然后可以根据项目规划添加工作项。 步骤 1 创建项目。 1. 进入软件开发生产线首页,单击“新建项目”。 2. 单击“Scrum”,输入项目名称,单击“确定”。 步骤 2 添加项目成员。 1. 进入已创建的项目,单击导航栏“设置 > 通用设置 > 成员管理”。 在页面右上角选择“添加成员”,或者“通过链接邀请”。 其中,添加成员有包括以下三种选择,请根据实际情况选择。 从本企业用户 从其他项目导入用户 邀请其他企业用户 图:添加项目成员 步骤 3 创建工作项。 1. 进入已创建的项目,单击导航栏“工作”,选择“工作项”页签。 2. 单击“新建”,选择工作项类型,根据实际情况输入工作项标题、优先级、处理人等信息。 配置代码仓库 代码仓库用于项目代码的版本管理,与本地的交互基于Git,因此在使用代码仓库之前需要在本地安装Git客户端。 步骤 1 安装并配置Git客户端。 1. 通过Git官网下载安装包,并使用默认配置安装Git客户端到本地电脑。 2. 运行Git Bash,Git Bash中输入以下命令行配置用户名和邮箱。 git config global user.name " 您的名字 " git config global user.email " 您的邮箱 " 3. 输入以下命令行,生成一对SSH密钥。生成的密钥通常保存在“~/.ssh/idrsa.pub”中。 sshkeygen t rsa C " 您的邮箱 " 4. 输入以下命令可显示密钥内容。 cat ~/.ssh/idrsa.pub 步骤 2 创建代码仓库。 1. 进入已创建的项目,单击导航栏“代码 > 代码托管”。 2. 根据需要选择普通新建、按模板新建或导入外部仓库,按照页面提示输入仓库名称等基本信息,单击“确定”。 图:创建代码仓库 3. 代码仓库创建成功后,在仓库里列表页面单击仓库名称,可查看仓库内的文件。 步骤 3 克隆/推送代码。 1. 单击页面右上角用户名,在下拉列表中选择“个人设置”。 2. 单击导航“代码托管 > SSH密钥管理”。 3. 单击“添加SSH密钥”,输入标题,将负责安装并配置Git客户端中生成的密钥粘贴到文本框中,单击“确定”。 4. 返回代码托管服务页面,单击待克隆的仓库名称,进入仓库。 5. 单击“克隆/下载”,复制仓库SSH下载链接。 6. 运行Git Bash,输入以下命令行,克隆云端仓库到本地。 git clone 您仓库的SSH下载链接 7. 在本地完成代码的编辑后,在Git Bash中依次输入以下命令行,保存代码并推送到代码仓库。 git add . git commit m " 您对本次提交备注的信息 " git push origin master 8. 返回代码仓库,即可查看更新后的文件。 代码托管服务更多操作请参见《代码托管用户指南》。
        来自:
        帮助文档
        软件开发生产线CodeArts
        快速入门
        软件开发生产线使用流程
      • 产品定义(1)
        本章节介绍应用服务网格CSM产品定义 什么是应用服务网格CSM? 天翼云应用服务网格(CSM)提供基于Sidecar技术的无侵入式服务治理能力,兼容开源istio服务网格,并基于开源实现做了功能增强,提供了丰富的流量治理、安全管控和观测能力,满足多语言、技术栈应用统一治理的需求,降低业务接入门槛。 核心功能 网格全生命周期管理:一键创建、销毁网格实例、网格规格扩容,支持日志、链路、指标等自动化配置;实现Sidecar定制化配置,支持Sidecar注入策略及Sidecar代理配置能力。 流量治理能力:支持原生的istio流量治理能力,并提供了本地限流、流量打标、全链路灰度等高阶治理能力;无缝对接云容器引擎,实现多集群统一治理。 可观测及安全策略:支持数据面指标监控,提供控制面和数据面日志及链路追踪能力;支持全链路加密通信,请求认证授权,集成外部授权服务和OPA策略引擎,支持控制台API操作审计。 应用服务网格CSM的核心功能说明如下。更多信息,请参见用户指南。 功能项 说明 相关文档 网格管理 网格可观测、OPA配置等配置能力,全局命名空间管理。 网格管理 sidecar管理 sidecar注入策略配置,sidecar代理配置。 sidecar管理 集群与工作负载管理 ServiceEntry管理,多集群管理。 集群与工作负载 流量治理 提供多集群治理能力,支持基于istio CRD的流量治理,以及扩展的高阶治理能力。 流量管理中心 安全策略 一键开启mTLS安全链路,支持丰富的请求认证和授权策略,支持使用外部授权服务对网格内的服务进行访问授权,支持一键集成OPA策略引擎。 网格安全中心 可观测管理 指标监控,数据面、控制面日志监控能力。 可观测管理中心 网格优化 sidecar资源管理,服务发现范围配置以及自适应配置分发配置。 网格优化中心 网关 ingress、egress网关生命周期管理。 网关
        来自:
      • 配置项对比
        本章节主要介绍翼MR Manager的集群服务配置项对比的操作。 操作场景 用户可以查看同一集群下相同配置项名称在不同配置组中的值。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab。 7. 单击配置组,单击配置文件名称,页面右侧展示该配置的详细信息。 8. 选择要对比的配置项,单击该配置项名称右侧的“对比”按钮,出现配置项对比弹框。如图所示: 9. 配置项对比弹框中,当多个配置分组下,存在同一配置项时,支持逐条展示或合并相同值展示与编辑。如图所示,default、client分组下同一配置项具有相同的值,支持当设置为“修改单个值”或“修改相同值”,进行合并或逐条展示与编辑。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        配置项对比
      • 天翼云云硬盘备份服务等级协议
        天翼云为您提供云硬盘备份产品服务等级协议,请您点击查看。 天翼云云硬盘备份服务等级协议
        来自:
        帮助文档
        云硬盘备份 VBS
        相关协议
        天翼云云硬盘备份服务等级协议
      • 配置管理-配置项对比
        本章节主要介绍翼MR Manager的集群服务配置项对比的操作。 操作场景 用户可以查看同一集群下相同配置项名称在不同配置组中的值。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“运维与配置 > 配置管理”。 5. 查询条件选择指定集群服务。 6. 单击“配置管理”tab。 7. 单击配置组,单击配置文件名称,页面右侧展示该配置的详细信息。 8. 选择要对比的配置项,单击该配置项名称右侧的“对比”按钮,出现配置项对比弹框。如图所示: 9. 配置项对比弹框中,当多个配置分组下,存在同一配置项时,支持逐条展示或合并相同值展示与编辑。如图所示,default、client分组下同一配置项具有相同的值,支持当设置为“修改单个值”或“修改相同值”,进行合并或逐条展示与编辑。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        运维与配置
        配置管理-配置项对比
      • 产品规格
        本章节主要介绍翼MapReduce服务的产品规格。 云主机 通用云主机 S7通用型 规格名称 核数(vCPU) 内存(GB) s7.2xlarge.4 8 32 s7.4xlarge.2 16 32 s7.4xlarge.4 16 64 s7.8xlarge.2 32 64 s7.8xlarge.4 32 128 C7通用计算增强型 规格名称 核数(vCPU) 内存(GB) c7.2xlarge.4 8 32 c7.3xlarge.2 12 24 c7.3xlarge.4 12 48 c7.4xlarge.2 16 32 c7.4xlarge.4 16 64 c7.6xlarge.2 24 48 c7.6xlarge.4 24 96 c7.8xlarge.2 32 64 c7.8xlarge.4 32 128 c7.12xlarge.2 48 96 c7.12xlarge.4 48 192 c7.16xlarge.2 64 128 c7.16xlarge.4 64 256 c7.24xlarge.2 96 192 c7.24xlarge.4 96 384 M7内存优化型 规格名称 核数(vCPU) 内存(GB) m7.2xlarge.8 8 64 m7.3xlarge.8 12 96 m7.4xlarge.8 16 128 m7.6xlarge.8 24 192 m7.8xlarge.8 32 256 m7.12xlarge.8 48 384 m7.16xlarge.8 64 512 m7.24xlarge.8 96 768
        来自:
        帮助文档
        翼MapReduce
        计费说明
        产品规格
      • 同步服务配置
        本章节主要介绍如何同步集群服务配置。 操作场景 当用户发现部分集群服务的配置存在待同步配置文件时,可以使用配置同步功能,对待同步配置进行同步。 对系统的影响 同步集群服务配置后,需要滚动重启集群服务配置才会生效。重启时对应的集群服务不可用。 操作步骤 1. 登录翼MR管理控制台。 2. 在“我的集群”中,单击目标集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager操作界面,单击“集群服务”菜单。 5. 选择指定集群服务,单击集群服务ICON进入到集群服务的详情页面。 6. 单击“配置管理”tab。 7. 单击“同步”按钮,对待同步的配置文件进行同步。 8. 配置同步完成后,再次进入到该集群服务的详情页面。 9. 单击“运维操作”,单击“滚动重启集群”对该集群服务重启后,修改后的配置即可配置生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        组件管理
        同步服务配置
      • 产品优势
        本文介绍边缘安全加速平台的产品优势。 随着全球在线业务的发展,企业拓展业务的趋势日益增长,这也为用户体验和数据资产安全带来了更为复杂的挑战。 AOne边缘安全加速平台提供了加速、计算和安全为一体的服务,为您的业务运营提供全方位的保障。 极致的加速体验 优质的资源覆盖: CN2 和 163 互备支撑,所有节点和 IDC 出口并行,避免峰值带宽拥堵。 智能高效:智能分离站点内容,实现网络智能加速。 传输优化:基于先进的内核技术及自研的私有协议,大幅提升传输效率。 多业务加速:支持 http / https 协议加速、上传加速、websocket 加速、IPv6 升级等。 37层一体化防护 DDoS 防护:提供分布式DDoS攻击清洗,超百G节点大区粒度覆盖,防护总带宽超过12T。结合云原生、智能调度能力,实现资源动态扩容,攻击调度,满足用户三网防护需求,保障业务可用性。 Web 安全防护:基于 AI+ 规则的 Web 攻击识别,有效防御 SQL 注入、XSS 跨站脚本攻击等 OWASP TOP 10的关键 Web 风险。 Bot管理:基于已知Bot情报、精准访问控制、客户端特性识别、人机交互验证、机器学习等智能识别与检测技术,对业务流量进行实时检测和分析,智能识别并区分真实用户流量与各类Bot流量。 API 安全防护:基于安全可靠的接入认证方式,保证 API 访问安全。 持续认证动态评估:持续认证过程引入RBAC(基于角色的访问控制)与ABAC(基于属性的访问控制)鉴权体系,能根据角色及用户属性、环境属性、资源属性等综合授予用户访问权限。 全链路HTTPS:支持全链路HTTPS安全传输方案,防劫持防篡改,保护数据安全。 基于全网的HTTPDNS防劫持:支持用户通过HTTPDNS协议访问天翼云服务器,绕过运营商的LocalDNS解析,避免域名在解析阶段被劫持。 全周期安全保护:基于可信授权、最小授权、持续认证、业务隐身、终端安全、应用安全、链路安全等核心能力,对访问过程进行持续的安全保护,实现在任意网络环境中安全访问企业资源。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品优势
      • 同账号不同资源池间的数据迁移
        本文主要介绍基于天翼云海量文件服务,如何在不同资源池之间实现海量文件系统之间的数据迁移。 应用场景 本文适用于在不同地域(资源池)不同VPC的海量文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。 前提条件 已拥有两个NFS协议的海量文件系统。两个资源池的海量文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 准备工作 在两个资源池分别创建一个海量文件系统和一台弹性云主机,具体操作请参考创建海量文件系统、创建弹性云主机。 将文件系统分别挂载海量文件系统至弹性云主机,具体操作请参考使用弹性云主机挂载海量文件系统。 操作步骤 不同资源池的两个海量文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的海量文件系统分别挂载到对应云主机。 将海量文件系统挂载至云主机中,这里设定资源池1为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,资源池2为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具。 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据。 执行以下命令,将资源池1海量文件系统中的数据迁移到资源池2中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在资源池1中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至资源池2的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据。 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果。 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        同账号不同资源池间的数据迁移
      • 变更
        本章节主要介绍翼MapReduce服务的变更操作。 计费方式变更 开通翼MapReduce集群后,您可以根据业务情况灵活变更资源的计费方式。 包年/包月转按需 用户可通过控制台操作,将包年/包月集群转为按需集群。 1. 进入翼MR控制台我的集群页面。 2. 选择计费模式为【包年/包月】的目标集群,在操作列点击更多,并选择“转按需”。 3. 在弹窗中确认信息,阅读并同意协议后,可点击“确认”。 说明 1)选择包年/包月转按需后,集群的计费模式将在包年/包月到期后转为按需计费,并按小时收取费用。 2)包年/包月到期前,若执行扩容、升配、新增节点组、磁盘扩容等操作,将按集群到期时间,基于包年/包月计费逻辑对变更资源收取费用。集群到期后,所有资源将按按需计费模式收取费用。 按需转包年/包月 用户可通过控制台操作,将按需集群转为包年/包月集群。 1. 进入翼MR控制台我的集群页面。 2. 选择计费模式为【按需】的目标集群,在操作列点击更多,并选择“转包年/包月”。 3. 在弹窗中选择需要订购的时长,阅读并同意协议后,可点击“确认”。 注意 选择按需转包年/包月并支付后,集群的计费模式将立即变更,该操作不可取消,请谨慎使用。 规格变更 在开通翼MapReduce前有多种节点供您选择,您可根据业务需要选择合适的master、core和task节点实例。当集群启动后,翼MapReduce提供如下变更配置的方式。
        来自:
        帮助文档
        翼MapReduce
        计费说明
        变更
      • Ubuntu系列
        本章节主要介绍Ubuntu系列自定义VLAN网络配置。 注意事项: 自定义VLAN网络网段不能与现有的物理机上已经配置的网段重叠。 下面以Ubuntu 16.04 LTS (Xenial Xerus x8664)操作系统为例,举例介绍物理机的自定义VLAN网络配置方法: 说明 Ubuntu系列其他操作系统的配置方法与Ubuntu 16.04 LTS (Xenial Xerus x8664)类似。 步骤 1 以“root”用户,使用密钥或密码登录物理机。 步骤 2 进入物理机的命令行界面,查询网卡信息。 ip link 返回信息示例如下: 1: lo: mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: eth0: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 3: eth1: mtu 8888 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 4: enp129s0f0: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether f4:4c:7f:3f:da:07 brd ff:ff:ff:ff:ff:ff 5: enp129s0f1: mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether f4:4c:7f:3f:da:08 brd ff:ff:ff:ff:ff:ff 6: bond0: mtu 8888 qdisc noqueue state UP mode DEFAULT group default qlen 1000 link/ether fa:16:3e:1c:35:37 brd ff:ff:ff:ff:ff:ff 说明 其中,“eth0”和“eth1”为承载VPC网络的网络设备,“enp129s0f0”和“enp129s0f1”为承载自定义VLAN网络的网络设备。下面步骤将使用“enp129s0f0”和“enp129s0f1”配置自定义VLAN网络。 步骤 3 执行以下命令,查看“/etc/udev/rules.d/”目录下是否有“80persistentnet.rules”配置文件。 /etc/udev/rules.d/ grep 80persistentnet.rules 如果存在“80persistentnet.rules”,且该配置文件中已存在步骤2中查询到的除“bond0”和“lo”以外的其它所有网卡和对应的MAC地址,请执行步骤6。 否则,继续执行步骤4。 步骤 4 执行以下命令,将“/etc/udev/rules.d/70persistentnet.rules”文件拷贝一份(文件名为“/etc/udev/rules.d/80persistentnet.rules”)。 cp p /etc/udev/rules.d/70persistentnet.rules /etc/udev/rules.d/80persistentnet.rules 步骤 5 设置udev规则。 将步骤2中查询到的除“lo”、“eth0”、“eth1”和“bond0”以外的网卡和MAC对应关系添加到“/etc/udev/rules.d/80persistentnet.rules”文件中,使得物理机重启复位后,网卡名称和顺序不会发生改变。 说明 网卡的MAC地址和名称中的字母,请使用小写字母。 vim /etc/udev/rules.d/80persistentnet.rules 修改后的示例如下: SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"e8:4d:d0:c8:99:5b", NAME"eth0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"e8:4d:d0:c8:99:5c", NAME"eth1" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:3f:da:07", NAME"enp129s0f0" SUBSYSTEM"net", ACTION"add", DRIVERS"?", ATTR{address}"f4:4c:7f:3f:da:08", NAME"enp129s0f1" 修改完成后,按“Esc”,输入":wq" 保存并退出。 步骤 6 执行以下命令,将网卡配置文件“/etc/network/interfaces.d/50cloudinit.cfg”拷贝为“/etc/network/interfaces.d/60cloudinit.cfg”。 cp p /etc/network/interfaces.d/50cloudinit.cfg /etc/network/interfaces.d/60cloudinit.cfg 步骤 7 执行以下命令,编辑“/etc/network/interfaces.d/60cloudinit.cfg”,配置“enp129s0f0”设备和“enp129s0f1”设备的网络配置文件“/etc/network/interfaces.d/60cloudinit.cfg”。 vim /etc/network/interfaces.d/60cloudinit.cfg 按如下格式编辑: auto enp129s0f0 iface enp129s0f0 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto enp129s0f1 iface enp129s0f1 inet manual bondmode 1 bondmaster bond1 bondmiimon 100 mtu 8888 auto bond1 iface bond1 inet static bondmiimon 100 bondslaves none bondmode 1 address 10.10.10.3 netmask 255.255.255.0 hwaddress f4:4c:7f:3f:da:07 mtu 8888 其中 “enp129s0f0”和“enp129s0f1”为承载自定义VLAN网络配置的网卡名称。 “hwaddress”为“enp129s0f0”设备对应的MAC地址。 “address”的取值为给自定义VLAN网络“bond1”配置的IP(给自定义VLAN网络规划的IP地址在没有与VPC网段冲突的情况下可任意规划,需要通过自定义VLAN网络通信的物理机须将自定义VLAN网络配置在同一个网段)。 “netmask”的取值为给自定义VLAN网络“bond1”配置的IP的掩码。 各个设备的其他参数可参考如上信息进行配置,如“mtu”配置为“8888”,“bondmiimon”配置为“100”,“bondmode”配置为“1”等。 修改完成后,按“Esc”,输入":wq" 保存并退出。 步骤 8 执行以下命令,重启网络。 fup enp129s0f0 ifup enp129s0f1 说明 其中,“enp129s0f0”和“enp129s0f1”分别为承载自定义VLAN网络的网卡。 步骤 9 执行以下命令,查看网卡设备的状态和“bond1”配置文件是否生效。 ip link ifconfig 步骤 10 参见上述步骤,完成其他物理机的配置。 步骤 11 待其他物理机配置完成后,互相ping对端自定义VLAN网络配置的同网段IP,检查是否可以ping通。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        自定义VLAN网络配置
        Ubuntu系列
      • 术语解释
        本节介绍AntiDDoS流量清洗相关术语解释。 CC攻击 CC攻击是针对Web服务器或应用程序的攻击,利用获取信息的标准的GET/POST请求,如请求涉及数据库操作的URI(Universal Resource Identifier)或其他消耗系统资源的URI,造成服务器资源耗尽,无法响应正常请求。 带宽 通过带宽展示网络的使用情况,作为服务计费的依据。 分布式拒绝服务攻击 拒绝服务攻击( Denial of Service Attack,简称DoS)亦称洪水攻击,是一种网络攻击手法,其目的在于使目标电脑的网络或系统资源耗尽,服务暂时中断或停止,导致合法用户不能够访问正常网络服务的行为。当攻击者使用网络上多个被攻陷的电脑作为攻击机器向特定的目标发动DoS攻击时,称为分布式拒绝服务攻击(Distributed Denial of Service Attack,简称DDoS)。 黑洞状态 黑洞状态是指服务器的外网访问被屏蔽,从服务器内部看到访问流量为零的状态。 流量清洗 流量清洗是用于准确识别网络中的异常流量并将其丢弃,保证正常流量通行的网络安全服务。流量清洗的主要对象是DDoS攻击。 SYN Flood攻击 SYN Flood攻击是指通过伪造的SYN报文(其源地址是伪造地址或不存在的地址),向目标服务器发起连接,目标服务器用SYNACK应答,而此应答不会收到ACK报文,导致目标服务器保持了大量的半连接,直到超时。这些半连接可以耗尽服务器资源,使目标服务器无法建立正常TCP连接,从而达到攻击的目的。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        产品介绍
        术语解释
      • 实例节点扩容
        该任务用于指导用户对实例节点进行扩容。 本章节用于指导如何在依赖统一PaaS平台的环境上对telepg实例扩容。 前提条件 1. 已部署好telepg后端控制台。 2. 已在统一PaaS平台上配置了Postgresql数据库应用的资源池版本。 3. 扩容实例 1. 使用租户管理员(租户拥有者) 登录到统一PaaS平台,进入Telepg控制台,选择对应实例 ,单击更多 > 扩容。 2. 跳转进入云翼平台,显示对应待操作的实例,单击更多> 扩容。 3. 根据扩容需要选择对应列表页,其中telepg支持按规格扩容和磁盘扩容。 按规格扩容是根据当前实例规格信息及其配置的可扩容规格,进行节点扩容。 4. 例如:机器规格扩容:从实例规格2核4G扩容为4核8G,节点数保持不变。 5. 磁盘扩容是对当前实例的机器挂载磁盘进行扩容,常用于云硬盘扩容。 4. 按规格扩容机器规格扩容 若当前实例规格为高可用版2核4G,扩容目标实例规格为高可用版4核8G 。您可参考如下步骤实现: 1. 选择按规格扩容 页签,扩容规格选择为高可用版4核8G。 2. 单击检测 ,检测当前资源池是否有相应资源支持该规格扩容。 3. 单击预览 ,查看待扩容信息。 4. 单击扩容 ,即可完成机器规格扩容。 5. 磁盘扩容 若当前实例磁盘规格大小为50G,扩容目标实例磁盘规格大小为100G。 1. 选择磁盘扩容 页签,在对应节点中,分区大小扩容后选择目标磁盘规格为100G。 2. 单击预览,查看待扩容信息。 3. 单击提交,即可完成磁盘扩容。 6. 查看扩容工单 在云翼平台中,进入我的订购 菜单页面,在我的订单中查询对应的扩容工单。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        管理平台使用手册
        实例节点扩容
      • 1
      • ...
      • 42
      • 43
      • 44
      • 45
      • 46
      • ...
      • 544
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      Token服务

      智算一体机

      推荐文档

      资源管理列表

      全面了解天翼云③:Linux云主机配置snat

      文档下载

      Client端Windows版本

      天翼云最佳实践⑤:linux搭建pureftp

      启动会议

      退订

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号