活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容安全_相关内容
      • 通过专线访问
        本章节主要介绍通过专线访问。 MRS为您提供云专线(Direct Connect)方式访问MRS集群。云专线用于搭建用户本地数据中心与线上云VPC之间高速、低时延、稳定安全的专属连接通道,充分利用线上云服务优势的同时,继续使用现有的IT设施,实现灵活一体,可伸缩的混合云计算环境。 前提条件 云专线服务可用,并已打通本地数据中心到线上VPC的连接通道。 通过专线访问MRS集群 1. 登录MRS管理控制台。 2. 单击集群名称进入集群详情页。 3. 在集群详情页面的“概览”页签,单击“集群管理页面”右侧的“前往Manager”。 4. “访问方式”选择“专线访问”,并勾选“我确认已打通本地与浮动IP的网络,可使用专线直接访问MRS Manager。”。 浮动IP为MRS为您访问MRS Manager页面自动分配的IP地址,使用专线访问MRS Manager之前您确保云专线服务已打通本地数据中心到线上VPC的连接通道。 5. 单击“确定”,进入MRS Manager登录页面,用户名使用“admin”,密码为创建集群时设置的admin密码。 切换MRS Manager访问方式 为了便于用户操作,浏览器缓存会记录用户所选择的访问Manager的方式,如需切换访问Manager方式,参考如下步骤操作。 1. 登录MRS管理控制台。 2. 单击集群名称进入集群详情页。 3. 在集群详情页面的“概览”页签,单击“集群管理页面”右侧的按钮。 4. 在弹出页面重新选择“访问方式”即可。 若由“EIP访问”切换为“专线访问”,请在专线网路互通的前提下,在弹出页面的“访问方式”选择“专线访问”并勾选“我确认已打通本地与浮动IP的网络,可使用专线直接访问MRS Manager。”后单击“确定”。 若由“专线访问”切换为“EIP访问”,在弹出页面的“访问方式”选择“EIP访问”并参考访问MRS Manager(MRS 2.x及之前版本)中的通过弹性公网IP访问Manager配置EIP。若集群已配置过公网IP,直接单击“确定”以EIP方式访问Manager。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问MRS集群上托管的开源组件Web页面
        通过专线访问
      • 产品价格
        本小节介绍渗透测试价格,分为小型、中型和大型三类,客户可根据自身系统规模进行选择。 订购须知 1、渗透测试以电子报告形式提供一次性服务; 2、功能点指应用系统中可增删改查业务数据的入口或流程,针对多个页面有新增、上传等功能点且api接口、参数都相同,可计为一个功能点; 3、本产品一经订购立即生效,除不可抗力外不支持退订。渗透测试服务有效期为一个自然年,即从购买之日起一年内都可以联系我们进行实施。强烈建议您购买后尽快实施,解决安全问题宜早不宜迟,到期后渗透测试服务不可再使用。 资费说明 渗透测试资费标准价格如下: 描述 规格 单价 小型 小型系统渗透测试:测试对象功能点1~10个; 10,000元/次 中型 中型系统渗透测试:测试对象功能点1160个; 40,000元/次 大型 大型系统渗透测试:测试对象功能点61120个; 70,000元/次 例如: 展示类系统,如门户网站包含展示页面5个、反馈页面1个,页面中无其他增删改查功能点,功能点数量为6个≤10个,为1个小型系统。 交互查询类,如政务网站、订票、业务办理等系统,包含5个1级功能入口>共10个2级功能页面,每个页面包含增删改查4个功能点,则该系统功能点数量累计为40≤60个,为1个中型系统,可下单1个中型系统或者4个小型系统。 交易管理类,以交易、复杂管理系统为主,如OA、电商、网银、app、管理后台等系统,包含10个1级功能入口>共28个2/3级功能页面,每个页面包含增删改查下载上传6个功能点,则该系统功能点数量累计为168≥120个,等同于1个大型(120以内)+1个中型(60以内)系统,可下单1个大型系统和1个中型系统。 注意 具体以各版本的订购页面和控制台展示为准。
        来自:
        帮助文档
        渗透测试
        计费说明
        产品价格
      • 创建伸缩组
        参数 是否必选 参数说明 名称 是 伸缩组的名称,用户可自定义,也可以选择保持系统默认分配名称。 最大实例数(台) 是 伸缩组内包含的实例数量的最大值,伸缩组内执行的任何伸缩活动结果不得大于最大实例数。 若您修改了伸缩组的最大实例数使得伸缩组的当前实例数大于最大实例数,弹性伸缩服务会自动移出实例,保证伸缩组的当前实例数等于最大实例数。 最小实例数(台) 是 伸缩组内包含的实例数量的最小值,伸缩组内执行的任何伸缩活动结果不得小于最小实例数。 若您修改了伸缩组的最小实例数使得伸缩组的当前实例数小于伸缩最小实例数时,弹性伸缩服务会自动添加实例,保证伸缩组的当前实例数等于伸缩最小实例数。 开启期望实例数 否 伸缩组内是否开启期望实例数配置。期望实例数是伸缩组内包含的实例数量的稳态值。 若您为伸缩组开启并设置了期望实例数,当伸缩组内实例数不等于期望实例数时,弹性伸缩服务会自动进行扩缩容,确保伸缩组内始终保持该数量的实例数。 虚拟私有云 是 同一伸缩组内的弹性云主机的虚拟私有云是一致的。 网卡 是 一个伸缩组可以绑定多张网卡,默认第一张网卡为主网卡。 多可用区扩容策略 是 多可用区资源池伸缩组需指定扩容策略。 均衡策略:在伸缩组绑定的伸缩配置关联多个可用区时生效,支持在多个可用区之间均衡分布云主机实例。 优先级策略:伸缩组绑定的伸缩配置先选择的可用区优先级高。弹性伸缩优先在优先级最高的可用区尝试伸缩活动。若无法扩进行伸缩活动,则自动在优先级次之的可用区进行。 添加已有云主机实例 否 伸缩组创建完成后,支持将符合条件的已有云主机实例移入伸缩组,作为初始化实例,最大可选择添加10个实例。添加已有的云主机实例数量受到最小、最大、期望实例数限制。 安全组 是 安全组类似防火墙功能,是一个逻辑上的分组,用于设置网络访问控制。 负载均衡 否 选择启用负载均衡后,伸缩组中的云主机会自动挂载到您关联的负载均衡下。当选择使用弹性负载均衡时,需配置4个参数:负载均衡器、主机组、后端端口和权重。 访问流量将按照分发策略自动分发到伸缩组内的所有弹性云主机。 注意:一个伸缩组可最多关联10个负载均衡监听器。 实例移除策略 是 在对伸缩组进行缩容时,会采用此策略进行移除,共有以下四种方式: 较早创建的配置较早创建的实例:先筛选出较早创建的配置所创建出的实例,再筛选较早创建的实例移出。 较晚创建的配置较晚创建的实例:先筛选出较晚创建的配置所创建出的实例,再筛选较晚创建的实例移出。 较早创建的实例:根据时间筛选较早创建的实例,跟是否是伸缩配置创建的无关。 较晚创建的实例:根据时间筛选较晚创建的实例,跟是否是伸缩配置创建的无关。 实例回收模式 是 指伸缩组自动创建的实例被移出后的处理策略。 释放模式:将移出的伸缩组自动创建的云主机释放。 注意:对于手动移入伸缩组的云主机,如果被移出伸缩组,资源不会被释放,状态保持不变,不适用此策略。 健康检查方式 是 健康检查会将处于“异常”状态的云主机从伸缩组中移出,并替换同种规格的云主机来承载业务流量。有以下两种方式: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、错误等人为或非人为状态都是云主机异常状态。 弹性负载均衡健康检查:是指根据负载均衡对云主机的健康检查结果进行的检查。所有监听器下检测到的云主机状态必须均为正常。 不启用:关闭伸缩组健康检查,伸缩组不会获取实例健康状态信息。 注意:只有开启负载均衡时您才可以选择弹性负载均衡健康检查,建议当伸缩组开启负载均衡时,使用弹性负载均衡健康检查。 健康检查间隔 是 执行健康检查的周期时间。您可以根据业务实际情况设置合理的健康检查间隔(5分钟、 15分钟、 1小时、 3小时),以确保其包含主机中应用程序的预期启动时间。 企业项目 是 支持为伸缩组选择企业项目。
        来自:
        帮助文档
        弹性伸缩服务 AS
        快速入门
        快速扩缩容弹性云主机
        创建伸缩组
      • 修改伸缩组
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 88f8888888dd88ec888888888d888d8b groupID 是 Integer 伸缩组ID 489 name 否 String 伸缩组名称 fcggrouptest minCount 否 Integer 最小云主机数,取值范围:[0,50] 1 maxCount 否 Integer 最大云主机数,取值范围:[minCount,2147483647] 50 expectedCount 否 Integer 期望云主机数,取值范围:[minCount,maxCount],非多可用区资源池不支持该参数 1 useLb 否 Integer 是否使用负载均衡,1:是 2:否 2 healthPeriod 否 Integer 健康检查时间间隔(周期),单位:秒,取值范围:[300,10080] 300 securityGroupIDList 否 Array of Strings 安全组ID列表,非多可用区资源池不使用该参数 ['sgnw15npxgkd'] lbList 否 Array of Objects 负载均衡列表 lbList mazInfo 否 Array of Objects 【Deprecated】多可用区资源池的实例可用区及子网信息。mazInfo和subnetIDList参数互斥,如果资源池为多可用区时使用mazInfo则不传subnetIDList参数 mazInfo subnetIDList 否 Array of Strings 子网ID列表。支持一主多辅,最大支持输入5个网卡信息,顺序第一个网卡信息默认主网卡。mazInfo和subnetIDList参数互斥。修改subnetIDList会将mazInfo信息清空。 ['a8ffac57354b41afb85353b5cded4957'] moveOutStrategy 否 Integer 实例移出策略。取值范围:1:较早创建的配置较早创建的云主机2:较晚创建的配置较晚创建的云主机3:较早创建的云主机4:较晚创建的云主机 1 recoveryMode 否 Integer 实例回收模式。取值范围:1:释放模式。 1 healthMode 否 Integer 健康检查方式。取值范围:1:云主机健康检查2:弹性负载均衡健康检查 1 configID 否 Integer 【Deprecated】伸缩配置ID 375 configList 否 Array of Integers 伸缩配置ID列表,最大支持传入10个伸缩配置。按输入伸缩配置的顺序,决定伸缩配置优先级。注意:该参数与configID不可同时传入,请尽量选择本参数。 [375] azStrategy 否 Integer 扩容策略类型,仅多可用区资源池支持。取值范围:1:均衡分布。 2:优先级分布。 1
        来自:
        帮助文档
        弹性伸缩服务 AS
        API参考
        API(公测中)
        伸缩组
        修改伸缩组
      • Mac OS系统登录Windows云主机
        操作场景 本节将以使用"Microsoft Remote Desktop for Mac"工具远程连接到运行"Windows Server 2012 R2 数据中心版 64位"操作系统的云主机为例,介绍如何在Mac OS系统上登录Windows云主机的操作步骤。 前提条件 Windows云主机处于“运行中”状态。 已获得Windows云主机的用户名和密码。如果忘记密码,须重置云主机密码,请参考在控制台重置弹性云主机密码。 Windows云主机所在安全组的入方向已开放3389端口。 Windows防火墙未开启或开启后放通3389端口。 登录工具与Windows云主机具有网络连通性。如果使用处于公网中的终端登录,需要您的Windows云主机已绑定弹性IP。如果通过内网使用此方式登录,则不需要绑定弹性IP,例如VPN、云专线等内网网络连通场景。 Windows云主机已开启远程桌面协议RDP。 已在Mac OS系统上安装了Microsoft Remote Desktop for Mac或其他适用于Mac OS系统的远程连接工具。您可以下载Microsoft Remote Desktop for Mac。 注意 请注意,微软官方已停止提供Remote Desktop客户端的下载链接,您可以尝试下载 操作步骤 1. 启动Microsoft Remote Desktop应用。 2. 点击"Add Desktop"(添加桌面)。 3. 在"Add PC"(添加计算机)页面,进行登录信息的设置。 PC name(计算机名称):输入要登录的Windows实例的弹性IP地址。 User account(用户账户):从下拉列表中选择"Add user account"(添加用户账户),然后弹出"Add user account"对话框。 在"Add user account"对话框中,输入Windows实例的用户名(例如"administrator")和登录密码,然后点击"Add"(添加)。 4. 在"Remote Desktop"页面,双击要登录的Windows实例的图标。 5. 确认信息后,点击"Continue"(继续)。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        登录实例
        登录Windows弹性云主机
        Mac OS系统登录Windows云主机
      • GPU加速型实例安装GRID驱动
        部署和配置License Server 我们以CentOS 7.5操作系统的云主机为例演示部署和配置License Server。 说明 云主机规格不小于2vCPU,内存不小于4GiB。 请提前记录云主机MAC地址。 如用作生产用途,建议采用高可用模式部署,主备高可用模式部署License Server 请参考NVIDIA官方License Server高可用部署文档( licenseserverhighavailability) 。 1. 配置网络: 1. 如使用VPC网络访问License Server:请确保License Server和使用GRID驱动的GPU加速型实例处在同一个VPC子网内。 2. 如使用公网IP访问License Server:请配置License Server所在的安全组,增加入方向规则:TCP 7070和TCP 8080。 2. 安装License Server。 具体过程请参考NVIDIA官方License Server安装文档 ( installingnvidiagridlicenseserver)。 3. 获取License文件 a. 新建页签,登录NVIDIA网站( SERVERS”。 图 选择LICENSE SERVERS b. 单击“CREATE SERVER”. c. 填写Server Name、Description、MAC Address(License服务器的MAC地址)。 d. 选择Feature,在Licenses框中输入需要的license数目,单击“ADD”。 如果是主备部署的情况需要把备服务器的名称填入 Failover License Server,MAC地址填入Failover MAC Address中。 e. 单击“CREATE LICENSE SERVER”。 图 填写LICENSE SERVERS信息 f. 下载license文件 图 下载license文件 4. 在Web浏览器中,根据安装时配置的管理页面链接,访问License Server管理界面的主页。 默认访问链接为: 5. 单击“License Server > License Management”,使用License服务器配置菜单导入,并单击“Upload”上传许可证.bin文件,完成License Server的配置。 图 上传许可证文件
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        安装驱动和工具包(可选)
        GPU加速型实例安装GRID驱动
      • 怎样修改windows远程登录的端口?
        修改Windows系统实例默认远程端口,以Windows Server 2012数据中心版为例。 操作步骤 1. 登录控制中心,进入轻量型云主机列表页面。 2. 通过控制台VNC远程登录待修改端口的Windows轻量型云主机实例。 3. 修改注册表子项PortNumber的值。 4. 右键单击Windows 徽标键,选择运行,启动运行窗口。 5. 在运行窗口的文本框内输入regedit.exe后按回车键,打开注册表编辑器。 6. 在左侧导航树中逐层选择HKEYLOCALMACHINE > System > CurrentControlSet > Control > Terminal Server > Wds > rdpwd > Tds > tcp,如下图所示: 7. 在列表中找到注册表子项PortNumber并右键单击,选择修改,进入修改窗口。 8. 在弹出的修改窗口中,在数值数据的文本框中输入新的远程端口号,以3398为例。在基数框中勾选十进制,然后单击“确定”。 9. 在左侧导航树中逐层选择HKEYLOCALMACHINE > System > CurrentControlSet > Control > Terminal Server > WinStations > RDPTcp。 10. 在右侧列表中找到注册表子项PortNumber并右键单击,选择修改(可以使用键盘方向键向下寻找)。 11. 在弹出的对话框中,在数值数据的文本框中输入新的远程端口号,在本示例中即3398。在基数框中勾选十进制,然后单击确定。 12. 在轻量型云主机管理控制台中将此台云主机进行重启。 13. 为该实例添加安全组规则,允许新配置的3398远程端口进行连接。 14. 最后使用远程桌面连接功能远程访问实例,在远程地址后面添加新端口号3398即可连接实例。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        登录链接类
        怎样修改windows远程登录的端口?
      • 重保防护场景
        本节介绍如何配置重保防护的黑白名单规则。 重保防护支持配置全局IP黑白名单,对经过云WAF防护域名的访问源IP进行黑白名单设置,来自黑白名单中的IP地址/IP地址段的访问,WAF将不会做任何检测,直接拦截/放行。 支持添加IPv4、IPv6地址,支持添加IP地址段。 重保防护提供的全局IP黑白名单,检测逻辑优先级高于IP黑白名单检测;内部检测逻辑,白名单高于黑名单。 前提条件 已购买WAF云SaaS型实例,且实例版本为标准版及以上版本。 网站已通过“域名接入”方式接入WAF进行防护。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 重保防护场景”,进入重保防护配置页面。 5. 单击“新建黑白名单”,弹出新建黑白名单规则窗口,配置黑白名单规则参数,参数说明如下。 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 类别 定义该规则类型是“黑名单”或“白名单”。 IP地址 添加IP地址/地址段,支持IPv4和IPv6格式的IP地址/地址段。 过期时间 规则配置后,规则状态开启即生效。可通过设置过期时间,为该规则定义生效时间段。 过期时间可选: 永久生效 限定日期:自定义设置失效日期 规则描述 可选参数,设置该规则的备注信息。 生效范围 支持选择“全部防护对象”或“特定防护对象”。 全部防护对象:配置的黑白名单规则对所有已接入的域名生效。 特定防护对象:配置的黑白名单规则仅对所选域名生效,可以选择多个域名。 说明 不支持独享版防护对象和监听器防护对象。 6. 配置完成后,单击“确定”。可以在列表中查看已新建的黑白名单规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        重保防护场景
      • 网络概述
        Service Service是用来解决Pod访问问题的。每个Service有一个固定IP地址,Service将访问流量转发给Pod,而且Service可以给这些Pod做负载均衡。 图 通过Service访问Pod 根据创建Service的类型不同,可分成如下模式: ClusterIP:用于在集群内部互相访问的场景,通过ClusterIP访问Service。 NodePort:用于从集群外部访问的场景,通过节点上的端口访问Service。 LoadBalancer:用于从集群外部访问的场景,其实是NodePort的扩展,通过一个特定的LoadBalancer访问Service,这个LoadBalancer将请求转发到节点的NodePort,而外部只需要访问LoadBalancer。 Service的详细介绍请参见Service概述。 lngress Service是基于四层TCP和UDP协议转发的,而Ingress可以基于七层的HTTP和HTTPS协议转发,可以通过域名和路径做到更细粒度的划分,如下图所示。 图 IngressService Ingress的详细介绍请参见Ingress概述。 网络访问场景 负载网络访问可以分为如下几种场景。 集群内部访问:创建ClusterIP类型的Service,通过Service访问负载。 外部访问负载:从外部访问负载推荐使用Service(NodePort类型或LoadBalancer类型)或Ingress访问。 公网访问负载需要节点或LoadBalancer绑定公网IP。 内网访问负载通过节点或LoadBalancer内网IP即可。如果跨VPC需要通过对等连接等手段打通不同VPC网络。 负载访问外部: 负载访问内网:负载访问内网地址,在不同容器网络模型下有不同的表现,需要注意在对端安全组放通容器网段,具体请参见容器如何访问VPC内部网络。 负载访问公网:访问公网有几种方法可以实现,一是让容器所在节点绑定公网IP(容器网络模型为VPC网络或容器隧道网络),另一个是通过NAT网关配置SNAT规则,具体请参见从容器访问公网。 图 网络访问示意图
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        网络概述
      • 查看漏洞详情
        本节介绍如何查看Linux漏洞、Windows漏洞、WebCMS漏洞、应用漏洞的详细信息。 前提条件 已接入HSS产品日志并已开启自动转告警设置,详细操作请参见数据集成。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在态势感知(专业版)管理页面选择“风险预防> 漏洞管理”,进入漏洞管理页面。 5. 在漏洞管理页面,查看漏洞统计情况。 漏洞类型分布 :呈现漏洞整体数量,及各类型漏洞分布情况。 漏洞TOP5排行 :漏洞编号页签中,呈现漏洞编号数量TOP5的漏洞及受影响资产数量;漏洞类型页签中,呈现漏洞类型数量TOP5的漏洞、漏洞危险程度及受影响资产。 风险资产TOP5排行 :呈现TOP5的风险资产。 6. 在漏洞管理界面,选择“Linux漏洞”、“Windows漏洞”、“WebCMS漏洞”、“应用漏洞”任意一个页签,进入对应漏洞管理页面。 当漏洞较多时,可以通过搜索功能,选择漏洞的“漏洞名称”、“漏洞编号”、“等级”或者“是否处理”,并在搜索框中输入关键词,单击,即可快速查询指定漏洞。 页面最多可查看9999条漏洞信息。 漏洞参数说明: 参数名称 参数说明 漏洞名称 扫描出的漏洞名称。单击漏洞名称,可查看该漏洞的简介、相关漏洞库信息。 等级 漏洞的危险程度。 ID 漏洞ID。 影响资产 受某个漏洞影响的资产总数。 漏洞编号 漏洞对应的编号。 最近扫描时间 最近一次扫描的时间。 是否处理 该漏洞是否已处理。 7. 如需查看某个漏洞的详细信息,可单击漏洞名称,在右侧弹出的详情页面进行查看。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        漏洞管理
        查看漏洞详情
      • 迁移前准备工作
        本章介绍迁移前需要做哪些准备工作。 已注册天翼云账号,并开通天翼云,登陆并完成实名认证。 注册天翼云账号并完成实名认证。 账号充值,且账号余额不少于100元。 建议您目的端账户余额不少于100元,避免迁移过程中欠费,导致迁移失败。主机迁移服务本身免费,但迁移过程中会创建按量付费资源并产生少量费用。详情参考100元余额说明。 已获取帐号迁移权限。 如果使用帐号登录,默认拥有迁移权限,可无需配置迁移权限;如果使用IAM用户登录,请创建用户组并授权进行授权。详情请参考创建用户并授权使用SMS。 已获取目的端帐号的AK/SK。 迁移时使用AK/SK进行鉴权认证,获取目的端帐号的AK/SK操作请参见如何获取AK/SK?(账号)或如何获取AK/SK?。 操作系统要求。 主机迁移服务支持迁移的源端服务器操作系统列表请参见Windows兼容性列表、Linux兼容性列表。 迁移网络要求。 1. 源端能连接到天翼云API Gateway(端口:443)。源端出网方向端口,建议全部开放。 2. 使用IPv6进行迁移时,要求源端支持IPv4/IPv6双栈网络。 3. 源端能连接到目的端。 1. 若使用弹性公网IP连接,目的端需要提前购买和配置正确的EIP。 2. 若使用专线或者VPN,需提前购买和配置正确的专线或VPN。 4. 目的端服务器所属安全组需要开放端口: 1. Windows系统需要开放TCP的8899端口、8900端口和22端口。 2. Linux系统文件级迁移开放22端口。 3. 以上端口,建议只对源端服务器开放。 4. 防火墙开放端口与操作系统开放端口保持一致。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        迁移前准备工作
      • 查询和索引统计收集器相关参数
        本页介绍天翼云TeleDB数据库查询和索引统计收集器相关参数。 这些参数控制服务器范围的统计数据收集特性。当统计收集被启用时,被产生的数据可以通过pgstat和pgstatio系统视图族访问。 trackactivities (boolean) 启用对每个会话的当前执行命令的信息收集,还有命令开始执行的时间。这个参数默认为打开。注意即使被启用,这些信息也不是对所有用户可见,只有超级用户和拥有报告信息的会话的用户可见,因此它不会表现为一个安全风险。只有超级用户可以更改这个设置。 trackactivityquerysize (integer) 声明保留的字节数,以跟踪每个活动会话的当前执行命令,对pgstatactivity.currentquery段。缺省值是1024。这个参数只能在服务器启动时设置。指定跟踪每个活动会话当前执行命令所保留的字节数,它们被用于pgstatactivity.query域。默认值是 1024。这个参数只能在服务器启动时被设置。 trackcounts (boolean) 启用在数据库活动上的统计收集。这个参数默认为打开,因为自动清理守护进程需要被收集的信息。只有超级用户可以更改这个设置。 trackiotiming (boolean) 启用对系统I/O 调用的计时。这个参数默认为关闭,因为它将重复地向操作系统查询当前时间,这会在某些平台上导致显著的负荷。你可以使用pgtesttiming工具来度量你的系统中计时的开销。I/O 计时信息被显示在pgstatdatabase中、当BUFFERS选项被使用时的EXPLAIN输出中以及pgstatstatements中。只有超级用户可以更改这个设置。 trackfunctions (enum) 启用跟踪函数调用计数和用时。指定pl只跟踪过程语言函数,指定all还会跟踪 SQL 和 C 语言函数。默认值是none,它禁用函数统计跟踪。只有超级用户可以更改这个设置。注意简单到足以被“内联”到调用查询中的 SQL 语言函数不会被跟踪,而不管这个设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        运行时统计数据相关参数
        查询和索引统计收集器相关参数
      • (可选)获取认证信息
        本章节主要介绍数据治理中心DataArts Studio如何获取认证信息。 DataArts Studio使用过程中,在数据集成创建OBS连接、API调用、使用问题定位时,您可能需要获取访问密钥、项目ID、终端节点等信息,获取方式如下。 获取访问密钥 您可以通过如下方式获取访问密钥。 1. 登录控制台,在用户名下拉列表中选择“我的凭证”。 2. 进入“我的凭证”页面,选择“访问密钥 > 新增访问密钥”,如图1所示。 图1 单击新增访问密钥 3. 单击“确定”,根据浏览器提示,保存密钥文件。密钥文件会直接保存到浏览器默认的下载文件夹中。打开名称为“credentials.csv”的文件,即可查看访问密钥(Access Key Id和Secret Access Key)。 说明 每个用户仅允许新增两个访问密钥。 为保证访问密钥的安全,访问密钥仅在初次生成时自动下载,后续不可再次通过管理控制台界面获取。请在生成后妥善保管。 获取项目ID和帐号ID 项目ID表示租户的资源,帐号ID对应当前帐号。用户可在对应页面下查看不同Region对应的项目ID和帐号ID。 1. 注册并登录管理控制台。 2. 在用户名的下拉列表中单击“我的凭证”。 3. 在“我的凭证”页面,查看帐号名和帐号ID,在项目列表中查看项目ID。 获取DataArts Studio实例ID和工作空间ID DataArts Studio的实例ID和工作空间ID可以从DataArts Studio控制台的URI链接中获取。 1. 在DataArts Studio控制台首页,选择对应工作空间,并点击任一模块,如“管理中心”。 2. 进入管理中心页面后,从浏览器地址栏中获取“instanceId”和“workspace”对应的值,即为DataArts Studio的实例ID和工作空间ID。 如下图所示,实例ID为 6b88 …2688 ,工作空间ID为 1dd3bc …d93f0 。 图2 获取实例ID和工作空间ID
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        准备工作
        (可选)获取认证信息
      • 调用API
        获取API的调用信息 在调用API前,您需要向API提供者获取API的调用信息。 获取API的请求信息 在API网关控制台选择“API管理 > API列表”,在“API列表”页签中可获取API的“域名”、“请求方法”和“请求路径”。单击API的名称进入“API运行”页面,在“前端配置”或“后端配置”区域获取API基本信息。 获取API的认证信息 根据API使用的安全认证方式不同,还要获取相关的请求认证信息: 认证方式 认证信息 APP认证(签名认证) 向API提供者获取该API所授权凭据的Key和Secret,以及认证签名所使用的SDK。 APP认证(简易认证) 向API提供者获取该API所授权凭据的AppCode。 APP认证(双重认证) 同时获取APP认证以及自定义认证所需的认证信息。 APP认证(appsecret认证) 向API提供者获取该API所授权凭据的Key和Secret。 APP认证(appbasic认证) 向API提供者获取该API所授权凭据的Key和Secret。 IAM认证(Token认证) 获取云服务平台的用户账号密码。 IAM认证(AK/SK认证) 获取云服务平台的用户账号的AK/SK,以及认证签名所使用的SDK。 IAM认证(双重认证) 同时获取IAM认证以及自定义认证所需的认证信息。 自定义认证 向API提供者获取请求参数中要携带的自定义认证信息。 无认证 无需认证信息。 第三方认证(API策略) 向API提供者获取请求参数中要携带的第三方认证信息。 − 获取凭据的Key和Secret: 在API网关控制台选择“API管理 > 凭据管理”,在凭据列表中单击API所授权凭据的名称,进入凭据详情页面,获取凭据的Key和Secret。 − 获取认证签名所使用SDK: 在API网关控制台选择“帮助中心”,在“SDK使用指引”页签中下载对应语言所使用SDK。 − 获取AppCode: 在API网关控制台选择“API管理 > 凭据管理”,在凭据列表中单击API所授权凭据的名称,进入凭据详情页面,在“AppCodes”区域中获取AppCode。
        来自:
        帮助文档
        API网关
        调用API网关
        调用已发布的API
        调用API
      • 视频直播有哪些访问控制策略
        本文介绍视频直播支持的访问控制策略。 天翼云视频直播支持如下访问控制策略: Referer防盗链和UA防盗链:根据HTTP请求头中的Referer字段或UserAgent字段对请求来源的域名及其他信息进行黑白名单控制,从而实现对用户身份的识别和过滤。Referer防盗链支持控制台自助操作,如需配置请参见:Referer防盗链。UA防盗链暂不支持自助操作,如需配置请提交工单。 IP黑白名单:通过设置黑白名单对来源IP进行相应限制。IP黑白名单支持控制台自助操作,如何配置请参见:IP黑白名单。 区域访问控制:通过允许或者拒绝指定区域的用户访问,实现访问控制。区域访问控制暂不支持自助操作,如需配置请提交工单。 时间戳防盗链:在主播推流或观众播放的URL中加上鉴权信息。主播请求直播推流或观众请求播放时,视频直播会对请求进行时效性判断,并对URL中携带的鉴权信息进行合法性判断,仅校验通过的请求予以响应,其它非法的访问将予以拒绝,从而有效地保护直播资源。更多详细信息请参见:URL鉴权。URL鉴权暂不支持自助操作,如需配置请提交工单。 远程鉴权:如果希望更安全的访问控制策略,您可通过远程鉴权实现。即由您自行搭建鉴权中心,视频直播将接收到的请求,转发到您搭建的鉴权中心进行鉴权,鉴权通过的才可以允许播放,不通过的则拒绝。更多详细信息请参见:远程鉴权。 HTTPS访问:您可以配置HTTPS证书,用户请求时通过HTTPS访问,从而使用户和直播节点之间使用HTTPS加密传输。HTTPS支持控制台自助操作,如何配置请参见:HTTPS配置。
        来自:
        帮助文档
        视频直播
        常见问题
        直播安全类
        视频直播有哪些访问控制策略
      • 操作类
        DRS界面信息重叠是什么原因 DRS界面出现信息重叠通常是页面缩放率过小导致的,建议将页面缩放率调整为100%即可显示正常。 MySQL源库设置了global binlogformat ROW没有立即生效 使用DRS进行MySQL的迁移时,必须确保源库的binlogformat是ROW格式的,否则就会导致任务失败甚至数据丢失。在源库设置了global级别的binlogformatROW之后,还需要中断之前所有的业务连接,因为设置之前的连接使用的还是非ROW格式的binlog写入。 安全设置global级binlogformatROW的步骤 步骤 1 通过MySQL官方客户端或者其它工具登录源数据库。 步骤 2 在源数据库上执行全局参数设置命令。 set global binlogformat ROW; 步骤 3 在源数据库上执行如下命令确认上面操作已执行成功。 select @@global.binlogformat; 步骤 4 您可以通过如下两种方式确保修改后的源库binlogformat格式立即生效。 方法一: 1. 选择一个非业务的时间段,中断当前数据库上的所有业务连接。 a. 通过如下命令查询当前数据库上的所有业务连接(所有的binlog Dump连接及当前连接除外)。 show processlist; b. 中断上面查出的所有业务连接。 说明 在上述操作未结束之前,请不要创建或者启动迁移任务,否则会导致数据不一致。 2. 为了避免源库binlogformat格式因为数据库重启失效,请在源库的启动配置文件(my.ini或my.cnf等)中添加或修改配置参数binlogformat并保存。 binlogformatROW 方法二: 3. 为了避免源库binlogformat格式因为数据库重启失效,请在源库的启动配置文件(my.ini或my.cnf等)中添加或修改配置参数binlogformat并保存。 binlogformatROW 4. 确保上述配置参数binlogformat添加或修改成功后,选择一个非业务时间段,重启源数据库即可。
        来自:
        帮助文档
        数据库复制
        常见问题
        操作类
      • 恢复Hive业务数据
        本章主要介绍翼MapReduce的恢复Hive业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对Hive进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对Hive进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复Hive任务并恢复数据。只支持创建任务手动恢复数据。 Hive备份恢复功能不支持识别用户的Hive表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的Hive数据。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动Hive的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 规划好恢复数据保存表的数据库,数据表在HDFS的保存位置,以及访问恢复数据的用户清单。 检查Hive备份文件保存路径。 停止Hive的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Hive业务数据
      • 操作步骤
        本文向您介绍通过企业版VPN实现云上云下网络互通(主备模式)的操作步骤。 前提条件 云侧 请确认虚拟私有云VPC已经创建完成。 请确认虚拟私有云VPC的安全组规则已经配置,ECS通信正常。 如果通过企业路由器ER关联VPN网关,请确认企业路由器ER已经创建完成。 数据中心侧 用户数据中心的VPN设备已经完成IPsec连接相关配置。 操作步骤 VPN服务支持静态路由模式、BGP路由模式和策略模式三种连接模式。本示例以静态路由模式进行配置讲解。 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 配置VPN网关: 1. 选择“虚拟专用网络 > 企业版VPN网关”,单击“创建VPN网关”。 2. 根据界面提示配置参数。 表VPN网关参数说明 参数 说明 取值参数 名称 VPN网关的名称。 vpngw001 网络类型 选择“公网”。 公网 关联模式 选择“虚拟私有云”。 关联ER场景时,请选择“企业路由器”。 虚拟私有云 企业路由器 仅关联场景为“企业路由器”时需要选择。 er001 虚拟私有云 选择用于分配互联子网的VPC。 关联场景为“企业路由器”时,该VPC可以对接ER,也可以不对接ER。 vpc001(192.168.0.0/16) 互联子网 用于VPN网关和VPC通信,请确保选择的互联子网存在4个及以上可分配的IP地址。 192.168.2.0/24 本端子网 仅关联场景为“虚拟私有云”时需要配置。 输入网段 输入需要和用户数据中心通信的子网,该子网可以在关联VPC内,也可以不在关联VPC内。 选择子网 选择关联VPC内的子网信息,用于和用户数据中心通信。 192.168.0.0/24,192.168.1.0/24 BGP ASN BGP自治系统编号。 64512 HA模式 选择“主备”。 主备 主EIP VPN网关和用户数据中心通信的公网IP1。 1.1.1.2 备EIP VPN网关和用户数据中心通信的公网IP2。 2.2.2.2 3. 配置对端网关: 1. 选择“虚拟专用网络 > 企业版对端网关”,单击“创建对端网关”。 2. 根据界面提示配置参数。
        来自:
        帮助文档
        VPN连接
        最佳实践
        通过企业版VPN实现云上云下网络互通(主备模式)
        操作步骤
      • 操作系统类
        本章节主要介绍物理机的操作系统类的问题。 物理机操作系统是否有图形界面? 当前提供的Linux操作系统是命令行界面,用户如果需要可以自己设置图形管理。或者订制专属物理机镜像。 物理机操作系统自带上传工具吗? 物理机操作系统没有自带的上传工具,需要用户自行安装和配置,例如FTP。 如何设置物理机的静态主机名? 问题描述 Linux物理机的静态主机名来源于创建物理机时,通过控制台注入的用户自定义名称。可以使用控制台或hostname命令更改物理机的主机名,但如果重启物理机,将自动还原为控制台上注入的用户自定义名称。 使用hostname命令修改Linux物理机的主机名后,如果您希望修改后的主机名在物理机关机、重启后仍然生效,需要将其写入相应的配置文件中,使之永久生效。 假设使用hostname 命令修改后的主机名为 newhostname 。 步骤 1 修改配置文件“/etc/hostname”。 1.执行以下命令,编辑配置文件“/etc/hostname”。 sudo vim /etc/hostname 2.将配置文件中的主机名替换为修改后的主机名newhostname。 3.执行以下命令,保存并退出文件。 :wq 步骤 2 对于RHEL/CentOS/Fedora 6操作系统,需要修改配置文件“/etc/sysconfig/network”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network”。 sudo vim /etc/sysconfig/network 2.修改涉及“HOSTNAME”的参数值,将其设置为修改后的主机名newhostname。 HOSTNAMEnewhostname 3.执行以下命令,保存并退出文件。 :wq 步骤 3 修改配置文件“/etc/cloud/cloud.cfg”。 1.执行以下命令,编辑配置文件“/etc/cloud/cloud.cfg”。 sudo vim /etc/cloud/cloud.cfg 2.按需选择如下两种方法,修改配置文件。 方法一 :修改或添加“preservehostname”参数项。 如果文件“/etc/cloud/cloud.cfg”中已有参数项“preservehostname: false”,将其修改为“preservehostname: true”即可。 如果文件“/etc/cloud/cloud.cfg”中没有该参数项,需要在“cloudinitmodules”模块前,添加语句preservehostname: true。 方法二 :删除或者注释如下语句。 updatehostname 3.执行以下命令,保存并退出文件。 :wq 步骤 4 修改物理机网络配置脚本“bmsnetworkconfig.conf”。 “bmsnetworkconfig.conf”的配置参数“enablepreservehostname”默认为False,表示每次单板复位自动刷新主机名。将其修改为True即可关闭该功能。 1.编辑网络配置脚本“bmsnetworkconfig.conf”,将参数项“enablepreservehostname”设置为True。 首先进入配置文件目录: cd /opt/huaw/networkconfig sed i 's/enablepreservehostname./enablepreservehostname True/g' bmsnetworkconfig.conf 步骤 5 对于SUSE系列操作系统,还需要修改配置文件“/etc/sysconfig/network/dhcp”。 1.执行以下命令,编辑配置文件“/etc/sysconfig/network/dhcp”。 sudo vim /etc/sysconfig/network/dhcp 2.将参数项“DHCLIENTSETHOSTNAME”设置为no,保证每次dhcp服务不会自动分配主机名。 DHCLIENTSETHOSTNAME"no" 3.执行以下命令,保存并退出文件。 :wq 步骤 6 执行以下命令,重启物理机。 sudo reboot 步骤 7 执行以下命令,验证静态主机名的修改是否永久生效。 sudo hostname 如果回显的内容是修改后的主机名newhostname,表示主机名修改成功,永久生效。
        来自:
        帮助文档
        物理机 DPS
        常见问题
        操作系统类
      • 磁盘增强型D6
        本节包含磁盘增强型弹性云主机D6的概述、使用须知、使用场景等内容。 概述 D6搭载第二代英特尔® 至强® 可扩展处理器,计算性能强劲稳定,提供1:4的vCPU和内存比实例。配套自研25GE智能高速网卡,提供超高网络带宽和PPS收发包能力;配套有本地SATA盘,单盘提升到3600GiB,最大支持36 × 3600GiB本地盘容量。 使用须知 1.当前支持如下版本的操作系统(最终以控制台展示的信息为准): CentOS 6.3/6.4/6.5/6.6/6.7/6.8/6.9/6.10/7.0/7.1/7.2/7.3/7.4/7.5/7.6/8.0 64bit SUSE Enterprise Linux Server 11 SP3/SP4 64bit SUSE Enterprise Linux Server 12 SP1/SP2/SP3/SP4 64bit Red Hat Enterprise Linux 6.4/6.5/6.6/6.7/6.8/6.9/6.10/7.0/7.1/7.2/7.3/7.4/7.5/7.6/8.0 64bit Windows Server 2008 R2 Enterprise 64bit Windows Server 2012 R2 Standard 64bit Windows Server 2016 Standard 64bit Debian 8.1.0/8.2.0/8.4.0/8.5.0/8.6.0/8.7.0/8.8.0/9.0.0 64bit EulerOS 2.2/2.3/2.5/2.9 64bit Fedora 22/23/24/25/26/27/28 64bit OpenSUSE 13.2/15.0/15.1/42.2/42.3 64bit 2.D6型弹性云主机所在的物理机发生故障时,不支持弹性云主机的迁移。部分宿主机硬件故障或亚健康场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。 3.不支持规格变更。 4.不支持本地盘的快照和备份。 5.可使用本地盘和云硬盘两类磁盘存储数据,通过挂载云硬盘,可以提供更大的存储空间。关于本地盘和云硬盘的使用,有如下约束与限制: 系统盘只能部署在云硬盘上,不可以部署在本地盘上。 数据盘可以部署在云硬盘和本地盘上。 最多可以挂载60块盘(包括VBD盘+SCSI盘+本地盘),其中,SCSI盘最多只能挂载30块,VBD盘最多只能挂载24块(含系统盘),详情请参见一台弹性云主机可以挂载多块磁盘吗。 说明 对于已创建的D6型云主机,最多可以挂载的磁盘数保持原配额。 6.您可以通过配置fstab文件,设置云主机系统启动时自动挂载磁盘分区。具体操作请参见设置开机自动挂载磁盘分区。 7.D6型弹性云主机的本地磁盘数据有丢失的风险(比如宿主机宕机或本地磁盘损坏时),如果您的应用不能做到数据可靠性的架构,我们强烈建议您使用云盘搭建您的弹性云主机。 8.删除D6型弹性云主机时,本地盘中的数据会被自动清除,请提前做好数据备份。删除本地盘数据的时间较长,因此,资源释放的时间较之常规云主机略长。 9.请勿在本地磁盘上存储需要长期保存的业务数据,并及时做好数据备份和采用高可用架构。如需长期保存,建议将数据存储在云硬盘上。 10.您不能单独购买本地盘,本地盘的数量和容量由您选择的弹性云主机规格决定,只能在创建D6型弹性云主机的同时购买本地盘。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        磁盘增强型
        磁盘增强型D6
      • 使用软件开发生产线快速搭建项目(CCE篇)(1)
        部署镜像 通过在部署服务中创建应用,将镜像部署自动化。 步骤 1 返回软件开发生产线页面,单击导航栏“持续交付 > 部署”,进入部署服务。 1. 单击“新建应用”,输入应用名称(本文中为“webdemok8s”),单击“下一步”。 步骤 2 选择“空白模板”,单击“确定”。 步骤 3 在步骤列表中搜索并添加步骤“Kubernetes快速部署(CCE集群)”,参考下表完成步骤配置。 表 配置部署步骤 配置项 配置建议 区域 选择集群所在的区域。 集群名称 选择准备工作中购买的集群名称。 命名空间名称 本文中选择“default”。 工作负载名称 选择“webdemo”。 容器名称 选择创建负载时,容器配置部分的容器名称。 步骤 4 单击“保存并部署”。 当页面显示时,表示测试通过。若部署失败,请参照《部署用户指南》排查。 配置流水线实现自动化更新镜像部署 通过配置流水线,将代码仓库、构建、部署串联起来,当代码仓库中发生代码提交动作时,可以自动触发流水线的执行,实现持续交付。 步骤 1 单击导航栏“持续交付 > 流水线”,进入流水线服务。 步骤 2 单击“新建流水线”,配置流水线信息。 1. 选择流水线源:配置以下信息,单击“下一步”。 表 流水线基本信息 配置项 配置建议 流水线源 选择“Repo”。 代码库名称 选择“phoenixsample”。 默认分支 选择“master”。 2. 选择模板:选择“空白模板”,单击“确定”。 步骤 3 选择“基本信息”页签,输入流水线名称“pipelinewebdemo”。 步骤 4 选择“工作流”页签,配置工作流。 1. 单击“构建和检查”阶段中的的“添加任务”。在右侧滑出框中配置构建任务,单击“保存”。 表 构建任务配置 配置项 配置建议 类型 选择“构建”。 名称 输入自定义名称。 请选择需要调用的任务 选择“WebDemodocker”。 仓库 选择“WebDemo”。 2. 单击“构建和检查”阶段后的,添加一个阶段。 图 添加阶段 3. 单击新增阶段名称后的,在右侧滑出框中输入名称“部署”,单击“保存”。 4. 参照步骤4.1,在部署阶段中添加应用“webdemok8s”,关联构建任务选择“WebDemodocker”。 步骤 5 选择“执行计划”页签,单击“持续集成”下的仓库名称,打开“代码提交时触发”开关,在分支过滤下拉列表中勾选分支“master”,单击“保存”。 步骤 6 进入代码仓库,搜索并打开文件“TestController.java”。 单击,将“hello world”修改为“hello world again”,输入提交信息后单击“确定”。 图 修改代码 步骤 7 返回流水线页面,可看到流水线正在运行中。 当页面显示时,重新访问页面“ 若任务执行失败,请于执行失败处检查失败原因,或参照《流水线常见问题》排查处理。 图 流水线执行结果
        来自:
      • DRDS
        慢日志存储 开启DAS收集慢日志开关后,DAS会将SQL的文本内容存储到OBS中,以便进行分析。 删除慢日志 在慢SQL页面,您可以选择全部删除或者自定义删除指定时间段的慢日志信息。 说明 慢日志删除后无法恢复,请谨慎操作。 全量SQL洞察 在实例开启DAS收集全量SQL的前提下,该模块基于全量SQL数据进行分析,并提供多维度的分析、搜索、过滤的能力,帮助用户全面洞察SQL,TOP SQL快速定位异常原因,保障数据库稳定运行。 全量SQL洞察功能在对实例性能影响极小(5%以内)的情况下,记录了全量SQL,提供了访问最频繁、更新最频繁的表,锁等待时间最长的SQL等多维度的分析、搜索、过滤能力。 使用须知 关闭DAS收集全量SQL后,DAS将不再采集您新产生的SQL,已经收集的SQL也会被删除,请您谨慎操作。 TOP SQL执行耗时分布 1、登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 选择目标实例,单击“详情”,进入DBA智能运维总览页面。 单击“全量SQL洞察”,进入全量SQL洞察页面。 单击“开启DAS收集全量SQL”,可获取当前实例所执行过的SQL信息。 说明 DAS收集全量SQL功能开启后立即生效。 在“TOP SQL”页签中,查看TOP SQL执行耗时分布情况。 您可以根据需要设置时间段,选择“近1小时”、“近3小时”、“近6小时”,查看当前时间段内的TOP SQL执行耗时分布。也可以选择上述以外时间段进行查看,间隔不得超过一天。 执行耗时分布展示了选定时间范围内所有SQL的执行耗时分布,共分为以下4个区间。 l 1s:执行耗时>1s的SQL执行次数 上述4个区间内的SQL执行次数是根据用户选择的时间段来计算的。 如果用户选择1小时以内(包括1小时)的时间段,执行耗时分布每10秒计算一次。 如果用户选择6小时以内(包括6小时)的时间段,执行耗时分布1分钟计算一次。 如果用户选择大于6小时的时间段,执行耗时分布每5分钟计算一次。 查看TOP SQL列表,获取执行耗时信息。例如平均执行耗时、总耗时、 平均锁等待耗时、平均扫描行数等。 单击执行耗时分布图上的某个点,查看该时间点的TOP SQL列表。 在执行耗时分布图上用鼠标选择一段时间,查看该段时间的Top SQL列表。 单击“导出”可导出当前列表里显示的TOP SQL信息。此功能仅限付费实例使用,免费实例暂不支持导出功能。 单击操作栏的“详情”按钮,可以查看该执行SQL的详细执行信息。例如总执行次数、平均扫描行数、平均执行耗时等信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        DRDS
      • 登录数据库实例
        本节介绍了登录数据库实例的相关内容。 本文介绍如何在数据管理服务中登录数据库。 数据库实例创建成功后,数据管理服务会自动创建一条管理员账号的实例登录信息,输入密码即可登录数据库实例。 如果您想使用其他非管理员账号登录该数据库实例,您需要先新建一条数据库实例登录信息。具体操作请参见新增数据库实例登录信息。 使用须知 支持的数据库实例为:RDS for MySQL、RDS for PostgreSQL、RDS for SQL Server、DDS、TaurusDB、GaussDB、DRDS。 创建的数据库实例需要和数据管理服务在同一个Region下。 支持通过ipv6地址连接和管理数据库实例。 登录数据库实例 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 单击页面左上角的 ,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 选择需要登录的数据库实例,单击操作列表中的“登录”。 首次登录时需要输入密码,如果首次登录时勾选了记住密码,后续登录不需要重复输入密码。 结束 新增数据库实例登录信息 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 单击页面左上角的 ,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 在“由我创建的数据库实例连接”页面,单击“新增数据库实例连接”,打开新增数据库登录窗口。 步骤 6 设置数据库实例连接信息。 表 参数说明 参数名称 说明 示例 数据库引擎 选择需要新增登录信息的数据库引擎。 MySQL 数据来源 数据来源取决于您所选的数据库引擎类型。 当您选择数据来源后,页面会自动显示该账号下的所有当前类型下的实例,您可以在数据库实例列表中选择需要新增登录信息的实例。 目前支持如下数据来源。 RDS DDS DRDS RDS 登录用户名 登录数据库的用户名。 该用户需要具有允许DAS的IP连接数据库的权限。 root 密码 登录数据库的用户密码。 您可以勾选记住密码,后续登录时不用重复输入密码。 描述 非必填项。 SQL执行记录 开启SQL执行记录后,允许DAS将您在SQL窗口中执行的SQL语句保存下来。 建议您开启SQL执行记录,开启后,便于在“SQL操作 > SQL执行记录”中查看,并可再次执行,无需重复输入。 开启 步骤 7 数据库实例信息设置完成后,单击密码右侧的“测试连接”。  如果测试连接成功,继续进行步骤8。  如果测试连接失败,将提示连接失败原因,您需要根据提示信息修改,修改完成后,继续进行步骤8。 步骤 8 测试连接成功后,单击“确定”。 步骤 9 在“由我创建的数据库实例连接”页面可以查看新建数据库实例连接信息。 您还可以单击操作列的“修改”来修改实例登录信息,或者单击“删除”来删除不需要的实例登录信息。 结束
        来自:
        帮助文档
        数据管理服务
        用户指南
        登录数据库实例
        登录数据库实例
      • 负载均衡(LoadBalancer)
        ELB转发说明 LoadBalancer类型Service创建完后,可以在ELB控制台查看ELB实例的监听器转发规则,如下所示。 图 ELB转发说明 可以看到这个ELB实例创建了一个监听器,其后端服务器地址是Pod的IP地址,业务端口是容器端口。这是因为Pod使用了ENI或SubENI,ELB会直通Pod,当有流量通过ELB请求时,会直接转发给Pod,从而访问到Pod,这跟操作场景中所述是一致的。 ELB直通容器场景(CCE Turbo + 独享型ELB实例)下,LoadBalancer类型Service创建完后,可以在ELB控制台查看ELB实例的监听器转发规则,如下所示。 图 ELB转发说明 Service使用HTTP 说明 Service使用HTTP仅v1.19.16及以上版本集群支持。 CCE控制台当前仅支持自动创建4层独享型ELB实例,此种情况下无法使用HTTP能力,在控制台创建Service使用HTTP时请选择对接已有独享型ELB实例。 请勿将Ingress与使用HTTP的Service对接同一个ELB下的同一个监听器,否则将产生端口冲突。 Service支持使用ELB的7层能力,共享型和独享型ELB都支持对接。 独享型ELB实例有如下限制: 对接已有的独享型ELB实例,需要 独享型ELB实例同时支持4层和7层的flavor ,否则会功能不可用。 使用自动创建的ELB实例,注意 同时使用独享型ELB实例的4层和7层能力 ,需要在kubernetes.io/elb.autocreate的annotation中指定4层和7层flavor。 使用ELB的7层能力时,需要添加如下annotation kubernetes.io/elb.protocolport : "https:443,http:80" protocolport的取值需要和service的spec.ports字段中的端口对应,格式为protocol:port,port中的端口会匹配service.spec.ports中端口,并将该端口发布成对应的protocol协议。 kubernetes.io/elb.certid : "17e3b4f4bc40471c86741dc3aa211379" certid内容为ELB证书管理的证书ID,当protocolport指定了https协议,ELB监听器的证书会设置为certid证书,当发布多个HTTPS的服务,会使用同一份证书。 配置示例如下,其中spec.ports中两个端口与kubernetes.io/elb.protocolport中对应,443端口、80端口分别发布成HTTPS、HTTP协议。 apiVersion: v1 kind: Service metadata: annotations: kubernetes.io/elb.autocreate: ' { "type": "public", "bandwidthname": "ccebandwidth1634816602057", "bandwidthchargemode": "bandwidth", "bandwidthsize": 5, "bandwidthsharetype": "PER", "eiptype": "5bgp", "availablezone": [ "cnnorth4b" ], "l7flavorname": "L7flavor.elb.s2.small", "l4flavorname": "L4flavor.elb.s1.medium" }' kubernetes.io/elb.class: performance kubernetes.io/elb.protocolport: "https:443,http:80" kubernetes.io/elb.certid: "17e3b4f4bc40471c86741dc3aa211379" labels: app: nginx name: test name: test namespace: default spec: ports: name: cceservice0 port: 443 protocol: TCP targetPort: 80 name: cceservice1 port: 80 protocol: TCP targetPort: 80 selector: app: nginx version: v1 sessionAffinity: None type: LoadBalancer 使用上面的示例创建Service,在新建的ELB实例中可以看到创建了443端口和80端口的监听器。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Service
        负载均衡(LoadBalancer)
      • 日志存储
        本章节为媒体存储日志存储概述。 使用场景 媒体存储日志存储功能支持自动把桶的各类访问请求记录日志,并存储到某一存储桶中,适合对请求有分析或审计等需求的用户使用。 日志文件存放位置需要在开启桶日志存储功能时指定,仅支持在源存储桶所属区域中选择存储桶,也包括开启日志功能的桶本身。 日志记录设置成功后,大约5~10分钟后可在日志存储桶中查看到桶的操作日志。 为了更有效的管理日志,建议您将日志存放到不同的桶中。 日志文件记录的是通过API或SDK方式进行的S3协议操作。 生成的日志文件会保存在指定的存储桶,占用存储空间,因此会产生存储费用。如需定时清理,可通过生命周期相关配置实现,具体可参考:生命周期。 日志文件生成规则: 日志文件存储路径:日志存储位置 /日志文件前缀(如无设置则省略)/YYYY MM DD HHmmssUniqueStiring 。 生成周期:启用规则后开始生成,并且以5分钟为单位保存至日志存储位置中。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 日志文件参数 以下所示为生成的桶访问日志文件记录: gdoss.xstore.ctyun.cn [$serveraddr] [$remoteaddr] [$timelocal] "$requestmethod" "$host" "$requesturi" $status $bodybytessent $contentlength "$httpreferer" $requesttime "$httpuseragent" "$httpxforwardedfor" "$scheme" "$opname" "$httptransferencoding" "$httpctyunnetworktype" "$varUser" "$upstreamresponsetime" 访问日志主要包含如下信息: 参数 说明 gdoss.xstore.ctyun.cn 资源池域名,用来标记资源池。 $serveraddr 当前服务器地址,一般是内网IP。 $remoteaddr 连接的对端服务器地址。 $timelocal 日志时间。 $requestmethod HTTP Method,如PUT、GET、DELETE、POST、HEAD等。 $host HTTP请求里面的header字段:host。 $requesturi HTTP请求里面的URI。 $status HTTP状态码。如200、204、206、403、404等。 $bodybytessent 服务端发送给客户端的消息body长度。 $contentlength 服务端收到的消息的请求的长度。 $httpreferer HTTP请求里面的referer字段。 $requesttime 请求持续时间。包含从服务端建立连接完成到完成响应这段时间。 $httpuseragent HTTP请求里面的useragent字段。 $httpxforwardedfor HTTP请求里面的xforwardedfor字段。 $scheme 区分HTTP还是HTTPS请求。 $opname API接口名称。如GetObject、ListBuckets等等。 $httptransferencoding HTTP请求里面的transferencoding。 $httpctyunnetworktype 表示请求来源的网络类型:public(公网)、private(内网)。 $varUser 用户标记,表示这个请求对应的用户。 $upstreamresponsetime 请求在资源池内部的处理时间。 日志文件内容根据开通的区域不同,格式会有一定出入,请以实际为准。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据监控
        日志存储
      • 转储至OBS
        参数名称 说明 样例 字段是否可删除 日志组名称 选择已创建的日志组。 是 日志流名称 选择已创建的日志流。 是 转储方式 选择转储的云服务。 OBS 是 OBS桶 选择已创建的OBS桶。− 如果没有可选择的OBS桶,单击“查看OBS”,进入对象存储服务管理控制台,创建OBS桶。− 如果OBS桶为加密桶,则需要选择“密钥名称”,并勾选下方的“我同意在KMS创建授权给LTS账号,对转储日志加解密”。LTS目前仅支持存储类别为“标准存储”的OBS桶。 是 密钥名称 对于加密的OBS桶,选择密钥名称。如果没有可选择的密钥,单击“创建密钥并授权”,进入数据加密控制台,创建密钥。 是 自定义转储路径 开启:将日志转储至自定义路径中,用于区分不同日志流之间的转储日志文件。格式为:/LogTanks/RegionName/ 自定义转储路径 。自定义转储路径默认为lts/%Y/%m/%d,其中%Y代表年,%m代表月,%d代表日,格式需要符合如下规范:− “/LogTanks/RegionName”为系统默认路径,不可以修改。− 名称只能由英文字母、数字及特殊字符“&”“$”“@”“;”“:”“,”“”“+”“?”“”“.”“”“/”和“%”组成,且“%”后只可跟Y(年)、m(月)、d(日)、H(时)、M(分),在%Y、%m、%d、%H和%M前后可以添加任意长度字符,并且可对其先后顺序进行调换。− 自定义转储路径名称不允许为空,长度限制为1~128个字符。 示例: 1. 输入LTStest/%Y/%m/%done/%H/%m,则日志转储路径为:LogTanks/RegionName/LTStest/Y/m/done/H/m/ 日志文件名称。 2. 输入LTStest/%d/%H/%m/%Y,则日志转储路径为: LogTanks/RegionName/LTStest/d/H/m/Y/ 日志文件名称。 不开启:将日志转储至系统默认路径中。系统默认路径为:LogTanks/RegionName/ 2019/01/01/日志组/日志流/ 日志文件名称 。 LTStest/%Y/%m/%done/%H/%m 否 日志文件前缀 转储至OBS桶中的日志文件前缀。日志文件前缀需符合如下规范:l 名称长度限制为0~64个字符。 名称只能由英文大小写字母、数字、中划线“”、下划线“”和小数点“.”组成。 示例:输入LTSlog,则日志文件名称为:LTSlog日志文件名称。 LTSlog 否 转储格式 用于配置日志的转储格式,可选择“原始日志格式”和“Json格式”。原始日志格式示例:云日志服务控制台展示的日志内容的格式为原始日志格式。Sep 30 07:30:01 ecsbd70 CRON[3459]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1) JSON格式示例:{"hostname":"ecsbd70","ip":"192.168.0.54","lineno":249,"message":"Sep 30 14:40:01 ecsbd70 CRON[4363]: (root) CMD (/opt/oss/servicemgr/ICAgent/bin/manual/mstart.sh > /dev/null 2>&1)n","path":"/var/log/syslog","time":1569825602303} Json 否 是否开启转储 选择开启转储到OBS。 开启 否 转储周期 日志自动转储至OBS桶的时间间隔,支持2分钟、5分钟、30分钟、1小时、3小时、6小时、12小时。 3小时 否 文件名时区 日志自动转储至OBS桶时,按照UTC时间生成转储目录及文件名称。 (UTC)协调世界时间 否 GAUSSDBREDIS慢日志 根据GAUSSDBREDIS资料中提供的日志字段被定义。 否 否 自定义模板 用户自定义。 是 是
        来自:
        帮助文档
        云日志服务
        用户指南
        日志转储
        转储至OBS
      • 管理单个作业
        本章节主要介绍管理单个作业。 已存在的CDM作业支持查看、修改、删除、启动、停止等操作,这里主要介绍作业的查看和修改。 查看 查看作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。 查看历史记录 查看作业的历史执行记录、读取和写入的统计数据,在历史记录界面还可查看作业执行的日志信息。 查看作业日志 在历史记录界面可查看作业所有的日志。 也可以在作业列表界面,选择“更多 > 日志”来查看该作业最近的一次日志。 查看作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置 源目的统计查询 可对已经配置好的数据库类作业打开预览窗口,预览最多1000条数据内容。可对比源和目的端的数据,也可以通过对比记录数来看迁移结果是否成功、数据是否丢失。 查看历史作业 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 修改 修改作业参数 可重新配置作业参数,但是不能重新选择源连接和目的连接。 编辑作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.单击“历史作业”可以查看最近1个月所有执行过的历史作业。 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 3.单击“表/文件迁移”显示作业列表,可对单个作业执行如下操作: 修改作业参数:单击作业操作列的“编辑”可修改作业参数。 运行作业:单击作业操作列的“运行”可手动启动作业。 查看历史记录:单击作业操作列的“历史记录”进入历史记录界面,可查看该作业的历史执行记录、读取和写入的统计数据。在历史记录界面单击“日志”,可查看作业执行的日志信息。 删除作业:选择作业操作列的“更多 > 删除”可删除作业。 停止作业:选择作业操作列的“更多 > 停止”可停止作业。 查看作业JSON:选择作业操作列的“更多>查看作业JSON”,可查看该作业的JSON定义。 l编辑作业JSON:选择作业操作列的“更多>编辑作业JSON”,可直接编辑该作业的JSON文件,作用等同于修改作业的参数配置。 配置定时任务:选择作业操作列的“更多 > 配置定时任务”,可选择在有效期内周期性启动作业,具体请参考 配置定时任务。 4.修改完成后单击“保存”或“保存并运行”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        管理单个作业
      • MySQL数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到OBS的任务。 详见下图: 创建MySQL到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MySQL连接中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移数据表到文件时,文件格式选择“CSV格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到文件的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持并发抽取MySQL数据,如果源表配置了索引,可调大抽取并发数提升迁移速率。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。针对文件到表类迁移的数据,建议配置写入脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到OBS
      • 通过Flink作业处理OBS数据
        准备测试数据 在创建Flink作业进行数据分析前,我们需要在提前准备待分析的测试数据,并将该数据上传至OBS文件系统中。 1. 本地创建一个“mrsflinktest.txt”文件,例如文件内容如下: This is a test demo for MRS Flink. Flink is a unified computing framework that supports both batch processing and stream processing. It provides a stream data processing engine that supports data distribution and parallel computing. 2. 在云服务列表中选择“存储 > 对象存储服务”,登录OBS管理控制台。 3. 单击“并行文件系统”,创建一个并行文件系统,并上传测试数据文件。 详见下图:创建并行文件系统 例如创建的文件系统名称为“mrsdemodata”,单击系统名称,在“文件”页面中,新建一个文件夹“flink”,上传测试数据至该目录中。 则本示例的测试数据完整路径为“obs://mrsdemodata/flink/mrsflinktest.txt”。 详见下图:上传测试数据 4. (可选)上传数据分析应用程序。 使用管理台界面直接提交作业时,将已开发好的Flink应用程序jar文件也可以上传至OBS文件系统中,或者MRS集群内的HDFS文件系统中。 本示例中我们使用MRS集群内置的Flink WordCount样例程序,可从MRS集群的客户端安装目录中获取,即“/opt/client/Flink/flink/examples/batch/WordCount.jar”。 将“WordCount.jar”上传至“mrsdemodata/program”目录下。 创建并运行Flink作业 方式 1 :在控制台界面在线提交作业。 1. 登录MRS管理控制台,单击MRS集群名称,进入集群详情页面。 2. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“单击同步”进行IAM用户同步。 3. 单击“作业管理”,进入“作业管理”页签。 4. 单击“添加”,添加一个Flink作业。 作业类型:Flink 作业名称:自定义,例如flinkobstest。 执行程序路径:本示例使用Flink客户端的WordCount程序为例。 运行程序参数:使用默认值。 执行程序参数:设置应用程序的输入参数,“input”为待分析的测试数据,“output”为结果输出文件。 例如本示例中,我们设置为“input obs://mrsdemodata/flink/mrsflinktest.txt output obs://mrsdemodata/flink/output”。 服务配置参数:使用默认值即可,如需手动配置作业相关参数,可参考运行Flink作业。 5. 确认作业配置信息后,单击“确定”,完成作业的新增,并等待运行完成。 方式 2 :通过集群客户端提交作业。 1. 使用root用户登录集群客户端节点,进入客户端安装目录。 su omm cd /opt/client source bigdataenv 2. 执行以下命令验证集群是否可以访问OBS。 hdfs dfs ls obs://mrsdemodata/flink 3. 提交Flink作业,指定源文件数据进行消费。 flink run m yarncluster /opt/client/Flink/flink/examples/batch/WordCount.jar input obs://mrsdemodata/flink/mrsflinktest.txt output obs://mrsdemo/data/flink/output2 ... Cluster started: Yarn cluster with application id application16546723745620011 Job has been submitted with JobID a89b561de5d0298cb2ba01fbc30338bc Program execution finished Job with JobID a89b561de5d0298cb2ba01fbc30338bc has finished. Job Runtime: 1200 ms
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        数据分析
        通过Flink作业处理OBS数据
      • 数据防护
        本文介绍了数据防护相关说明。 RDSPostgreSQL通过多种数据安全手段和特性,保障存储在数据库实例中的数据安全可靠。详见下表。 表1 RDSPostgreSQL的数据安全手段和特性 数据安全手段 简要说明 详细介绍 ::: 跨可用区部署 支持选择多可用区部署实例主节点和备节点,以提供更高的可靠性,可用区之间内网互通,不同可用区之间物理隔离,创建时会根据用户要求将主节点和备节点部署到不同的可用区,以提供故障切换能力和高可用性。 购买实例选择跨可用区部署(支持区域见功能加载说明)。 删除保护 支持将退订后的包年包月实例和按需实例,进行保留。用户可通过工单的方式或者回收站重建实例,可以恢复1~15天内删除的实例。 关系数据库PostgreSQL版用户指南实例生命周期管理退订实例。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        安全
        数据防护
      • 续订
        本文介绍容器安全卫士续订规则及续订步骤。 续订说明 订单到期后,若没有续订,将不能继续使用订单中的服务,建议您提前进行续订。更多详情请阅读天翼云续订规则说明。 手动续订 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“订单中心”,进入订单信息页面。 3. 单击“立即续订”,进入续订容器安全卫士页面。 4. 选择购买时长,支持1个月~5年。 5. 阅读《天翼云容器安全卫士服务协议》后,勾选“我已阅读理解并同意《天翼云容器安全卫士服务协议》”,单击“立即购买”。 6. 进入付款页面,完成付款。 自动续订 方法一:在购买容器安全卫士时,同步开启“自动续订”。详细操作请参见购买容器安全卫士。 方法二:若购买容器安全卫士时未开启“自动续订”,用户也可在购买后,通过天翼云“费用中心 > 订单管理 > 续订管理”页面,开通自动续订。详细操作请参见[开通自动续订](
        来自:
        帮助文档
        容器安全卫士
        计费说明
        续订
      • 功能类
        download 图 Npcap not found 数据库安全审计支持双向审计吗? 数据库安全审计支持双向审计。双向审计是对数据库的请求和响应都进行审计。 数据库安全审计默认使用双向审计。 数据库安全审计支持TLS连接的应用吗? 不支持。TLS(Transport Layer Security)连接的应用是加密的,无法使用数据库安全审计功能。 数据库安全审计的审计数据可以保存多久? 数据库安全审计支持将在线和归档的审计数据至少保存180天的功能。 您可以在数据库安全审计的“总览”界面,通过选择数据库和审计周期,查看对应时间段的审计数据。 数据库实例通过数据库 IP+ 数据库端口计量。 如果同一数据库IP具有多个数据库端口,数据库实例数为数据库端口数。1个数据库IP只有1个数据库端口,即为一个数据库实例;1个数据库IP具有N个数据库端口,即为N个数据库实例。 例如:用户有2个数据库资产分别为IP1和IP2 ,IP1有一个数据库端口,则为1个数据库实例;IP2有3个数据库端口,则为3个数据库实例。IP1和IP2合计为4个数据库实例,选择服务版本规格时需要大于或等于4个数据库实例,即选用专业版(最多支持审计6个数据库实例)。 不支持修改规格。若要修改,请退订后重购。 本表中在线SQL语句的条数,是按照每条SQL语句的容量为1KB来计算的。 数据库安全审计发生异常,多长时间用户可以收到告警通知? 在数据库安全审计正常运行的情况下,从系统发生异常到收到告警通知最大时延不超过5分钟。 当您设置告警通知后,在数据库安全审计正常运行的情况下,当数据库安全审计实例资源(CPU、内存和磁盘)超过设置的告警阈值时,系统产生告警通知。用户约在5分钟内可以收到告警通知。
        来自:
        帮助文档
        数据库安全
        常见问题
        功能类
      • 1
      • ...
      • 244
      • 245
      • 246
      • 247
      • 248
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      知识库问答

      人脸活体检测

      人脸比对

      推荐文档

      查询日志

      源端安装客户端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号