云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      域名(售罄)_相关内容
      • 使用SpringBoot构建FunctionGraph HTTP函数
        本章节主要指导使用Springboot开发应用的用户,部署业务到FunctionGraph。用户通常可以使用SpringInitializr或者IntelliJ IDEA新建等多种方式构建SpringBoot,本章节以Spring.io 的 操作流程 将既有项目部署到FunctionGraph通常只需要:修改项目监听端口号为8000,然后在jar包同目录创建bootstrap文件写入执行jar包的命令。本案例使用IntelliJIDEA,Maven项目。 构建代码包 1. 打开Springboot项目,在maven插件处单击package,生成jar包。 图 生成jar包 2. 配置工程web端口。HTTP函数当前支持8000端口,需配置工程web端口为 8000 (此端口请勿修改) ,可以使用application.properties文件来配置,也可以在启动时指定端口号。 图 配置8000端口 3. 在jar包同目录创建bootstrap文件,输入启动参数:/opt/function/runtime/java11/rtsp/jre/bin/javajar Dfile.encodingutf8/opt/function/code/restservicecomplete0.0.1SNAPSHOT.jar 图 输入启动参数 4. 选中jar包和bootstrap文件,打包成zip包。 创建HTTP函数并上传代码 创建1个HTTP函数,并上传已打包的zip包。请参见用户指南的“创建HTTP函数”章节。 验证结果 1. 使用函数测试事件验证 1. 在函数详情页,选择函数版本,单击“配置测试事件”,弹出“配置测试事件”页。 2. 选择事件模板,修改测试事件中的path、pathParameters参数,构建一个简单的Get请求。 3. 单击“创建”,完成测试事件创建。 4. 单击“测试”,获取响应。 2. 配置APIG(专享版)触发器测试 1. 请参见 用户指南的“使用APIG(专享版)触发器”章节,创建APIG(专享版)触发器,“安全认证”建议选择“None”,方便调试。 2. 复制生成的调用URL在浏览器进行访问。在URL后添加请求参数greeting?namefguser。默认生成的APIG(专享版)触发器的调用URL为“域名/函数名”,在本案例中即: 如果用户直接把已有的工程上传,会因为path里多了函数名而无法直接访问自己的服务。
        来自:
        帮助文档
        函数工作流
        最佳实践
        使用SpringBoot构建FunctionGraph HTTP函数
      • 零信任远程办公介绍
        本文介绍零信任服务能力。 什么是零信任远程办公 边缘安全加速平台提供零信任远程办公服务,帮助企业快速构建比传统VPN更安全、更便捷的零信任办公安全体系。企业在边缘安全加速平台完成配置和操作后,能够实现员工远程零信任办公、上网行为流量管控和终端基线安全准入等场景效果。本文主要介绍零信任远程办公能力情况,帮助您更好的的理解。 注意事项 目前零信任远程办公服务整体能力基于购买边缘安全加速平台零信任远程办公服务后提供该能力。 服务能力 为便于理解产品、快速进行相关接入,可点击零信任远程办公快速接入了解。 功能 描述 身份管理 用于管理企业员工信息、组织关系、用户组等,企业员工在登录零信任客户端时需要进行身份认证,以及如何管控账户安全。 应用管理 应用资源主要指您需要通过零信任访问的地址,一般是企业内网应用系统。零信任网络支持TCP四层所有协议,包括SSH、RDP等协议,以及UDP等相关协议应用。目前对比传统VPN,除了提供IP接入外,还提供域名接入管理,可以更精细化管理权限,并且避免业务IP频繁变更的问题。 网络管理 网络管理的核心是通过连接器实现企业网络的高效整合。在部署连接器之后,您能够实现: 企业内部系统资源到零信任服务边缘节点网络连通性,从而支持客户端访问; 企业数据双向传输(暂不支持官网自助,如有需要可联系我们); 连接器使企业网络分布管理更灵活,尤其是解决多数据中心、混合云的企业场景。 安全策略 主要是指丰富的零信任安全管控策略,来提高企业安全性,目前仅开放部分安全能力自助,如有企业办公安全需求,可联系我们。 终端管理 终端管理主要针对用户登录的终端设备进行相关管控,包含终端相关策略。 终端资产 企业员工使用的资产情况,设备情况、设备策略等。 日志分析 提供丰富的日志进行相关分析。 待办事项 针对权限申请、问题反馈等流程进行相关处理。 零信任设置概述 提供企业账户的相关设置,包含企业认证标识、限速、保留网段等能力。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        零信任远程办公介绍
      • 产品定义
        本文主要介绍对象存储的定义。 服务简介 对象存储(Object Storage Service,OBS),简称天翼云OBS,是一个基于对象的海量存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力,包括:创建、修改、删除桶,上传、下载、删除对象等。支持S3协议,部分节点支持文件语义、HDFS协议。OBS系统和单个桶都没有总数据容量和对象/文件数量的限制,为用户提供了超大存储容量的能力,适合存放任意类型的文件,适合普通用户、网站、企业和开发者使用。 OBS是一项面向Internet访问的服务,提供了基于HTTP/HTTPS协议的Web服务接口,用户可以随时随地连接到Internet的电脑上,通过OBS管理控制台或各种OBS工具访问和管理存储在OBS中的数据。此外,OBS支持SDK和OBS API接口,可使用户方便管理自己存储在OBS上的数据。OBS实现了在多区域部署基础设施,具备高度的可扩展性和可靠性,用户可根据自身需要指定区域使用OBS,由此获得更快的访问速度和实惠的服务价格。 产品架构 OBS的基本组成是桶和对象。 桶是OBS中存储对象的容器,每个桶都有自己的存储类别、访问权限、所属区域等属性,用户在互联网上通过桶的访问域名来定位桶。 对象是OBS中数据存储的基本单位,一个对象实际是一个文件的数据与其相关属性信息的集合体,包括Key、Metadata、Data三部分: Key:键值,即对象的名称,为经过UTF8编码的长度大于0且不超过1024的字符序列。一个桶里的每个对象必须拥有唯一的对象键值。 Metadata:元数据,即对象的描述信息,包括系统元数据和用户元数据,这些元数据以键值对(KeyValue)的形式被上传到OBS中。 系统元数据由OBS自动产生,在处理对象数据时使用,包括Date,Contentlength,Lastmodify,ETag等。 用户元数据由用户在上传对象时指定,是用户自定义的对象描述信息。 Data:数据,即文件的数据内容。 天翼云针对OBS提供的REST API进行了二次开发,为您提供了控制台、SDK和各类工具,方便您在不同的场景下轻松访问OBS桶以及桶中的对象。当然您也可以利用OBS提供的SDK和OBS API,根据您业务的实际情况自行开发,以满足不同场景的海量数据存储诉求。
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        产品定义
      • 分享文件
        本节主要介绍怎么通过控制台分享文件。 操作场景 您可以使用对象分享功能,通过对象的临时URL将存放在OBS中的对象分享给所有用户。 背景知识 文件分享强调临时性,所有分享的URL都是临时URL,存在有效期。 临时URL是由文件的访问域名和临时鉴权信息组成。 临时鉴权信息主要包含 AccessKeyId 、 Expires 、xobssecuritytoken 和Signature 四个参数。其中 AccessKeyId 、xobssecuritytoken 和Signature 用于鉴权,Expires定义鉴权的有效期。 当在OBS控制台上单击了对象后的“分享”之后,OBS就会以默认5分钟的有效期获取临时鉴权信息,并生成分享链接,此时链接就已经生效并且开始计算时间了。每调整一次URL有效期,OBS就会重新获取一次鉴权信息以生成新的分享链接,新链接的有效期从调整的时候开始计算。 约束与限制 通过OBS控制台分享的文件,有效期的范围为1分钟到18小时。如果想要设置更长的有效期,建议使用客户端工具OBS Browser+,OBS Browser+支持1分钟到30天的有效期。如果想要设置永久的权限,请通过桶策略或对象策略实现。 仅桶版本号为3.0的桶支持文件分享功能。桶版本号可以在桶概览页的“基本信息”中查看。 加密对象不能分享。 归档存储对象需恢复后才能分享。 操作步骤 步骤 1 在桶列表单击待操作的桶,进入“对象”页面。 步骤 2 选中待分享的文件,并单击右侧的“分享”。 此时,链接信息中的链接就已经生效并开始计时,有效期为默认的5分钟。修改URL有效期,链接会相应变化,新链接的有效期从修改时开始计算。 步骤 3 URL相关操作。 单击“打开URL”,将在新页面打开文件进行预览或者直接下载文件到本地。 单击“复制链接”,您可以将该链接分享给所有用户,用户可以在浏览器中通过此链接直接访问文件。 单击“复制路径”,您可将该路径分享给所有拥有对象所在桶权限的用户,用户可以在对应桶中的文件搜索框中输入该路径搜索并访问文件。 说明 在“URL有效期”内,任何用户都可以访问该文件。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        管理对象
        分享文件
      • 手工搭建LNMP环境(Ubuntu 20.04)
        操作步骤 1、安装Nginx。 a.登录弹性云主机。 b.执行以下命令安装Nginx。 sudo aptget update sudo aptget install nginx c.调整防火墙(可选)。 UFW(Uncomplicated Firewall)是一个iptables的接口,可以简化配置防火墙的过程。Ubuntu默认安装了UFW,执行以下命令查看防火墙的状态。 sudo ufw status 如果你没有也不想开启防火墙,则可以直接跳过此步骤,如果你想要开启防火墙可以通过以下命令实现。 sudo ufw enable 之后再次检查防火墙状态验证是否成功开启防火墙。 在测试Nginx之前,需要重新配置我们的防火墙软件以允许访问Nginx。执行以下命令,将Nginx自动注册在UFW。 sudo ufw app list 回显信息: Available applications: Nginx Full Nginx HTTP Nginx HTTPS ... Nginx Full:此配置文件打开端口 80(正常,未加密的Web流量)和端口443(TLS / SSL加密流量) Nginx HTTP:此配置文件仅打开端口 80(正常,未加密的Web流量) Nginx HTTPS:此配置文件仅打开端口 443(TLS / SSL加密流量) 执行以下命令确保防火墙允许HTTP和HTTPS连接。 sudo ufw allow 'Nginx Full' d.验证Nginx是否正常工作。 在浏览器中通过域名或者IP地址进行访问Nginx,如果Nginx正常启动则会打开Welcome to nginx的欢迎页面。 使用浏览器访问 “ 2、安装MySQL。 a.执行以下命令安装MySQL。 sudo apt y install mysqlserver b.查看MySQL运行状态。 sudo systemctl status mysql mysql.service MySQL Community Server Loaded: loaded (/lib/systemd/system/mysql.service; enabled; vendor preset: enabled) Active: active (running) since Wed 20230726 15:57:29 CST; 22min ago Main PID: 10770 (mysqld) Status: "Server is operational" Tasks: 37 (limit: 4217) Memory: 364.9M CGroup: /system.slice/mysqld.service └─10770 /usr/sbin/mysqld Jul 26 15:57:29 ecsubuntu systemd[1]: Starting MySQL Community Server... Jul 26 15:57:29 ecsubuntu systemd[1]: Started MySQL Community Server. c.执行以下命令,进入MySQL。 sudo mysql d.执行以下命令,设置root用户密码。 ALTER USER 'root'@'localhost' IDENTIFIED WITH mysqlnativepassword by 'newpassword'; 其中'newpassword'为待设置的密码。 e.执行以下命令,退出MySQL数据库。 exit; f.执行以下命令,并按照回显提示信息进行操作,加固MySQL。 mysqlsecureinstallation Securing the MySQL server deployment. Enter password for user root:
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        手工搭建LNMP环境(Ubuntu 20.04)
      • 创建IPSec VPN
        本节介绍创建IPsec VPN的操作说明。 注:目前仅支持部分资源池开启IPsec VPN的功能,如当前资源池的AI云电脑(政企版)控制台没有IPsec VPN的功能菜单,请联系运维客服进行开通(运维客服邮箱:clouddesktop@chinatelecom.cn) 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“网络管理”,点击“企业云网”,选择“IPsec VPN”,进入IPsec VPN管理页面; 3.点击“创建IPsec VPN”,填写相关信息; 在创建IPsec VPN页面中填写相关信息,下面以客户侧网段192.168.10.0/24为例,带宽为5M创建,选择主VPC。其中“标识符类型”可选“IPV4”和“FQDN”,若选择IPV4,则云端标识符会默认填充为云侧公网IPV4地址,客户侧标识符则需用户填写客户设备的公网IPV4地址。若选择“FQDN”则填写对应的标识符,这些隧道信息在配置客户侧防火墙过程中使用到。 详细参数解析: (1)IPsec VPN名称:用户自定义,比如“IPSecVPN”。 (2)客户侧私网网段:客户办公区私网网段,与IPsec VPN绑定的云侧VPC子网网段不可重叠。 (3)客户侧公网地址:客户侧有固定公网地址则填写固定公网地址,无固定公网地址可以在客户内网打开浏览器百度搜索“IP”获取出口公网地址。 (4)IKE版本:只支持IKEv2版本。 (5)预共享密钥:密码强度826位,须同时包含英文字母、数字和特殊字符。客户侧防火墙与IPSec VPN实例预共享密钥需配置一致。 (6)标识符类型:支持IPV4与FQDN(域名)两种类型,默认选择IPV4。 (7)云端标识符与客户侧标识符:若使用IVP4,云端标识符会自动填充为云侧公网IPV4地址,客户端标识符需要填写客户侧设备公网IPV4地址。若填写FQDN,则需要用户填写对应的FQDN信息。用户需要注意填写 标识符顺序,假设创建IPsec VPN实例时标识符类型选用FQDN,云端标识符设置为cloud.responder,客户侧标识符设置为customer.initiator,那么客户侧VPN设备,如strongswan,leftid应设置为 @customer.initiator,rightid应设置为@cloud.responder,类型为IPV4同理。 (8)选择主VPC:客户端需要与云侧互通的VPC 4.确定创建后,IPsec VPN实例创建成功。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        企业云网管理
        IPSec VPN
        创建IPSec VPN
      • UDFScript变量说明
        变量名 变量说明 示例 arg参数名 url中的某个具体参数的值。 比如:请求为: http参数名 某个请求头xxx的值。 比如:请求为: H "test: hello" H "headacc: 222"。 调用ctyun.var("httptest")返回“hello”。 调用ctyun.var("httpheadacc") 返回“222”。 注意: 如果xxx有破折号,通过var调用时,用下划线代替。 cookiexxx 请求cookie头中的name值。 使用方式同上。 scheme 请求使用的Web协议,“http” 或 “https”。 ctyun.var("scheme") 返回http。 serverprotocol 服务器的HTTP版本,通常为 “HTTP/1.0” 或 “HTTP/1.1”。 ctyun.var("serverprotocol") 返回HTTP/1.1。 timeiso8601 服务器时间的ISO 8610格式。 ctyun.var("timeiso8601") 返回 20220714T11:13:56+08:00。 timelocal 服务器时间。 ctyun.var("timelocal") 返回14/Jul/2022:11:13:56 +0800。 timehttp 服务器时间的http表示法。 ctyun.var("timehttp") 返回 Thu, 14 Jul 2022 03:13:56 GMT。 host 客户端请求的域名。 ctyun.var("host") 返回ctyun.cn。 requesturi 用户原始请求url包括查询参数。 比如:客户端发送请求uri为: /%E4%BD%A0%E5%A5%BD?tt123。 ctyun.var("requesturi") 返回/%E4%BD%A0%E5%A5%BD?tt123。 uri requesturi变量中不带查询参数部分,且进行urldecode。 比如:客户端发送请求uri为: /%E4%BD%A0%E5%A5%BD?tt123。 ctyun.var("uri") 返回 /你好。 querystring 查询参数, requesturi的参数部分。 比如:请求uri为: /hello?tt123&t2%E4%BD%A0%E5%A5%BD。 ctyun.var("querystring") 返回 tt123&t2%E4%BD%A0%E5%A5%BD。 requestmethod HTTP请求方法,通常为"GET"或"POST"等。 ctyun.var("requestmethod") 返回GET。 remoteaddr 返回客户端ip。 ctyun.var("remoteaddr") 返回172.21.51.44。 remoteport 客户端端口号。 ctyun.var("remoteport") 返回38966。 serveraddr 服务端ip。 ctyun.var("serveraddr") 返回172.21.51.88。 serverport 服务端端口号。 ctyun.var("serverport") 返回80。 isargs 是否有请求参数。 ctyun.var.isargs 返回 "?"或者空字符串。 args 请求参数。 ctyun.var.args 返回 "a1&b2&c3"。
        来自:
        帮助文档
        CDN加速
        用户指南
        UDFScript用户自定义脚本
        UDFScript变量说明
      • 安装Agent(已有物理机)
        本章节主要介绍如何在已有物理机实例中手动安装Agent,实现主机监控。 您需要完成以下步骤: 1.添加域名解析地址:在物理机“/etc/resolv.conf”文件中添加各区域域名解析地址。 2.修改子网DNS地址:按物理机所在区域修改子网的DNS服务器地址。 3.配置安全组:用于下载Telescope包、发送指标数据、采集日志等。 此三步请参见内网DNS与安全组配置。 4.安装Agent:手动为物理机安装Agent,实现主机监控。 此步请参见安装Agent(Linux)。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机监控配置实践
        安装Agent(已有物理机)
      • 步骤一:创建同步任务
        本节主要介绍步骤一:创建同步任务 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据库复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时同步支持的数据库类型,详情请参见实时同步。 满足实时同步的使用限制,详情请参见概述。 操作步骤 1、 在“实时同步管理”页面,单击“创建同步任务”。 2、 在“同步实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、任务异常自动结束时间、描述、同步实例信息,单击“下一步”。 图 同步任务信息 表 任务与描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当同步任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量同步阶段,源数据库和目标数据库之间的同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量同步阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步类型 此处以“全量+增量”为示例。 “全量+增量”: 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”: 增量同步通过解析日志等技术,将源端产生的增量实时同步至目标端。 3、同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 入云和出云场景中源库和目标库需要填选的信息不同,具体以界面为准。 入云场景: 图 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 出云场景: 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建任务时选择的云数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码 说明 源数据库的用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 说明 目标数据库的IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 4、在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步” 图 同步模式 表 同步模式和对象 参数 描述 冲突策略 数据库复制服务提供的实时同步功能使用了主键或唯一键冲突策略,这些策略可以由您自主选择,尽可能保证源数据库中有主键约束或唯一键约束的表同步到目标数据库是符合预期的。 冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 说明 目前仅MySQL>RDS for MySQL的同步场景支持设置“覆盖”冲突策略。 当数据发生冲突时,针对如下情况,建议选“忽略”或者“覆盖”,否则建议选“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示实时同步过程中不会同步用户在源数据库端执行的删除数据库操作。 否,则表示实时同步过程中将相关操作同步到目标库。 说明 目前仅以下链路的数据同步场景支持过滤DDL操作。 MySQL数据库>RDS for MySQL实例 RDS for MySQL实例>MySQL数据库 对象同步范围 对象同步范围支持普通索引和增量DDL同步。可根据业务需求选择是否进行同步。 同步对象 同步对象支持库级和表级同步,您可以根据业务场景选择对应的数据进行同步。部分链路还支持文件导入对象。 图 导入对象文件 如果有切换源数据库的操作或源库同步对象变化的情况,请务必在选择同步对象前单击右上角,以确保待选择的对象为最新源数据库对象。 说明 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 MySQL>RDS for MySQL实时同步支持表级和库级同步。 实时同步功能可以支持源数据库和目标数据库中的同步对象(包括数据库、schema、表)的名称不同。如果同步的数据库对象在源数据库和目标数据库中的命名不同,那么可以使用数据库复制服务提供的对象名映射功能进行映射。其中包括:库映射、schema映射、表映射。 对象名映射的具体操作请参考《数据库复制服务用户指南》中“对象名映射”章节。 导入对象文件的具体操作如下: 1. 单击“下载模板”。 2. 在下载的Excel模板中,填写需要导入的对象信息。 3. 单击“添加文件”,在对话框中选择编辑完成的模板。 4. 单击“上传文件”。 说明 文件导入仅支持导入Windows Microsoft Excel 972003版本(.xls),2007及以上版本(.xlsx)的文件,下载的压缩包提供上述两个版本模板 文件名支持的有效字符:大小写字母,数字,“”,“”,“(”,“)” 模板中的对象信息需按照SchemaName.TableName的格式进行填写,不支持“ ”,"."和“"”,且不支持以空格开头或结尾的对象。 文件导入成功后,必须保留本次上传的文件,以便需要再编辑该任务的数据库对象范围时,可直接基于此文件修改,然后再次上传。 用文件导入功能所创建的任务,任务启动之后再编辑时,不支持切换到“表级同步”和“库级同步”功能。 配置中的任务,可使用“表级同步”,“库级同步”或“文件导入”三种方式,每次切换新的方式后,当前选择或者导入的数据库对象被清空,需重新选择或导入。 5、在“数据加工”页面,根据需要设置数据加工的过滤规则。 如果不需要设置数据加工规则,选择“不加工”,单击“下一步”。 如果需要设置数据加工规则,选择“数据过滤”,参考数据加工,设置相关过滤规则 数据加工 6、在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 图 预检查 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 7、在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,勾选协议,单击“启动任务”,提交同步任务。 说明 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 8、同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时同步
        步骤一:创建同步任务
      • 概述
        keytab keytab 是一种用于在Kerberos 认证系统中存储主体(principal)的密钥信息的文件,包含principals和加密principal key,用于在不需要用户输入密码的情况下进行身份验证。每个密钥条目在keytab 文件中通常由以下部分组成: 主体名称:明确标识该密钥所属的主体,例如“service/host.example.com@exp.com”。 加密类型:指示用于加密密钥的算法,常见的有 AES、DES 等。 密钥值:实际的加密密钥数据。 keytab文件对于每个host是唯一的,因为key中包含hostname。由于服务器上可以访问Keytab文件即可以用principal的身份通过Kerberos的认证,所以keytab文件应该被妥善保存,确保只有少数必要用户可以访问。 服务实例 在AD域中,服务实例指的是一个特定的服务运行在特定计算机或服务器上的单个实例。服务实例通常与特定的服务账号相关联,用于管理服务的权限和身份验证。服务实例在AD中是通过服务主体名称(Service Principal Name,SPN)来标识的。 服务主体SPN 在AD域中,服务主体(Service Principal Name,SPN)用于标志一个服务实例。SPN的作用在于Kerberos身份验证过程中,将服务实例与服务登录帐户相关联。当客户端需要访问某个服务时,它会使用SPN来查询和验证服务的身份。在AD域中,服务可以运行在不同的主机上,而一个主机上也可以运行多个服务。SPN的格式包括服务类型和主机名或域名,客户端通过SPN访问某个服务实例。 工作原理 天翼云提供基于Kerberos协议的认证鉴权方式,将用户加入到AD域中,域控制器通过秘钥表(keytab)授权成员访问弹性文件服务。用户认证及访问鉴权流程如下: 1. 管理员在域控制器上生成keytab文件,详见 2. 在天翼云控制台为目标文件系统开启AD域功能,并将keytab文件上传,具体操作见加入AD域。 3. 文件服务器保存用户通过控制台上传的keytab文件,用于后续AD域内客户端认证和鉴权。 4. 用户通过AD域内云主机发起访问CIFS文件系统请求。 5. 文件服务器通过查询向云主机返回是否支持Kerberos协议鉴权。 6. 云主机向AD域控制器发起用户认证,Kerberos对用户信息进行加密。 7. 域控制器向云主机返回加密后的用户信息。 8. 云主机将用户加密信息发送给文件服务器。 9. 文件服务器根据用户上传的Keytab文件解密用户信息。 10. 认证通过后,文件服务器根据解密所得的用户权限信息提供访问服务。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        概述
      • QUIC在短视频场景下的最佳实践
        全站加速产品支持的QUIC类型 目前,天翼云全站加速产品同时支持IETF QUIC和GOOGLE QUIC,以方便不同的客户接入。 GOOGLE QUIC支持的版本号为Q043、Q046、Q050。 IETF QUIC支持的版本号为h329和h3v1,IETF QUIC是互联网标准版本,强烈建议您使用IETF QUIC。 适用场景 图片业务:可降低图片加载时间。 短视频业务:可提升视频秒开率,并且降低弱网环境卡顿率。 直播业务:可提升播放稳定性,降低因网络波动带来的卡顿率。 如何验证已在全站加速上开启QUIC功能 QUIC协议暂不支持客户自助开启,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 QUIC属于双边协议,需要客户端同步支持。如您已开通QUIC功能,可以使用Chrome浏览器或者基于Chrome内核的浏览器来访问对应网站域名,并在浏览器开启开发者工具进行抓包验证。目前较新版本的chrome浏览器已默认开启QUIC。 一般情况下,Chrome浏览器和服务器端协商使用QUIC协议要经过如下步骤: 1. 首次访问,客户端会先发起正常的TCP请求。 2. 服务端如果支持QUIC,会通过响应头部返回altsvc信息告知客户端自己支持QUIC及对应版本(如下图),其含义是服务器在443端口开启了QUIC,最大缓存时间是2592000秒(30天),支持的QUIC版本IQUIC。 3. 下次访问,客户端会同时发起TCP连接和QUIC连接进行竞速。 4. 一旦QUIC竞速连接获胜,则后续会采用QUIC协议发送请求,如果在浏览器进行抓包(快捷键F12打开开发者工具),可在Protocol列查看其具体的协议,如下图所示,这里显示的h3即表示采用的是IQUIC。 注意 如果没有Protocol列,右键点击Header Options,勾选Protocol列即可。 5. 如遇网络或服务器不支持QUIC,客户端标记QUIC为broken。 6. 传输中的QUIC请求立即用TCP进行重发。 7. 5min后尝试重试QUIC,下一次尝试增大到10min。 8. 一旦再次成功采用QUIC,会把broken标记取消。
        来自:
        帮助文档
        全站加速
        最佳实践
        QUIC在短视频场景下的最佳实践
      • 使用SASL证书连接
        配置生产消费配置文件 步骤 1 登录Linux系统的ECS。 步骤 2 在ECS的“/etc/hosts”文件中配置host和IP的映射关系,以便客户端能够快速解析实例的Broker。 其中,IP地址必须为实例连接地址(从前提条件获取的连接地址),host为每个实例主机的名称(您可以自定义主机的名称,但不能重复)。 例如: 10.154.48.120 server01 10.154.48.121 server02 10.154.48.122 server03 步骤 3 下载client.jks证书。在Kafka控制台单击Kafka实例名称,进入实例详情页面,在“连接信息 > SSL证书”所在行,单击“下载”。 解压压缩包,获取压缩包中的客户端证书文件:client.jks。 步骤 4 根据已获取的SASL认证机制,修改Kafka命令行工具配置文件。 PLAIN机制: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.plain.PlainLoginModule required username"" password""; sasl.mechanismPLAIN 说明 username和password为创建Kafka实例过程中开启SASLSSL时填入的用户名和密码,或者创建SASLSSL用户时设置的用户名和密码。 SCRAMSHA512机制: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.scram.ScramLoginModule required username"" password""; sasl.mechanismSCRAMSHA512 说明 username和password为创建Kafka实例过程中开启SASLSSL时填入的用户名和密码,或者创建SASLSSL用户时设置的用户名和密码。 步骤5 根据安全协议,修改Kafka命令行工具配置文件。 1.SASLSSL: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 security.protocolSASLSSL ssl.truststore.location{ssltruststorepath} ssl.truststore.passworddms@kafka ssl.endpoint.identification.algorithm 参数说明: ssl.truststore.location配置为client.truststore.jks证书的存放路径。注意,Windows系统下证书路径中也必须使用“/”,不能使用Windows系统中复制路径时的“”,否则客户端获取证书失败。 ssl.truststore.password为服务器证书密码,不可更改,需要保持为dms@kafka 。 ssl.endpoint.identification.algorithm为证书域名校验开关,为空则表示关闭。这里需要 保持关闭状态,必须设置为空 。 2. SASLPLAINTEXT: 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 security.protocolSASLPLAINTEXT
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤四:连接实例生产消费消息
        使用SASL证书连接
      • 会话保持(1)
        会话保持与不保持的区别? 会话保持和不保持是用于描述负载均衡器在请求分发时处理连接的两种不同方式。 会话保持:当负载均衡器配置为会话保持时,它将尝试将特定客户端的所有请求都发送到同一台后端主机。当客户端与后端主机建立连接后,负载均衡器将会话信息保存,并在后续的请求中使用该信息来识别并将请求发送到正确的后端云主机。这样可以确保在整个会话期间,由同一客户端发起的请求都被发送到相同的主机,从而保持会话状态的连续性。 不保持:当负载均衡器配置为不保持时,它会将每个请求独立地分发到后端主机,而不考虑之前的会话状态。负载均衡器每次都会根据负载均衡算法选择一台合适的后端主机来处理请求。这种方式适用于无状态应用,其中每个请求都是独立的,主机可以根据每个请求的内容来响应,而不依赖于之前的会话信息。 会话保持时间(分钟)默认时间是多少?能改大吗? 会话保持的时间,取值范围为1 86400,默认1000秒,并且可以修改。 如何使用Linux curl测试弹性负载均衡会话保持? 在使用Linux curl测试弹性负载均衡(ELB)会话保持时,你可以按照以下步骤进行操作: 1. 安装curl:如果你的Linux系统上没有安装curl,可以使用适合你的包管理器进行安装。例如,在Ubuntu上可以使用以下命令安装curl: sudo apt update sudo apt install curl 2. 准备测试网址:获取弹性负载均衡器(ELB)的URL或域名,确保ELB后面有多个可用的后端实例,确保ELB开启“会话保持”功能。 3. 使用curl发送请求:使用curl命令发送多个请求,并观察结果。你可以使用以下命令进行测试: curl c cookies.txt [弹性负载均衡器的URL] 4. 其中,c cookies.txt参数用于保存从主机接收到的cookie信息到cookies.txt文件中。 5. 多次运行curl命令:多次运行上述curl命令,以便发送多个请求。你可以使用循环来简化测试过程。以下是一个示例: for i in {1..5}; do curl b cookies.txt c cookies.txt [弹性负载均衡器的URL]; done 6. 在上述示例中,b cookies.txt参数用于在每次请求中携带之前收到的cookie信息来维持会话。 7. 检查请求的响应:检查每个请求的响应,并观察结果。如果会话保持正常,所有的请求应该被发送到相同的后端实例,从而保持会话状态的连续性。
        来自:
      • 配置负载均衡器投递访问日志至日志服务
        字段 类型 说明 topic text 日志主题,固定值。ELB7LayerAccessLog ts text 日志上报时间。时间格式为YYYYMMDDThh:mm:ssZ。由日志sdk自动填充 version text ELB服务日志版本 elbid text ELB 的ID vip text ELB的虚拟IP地址 listenerport double 监听的端口 vpcid double 当前显示为vpc的vni。 listenerid text 监听器ID。 poolid text 处理请求后端主机组的ID。 clientip text 请求的客户端IP。 clientport double 请求的客户端端口。 timeiso8601 text 负载均衡器日志打印时间。 host text 匹配的转发策略域名。 httphost text 负载均衡收到的请求报文中HTTP的host header的内容。 httpreferer text 负载均衡收到的请求报文中HTTP的referer header的内容。 httpuseragent text 负载均衡收到的请求报文中HTTP的useragent header的内容。 httpxforwardedfor text 负载均衡收到的请求报文中xforwardedfor的内容。 requestlength double 请求报文的长度,包括startline、HTTP头报文和HTTP body。 requestmethod text 请求报文的方法。 requesturi text 负载均衡收到的请求报文的URI。 scheme text 请求的协议类型:HTTP/HTTPS/HTTP2/Websocket/Websocket Secure。 serverprotocol text 负载均衡收到的HTTP协议的版本,例如HTTP/1.0或HTTP/1.1。 sslhandshaketime double ssl握手耗时。 sslsessionreused text sslsession复用,'r'表示复用成功,'.'表示复用失败。''表示非HTTPS协议。 sslcipher text 建立SSL连接使用的密码,例如ECDHERSAAES128GCMSHA256等。 sslprotocol text 建立SSL连接使用的协议,例如TLSv1.2。 bodybytessent double 发送给客户端的HTTP Body的字节数。 requesttime double 负载均衡收到第一个请求报文的时间到返回应答之间的时间间隔,单位:秒。 status double 负载均衡应答报文的状态。CLB 返回给客户端的状态码。 tcpinfortt double 客户端TCP连接时间,单位:微秒。 upstreamaddr text 后端服务器的IP地址和端口。 upstreamresponsetime double 从负载均衡向后端服务器建立连接开始到接收完数据然后关闭连接为止的时间,单位:秒。 upstreamstatus text 负载均衡收到的后端服务器的响应状态码。 upstreamconnecttime double 和 RS 建立 TCP 连接所花费时间:从开始 CONNECT RS 到开始发送 HTTP 请求的时间。单位:秒。 upstreamheadertime double 从 RS 接收完 HTTP 头部所花费时间:从开始 CONNECT RS 到从 RS 接收完 HTTP 应答头部的时间。单位:秒 connectionrequests double 连接上的请求个数。 connectionid double 连接id。
        来自:
      • 弹性负载均衡访问日志
        字段 类型 说明 topic text 日志主题,固定值。ELB7LayerAccessLog ts text 日志上报时间。时间格式为YYYYMMDDThh:mm:ssZ。由日志sdk自动填充 version text ELB服务日志版本 elbid text ELB 的ID vip text ELB的虚拟IP地址 listenerport double 监听的端口 vpcid double 当前显示为vpc的vni。 listenerid text 监听器ID。 poolid text 处理请求后端主机组的ID。 clientip text 请求的客户端IP。 clientport double 请求的客户端端口。 timeiso8601 text 负载均衡器日志打印时间。 host text 匹配的转发策略域名。 httphost text 负载均衡收到的请求报文中HTTP的host header的内容。 httpreferer text 负载均衡收到的请求报文中HTTP的referer header的内容。 httpuseragent text 负载均衡收到的请求报文中HTTP的useragent header的内容。 httpxforwardedfor text 负载均衡收到的请求报文中xforwardedfor的内容。 requestlength double 请求报文的长度,包括startline、HTTP头报文和HTTP body。 requestmethod text 请求报文的方法。 requesturi text 负载均衡收到的请求报文的URI。 scheme text 请求的协议类型:HTTP/HTTPS/HTTP2/Websocket/Websocket Secure。 serverprotocol text 负载均衡收到的HTTP协议的版本,例如HTTP/1.0或HTTP/1.1。 sslhandshaketime double ssl握手耗时。 sslsessionreused text sslsession复用,'r'表示复用成功,'.'表示复用失败。''表示非HTTPS协议。 sslcipher text 建立SSL连接使用的密码,例如ECDHERSAAES128GCMSHA256等。 sslprotocol text 建立SSL连接使用的协议,例如TLSv1.2。 bodybytessent double 发送给客户端的HTTP Body的字节数。 requesttime double 负载均衡收到第一个请求报文的时间到返回应答之间的时间间隔,单位:秒。 status double 负载均衡应答报文的状态。CLB 返回给客户端的状态码。 tcpinfortt double 客户端TCP连接时间,单位:微秒。 upstreamaddr text 后端服务器的IP地址和端口。 upstreamresponsetime double 从负载均衡向后端服务器建立连接开始到接收完数据然后关闭连接为止的时间,单位:秒。 upstreamstatus text 负载均衡收到的后端服务器的响应状态码。 upstreamconnecttime double 和 RS 建立 TCP 连接所花费时间:从开始 CONNECT RS 到开始发送 HTTP 请求的时间。单位:秒。 upstreamheadertime double 从 RS 接收完 HTTP 头部所花费时间:从开始 CONNECT RS 到从 RS 接收完 HTTP 应答头部的时间。单位:秒 connectionrequests double 连接上的请求个数。 connectionid double 连接id。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        弹性负载均衡访问日志
      • 切换实例VPC/子网
        关系数据库MySQL版支持为部分已创建的实例切换虚拟私有云VPC,并根据实际需要设置子网。本文介绍为实例切换VPC/子网的功能和操作步骤。 注意 除广州4,苏州外II类型资源池都支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 约束限制 如果主实例已开通只读实例和数据库代理,则不支持切换VPC,需先进行退订。 使用云硬盘备份类型的实例不支持切换VPC,仅对象存储备份类型实例支持。 实例状态不为运行中时,可能会导致切换失败。 受底层网络限制,IPv4和IPv6的VPC和子网无法互相切换。 如果实例有IPv6地址,要求修改后的子网有开启IPv6功能。如果实例没有IPv6地址,要求修改后的子网关闭IPv6功能。 切换VPC时,不可进行弹性IP与IPv6带宽绑定,可于切换后操作。 可用IP数量不足可能导致切换失败,可重试切换VPC或选择其他VPC。 切换VPC后,会为您将切换后的VPC网段加入到白名单配置中,旧的VPC网段可自行前往IP白名单删除。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 在网络 区域,单击虚拟私有云 参数右侧的切换VPC/子网。 5. 在对话框内选择需要切换的VPC,然后选择需要的子网和安全组。 注意 如仅修改子网,则选择同VPC下的其他子网即可,您需注意:子网修改后连接地址会发生变化,会自动将新的网段加入到白名单,可自行前往修改。 6. 勾选同意框,并单击确定,开始切换VPC和子网,期间服务不可用。 切换后,实例状态重回运行中。 您可以在网络区域,看到新的VPC信息。 注意 为防止实例异常影响使用,执行VPC和子网切换后,请确保切换后的网络已加入到白名单中。 切换VPC期间会重启导致服务不可用,并会更换实例的连接地址,请在切换VPC后及时将业务中的连接地址进行变更,建议在业务低峰期切换。 切换VPC后,连接地址会发生切换,如果此前绑定了弹性IP,则会为您将弹性IP绑定到新的连接地址,IPV6带宽与内网域名同理,都会为您自动绑定到新的连接地址。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        访问管理
        切换实例VPC/子网
      • 防护白名单
        本节介绍如何配置全局白名单。 防护对象接入Web应用防火墙后,您可以选择开启全局白名单功能,并配置白名单规则。 可用于放行具有指定特征的请求,使请求不经过全部(包含 Web 基础防护、CC 防护、BOT 防护、精准访问控制)或特定防护模块(Web基础防护)的检测。 也可用于处理误报事件,对于误报的事件可进行规则级别的加白,将单次拦截放通。 前提条件 已购买WAF云SaaS型实例,且实例版本为标准版及以上版本。 网站已通过“域名接入”方式接入WAF进行防护。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 全局防护配置”,进入全局防护配置页面。 5. 定位到“防护白名单”模块,可以选择开启/关闭防护。 6. 点击防护规则右侧的“前去配置”,进入白名单页面。 7. 单击“新建白名单”,在弹出的对话框中,配置白名单规则。 参数说明如下: 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 企业项目 选择需要配置白名单实例所在的企业项目。 接入对象 设置白名单作用对象,支持选择“全部防护对象”或选择“特定防护对象”。 说明 全局白名单不支持独享版和监听器防护对象。 规则描述 可选项。设置规则的描述信息。 匹配条件 设置白名单请求需要匹配的条件(即特征)。单击“新增条件”,可以设置最多30个条件。存在多个条件时,多个条件必须同时满足才算命中。 关于匹配条件的配置描述,请参见匹配条件字段说明。 过期时间 规则配置后,规则状态开启即生效。可通过设置过期时间,为该规则定义生效时间段。 过期时间可选: 永久生效 限定日期:自定义设置失效日期 生效范围 设置白名单生效范围,表示触发匹配条件的请求不受所选规则的检测,可选项: 全部规则:选择该项,表示触发匹配条件的请求不受Web 基础防护、CC 防护、BOT 防护、精准访问控制模块的检测,将被直接放行到源站服务器。 特定模块:只忽略检测指定的防护模块,支持Web基础防护。在模块右侧的下拉框,选择不检测的规则类型。 特定规则ID:只忽略检测指定的规则,支持Web基础防护。在模块右侧的下拉框,选择不检测的规则ID。 8. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        全局防护配置
        防护白名单
      • 产品功能
        媒体存储为客户提供丰富的数据管理、数据处理、数据安全的产品能力。 块存储 产品能力 功能说明 接入方式 支持iSCSI接入方式。 块空间管理 支持通过控制台管理块设备资源,包括创建、扩容、删除等操作。 鉴权管理 可通过控制台管理文件资源访问权限,接入使用资源时进行鉴权。 文件存储 产品能力 功能说明 接入方式 提供NFS、CIFS两种类型接口,支持NFSV4.0、SMB2、SMB3协议。 文件空间管理 支持通过控制台管理文件资源,包括创建、扩容、删除等操作。 鉴权管理 可通过控制台管理文件资源访问权限,接入使用资源时进行鉴权。 对象存储 产品能力 功能说明 对象管理 支持文件的上传/分片上传/追加上传、下载、删除、复制、前缀搜索、移动功能、追加上传支持整个对象内容MD5计算、可自定义元数据。 对象标签 通过对象(Object)标签功能,对Object进行分类管理,比如列举指定标签的Object、对指定标签的Object配置统一的生命周期。 跨域资源共享 通过桶上配置跨域规则,允许或禁止某些网站的跨域请求。 生命周期 对象存储支持按照过期天数等灵活的策略配置生命周期管理机制。 镜像回源 通过镜像回源功能,当请求者向存储桶(Bucket)请求不存在的文件时,从回源规则设置的源站获取目标文件。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 桶清单 通过桶清单功能,定时生成桶内指定文件(Object)的数量、大小、存储类型、加密状态的清单信息,并保存到指定Bucket。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 桶标签 通过存储桶(Bucket)的标签功能, 对 Bucket 进行分类管理,比如列举带有指定标签的Bucket。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 文件解压缩 通过压缩包解压规则,当上传满足条件的压缩包文件时,服务将自动解压该压缩包后,将文件保存到Bucket中。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 访问权限 支持基于资源的访问权限策略,包括Bucket ACL、Object ACL、 Bucket Policy。 防盗链 可通过是否允许空Referer或黑白名单设置,校验访问账号内资源操作的合法性。 主子账号 可基于子账号进行资源访问与管理授权。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 STS角色管理 支持STS临时凭证,可对其他用户颁发临时凭证,无需透露owner的AKSK。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 合规保留 媒体存储以“不可删除、不可篡改”方式保存和使用数据。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 版本控制 针对Object的覆盖和删除操作将会以版本的形式保存下来,可将 Object 恢复至指定的历史版本。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 服务端加密 媒体存储可对收到的文件进行加密,再保存加密后的文件,用户下载文件时,服务自动将加密文件解密后返回给用户。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 存储桶复制 支持跨不同存储区域或同一存储区域的Bucket 自动、异步(近实时)复制对象(Object)。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 数据迁移 支持多种数据迁移能力,可以满足客户多种数据迁移场景,包括存储桶迁移、跨账号迁移、跨云数据迁移。 事件通知 当资源发生变动时,用户可及时接收通知消息。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 日志存储 通过日志存储功能,将操作日志按照固定的命名规则,以5分钟为单位写入指定的Bucket。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 告警管理 支持告警规则管理,包括添加告警规则,管理告警规则,查看告警消息等。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 自定义域名 通过自定义域名绑定功能,可以通过已绑定的自定义域名访问存储桶内的文件。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 操作日志 支持查询指定时间内在控制台操作的相关日志。 实时日志查询 支持查询通过API或SDK操作对象存储的相关日志。目前实时日志查询为内测功能,如需使用,可联系客户经理或提交工单申请。 用量统计 统计并支持查询存储空间、流量与请求次数用量信息。 图片处理 提供的产品自带图片处理功能,包括基础图片转换、水印功能、原图保护、视频截帧、数据处理持久化保存等功能。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 视频截帧 对象存储内置提供视频截帧功能,可截取出H264视频文件中的指定位置内容的对应图片。 仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 工具指南 提供图形化客户端工具以及网络测速工具。 API接口 提供REST形式的访问接口,可直接调用相应接口完成操作。 SDK 对媒体存储提供的REST API进行的封装,可直接调用SDK提供的接口函数进行使用。
        来自:
        帮助文档
        媒体存储
        产品介绍
        产品功能
      • 半托管模式迁移任务的创建与管理
        本文为您介绍半托管模式迁移任务的创建与管理。 操作场景 通过对象存储迁移服务的控制台,创建半托管模式的迁移任务,并对半托管模式的迁移任务进行管理操作。 前提条件 您已经创建完成代理,并完成代理的部署,存在至少一个代理为“已连接”状态。 您的源端存在待迁移的数据,您已经在天翼云对象存储ZOS开通Bucket。 请确保您的业务处于空闲阶段或非高峰期,避免迁移执行时影响您的业务。 请确保您的源端数据已经解冻,并在迁移完成前保持解冻状态,避免因源端数据未解冻迁移失败。 创建半托管模式迁移任务 1. 进入“对象存储>对象存储迁移服务>迁移任务 ”控制台,选择“迁移任务列表”分页进入迁移任务列表页面,点击“创建迁移任务 ”。 注意 使用对象存储迁移服务会获取您的AK/SK等认证信息,为确保您一定知情,创建任务时会有使用提示弹窗,需要您阅读并手动勾选服务协议,进行确认。您有权不勾选服务协议,并不使用该服务,请您知悉。 2. 在创建迁移任务的页面,迁移任务模式选择“半托管迁移”,并选择执行任务的代理。填写其他任务相关参数后,点击“下一步:确认任务 ”即可。参数说明如下表: 参数 说明 任务信息 任务名称 输入自定义的任务名称。 说明: 命名规则:必须为大小写字母、数字、横线或下划线,长度在432个字符之间;自定义的任务名称不能与您已存在的任务名称重复。 迁移模式 迁移任务运行模式 选择创建迁移任务的模式,支持全托管模式和半托管模式。 说明: 全托管模式:迁移任务将在服务端执行,适合数据量在10TB以内,或对迁移耗时没有紧急诉求的客户。 半托管模式:迁移任务将运行在客户自己的设备上,客户可通过提供更高的网络带宽和更多的迁移设备,实现更高速的迁移,适合数据量在10TB以上,或对迁移耗时有明确诉求的客户。 注意: 半托管迁移模式依赖您已经部署完成代理,代理设备与迁移服务服务端连通,否则无法创建半托管模式的迁移任务。 迁移模式 选择执行本任务的代理设备 选择执行本任务的代理设备,迁移任务将会下发给指定的代理设备用于执行迁移。 说明: 仅能选择“已连接”状态的代理。 选择源端 源端 选择源端数据的服务提供方。 说明: 目前支持的源端: 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 选择源端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 注意: 腾讯云COS的Endpoint较为特殊,仅需填写region即可,例如:apbeijing、apshanghai。 选择源端 Access Key 输入您源端的Access Key。 选择源端 Secret Key 输入您源端的Secret Key。 选择源端 存储桶 输入您源端的对象存储桶名称。 选择源端 迁移方式 选择源端数据的迁移方式,支持:指定存储桶、指定文件夹、指定对象、指定前缀。 说明: 指定存储桶 :选择“指定存储桶”时,将会迁移存储桶内的全部对象。 指定文件夹 :选择“指定文件夹”时,将会迁移选中文件夹下的所有对象。仅支持单个文件夹。 指定对象 :选择“指定对象”时,将会迁移选中的对象。最大支持指定100个对象。 指定前缀 :选择“指定前缀”时,将会迁移桶中所有以该前缀开头的对象。仅支持单个前缀。 选择源端 迁移晚于起始时间的对象 选择该选项时,用户可配置“起始时间 ”,任务将仅迁移最后修改时间晚于该“起始时间 ”的对象。 选择源端 迁移早于终止时间的对象 选择该选项时,用户可配置“终止时间 ”,任务将仅迁移最后修改时间早于该“终止时间 ”的对象。 注意: 若您同时设定“起始时间 ”和“终止时间 ”,限制“终止时间 ”需晚于(不包含等于)“起始时间 ”。 选择目的端 目的端 指定为天翼云对象存储ZOS。 选择目的端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 说明: 目的端为ZOS,您可在对象存储ZOS的bucket“概览域名信息”中找到终端节点(Endpoint)信息。 选择目的端 Access Key 输入您目的端的Access Key。 选择目的端 Secret Key 输入您目的端的Secret Key。 选择目的端 存储桶 输入您目的端的对象存储桶名称。 选择目的端 目的端指定前缀 是否在目的端指定前缀: 关闭 目的端指定前缀,则会将源端数据按原有目录结构迁移至目的端存储桶。 开启 目的端指定前缀,可为迁移至目的端的对象(或文件夹)增加指定的前缀,可分为“增加前缀”和“增加前缀目录”。 说明: 增加前缀 :若您输入的前缀不为目录,则为迁移的对象(或文件夹)增加该部分前缀。例如:指定源端桶 bucketA 的文件夹 bucketA/a/folder1 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test,则迁移至目的端后为 bucketB/Testa/folder1 。 增加前缀目录 :若您输入的前缀为目录,则为迁移的对象(或文件夹)增加该部分前缀目录,实现将对象迁移至指定的目录下的效果。例如:指定源端桶bucketA的对象 bucketA/a/fileA.png 和 bucketA/b/fileB.png 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test/,则迁移至目的端后为 bucketB/Test/a/fileA.png 和 bucketB/Test/b/fileB.png 。 选择目的端 存储类型 选择迁移数据在目的端的存储类型,支持:匹配源端、标准存储、低频存储、归档存储。 说明: 匹配源端 :会自动匹配源端存储类型,与源端存储类型保持一致。但仅能自动匹配源端的“标准”和“低频”类型,匹配源端的“归档”或“深度归档”类型,请您务必提前对源端归档数据进行手动解冻,并确保迁移任务完成前数据保持解冻状态,否则该部分数据会迁移失败。 标准存储 :将会存储为标准类型。 低频存储 :将会存储为低频类型。 归档存储 :将会存储为归档类型。 不同地域的对象存储ZOS bucket所支持的存储类型不一致,若您此处选择的存储类型,在您的目的端bucket所在地域并不支持,则迁移会失败。您可参考对象存储ZOS产品能力地图,以便确定您的目的端对不同存储类型的支持情况。 选择目的端 ACL配置 选择迁移数据在目的端的ACL配置,支持:匹配源端、私有、公共读。 说明: 匹配源端 :会自动匹配源端的ACL配置,与源端保持一致。 私有 :会将目的端ACL配置为私有。 公共读 :会将目的端ACL配置为公共读。 高级选项 同名文件是否覆盖 选择迁移的同名文件处理策略,支持:同名文件不覆盖、同名文件全覆盖、按最后修改时间判断。 说明: 不覆盖 :对同名文件,不进行任何判断,一律执行跳过。 全覆盖 :对于同名文件,不进行任何判断,一律执行覆盖。 按最后修改时间 :对于同名文件,优先判断二者的Lastmodified(即最后修改时间),仅当源端文件相较目的端修改时间更新时,进行覆盖。若源端与目的端文件最后修改时间一致,则判断两者的文件大小,大小一致则执行跳过,大小不一致则执行覆盖。 注意: 选择“全覆盖 ”将会覆盖您目的端的同名文件,被覆盖的文件无法被恢复,请您配置时慎重评估是否全覆盖,避免不必要的损失。 注意 创建迁移任务的参数涉及您源端存储数据的相关信息,需要您自行在源端获取,部分信息涉及您的隐私,请注意保密。 3. 在确认任务页面,您可以再次检查填写的任务参数,确定无误后,点击“创建任务 ”,这里需要您进行二次确认,确认后即可创建任务。回到迁移任务列表页面,该任务会在列表中展示。 说明 针对半托管模式的迁移任务,创建任务后,迁移服务依赖您的代理对源端进行连通性检查,存在一定的等待时间,若创建任务失败,任务状态会变为“创建失败 请重新创建任务 ”,您可选择该状态后方的问号图标,鼠标悬停查看创建失败的具体错误信息,以帮助您检查配置参数是否有误。 4. 若迁移任务参数校验均通过,则会自动启动任务并变为“启动中 ”状态,启动成功的任务会变为“排队中 ”状态,排队等待您的代理执行任务,无需您再手动执行任务。 注意 若自动启动任务失败,您的任务会变为“已创建”状态,您依旧可以手动开始该任务。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        半托管模式迁移任务的创建与管理
      • 线下IDC使用云上内网DNS
        步骤二:创建用户网关 1. 在网络区域选择“VPN连接”,进入VPN连接页面。 2. 在左侧网络控制台,选择“IPsec VPN”,进入用户网关列表页面。 3. 单击“创建用户网关”。具体步骤可参见创建用户网关。 4. 按照提示配置用户网关参数,单击“确定”,创建成功。 步骤三:创建IPsec连接 1. 在网络区域下拉“VPN连接”选择“IPsec VPN”,进入IPsec VPN页面。 2. 单击“IPsec连接”,进入“IPsec连接”页签。 3. 单击“创建IPsec连接”。 4. 按照提示配置参数。具体步骤可参见创建和管理IPsec连接。 5. 配置完成后单击“确认”,完成IPsec连接创建。 步骤四:在本地网关设备中加载VPN配置 VPN网关配置对应的ipsec连接,您可联系公司网工,根据所用防火墙网关完成配置。具体可参见本地网关配置。 步骤五:内网DNS配置使用 1. 在内网DNS创建内网DNS,关联VPCnewDNS。 2. 在目标域名行,单击“管理记录集”添加记录集,添加newdns主机记录。 添加完成,可在“解析记录”列表看到解析记录信息。 3. 进入网络控制台“终端节点”服务,单击“创建终端节点”。 选择服务及所属VPC后单击“下一步”,勾选“我已阅读”后“确认下单”完成DNS终端节点创建。 4. 设置IDC服务器的DNS服务地址为上一步骤创建的终端节点私网地址(本示例该地址为192.168.0.3)。 以linux操作系统的服务器为例,可以通过修改 resolv.conf文件临时修改服务器的DNS服务地址。 echo "nameserver 192.168.0.3" sudo tee /etc/resolv.conf 通过如下命令可以查看resolv.conf的配置情况 cat /etc/resolv.conf 查看结果 5. 使用nslookup命令查看解析结果,成功后即可实现云下访问云上资源。
        来自:
        帮助文档
        内网DNS
        最佳实践
        线下IDC使用云上内网DNS
      • 认证策略
        本章节主要介绍认证策略。 大数据平台用户需要对用户进行身份认证,防止不合法用户访问集群。安全模式或者普通模式的集群均提供认证能力。 安全模式 安全模式的集群统一使用Kerberos认证协议进行安全认证。Kerberos协议支持客户端与服务端进行相互认证,提高了安全性,可有效消除使用网络发送用户凭据进行模拟认证的安全风险。集群中由KrbServer服务提供Kerberos认证支持。 Kerberos用户对象 Kerberos协议中,每个用户对象即一个principal。一个完整的用户对象包含两个部分信息:用户名和域名。在运维管理或应用开发的场景中,需要在客户端认证用户身份后才能连接到集群服务端。系统操作运维与业务场景中主要使用的用户分为“人机”用户和“机机”用户。二者主要区别在于“机机”用户密码由系统随机生成。 Kerberos认证 Kerberos认证支持两种方式:密码认证及keytab认证。认证有效时间默认为24小时。 密码认证:通过输入用户正确的密码完成身份认证。主要在运维管理场景中使用“人机”用户进行认证,命令为kinit 用户名 。 keytab认证:keytab文件包含了用户principal和用户凭据的加密信息。使用keytab文件认证时,系统自动使用加密的凭据信息进行认证无需输入用户密码。主要在组件应用开发场景中使用“机机”用户进行认证。keytab文件也支持在kinit命令中使用。 普通模式 普通模式的集群不同组件使用原生开源的认证机制,不支持kinit认证命令。FusionInsight Manager(含DBService、KrbServer和LdapServer)使用的认证方式为用户名密码方式。组件使用的认证机制如下表所示。 表 组件认证方式一览表 服务 认证方式 ClickHouse simple认证 Flume 无认证 HBase WebUI:无认证 客户端:simple认证 HDFS WebUI:无认证 客户端:simple认证 Hive simple认证 Hue 用户名密码认证 Kafka 无认证 Loader WebUI:用户名密码认证 客户端:无认证 Mapreduce WebUI:无认证 客户端:无认证 Oozie WebUI:用户名密码认证 客户端:simple认证 Spark2x WebUI:无认证 客户端:simple认证 Storm 无认证 Yarn WebUI:无认证 客户端:simple认证 ZooKeeper simple认证 认证方式解释如下: “simple认证”:在客户端连接服务端的过程中,默认以客户端执行用户(例如操作系统用户“root”或“omm”)自动进行认证,管理员或业务用户不显式感知认证,不需要kinit完成认证过程。 “用户名密码认证”:使用集群中“人机”用户的用户名与密码进行认证。 “无认证”:默认任意的用户都可以访问服务端。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        认证策略
      • 功能、优势和限制
        一个账号可以申请多少个弹性IP? 每个账号下在所有一类节点资源池默认可开通的弹性IP数量默认为20个。 每个账号下弹性IP配额默认为每个区域10 个,如需扩大配额,可提交工单。 因弹性 IP 资源有限,请确保每一个弹性 IP 用于正规用途,恶意抢占 IP 将可能被天翼云强制收回。 您在工单内请说明您的业务情况,我们将根据您的业务情况为您审批是否扩大配额。 网站域名解析是否可以使用弹性IP? 可以使用。 用弹性IP进行网站域名解析,还需要进行备案等相关操作,您的网站内容应符合国家法律法规。 您可以在【天翼云备案】根据指引完成备案信息填写。
        来自:
        帮助文档
        弹性IP EIP
        常见问题
        功能、优势和限制
      • 步骤一(1):创建入云迁移任务
        本节主要介绍步骤一(1):创建入云迁移任务 本章节将以MySQL到RDS for MySQL的迁移为示例,介绍在公网网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 公网网络适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库。 在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足入云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择入云。 入云指目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处选择公网网络。 默认为公网网络类型,支持VPC网络、VPN网络、专线网络、公网网络。 VPC网络:适合云上数据库之间的迁移。 公网网络:适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库,该类型要求源数据库绑定弹性IP。 VPN网络:适合通过VPN网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 专线网络:适合通过专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 目标数据库实例 用户所创建的关系型数据库实例。 目标库读写设置 只读 迁移中,目标数据库实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写 迁移中,目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。如果目标库有其他数据库需要在迁移时被业务使用,可设置该选项为读写。 说明 目前仅MySQL数据库支持目标库读写设置。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、启动失败、全量中、全量失败、增量中、增量失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 如果单击“测试连接”后提示迁移实例和数据库的网络连接失败,请参考《数据库复制服务常见问题》中的“
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(1):创建入云迁移任务
      • 客户端错误码
        错误编码 错误原因 错误类型 解决方案 0x0001 应用资源格式异常 服务端异常 请重新启动零信任客户端并登录。 0x0002 应用资源返回异常 服务端异常 请重新启动零信任客户端并登录。 0x0003 控制中心的隧道资源格式异常 服务端异常 请重新启动零信任客户端并登录。 0x0004 控制中心的隧道资源返回异常 服务端异常 请重新启动零信任客户端并登录。 0x0005 认证中心返回异常 服务端异常 请重新启动零信任客户端并登录。 0x0006 登录中心返回异常 服务端异常 请重新启动零信任客户端并登录。 0x0007 MAC的本地DNS端口冲突,比如5953是否被占用等 软件冲突 运行的软件可能与零信任客户端冲突,请关闭软件后再次启动零信任客户端。 0x0008 MAC的本地dns为空 网络或DNS异常 尝试切换网络后重新登录,若仍未恢复,请检查设备的DNS配置。 0x0009 Windows调用底层流量劫持失败 客户端异常 请重新启动零信任客户端并登录。 0x0010 Windows启动隧道异常 客户端异常 请重新启动零信任客户端并登录。 0x0011 Windows获取边缘节点地址异常 网络或DNS异常 请检查或尝试切换网络。若仍未恢复,请检查设备的DNS配置。 0x0012 windows创建网络适配器异常 客户端异常 请重新启动零信任客户端并登录。 0x0013 windows开启网卡驱动日志异常 客户端异常 请重新启动零信任客户端并登录。 0x0014 启动配置解析认证中心域名异常 客户端异常 如果使用了配置文件,请检查配置项格式是否正确,如果未使用,请重新安装零信任客户端并重新登录。 0x0016 秘钥创建异常 客户端异常 请重新安装零信任客户端,并重新登录。 0x0017 私钥创建异常 客户端异常 请重新安装零信任客户端,并重新登录。 0x0018 公钥创建异常 客户端异常 请重新安装零信任客户端,并重新登录。 0x0019 MAC进程异常重启 客户端异常 请尝试重新登录。 0x0020 认证中心返回的隧道节点为空 服务端异常 请重新启动零信任客户端并登录。 0x0021 Windows网卡配置加载失败 客户端异常 请重新启动零信任客户端并登录。 0x0022 Windows网卡启动失败,未找到vpn网卡 客户端异常 请重新启动零信任客户端并登录。 0x0026 sdk认证返回异常 客户端异常 请重新启动零信任客户端并登录。 0x0027 认证请求不合法 客户端异常 请重新启动零信任客户端并登录。 0x0031 没有可用节点 服务端异常 请重新启动零信任客户端并登录。 0x0043 隧道watchdog 配置网卡超时 客户端异常 请重新启动零信任客户端并登录。 0x0033 错误的节点索引 客户端异常 请重新启动零信任客户端并登录。 0x0036 未配置连接器,隧道创建失败 服务端异常 请先上控制台配置对应连接器。 0x0037 认证中心通告,未匹配上报的节点 服务端异常 网络异常,请检查DNS设置,关闭其他VPN代理软件再重新登录。若未解决,可用诊断工具检测。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        AOne客户端用户指南
        客户端错误码
      • 短视频场景下的QUIC实践
        本文介绍QUIC协议在短视频加速的应用实践。 背景信息 QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。Google推出的QUIC被称为GQUIC,IETF制定的QUIC称为IQUIC。 QUIC的主要优势如下: 1. 握手建连更快。 2. 避免队首阻塞的多路复用。 3. 支持连接迁移。 4. 可插拔的拥塞控制。 5. 前向纠错(FEC)。 协议详细介绍,详情请见:HTTP3.0(QUIC)协议。 适用场景 1. 图片业务:可降低图片加载时间。 2. 短视频业务:可提升视频秒开率,并且降低弱网环境卡顿率。 3. 直播业务:可提升播放稳定性,降低因网络波动带来的卡顿率。 如何验证CDN已开启QUIC功能 QUIC协议暂不支持客户自助开启,如需使用,请通过提交工单给天翼云客服,由其人工操作开启。 QUIC属于双边协议,需要客户端同步支持。如您已开通QUIC功能,可以使用Chrome浏览器或者基于Chrome内核的浏览器来访问对应网站域名,并在浏览器开启开发者工具进行抓包验证。目前较新版本的Chrome浏览器已默认开启QUIC。 一般情况下,Chrome浏览器和服务器端协商使用QUIC协议要经过如下步骤: 1. 首次访问,客户端会先发起正常的TCP请求。 2. 服务端如果支持QUIC,会通过响应头部返回altsvc信息告知客户端自己支持QUIC及对应版本(如下图),其含义是服务器在443端口开启QUIC,最大缓存时间是2592000秒(30天),支持的QUIC版本IQUIC。 3. 下次访问,客户端会同时发起TCP连接和QUIC连接进行竞速。 4. 一旦QUIC竞速连接获胜,则后续会采用QUIC协议发送请求,如果在浏览器进行抓包(快捷键F12打开开发者工具),可在Protocol列查看其具体的协议,如下图所示,这里显示的h3即表示采用的是IQUIC。 注意 如果没有Protocol列,右键点击Header Options,勾选Protocol列即可。 5. 如遇网络或服务器不支持QUIC,客户端标记QUIC为broken。 6. 传输中的QUIC请求立即用TCP进行重发。 7. 5min后尝试重试QUIC,下一次尝试增大到10min。 8. 一旦再次成功采用QUIC,会把broken标记取消。
        来自:
        帮助文档
        CDN加速
        最佳实践
        短视频场景下的QUIC实践
      • 升级前须知
        版本升级路径 版本差异 建议自检措施 升级至v1.28、v1.29、v1.30、v1.31、v1.32 请关注Kubernetes API变更。 检查集群中已使用的API版本,避免使用已废弃的API版本。 v1.23/v1.25 升级至v1.27 容器运行时Docker不再被推荐使用,建议您使用Containerd进行替换。 已纳入升级前检查。 v1.23升级至v1.25 在Kubernetes v1.25版本中,PodSecurityPolicy已被移除,并提供Pod安全性准入控制器作为PodSecurityPolicy的替代。 l 如果您需要将PodSecurityPolicy的相关能力迁移到Pod Security Admission中,需要参照以下步骤进行: 1. 确认集群为CCE v1.23的最新版本。 2. 迁移PodSecurityPolicy的相关能力迁移到Pod Security Admission。 3. 确认迁移后功能正常,再升级为CCE v1.25版本。 l 如果您不再使用PodSecurityPolicy能力,则可以在删除集群中的PodSecurityPolicy后,直接升级为CCE v1.25版本。 v1.21/v1.19 升级至v1.23 对于社区较老版本的Nginx Ingress Controller来说(社区版本v0.49及以下,对应CCE插件版本v1.x.x),在创建Ingress时没有指定Ingress类别为nginx,即annotations中未添加kubernetes.io/ingress.class: nginx的情况,也可以被Nginx Ingress Controller纳管。但对于较新版本的Nginx Ingress Controller来说(社区版本v1.0.0及以上,对应CCE插件版本2.x.x),如果在创建Ingress时没有显示指定Ingress类别为nginx,该资源将被Nginx Ingress Controller忽略,Ingress规则失效,导致服务中断。 已纳入升级前检查。 v1.19升级至v1.21 Kubernetes v1.21集群版本修复了exec probe timeouts不生效的BUG,在此修复之前,exec探测器不考虑timeoutSeconds字段。相反,探测将无限期运行,甚至超过其配置的截止日期,直到返回结果。 若用户未配置,默认值为1秒。升级后此字段生效,如果探测时间超过1秒,可能会导致应用健康检查失败并频繁重启。 升级前检查您使用了exec probe的应用的probe timeouts是否合理。 CCE的v1.19及以上版本的kubeapiserver要求客户侧webhook server的证书必须配置Subject Alternative Names (SAN)字段。否则升级后kubeapiserver调用webhook server失败,容器无法正常启动。 根因:Go语言v1.15版本废弃了X.509 CommonName ,CCE的v1.19版本的kubeapiserver编译的版本为v1.15,若客户的webhook证书没有Subject Alternative Names (SAN),kubeapiserver不再默认将X509证书的CommonName字段作为hostname处理,最终导致认证失败。 升级前检查您自建webhook server的证书是否配置了SAN字段。 l 若无自建webhook server则不涉及。 l 若未配置,建议您配置使用SAN字段指定证书支持的IP及域名。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        升级前须知
      • 采集常见错误类型
        本文主要介绍采集常见错误类型。 以下为常见的错误类型以及对应的解决方法说明,可供参考。 LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为.。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content...:日志无法匹配配置中的正则表达式 match result count less...:匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • HBlock相关配置
        Sample of statefulset with dynamic pv. Path is templates/examples/filesystemvolumes/statefulset statefulset: enable: false clusterId: cluster1 clusterMode: true Sample of static pv. Path is templates/examples/filesystemvolumes/staticpv staticPv: enable: false clusterId: cluster1 clusterMode: true lunName: lun04 snapshots: Sample of static snapshot. snapshot should preprovisioned before staticSnapshot be enabled. Path is templates/examples/snapshots/staticsnapshot staticSnapshot: enable: false clusterId: cluster1 sourceLunName: lu1 snapshotName: s1 参数描述 参数 描述 是否必填 driverName HBlock CSI驱动名称。 取值:字符串形式,长度范围是1~63,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。禁止出现连续符号。 默认值为stor.csi.k8s.io。 是 driverNamespace HBlock CSI绑定的Kubernetes命名空间。 注意 必须为已经存在的Kubernetes命名空间。 默认值为:default。 是 iscsiOnHost iscsid、multipathd守护进程由宿主机启动,而非CSI POD启动。 取值:true:iscsid、multipathd守护进程由宿主机启动的模式。 是 storConfig HBlock配置信息。 是 clusterID 指定HBlock的标识,在csiconfigMap中唯一。 取值:字符串形式,长度范围是1~256,可以包含字母、数字、和短横线(),字母区分大小写 是 apiEndPointList HBlock的服务器IP地址及API端口号;或者已经关联了HBlock IP和API端口号的Kubernetes service域名。 如果是集群版,填写集群中所有的IP地址及API端口号;如果单机版,只填写一个即可。 是 storProvider HBlock产品名称。 取值:HBlock。 是 csiApiTimeout 指定HBlock创建LUN的等待时间,在等待时间内LUN创建失败,会报错,然后重试。 取值:正整数,默认值为480,单位是秒。 注意 建议使用默认值。 否 userKey 对接HBlock的标识、用户名及密码的字符串的base64编码。 userKey的编码过程,可以参见配置HBlock访问用户名和密码。 是 chap 加密模式配置。 否 decryptFlag 是否启用加密模式,配置为true(启用)或false(不启用)的Base64编码字符串。 取值: dHJ1ZQ:启用加密,true的Base64编码。 ZmFsc2U:不启用加密,false的Base64编码。 默认不启用加密。 否 decryptData 加密的密钥。 说明 启用加密,此参数必填。 取值:源码为16位的字符串。需要对源码进行Base64编码。 decryptData的编码过程可以参见配置加密模式。 条件 example 此字段是各样例的开启,配置完成storConfig、userKey、chap后,用户可以通过开启一个样例开关,来验证HBlock CSI是否已经可以正常启用。 注意 启动样例时,建议只开启一个样例,避免多样例互相冲突。验证完成后,需要将样例开关变为false,避免与正式的实例冲突。 否 2. 应用配置文件,在charts/csidriverstor下执行更新配置命令。 plaintext helm upgrade stor ./
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        HELM方式使用指南
        配置插件
        HBlock相关配置
      • 在线迁移方式
        sectionba1f927676e7de5d)开启Proxy集群多DB设置。 步骤1:获取源Redis的信息 当源端为云服务Redis时,需获取准备迁移的源Redis实例的名称。 当源端为自建Redis时,需获取准备迁移的源Redis实例的IP和端口,或者域名和端口。 步骤2:准备目标Redis实例 如果您还没有目标Redis,请先创建。 如果您已有目标Redis,则不需要重复创建,但在迁移之前,您需要清空实例数据。清空操作,请参考清空Redis实例数据。 如果没有清空,如果存在与源Redis实例相同的key,迁移后,会覆盖目标Redis实例原来的数据。 步骤3:在线迁移任务与源Redis、目标Redis间网络要求 说明 配置在线迁移任务时,如果选择的源Redis或目标Redis为“云服务Redis”,则界面上要求所选云服务Redis必须与迁移任务处于相同的VPC,否则可能导致迁移任务无法连接所选云服务Redis实例。 特殊场景下,如果提前打通了迁移任务与所选云服务Redis实例间跨VPC访问,则可不用满足所选云服务Redis与迁移任务处于相同VPC的约束。 在创建在线迁移任务时,与源Redis、目标Redis间网络要求可参考下表。 表 在线迁移任务与源Redis、目标Redis间网络要求 源Redis类型 目标Redis类型 创建在线迁移任务网络要求 云服务Redis 云服务Redis 创建在线迁移任务时,要求在线迁移任务与源Redis和目标Redis在同一个VPC,如果在线迁移任务与源Redis或目标Redis不在同一个VPC,则需要打通迁移任务与源Redis或目标Redis间的跨网络访问。如需打通跨网络访问,请参考的“对等连接”章节,查看和创建对等连接。 云服务Redis 自建Redis 创建在线迁移任务时,要求在线迁移任务与源Redis在同一个VPC,然后再单独打通迁移任务与目标端自建Redis间的跨网络访问。如需打通跨网络访问,请参考的“对等连接”章节,查看和创建对等连接 自建Redis 云服务Redis 创建在线迁移任务时,要求在线迁移任务与目标Redis在同一个VPC,然后再单独打通迁移任务与源端自建Redis间的跨网络访问。如需打通跨网络访问,请参考的“对等连接”章节,查看和创建对等连接 自建Redis 自建Redis 创建在线迁移任务后,需要分别打通迁移任务与源端自建Redis、目标端自建Redis间的跨网络访问。如需打通跨网络访问,请参考的“对等连接”章节,查看和创建对等连接
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        使用DCS迁移数据
        在线迁移方式
      • 《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号
        《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号 为切实保证网站备案信息的真实性,落实《工业和信息化部关于进一步深入整治手机淫秽色情专项行动工作方案》中的要求:“基础电信企业和各接入服务商在向通信管理局提交网站申请备案之前,要对主办者身份信息当面核验、留存有效证件复印件,要对网站主体信息、联系方式和接入信息等进行审查”。依据《互联网信息服务管理办法》(国务院令第292号)、《非经营性互联网信息服务备案管理办法》(信息产业部令第33号)的相关规定,制定网站备案信息真实性核验工作方案。 一、核验内容 接入服务单位根据相关网站的委托代为履行备案、备案变更等手续时,应对网站主办者提交的主体信息、联系方式、网站信息,以及本单位提交的接入信息的真实性进行核验。 1.网站主办者(主体)信息 网站主办者是指互联网信息服务提供者,包括单位和个人两类。 (1)网站主办者为单位,核验证件为: 如网站主办者为机关、事业单位、社会团体,组织机构代码证书原件为核验其单位资质的第一证件,在没有组织机构代码证书的情况下,可核验事业法人证书或社团法人证书等原件。 如网站主办者为企业,核验工商营业执照或组织机构代码证书等原件。 如网站主办者为军队,核验军队代号证书原件。 网站负责人的个人证件:如网站负责人为中国公民,身份证原件为核验其身份的第一证件,在没有身份证的情况下,可核验户口簿、军官证、台胞证等原件;如网站负责人非中国公民,则核验其护照原件。 (2)网站主办者为个人,核验证件为: 如网站主办者为中国公民,身份证原件为核验其身份的第一证件,在没有身份证的情况下,可核验户口簿、军官证、台胞证等原件。 如网站主办者非中国公民,则核验其护照原件。 (3)网站负责人的定义:若网站主办者为单位,网站负责人是指法定代表人或单位委派具体负责网站的部门负责人;若网站主办者为个人,网站负责人为其本人。 2.联系方式 如网站主办者为单位,联系方式是指网站负责人手机号码、办公电话、电子邮箱、通信地址;如网站主办者为个人,联系方式是指网站负责人手机号码、办公电话或住宅电话、电子邮箱、通信地址。 3.网站信息 网站名称、网站域名、涉及需前置审批或专项审批内容、网站服务内容/项目。 4.接入信息 接入服务提供者名称、接入方式、服务器放置地点、网站IP地址。 二、核验、审核、核查规程 (一)备案信息真实性责任主体 接入服务单位根据相关网站的委托代为履行备案、备案变更等手续时,核验主体为接入服务单位,包括:基础电信企业省分公司(含市、县级分公司)、互联网接入服务单位(IDC、ISP)、公益性互联单位等。 审核主体为各省、自治区、直辖市通信管理局。 核查主体为工业和信息化部(委托国家互联网备案管理支撑中心,以下简称“备案中心”)。 (二)备案信息真实性核验、审核、核查规程 网站备案信息真实性核验、审核工作流程图见附件。 1.接入服务单位网站备案核验规程 (1)网站主办者登录接入服务单位备案系统录入网站备案信息。 (2)接入服务单位受理网站主办者提交信息后,对主体信息、联系方式等信息进行预核验:初步判定主体信息是否真实,通过电话、邮件等途径核验联系方式是否正确。预核验后,接入服务单位应向网站主办者发送现场核验通知或信息退回的短信提示:“您提交的网站备案信息已通过预核验,请在1个月内由网站负责人本人携带有关证件原件到我单位备案现场办理核验手续”或“您提交的网站备案信息未通过预核验,请修改后重新提交”。预核验工作必须在主办者提交备案信息后5个工作日内完成。 (3)网站主办者接到通知后,由网站负责人本人携带核验所需证件原件、材料到接入服务单位备案现场办理核验手续。 (4)接入服务单位在本单位备案现场采集并留存网站负责人彩色正面免冠照(电子照片规格:800×600像素)。备案中心统一制作、提供带有标识的幕布作为拍照背景,照片应显示拍照时间和背景标识。 (5)接入服务单位备案人员利用公安、质检、工商等相关部门提供的居民身份证、组织机构代码证、工商营业执照等信息源,核验网站主办者提供证件原件的真实性。同时通过网站负责人身份证原件核验身份证与当事人是否一致。核验无误,留存身份证明和单位有效证件复印件。 接入服务单位备案人员登录本单位备案系统,依据证件原件内容对网站主办者网上提交的主体信息进行核验:核验证件持有者、证件类型、证件内容与备案系统中录入的网站备案信息是否完全一致,不一致不予受理;依据网站主办者提交的域名证书或域名注册机构网站公共查询信息,核验网站域名所有者与网站主办者身份的一致性,不一致不予受理;依据本单位对网站的实际接入情况,准确录入网站备案接入信息各项内容。 (6)若核验无误,接入服务单位备案人员填写统一格式的《网站备案信息真实性核验单》(备案中心负责制订《网站备案信息真实性核验单》格式);若发现备案信息有误,现场核实修改,并在《网站备案信息真实性核验单》中进行记录。《网站备案信息真实性核验单》一式两份:一份接入服务单位留存,一份上报网站主体所在地通信管理局,加盖接入服务单位公章。网站主办者和接入服务单位同时签订信息安全管理协议书。 (7)在确认备案信息全部核验无误后,接入服务单位通过本单位备案系统向主体所在地通信管理局备案系统提交网站备案信息,并提交《网站备案信息真实性核验单》纸制原件、传真件或电子扫描件。 2.省通信管理局审核规程 各省、自治区、直辖市通信管理局登录省局备案系统,在二十个工作日内对接入服务单位提交备案信息进行审核。审核合格下发网站备案号,接入服务单位实施网站接入;不合格将备案信息退回接入服务单位系统,由接入服务单位重新核验。 3.备案中心核查规程 (1)备案中心受工业和信息化部委托,建设网站备案信息校验平台,对各通信管理局提交网站备案信息中的身份证信息进行全量自动核查。结合人工电话抽查,每月对备案系统提交的网站备案信息进行准确性核查和抽样评估并反馈情况。 (2)备案中心每季度对部备案系统中存量网站备案信息准确率、备案率分省分接入商进行核查和抽样评估并反馈情况。 三、工作要求 (一)接入服务单位核验工作要求 1.组织保障和制度完善要求 各接入服务单位应在2010年2月底前设立现场核验网站备案信息部门,专门负责网站备案信息真实性核验工作,并实行单位领导负责制。应建立本单位的备案业务规范,备案工作考核制度。明确备案人员的工作责任,对备案人员业务能力实行年度考核,将日常备案工作质量作为考核的重要指标。 各接入服务单位应在2010年3月底前正式实施网站备案信息当面核验,并将工作开展情况报许可证发证机关和单位注册所在地通信管理局。 基础电信企业应在2010年4月份对租用本单位电信资源从事接入业务的接入服务单位是否设立当面核验人员、履行当面核验备案信息的情况进行检查,对未履行当面核验责任的,不得为其提供电信资源。 2.业务明示要求 接入服务单位在业务经营中应向网站主办者明示开办网站要依法办理备案手续、网站备案流程、需提供的证件、材料清单及网站备案有关注意事项。 3.业务合同内容要求 接入服务单位应在与网站主办者签订业务合同中,明文要求:“依据《非经营性互联网备案管理办法》第二十三条规定,如备案信息不真实,将关闭网站并注销备案。请您承诺并确认:您提交的所有备案信息真实有效,当您的备案信息发生变化时请及时到备案系统中提交更新信息,如因未及时更新而导致备案信息不准确,我公司有权依法对接入网站进行关闭处理。”双方签字、单位盖章确认。 4.信息安全管理责任要求 接入服务单位建立网站主办者资料档案,妥善保管核验过程中获取的网站主办者证件信息、照片信息、《网站备案信息真实性核验单》、与网站主办者签署的各项协议,保证信息不泄露,承担对网站主办者提交材料的信息安全保密管理责任。上述资料至少留存5年以上,以备通信行业主管部门依法进行检查。 5.网站备案信息更新要求 接入服务单位应做好日常回访核查工作,确保网站备案信息变更后,网站主办者及时更新主体信息、联系方式、网站信息。同时接入服务单位应根据网站接入变化情况,及时更新接入信息,并配合主管部门做好网站备案信息真实性核查工作。因未开展日常回访核查工作导致接入网站备案信息不准确的接入服务单位,主管部门依法对其进行处罚。 6.存量网站备案信息核验要求 对备案信息真实性当面核验工作正式启动前接入的网站,各接入服务单位要在2010年2月底前制定备案信息真实性核验工作详细计划,报许可证发证机关和单位注册所在地通信管理局,并在2010年9月底前完成全部网站的备案信息真实性核验。 (二)省通信管理局审核工作要求 1.做好日常审核工作 各通信管理局应做好日常网站备案信息真实性审核工作,保证对重点信息(营业执照、身份证等)的逐一细致审核。二期备案系统升级改造后可由各通信管理局审核人员用口令登录接入服务单位系统抽检审核证件原件,同时检查接入服务单位上交的《网站备案信息真实性核验单》。 2.检查“当面核验”工作开展情况 各通信管理局对接入服务单位当面核验网站备案信息的部门设立和工作制度完善情况进行指导和检查。根据接入服务单位保存的真实性核验证明材料,对接入服务单位“当面核验”工作的开展情况、接入服务单位提交备案信息的准确性进行定期检查或不定期抽查,对发现未执行“当面核验”或提供虚假信息的,应严肃处理。同时将日常检查考核结果作为许可证年检重要参考。 (三)备案中心核查工作要求 1.新增网站备案信息核查 备案中心每月对新提交的网站备案信息进行准确性抽查。对备案主体信息中身份证、组织机构代码证等信息进行重点抽查核查。 2.存量网站备案信息核查 备案中心按季度对系统存量网站备案信息进行准确性核查,对各接入服务单位真实性核验网站备案信息工作开展情况、完成进度、工作质量进行核查和抽查评估。 3.制定核查标准和监督评估办法 备案中心根据工业和信息化部的委托,适时制订、细化、完善网站备案信息核查标准和监督评估办法,并向各通信管理局、接入服务单位发布。 4.加强对工作开展情况的督导、统计 备案中心根据工业和信息化部的委托,对各单位落实网站备案信息真实性核验工作开展情况进行指导帮助和监督评估。加强对各单位落实网站备案信息真实性核验工作情况的分类统计,开展对各地通信管理局行政处罚情况汇总等工作。 5.开展网站备案业务培训 备案中心根据工业和信息化部的委托,编写、制订网站备案培训资料,组织开展面向各接入服务单位的全国性网站备案培训工作,对应掌握的网站备案相关政策法规、业务知识进行统一讲解。 四、问责 各省、自治区、直辖市通信管理局根据属地化管理原则,对未按《工业和信息化部关于进一步深入整治手机淫秽色情专项行动工作方案》中提出的“对网站主办者身份信息当面核验、留存有效证件复印件”要求开展工作,未认真开展网站备案信息真实性核验工作,提交不真实网站备案信息的接入服务单位,依据《非经营性互联网信息服务备案管理办法》第十条和第二十四条的规定依法处罚,责令限期改正。
        来自:
        帮助文档
        ICP备案
        法律法规及公告
        法律法规
        《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号
      • 配置MySQL数据库连接
        参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 mysqllink 数据库服务器 配置为要连接的数据库的IP地址或域名。 单击输入框后的“选择”,可获取用户的MySQL数据库实例列表。 192.168.0.1 端口 配置为要连接的数据库的端口。 3306 数据库名称 配置为要连接的数据库名称。 dbname 用户名 待连接数据库的用户。该数据库用户需要有数据表的读写权限,以及对元数据的读取权限。 cdm 密码 用户名密码。 使用本地API 可选参数,选择是否使用数据库本地API加速。 创建MySQL连接时,CDM会自动尝试启用MySQL数据库的localinfile系统变量,开启MySQL的LOAD DATA功能加快数据导入,提高导入数据到MySQL数据库的性能。 如果CDM自动启用失败,请联系数据库管理员启用localinfile参数或选择不使用本地API加速。 如果是导入到RDS上的MySQL数据库,由于RDS上的MySQL默认没有开启LOAD DATA功能,所以同时需要修改MySQL实例的参数组,将“localinfile”设置为“ON”,开启该功能。 说明 如果RDS上的“localinfile”参数组不可编辑,则说明是默认参数组,需要先创建一个新的参数组,再修改该参数值,并应用到RDS的MySQL实例上,具体操作请参见 是 使用Agent 是否选择通过Agent从源端提取数据。 是 Agent 单击“选择”,选择管理Agent中已创建的Agent。 localinfile字符集 mysql通过localinfile导入数据时,可配置编码格式。 utf8 驱动版本 不同类型的关系数据库,需要适配不同的驱动。 单次请求行数 可选参数,单击“显示高级属性”后显示。 指定每次请求获取的行数,根据数据源端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 连接属性 可选参数,单击“添加”可增加多个指定数据源的JDBC连接器的属性,参考对应数据库的JDBC连接器说明文档进行配置。 说明 CDM作业默认打开了useCursorFetch开关,即JDBC连接器与关系型数据库的通信使用二进制协议。 开源MySQL数据库支持useCursorFetch参数,无需对此参数进行设置。 sslmoderequire 引用符号 可选参数,连接引用表名或列名时的分隔符号,参考对应数据库的产品文档进行配置。 ' 单次写入行数 指定单次批量写入的行数,当写入行数累计到单次批量提交行数时提交一次,该值应当小于单次提交行数。 100
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        配置MySQL数据库连接
      • 节点本地域名解析加速
        本文主要介绍节点本地域名解析加速。 插件简介 节点本地域名解析加速(nodelocaldns)是基于社区NodeLocal DNSCache通过在集群节点上作为守护程序集运行DNS缓存代理,提高集群DNS性能。 开源社区地址: NodeLocal DNSCache查询路径 约束与限制 仅支持1.19及以上版本集群。 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,在左侧导航栏中选择“插件管理”,在右侧找到 nodelocaldns ,单击“安装”。 步骤 2 在安装插件页面,选择插件规格,并配置相关参数。 enablednsconfigadmission :是否自动注入。默认为 false ,设置为true表示自动注入。 步骤 3 完成以上配置后,单击“安装”。 版本记录 CCE插件版本记录 插件版本 支持的集群版本 社区版本(仅1.17及以上版本集群支持) 1.2.2 /v1.(192123)./ 1.21.1
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        节点本地域名解析加速
      • 1
      • ...
      • 71
      • 72
      • 73
      • 74
      • 75
      • ...
      • 78
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      天翼云CTyunOS系统

      模型推理服务

      科研助手

      智算一体机

      知识库问答

      人脸实名认证

      人脸属性识别

      推荐文档

      Microsoft SQL Server

      连接列表

      文档下载

      策略管理

      开通备案

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号