云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 本地数据中心通过专线连通VPC接入OBS
        如果您希望本地数据中心通过VPN或者云专线以内网方式访问OBS服务,则可以通过终端节点连接终端节点服务实现。本节介绍线下节点(即本地数据中心)通过内网方式访问云上OBS服务的配置指导。 前提条件 已设置专线所接入的VPC网段。 操作场景 如果您希望本地数据中心通过VPN或者云专线以内网方式访问OBS服务,则可以通过终端节点连接终端节点服务实现。 说明 “网关”类型的OBS终端节点服务目前需要按照名称查找并关联终端节点,各资源池终端节点服务名称请联系OBS产品经理获取。 如图所示,线下节点(即本地数据中心)通过VPN或者云专线与VPC连通。在VPC内创建终端节点,与云上的OBS和DNS类型的终端节点服务连接,实现线下节点(即本地数据中心)通过内网访问云上服务。 终端节点不能脱离终端节点服务单独存在,创建终端节点的前提是要连接的终端节点服务已存在。 本操作场景涉及两个系统创建的终端节点服务: 终端节点服务(DNS):提供域名解析服务,用于线下本地数据中心解析OBS域名。 终端节点服务(OBS):提供OBS服务,供线下本地数据中心访问。 具体流程如下: 步骤一:创建连接DNS的终端节点 使用该VPC创建VPC终端节点连接DNS
        来自:
        帮助文档
        对象存储 OBS
        最佳实践
        本地数据中心通过专线连通VPC接入OBS
      • 操作类
        为什么写入文件系统的中文字符在客户端显示为乱码? 问题描述: 在跨平台的环境中,例如在Linux或Windows客户端向弹性文件系统写入中文字符(文件名、内容等),可能会导致在另一个平台的客户端上显示为乱码的问题。 问题原因: Windows客户端默认使用GBK字符集进行中文编解码,而Linux客户端默认使用UTF8字符集进行中文编解码。当数据写入弹性文件系统时,会以各自平台对应字符集编码后的内容进行存储。当在另一个平台上读取这些数据时,由于两个平台使用的字符集不兼容,无法正确解码,导致显示的内容变成了乱码。 解决方案: 建议您在Windows客户端上使用CIFS协议挂载弹性文件系统,在Linux客户端上使用NFS协议挂载文件系统。通过这种方式,可以避免平台不兼容的问题,确保中文字符能够正常显示和解码。 当弹性文件系统无法结束进程时,如何清理客户端泄露的句柄? 如果需要释放CIFS文件系统的所有连接并释放所有句柄,可以使用以下工具进行操作。 Windows客户端可使用tcpview工具来断开CIFS文件系统的所有连接,具体操作如下: 1. 下载并安装tcpview工具。 2. 打开tcpview工具。 3. 在工具中找到与CIFS文件系统相关的连接。 4. 右键点击连接,并选择"Close Connection"来断开连接。 Linux客户端可使用killcx工具来断开CIFS文件系统的所有连接,具体操作如下请参考
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        操作类
      • 迁移方案说明
        迁移场景 工具 方案 迁移说明 自建Redis迁移至DCS DCS控制台数据迁移功能 使用在线迁移自建Redis 不同Region,可开通 云间高速 ,打通网络 同Region不同VPC,可开通 对等连接 ,打通网络 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(AOF文件) 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(RDB文件) 自建Redis迁移至DCS RedisShake 使用RedisShake工具迁移自建Redis Cluster集群 其他云厂商Redis服务迁移至DCS DCS控制台数据迁移功能 使用在线迁移其他云厂商Redis 其他云厂商Redis服务迁移至DCS RedisShake 使用RedisShake工具离线迁移其他云厂商Redis Cluster集群 DCS实例间迁移 DCS控制台数据迁移功能 低版本Redis迁移至高版本Redis实例。 如网络互通,建议使用在线迁移功能迁移Redis实例数据 如网络不通,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通 云间高速 ,打通网络 同Region不同VPC,可开通 对等连接 ,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同Region的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通 云间高速 ,打通网络 同Region不同VPC,可开通 对等连接 ,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同账号的Redis实例迁移,建议使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通 云间高速 ,打通网络 同Region不同VPC,可开通 对等连接 ,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 同Region不同VPC下的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例 1、网络连通 不同Region,可开通 云间高速 ,打通网络 同Region不同VPC,可开通 对等连接 ,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例迁移下云 DCS控制台数据迁移功能 DCS实例迁移下云 建议打通网络后,使用线迁移功能进行数据迁移
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 创建终端节点服务
        操作场景 为实现跨VPC通信,您需要将VPC内的云资源(即后端资源)创建为终端节点服务,以便于同一区域其他VPC的终端节点通过私网IP访问该终端节点服务。 本节以VPC2中,属于帐号B的“弹性负载均衡”作为后端资源为例,指导您创建终端节点服务。 前提条件 在同一VPC内,已经完成后端资源的创建。 操作步骤 1. 登录管理控制台。 2. 在管理控制台左上角单击“ ”图标,选择区域和项目。 3. 单击“服务列表”中的“网络 > VPC终端节点”,进入“终端节点”页面。 4. 在左侧导航栏选择“VPC终端节点 > 终端节点服务”,单击“创建终端节点服务”。 进入“创建终端节点服务”页面。 图 创建终端节点服务 表 终端节点服务配置参数 参数 说明 区域 终端节点服务所在区域。 不同区域的资源之间内网不互通。请选择靠近您的区域,可以降低网络时延、提高访问速度。 名称 可选参数。 终端节点服务的名称。 长度不大于16,支持大小写字母、数字、下划线、中划线。 如果您不填写该参数,系统生成的终端节点服务的名称为{region}.{serviceid}。 如果您填写该参数,系统生成的终端节点服务的名称为{region}.{Name}.{serviceid}。 虚拟私有云 终端节点服务所属虚拟私有云。 服务类型 终端节点服务的类型,此处仅支持设置为“接口”类型。 连接审批 连接审批控制的是终端节点与终端节点服务的连接是否需要审批,审批权由终端节点服务控制。 可选择开启或关闭连接审批。 若选择开启连接审批,则与本终端节点服务连接的终端节点需要进行审批,详细操作请查看[连接审批](
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        创建终端节点服务
      • 通过psql命令行客户端连接实例(公网连接)
        本文介绍了如何在公网连接RDSPostgreSQL。 RDSPostgreSQL支持客户以公网形式通过PostgreSQL客户端连接实例。 前提条件 1.绑定弹性IP并设置安全组规则 订购并创建弹性公网IP,请参见申请弹性IP。 获取本地设备的IP地址,以便配置安全组使用。 配置安全组规则,将本地设备IP地址及目标实例端口加入安全组允许访问范围中。安全组设置参见添加安全组规则。 2.安装PostgreSQL客户端 请参见数据库基本使用安装PostgreSQL客户端。 命令行连接 通过公网连接RDSPostgreSQL实例。以Linux系统为例,可以执行如下命令: psql h p U d 参数说明: :主机IP,即控制台页面的实例列表>实例详情页面中的网络下的"弹性IP"。 :数据库端口,为“实例详情”页面中的数据库端口。 :用户名,即 PostgreSQL数据库帐号(默认管理员帐号为 root)。 :数据库名,即PostgreSQL实例里面的数据库,默认初始化的数据库名是postgres。 示例: psql h xx.xx.xx.xx p xxxx U root –d postgres
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        连接实例
        通过psql命令行客户端连接RDS-PostgreSQL实例
        通过psql命令行客户端连接实例(公网连接)
      • 高频类
        分配策略 会话保持类型 L4(TCP、UDP) L7(HTTP、HTTPS) 加权轮询算法 源IP地址 支持 不支持 加权轮询算法 负载均衡器cookie 不涉及 支持 加权轮询算法 应用程序cookie 不涉及 不支持 加权最少连接 源IP地址 支持 不支持 加权最少连接 负载均衡器cookie 不涉及 支持 加权最少连接 应用程序cookie 不涉及 不支持 源IP地址 源IP地址 不涉及 不支持 源IP地址 负载均衡器cookie 不涉及 不支持 源IP地址 应用程序cookie 不涉及 不支持
        来自:
      • 管理集群配置
        操作步骤 1.进入CDM主界面,进入集群管理界面。选择CDM集群后的“作业管理 >连接管理 > 集群配置管理”。 2.在集群配置管理界面,选择“新建集群配置”,配置参数填写详见下图 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。 Principal: 仅安全模式集群需要填写该参数 。Principal即Kerberos安全模式下的用户名,需要与Keytab文件保持一致。 上传Keytab文件: 仅安全模式集群需要上传该文件 。单击“添加文件”以选择本地的Keytab文件,然后通过操作框右侧的“上传文件”进行上传。 描述:用户可添加对此集群配置的描述,用于标识和区分该集群配置。 3.确认后集群配置新建成功。后续在新建Hadoop类型连接时,认证模式根据实际情况选择,将“是否使用集群配置”选择为“是”,然后选择对应的“集群配置名”,即可快速完成Hadoop类型连接创建。 详见下图:使用集群配置
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理连接
        管理集群配置
      • 关于实例连接密码的说明
        本章主要介绍关于实例连接密码的说明 DCS的缓存实例提供了密码控制访问功能,确保缓存数据足够安全。 说明 DCS帐号密码必须满足以下复杂度要求: 密码不能为空。 密码不能和帐号及帐号的倒序相同。 密码长度在8到32位之间。 至少必须包含如下四种字符中的三种: 小写字母 大写字母 数字 特殊字符包括(~!@$^&()+{}:, /?) 安全使用实例密码 1. Rediscli连接时隐藏密码。 Linux操作系统中,对rediscli指定a选项并携带密码,则在系统日志以及history记录中会保留密码信息,容易被他人获取。建议执行rediscli命令时不指定a选项,等连接上Redis后,输入auth命令完成鉴权。如下示例: $ rediscli h 192.168.0.148 p 6379 redis 192.168.0.148:6379>auth yourPassword OK redis 192.168.0.148:6379> 2. 脚本使用交互式输入密码鉴权,或使用不同权限的用户管理与执行。 脚本涉及到缓存实例连接,则采用交互式输入密码。如果需要自动化执行脚本,可使用其他用户管理脚本,以sudo方式授权执行。 3. 应用程序中使用加密模块对redis密码加密配置。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        密码管理
        关于实例连接密码的说明
      • 创建自定义路由条目
        参数 说明 IP类型 选择路由的IP类型。 目标地址CIDR 输入正确的目标网段信息。 是否黑洞 如果选“ 是 ”(默认状态) :表示该路由为黑洞路由,所有去往该路由的流量均会被丢弃,无需设置下一跳连接。 如果选“ 否 ” :表示该路由为非黑洞路由,需要设置路由的下一跳连接。 下一跳类型 选择下一跳网络实例类型。 下一跳连接 选择下一跳具体的网络实例。 描述 路由条目描述信息。
        来自:
        帮助文档
        云间高速(标准版)EC
        用户指南
        路由配置
        云企业路由器自定义路由条目
        创建自定义路由条目
      • 使用OBS加密数据运行作业
        参数 取值 说明 fs.obs.serversideencryptiontype SSEKMS SSEKMS:表示使用KMS秘钥的加解密方式。 NONE:表示关闭加密功能。 fs.obs.serversideencryptionkey 表示用来加密的KMS密钥ID。该参数可不配置。 当参数“fs.obs.serversideencryptiontype”配置为“SSEKMS”且该参数未配置时,OBS会使用OBS服务的默认KMS密钥完成加密。 fs.obs.connection.ssl.enabled true 标识是否与OBS建立安全连接。 true:开启安全连接,当需要使用OBS加解密功能时该参数必须配置为“true”。 false:关闭安全连接。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        使用OBS加密数据运行作业
      • 内置剧本、流程和资产连接
        内置资产连接 连接名称 插件 连接方式 CFW云服务认证凭据 HTTP 云服务委托 CFW认证资产 CFW 云服务委托 DBSS云服务认证凭据 DBSS 云服务委托 ECS云服务认证凭据 ECS 云服务委托 EIP云服务认证凭据 EIP 云服务委托 EPS云服务认证凭据 HTTP 用户名及密码 HSS云服务认证凭据 HSS 云服务委托 IAM云服务认证凭据 IAM 云服务委托 OBS云服务认证凭据 OBS AK&SK RDS云服务认证凭据 RDS 云服务委托 SecMaster云服务认证凭据 HTTP 云服务委托 SecMaster布局信息凭据 HTTP 云服务委托 SMN云服务认证凭据 SMN 云服务委托 VPC云服务认证 VPC 云服务委托 WAF云服务认证凭据 HTTP 云服务委托 WAF认证资产 WAF 云服务委托 告警处理业务方法集 SecMasterBiz 微步认证凭据 ThreatBook 其他 通用工具方法集 SecMasterUtilities 通知SMN处理人员凭证 HTTP 云服务委托 通知SMN运营人员凭证 HTTP 云服务委托
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        内置剧本、流程和资产连接
      • Flink Jar作业相关问题
        Flink Jar作业是否支持上传配置文件,要如何操作? 自定义(JAR)作业支持上传配置文件。 1.将配置文件通过程序包管理上传到DLI; 2.在Flink jar作业的其他依赖文件参数中,选择创建的DLI程序包; 3.在代码中通过ClassName.class.getClassLoader().getResource("userData/fileName")加载该文件(其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名)。 Flink Jar 包冲突,导致提交失败 问题描述 用户Flink程序的依赖包与DLI Flink平台的内置依赖包冲突,导致提交失败。 解决方案 查看是否已包含DLI Flink运行平台中已经存在的包,如果存在,则需要将自己的Jar包删除。 Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 问题描述 提交Flink Jar作业访问DWS数据仓库服务时,提示启动失败,作业日志报如下错误信息。 FATAL: Already too many clients, active/nonactive/reserved: 5/508/3 原因分析 当前访问的DWS数据库连接已经超过了最大连接数。错误信息中,nonactive的个数表示空闲连接数,例如,nonactive为508,说明当前有大量的空闲连接。 解决方案 出现该问题时建议通过以下操作步骤解决。 1.登录DWS命令执行窗口,执行以下SQL命令,临时将所有nonactive的连接释放掉。 SELECT PGTERMINATEBACKEND(pid) from pgstatactivity WHERE state'idle'; 2.检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。 3.在GaussDB(DWS) 控制台设置会话闲置超时时长sessiontimeout,在闲置会话超过所设定的时间后服务端将主动关闭连接。 sessiontimeout默认值为600秒,设置为0表示关闭超时限制,一般不建议设置为0。 sessiontimeout设置方法如下: a.登录GaussDB(DWS) 管理控制台。 b.在左侧导航栏中,单击“集群管理”。 c.在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。 d.单击“参数修改”页签,修改参数“sessiontimeout”,然后单击“保存”。 e.在“修改预览”窗口,确认修改无误后,单击“保存”。 Flink Jar作业运行报错,报错信息为Authentication failed
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        Flink Jar作业相关问题
      • 负载均衡器
        本文主要介绍弹性负载均衡负载均衡器的常见问题。 负载均衡器是否可以单独使用? 不可以。弹性负载均衡是将访问流量根据分配策略分发到后端多台云主机的流量分发控制服务,通过流量分发扩展应用系统对外的服务能力,同时通过消除单点故障提升应用系统的可用性。因此弹性负载均衡要基于后端实例(如:弹性云主机)来使用,不可以单独使用。 负载均衡器是否支持TCP长连接? 支持。客户端到ELB之间支持TCP长连接。TCP长连接是指客户端和ELB之间建立TCP连接之后,可以持续发送业务请求(HTTP请求),可提高TCP连接复用率,降低TCP频繁建连的开销。 负载均衡器是否支持后端FTP服务? 负载均衡器不支持后端FTP服务。但是可以支持SFTP场景。 负载均衡器是否自带防DDoS攻击和Web代码层次安全的功能? 负载均衡服务不提供DDoS等安全防护功能,防护功能一般配合高防系统来使用。 DDoS防护是天翼云默认开启的防护,所有公网的入口流量都会被DDos防护。 负载均衡器分配的EIP是否为独占? 在您创建使用弹性负载均衡服务的整个生命周期内:弹性公网IP支持解绑,解绑后的负载均衡变成私网型负载均衡,解绑后的弹性公网IP可被其他资源绑定。
        来自:
        帮助文档
        弹性负载均衡 ELB
        常见问题
        负载均衡器
      • 后端主机概述
        调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 将请求的源IP地址进行Hash运算,得到一个具体的数值,同时对后端主机进行编号,按照运算结果将请求分发到对应编号的主机上。这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的主机。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        后端主机
        后端主机概述
      • Kafka数据迁移概述
        迁移方案一:先迁生产,再迁消费 先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 结束 迁移方案二:同时消费,后迁生产 消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        Kafka数据迁移概述
      • API使用说明
        本文将为您介绍VPN连接的API使用说明。 OpenAPI门户提供了产品的API 文档、API调试等。 关于用户如何使用VPN连接API的详细介绍,请参见使用API。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。
        来自:
        帮助文档
        VPN连接
        API参考
        API使用说明
      • 查看实例信息
        参数 描述 名称 订购时设置的实例名称,单击实例名称可以进入实例详情页。 企业项目 当前实例对应当前的企业项目,如有资源迁移,企业项目更新会有小时级延迟,请等待并刷新。 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 状态 展示目前实例状态: 运行中:正常在有效期内,运行状态正常的实例 创建中:刚下单还在订购开通部署中的实例 处理中:处于重启等正常操作下的实例 已冻结:包周期已到期的实例,可续费或退订销毁 已销毁:实例已删除,资源已回收的实例;如遇到资源不足或其他原因导致开通部署失败,将自动销毁,可再次下单或工单联系技术支持 异常:实例不可连接或可连接但不可用 注意 实例处于异常状态时,您可以尝试重启处理,若依旧失败,请及时联系技术支持 索引数量 实例内的索引数量 存储用量 磁盘已使用的存储总量 版本 展示实例的版本号 计费模式 包年包月 到期时间 包年包月实例使用,表示包周期可使用的截止时间 创建时间 实例的创建时间 操作 展示实例可执行的操作入口,包含重启、续订等针对实例的操作,当前实例无法操作某项时,按钮将置灰。已经销毁的实例可以点击删除按钮,该实例不会在列表中展示。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        管理实例
        查看实例信息
      • 管理用户和角色的DDL语句
        DRDS支持直接连接DBProxy执行DDL语句,本文为您介绍dbproxy创建、修改、删除用户,以及创建、修改、删除角色的DDL语句。 注意 仅V5.1.20.0.13及以后版本的实例,支持使用本文介绍的DDL语句。 用户、角色、权限相关的语句都对应前端页面的选项, 语句中的值XXXX顺序可以随意调换,不强制顺序与例句一致。 创建用户 支持的语法: plaintext [UDAL] CREATE USER [IF NOT EXISTS] 'username' IDENTIFIED BY '' SET manageCommand 'true' 'false' AND profile 'profilename' AND whitelist 'true' 'false' AND freeFrontConnection 'true' 'false' AND groups '{ "setAll": "true" "false", "groupList": "..." }' AND canhint 'true' 'false' AND role 'rolename [, rolename2, ...]'; 其中,用户名和密码必填,其余参数为非必填。 语法说明: username:需要创建的用户名称。 IDENTIFIED BY:指定用户密码。 manageCommand:是否有管理命令权限(true/false)。 profile:密码策略,设定用户的安全策略或权限等级(如 复杂度高长期有效)。可以填写中文或者英文,所填的值大小写敏感: 中文 英文 复杂度低临时有效 Low complexity temporary effective 复杂度中短期有效 Medium complexity short term effective 复杂度高长期有效 High complexity long term effective 复杂度高永久有效 High complexity permanent whitelist:是否有过载保护白名单权限(true/false)。 freeFrontConnection:是否前端连接不受限(true/false)。 canhint:是否具有Hint权限(true/false)。 role:赋予用户的角色,可以是多个角色,如果是同时赋予多个角色,需要用逗号分开并用单引号或双引号包括起来。 groups:指定用户所拥有权限的分组信息以及对应分组的连接数限制信息,JSON格式,包含setAll和groupList。 setAll表示是否拥有所有分组权限,groupList表示拥有哪些分组权限以及对应的分组的连接数限制。当设置groups参数时必须包含这两个值,否则报错。 其中,groups指定用户所拥有的分组权限时,根据是否前端连接不受限有以下组合: 不设置分组权限,则不需要设置groups参数。 当前端连接不受限,即freeFrontConnectiontrue时,并拥有所有的分组权限,则设置groups'{ "setAll": "true", "groupList": "" }'。 当前端连接不受限,即freeFrontConnectiontrue时,并拥有部分分组权限,则设置groups'{ "setAll": "false", "groupList": "group1,group2" }'。 当前端连接受限,即freeFrontConnectionfalse时,需要设置分组权限时,如果对某分组不设置连接数限制则直接填写分组名称,如果对某分组设置连接数限制则填写 分组名:连接数。 例如,groups '{ "setAll": "false", "groupList":"r1,r2:100,r3" }' 意为拥有部分分组的权限,具体为r1,r2,r3这三个分组的权限,其中r1,r3的前端连接数不受限制, r2的前端连接数限制为100。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理用户和角色的DDL语句
      • 数据管理流程
        本章节主要介绍数据管理的数据管理流程功能。 数据管理功能可以协助用户快速建立数据模型,为后续的脚本和作业开发提供数据实体。通过数据管理,您可以: 支持管理DWS、MRS Hive等多种数据湖。 支持可视化和DDL方式管理数据库表。 说明 如果您在使用数据开发前,已参考 数据管理的使用流程如下: 1. 创建数据连接,连接相关数据湖底座服务。具体请参见 新建数据连接 。 2. 基于相应服务,新建数据库。具体请参见 新建数据库 。 3. 如果是DWS连接,则需要新建数据库模式;否则直接新建数据表。具体请参见(可选)新建数据库模式。 4. 新建数据表。具体请参见 新建数据表 。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据管理
        数据管理流程
      • 未开启Kerberos认证集群中的默认用户清单
        数据库用户 MRS集群系统数据库用户包含OMS数据库用户、DBService数据库用户。 说明 数据库用户不能删除,否则可能导致集群或组件服务无法正常工作。 类别 默认用户 初始密码 描述 OMS数据库 ommdba dbChangeMe@123456 OMS数据库管理员用户,用于创建、启动和停止等维护操作 OMS数据库 omm ChangeMe@123456 OMS数据库数据访问用户 DBService数据库 omm dbserverAdmin@123 DBService组件中GaussDB数据库的管理员用户 DBService数据库 hive HiveUser@ Hive连接DBService数据库用户 DBService数据库 hue HueUser@123 Hue连接DBService数据库用户 DBService数据库 sqoop SqoopUser@ Loader连接DBService数据库的用户
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        未开启Kerberos认证集群中的默认用户清单
      • 创建数据库
        本文介绍如何使用pgAdmin创建数据库。 前提 已经通过pgAdmin连接RDSPostgreSQL实例并添加至Servers。 打开创建database页面 1. 在左侧Browser栏中选取所需的RDSPostgreSQL Server,双击连接以打开菜单选项。 2. 单击Database一栏,右键选择Create > Database... ,弹出创建框。流程如下图: 填入database相关信息 创建框中,各栏信息如下: General:基本信息,包括database名与拥有者,默认拥有者为启动数据库连接的用户,必填项。 Definition:数据库基本配置,包括字符编码、模板、表空间、排序规则、字符类型、连接限制,编码方式默认为utf8,其余栏默认为空,非必填项。 Security:权限配置,包括权限授予与安全标签,非必填项。 Parameters:角色参数,非必填项。 Advanced:高级选项,非必填项。 SQL:创建SQL,用户通过前面几项填写后自动生成的创建database的SQL,无法填写与修改。 填写完成后点击保存即可创建数据库。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        最佳实践
        pgAdmin基本操作使用指南
        创建数据库
      • NAT网关相关术语解释
        本节主要介绍NAT涉及到的相关术语。 弹性IP 弹性IP地址为可以直接访问Internet的IP地址。私有IP地址为公有云内局域网络所有的IP地址,私有IP地址禁止出现在Internet中。 弹性IP是基于互联网上的静态IP地址,将弹性公网IP地址和子网中关联的弹性云主机绑定,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 一个弹性公网IP只能给一个弹性云主机使用。 SNAT连接 由源IP地址、源端口、目的IP地址、目的端口、传输层协议这五个元素组成的集合视为一条连接。其中源IP地址和源端口指SNAT转换之后的弹性公网IP和它的端口。连接能够区分不同会话,并且对应的会话是唯一的。 DNAT连接 DNAT功能绑定弹性公网IP,可通过IP映射或端口映射两种方式,实现VPC内跨可用区的多个云主机共享弹性公网IP,为互联网提供服务。
        来自:
        帮助文档
        NAT网关
        产品简介
        NAT网关相关术语解释
      • 怎样在本地主机和Windows弹性云主机之间互传数据?
        本节介绍了怎样在本地主机和Windows弹性云主机之间互传数据的方法。 方法一:安装传输工具 在本地主机和Windows弹性云主机上分别安装QQ.exe等工具进行数据传输。 方法二:本地磁盘映射 使用远程桌面连接mstsc方式进行数据传输。该方式不支持断点续传,可能存在传输中断的情况,因此不建议上传大文件。文件较大时,建议使用部署FTP服务等方式进行数据互传。 1. 登录本地主机。 2. 使用快捷键“Win+R”打开“运行”窗口。 3. 在“打开”栏,输入“mstsc”,打开远程桌面连接。 图 远程桌面连接 4. 单击左下角的,展开选项菜单。 5. 选择“本地资源”页签,并单击“本地设备和资源”栏的“详细信息”。 图 本地资源 6. 勾选“驱动器”和“其他支持的即插即用(PnP)设备”,并单击“确定”,将本地主机上的所有磁盘映射到Windows弹性云主机。 如果只需要映射部分本地主机上的磁盘到Windows弹性云主机,请展开“驱动器”,勾选待映射的磁盘设备。 图 本地设备和资源 7. 再次打开远程桌面连接窗口,并在“计算机”栏输入Windows弹性云主机的弹性IP地址。 图 远程桌面连接Windows弹性云主机 8. 单击“连接”。 9. 登录Windows弹性云主机。 10. 查看Windows弹性云主机的磁盘信息,如果有显示本地主机的磁盘设备,则表示您的本地主机与Windows弹性云主机之间可以互传数据了,如下图所示。 图 查看磁盘设备
        来自:
      • Oracle数据库备份
        本文介绍如何创建Oracle数据库备份。 操作场景 通过创建Oracle备份任务来备份Oracle的数据,并在需要时通过备份副本进行Oracle数据库文件的恢复,再导入数据库。 约束与限制 存储库需要和安装了客户端的备份主机在同一地域(网络可达)。 支持在能连接上Oracle数据库主机上安装客户端,进行备份。 单个客户端同一时刻最多同时执行2个任务(含1个备份任务和1个恢复任务,超出该数量的任务将按时间先后排队执行)。 前提条件 已创建存储库。 主机客户端状态为“在线”,具体步骤参见安装客户端。 主机内安装了 "Oracle" 或者 "Oracle Client"。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角选择地域,此处选择华东华东1。 3. 选择“存储>云备份”,进入云备份控制台,单击左侧“混合备份(存储版)”按钮,进入混合备份界面 4. 单击“主机列表”,选择对应主机,点击更多下的“新建任务”或者“任务列表”的"新建备份任务"按钮进入备份任务界面。 5. 点击 “添加资源”,添加 "Oracle"连接,输入对应参数,确认创建连接,可点击“连接”按钮确认数据库连接状态。 6. 选择创建好的"Oracle"连接,点击下一步。 7. 选择需要备份的数据库内容,点击下一步。 8. 选择备份的目标存储库并配置备份周期、导出目录、最大版本数等备份策略,点击“下一步”。 9. 自定义备份任务名称,确认备份信息无误后,点击“提交”,完成任务创建。
        来自:
        帮助文档
        云备份 CBR
        快速入门
        创建备份计划
        创建混合备份计划
        Oracle数据库备份
      • 跨源分析开发方式
        本章节主要介绍跨源分析开发方式 跨源分析 当DLI有访问外部数据源的业务需求时,首先需要通过建立增强型跨源连接,打通DLI与数据源之间的网络,再开发不同的作业访问数据源以实现DLI跨源分析。 本节操作介绍DLI支持的数据源对应的开发方式。 使用须知 Flink作业访问DIS,OBS和SMN数据源,无需创建跨源连接,可以直接访问。 推荐使用增强型跨源连接打通DLI与数据源之间的网络。 DLI支持访问的数据源 下表提供DLI支持的数据源列表,对应的开发参考请参考《数据湖探索SQL语法参考》。 DLI支持的服务数据源 服务名称 Spark SQL作业 Spark jar作业 Flink SQL作业 Flink jar作业 APIG x x √ x CSS √ √ √ √ DCS Redis √ √ √ √ DDS Mongo √ √ √ √ DMS Kafka x x √ √ DWS √ √ √ √ MRS HBase √ √ √ √ MRS Kafka x x √ √ MRS OpenTSDB √ √ x √ RDS MySQL √ √ √ √ RDS PostGre √ √ √ √
        来自:
        帮助文档
        数据湖探索
        用户指南
        增强型跨源连接
        跨源分析开发方式
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • 开发一个DWS SQL作业
        本章节主要介绍DataArts Studio的开发一个DWS SQL作业流程。 介绍如何在数据开发模块上通过DWS SQL算子进行作业开发。 场景说明 本教程通过开发一个DWS作业来统计某门店的前一天销售额。 环境准备 已开通DWS服务,并创建DWS集群,为DWS SQL提供运行环境。 已开通CDM增量包,并创建CDM集群。 CDM集群创建时,需要注意:虚拟私有云、子网、安全组与DWS集群保持一致,确保网络互通。 创建DWS的数据连接 开发DWS SQL前,我们需要在“管理中心 > 数据连接”模块中建立一个到DWS的连接,数据连接名称为“dwslink”。 关键参数说明: 集群名:环境准备中创建的DWS集群名称。 绑定Agent:环境准备中创建的CDM集群。 创建数据库 在DWS中创建数据库,以“gaussdb”数据库为例。详情请参新建数据库进行操作。 创建数据表 在“gaussdb”数据库中创建数据表tradelog和tradereport。详情请参考如下建表脚本。 create schema storesales; set currentschema storesales; drop table if exists tradelog; CREATE TABLE tradelog ( sn VARCHAR(16), tradetime DATE, tradecount INTEGER(8) ); set currentschema storesales; drop table if exists tradereport; CREATE TABLE tradereport ( rq DATE, tradetotal INTEGER(8) ); 开发DWS SQL脚本 在“数据开发 > 脚本开发”模块中创建一个DWS SQL脚本,脚本名称为“dwssql”。在编辑器中输入SQL语句,通过SQL语句来实现统计前一天的销售额。 开发脚本 说明 上图中的脚本开发区为临时调试区,关闭脚本页签后,开发区的内容将丢失。您可以通过“提交”来保存并提交脚本版本。 数据连接:创建DWS的数据连接中已创建的连接。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        开发一个DWS SQL作业
      • 数据安全
        网络传输加密 天翼云支持通过 VPN 连接和 HTTPS 协议对数据进行加密传输。 天翼云VPN连接(CTVPN,Virtual Private Network)是一款基于Internet的网络连接服务,通过互联网加密通道的方式实现企业数据中心、企业办公网络、客户终端与客户云上专有网络建立安全可靠的连接。根据使用的加密协议不同,VPN连接可以提供IPsec VPN和SSL VPN两种连接方式。 IPsec VPN 通过使用加密算法在不同的网络之间建立加密的安全隧道。默认情况下,在VPC中的弹性云主机无法与您自己的数据中心或私有网络进行通信。如果您需要将VPC中的弹性云主机和您的数据中心或私有网络连通,可以启用IPsec VPN功能。 SSL VPN 基于互联网线路,通过SSL加密通道将用户终端与天翼云VPC建立安全可靠连接的服务,满足客户便捷接入VPC的需求。 HTTPS是基于TLS/SSL协议对HTTP传输数据进行加密,能够有效防止数据被监听、截取和篡改。天翼云云主机默认支持使用HTTPS进行加密传输,并提供256位密钥的传输加密强度,满足敏感信息加密的传输要求。 计算环境加密 天翼云的可信计算技术为用户提供了一个安全的计算环境。可信计算是实现云租户计算环境高级安全的重要功能之一。通过可信虚拟化技术(vTPM),天翼云构建了一个从系统启动到运行阶段的全方位可信保障机制。这种技术可以有效防止恶意软件和攻击者对计算环境的篡改,确保数据在处理过程中的机密性和完整性。 数据可用性 数据可用性是指数据在需要时能够被快速、准确地访问和恢复。天翼云通过以下措施与功能确保数据的可用性。
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        数据安全
      • 通过psql连接实例
        本文介绍了通过psql公网方式连接RDSPostgreSQL实例。 RDSPostgreSQL支持客户通过PostgreSQL客户端连接实例。 前提条件 1.绑定弹性IP并设置安全组规则 订购并创建弹性公网IP,请参见申请弹性IP。 获取本地设备的IP地址,以便配置安全组使用。 配置安全组规则,将本地设备IP地址及目标实例端口加入安全组允许访问范围中。安全组设置参见添加安全组规则。 2.安装PostgreSQL客户端 请参见数据库基本使用如何安装PostgreSQL客户端。 命令行连接 通过公网连接RDSPostgreSQL实例。以Linux系统为例,可以执行如下命令: psql h p U d 参数说明: :主机IP,即控制台页面的“实例管理”页面,选择您的目标实例后,在详情页中,绑定的弹性公网IP。 :数据库端口,为实例详情页面中的数据库端口。 :用户名,即RDSPostgreSQL数据库帐号(默认管理员帐号为 root)。 :数据库名,即RDSPostgreSQL实例里面的数据库,默认初始化的数据库名是postgres。 示例: psql h xx.xx.xx.xx p xxxx U root –d postgres
        来自:
        帮助文档
        关系数据库PostgreSQL版
        快速入门
        步骤三:连接实例
        通过公网连接实例
        通过psql连接实例
      • 删除iSCSI target
        本节主要介绍删除iSCSI target。 ./stor target rm { n name } TARGETNAME [ { c connection } ISCSIINITIATORNAME ] [ { i targetip } TARGETIP ] 此命令用来删除指定iSCSI target或断开指定iSCSI target连接。 注意 只有未关联任何卷的iSCSI target才能被删除。 参数 参数 描述 n TARGETNAME 或 name TARGETNAME iSCSI target名称。 c ISCSIINITIATORNAME 或 connection ISCSIINITIATORNAME 要删除连接所属的intiator名称。 字符串形式,取值: 若使用Windows iSCSI发起程,ISCSIINITIATORNAME为“发起程序名称”。 如使用Linux发起程序,ISCSIINITIATORNAME为“cat /etc/iscsi/initiatorname.iscsi”指令取得的“发起程序名称”。 i TARGETIP 或 targetip TARGETIP 删除指定target IP的intiator连接。 示例 示例1 删除名为targettest的target。 plaintext [root@hblockserver CTYUNHBlockPlus3.10.0x64] ./stor target rm n targettest Removed target targettest successfully. 示例2 删除target的intiator连接。并需要在客户端断开与iSCSI target的连接,详见客户端操作。 plaintext [root@hblockserver CTYUNHBlockPlus3.10.0x64] ./stor target rm n target01 c iqn.199405.com.redhat:265a95d81ae Removed the connection 'iqn.199405.com.redhat:265a95d81ae' with target target01 successfully.
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        iSCSI target 操作
        删除iSCSI target
      • ETL Job
        参数 说明 输入 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输入功能的参数配置。 取消 单击“取消”,取消节点输入功能的参数配置。 编辑 单击 ,修改节点输入功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输入功能的参数配置。 查看表详情 单击 ,查看节点输入血缘关系创建数据表的详细信息。 输出 新建 单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,HIVE,CUSTOM和DLI类型。 DWS − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DWS的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DWS的数据库。 − schema(必选):单击 ,在弹出的“schema”窗口选择DWS的数据库模式。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DWS的数据表。 OBS − 路径(必选):单击 ,在弹出的“OBS文件浏览”窗口选择OBS路径。 CSS − 集群名称(必选):单击 ,在弹出的“CloudSearch集群”窗口选择CloudSearch集群。 − 索引名称(必选):输入CSS类型的索引名称。 HIVE − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择HIVE的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择HIVE的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择HIVE的数据表。 CUSTOM − 名称(必选):输入CUSTOM类型的名称。 − 属性(必选):输入CUSTOM类型的属性,可新增不止一条。 DLI − 连接名称(必选):单击 ,在弹出的“连接名称”窗口选择DLI的数据连接。 − 数据库(必选):单击 ,在弹出的“数据库”窗口选择DLI的数据库。 − 表名(必选):单击 ,在弹出的“表名”窗口选择DLI的数据表。 确定 单击“确认”,保存节点输出功能的参数配置。 取消 单击“取消”,取消节点输出功能的参数配置。 编辑 单击 ,修改节点输出功能的参数配置,修改完成后,请保存。 删除 单击 ,删除节点输出功能的参数配置。 查看表详情 单击 ,查看节点输出血缘关系创建数据表的详细信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        ETL Job
      • 概述
        本章节介绍公网连接天翼云关系型数据库的流程。 本章介绍如何在管理控制台创建MicrosoftSQLServer实例,并使用弹性公网IP通过公网连接Microsoft SQL Server实例。 步骤一:创建实例。根据业务需求,确认Microsoft SQL Server实例的规格、存储、网络配置、数据库帐户配置信息等。 步骤二:设置安全组规则。从安全组外访问安全组内的关系型数据库实例时,需要为RDS所在安全组配置相应的入方向规则。 步骤三:绑定弹性公网IP。弹性公网IP提供独立的公网IP资源,包括公网IP地址和公网出口带宽服务。可以在虚拟私有云管理控制台申请弹性公网IP并将该弹性公网IP绑定至RDS实例。 步骤四:通过公网连接Microsoft SQL Server实例。
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        通过公网连接Microsoft SQL Server实例
        概述
      • 1
      • ...
      • 26
      • 27
      • 28
      • 29
      • 30
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      模型推理服务

      智算一体机

      人脸实名认证

      推荐文档

      天翼云域名的优势

      管理只读实例

      客户端下载

      购买指南

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号