活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云对等连接_相关内容
      • 创建文件系统
        参数 说明 备注 区域 必选参数。租户所在的区域,当前区域请在界面右上方选择。 建议选择和云主机同一个区域。 可用区 必选参数。同一区域内,电力和网络互相独立的地理区域。 建议选择和云主机同一个可用区。 存储类型 必选参数。包含标准型、标准型增强版、性能型和性能型增强版。 默认为标准型。说明创建成功后不支持更换存储类型, 如需更换只能新创建另一存储类型的文件系统,请根据业务情况事先规划存储类型。 容量(GB) 单个文件系统的最大容量,当文件系统的实际使用容量达到该值时, 您将无法对文件系统执行写入操作,需要进行扩容。 暂无法直接对SFS Turbo文件系统进行缩容操作,请根据实际需要设置文件系统的容量。 支持范围: 标准型:500GB~32TB 性能型:500GB~32TB 标准型增强版和性能型增强版:10TB~320TB 协议类型 必选参数。SFS Turbo文件系统支持的共享访问协议为NFS。 默认为NFS。 选择网络 必选参数。 选择VPC及其子网。 VPC:云主机无法访问不在同一VPC下的文件系统,请选择与云主机相同的VPC。 子网:子网是VPC内的IP地址块,同一个VPC下,子网网段不会重复。通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 开启IPv6:勾选此参数表示开启IPv6,不勾选表示不开启IPv6,使用IPv4。 如果您想开启IPv6,开启IPv6前,请确保SFS Turbo文件系统所在的VPC和子网已开启IPv6配置。 开启IPv6后,SFS Turbo文件系统可在IPv6下运行,此时SFS Turbo文件系统通过IPv6进行通信。 说明 每个文件系统在创建时只可以添加一个VPC。可通过虚拟私有的VPC对等连接方式将两个或多个VPC互连,实现多VPC、跨VPC下的文件共享。 SFS Turbo文件系统支持创建文件系统的时候开启IPv6,创建完成的SFS Turbo文件系统不支持修改IPv6是否开启的策略。 首次创建IPv6文件系统,请确定“授权权限提醒”弹窗,确定授权后,SFS Turbo将在IAM下创建名称为“ServiceAgencyForSFSTurboIPv6”的委托并授权给账户opsvcefs。未授权将导致无法创建IPv6文件系统。委托创建完成后,请不要删除该委托,否则可能导致文件系统无法读写。 开启IPv6的文件系统需要使用域名挂载,不支持使用IP挂载。 安全组 必选参数。安全组起着虚拟防火墙的作用,为文件系统提供安全的网络访问控制策略。 用户可以在安全组中定义各种访问规则,当弹性文件服务加入该安全组后,即受到这些访问规则的保护。 创建SFS Turbo时,仅支持选择一个安全组。推荐SFS Turbo实例使用单独的安全组,与业务节点隔离。 安全组规则的配置会影响SFS Turbo的正常访问与使用,配置方法请参见《虚拟私有云用户指南》的“添加安全组规则”章节。 为了确保SFS Turbo能够被您的弹性云服务器访问,在成功创建SFS Turbo后,系统将自动放通SFS Turbo中NFS协议需要的安全组端口,以免文件系统挂载失败。 NFS协议所需要入方向的端口号为111、2049、2051、2052、20048。如您需要修改开放的端口,可以前往“网络控制台 > 访问控制 > 安全组”找到目标安全组进行修改即可。 名称 必选参数。用户自定义文件系统的名称。 只能由英文字母、数字和中划线“”组成, 创建的文件系统名称输入长度需大于4个字符并小于等于64个字符。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        创建文件系统
      • 使用SFS静态存储卷
        步骤二:创建持久卷声明(PVC) 1. 创建示例yaml文件pvcstaticnas.yaml: shell apiVersion: v1 kind: PersistentVolumeClaim metadata: annotations: volume.beta.kubernetes.io/storageprovisioner: nas.csi.cstor.com name: pvcstaticnas namespace: default spec: accessModes: ReadWriteOnce resources: requests: storage: 500Gi volumeMode: Filesystem volumeName: {YOURPVNAME} 替换PV名称 2. 执行以下命令,创建pvc: plaintext kubectl apply f pvcstaticnas.yaml 步骤三:创建工作负载 1. 创建示例yaml文件podpvcstaticnas.yaml: shell apiVersion: apps/v1 kind: StatefulSet metadata: name: nginxpvcstaticnas labels: app: nginxpvcstaticnas spec: replicas: 1 serviceName: "" selector: matchLabels: app: nginxpvcstaticnas template: metadata: labels: app: nginxpvcstaticnas spec: containers: image: "registryhuadong1.crsinternal.ctyun.cn/opensource/nginx:1.26alpineslim" imagePullPolicy: "IfNotPresent" name: "nginx" resources: limits: cpu: "100m" memory: "256Mi" requests: cpu: "100m" memory: "256Mi" volumeMounts: mountPath: "/mnt/data" name: "volume1" subPath: "ccsetest" volumes: name: "volume1" persistentVolumeClaim: claimName: {YOURPVCNAME} 替换为步骤2中的PVC名称 2. 执行以下命令,创建StatefulSet: plaintext kubectl apply f podpvcstaticnas.yaml 步骤四:验证数据持久化 1. 登录弹性容器服务管理控制台。 2. 在容器组列表页点击刚才创建的实例。 3. 点击“远程连接”页签,进入到容器内。 4. 向/mnt/data 目录下写一个文件,执行: plaintext echo "Hello World" > /mnt/data/test.log 5. 查看/mnt/data 目录下文件,执行: plaintext cat /mnt/data/test.log 预期结果如下: 6. 退出“远程连接”,使用kubectl删除pod,会触发pod自动重建,等待Pod重新运行正常。 plaintext kubectl delete po nginxpvcstaticnas0 7. 对新建Pod,登录弹性容器服务管理控制台,继续执行“远程连接”,进入到容器内查看数据。执行: plaintext cat /mnt/data/test.log 预期结果如下: 8. 以上步骤说明,pod删除重建后,重新挂载SFS弹性文件,数据仍然存在,说明SFS弹性文件系统中的数据可持久化保存。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        存储
        弹性文件存储卷
        使用SFS静态存储卷
      • 记录什么到日志
        logcheckpoints (boolean) 导致检查点和重启点被记录在服务器日志中。一些统计信息也被包括在日志消息中,包括写入缓冲区的数据和写它们所花的时间。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。默认值是关闭。 logconnections (boolean) 导致每一次尝试对服务器的连接被记录,客户端认证的成功完成也会被记录。只有超级用户在会话开启时可以改变这个参数,并且在所有会话中不能改变。缺省是off。注意某些客户端程序(例如telesql)在要求密码时会尝试连接两次,因此重复的“收到连接”消息并不一定表示一个错误。 logdisconnections (boolean) 记录会话终止原因。日志输出提供信息类似于logconnections,以及会话持续时间。只有超级用户在会话开启时可以改变这个参数,并且在所有会话中不能改变。缺省是off。 logduration (boolean) 导致每一个完成的语句的持续时间被记录。默认值是off。只有超级用户可以改变这个设置。对于使用扩展查询协议的客户端,解析、绑定和执行步骤的持续时间将被独立记录。注意设置这个选项和设置logmindurationstatement为零之间的区别是,超过logmindurationstatement强制查询的文本被记录,但这个选项不会。因此,如果logduration为on并且logmindurationstatement为正值,所有持续时间都将被记录,但是只有超过阈值的语句才会被记录查询文本。这种行为有助于在高负载安装中收集统计信息。 logerrorverbosity (enum) 控制为每一个被记录的消息要写入到服务器日志的细节量。有效值是TERSE、DEFAULT和VERBOSE,每一个都为显示的消息增加更多域。TERSE排除记录DETAIL、HINT、QUERY和CONTEXT错误信息。VERBOSE输出包括SQLSTATE错误码以及产生错误的源代码文件名、函数名和行号。只有超级用户能够更改这个设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        错误报告和日志相关参数
        记录什么到日志
      • 订购操作指引
        本节为您介绍天翼游戏云电脑的:① 计费模式; ② 订购、续订、加时、套餐升级操作指引。 订购方式 支持三种订购方式: 1. 移动端订购:通过"天翼云电脑"或"天翼云"APP内"订购云电脑"功能直接购买。 2. 天翼云官网订购:通过登录天翼云官网,进入++天翼AI云电脑(公众版)++订购。 3. 线下营业厅订购:请前往当地中国电信营业厅咨询办理。 说明 各订购方式的详细操作流程请参考 ++订购操作指引++。订购完成后即可登录使用游戏云电脑,详细操作请参考 ++登录操作指引++。 计费模式说明 游戏云电脑为包月型(预付费)产品。包月周期从购买成功时起,至下月同一日期同一时刻结束(若下月无对应日期,则按当月最后一天计算)。有效期内,系统将按秒累计实际开机时长(关机不计费)。每个新周期开始时,可用总时长将自动重置,未使用时长不累积。 例如:在5月1日 11:00:00 订购一台游戏云电脑,选择: 使用时段:晚间 计费套餐:包月15小时 购买时长:2个月 可用情况如下: 周期 包月有效期 可使用总时长 可开机时段 1 5月1日 11:00:00 6月1日 11:00:00 15 小时 每天19时至次日7时 2 6月1日 11:00:00 7月1日 11:00:00 15 小时 每天19时至次日7时 说明 单个用户每自然月(每月1日至月末最后一天)最多可订购 5台 游戏云电脑,次月1日自动重置。
        来自:
        帮助文档
        天翼云电脑(公众版)
        游戏云电脑
        订购操作指引
      • 修改配置参数
        参数 参数说明 参数范围 默认值 log.flush.interval.messages 消息条数刷盘阈值,当实例 broker 接收的消息条数达到阈值时,将触发消息刷盘 1~9223372036854775807 9223372036854775807 min.insync.replicas 当 producer 将 acks 设置为 “all” (或“1”) 时,此配置指定必须确认写入才能被认为成功的副本的最小数量 1~3 1 message.max.bytes kafka 允许的 topic 最大单条消息大小(单位:字节) 0~10485760 10485760 max.connections.per.ip 每个 ip 允许的最大连接数。超过此连接数的连接请求将被丢弃 100~20000 1000 unclean.leader.election.enable 是否能够使不在 ISR 中 replicas 设置用来作为 leader true,false false
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改配置参数
      • 自主访问权限控制
        本页介绍天翼云TeleDB数据库自主访问权限控制。 权限管理 TeleDB采用三权分立体系,将数据库系统角色分为安全员、审计员和管理员。每个角色都被赋予不同的权限,三个角色相互独立、相互制约,从而消除系统中的超级权限,从系统角色设计上保障数据安全。 安全员 负责独立完成安全策略制定,包括强制访问、脱敏和加密策略。 审计员 负责独立完成审计策略制定,所有操作都可以被审计,包括审计员操作记录。 管理员 具备自主访问控制权限、运维权限,但不可干预安全员和审计员的操作。 TeleDB管控台用户账号密码管理 TeleDB支持对管控台账号进行定期检查,检查内容包括: 兼容四位版本解析。 账号名命名的规范性。 离职用户账号、临时账号是否有及时删除或禁止。 角色权限设置是否合理。 导出近3个月控制台日志,查阅是否有未预估的操作。 独立设置账号权限的,权限范围。 密码设置要求:禁止使用弱密码,密码必须超过8个字符,包含大小写英文字母、数字、特殊字符,其中特殊字符至少3个。 说明 安装完成后,为了确保数据库安全,建议删除管理系统和内核初始账号或修改初始密码。 TeleDB管控台角色管理 您可通过如下操作对角色权限进行管理。 1. 以用户名和密码登录TeleDBDCP数据库管理平台。 2. 在左侧导航树选择安全中心 > 角色管理 ,进入角色管理页面 3. 创建角色 (1) 在角色管理页面,单击创建角色,出现创建角色弹框。 (2) 在创建角色弹框,输入角色名称,权限类型选择TeleDB,勾选对应的权限,单击确定,完成权限的添加。 4. 编辑角色 单击目标角色所在的编辑按钮,修改对应的权限。 5. 删除角色 单击目标角色所在行的删除按钮,即可删除对应的权限。 6. 查看角色详情 单击目标角色所对应的详情,即可查看该角色所对应的具体权限。 7. 查看角色列表。 您可根据权限名称和角色进行搜索。 说明 权限包括超级管理员、租户管理员、操作员、管理员、只读和自定义。 数据库账号密码管理 账户和密码是连接数据库实例的凭证,客户端凭据账户和密码连接数据库实例时,服务器会判断用户身份,并分发对应的权限给客户端,与管控的账号和密码没有必然联系。 为保证连接实例的账户和密码安全性,有如下安全限制: 账号最多16个字符长度,建议由字母、数字、下划线组成,字母开头,字母或数字结尾。 如设置账号为临时账号,支持设置账号的过期时间,支持限制周期1天、7天、31天、90天以及永不过期。 密码应由864个字符组成,必须包含大小写英文字母、数字、特殊字符,其中特殊字符至少3个。 密码用password()函数转换成长度为40的字符串后存入系统表中,使用安全Hash算法。 系统根据规则提供随机密码。支持切换为弱密码模式,弱密码模式为不存在上述限制要求,该模式开启后存在安全风险,不建议开启。 密码最长使用期限不超过90天,建议每3个月更换一次账号密码。 限制客户端的IP连接方式,支持 IP、IP 段、%三种形式。 限制账户的最大并发连接数,0代表无限制。 限制账号读写方式,根据业务场景选择正常账号、只读账号、DCN读写分离账号。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        访问控制
        自主访问权限控制
      • 高频常见问题
        网络管理 集群安全组规则配置 如何修复出现故障的容器网卡? 为什么容器无法连接互联网?
        来自:
        帮助文档
        云容器引擎
        常见问题
        高频常见问题
      • 运营商列表
        运营商 运营商编码 中国电信 001 中国联通 002 中国移动 003 中国铁通 004 教育网 005 鹏博士 006
        来自:
        帮助文档
        应用加速(文档停止维护)
        API参考
        API概览
        运营商列表
      • 前期准备
        本节主要介绍云存储网关安装前的准备。 确认用户使用场景 如需要存储的数据类型(存储视频类、医疗影像类还是文件类等)、单个存储文件的大小、预计数据总量总大小、每天产生的数据量、峰值流量、存储周期等业务侧场景。 确认部署位置 用户希望网关服务器在客户侧还是在云端,是物理机还是虚拟机,外网是否可以远程访问到网关服务器是否可以通过外网访问(是否便于可以远程进行网关部署)。 确认用户网络环境 如客户本地内部网络带宽、从客户本地到网关服务器带宽、从网关服务器到对象存储资源池的带宽大小等。 确认已开通OOS存储服务 开通好OOS存储服务,并创建好OOS Bucket用于存储网关数据。 准备好存储网关服务器的登录信息,包括:外网IP地址、连接端口号、用户名、密码、OOS具有所有权限的AccessKeyID和SecretAccessKey,运维人员将与您确认此信息后方可部署。
        来自:
        帮助文档
        云存储网关
        用户指南
        前期准备
      • Service相关问题
        问题现象 创建LoadBalancer Service后,Service状态为pending,Service事件提示“ failed to ensure load balancer: failed to create elb, error: method not support”。 处理建议 该问题系CCM与资源委托的连接中断,可重启kubesystem命名空间下的ccsecloudcontrollermanager恢复。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        网络
        Service相关问题
      • 创建和管理负载均衡实例
        升级负载均衡实例 说明 仅历史创建的4层内网负载均衡支持实例升级,新创建的负载均衡实例无需升级,支持升级的实例才允许点击“实例升级”。 内网负载均衡实例升级后能正常展示监控指标,性能也会更好,健康检查也可正常使用。 1. 登录ECX控制台。 2. 单击左侧导航栏的【边缘网络>弹性负载均衡>负载均衡器】,选择对应的地域,查看当前地域下已创建的负载均衡实例。 3. 选择要升级的负载均衡实例,单击操作栏下的【实例升级】,在弹出框输入二次确认字符,单击【确认】完成实例升级,升级后立即生效,且不支持回退。 注意 升级后不支持恢复,升级过程中原有的4层连接会全部中断,7层连接无影响。 删除负载均衡实例 1. 登录ECX控制台。 2. 单击左侧导航栏的【边缘网络>弹性负载均衡>负载均衡器】,选择对应的地域,查看当前地域下已创建的负载均衡实例。 3. 选择所要删除的负载均衡实例列表,单击对应的操作栏中的【删除】,在删除弹框中单击【确认】执行删除,需要确保该负载均衡实例没有监听器和后端服务器组才可删除。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        弹性负载均衡
        创建和管理负载均衡实例
      • 参数调优建议
        审计参数 auditsystemobject 作用:该参数决定是否对数据库对象的CREATE、DROP、ALTER操作进行审计。数据库对象包括DATABASE、USER、schema、TABLE等。通过修改该配置参数的值,可以只审计需要的数据库对象的操作,在主备强制选主场景建议。 影响:不当修改该参数会导致丢失DDL审计日志,请在客服人员指导下进行修改。 锁管理 updatelockwaittimeout 设置并发更新同一行数据时单个锁的最长等待时间,当申请的锁等待时间超过设定值时系统会报错。0表示不会超时,默认值为2min。 连接与认证 sessiontimeout 表明与服务器建立连接后,不进行任何操作一定时间后超时的限制,0表示关闭超时设置。 failedloginattempts 设置密码错误次数上限,输入密码错误的次数达到该参数所设置的值时,账户将会被自动锁定,配置为0时表示不限制密码输入错误的次数。 passwordeffecttime 设置帐户密码的有效时间,0表示不开启有效期限制功能。 passwordlocktime 设置账户被锁定后的自动解锁时间,单位为天。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        性能调优
        确定性能调优范围
        参数调优建议
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • MQTT触发器
        配置项 操作 示例 触发器类型 选择 MQTT触发器。 MQTT触发器 名称 填写自定义的触发器名称。 mqtttrigger 版本或别名 默认值为 LATEST ,支持选择任意函数版本或函数别名。 LATEST MQTT实例 选择已创建的MQTT实例。 Topic 填写订阅的消息Topic,请确保topic的命名符合以下"^[azAZ09/+]+$"正则表达式 mytopic 调用方法 选择函数调用方式。 同步调用 :指触发器消费消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。 异步调用 :指触发器消费消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 用户ID 终端设备连接MQTT队列需要先创建用户密码,详情请查看 密钥 终端设备连接MQTT队列需要先创建用户密码,详情请查看 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        MQTT触发器
      • 如何排查404/502/504错误?
        原因二 原因:安全组未将WAF回源IP设置为白名单或未放开端口。 解决办法: 将WAF的回源IP在网站所在的ECS的安全组里设置为白名单。 原因三 原因:源站有防火墙设备,且该防火墙设备拦截了WAF的回源IP。 解决办法: 将WAF的回源IP在网站所在的ECS的安全组里设置为白名单或者卸载除WAF以外其他防火墙软件。 原因四 原因:连接超时、read超时。 解决办法: 数据库查询时间过长: 调整优化业务,尽量缩短查询时长,优化用户体验。 修改请求的交互方式,让这种长连接在 60s 内能有一些数据交互(如,ack报文、心跳包、keepalive等任何可以维持会话的报文)。 大文件上传时间过长: 调整优化业务,尽量缩短文件上传时间。 建议使用FTP方式上传文件。 直接通过IP上传,或者使用没有被WAF防护的域名上传。 使用WAF的独享模式,独享WAF回源超时默认为180s。 源站故障类:检查源站业务是否正常。 原因五 原因:源站超带宽。 解决办法:扩展源站服务器带宽。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        业务中断排查
        如何排查404/502/504错误?
      • 操作流程
        本章主要介绍操作流程。 1. 创建VPC 创建两个VPC,VPC1为API网关所在VPC,VPC2为后端应用所在VPC。 2. 购买API网关专享版实例 在VPC1上购买API专享版实例。 3. 购买ELB 在VPC2上购买弹性负载均衡。 4. 创建对等连接 创建VPC Peering对等连接,打通VPC1和VPC2。 5. 配置路由 在API专享版实例上配置路由,配置IP为已购买ELB所在VPC2网段。 6. 创建API 创建API,后端服务地址配置ELB的IP。 7. 购买ECS 购买ECS(应用服务器),启动后端服务,并将ECS挂载到已购买的ELB上。 8. 调试API 验证对接内网ELB是否成功。
        来自:
        帮助文档
        API网关
        最佳实践
        API网关跨VPC开放后端服务
        操作流程
      • 将Oracle同步到Kafka
        参数 描述 IP地址或域名 源数据库的IP地址或域名。 说明 对于RAC集群,建议使用scanip接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。 PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        自建到自建
        将Oracle同步到Kafka
      • 修改服务自定义配置参数
        任务示例(配置Hive自定义参数) Hive依赖于HDFS,默认情况下Hive访问HDFS使用的是HDFS的客户端,生效的配置参数统一由HDFS控制。例如HDFS参数“ipc.client.rpc.timeout”影响所有客户端连接HDFS服务端的RPC超时时间,如果管理员需要单独修改Hive连接HDFS的超时时间,可以使用自定义配置项功能进行设置。在Hive的“coresite.xml”文件增加此参数可被Hive服务识别并代替HDFS的设置。 1. 在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务”。 2. 选择“Hive > 配置 > 全部配置”。 3. 在左侧导航栏选择Hive服务级别“自定义”,Manager将显示Hive支持的服务级别自定义参数。 4. 在“coresite.xml”对应参数“core.site.customized.configs”的“名称”输入“ipc.client.rpc.timeout”,“值”输入新的参数值,例如“150000”。单位为毫秒。 5. 单击“保存”,在弹出的“保存配置”窗口中确认修改参数并单击“确定”。界面提示“操作成功。”,单击“完成”,配置保存成功。 保存完成后请重新启动配置过期的服务或实例以使配置生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        服务配置
        修改服务自定义配置参数
      • 操作类
        the consumer message buffer is full, so do flow control 客户端日志出现the consumer message buffer is full, so do flow control 问题原因:push客户端消费过慢,本地缓存队列已满,暂时停止向服务端拉取消息。消费慢的原因可能是网络原因、topic队列数过多、消费者过少,内存过小等。 解决方案: (1)查看网络是否异常,缓慢。 (2)增加消费者实例。 (3)如果消息不重要,又不方便增加消费者实例,可以减少topic队列数量。 system busy, start flow control for a while 客户端日志出现 [REJECTREQUEST]system busy, start flow control for a while 或者 [PCBUSYCLEANQUEUE]broker busy, start flow control for a while, period in queue。 问题原因: 在关闭生产者实例的同时用生产者实例发送消息,连接关闭了netty会拒绝请求。 线程少,处理发送请求过慢。 解决方案: 应用优化使用流程,禁止在close生产者实例后使用生产者。 如果Broker是同步主,那么改成异步主,或者将 sendMessageThreadPoolNums32且waitTimeMillsInSendQueue1000。 消费者消费不到消息如何处理 进入控制台查看订阅管理菜单,检查订阅组是否有消费实例在线,如果不在线检查消费客户端日志是否有连接异常。 检查消费客户端逻辑,是否存在订阅关系不一致的情况。 消费者机器宕机重启是否会造成消息丢失 RocketMQ的消息数据以及订阅信息都是持久化保存的,当消费者下线重新上线后,会Broker持久化的下线前的消费偏移重新开始消费,所以不会发生消息丢失的情况。 订阅消息时是否可以允许消息Tag为空 订阅主题时如果Tag设置为空会导致消费者消费不到消息,如不希望通过Tag进行消息过滤,可以将Tag设置为,示例如下: consumer.subscribe(topic, ""); 客户端连接时出现“signature validate by dauth failed”错误 这种错误的原因一般是由于ACL认证失败,较大的可能是客户端配置的AccessKey和SecretKey出现错误,可以检查下这两项配置是否输入有误。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        操作类
      • 网络变更
        本小节主要介绍设置RDSPostgreSQL实例的网络变更功能。 操作场景 当您的实例网络配置需要进行调整时,控制台支持将您的实例网络按照您的需求和现有可用网络配置进行变更,满足您的实际网络配置要求。 注意事项 实例需处于正常运行状态,网络更新后,实例连接地址将会发生变化,需要更新您的业务配置的数据库连接地址; 如已绑定弹性IP,需要先进行解绑,方可继续操作; 如开通了只读实例、数据库代理相关服务的实例,需要先将其退订后方可继续操作; 目前仅支持备份介质为对象存储的实例进行网络变更; 网络变更时,ipv4的子网仅能选择ipv4的子网进行变更; 因涉及连接地址变更,请您尽量在业务低峰期执行该操作,避免出现阻塞。 操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 在单个实例管理详情页面的基本信息中,点击"网络"的"网络"项。 7. 在弹出框界面,选择您需要变更的目标网络信息,确认变更信息无误后,点击"确认"提交变更任务。 8. 系统处理您的网络变更任务时,实例状态会置为"网络变更中",其中部分操作不可用。 9. 系统处理成后,实例状态会恢复正常,您可在实例管理详情页面查看您实例的最新网络信息。 注意 不同资源池因iaas资源能力等原因,加载版本有所差异,详见功能加载说明。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        实例操作
        网络变更
      • 配置HBase/CloudTable源端参数
        本章节主要介绍配置HBase/CloudTable源端参数。 作业中源连接为配置HBase连接或配置CloudTable连接时,即从MRS HBase、FusionInsight HBase、Apache HBase或者CloudTable导出数据时,源端作业参数如下表所示。 说明 CloudTable或HBase作为源端时,CDM会读取表的首行数据作为字段列表样例,如果首行数据未包含该表的所有字段,用户需要自己手工添加字段。 由于HBase的无Schema技术特点,CDM无法获知数据类型,如果数据内容是使用二进制格式存储的,CDM会无法解析。 从HBase/CloudTable导出数据时,由于HBase/CloudTable是无Schema的存储系统,CDM要求源端数值型字段是以字符串格式存储,而不能是二进制格式,例如数值100需存储格式是字符串“100”,不能是二进制“01100100”。 表 HBase/CloudTable作为源端时的作业参数 参数名 说明 取值样例 表名 导出数据的HBase表名。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 TBL2 列族 可选参数,导出数据所属的列族。 CF1&CF2 切分Rowkey 可选参数,选择是否拆分Rowkey,默认为“否”。 是 Rowkey分隔符 可选参数,用于拆分Rowkey的分隔符,若不设置则不切分。 l 起始时间 可选参数,起始时间(包含该值),格式为“yyyyMMdd HH:mm:ss”,表示只抽取该时间及以后的数据。 该参数支持配置为时间宏变量,使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 20190101 20:00:00 终止时间 可选参数,终止时间(不包含该值),格式为“yyyyMMdd HH:mm:ss”,表示只抽取该时间以前的数据。 该参数支持配置为时间宏变量。 20190201 20:00:00
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置HBase/CloudTable源端参数
      • 功能类问题
        数据库审计的Agent支持部署在哪些操作系统上? 操作系统 操作系统位数 支持版本 Ubuntu X64 14.04、16.04、18.04 Debian X64 7.6、8.7、9.5、10.11、11.2 CentOS X64 5.11、6.0、7.4、7.6、8 RedHat X64 6.5、7.0、7.5 SUSE X64 11SP4、12SP4 Solaris X86 X86 5.10、5.11 Solaris Sparc X64 5.10 AIX 5.3、6.1、7.1 Windows X64 Windows7、Windows10 Windows X86 Windows7 Windows Server X64 2003、2008、2012、2016、2022 EulerOS(欧拉) x64 EulerOS 2.0 SP9 银河麒麟 aarch64 v10服务器版 兆芯cpu+银河麒麟系统 x64 v10服务器版 兆芯cpu+中标麒麟系统 x64 7 兆芯cpu+统信UOS x86 v20 海光cpu+统信UOS x64 v20 鲲鹏cpu+统信UOS aarch64 v20 数据库审计支持双向审计吗? 数据库审计支持双向审计。双向审计是对数据库的请求和响应都进行审计。 数据库审计默认使用双向审计。 数据库审计支持TLS连接的应用吗? 不支持。TLS(Transport Layer Security)连接的应用是加密的,无法使用数据库安全审计功能。
        来自:
        帮助文档
        数据库审计
        常见问题
        功能类问题
      • 文件系统加入AD域
        本文为您介绍在AD域环境搭建好之后,将文件系统加入AD域的操作步骤。 前提条件 已有至少1个可用状态的CIFS文件系统。 已准备AD域环境,已创建AD域控制器,至少有一台客户端已加入域。请参考搭建AD域。 操作步骤 步骤一:生成keytab文件 说明 生成keytab文件的操作在AD域控制器上进行。 1. 登录AD域控制器上为文件系统设置本地域名。 文件系统服务主体依赖域名,因此需要先创建文件系统挂载点对应的域名。需要分别为普通AD域客户端和AD域控制器进行设置。hosts文件路径:C:WindowsSystem32driversetchosts。本地域名配置如下: . 参数说明: 参数 说明 server IP 文件系统挂载地址前的IP。 文件系统本地域名 自定义的文件系统的域名名称。 注:每个文件系统的域名名称应保持唯一。 realm AD域名,如“sfs.com”。 示例: 100.xx.xx.xx testfs01.sfs.com 2. 设置服务账户。按照如下格式使用dsadd命令创建一个服务账号。 注意 您需要记住设置的账户名和密码等信息,后续步骤会用到。 dsadd user CN[AD域服务账户名],DC[AD域域名],DC[com] samid [AD域服务账户名] display [账户描述] pwd [账户密码] pwdneverexpires yes 示例: dsadd user CNNASuser01,DCsfs,DCcom samid fsuser01 display "ctyunnas service account" pwd zmqw@md3 pwdneverexpires yes 3. 执行以下命令为CIFS文件系统域名注册SPN服务主体。 setspn S cifs/[文件系统本地域名]@ [realm] [AD域服务账户名] 参数说明: 参数 说明 文件系统本地域名 在步骤1中为文件系统挂载点设置的域名。 realm AD域名。在搭建AD域环境时设置的域名,本文中为“sfs.com”。 AD域服务账户名 步骤2中的samid。 示例: setspn S cifs/testfs01.sfs.com@sfs.com fsuser01 4. 在AD域控制器上执行以下命令为CIFS文件系统服务主体生成Keytab文件,用于用户的身份认证。 Ktpass princ cifs/[文件系统本地域名]@[realm(必须大写)] ptype KRB5NTPRINCIPAL mapuser [AD域服务账户名]@[realm] crypto All out [密钥表文件生成路径] pass [账户密码] 参数说明: 参数 说明 princ 设置服务主体名称(SPN)。填写步骤1中为文件系统设置的本地域名。 ptype 指定密钥表文件的类型。设置为:KRB5NTPRINCIPAL(用于普通服务账户)。 mapuser AD域服务账户名,填写步骤2中的samid。将SPN映射到一个AD域用户账户,这个用户账户将与SPN相关联,用于身份验证和授权。 crypto 选择用于加密密钥的加密算法:ALL。即所有的加密算法,包括DESCBCCRC、DESCBCMD5、RC4HMACNT等。 out 指定生成的密钥表文件的输出路径和文件名。 /out c:tempservice.keytab将创建一个名为service.keytab的密钥表文件,并将其保存到c:temp目录下。 pass 指定与映射用户账户对应的密码。即在步骤2为创建文件系统服务账户时设置的密码。 示例: Ktpass princ cifs/testfs01.sfs.com@SFS.com ptype KRB5NTPRINCIPAL mapuser fsuser01@sfs.com crypto All out C:nasservice.keytab pass zmqw@md3 5. 将keytab文件传至登录天翼云控制台所用的客户端。 若使用本地电脑登录天翼云控制台,需要将AD域控制器上生成的keytab文件传至本地电脑,具体方法参考:怎样在本地主机和Windows云主机之间互传数据?。此方法需要使用弹性IP,弹性IP是计费服务,计费说明参考计费概述弹性IP。 若为云主机绑定弹性IP,可以直接使用云主机登录天翼云控制台进行接下来的步骤,且不必进行本地电脑与云电脑的keytab文件传输。 说明 远程桌面连接时需要输入云主机的用户名密码,是指在创建云主机时的用户名(默认为Administrator)和密码。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        文件系统加入AD域
      • 支持的操作系统
        本文为您介绍弹性文件服务的操作系统限制,请您务必仔细阅读后使用。 使用限制 大部分标准操作系统都具备NFS客户端,即支持NFS协议的弹性文件系统挂载。若是定制操作系统须具备NFS客户端,方可支持标准的NFS协议弹性文件挂载。 目前天翼云部分镜像中不具备NFS客户端,需连接公网自行下载,后续会逐渐支持。 对于未在下方列表中的操作系统镜像,挂载文件系统时可能会存在一些未知缺陷,建议使用下方通过兼容性测试的操作系统进行挂载。 支持的操作系统列表 天翼云弹性文件服务已通过兼容性测试的操作系统如下表,请选择适合的云主机进行挂载,否则可能导致挂载失败。 注意 部分公共镜像已经停止维护,不推荐使用,相关操作系统维护情况请参考 类型 操作系统版本 CTyunOS CTyunOS 2.0.1 CentOS(均停止维护) CentOS6.8 64位 CentOS(均停止维护) CentOS7.0 64位 CentOS(均停止维护) CentOS7.2 64位 CentOS(均停止维护) CentOS7.3 64位 CentOS(均停止维护) CentOS7.4 64位 CentOS(均停止维护) CentOS7.5 64位 CentOS(均停止维护) CentOS7.7 64位 CentOS(均停止维护) CentOS7.8 64位 CentOS(均停止维护) CentOS8.0 64位 CentOS(均停止维护) CentOS8.1 64位 CentOS(均停止维护) CentOS8.2 64位 CentOS(均停止维护) CentOS8.4 64位 Ubuntu Ubuntu 16.04 64位(停止维护) Ubuntu Ubuntu 18.04 64位(停止维护) Ubuntu Ubuntu 20.04 64位 Ubuntu Ubuntu 22.04 64位 Windows Windows Server 2008 R2(停止维护) Windows Windows Server 2016 Datacenter Windows Windows Server 2012 R2 Standard(停止维护) Windows Windows server 2012 数据中心版 R2 64位 Windows Windows server 2012 标准版 R2 64位 Windows Windows server 2016 数据中心版 64位 Windows Windows server 2019 数据中心版 64位
        来自:
        帮助文档
        弹性文件服务 SFS
        产品简介
        产品使用限制
        支持的操作系统
      • 功能特性
        功能类别 功能说明 业务配置 域名(泛域名、一级域名、二级域名等各级域名)/IP防护 WAF支持的防护对象:域名或IP,云上或云下的Web业务。 业务配置 HTTP/HTTPS业务防护 WAF可以防护HTTP/HTTPS业务,通过对HTTP/HTTPS请求进行检测,识别并阻断SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击,保护Web服务安全稳定。 业务配置 支持WebSocket/WebSockets协议 WAF支持WebSocket/WebSockets协议,且默认为开启状态。 业务配置 非标端口防护 Web应用防火墙除了可以防护标准的80,443端口外,还支持非标准端口的防护。 Web应用安全防护 Web基础防护 覆盖OWASP(Open Web Application Security Project,简称OWASP)TOP 10中常见安全威胁,通过预置丰富的信誉库,对恶意扫描器、IP、网马等威胁进行检测和拦截。 全面的攻击防护:支持SQL注入、XSS跨站脚本、远程溢出攻击、文件包含、Bash漏洞攻击、目录(路径)遍历、敏感文件访问、命令/代码注入、网页木马上传、后门隔离保护、非法HTTP协议请求、第三方漏洞攻击等威胁检测和拦截。 Webshell检测防护:通过上传接口植入网页木马。 识别精准: 内置语义分析+正则双引擎,黑白名单配置,误报率更低。 支持防逃逸,自动还原常见编码,识别变形攻击能力更强。默认支持的编码还原类型:urlencode、Unicode、xml、OCT(八进制)、HEX(十六进制)、html转义、base64、大小写混淆、javascript/shell/php等拼接混淆。 深度检测:深度反逃逸识别(支持同形字符混淆、通配符变形的命令注入、UTF7、Data URI Scheme等的防护)。 header全检测:支持对请求里header中所有字段进行攻击检测。 Web应用安全防护 CC攻击防护规则 可以自定义CC防护规则,限制单个IP/Cookie/Referer访问者对您的网站上特定路径(URL)的访问频率,WAF会根据您配置的规则,精准识别CC攻击以及有效缓解CC攻击。 Web应用安全防护 精准访问防护规则 精准访问防护策略可对HTTP首部、Cookie、访问URL、请求参数或者客户端IP进行条件组合,定制化防护策略,为您的网站带来更精准的防护。 Web应用安全防护 黑白名单规则 配置黑白名单规则,阻断、仅记录或放行指定IP的访问请求,即设置IP黑/白名单。 Web应用安全防护 地理位置访问控制规则 针对指定国家、地区的来源IP自定义访问控制。 Web应用安全防护 网页防篡改规则 当用户需要防护静态页面被篡改时,可配置网页防篡改规则。 Web应用安全防护 网站反爬虫规则 动态分析网站业务模型,结合人机识别技术和数据风控手段,精准识别爬虫行为。 Web应用安全防护 防敏感信息泄露规则 该规则可添加两种类型的防敏感信息泄露规则: 敏感信息过滤。配置后可对返回页面中包含的敏感信息做屏蔽处理,防止用户的敏感信息(例如:身份证号、电话号码、电子邮箱等)泄露。 响应码拦截。配置后可拦截指定的HTTP响应码页面。 Web应用安全防护 全局白名单规则 针对特定请求忽略某些攻击检测规则,用于处理误报事件。 Web应用安全防护 隐私屏蔽规则 隐私信息屏蔽,避免用户的密码等信息出现在事件日志中。 高级设置 PCI DSS/PCI 3DS合规认证和TLS TLS支持TLS v1.0、TLS v1.1和TLS v1.2三个版本和七种加密套件,可以满足各种行业客户的安全需求。 WAF支持PCI DSS和PCI 3DS合规认证功能。 高级设置 连接保护 当502/504请求数量或读等待URL请求数量以及占比阈值达到您设置的值时,将触发WAF熔断功能开关,实现宕机保护和读等待URL请求保护。 高级设置 手动设置网站连接超时时间 浏览器到WAF引擎的连接超时时长默认是120秒,该值取决于浏览器的配置,该值在WAF界面不可以手动设置。 WAF到客户源站的连接超时时长默认为30秒,该值可以在WAF界面手动设置。 高级设置 配置攻击惩罚的流量标识 WAF根据配置的流量标识识别客户端IP、Session或User标记,以分别实现IP、Cookie或Params恶意请求的攻击惩罚功能。 高阶功能 内容安全检测服务 基于丰富的违规样例库和内容审核专家经验,通过机器审核加人工审核结合的方式,帮助您准确检测出Web网站和新媒体平台上的关于涉黄、涉赌、涉毒、暴恐、违禁等敏感违规内容,并提供文本内容纠错审校,助您降低内容违规风险。 防护事件管理 当Web应用防火墙拦截或者仅记录的攻击事件为误报时,用户可通过Web应用防火墙处理误报事件、查看事件详情。 用户可以通过Web应用防火墙服务下载5天内的全量防护事件数据 告警通知 用户可以通过Web应用防火墙服务对攻击日志进行通知设置。开启告警通知后,Web应用防火墙将仅记录和拦截的攻击日志通过用户设置的接收通知方式发送给用户。 安全可视化 提供简洁友好的控制界面,实时查看攻击信息和事件日志。 策略事件集中配置:在Web应用防火墙服务的控制台集中配置适用于多个防护域名的策略,快速下发,快速生效。 流量及事件统计信息:实时查看访问次数、安全事件的数量与类型、详细的日志信息 灵活性、可靠性 多区域多集群部署,支持负载均衡,可在线平滑扩容,没有单点故障,最大限度保护业务运行稳定。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        产品介绍
        功能特性
      • 云容器集群节点网络延迟
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择网络延迟动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 延迟时间(毫秒):为每个数据包增加的固定延迟时长。 延迟浮动值(毫秒):在固定延迟时长上的随机浮动范围。最终延迟为延迟时间 ± 延迟浮动值,用于模拟更真实的网络抖动
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群节点网络延迟
      • 云容器集群节点网络延迟(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择网络延迟动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 延迟时间(毫秒):为每个数据包增加的固定延迟时长。 延迟浮动值(毫秒):在固定延迟时长上的随机浮动范围。最终延迟为延迟时间 ± 延迟浮动值,用于模拟更真实的网络抖动
        来自:
      • 配置DLI目的端参数
        本章节主要介绍配置DLI目的端参数。 作业中目的连接为配置DLI连接,即将数据导入到数据湖探索服务(DLI)时,目的端作业参数如下表所示。 说明 使用CDM服务迁移数据到DLI时,当前用户需要先开通OBS读取权限。 表 DLI作为目的端时的作业参数 参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 导入前清空数据 选择导入前是否清空目的表的数据。 如果设置为是,任务启动前会清除目标表中数据。 否 清空数据方式 导入前清空数据,如果设置为true时,呈现此参数。 TRUNCATE:删除标准数据。 INSERTOVERWRITE:新增数据插入,同主键数据覆盖。 TRUNCATE 分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写分区信息后,表示清空该分区的数据。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置DLI目的端参数
      • 查询元数据表
        本页为您介绍如何查询元数据表。 1. 通过telesql连接到CN节点。 2. 执行psql命令 “dn”,查看schema trash是否存在。 3. 执行psql命令 “dt trash.”,查看元数据表trashtable是否存在 4. 执行sql “select from trash.trashtable;”。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        闪回恢复
        查询元数据表
      • Python
        环境安装 1. 安装Python。(Python版本为2.7或3.X。) 2. 安装依赖库。(使用公网连接需要安装confluentkafka 1.9.2及以下版本的依赖库) pip install confluentkafka1.9.2 3. 下载Demo包kafkaconfluentpythondemo.zip。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改setting.py文件。(calocation仅在ssl连接时需要配置) kafkasetting { 'bootstrapservers': 'XXX', 'topicname': 'XXX', 'groupname': 'XXX' } 生产消息 发送以下命令发送消息。 python kafkaproducer.py 生产消息示例代码如下: from confluentkafka import Producer import setting conf setting.kafkasetting """初始化一个 Producer 对象""" p Producer({'bootstrap.servers': conf['bootstrapservers']}) def deliveryreport(err, msg): """ Called once for each message produced to indicate delivery result. Triggered by poll() or flush(). """ if err is not None: print('Message delivery failed: {}'.format(err)) else: print('Message delivered to {} [{}]'.format(msg.topic(), msg.partition())) """异步发送消息""" p.produce(conf['topicname'], "Hello".encode('utf8'), callbackdeliveryreport) p.poll(0) """在程序结束时,调用flush""" p.flush() 消费消息 发送以下命令消费消息。 python kafkaconsumer.py 消费消息示例代码如下: from confluentkafka import Consumer, KafkaError import setting conf setting.kafkasetting c Consumer({ 'bootstrap.servers': conf['bootstrapservers'], 'group.id': conf['groupname'], 'auto.offset.reset': 'latest' }) c.subscribe([conf['topicname']]) while True: msg c.poll(1.0) if msg is None: continue if msg.error(): if msg.error().code() KafkaError.PARTITIONEOF: continue else: print("Consumer error: {}".format(msg.error())) continue print('Received message: {}'.format(msg.value().decode('utf8'))) c.close()
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Python
      • 慢查询
        本页面介绍云数据库ClickHouse如何通过控制台查看慢查询语句。 我们提供了强大的慢查询监控功能,让您能够深入了解和优化长时间运行的查询。通过这个功能,您可以查看在指定时间段内执行时间超过特定阈值(以毫秒为单位)的慢查询: 慢查询监控功能提供了以下关于慢查询的详细信息: 返回信息 描述 用户 执行慢查询的用户。这可以帮助您识别哪些用户的查询较慢,并可能需要进行性能调优或优化。 访问源地址 执行慢查询的客户端的IP地址或主机名。这个信息可以帮助您追踪慢查询的来源,并定位潜在的网络或连接问题。 起始时间 慢查询的开始时间。这个时间戳可以让您了解慢查询发生的具体时间,以便进行更精确的分析和对比。 持续时间 慢查询的执行时间,以毫秒为单位。这个指标反映了查询的耗时,让您可以找出执行时间较长的查询,并进行性能优化。 查询ID 每个查询都有一个唯一的查询ID。这个ID可以用于标识和跟踪慢查询,便于日志记录和调试。 内存使用量 慢查询执行期间使用的内存量。了解查询的内存消耗情况可以帮助您优化内存配置和调整查询的资源需求。 异常码 如果慢查询期间发生了异常或错误,会显示相应的异常码。这可以帮助您排查和解决慢查询过程中出现的问题。 SQL语句 慢查询的具体SQL语句。您可以查看查询的详细语句,从而深入分析查询逻辑和优化查询性能。 读取行数 查询期间读取的行数。这个指标可以帮助您了解查询的数据访问情况,并针对性地进行数据读取的优化。 读取数据大小 查询期间读取的数据量。这个指标可以帮助您评估查询的数据规模,并根据需要进行存储和网络资源的优化。 结果集行数 查询返回的结果集中的行数。这个指标可以帮助您了解查询结果的规模,并进行结果集处理的优化。 通过这些返回的信息,您可以全面了解慢查询的性能指标和查询细节,从而更好地分析、调优和优化您的系统。 通过监控慢查询,您可以及时发现执行时间较长的查询,识别可能存在的性能问题,并采取相应的优化措施。这可以提高系统的响应速度、减少查询的执行时间,并提升用户体验。 慢查询监控功能是优化云数据库ClickHouse性能的有力工具,它使您能够更好地了解系统中的查询行为,从而针对性地进行性能调优和优化。通过监控慢查询,您可以提升系统的整体性能,并确保高效处理大量查询请求。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        查询
        慢查询
      • 将DDS/MongoDB副本集迁移到DDS/MongoDB副本集
        操作步骤 1、购买DTS数据迁移实例。 在管理控制台点击“创建实例”进入订购页面,“实例类型”选择“数据迁移”,“目标库实例”的“数据库类型”选择DDS,选择实例或输入IP地址、端口,完成其他信息的填写并完成购买。 说明 文档数据库有副本集、分片集群等不同的架构,在网络访问方面与其他数据库相比具有一定的差异性,迁移前请您详细阅读 2、进入实例配置页面。 DTS实例购买成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面的操作分两种情况: 当DTS实例的网络接入类型为“公网EIP”时,请先点击“绑定弹性IP”按钮完成公网弹性IP的绑定,然后点击该实例操作列的“实例配置”按钮。 当DTS实例网络接入类型为“VPC网络”时,直接点击该实例操作列的“实例配置”按钮。 3、配置源库及目标库信息。 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括源库数据库类型(选择DDS/MongoDB)、架构类型(选择副本集)、源库IP地址端口/实例信息、鉴权库名称(默认为admin)、数据库账号、数据库密码等信息。 完成上述信息的填写后,点击源数据库和目标数据库的“测试连接”按钮进行数据库连接测试,检查数据库能否正常连接。 4、配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,包含:DATABASE、COLLECTION,选中后点击“>”按钮,将待迁移对象移动到“已选择对象”中。 说明 关于配置迁移对象及高级配置页面的详细说明,请参考
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将DDS/MongoDB副本集迁移到DDS/MongoDB副本集
      • 1
      • ...
      • 88
      • 89
      • 90
      • 91
      • 92
      • ...
      • 451
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      一站式智算服务平台

      推荐文档

      配置老化周期

      编辑

      只读实例简介

      基本信息

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号