云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      安全邮箱_相关内容
      • 告警中心
        处置告警 您可以根据自己的业务需求,自行判断并处理告警,快速清除资产中的安全威胁。告警处理完成后,告警的状态将从“未处理”变为“已处理”。 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏,选择“入侵检测 > 告警中心”,进入告警中心页面。 3. 在页面下方的告警列表中,单击告警操作列的“详情”,可在弹出的对话框中查看告警详情。 4. 核对告警信息,单击弹窗下方的“处理”按钮,根据业务实际需求处理告警。 5. 在弹出的告警处理对话框中,选择告警处理方式。 忽略:选择忽略,告警状态将变为已忽略。 加白名单:选择加白名单,系统会为您自动填写加白规则,若自动生成的加白规则不满足您也可以自定义加白规则。 文件隔离:选择隔离文件,告警状态将变为已隔离。 文件删除:选择删除文件,删除文件可能影响业务系统正常运行,文件被删除后无法恢复,请谨慎操作。 6. 填写备注后,单击“提交”即可完成告警处理。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        入侵检测
        告警中心
      • 等保合规检查最佳实践
        云等保的测评要求 等保工作是一个持续的工作,等保测评也是一个周期性的工作,三级系统要求每年做一次,四级系统每半年做一次,二级系统部分行业明确要求每两年做一次,没有明确要求的行业一般是建议两年做一次测评。 定期等保合规基线检查 合规基线覆盖等级保护二级、三级技术要求主机安全检查330项。涵盖系统基线、应用基线、等保合规检查和CIS合规检查。 使用合规基线功能,无需任何人工干预,全自动高效清点,一旦安全配置被修改迅速响应并可定位到具体的主机及负责人,最大限度减少风险暴露的同时有效降低员工再犯可能。 选择合规基线模版 点击某个基线任务,可查看该任务中的基线检查列表,也可对单个基线进行检查。 检查合规基线扫描结果 根据选定的基线检查任务,检查结果按照每个检查项的维度展示了该检查项的基本信息,和在主机范围内检查结果的通过率。
        来自:
        帮助文档
        服务器安全卫士
        最佳实践
        等保合规检查最佳实践
      • 其他类
        本节主要介绍弹性文件服务的其它常见问题。 如何从云主机访问文件系统? 要访问您的文件系统,如果是Linux云主机,您需要在Linux云主机上安装NFS客户端后使用挂载命令挂载文件系统;如果是Windows云主机,您需要在Windows云主机上安装NFS客户端,修改NFS传输协议后使用挂载命令挂载文件系统。或使用正确的用户和权限,直接输入CIFS文件系统的共享路径,挂载CIFS类型的文件系统。挂载完成后,可共享您的文件系统中的文件和目录。 如何确认如何确认Linux云主机上的文件系统处于可用状态? 以root用户登录云主机,执行如下命令,将会回显指定域名下所有可用的文件系统。 showmount e 文件系统域名。 弹性文件服务会占用用户的哪些资源? 为保证文件系统能够正常使用,弹性文件系统将会占用用户以下资源。 SFS容量型文件系统: 创建文件系统时,会在用户填写的安全组下,开通111、445、2049、2051、2052端口的入规则。默认的源地址为0.0.0.0/0,用户后续可根据自己的实际情况,修改该地址。 如果创建加密的SFS容量型文件系统,将会使用用户填写的kms密钥进行加密。注意,该密钥如果删除,该文件系统的数据将无法使用。 SFS Turbo文件系统: 创建SFS Turbo文件系统时,会在用户填写的子网下创建两个私有IP和一个虚拟IP。 创建SFS Turbo文件系统时,会在用户填写的安全组下,开通111、445、2049、2051、2052、20048端口的入规则。默认的源地址为0.0.0.0/0,用户后续可根据自己的实际情况,修改该地址。 如果创建加密的SFS Turbo文件系统,将会使用用户填写的kms密钥进行加密。注意,该密钥如果删除,该文件系统的数据将无法使用。 在往文件系统的文件夹写数据的过程中会占用服务器的运行内存,但不会占用服务器磁盘的存储空间,文件系统使用的是独立空间。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        其他类
      • 创建工作负载及服务
        本节介绍了:创建一个无状态工作负载——创建工作负载及服务的用户指引。 进入云容器引擎控制台,在集群选项卡中选择一个集群进入集群详情界面。选择工作负载 > 无状态 > 新增 选择命名空间,创建一个Deployment 配置项说明 配置项 说明 Deployment名称 工作负载的名称 数据卷(选填) 为容器提供存储,目前支持临时路径、主机路径、配置文件、本地卷(Local PV)、NFS、Ceph,还需挂载到容器的指定路径中。 实例数量 工作负载的副本数,可选择手动设置或自动伸缩。 实例内容器 工作负载中的容器实例配置,可配置一个或多个。 容器名称 容器实例的名称 镜像及镜像版本 支持选择容器镜像服务企业版、容器镜像服务个人版的镜像。 CPU/内存限制 Request用于预分配资源,当集群中的节点没有request所要求的资源数量时,容器会创建失败。Limit用于设置容器使用资源的最大上限,避免异常情况下节点资源消耗过多。 环境变量(选填) 支持配置容器的环境变量。 启动执行(选填) 启动执行命令:对应镜像的ENTRYPOINT命令,将会覆盖镜像的ENTRYPOINT命令;每个输入框仅输入一个命令或参数。 启动执行参数:对应镜像的CMD命令,将会覆盖镜像的CMD命令;每个输入框仅输入一个命令或参数。 启动后处理 容器启动后执行,注意由于是异步执行,无法保证一定在ENTRYPOINT之后运行;每个输入框仅输入一个命令或参数。 停止前处理 容器停止前执行,常用于资源清理;每个输入框仅输入一个命令或参数。 容器健康检查 存活检查:检查容器是否正常,不正常则重启实例。 就绪检查:检查容器是否就绪,不就绪则停止转发流量到当前实例。 特权级容器 容器开启特权级,将拥有宿主机的root权限。 Container安全上下文 为Container设置安全上下文,仅适用于该Container:若Pod、Container层面都设置了用户、用户组、Selinux上下文,Container的设置会覆盖Pod的设置。 访问设置 配置Service访问负载
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        快速入门
        创建一个无状态工作负载
        创建工作负载及服务
      • 开启_切换IPv6防护
        本节介绍如何为漏洞扫描v1.0开启/切换IPv6防护。 子网开启IPv6 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“网络 > 虚拟私有云”。 4. 选择对应的虚拟私有云,选择对应子网,点击子网后的“修改”进入修改子网页面,勾选“开启IPv6”,单击“确定”。 漏洞扫描系统开通 在设备成功开通后,默认一张网卡设定为管理网卡,以供单点登录设备时使用;需新增一张网卡专门用于业务操作。 漏洞扫描系统开通 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > 云等保专区”。 4. 在资源概览页面右上角,单击“立即购买”。 5. 在购买页面配置基础信息(包括区域 、虚拟私有云 、子网、可用区 和CPU分类 ),套餐选择自定义中的漏洞扫描、并进行产品规格配置。 6. 选择购买时长后,勾选“我已阅读,理解并接受《云等保专区服务协议》”,点击“立即购买”。完成购买后等待资源开通成功。 新增业务网卡 1. 创建弹性网卡 在天翼云控制中心服务列表页,选择“网络 > 虚拟私有云”;在网络控制台左侧导航栏,选择“弹性网卡”,单击弹性网卡页面右上角的“创建弹性网卡”,配置弹性网卡的区域、名称、VPC、子网、安全组等信息,点击“确定”。 2. 绑定网卡 在云等保专区左侧导航栏,选择“漏洞扫描”,在开通的设备右侧操作列点击“更多 > 绑定网卡”,选中上一步创建的弹性网卡,点击“确定”。 3. 重启漏洞扫描系统 在云等保专区左侧导航栏,选择“漏洞扫描”,在开通的设备右侧操作列点击“更多 > 重启”。 登录漏洞扫描系统 在云等保专区左侧导航栏,选择“漏洞扫描”,在目标资源右侧操作列单击“配置”,进入漏洞扫描系统。 开启IPv6防护 开通漏洞扫描v1.0后,还需要配置网络才能开启IPv6防护,请提交工单联系技术支持进行配置。
        来自:
      • 获取客户端真实IP
        应用场景 客户端IP指的是访问者(用户设备)的IP地址。在Web应用开发中,通常需要获取客户端真实的IP地址。例如,投票系统为了防止刷票,需要通过获取客户端真实IP地址,限制每个客户端IP地址只能投票一次。 当您的网站已接入Web应用防火墙(Web Application Firewall,简称WAF)进行安全防护后,WAF作为一个反向代理存在于客户端和服务器之间,服务器的真实IP被隐藏起来,Web访问者只能看到WAF的IP地址。此时,您可直接通过WAF获取客户端的真实IP,也可以通过配置网站服务器获取客户端的真实IP。 本章节介绍了通过WAF直接获取真实IP的方法,以及不同类型的Web应用服务器(包括Tomcat、Apache、Nginx、IIS 6和IIS 7)如何进行相关设置,以获取客户端的真实IP。 方案架构 通常情况下,网站访问并不是简单地从用户的浏览器直达服务器,中间可能部署有CDN、WAF、高防等代理服务器(架构为“用户> CDN/WAF/高防等代理服务 > 源站服务器”)。 说明 当网站没有接入到WAF前,DNS直接解析到源站的IP,用户直接访问服务器。 当网站接入WAF后,需要把DNS解析到WAF的CNAME,这样流量才会先经过WAF,WAF再将流量转到源站,实现网站流量检测和攻击拦截。 在这种情况下,访问请求到达源站服务器之前可能经过了多层安全代理转发或加速代理转发,服务器如何获取发起请求的真实客户端IP呢? 一个透明的代理服务器在把用户的HTTP请求转到下一环节的服务器时,会在HTTP的头部中加入一条“XForwardedFor”记录,用来记录用户的真实IP,其形式为“XForwardedFor:客户端的真实IP,代理服务器1IP, 代理服务器2IP,代理服务器3IP,……”。 因此,您可以通过获取“XForwardedFor”对应的第一个IP来得到客户端的真实IP。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        获取客户端真实IP
      • 漏洞扫描漏洞详情接口
        枚举参数 无 请求示例 请求url 无 请求头header {"regionid": "100054c0416811e9a6690242ac110002","ContentType":"application/json","urlType": "CTAPI"} 请求体body {"vulAnnouncementId":"CTyunOSSA202341697","currentPage":1,"pageSize":10} 响应示例 { "statusCode": "200", "error": "CTCSSCN000000", "message": "查询成功!", "returnObj":{ "title": "CTyunOSSA202341697: nghttp2 security update", "vulAnnouncementId": "CTyunOSSA202341697", "vulType": "LINUX", "publishAt": "20231013", "description": "CTyunOSSA202341697: nghttp2 security update", "url": " /support/safetyDetail?idCTyunOSSA202341697", "cveDetailPageInfo": { "total": 1, "list": { "cveId": "CVE202344487", "vulAnnouncementId": "CTyunOSSA202341697", "title": "HTTP/2 Rapid Reset 拒绝服务漏洞 (CVE202344487)", "publishAt": "20231013", "description": "HTTP/2协议允许客户端通过发送RSTSTREAM帧来指示服务器应该取消之前的流。该协议允许客户端单方面请求取消,这种攻击被称为快速重置。在HTTP/2快速重置攻击中,客户端一次打开大量流,但不等待服务器或代理对每个请求流的响应,而是立即取消每个请求,通过大规模利用请求取消请求取消快速重置攻击,会导致服务器CPU资源快速消耗,达到DoS。", "url": "[ "solution": "协议漏洞,建议关闭HTTP/2协议,降级到HTTP/1.1,或更新各类产品相关安全设置,比如nginx默认配置下最多保持1000个HTTP连接,只要服务器性能不太差默认配置下不受该漏洞影响;而jetty则受漏洞影响,需要更新至最新安全版本。", "vulLabel": "未加控制的资源消耗(资源穷尽)", "rebootRequired": false, "ratingLevel": 3 } ], "pageNum": 1, "pageSize": 10, "size": 0, "startRow": 0, "endRow": 0, "pages": 0, "prePage": 0, "nextPage": 0, "isFirstPage": false, "isLastPage": false, "hasPreviousPage": false, "hasNextPage": false, "navigatePages": 0, "navigatepageNums": null, "navigateFirstPage": 0, "navigateLastPage": 0 } } }
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        漏洞扫描
        漏洞扫描漏洞详情接口
      • 创建虚拟机配置模板
        本章介绍如何创建虚拟机配置模板。 操作场景 在“迁移配置”的“目的端配置”页签下,可选择已创建的虚拟机配置模板来快速完成虚拟私有云、子网、安全组等参数。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“公共配置”,进入公共配置页面。 3. 在虚拟机配置模板区域右上角,单击“创建虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,如下图所示。 图 创建虚拟机配置模板 4. 填写“模板名称”,单击“配置信息”后的按钮,配置参数,参数说明参见下表。 参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 区域与默认迁移参数模板设置的区域相同,您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目。 虚拟私有云 选择“迁移时创建”是指在设置目的端时再进行配置。 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 子网 选择“迁移时创建”是指在设置目的端时再进行配置。子网网段与虚拟私有云网段相同。 安全组 选择“迁移时创建”是指在设置目的端时再进行配置。 Windows系统开放8899端口、8900端口和22端口。 Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 可用区 默认随机分配,也可手动选择。 数据盘 包括普通IO、高IO、超高IO可选。 5. 单击“确定”,完成虚拟机配置模板。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        创建虚拟机配置模板
      • 审计管理
        本页介绍分布式融合数据库HTAP的审计管理功能。 审计管理简介 数据库审计能够对数据库操作进行细粒度的合规性审计管理,针对数据库 SQL 注入、异常操作等数据库风险行为进行记录,为数据库提供完善的安全诊断和管理功能,提高数据资产安全。 用户通过在控制台的审计管理 > 审计规则界面配置审计规则,然后在审计管理 > 审计策略界面设置具体数据库实例的审计策略(包含关联的审计规则,审计启停开关等),再通过审计管理 > 审计日志界面查看具体实例的审计日志。 注意事项 开启审计后,对分布式融合数据库HTAP的系统性能会有一定的影响。 约束限制 审计日志使用的空间大小不能超过 5 GB。 审计规则管理 新建规则 在审计规则界面,点击新建规则按钮,在弹出的新建规则界面填写相关信息并提交。 规则名,建议小写字母、数字组合。规则的描述,建议长度在128以内。 审计规则包含了客户端IP、客户端端口、SQL命令等参数规则的定义。当所有参数规则都满足时,才会输出到审计日志。 参数规则说明: 参数 类型 取值说明 客户端IP string 数据库连接的客户端IP。 客户端端口 number 数据库连接的客户端端口。 数据库账户 string 数据库连接的账户。 数据库名称 string 数据库连接的当前 database 名称。 SQL命令 string SQL 查询语句。 SQL类型 string sqltype。 影响行数 number 更新操作影响的行数。 执行时间(ms) number 查询耗时。 参数规则的匹配类型说明: 匹配类型 含义 适用的参数类型 无 不含该参数规则 string、number 如果查询SQL 该参数的值等于特征值 string、number ! 不等于 string、number > 大于或等于 number < 小于 number in 包含子串 string ni 不含子串 string re 正则表达式 ,遵循 RE2 语法 string 如果审计规则所有参数的匹配类型都设置为无,相当于不含任何参数规则,因此基于该审计规则审计所有查询时不会输出审计日志。输出审计日志的前提是符合审计规则的所有参数规则(参数规则间是与的关系,必须同时满足)。
        来自:
        帮助文档
        分布式融合数据库HTAP
        用户指南
        审计管理
      • 私有Bucket回源
        本文介绍私有Bucket回源功能的适用场景和配置说明。 功能介绍 天翼云CDN加速域名的回源地址可以使用客户自有源站、天翼云媒体存储或天翼云对象存储。若客户使用天翼云媒体存储/对象存储作为源站,在新建Bucket时,其权限属性支持以下三种模式: 【公共读】公共读权限可以通过匿名身份直接读取Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【公共读写】公共读写权限可以通过匿名身份直接读取/写/删除Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【私有】只有该Bucket的拥有者或被授权者可以对该存储空间内的文件进行读写操作。媒体存储会校验Authorization请求头,只有鉴权通过的才允许访问。 当客户权限选择【私有】时,需要参考本文档配置私有Bucket回源功能。 适用场景 回源地址使用天翼云媒体存储/对象存储并且Bucket为私有模式的场景。 注意事项 1. 开启私有Bucket回源功能前,请确认您的私有Bucket内容是否适合作为CDN加速的回源内容,如存在较为敏感的信息,请勿开启此功能,或单独为CDN创建一个独立的AK/SK,仅授权CDN必要目录的只读权限,避免源站敏感信息泄漏。 2. Bucket如为公有模式则无需配置私有Bucket回源,直接在源站配置中选择对应存储源站即可,详情请见:源站配置。 3. 开启私有Bucket回源功能后,CDN节点回存储源站时,会携带Authorization请求头,值为基于AK/SK及Bucket等生成的对应存储私有Bucket鉴权的签名信息。 4. 私有Bucket回源功能生效的前提:在【添加域名新增源站】或 【编辑域名修改源站】时,需要选择源站类型为【媒体存储源站】或者【对象存储源站】,否则功能将无效。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        私有Bucket回源
      • 实例问题
        本文主要介绍实例问题。 为什么可用区不能选择2个? 如果您需要提高Kafka实例的可靠性,在创建实例时,建议选择3个或以上的可用区,不支持选择2个可用区。原因如下: 每个Kafka实例包含3个Zookeeper节点,Zookeeper集群用来管理Kafka实例的配置,如果Zookeeper集群出现问题,Kafka实例将无法正常运行。至少2个Zookeeper节点正常运行,才能保证Zookeeper集群正常运行。 假设选择2个可用区,可用区1有1个Zookeeper节点,可用区2有2个Zookeeper节点。如果可用区1故障,则Kafka实例能正常使用;如果可用区2故障,则不能正常使用。Kafka实例可用的场景只有50%,所以不支持选择2个可用区。 创建实例时为什么无法查看子网和安全组等信息? 创建实例时,如果无法查看虚拟私有云、子网、安全组、弹性IP,可能原因是该用户的用户组无Server Administrator和VPC Administrator权限。增加用户组权限的详细步骤,请参考《统一身份认证服务 用户指南》的“用户指南 > 用户组及授权 > 查看或修改用户组”章节。 如何选择Kafka实例的存储空间? 存储空间主要是指用于存储消息(包括副本中的消息)、日志和元数据所需要的空间。选择存储空间时,需要选择磁盘类型和磁盘大小。更多磁盘信息,请参考《云硬盘用户指南》的“简介 > 磁盘类型及性能介绍”章节 假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为 100GB副本数 + 预留磁盘大小100GB 。Kafka集群中,每个Kafka节点会使用33GB的磁盘作为日志和Zookeeper数据的存储,因而实际可用存储会小于购买存储。 其中,副本数在创建Topic时可以选择,默认为3副本存储。如果开启了Kafka自动创建Topic功能,自动创建的Topic默认为3副本,副本数可以通过“配置参数”页签中的“default.replication.factor”修改。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        实例问题
      • ALM-19011 RegionServer的Region数量超出阈值
        负载均衡 3.以root用户登录HBase客户端所在节点。进入客户端安装目录,设置环境变量: cd 客户端安装目录 source bigdataenv 如果集群采用安全版本,要进行安全认证。执行kinit hbase命令,按提示输入密码(向管理员获取密码)。 4.执行以下命令进入hbase shell,查看目前负载均衡功能是否打开: hbase shell balancerenabled 是,执行步骤6。 否,执行步骤5。 5.在hbase shell,中执行命令打开负载均衡功能,并执行命令查看确认成功打开: balanceswitch true balancerenabled 6.执行balancer命令手动触发负载均衡。 说明 建议打开和手动触发负载均衡操作在业务低峰期进行。 7.FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase”,单击“HMaster(主)”,打开该HBase实例的WebUI,刷新页面查看Region分布是否均衡。 是,执行步骤8。 否,执行步骤21。 8.观察该告警是否清除。 是,处理完毕。 否,执行步骤9。 清理无用HBase表 说明 在清理过程中,请谨慎操作,确保删除数据的准确性。 9.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase”,单击“HMaster(主)”,打开该HBase实例的WebUI,查看该HBase服务实例上存储的表并记录可删除的无用表。 10.在hbase shell中,执行disable和drop命令,确认删除无用表,以减少Region数: disable '待删除表名' drop '待删除表名' 11.在hbase shell中,执行命令查看目前负载均衡功能是否打开: balancerenabled 是,执行步骤13。 否,执行步骤12。 12.在hbase shell中,执行命令打开负载均衡功能并确认成功打开: balanceswitch true balancerenabled 13.在hbase shell中,执行balancer命令手动触发负载均衡。 14.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase”,单击产生该告警的HBase服务实例,单击“HMaster(主)”,打开该HBase实例的WebUI,刷新页面查看Region分布是否均衡。 是,执行步骤15。 否,执行步骤21。 15.观察该告警是否清除。 是,处理完毕。 否,执行步骤16。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19011 RegionServer的Region数量超出阈值
      • ALM-14002 DataNode磁盘空间使用率超过阈值
        检查集群磁盘容量是否已满 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”页面,查看是否存在“ALM14001 HDFS磁盘空间使用率超过阈值”告警。 是,执行步骤 2。 否,执行步骤 4。 2.参考“ALM14001 HDFS磁盘空间使用率超过阈值”进行处理,查看对应告警是否清除。 是,执行步骤 3。 否,执行步骤11。 3.在“运维 > 告警 > 告警”页面查看本告警是否清除。 是,处理完毕。 否,执行步骤4。 检查DataNode节点平衡状态 4.在FusionInsight Manager首页,单击“主机”,查看各个机架上的DataNode节点数目分布是否大致相等,如果差异过大,调整DataNode节点所属机架,保证各个机架上的DataNode数量大致相等。重启HDFS服务生效。 5.选择“集群 > 待操作集群的名称 > 服务 > HDFS”。 6.在“基本信息”区域,单击“NameNode(主)”,进入HDFS WebUI页面。 说明 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 7.在HDFS WebUI的“Summary”区域,查看“DataNodes usages”中“Max”的值是否比“Median”的值大10%。 l是,执行步骤 8。 否,执行步骤11。 8.数据倾斜,需要均衡集群中的数据。以root用户登录MRS客户端。如果集群为普通模式,执行su omm切换到omm用户。执行cd命令进入客户端安装目录,然后执行 source bigdataenv 。如果集群采用安全版本,要进行安全认证。执行kinit hdfs命令,按提示输入密码。向管理员获取密码。 9.执行以下命令,均衡数据分布: hdfs balancer threshold 10 10.等待几分钟,检查本告警是否恢复。 是,处理完毕。 否,执行步骤 11。 收集故障信息 11.在FusionInsight Manager首页,选择“运维 > 日志 > 下载”。 12.在“服务”中勾选待操作集群的“HDFS”。 13.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 14.请联系运维人员,并发送已收集的故障日志信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14002 DataNode磁盘空间使用率超过阈值
      • 余额提现
        原路提现 1. 登录天翼云网,点击管理中心, 在总览页面选择“提现” 。 2. 单击“可原路提现金额”右侧的“立即提现”。 3. 设置提现金额,单击“下一步”。 4. 通过验证身份后,原路提现申请提交成功。 5. 系统自动发起原路退款,可原路退款金额实时到账 。在线充值 (微信、翼支付、支付宝)优先原路退回 ;若失败,转为 银行卡提现或退回余额。 说明 系统默认根据现金账户后进先出的原则进行提现,即根据多个充值流水的处理顺序,按照充值时间,后充值的金额先提取。 手机验证时,默认会发送验证码至您的天翼云账号绑定的手机号下,如果您需要变更该手机号,您可以在管理中心账号中心安全设置处进行变更。 银行卡提现 1. 登录天翼云网,点击管理中心, 在总览页面选择“提现” 。 2. 单击“可银行卡提现金额”右侧的“立即提现”。 3. 选择提现流水 4. 点击“提现”发起银行卡提现,补充银行卡信息、提交相关资料(原支付凭证等),然后点击“下一步”,进行身份验证,确认后银行卡提现申请提交成功。款项将通过线下打款方式退至您提供的银行卡,自银行卡提现申请成功后1015个工作日内完成退款((银行卡信息需完整且准确无误)。 注意 为保障您的资金安全, 银行卡提现只能提现至与实名认证信息同名的银行账号。企业实名认证用户如确因实际原因需提现至非同名的银行账号,需通过“银行卡提现其他附加材料”上传加盖公司公章的证明,证明企业与提现账号的关系。
        来自:
        帮助文档
        费用中心
        资金管理
        余额提现
      • 使用ZooKeeper客户端
        本章节主要介绍使用ZooKeeper的操作指导。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用ZooKeeper客户端 1. 安装客户端并安装了JDK8。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext zkCli.sh 服务器IP:端口号
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用ZooKeeper客户端
      • 升级云防火墙版本
        本节介绍如何将云防火墙从标准版升级到专业版。 购买了云防火墙后,如果当前版本功能无法满足您的需求,您可以升级CFW的版本。 从标准版升级到专业版 1. 登录天翼云控制中心。 2. 在产品服务列表页,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在页面左上角,单击“升级到专业版”,进入“购买云防火墙”页面。 5. 确认版本规格后,单击“立即购买”。 相关操作 如何为云防火墙续费? 如何退订云防火墙?
        来自:
        帮助文档
        云防火墙
        用户指南
        购买及变更云防火墙
        升级云防火墙版本
      • 产品优势
        本节介绍天翼云电脑(公众版)的产品优势。 自主领先,畅游云端 自研的CLINK安全传输协议,低延时、高画质、带宽占用少,弱网环境下也可畅快使用。 随时随地,便捷访问 用户通过终端云电脑应用即可快速访问调取云端资源,随时随地享受数据共享、移动办公、休闲娱乐等功能。 即开即用,灵活易用 无需配置,开通即可立即使用,弹性使用云电脑资源,满足日常办公、重度使用等使用场景需要。 说明 关于天翼云电脑(公众版)的产品规格说明,请参考 关于天翼云电脑(公众版)的产品功能说明,请参考 关于天翼云电脑(公众版)的客户端下载,请前往
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品介绍
        产品优势
      • 使用Spark客户端
        本章节主要介绍使用Spark的操作指导。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Spark客户端 1. 安装客户端。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext sparksql
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Spark客户端
      • 配置委托
        创建委托 1. 登录IAM服务控制台。 2. 选择“委托 > 创建委托”。 3. 设置“委托名称”。例如:DataArts Studioagency。 4. “委托类型”选择“云服务”,在“云服务”中选择数据治理中心DataArts Studio,将操作权限委托给DataArts Studio,让DataArts Studio以您的身份使用其他云服务,代替您进行一些资源运维工作。 5. “持续时间”选择“永久”。 6. 在“权限选择”区域中,单击“配置权限”。 7. 在弹出页面中搜索“Tenant Administrator”策略,勾选“Tenant Administrator”策略并单击“确定”,如下图所示。 − 因Tenant Administrator策略具有除统一身份认证服务IAM外,其他所有服务的所有执行权限。所以给委托服务DataArts Studio配置Tenant Administrator,可访问周边所有服务。 − 若您想达到对权限较小化的安全管控要求,Tenant Administrator可不配置,仅配置OBS OperateAccess权限(因作业执行过程中,需要往obs写执行日志信息,因此需要添加 OBS OperateAccess权限。)。然后再根据作业中的节点类型,配置不同的委托权限。例如某作业仅包含Import GES节点,可配置GES Administrator权限和OBS OperateAccess权限即可。详细方案请参考配置权限。 8. 单击“确定”完成委托创建。 配置权限 将帐号的操作权限委托给DataArts Studio服务后,需要配置委托身份的权限,才可与其他服务进行交互。 为实现对权限较小化的安全管控要求,可根据作业中的节点类型,以服务为粒度,参见下表配置相应的服务Admin权限。 也可精确到具体服务的操作、资源以及请求条件等。根据作业中的节点类型,以对应服务API接口为粒度进行权限拆分,满足企业对权限最小化的安全管控要求。参见下表进行配置。例如包含Import GES节点的作业,您只需要创建自定义策略,并勾选ges:graph:getDetail(查看图详情),ges:jobs:getDetail(查询任务状态),ges:graph:access(使用图)这三个授权项即可。 须知 MRS相关的节点(MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce),以及通过直连方式的(MRS Spark SQL、MRS Hive SQL)节点,由于部分MRS集群不支持委托方式提交作业,所以这类作业不能配置委托。 支持委托方式提交作业的MRS集群如下: 非安全集群 安全集群,集群版本大于2.1.0,并且安装了MRS 2.1.0.1及以上版本的补丁。 配置服务级Admin权限 因作业执行过程中,需要往obs写执行日志信息,因此粗粒度授权时,所有作业都需要添加 OBS OperateAccess权限。 配置相关节点的admin权限 节点名称 系统权限 权限描述 CDM Job DAYU Administrator 数据治理中心服务的所有执行权限。 Import GES GES Administrator 图引擎服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL(通过MRS API方式连接MRS集群的) MRS Administrator KMS Administrator MRS Administrator:MapReduce服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 KMS Administrator:数据加密服务加密密钥的管理员权限。 MRS Spark SQL、MRS Hive SQL、MRS Kafka、Kafka Client(通过代理方式连接集群) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 DLI Flink Job、DLI SQL、DLI Spark DLI Service Admin 数据湖探索的所有执行权限。 DWS SQL、Shell、RDS SQL(通过代理方式连接数据源) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 CSS DAYU Administrator Elasticsearch Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 Elasticsearch Administrator:云搜索服务的所有执行权限。该角色有依赖,需要在同项目中勾选依赖的角色:Tenant Guest、Server Administrator。 Create OBS、Delete OBS、OBS Manager OBS OperateAccess 查看桶、上传对象、获取对象、删除对象、获取对象ACL等对象基本操作权限 SMN SMN Administrator 消息通知服务的所有执行权限。 配置细粒度权限(根据各服务支持的授权项,创建自定义策略。) 创建自定义策略的详细操作请参见统一身份认证用户指南中的有关“创建自定义策略”的章节。 说明 作业执行过程中,需要向OBS中写入执行日志。当采取精细化授权方式时,任何类型的作业均需要添加OBS的如下授权项: obs:bucket:GetBucketLocation obs:object:GetObject obs:bucket:CreateBucket obs:object:PutObject obs:bucket:ListAllMyBuckets obs:bucket:ListBucket CDM Job节点隶属于DataArts Studio模块,DataArts Studio不支持细粒度授权。因此包含这几类节点的作业,给服务配置权限仅支持DataArts Studio Administarator。 CSS不支持细粒度授权,且需要通过代理执行。因此包含这类节点的作业,需要配置DataArts Studio Administarator和Elasticsearch Administrator权限。 SMN不支持细粒度授权,因此包含这类节点的作业,需要配置SMN Administarator权限。 自定义策略 节点名称 授权项 Import GES ges:graph:access ges:graph:getDetai ges:jobs:getDetail MRS Presto SQL、MRS Spark、MRS Spark Python、MRS Flink Job、 MRS MapReduce MRS Spark SQL、MRS Hive SQL(通过MRS API方式连接MRS集群的) mrs:job:delete mrs:job:stop mrs:job:submit mrs:cluster:get mrs:cluster:list mrs:job:get mrs:job:list kms:dek:crypto kms:cmk:get MRS Spark SQL、MRS Hive SQL、MRS Kafka、Kafka Client(通过代理方式连接集群) kms:dek:crypto kms:cmk:get DataArts Studio Administarator(角色) DLI Flink Job、DLI SQL、DLI Spark dli:jobs:get dli:jobs:update dli:jobs:create dli:queue:submitjob dli:jobs:list dli:jobs:listall DWS SQL、Shell、RDS SQL(通过代理方式连接数据源) kms:dek:crypto kms:cmk:get DataArts Studio Administarator(角色) Create OBS、Delete OBS、OBS Manager obs:bucket:GetBucketLocation obs:bucket:ListBucketVersions obs:object:GetObject obs:bucket:CreateBucket obs:bucket:DeleteBucket obs:object:DeleteObject obs:object:PutObject obs:bucket:ListAllMyBuckets obs:bucket:ListBucket
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        配置管理
        配置
        配置委托
      • 设置DDoS事件告警策略
        前提条件 用户持有天翼云弹性 EIP:所有弹性 EIP 均纳入 DDoS 基础防护覆盖范围,平台基于整体安全管控需求,为每一个弹性 EIP 统一分配 DDoS 防护阈值;若客户无公网业务需求,可无需使用该产品相关功能。 完成账号实名制认证。 用户已登录DDoS基础防护控制台,若不知道如何登录,请参照快速入门。 操作步骤 1.进入告警中心页面。 2.新增告警联系组,配置机器人通知凭证。 3. 新增告警策略,选择需要告警的事件类型和要接收告警的告警联系组。
        来自:
        帮助文档
        DDoS基础防护
        用户指南
        设置DDoS事件告警策略
      • 其他问题
        视频播放类其他问题。 视频同时在线观看人数是否有限制? 云点播目前对并发不做任何限制。但如有大并发观看需求,建议配置CDN加速服务。CDN加速的配置可参考【如何为云点播配置CDN加速服务】。 如何解决在HTTPS协议的页面播放HTTP协议的视频,被浏览器拦截的问题? 浏览器会出于安全考虑进行拦截。因此,建议在HTTP协议的页面播放HTTP的视频,HTTPS协议的页面播放HTTPS的视频。 另外还有一种可能性,即遇到浏览器跨域导致的拦截。解决方案可查看【实例管理】【权限设置】。
        来自:
        帮助文档
        云点播
        常见问题
        视频播放类
        其他问题
      • 查看产品信息
        您可以在产品信息界面查看WAF产品信息,包括申请的WAF版本、域名规格等信息。 前提条件 已申请Web应用防火墙实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择区域或项目。 步骤 3 单击页面左上方的,选择“安全> Web应用防火墙(独享版)”。 步骤 4 在左侧导航树中,选择“系统管理> 产品信息”,进入“产品信息”页面。 步骤 5 在“产品信息”界面,查看WAF版本、产品规格、到期时间等信息。单击“规格详情”,可以查看当前WAF版本的详细规格信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        系统管理
        查看产品信息
      • 续订说明
        操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > 密钥管理”。 4. 在左侧导航栏,选择“信息概览”,进入信息概览页面,在页面上方选择目标服务。 5. 切换至目标服务后,在当前服务信息展示页面,点击“续订”。 6. 进入续订页面,选择订购时长,确认无误后,勾选“我已阅读并同意《天翼云密钥管理产品服务协议》”后,点击“确认”后进入支付页面。 7. 完成订单支付,可在订单详情页查看订单状态,状态更新为“已完成”后代表续订成功。
        来自:
        帮助文档
        密钥管理
        计费说明
        续订说明
      • Windows弹性云主机登录方式概述
        开启远程桌面协议RDP 首次登录弹性云主机时,请先使用VNC方式登录弹性云主机,打开RDP(Remote Desktop Protocol),然后再使用MSTSC方式连接。 说明 使用公共镜像创建的Windows云主机,默认已打开RDP。 1. 使用VNC方式登录Windows云主机。请参考Windows弹性云主机控制中心远程登录(VNC方式)。 2. 在Windows操作系统中,点击"开始"菜单。 3. 在开始菜单中,选择"控制面板",然后选择"系统和安全",接着选择"系统"。 4. 在系统页面中,点击左侧的"远程设置"链接。 5. 在远程设置页面的"远程桌面"栏,勾选"允许远程连接到此计算机"选项。 6. 点击"确定"按钮,以保存并应用所做的更改。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        登录实例
        登录Windows弹性云主机
        Windows弹性云主机登录方式概述
      • 查询基线一级列表
        参数 参数类型 说明 示例 下级对象 id String 业务id 一级列表[基线模板文件名] 二级列表[agentGuid] 三级列表[检测id] CtyunLinuxBenchmarkTemplate.json passingRate String 检测项通过率 0.92 failed Integer 检测项未通过数 1 relationAgent Integer 未通过的服务器数量 1 itemTotal Integer 检测项总数 1 file String 基线检测文件名 CtyunLinuxBenchmarkTemplate.json passed Integer 检测项通过数 1 strategyId Integer 策略id 1 timestamp String 扫描时间 20200101 00:00:00 scaId Integer 基线模板id 1 name String 基线模板名称 天翼云Linux操作系统安全配置基线 riskInfo Array of Objects 风险信息,按等级分类统计 [{"riskLevel":1,"riskCount":1}] riskInfo 表 riskInfo
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        基线检测
        查询基线一级列表
      • 查询服务器详情页基线检测列表
        枚举参数 无 请求示例 请求url 无 请求头header {"ContentType": "application/json"} 请求体body {"scaName": "Unix系统基线检测", "agentGuid": "testagentguid"} 响应示例 {"message": "success", "traceId": "asaadasd11111", "statusCode": "200", "error": "CTCSSCN000000", "returnObj": {"total": 100, "list": [{"id": "CtyunLinuxBenchmarkTemplate.json", "failed": 1, "itemTotal": 1, "file": "CtyunLinuxBenchmarkTemplate.json", "passed": 1, "totalChecks": 1, "strategyId": 1, "timestamp": "20200101 00:00:00", "scaId": 1, "name": "天翼云Linux操作系统安全配置基线", "agentGuid": "testagentguid", "riskInfo": [{"riskLevel": 1, "riskCount": 1}]}], "pageNum": 1, "pageSize": 10}} 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        基线检测
        查询服务器详情页基线检测列表
      • 退订实例
        前提条件 已获取管理控制台的登录账号与密码。 已使用的云堡垒机,需停止系统所有操作,解绑EIP。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 云堡垒机(原生版)”,进入云堡垒机实例管理页面。 3. 选择待退订的实例,单击所在行“操作”列的“更多 > 退订”。 4. 在弹出的退订提示框中,确认实例信息无误后,单击“确认”,进入“费用中心 > 退订管理 > 退订申请”页面。 5. 在退订申请页面,确认退订信息,信息确认无误后选择退订原因,勾选“我已确认本次退订金额和相关费用”后,点击“退订”后即可进行退订。
        来自:
        帮助文档
        云堡垒机(原生版)
        计费说明
        计费说明(一类节点)
        退订实例
      • 更换分组
        该任务指导用户通过漏洞扫描服务为已添加的主机更换分组。 前提条件 已获取管理控制台的登录账号和密码。 已添加主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 在目标主机的操作列,单击“更换分组”。 在已有“主机组”下拉列表中,选择已有的主机组。 单击“新建分组”页签,输入“主机组名称”,创建新的主机组。 5. 单击“确认”,主机更换分组成功。 说明 用户可以同时更换多个主机的分组。选中多个主机后,单击“批量操作 > 更换分组”,在弹出的对话框中,重新设置主机组名称,单击“确定”,批量变更分组。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        其他操作
        更换分组
      • 对象存储中的数据是否可以让其他用户访问
        本文介绍对象存储中的数据是否可以让其他用户访问。 可以。 对于桶,您可以通过设置桶ACL和桶策略授予其他用户桶的数据读取权限,其他用户即可访问该桶。具体可参考:访问权限。 对于对象,您可以通过对象ACL,对象策略和桶策略来授予其他用户对象的数据读取权限,或者通过临时URL方式,其他用户即可访问该对象。可参考:访问方式。 除此之外,您也可以通过STS角色,为临时用户颁发一个自定义时效和权限的访问凭证,使您区域粒度下的桶资源被更加安全地访问,参考:STS角色管理。
        来自:
        帮助文档
        媒体存储
        常见问题
        一般性问题
        对象存储中的数据是否可以让其他用户访问
      • 功能特性
        本章节主要介绍云搜索服务(ES)的功能特性。 云搜索服务具备如下功能: 专业的集群管理平台 管理控制台提供了丰富的功能菜单,能够让您通过浏览器即可安全、方便地进行集群管理和维护,包括集群管理、运行监控等。 完善的监控体系 通过管理控制台提供的仪表盘(Dashboard)和集群列表,您可以直观看到已创建集群的各种不同状态,可通过指标监控视图了解集群当前运行状况。 支持Elasticsearch搜索引擎 提供Elasticsearch搜索引擎,Elasticsearch是基于Lucene的当前流行的企业级搜索服务器,具备分布式多用户的能力。其主要功能包括全文检索、结构化搜索、分析、聚合、高亮显示等。能为用户提供实时搜索、稳定可靠的服务。
        来自:
        帮助文档
        云搜索服务
        产品简介
        功能特性
      • 启用密钥
        本节指导用户通过密钥管理界面对单个或多个自定义密钥进行启用操作,使被禁用的密钥恢复到数据加解密能力。新建的自定义密钥默认为“启用”状态。 前提条件 待启用的密钥需处于“禁用”状态。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域或项目。 步骤 3 单击“服务列表”,选择“安全> 数据加密服务”,默认进入“密钥管理”界面。 步骤 4 在需要启用的密钥所在行,单击“启用”。 步骤 5 在弹出窗口中,单击“是”,完成启用单个密钥操作。 说明 如果您想批量启用密钥,可以勾选所有需要启用的密钥,然后在列表左上角,单击“启用”。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        管理密钥
        启用密钥
      • 运行Flink作业
        通过后台提交作业 MRS 3.x及之后版本客户端默认安装路径为“/opt/Bigdata/client”,MRS 3.x之前版本为“/opt/client”。具体以实际为准。 1.登录MRS客户端。 2.执行如下命令初始化环境变量。 source /opt/Bigdata/client/bigdataenv 3.若集群开启Kerberos认证,需要执行以下步骤,若集群未开启Kerberos认证请跳过该步骤。 a.准备一个提交Flink作业的用户。 b.使用新创建的用户登录Manager页面。 MRS 3.x之前版本,登录集群的Manager界面,选择“系统设置 > 用户管理”,在已增加用户所在行的“操作”列,选择“更多 > 下载认证凭据”。 MRS 3.x及之后版本,登录集群的Manager界面,选择“系统 > 权限 > 用户”,在已增加用户所在行的“操作”列,选择“更多 > 下载认证凭据”。 c.将下载的认证凭据压缩包解压缩,并将得到的user.keytab文件拷贝到客户端节点中,例如客户端节点的“/opt/Bigdata/client/Flink/flink/conf”目录下。如果是在集群外节点安装的客户端,需要将得到的krb5.conf文件拷贝到该节点的“/etc/”目录下。 d.MRS 3.x及之后版本,安全模式下需要将客户端安装节点的业务IP以及Manager的浮动ip追加到“/opt/Bigdata/client/Flink/flink/conf/flinkconf.yaml”文件中的“jobmanager.web.allowaccessaddress”配置项中,ip之间使用英文逗号分隔。 e.配置安全认证,在“/opt/Bigdata/client/Flink/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.keytab: security.kerberos.login.principal: 例如: security.kerberos.login.keytab: /opt/Bigdata/client/Flink/flink/conf/user.keytab security.kerberos.login.principal: test f.在Flink的客户端bin目录下,执行如下命令进行安全加固,password请重新设置为一个用于提交作业的密码。 sh generatekeystore.sh 该脚本会自动替换“/opt/Bigdata/client/Flink/flink/conf/flinkconf.yaml”中关于SSL的值,针对MRS 3.x之前版本,安全集群默认没有开启外部SSL,用户如果需要启用外部SSL,进行配置后再次运行该脚本即可,配置参数在MRS的Flink默认配置中不存在,用户如果开启外部连接SSL,则需要添加下表中参数。 参数描述 参数 参数值示例 描述 security.ssl.rest.enabled true 打开外部SSL开关。 security.ssl.rest.keystore ${path}/flink.keystore keystore的存放路径。 security.ssl.rest.keystorepassword 123456 keystore的password,“123456”表示需要用户输入自定义设置的密码值。 security.ssl.rest.keypassword 123456 ssl key的password,“123456”表示需要用户输入自定义设置的密码值。 security.ssl.rest.truststore ${path}/flink.truststore truststore存放路径。 security.ssl.rest.truststorepassword 123456 truststore的password,“123456”表示需要用户输入自定义设置的密码值。 说明 针对MRS 3.x之前版本,generatekeystore.sh脚本无需手动生成。 会将生成的flink.keystore、flink.truststore、security.cookie自动填充到“flinkconf.yaml”对应配置项中。 针对MRS 3.x及之后版本,“security.ssl.keypassword”、“security.ssl.keystorepassword”和“security.ssl.truststorepassword”的值需要使用Manager明文加密API进行获取: curl k i u : X POST HContenttype:application/json d '{"plainText":" "}' 'https:// x.x.x.x :28443/web/api/v2/tools/encrypt' ;其中 要与签发证书时使用的密码一致,x.x.x.x为集群Manager的浮动IP。 g.客户端访问flink.keystore和flink.truststore文件的路径配置。 绝对路径:执行该脚本后,在flinkconf.yaml文件中将flink.keystore和flink.truststore文件路径自动配置为绝对路径“/opt/Bigdata/client/Flink/flink/conf/”,此时需要将conf目录中的flink.keystore和flink.truststore文件分别放置在Flink Client以及Yarn各个节点的该绝对路径上。 相对路径:请执行如下步骤配置flink.keystore和flink.truststore文件路径为相对路径,并确保Flink Client执行命令的目录可以直接访问该相对路径。 i.在“/opt/Bigdata/client/Flink/flink/conf/”目录下新建目录,例如ssl。 ii. 移动flink.keystore和flink.truststore文件到“/opt/Bigdata/client/Flink/flink/conf/ssl/”中。 iii. 针对MRS 3.x及之后版本,修改flinkconf.yaml文件中如下两个参数为相对路径。 security.ssl.keystore: ssl/flink.keystore security.ssl.truststore: ssl/flink.truststore iv. 针对MRS 3.x之前版本,修改flinkconf.yaml文件中如下两个参数为相对路径。 security.ssl.internal.keystore: ssl/flink.keystore security.ssl.internal.truststore: ssl/flink.truststore h.如果客户端安装在集群外节点,请在配置文件(如:“ /opt/Bigdata/client/Flink/fink/conf/flinkconf.yaml ”) 中增加如下配置值,其中xx.xx.xxx.xxx请替换为客户端所在节点的IP。 web.accesscontrolalloworigin: xx.xx.xxx.xxx jobmanager.web.allowaccessaddress: xx.xx.xxx.xxx 4.运行wordcount作业。 普通集群(未开启Kerberos认证) −执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm "sessionname" flink run /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar −执行如下命令在Yarn上提交单个作业。 flink run m yarncluster /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar 安全集群(开启Kerberos认证) −flink.keystore和flink.truststore文件路径为绝对路径时: 执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm "sessionname" flink run /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar −flink.keystore和flink.truststore文件路径为相对路径时: 在“ssl”的同级目录下执行如下命令启动session,并在session中提交作业,其中“ssl”是相对路径,如“ssl”所在目录是“opt/Bigdata/client/Flink/flink/conf/”,则在“opt/Bigdata/client/Flink/flink/conf/”目录下执行命令。 yarnsession.sh t ssl/ nm "sessionname" flink run /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster yt ssl/ /opt/Bigdata/client/Flink/flink/examples/streaming/WordCount.jar
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Flink作业
      • 1
      • ...
      • 119
      • 120
      • 121
      • 122
      • 123
      • ...
      • 219
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      文档下载

      云课堂 第三课:四大功能告诉你使用负载均衡的意义

      服务器迁移的功能

      其他问题

      NAT网关删除

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号