活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云文件储存_相关内容
      • 采集常见错误类型
        LTS 错误码 错误说明 英文说明 解决方法 LTS1400 数据包从产生到发送的过程中等待的时间较长 The waiting time for data packets from generation to transmission is relatively long 检查发送是否正常,或是否存在数据量超过默认配置、配额不足或网络存在问题。 LTS1401 无权限读取指定文件 No permission to read the specified file 检查lmtagent的启动账号,建议以root方式启动。 切要采集的日志目录具备读权限 LTS1402 行首正则与日志行首匹配失败,无法对日志做分行 Failed to match the beginning of the line with the log entry's starting pattern, unable to split the log into lines 检查行首正则正确性。 若是单行日志可以配置为 . 。 LTS1403 完整正则模式下,日志内容和正则表达式不匹配 No match found between log content and regular expression in full regex mode 查看错误详情,重新调整正则规则适配日志原文。 LTS1404 JSON、分隔符等模式下,由于日志格式不符合定义而解析失败 Parsing failed in JSON, delimiter, and other modes due to mismatched log format definitions 查看错误详情,重新调整规则适配日志原文。 LTS1405 采集配置不合法 The collection configuration is invalid 采集配置JSON格式有误,可以通过控制台重新编辑下发规则。 LTS1406 因超过服务器资源使用上限而崩溃 Crashed due to exceeding server resource limits 调整CPU/内存上限, 主机需要调整 /etc/systemd/system/lmtagent.service 里几个限额项 MemoryMax/MemoryLimit/CPUQuota ; 容器需要在ccse控制台调整日志插件的YAML文件中定义的限额项 resources.limit.cpu/resources.limit.memory。 LTS1407 在Linux系统中注册日志监听失败,可能由于没有文件夹权限或文件夹被删除 Failed to register the log listener in the Linux system, possibly due to lack of folder permissions or the folder being deleted 检查采集器是否有权限访问该文件夹,或者该文件夹是否被删除。 LTS1408 日志采集进度落后于日志产生进度 Log collection is lagging behind log generation 采集有部分延迟,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1409 日志采集进度落后于日志产生进度,且未处理的日志轮转超过20个,开始丢弃日志 Log collection is lagging behind log generation, and with over 20 unprocessed log rotations, logs are now being discarded 采集延迟较多,应避免一个配置文件采集过多目录,可以通过拆分配置来解决,如果持续出现错误可以提工单反馈。 LTS1410 没有日志监控目录读取权限 No read permission for the log monitoring directory 检查日志监控目录是否存在。如果存在,请检查目录权限设置。 LTS1411 日志采集配置目录中的文件数超限 The number of files in the log collection configuration directory has exceeded the limit 检查采集的目录下是否有较多文件和子目录并合理设置监控目录最大深度。 LTS1412 进程退出时日志落盘到本地超时,此时会丢弃未落盘完成的日志 When the process exits, flushing logs to disk times out, and any unfinished logs will be discarded 该报错通常为采集严重阻塞导致,如果持续出现错误可以提工单反馈。 LTS1413 输入源采集异常 Input source collection exception 查看详细报错,根据具体错误信息进一步排查。 LTS1414 过滤器初始化异常 Filter initialization exception 一般由于过滤器的正则表达式非法导致,请根据提示修复。 LTS1415 向聚合队列中添加数据失败 Failed to add data to the aggregation queue 数据发送过快。若真实数据量很大,可忽略。 LTS1416 Checkpoint解析失败 Checkpoint parsing failed 查看详细报错,根据其中检查点内容(前1024个字节)以及具体错误信息进一步排查。 LTS1417 同时监听的目录数超出限制 The number of simultaneously monitored directories exceeds the limit 检查当前采集配置是否包含较多的目录数,合理设置监控目录最大深度。 LTS1418 执行命令添加Docker文件映射失败 Failed to add Docker file mapping when executing the command 查看详细报错,根据具体错误信息进一步排查。 LTS1419 无法在Docker容器中查找到指定文件 The specified file could not be located within the Docker container 查看详细报错,根据其中的容器信息以及查找的文件路径进一步排查。 LTS1420 servicedockerstdout插件错误,根据配置中的BeginLineRegex编译失败 Error in servicedockerstdout plugin: failed to compile BeginLineRegex from configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1421 同时打开的文件对象数量超过限制 The number of simultaneously open file objects has exceeded the limit 一般因为当前处于采集状态的文件数过多,请检查采集配置是否合理。 LTS1422 processorsplitlogregex以及 processorsplitlogstring插件错误,无法从日志中获取到配置中指定的SplitKey。 Error in processorsplitlogregex and processorsplitlogstring plugins: unable to extract the configured SplitKey from log data 查看详细报错,检查是否存在配置错误的情况。 LTS1423 执行LZ4压缩发生错误 Error occurred during LZ4 compression execution 查看详细报错,根据具体错误信息进一步排查。 LTS1424 已打开文件数量超过限制,无法打开新的文件 The number of open files has exceeded the limit, preventing new files from being opened 日志采集配置目录中的文件数超限 ,默认上限为100000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1425 打开文件出错 Error opening file 文件无法打开,需要查看文件是否损坏。 LTS1426 processorregex插件错误,编译配置中指定的Regex正则表达式失败 Error in processorregex plugin: failed to compile the Regex expression specified in the configuration 查看详细报错,检查其中的正则表达式是否正确。 LTS1427 日志解析速度过慢 Log parsing speed is too slow 查看详细报错,根据其中的日志数量、缓冲区大小、解析时间来确定是否正常。 如果不正常,检查是否有其他进程占用了过多的CPU资源或是存在效率较低的复杂正则表达式等不合理的解析配置。 LTS1428 processorregex插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in processorregex plugin: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1429 processorregex插件错误,匹配失败 Error in processorregex plugin: match failed 查看详细报错,报错根据内容分为如下类型,请根据具体的错误信息进行排查。 unmatch this log content... :日志无法匹配配置中的正则表达式 match result count less... :匹配的结果数量少于配置中指定的 Keys 数量。 LTS1430 splitchar以及splitstring插件错误,无法从日志中找到配置中SourceKey指定的字段 Error in splitchar and splitstring plugins: unable to locate the field specified by SourceKey in the configuration from the log data 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1431 processorsplitchar以及processorsplitstring插件错误,解析得到的字段数量与SplitKeys中指定的不相同 Error in processorsplitchar and processorsplitstring plugins: the number of parsed fields does not match the count specified in SplitKeys 查看详细报错,检查是否存在SourceKey配置错误或日志不合法的情况。 LTS1432 解析日志时间失败 Failed to parse log timestamp 正则表达式提取的时间字段是否正确。 指定的时间字段内容是否匹配配置中的时间表达式。 LTS1433 checkpoint相关错误 Checkpointrelated error 读取checkpoint文件格式异常,需要确认文件是否被修改,可能导致重采,如果持续出现错误可以提工单反馈。 LTS1434 inotify监听超限 inotify watch limit exceeded 监听目录数超限 ,默认上限为3000,需要检查采集配置是否通配了过多文件,调整采集规则。 LTS1435 采集器启动配置不存在或解析失败 Collector startup configuration does not exist or failed to parse 主机采集器启动配置格式有误,需要确认文件是否被修改,如果持续出现错误可以提工单反馈。 LTS1436 采集队列已满 The collection queue is full 网络中断等原因导致数据无法上报,反压队列满,会持续重试1h等待恢复,如果持续出现错误可以提工单反馈。 LTS1437 本地目录下配置过多 Too many configurations in the local directory 查看详细报错,根据具体错误信息进一步排查。 LTS1438 采集器上报插件初始化失败 Collector reporting plugin initialization failed 先确认VPCE私网域名是正常开通。如果持续出现错误可以提工单反馈。 LTS1439 采集器上报插件endpoint无法连接 Unable to connect to the endpoint of the collector reporting plugin 先确认VPCE私网域名是正常开通,以及本地DNS到VPCE域名是否能ping通。如果持续出现错误可以提工单反馈。 LTS1440 上报日志网关中出现错误 Error occurred in the log gateway during reporting token失效或者到日志网关的网络不通。如果是token失效需确认AK/SK是否有getToken权限。 LTS1441 上报日志网关后返回错误 The log gateway returned an error after reporting 查看详细报错,根据具体错误信息进一步排查。 LTS1442 获取token失败 Failed to retrieve token 用户指定的AK/SK 获取token失败,可能是未正确授权。查看详细报错,根据具体错误信息进一步排查。 LTS1443 采集内部错误 Internal collection error 未定义在上面详细错误码的都归在此类,需要查看详细报错,根据具体错误信息进一步排查。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        主机管理
        采集常见错误类型
      • 业务分析报表
        本文将向您介绍如何查询您的网站业务统计分析报表。 功能介绍 可以通过安全报表,可以查询Web安全、CC安全两个维度的攻击数、攻击趋势、威胁类型分布、攻击IP TOP 10、TOP攻击URL等报表,并且支持导出报表。 前提条件 已开通Web应用防火墙(边缘云版) 已新增域名并成功接入WAF,具体操作请见WAF接入 新增域名后,边缘云WAF将会自动为域名开启域名防护规则功能,一旦识别到攻击行为,将产生攻击日志,并将攻击数据统计在安全报表中 查看安全报表 1. 登录Web应用防火墙(边缘云版)控制台,在左侧导航栏中选择【统计分析】模块 2. 根据您的站点业务数据查看需求,选择业务分析报表或者热门分析报表页面 业务分析报表说明 业务分析模块可为客户提供带宽流量、请求数、状态码等指标。 通过筛选项进行组合查询带宽流量、请求数、状态码等指标。筛选项包括域名、运营商、地区、时间。 带宽流量。界面中展示的是您所选范围、域名、运营商、地区、时间范围内的带宽和流量统计图表,可通过切换“带宽”和“流量”的按钮查看带宽和流量图,同时会给出查询时间范围内每日总流量、带宽峰值、峰值时间点。 请求数。界面中展示的是您所选范围、域名、运营商、地区、时间范围内的请求数和QPS统计图表,可通过切换“请求数”和“QPS”的按钮查看请求数和QPS图,请求数图表中包括了总请求数、动态http请求数、动态https请求数、静态http请求数、静态https请求数。 天粒度数据统计说明: 没有开启WAF防护:防护请求数0,总请求数静态http请求数+静态https请求数+动态请求数+动态https请求数。 开启WAF防护:动态请求数0,总请求数静态http请求数+静态https请求数+防护请求数。 状态码。界面中展示的是您所选域名、运营商、地区、时间范围内的状态码统计图表,可通过切换“所有状态码”、“2XX”、“3XX”、“4XX”、“5XX”的按钮查看不同状态码的图表,并显示查询时间范围内的总状态码量,同时展示状态码占比表和状态码占比饼图。
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        安全运营
        统计分析报表
        业务分析报表
      • 企业站点之间以设备直连方式进行组网
        步骤六:绑定天翼云SDWAN实例 完成以下操作,通过将智能网关实例加载到SDWAN网络中,实现组网。 1. 登录天翼云SDWAN控制台; 2. 选择“智能网关”,单击目标智能网关实例“操作”列的“绑定网络实例”; 3. 根据页面提示,选择要加入的天翼云SDWAN实例; 4. 单击“确定”,完成智能网关实例绑定天翼云SDWAN实例。 步骤七:设置设备直联 完成以下操作,实现总部分支互联。 1. 登录天翼云SDWAN控制台; 2. 选择“天翼云SDWAN”,单击目标SDWAN实例名称; 3. 进入“设备直联”页签,单击“添加设备直联”按钮; 4. 根据页面提示,选择要建立直联关系的两个智能网关,填写BGP邻居信息,包括直连端口、BGP优先级、路由反射、强制路由下一跳等; 5. 单击“确定”,完成在两个智能网关设备之间建联。 步骤八:访问测试 完成上述配置后,您可以通过测试两个设备之间的流量连通性,验证配置是否生效。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        企业站点之间以设备直连方式进行组网
      • 运维指导
        问题根因 删除表后再重建同名的表,该场景下表权限不会自动继承,需要重新对需要操作该该表的用户或项目进行赋权操作。 解决方案 表删除再创建后,需要重新对需要操作该表的用户或项目进行赋权操作。具体操作如下: 1.在管理控制台左侧,单击“数据管理”>“库表管理”。 2.单击需要设置权限的表所在的数据库名,进入该数据库的“表管理”页面。 3.单击所选表“操作”栏中的“权限管理”,将显示该表对应的权限信息。 4.单击表权限管理页面右上角的“授权”按钮。 5.在弹出的“授权”对话框中选择相应的权限。 6.单击“确定”,完成表权限设置。 DLI分区内表导入的文件不包含分区列的数据,导致数据导入完成后查询表数据失败 问题现象 DLI分区内表导入了CSV文件数据,导入的文件数据没有包含对应分区列的字段数据。分区表查询时需要指定分区字段,导致查询不到表数据。 问题根因 DLI分区内表在导入数据时,如果文件数据没有包含分区字段,则系统会默认指定分区值“ HIVEDEFAULTPARTITION ”,当前Spark判断分区为空时,则会直接返回null,不返回具体的数据。 解决方案 1.登录DLI管理控制台,在“SQL编辑器”中,单击“设置”。 2.在参数设置中,添加参数“spark.sql.forcePartitionPredicatesOnPartitionedTable.enabled”,值设置为“false”。 3.上述步骤参数设置完成后,则可以进行全表查询,不用查询表的时候要包含分区字段。 创建OBS外表,因为OBS文件中的某字段存在回车换行符导致表字段数据错误 问题现象 创建OBS外表,因为指定的OBS文件内容中某字段包含回车换行符导致表字段数据错误。 例如,当前创建的OBS外表语句为: CREATE TABLE test06 (name string, id int, no string) USING csv OPTIONS (path "obs://dlitest001/test.csv"); test.csv文件内容如下: Jordon,88,"aa bb" 因为最后一个字段的aa和bb之间存在回车换行。创建OBS外表后,查询test06表数据内容显示如下: name id classno Jordon 88 aa bb" null null
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        运维指导
      • 集群管理概述
        本章节主要介绍翼MapReduce的集群管理操作。 总览 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 概览”可以查看当前集群的主要状态信息。 在“概览”页面上可对当前集群进行基本管理操作,如启动、停止、滚动重启、同步配置等,具体如下表所示。 维护管理功能 操作入口 说明 “启动” 将集群中所有服务启动。 “停止” 将集群中所有服务停止。 “更多 > 重启” 将集群中所有服务重启。 “更多 > 滚动重启” 为集群中所有服务提供不中断业务的重启操作,具体可参考滚动重启集群。 “更多 > 同步配置” 为集群中所有服务启用新的配置参数。 “更多 > 重启配置过期的实例” 为集群中所有服务重启配置过期的实例,具体可参考管理配置过期。 “更多 > 健康检查” 为OMS、集群所有服务和所有节点进行健康检查,健康检查可以包含三方面检查项:各检查对象的运行状态、相关的告警和自定义的监控指标,检查结果并不能等同于界面上显示的“运行状态”。健康检查的结果可直接在检查列表左上角单击“导出报告”,选择导出结果。如果发现问题,可以单击“查看帮助”。 “ 更多 > 下载客户端” 为用户下载默认的客户端,具体可参考下载客户端。 “ 更多 > 导出安装模板” 将集群所有安装配置批量导出,例如集群认证模式、节点信息、服务配置等,可用于相同环境下集群重新安装的场景。 “更多 > 导出配置” 将集群所有服务的配置批量导出。 “更多 > 进入维护模式/退出维护模式” 配置集群进入/退出维护模式。 “更多 > 维护模式视图” 查看集群进入维护状态的服务或主机。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        集群管理概述
      • 上传资产
        租户控制台上传 1. 将应用包通过压缩软件打包为ZIP/RAR/7z文件。 注意 手动改文件后缀会导致应用包解压失败,推荐使用7z、RAR压缩应用包。 2. 进入租户控制台,点击上传资产,选择应用包上传至平台。
        来自:
        帮助文档
        实时云渲染(文档停止维护)
        用户指南
        资产管理
        上传资产
      • 部署bookinfo应用到CSM实例
        本章节介绍如何部署bookinfo应用到CSM实例 前提条件 1. 已开通云容器引擎,至少有一个云容器引擎实例。产品入口:云容器引擎。 2. 开通天翼云服务网格实例。 操作步骤 创建命名空间 首先到云容器引擎控制台找到当前添加到服务网格的云容器引擎集群,创建测试应用部署的sample命名空间,同时给命名空间打上istioinjection: enabled的标签以保证该命名空间下的pod会被注入sidecar。 部署应用 使用如下yaml部署我们的bookinfo应用,注意根据当前集群所在的资源池替换镜像的地址(当前云容器引擎实例在华东1资源池);如果您想要把演示应用部署到其他namespace也可以修改yaml里面的namespace字段实现,示例yaml如下: apiVersion: v1 kind: Service metadata: name: details labels: withServiceMesh: "true" workloadKind: Deployment workloadName: detailsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: details apiVersion: apps/v1 kind: Deployment metadata: name: detailsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: detailsv1 template: metadata: labels: app: details version: v1 name: detailsv1 source: CCSE csmAutoEnable: "on" "sidecar.istio.io/inject": "true" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: details image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinfodetailsv1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" apiVersion: v1 kind: Service metadata: name: ratings labels: withServiceMesh: "true" workloadKind: Deployment workloadName: ratingsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: ratings apiVersion: apps/v1 kind: Deployment metadata: name: ratingsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: ratingsv1 template: metadata: labels: app: ratings version: v1 name: ratingsv1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: ratings image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforatingsv1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" apiVersion: v1 kind: Service metadata: name: reviews labels: withServiceMesh: "true" workloadKind: Deployment workloadName: reviewsv1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: reviews apiVersion: apps/v1 kind: Deployment metadata: name: reviewsv1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: reviewsv1 template: metadata: labels: app: reviews version: v1 name: reviewsv1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: reviews image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforeviewsv1:1.16.2' imagePullPolicy: IfNotPresent env: name: LOGDIR value: "/tmp/logs" volumeMounts: name: tmp mountPath: /tmp name: wlpoutput mountPath: /opt/ibm/wlp/output volumes: name: wlpoutput emptyDir: {} name: tmp emptyDir: {} apiVersion: v1 kind: Service metadata: name: productpage labels: withServiceMesh: "true" workloadKind: Deployment workloadName: productpagev1 spec: ports: port: 9080 targetPort: 9080 name: http selector: app: productpage type: NodePort apiVersion: apps/v1 kind: Deployment metadata: name: productpagev1 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: productpagev1 template: metadata: labels: app: productpage version: v1 name: productpagev1 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: productpage image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinfoproductpagev1:1.16.2' imagePullPolicy: IfNotPresent resources: limits: cpu: "200m" memory: "256Mi" requests: cpu: "50m" memory: "64Mi" volumeMounts: name: tmp mountPath: /tmp volumes: name: tmp emptyDir: {} 在云容器引擎控制台选择我们要部署的sample命名空间,通过工作负载>无状态>新增yaml,依次部署上面的deployment; 通过网络>服务>新增yaml依次部署上面的Service填入我们准备的yaml文件,保存即可; 部署完成后,可以在工作负载>无状态列表里看到bookinfo相关的部署信息,在网络>Service菜单下可以看到刚部署的Service列表。
        来自:
        帮助文档
        应用服务网格
        快速入门
        部署bookinfo应用到CSM实例
      • 投递日志数据至OBS桶
        本章节介绍如何投递日志数据至OBS桶。 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。 步骤一:创建数据投递任务 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间> 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 安全数据”,进入安全分析页面。 5. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道后,单击目标管道名称后的“更多 > 投递”,右侧弹出现在数据投递设置页面。 6. (可选)在弹出的授权提示中,确认无误后,单击“确定”,完成授权。 首次投递到目的投递类型需要进行授权,如果已经授权,则无需执行此步骤。 7. 在新增投递配置页面中,配置数据投递相关参数。 1. 配置基本信息。 参数名称 参数说明 投递名称 自定义投递名称。 投递资源消耗 默认生成,无需配置。 2. 配置数据源。 数据源配置中,显示当前管道数据的详细信息,无需配置。 参数名称 参数说明 投递类型 数据投递类型,默认显示为PIPE,即默认从态势感知(专业版)管道投递数据。 区域 当前管道所在区域。 工作空间 当前管道所属的工作空间。 数据空间 当前管道所属的数据空间。 管道 管道的名称。 数据位置策略 当前管道中数据位置的策略。 读取身份 数据源读取身份信息说明。 3. 配置数据目的,请根据投递目的进行配置。 OBS:将当前管道数据投递到OBS服务。 投递到OBS中,需要已有一个桶策略为私有、公共读或公共读写的可用的桶(暂不支持并行文件桶)。 参数名称 参数说明 账号类型 选择数据投递目的地的账号类型。投递到OBS服务仅支持选择“本账号”类型。 投递类型 选择投递类型,此处选择OBS。 桶名称 选择目的OBS桶名称。 写入身份 默认生成,无需配置。 4. 在“访问授权”中,查看步骤6中授予的权限。 投递请求需要获取访问您云资源的读写权限,授权后,投递任务才能拥有对您云资源相应的访问权限。 8. 单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        投递日志数据至OBS桶
      • 运维安全中心实例权限管理
        如果您需要对天翼云上购买的运维安全中心实例资源进行管理,给企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制天翼云资源的访问。 通过IAM,您可以在天翼云账号中给员工创建IAM用户,并使用策略来控制对天翼云资源的访问范围。例如您的员工中有负责软件开发的人员,您希望员工拥有运维安全中心实例的使用权限,但是不希望员工拥有创建、变更规格、升级实例等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用实例,但是不允许创建、变更规格、升级CBH实例的权限策略,控制员工对实例资源的使用范围。 如果天翼云账号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用运维安全中心的其它功能。 运维安全中心实例权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 CBH实例部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域(如华北北京1)对应的项目(cnnorth1)中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问CBH实例时,需要先切换至授权区域。 根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对运维安全中心实例,管理员能够控制IAM用户仅能对某一类云服务器资源进行指定的管理操作。 如下表所示,包括了运维安全中心实例的部分系统权限。 系统角色/策略名称 描述 类别 CBH FullAccess 运维安全中心实例的所有权限(支付权限除外)。 系统策略 CBH ReadOnlyAccess 运维安全中心实例只读权限,拥有该权限的用户仅能查看运维安全中心服务,不具备服务配置和操作权限。 系统策略 说明 您在赋予账号企业项目级的CBH FullAccess权限时,还需要授予账号IAM项目级别的CBH ReadOnlyAccess权限,这样才可以在Console控制台正常使用CBH服务的各项功能。 您在赋予账号企业项目级的CBH FullAccess权限时,还需要授予账号IAM项目级别的CBH ReadOnlyAccess权限,这样才可以在Console控制台正常使用CBH服务的各项功能。 如下表列出了CBH实例常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 操作 CBH FullAccess CBH ReadOnlyAccess 创建运维安全中心 √ x 变更运维安全中心规格(变更规格) √ x 查询运维安全中心列表 √ √ 升级运维安全中心软件版本 √ x 查询ECS配额 √ x 绑定或解绑EIP √ x 重启运维安全中心 √ x 启动运维安全中心 √ x 关闭运维安全中心 √ x 查看运维安全中心可用区 √ x 检测当前配置是否支持创建IPv6运维安全中心 √ x 检测运维安全中心与License中心之间网络是否连通 √ x 修改运维安全中心网络,确保与License中心网络连通 √ x
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        产品简介
        运维安全中心实例权限管理
      • 步骤
        操作步骤 1. 点击天翼云门户首页的“控制中心”,输入A账号登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“网络>VPC终端节点”。 4. 在“终端节点”页面,单击“创建终端节点”。 5. 进入“创建终端节点”页面,根据终端节点配置说明完成参数配置,点击“下一步”。 6. 在资源详情页面确认终端节点配置、数量、费用等。 7. 勾选“我已阅读并同意相关协议《天翼云VPC终端节点服务协议》,点击“确认下单”。 8. (可选)配置连接管理,若在创建终端节点服务选择“自动接收连接”则可跳过此步骤。 登录账号B, 返回“终端节点服务”页面,点击终端节点服务名称/ID, 进入终端节点服务详情页面。点击“连接管理”页签,如果终端节点状态为“已连接”,表示终端节点已成功连接至终端节点服务;如果终端节点状态为“待审核”,表示需先进行审批,具体操作可参考配置连接管理。 此处同意终端节点的连接,在连接管理页面的“操作”栏下,点击“允许”并在弹出的对话框点击“确定”。允许后,将开始对该终端节点提供服务并建立连接。 9. 登录账号A, 在终端节点列表查看终端节点状态变为“已连接”,表示终端节点已成功连接至终端节点服务。 10. 点击终端节点名称/ID,即可查看终端节点的详细信息。 11. 终端节点创建成功后,会生成一个“节点IP”(即私有IP)。您可以使用节点IP访问终端节点服务,进行跨VPC资源通信。 终端节点配置说明 参数 说明 地域 终端节点所在地域,页面左上角可切换地域。不同地域的资源之间内网不互通,为了最优化的性能,请选择靠近您的地域,以降低网络时延并提高访问速度。 名称 终端节点的名称。名称由数字、字母、中文、、组成,不能以数字、和开头。 可用服务 可按服务实例ID查找可用服务,并进行验证。此处填写步骤一创建的终端节点服务的ID。 若开启了访问白名单,验证前,需要将账号B用户的邮箱加入用户私有服务的白名单。 虚拟私有云 选择终端节点所属虚拟私有云。 子网 选择终端节点所属的子网。 内网IP地址 自动分配内网IP,可通过内网IP直接访问终端节点。 访问白名单 可选开启或关闭。 默认不启用白名单,即所有网段允许访问节点网卡;最多允许20个网段。 开启后,需填写允许访问节点网卡的网段,多个网段换行分隔。 描述(可选) 可添加终端节点相关的描述。
        来自:
        帮助文档
        VPC终端节点
        快速入门
        配置不同帐号跨VPC通信的终端节点
        步骤
      • 安装与配置
        客户端加密SDK是一个用于数据加密和解密的Java算法库,支持多种加密算法和密钥管理策略。本SDK提供了简单易用的API,帮助开发者快速实现数据的安全加密和解密操作。 前提条件 已购买企业版客户端加密模块license。 已开通KMS包周期服务。 已完成访问凭证AKSK创建。 已完成用户主密钥资源创建。 下载SDK 请点击下载客户端加密模块SDK(企业版).zip。 安装与配置 1. 依赖库部署。 使用SDK前需将 C 依赖库放入相应的路径下,否则无法调用相关功能。 Linux环境 将文件夹lib中对应版本的xxx.so放置对应目录下: 64 位系统:库文件放入/lib64目录下。 32 位系统:库文件放入/usr/lib目录下。 Windows环境 将文件夹lib中对应的版本的xxx.dll 放置对应目录下: 64 位系统:DLL文件存放在C:WindowsSystem32目录或者jar包同级目录下。 32 位系统:DLL文件存放在C:WindowsSysWOW64目录或者jar包同级目录下。 2. 集成配置。 应用系统新增依赖配置: plaintext 安装加密软模块sdk包 mvn install:installfileDfilelib/TASSLAPIv1.5.220251215.1.jarDgroupIdorg.tasslsdk DartifactIdtasslDversion1.5.2Dpackagingjar 安装kms终端节点sdk mvn install:installfileDfilelib/ctyunkmssdkjava.jarDgroupIdorg.kmssdk DartifactIdctyunkmssdkjavaDversion1.2.1.1Dpackagingjar 添加依赖: plaintext org.tasslsdk tassl 1.5.2 其他依赖jar包信息: annotations13.0.jar hutoolall5.8.5.jar kotlinstdlib1.4.0.jar okhttp4.9.0.jar  okio2.8.0.jar
        来自:
        帮助文档
        密钥管理
        SDK参考(应用接入点)
        客户端加密SDK
        企业版
        安装与配置
      • 创建配置项
        操作场景 配置项(ConfigMap)是一种用于存储工作负载所需配置信息的资源类型,内容由用户决定。配置项创建完成后,可在容器工作负载中作为文件或者环境变量使用。 配置项允许您将配置文件从容器镜像中解耦,从而增强容器工作负载的可移植性。 配置项价值如下: 使用配置项功能可以帮您管理不同环境、不同业务的配置。 方便您部署相同工作负载的不同环境,配置文件支持多版本,方便您进行更新和回滚工作负载。 方便您快速将您的配置以文件的形式导入到容器中。 前提条件 已创建集群和节点资源,具体操作请参见购买混合集群。若已有集群和节点资源,无需重复操作。 操作步骤 步骤 1 登录CCE控制台,在左侧导航栏中选择“配置中心 > 配置项(ConfigMap)”,单击“创建配置项”。 步骤 2 参照下表设置新增配置参数。 表新建配置参数说明 参数 参数说明 配置名称 新建的配置名称,同一个命名空间里命名必须唯一。 所属集群 使用新建配置的集群。 集群命名空间 新建配置所在的命名空间。若不选择,默认配置为default。 描述 配置项的描述信息。 配置数据 工作负载配置的数据可以在容器中使用,或被用来存储配置数据。其中,“键”代表文件名;“值”代表文件中的内容。 1. 单击“添加更多配置数据” 。 2. 输入键、值。 配置标签 标签以Key/value键值对的形式附加到各种对象上(如工作负载、节点、服务等)。 标签定义了这些对象的可识别属性,用来对它们进行管理和选择。 1. 单击“添加标签” 。 2. 输入键、值。 步骤 3 配置完成后,单击“创建”。 工作负载配置列表中会出现新创建的工作负载配置。 使用kubectl创建配置项 步骤 1 请参见通过kubectl操作CCE集群配置kubectl命令。 步骤 2 创建并编辑cceconfigmap.yaml文件。 vi cceconfigmap.yaml apiVersion: v1 kind: ConfigMap metadata: name: cceconfigmap data: SPECIALLEVEL: Hello SPECIALTYPE: CCE 步骤 3 创建配置项。 kubectl create f cceconfigmap.yaml kubectl get cm NAME DATA AGE cceconfigmap 3 3h cceconfigmap1 3 7m 相关操作 配置项创建完成后,您还可以执行下表中的操作。 操作 说明 查看YAML 单击配置项名称后的“查看YAML”,可查看到当前配置项的YAML文件。 更新配置 1. 选择需要更新的配置项名称,单击“更新”。 2. 更改配置项的信息。 3. 单击“更新”。 删除配置 选择要删除的配置项,单击“删除”。 根据系统提示删除配置。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        配置中心
        创建配置项
      • 标准运行时函数创建
        在函数计算中,资源调度与运行以函数为单位进行,不同函数之间相互独立,互不影响。如果您希望根据函数计算定义的接口来编写程序,可以选择创建标准运行时函数。 创建函数 前提条件 具备已通过实名认证的天翼云账号 已开通函数计算服务 操作步骤 1. 登录函数计算控制台,在左侧导航栏,单击函数,进入函数列表页面。 2. 在函数列表页中,点击创建函数按钮,进入函数创建页面。 3. 在函数创建页面,选择创建函数的方式,并配置以下配置项,然后单击确定。以下操作以使用标准运行时创建函数为例。 基本设置 配置项 说明 函数名称 设置函数名称 请求处理程序类型 请求处理程序类型包括以下两种。 1. 处理事件请求 :通过定时器、调用API/SDK或其他天翼云服务的触发器来触发函数执行。 2. 处理 HTTP 请求 :用于处理 HTTP 请求或WebSocket 请求的函数。如果您的使用场景是Web场景,建议您使用自定义运行时进行创建。 企业项目 支持将本次创建的函数上报到用户的企业项目中。若不配置该项,则默认上报到"default"企业项目。 函数代码 配置项 说明 示例 运行环境 选择您熟悉的开发语言,目前支持Python、Java、Go、Node.js、Php、.Net。 Python3.10 代码上传方式 选择代码上传到函数计算的方式。可以选择示例代码或通过 zip 包上传代码。 使用示例代码 示例代码 选择示例代码。 选择内置 python3.10 运行时event 高级配置 配置项 说明 示例 vCPU规格 为函数配置运行vCPU规格。 0.5 核 内存规格 为函数配置运行的内存规格。 512 MB 临时硬盘大小 根据您的业务情况,选择临时存储文件的硬盘大小。 512 MB 实例并发度 支持一个实例同时并发执行多个请求,这个值用来配置单个函数实例可以同时处理多少个请求。 1 执行超时时间 设置函数执行的超时时间。 64 请求处理程序 设置请求处理程序,函数计算的运行时会加载并调用您的请求处理程序处理请求。 index.handler 时区 选择函数的时区。 UTC 函数角色 选择根据函数所在服务配置的角色。 CTyunDefaultRole 允许访问VPC 是否允许函数访问VPC内资源。 否 允许函数默认网卡访问公网 是否允许函数可以通过默认网卡访问公网。关闭后,当前服务中的函数将无法通过函数计算的默认网卡访问公网。 否 说明 vCPU大小(单位为核)与内存大小(单位为GB)的比例必须设置在1:1到1:4之间。 环境变量 设置函数运行环境中的环境变量。可以使用 json 或表单的形式编辑。
        来自:
      • 检测IP地址
        本文简述如何查询指定IP是否为天翼云IP。 功能介绍 天翼云边缘安全加速平台—安全与加速服务提供一种IP地址检测工具,您可以使用该工具检测某IP地址是否为天翼云节点IP,同时获取IP所属城市、运营商、机房地址、节点层级等信息。 应用场景 场景一:配置安全与加速服务后,可通过该工具验证客户端的请求是否成功到达天翼云节点IP。如果不是天翼云节点IP,则代表配置未生效;如果是,则可以继续验证请求是否正常。 场景二:当您的网站访问异常时,可通过该工具查询用户访问的IP是否为天翼云节点IP,来排查网站访问异常的原因。如果IP地址是天翼云IP,您可以继续排查问题原因或者反馈给我们处理。如果IP地址不是天翼云IP,则要查看CNAME是否配置正确,DNS解析是否正常等。 使用方法 您可以使用查询IP所属直辖市,运营商,机房地址,节点层级接口检测IP是否属于天翼云IP。 您可以通过控制台进行自助输入查询地址。 控制台自助查询IP归属 1. 登录边缘安全加速平台控制台。 2. 进入【工具IP归属查询】页面,输入查询的地址。 3. 输入查询后将显示该地址是否为天翼云节点以及对应归属地。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        工具管理
        检测IP地址
      • CDN内容审核计费
        本文介绍CDN内容审核增值服务的计费规则、开通方式、违规内容的评定规则。 重要说明 当前天翼云支持CDN内容审核,该功能是CDN加速产品的一项增值服务,基于天翼云计算AI平台,能对加速内容进行快速智能检测。开通CDN内容审核功能后,系统会自动智能检测经过CDN加速的内容是否涉黄、涉暴恐,鉴定为违规内容的URL将会被记录下来供客户导出,同时支持对违规内容做封禁,实现“净网分发”。 计费规则 CDN内容审核的标准资费为1.3元/千张。 注意事项 目前内容审核主要针对图片是否涉黄、涉暴恐进行鉴定。 CDN内容审核为打分制,每一张审核图片均有一个01的分值。分值越大则越可能是违规内容,分值越低则证明内容越安全。内容审核结果按照分值大小,分为确定部分和不确定部分。确定部分是指确定为违规部分和确定为正常部分的内容,一般分值在0.6以下或0.9以上,这部分一般无需人工干预,可直接基于审核结果对内容进行封禁或相关删除操作;不确定部分是指疑似违规图片,系统无法区分是否实际违规,建议用户进行人工二次确认。目前对于不确定部分,CDN内容审核不收取费用。 目前天翼云CDN加速产品的增值服务支持CDN内容审核,使用CDN内容审核增值服务需完成如下两个步骤: 1. 开通CDN内容审核服务。目前开通天翼云CDN加速业务时,CDN内容审核增值服务默认开通,详情请见:CDN内容审核开通。 2. 线下配置开启。如需使用,请提交工单给天翼云客服,由其人工操作开启。详情请见:CDN内容审核。 该功能目前仅支持中国内地开通使用,全球(不含中国内地)暂不支持。
        来自:
        帮助文档
        CDN加速
        计费说明
        增值服务计费(可选)
        CDN内容审核计费
      • 资源包提醒通知
        序号 触发维度 提醒频率 1 用量维度 已使用用量为70%、90%、100%。 2 时间维度 有效期到期前1天、3天、7天、15天、30天、60天。
        来自:
        帮助文档
        CDN加速
        计费说明
        资源包(预付费)
        资源包提醒通知
      • 创建Nacos实例
        本章节介绍如何创建一个 Nacos引擎实例 概述 Nacos引擎包括配置中心和注册中心,提供动态配置、服务发现和服务健康监测等简单易用的特性,经过实践检验具备高性能和高可用性,帮助用户管理配置、注册和发现微服务,更加快捷方便地构建、交付和管理微服务平台。 为了方便您开通实例,从天翼云官网控制中心> 微服务工具与平台 > 微服务引擎MSE,点击进入产品页面,点击左侧菜单栏的注册配置中心>实例列表,进入注册配置中心控制台。本文将介绍如何创建一个Nacos引擎实例。 操作步骤 1. 进入微服务引擎控制台,并在左上方选中您需要开通产品的资源池。点击“注册配置中心”页签,进入“实例列表”页签; 2. 点击页面左上方的“创建实例”按钮,进入实例开通页面; 3. 选择开通配置,配置项详细说明如下: 计费模式:目前可选择“包年包月”或“按需付费”,具体计费模式和规则可点击右侧的“查看产品定价”查看; 系列:目前可选择“单机版”或“集群版”或“企业版”,推荐您开通集群版或企业版,以保障实例的高可用性; 引擎类型:若您需要开通Nacos引擎,则选中“Nacos”; 实例名称:输入该实例的名称,实例名称是帮助您区分不同实例的重要标识; 实例规格:可选择将实例搭载在指定CPU、内存规格的机器上; 节点数量:可选择开通实例的节点数,节点数越大,实例越高可用; 部署模式和可用区:可选择将多节点实例部署在不同可用区,进一步提高可用性; 虚拟私有云:选择将实例开通在指定的虚拟私有云(VPC)下; 所在子网:选择将实例开通在该虚拟私有云指定的子网下; 安全组:为该实例绑定指定的安全组规则; 购买时长和自动续期:若您选择“包年包月”,则需要选择您购买的周期,并选中到期时是否自动续期; 4. 配置确认后,点击右下方的“下一步”按钮,进入开通配置确认页面,确认无误后,点击“提交订单”,进入订单结算页面。完成支付后,等待5至10分钟,即可完成开通; 5. 开通完成后,您可以在微服务引擎控制台的“注册配置中心”页签下找到您开通的实例。
        来自:
        帮助文档
        微服务引擎
        快速入门
        注册配置中心
        创建Nacos实例
      • 应用编辑
        本节介绍如何进行应用编辑。 操作场景 用户编辑创建好的自定义应用。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经完成自定义应用的创建。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本节我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”,进入天翼云SDWAN总览页面。 4. 单击“应用组管理”,单击目标应用“操作”列的“编辑”。 5. 除所属应用组之外,用户可修改应用其他信息。 6. 单击“确定”,完成自定义应用编辑。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关(硬件版)
        应用管理
        应用管理
        应用编辑
      • 运维指导
        本章节主要介绍Spark作业相关问题中有关运维指导的问题。 添加Python包后,找不到指定的Python环境 添加Python3包后,找不到指定的Python环境。 可以通过在conf文件中,设置spark.yarn.appMasterEnv.PYSPARKPYTHONpython3,指定计算集群环境为Python3环境。 目前,新建集群环境均已默认为Python3环境。 为什么Spark jar 作业 一直处于“提交中”? Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。 查看队列的的剩余步骤如下: 1. 查看队列CU使用量。 点击“云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。 2. 计算剩余CU量。 队列剩余CU量队列CU量 队列CU使用量。 当队列剩余CU量小于用户提交的CU量,则需要等待资源,才能提交成功。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        运维指导
      • 扩展磁盘分区和文件系统(Windows 2008)
        本节介绍了扩展磁盘分区和文件系统(Windows 2008)的相关内容。 操作场景 通过云服务管理控制台扩容成功后,仅扩大了云硬盘的存储容量,因此需要参考本章节操作扩展分区和文件系统。 对于Windows操作系统而言,需要登录云主机将扩容部分的容量划分至已有的分区中,或者为扩容部分的容量分配新的分区。 本文以“Windows Server 2008 R2 企业版 64bit”操作系统为例。提供以下扩容方法: 系统盘: 已有C盘的情况下,将扩容部分的容量增加到C盘中,用作系统盘。请参见系统盘(将扩容部分的容量增加到C盘)。 已有C盘的情况下,为扩容部分的容量新创建一块F盘,用作数据盘。请参见系统盘(将扩容部分的容量新增到F盘)。 数据盘: 已有D盘的情况下,将扩容部分的容量增加到D盘中,用作数据盘。请参见数据盘(将扩容部分的容量增加到D盘)。 已有D盘的情况下,为扩容部分的容量新创建一块E盘,用作数据盘。请参见数据盘(将扩容部分的容量新增到E盘)。 不同操作系统的操作可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 注意 扩容时请谨慎操作,误操作可能会导致数据丢失或者异常,建议扩容前对数据进行备份,可以使用CBR或者快照功能,CBR请参见
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        扩展磁盘分区和文件系统(Windows 2008)
      • 使用FTP上传文件时写入失败,文件传输失败怎么办?
        本节介绍了使用FTP上传文件时写入失败,文件传输失败怎么办的问题描述、约束与限制、可能原因、处理方法。 问题描述 使用FTP上传文件时,写入失败,文件传输失败。 约束与限制 该文档适用于Windows系统上的FTP服务。 可能原因 FTP服务端在NAT环境下,客户端需使用被动模式连接服务端。在这种情况下,服务端的IP地址无法从路由器外部访问,所以应该在服务端的对外IP中填写此服务器的公网IP(弹性公网IP),同时设置端口范围来限制需要通过路由器转发的端口数量。 处理方法 弹性公网IP与私有IP使用NAT方式绑定,所以需要在服务端做响应的配置。 1. 配置服务端对外的公网IP。 选择“Edit > Settings”。 图 配置服务端对外的公网IP 2. 选择“Passive mode settings”,设置数据传输端口范围(如5000050100),并填写弹性公网IP。 图 设置数据传输端口范围 3. 单击“OK”。 4. 安全组中开启入方向tcp协议的5000050100和21端口。 5. 在客户端连接测试。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        文件上传
        使用FTP上传文件时写入失败,文件传输失败怎么办?
      • 步骤一:创建实例
        本章节介绍天翼云关系型数据库如何创建新实例。 操作场景 您可以通过关系型数据库服务的管理控制台或API创建关系型数据库实例。关于如何通过API创建的信息,请参见《关系型数据库API参考》中实例管理章节的“创建实例”的内容。本节将介绍在关系型数据库服务的管理控制台创建实例的过程。 目前,RDS for SQL Server支持“包年/包月”和“按需计费”购买,您可以根据业务需要定制相应计算能力和存储空间的关系型数据库实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击“购买数据库实例”。 步骤 5 在“服务选型”页面,选择计费模式,填写并选择实例相关信息后,单击“立即购买”。 表 基本信息 参数 描述 :: 区域 租户当前所在区域,也可在页面左上角切换。说明不同区域内的产品内网不互通,且创建后不能更换,请谨慎选择。 实例名称 实例名称长度在4个到64个字符之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 数据库引擎 Microsoft SQL Server。 数据库版本 不同区域所支持的数据库版本不同,请以实际界面为准。 选用Microsoft SQL Server数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 实例类型+可用区 主备:备机提高了实例的可靠性,创建主机的过程中,同步创建备机,备机创建成功后,用户不可见。可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。关系型数据库服务支持在同一个可用区内或者跨可用区部署数据库主备实例,备机的选择和主机可用区对应情况:相同,主机和备机会部署在同一个可用区。不同(默认),主机和备机会部署在不同的可用区,以提供不同可用区之间的故障转移能力和高可用性。 单机:只创建一个主实例。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区仅可在创建实例时选择,一旦选定无法修改。 实例字符集 定义数据库或表列的排序规则,或应用于字符串表达式时的排序规则强制转换操作。用于设置当前实例的字符集。 表 规格与存储 参数 描述 :: 性能规格 实例的CPU和内存。不同性能规格对应不同连接数和最大IOPS。 创建成功后可进行规格变更,请参见变更实例的CPU和内存规格。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 普通I/O:磁盘类型SATA,最大吞吐量90MB/s 高I/O:磁盘类型SAS,最大吞吐量150MB/s 超高I/O:磁盘类型SSD,最大吞吐量350MB/s 存储池 只有选择“专属存储”的用户才有此选项,是购买专属分布式存储服务时确定的独享的存储池,该存储池与其他池物理隔离,安全性高。 存储空间 您申请的存储空间会有必要的文件系统开销,这些开销包括索引节点和保留块,以及数据库运行必需的空间。存储空间支持40GB到4000GB,用户选择容量大小必须为10的整数倍。 表 网络 参数 描述 :: 虚拟私有云 关系型数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。如何创建虚拟私有云,请参见《虚拟私有云用户指南》中的“创建虚拟私有云基本信息及默认子网”。 如果没有可选的虚拟私有云,关系型数据库服务默认为您分配资源。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效,创建关系型数据库实例的子网默认开启DHCP功能,不可关闭。 创建实例时RDS会自动为您配置内网地址,您也可输入子网号段内未使用的内网地址,实例创建成功后该内网地址暂不可修改。 内网安全组 安全组限制实例的安全访问规则,加强关系型数据库服务与其他服务间的安全访问。请确保所选取的内网安全组允许客户端访问数据库实例。 如果没有可选的内网安全组,关系型数据库服务默认为您分配内网安全组资源。 表 数据库配置 参数 描述 :: 管理员帐户名 数据库的登录名称默认为rdsuser。 管理员密码 所设置的密码长度为8~32个字符,至少包含大写字母、数字、特殊字符三种字符的组合,其中允许输入 ~!@
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        通过内网连接Microsoft SQL Server实例
        步骤一:创建实例
      • 迁出企业项目资源
        本节主要介绍迁出企业项目资源 操作场景 当资源需要按照企业业务进行分组管理或当资源分组发生变化时,可以对资源进行迁入或迁出操作,实现资源的重新分配。 企业项目管理支持跨区域将资源迁出到同一企业项目授权管理。 迁出企业项目资源包括以下两种场景: 将资源从该企业项目迁出到目标企业项目。 将资源迁出该企业项目,不再按照已规划的企业项目进行管理(将迁入到系统默认的企业项目“default”中)。 操作步骤 步骤 1 企业管理员使用已注册的天翼云帐号登录天翼云网门户,单击天翼云首页顶部右侧“控制台”。 步骤 2 在控制台首页顶部右侧,单击您的用户名后弹出下拉菜单,单击“企业管理”,在企业管理控制台左侧导航菜单中,单击“项目管理”。 步骤 3 在企业项目管理页中的项目列表,单击待迁出资源企业项目右侧的“查看资源”。 系统进入企业项目详情页面,在“资源”页签下可查看该企业项目内资源信息。 步骤 4 勾选待迁出资源,单击“迁出”。 系统显示“迁出资源”页面。 步骤 5 选择迁出方式。 单资源迁出:将每个资源作为独立资源迁出,并且可以同时迁出多个资源。 如果是除ECS外的其他资源时,那么必须选择此项。 如果资源是ECS,可以选择此项,表示只迁出ECS,不迁出ECS的关联资源,例如ECS绑定的弹性IP和云硬盘。 ECS关联迁出:只需选择ECS资源,其关联的资源将自动同时迁出。 仅当资源是ECS,才可以选择此项,目前仅支持ECS及其关联资源弹性IP、云硬盘同时迁出。 步骤 6 选择要迁入的企业项目,单击“确定”。 若该资源需按照其他企业项目管理时,在下拉框中选择要迁入的企业项目即可。 若该资源不需按照已规划的企业项目管理时,选择系统默认的企业项目“default”即可。 资源迁出完成,在迁入的企业项目资源列表中即可查看已迁出的资源。
        来自:
        帮助文档
        企业项目管理
        用户指南
        企业项目资源管理
        迁出企业项目资源
      • 移动应用使用临时凭证直传
        本文主要讲解移动应用使用临时凭证直传文件的最佳实践。 实践背景 在移动互联网时代,从手机里的照片到各类文件,移动端APP需要上传到服务器的文件越来越多。开发者可以使用媒体存储来保存这些文件,媒体存储提供的SDK接口可以支持直接在移动端进行文件上传。 访问媒体存储需要使用密钥(AK/SK),但是如果在移动端直接使用长期密钥访问对象存储,遭受黑客攻击就可能会暴露长期密钥,导致对象存储中的文件泄露或被篡改,存在很大的风险。 媒体存储提供STS角色管理功能,可以为移动端颁发一个自定义时效和权限的访问凭证,无需在移动端暴露长期密钥。使用STS授权访问时,请务必按照业务情况,以最细粒度的权限原则进行授权,避免放大临时用户的权限,保证资源访问安全。 应用流程 使用临时凭证直传时,具体应用流程如下: 实践步骤 创建用于获取STS访问凭证的角色 通过媒体存储控制台,创建STS角色,并获取对应的arn信息,具体可参考 STS角色管理 。 对应角色授权并且获取STS临时密钥 具体可参照如下java示例: // STS endPoint String endPoint " "; // 在对象存储控制台访问密钥AccessKey和SecretKey。 String accessKey " "; String secretKey " "; // 填写步骤一获取的角色ARN。 String roleArn " "; // 设置临时访问凭证的名称. String roleSessionName " "; // 设置 Policy 允许上传对象 String policy "{"Version":"20121017"," + ""Statement":[" + "{"Effect":"Allow"," ""Action":["s3:PutObject"]," ""Resource":["arn:aws:s3::: /"]}" + "]}"; // 创建STS Client BasicAWSCredentials basicAWSCredentials new BasicAWSCredentials(accessKey, secretKey); AwsClientBuilder.EndpointConfiguration endpointConfiguration new AwsClientBuilder.EndpointConfiguration(endPoint, ""); AWSSecurityTokenService stsClient AWSSecurityTokenServiceClientBuilder.standard() .withCredentials(new AWSStaticCredentialsProvider(basicAWSCredentials)) .withEndpointConfiguration(endpointConfiguration) .build(); AssumeRoleRequest assumeRoleRequest new AssumeRoleRequest(); assumeRoleRequest.setRoleArn(roleArn); assumeRoleRequest.setRoleSessionName(roleSessionName); assumeRoleRequest.setPolicy(policy); AssumeRoleResult assumeRoleRes stsClient.assumeRole(assumeRoleRequest); Credentials stsCredentials assumeRoleRes.getCredentials(); System.out.println("Expiration: " + stsCredentials.getExpiration()); System.out.println("Access Key Id: " + stsCredentials.getAccessKeyId()); System.out.println("Access Key Secret: " + stsCredentials.getSecretAccessKey()); System.out.println("Security Token: " + stsCredentials.getSessionToken());
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        操作使用
        移动应用使用临时凭证直传
      • 删除副本
        本文介绍如何删除副本(备份集)。 操作场景 当确认不再需要备份客户端产生的备份数据时,您可通过删除备份功能来删除备份数据以节省资源。 操作须知 删除备份操作不可逆转,被删除的备份数据将无法再恢复,删除前请确认风险。 删除备份集会同时删除此备份集文件及其对应的备份、恢复任务。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角选择地域,此处选择华东华东1。 3. 选择“存储>云备份”,进入云备份控制台。 4. 在云备份页面,单击左侧“混合备份(存储版)”按钮,进入混合备份控制台。 5. 单击“备份集”,进入备份集页面。 6. 单击待删除备份集所在行“操作>删除”。 7. 您在弹出对话框中确认删除操作的风险后,在弹出的对话框中输入“ok”,即可删除该备份集及其对应的备份、恢复任务。
        来自:
        帮助文档
        云备份 CBR
        用户指南
        备份副本管理
        混合备份副本
        删除副本
      • 启用集群间拷贝功能
        本章主要介绍翼MapReduce的启用集群间拷贝功能。 操作场景 当用户需要将保存在HDFS中的数据从当前集群备份到另外一个集群时,需要使用DistCp工具。DistCp工具依赖于集群间拷贝功能,该功能默认未启用。拷贝数据的集群双方都需要配置。 管理员可以根据以下指导,在FusionInsight Manager修改参数以启用集群间拷贝功能。启用之后即可创建将数据备份至远端HDFS(RemoteHDFS)的备份任务。 对系统的影响 启用集群间复制功能需要重启Yarn,服务重启期间无法访问。 前提条件 拷贝数据的集群的HDFS的参数“hadoop.rpc.protection”需使用相同的数据传输方式。默认设置为“privacy”表示加密,“authentication”表示不加密。 对于安全模式的集群,集群之间需要配置系统互信。 操作步骤 1.登录其中一个集群的FusionInsight Manager。 2.选择“集群 > 待操作集群的名称 > 服务> Yarn > 配置”,单击“全部配置”。 3.左边菜单栏中选择“Yarn > 集群间拷贝”。 4.修改参数“dfs.namenode.rpcaddress”,在“haclusterX.remotenn1”右侧填写对端集群其中一个NameNode实例的业务IP和RPC端口,在“haclusterX.remotenn2”右侧填写对端集群另外一个NameNode实例的业务IP和RPC端口。 “haclusterX.remotenn1”和“haclusterX.remotenn2”不区分主备NameNode。NameNode RPC端口默认为“8020”,不支持通过Manager修改。 修改后参数值例如:“10.1.1.1:8020”和“10.1.1.2:8020”。 说明 如果本集群数据要备份至多个集群的HDFS中,可以继续配置对应的NameNode RPC地址至haclusterX1、haclusterX2、haclusterX3、haclusterX4。 5.单击“保存”,并在确认对话框中单击“确定”。 6.重启Yarn服务。 7.登录另外一个集群的FusionInsight Manager,重复2~6。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        启用集群间拷贝功能
      • 恢复Kafka元数据
        本章主要介绍翼MapReduce的恢复Kafka元数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对ZooKeeper进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,导致Kafka组件全部故障无法使用,或者迁移数据到新集群的场景中,需要对Kafka元数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复Kafka任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复Kafka元数据,建议手动备份最新Kafka元数据后,再执行恢复操作。否则会丢失从备份时刻到恢复时刻之间的Kafka元数据信息。 对系统的影响 元数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 元数据恢复后,Kafka的消费者在ZooKeeper上保存的offset信息将会回退,可能导致重复消费。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 先停止Kafka服务,待恢复完成后,再启动Kafka服务。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复Kafka元数据
      • 切换Ranger鉴权
        本章节主要介绍翼MapReduce的切换Ranger鉴权操作。 操作场景 新安装的安全模式集群默认即安装了Ranger服务并启用了Ranger鉴权,用户可以通过组件的权限插件对组件资源的访问设置细粒度的安全访问策略。若不需使用Ranger进行鉴权,管理员可在服务页面手动停用Ranger鉴权,停用Ranger鉴权后,访问组件资源时系统将继续基于FusionInsight Manager的角色模型进行权限控制。 从历史版本升级的集群,用户访问组件资源时默认不使用Ranger鉴权,管理员可在安装了Ranger服务后手动启用Ranger鉴权。 说明 安全模式集群中,支持使用Ranger鉴权的组件包括:HDFS、Yarn、Kafka、Hive、HBase、Storm、Spark2x、Impala。 非安全模式集群中,Ranger可以支持基于OS用户进行组件资源的权限控制,支持启用Ranger鉴权的组件包括:HBase、HDFS、Hive、Spark2x、Yarn。 启用Ranger鉴权后,该组件所有鉴权将由Ranger统一管理,原鉴权插件设置的权限将会失效(HDFS与Yarn的组件ACL规则仍将生效),请谨慎操作,建议提前在Ranger上做好权限部署。 停用Ranger鉴权后,该组件所有鉴权将由组件自身权限插件管理,Ranger上设置的权限将会失效,请谨慎操作,建议提前在Manager上做好权限部署。 启用Ranger鉴权 1. 登录FusionInsight Manager。 2. 选择“集群 > 服务”。 3. 单击服务视图中指定的服务名称。 4. 在服务详情页面单击“更多”,选择“启用Ranger鉴权”。 5. 输入当前登录的用户密码确认身份,单击“确定”。 6. 在服务列表,重启配置过期的服务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        其他服务管理操作
        切换Ranger鉴权
      • 恢复DBService数据
        本章主要介绍翼MapReduce的恢复DBService数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对DBService进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对DBService进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复DBService任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的DBService数据。 MRS集群中默认使用DBService保存Hive、Hue、Loader、Spark、Oozie的元数据。恢复DBService的数据将恢复全部相关组件的元数据。 对系统的影响 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,依赖DBService的组件可能配置过期,需要重启配置过期的服务。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查DBService主备实例状态是否正常。如果不正常,不能执行恢复操作。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复DBService数据
      • 修改用户密码
        本章节主要介绍翼MapReduce的修改用户密码操作。 操作场景 出于安全的考虑,“人机”类型系统用户密码必须定期修改。 如果用户具备使用FusionInsight Manager的权限时,可以通过FusionInsight Manager完成修改自身密码工作。 如果用户不具备使用FusionInsight Manager的权限时,可以通过客户端修改自身密码。 前提条件 从管理员获取当前的密码策略。 已在集群内的任一节点安装了客户端,并获取此节点IP地址。请联系管理员获取客户端安装用户密码。 使用FusionInsight Manager修改密码 1. 登录FusionInsight Manager。 2. 移动鼠标到界面右上角的用户名。 在弹出菜单中单击“修改密码”。 3. 在“密码修改界面”分别输入“旧密码”、“新密码”、“确认新密码”,单击“确定”完成修改。 默认密码复杂度要求: 密码字符长度最小为8位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符5种类型字符中的4种。支持的特殊字符为~!@ $%^&()+[{}];', /? 。 不可和用户名相同或用户名的倒序字符相同。 不可以为常见的易破解密码。 不可与最近N次使用过的密码相同,N为配置密码策略中“重复使用规则”的值。 使用客户端修改密码 1. 以客户端安装用户登录安装客户端的节点。 2. 执行以下命令,切换到客户端目录,例如“/opt/Bigdata/client”。 cd /opt/Bigdata/client 3. 执行以下命令,配置环境变量。 source bigdataenv 4. 执行以下命令,修改系统用户密码。此操作对所有服务器生效。 kpasswd 系统用户名称 例如,修改系统用户“test1”,执行 kpasswd test1 。 默认密码复杂度要求: 密码字符长度最小为8位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符5种类型字符中的4种。支持的特殊字符为~!@
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        权限设置
        用户管理
        修改用户密码
      • 简介
        本章节主要介绍翼MapReduce的多租户功能。 定义 多租户是MRS集群中的多个资源集合(每个资源集合是一个租户),具有分配和调度资源的能力。资源包括计算资源和存储资源。 背景 现代企业的数据集群在向集中化和云化方向发展,企业级大数据集群需要满足: 不同用户在集群上运行不同类型的应用和作业(分析、查询、流处理等),同时存放不同类型和格式的数据。 某些类型的用户(例如银行、政府单位等)对数据安全非常关注,很难容忍将自己的数据与其他用户的放在一起。 这给大数据集群带来了以下挑战: 合理地分配和调度资源,以支持多种应用和作业在集群上平稳运行。 对不同的用户进行严格的访问控制,以保证数据和业务的安全。 多租户将大数据集群的资源隔离成一个个资源集合,彼此互不干扰,用户通过“租用”需要的资源集合,来运行应用和作业,并存放数据。在大数据集群上可以存在多个资源集合来支持多个用户的不同需求。 对此,MRS企业级大数据集群提供了完整的企业级大数据多租户解决方案。 优势 合理配置和隔离资源 租户之间的资源是隔离的,一个租户对资源的使用不影响其他租户,保证了每个租户根据业务需求去配置相关的资源,可提高资源利用效率。 测量和统计资源消费 系统资源以租户为单位进行计划和分配,租户是系统资源的申请者和消费者,其资源消费能够被测量和统计。 保证数据安全和访问安全 多租户场景下,分开存放不同租户的数据,以保证数据安全;控制用户对租户资源的访问权限,以保证访问安全。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        多租户介绍
        简介
      • 模型与Tokens(1)
        如何在云智助手购买算力 云电脑现阶段提供有限免费算力,可通过云智助手AI算力模块购买更多算力。 注意 需云智助手升级至2.6.0及以上版本支持购买。 1. 云电脑桌面进入【云智助手】,在侧边栏找到【AI算力】模块; 2. 点击【购买Tokens】,进入购买页面,选择所需套餐,支持按月Coding Plan和按量购买两周方式。计费详情见购买页; 3. 在购买页面完成支付,跳转收银台并选择支付方式; 4. 支付完成后,返回AI算力页面,可查看订单记录与用量信息。 如何购买息壤的算力 获取息壤模型调用APIKey 1. 访问天翼云模型推理服务地址:++ 2. 左侧菜单栏进入【服务接入】,点击【创建服务组】; 3. 填写服务信息,勾选需要的模型(如 GLM5、Qwen3.5、DoubaoSeed2.0pro 等),提交创建,同时获取对应“模型接口请求地址”和“服务名称/ID”; 4. 在服务接入页面获取APIKey。点击【查看详情】获取“模型接口请求地址”和“服务名称/ID”。
        来自:
      • 1
      • ...
      • 188
      • 189
      • 190
      • 191
      • 192
      • ...
      • 560
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      人脸检测

      人脸比对

      通用型OCR

      身份证识别

      驾驶证识别

      iBox边缘盒子

      推荐文档

      客户端下载

      集群信息

      命令窗口

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号