活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 事件监控
        事件监控支持的事件说明 表3 云数据库GeminiDB事件监控支持的事件说明 事件来源 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 NoSQL 创建实例业务失败 NoSQLCreateInstanceFailed 重要 一般是由于实例配额不足或底层资源不足等原因导致。 先释放不再使用的实例再尝试重新发放,或者提交工单调整配额上限。 无法创建数据库实例。 NoSQL 变更规格失败 NoSQLResizeInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试规格变更操作。 业务中断。 NoSQL 添加节点失败 NoSQLAddNodesFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,删除添加失败的节点,重新尝试添加新节点。 无 NoSQL 删除节点失败 NoSQLDeleteNodesFailed 重要 一般是由于底层释放资源失败导致。 重新尝试删除节点。 无 NoSQL 扩卷失败 NoSQLScaleUpStorageFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源再重试扩卷操作。 如果磁盘满,会导致业务中断。 NoSQL 重置密码失败 NoSQLResetPasswordFailed 重要 一般是由于重置密码命令超时导致。 重新尝试重置密码操作。 无 NoSQL 修改参数模板失败 NoSQLUpdateInstanceParamGroupFailed 重要 一般是由于修改参数模板命令超时导致。 重新尝试修改参数模板操作。 无 NoSQL 设置备份策略失败 NoSQLSetBackupPolicyFailed 重要 一般是由于数据库连接异常导致。 重新重试设置备份策略操作。 无 NoSQL 创建手动备份失败 NoSQLCreateManualBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 NoSQL 创建自动备份失败 NoSQLCreateAutomatedBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 提交工单让运维处理。 无法备份数据。 NoSQL 实例运行状态异常 NoSQLFaultyDBInstance 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 NoSQL 实例运行状态异常已恢复 NoSQLDBInstanceRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 NoSQL 节点运行状态异常 NoSQLFaultyDBNode 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 NoSQL 节点运行状态异常已恢复 NoSQLDBNodeRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 NoSQL 实例主备切换 NoSQLPrimaryStandbySwitched 重要 在手动触发的主备倒换或节点故障自动触发的故障倒换场景下,会上报该事件。 不需要处理。 无 NoSQL 出现热点分区键 HotKeyOccurs 重要 客观上是因为主键设置不合理,使得热点数据集中分布在一个分区。客户端不合理的应用程序设计,造成对某一key的频繁读写。 1. 选择合理的分区键。 2. 业务增加缓存,业务应用先从缓存中读取热点数据。 影响业务请求成功率,存在影响集群性能及稳定性的风险。 NoSQL 出现超大分区键 BigKeyOccurs 重要 主键设计不合理,单个分区的记录数或数据量过大,引起了节点负载不均。 1. 选择合理的分区键 2. 基于现有分区键,增加分区键散列。 随着数据量增长,集群稳定性会下降。 NoSQL 数据盘空间不足 NoSQLRiskyDataDiskUsage 重要 数据盘空间不足,产生此告警。 请参见对应服务用户指南中“扩容磁盘”的内容,进行磁盘扩容。 实例被设为只读模式,数据无法写入。 NoSQL 数据盘空间已扩容并恢复可写 NoSQLDataDiskUsageRecovered 重要 数据盘空间已扩容并恢复可写,产生此事件。 无需处理。 无 NoSQL 创建索引失败 NoSQLCreateIndexFailed 重要 业务负载超过实例规格瓶颈,此时再创建索引会耗费更多实例资源,导致响应变慢甚至卡顿,最终超时,引起索引创建失败。 1、根据业务负载,选择匹配的实例规格 2、在业务低峰期创建索引 3、使用后台方式创建索引 4、索引字段,结合业务进行合理选择。 索引创建失败或不完整,导致索引无效,需要删掉索引重新创建。 NoSQL 发生写入降速 NoSQLStallingOccurs 重要 写入速度快,接近集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 NoSQL 发生写入停止 NoSQLStoppingOccurs 重要 写入速度过快,达到集群规模和实例规格范围允许最大写能力,从而触发数据库自身的限流机制,会发生请求失败情况 1. 根据业务的最大写请求速率,调整集群规模或者节点规格 2. 衡量业务的最大写请求速率,分散业务写峰值速率 影响业务的请求的成功率 NoSQL 重启数据库失败 NoSQLRestartDBFailed 重要 一般是由于实例状态异常等原因导致。 提交工单让运维处理。 数据库实例状态可能存在异常。 NoSQL 恢复到新实例失败 NoSQLRestoreToNewInstanceFailed 重要 一般是由于底层资源不足等原因导致。 提交工单让运维在后台协调资源,重新尝试添加新节点。 无法恢复到新的数据库实例。 NoSQL 恢复到已有实例失败 NoSQLRestoreToExistInstanceFailed 重要 一般是由于备份文件下载或恢复失败等原因导致。 提交工单让运维处理。 当前数据库实例可能处于不可用状态。 NoSQL 删除备份文件失败 NoSQLDeleteBackupFailed 重要 一般是由于备份文件从obs删除失败导致。 重新尝试删除备份文件。 无 NoSQL 切换慢日志明文开关失败 NoSQLSwitchSlowlogPlainTextFailed 重要 一般是由于接口不支持切换等原因导致。 请查阅NoSQL用户指南,确认接口支持打开慢日志明文开关。提交工单让运维处理。 无 NoSQL 绑定EIP失败 NoSQLBindEipFailed 重要 一般是由于节点状态不正常,节点已经绑定EIP或EIP非法等原因导致。 检查节点是否正常,EIP是否合法。 无法通过公网访问数据库实例。 NoSQL 解绑EIP失败 NoSQLUnbindEipFailed 重要 一般是由于节点状态不正常,节点已经未绑定EIP等原因导致。 检查节点和EIP状态是否正常。 无 NoSQL 修改参数失败 NoSQLModifyParameterFailed 重要 一般是由于参数取值非法等原因导致。 排查参数值是否符合在合法范围内,提交工单让运维处理。 无 NoSQL 参数模板应用失败 NoSQLApplyParameterGroupFailed 重要 一般是由于实例状态异常导致参数模板无法应用等原因导致。 提交工单让运维处理。 无 NoSQL 开启或关闭SSL失败 NoSQLSwitchSSLFailed 重要 一般是由于修改SSL命令超时导致。 重新提交一次或者提交工单处理,并先保持切换之前使用SSL的连接方式。 是否使用SSL连接。 NoSQL 单行数据量太大 LargeRowOccurs 重要 用户单行数据量过大,可能会导致查询超时,进而节点OOM挂掉等各种故障发生。 1. 对每列和每行的写入长度做限制,遵从规范,使得单行的的key和value长度和不超过阈值。 2. 排查业务是否出现异常写入和异常编码,导致写入大row。 过大的单行记录,随着数据量增长,集群稳定性会下降。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        监控与告警
        事件监控
      • 创建连接MRS集群的SSH隧道并配置浏览器
        本章节主要介绍创建连接MRS集群的SSH隧道并配置浏览器 。 操作场景 用户和MRS集群处于不同的网络中,需要创建一个SSH隧道连接,使用户访问站点的数据请求,可以发送到MRS集群并动态转发到对应的站点。 MAC系统暂不支持该功能访问MRS,请参考通过弹性公网IP访问内容访问MRS。 前提条件 准备一个SSH客户端用于创建SSH隧道,例如使用开源SSH客户端Git。请下载并安装。 已创建好集群,并准备pem格式的密钥文件或创建集群时的密码。 用户本地环境可以访问互联网。 操作步骤 1.登录MRS管理控制台,选择“集群列表 > 现有集群”。 2.单击指定名称的MRS集群。 记录集群的“安全组” 。 3.为集群Master节点的安全组添加一条需要访问MRS集群的IP地址的入规则,允许指定来源的数据访问端口“22”。 具体请参见“《虚拟私有云》帮助文档> 安全性 > 安全组 > 添加安全组规则”。 4.查询集群的主管理节点,具体请参考如何确认Manager的主备管理节点。 5.为集群的主管理节点绑定一个弹性IP地址。 具体请参见“《虚拟私有云》帮助文档”,为弹性云主机申请和绑定弹性公网IP。 6.在本地启动Git Bash,执行以下命令登录集群的主管理节点: ssh root@弹性 IP 地址或者 ssh i 密钥文件路径 root@弹性 IP 地址 7.执行以下命令查看数据转发配置: cat /etc/sysctl.conf grep net.ipv4.ipforward 系统查询到“net.ipv4.ipforward1”表示已配置转发,则请执行步骤9。 系统查询到“net.ipv4.ipforward0”表示未配置转发,则请执行步骤8。 系统查询不到“net.ipv4.ipforward”参数表示该参数未配置,则请执行以下命令后再执行步骤9。 echo "net.ipv4.ipforward 1"/etc/sysctl.conf 8.修改节点转发配置: a.执行以下命令切换root用户: sudo su root b.执行以下命令,修改转发配置: echo 1 > /proc/sys/net/ipv4/ipforward sed i "s/net.ipv4.ipforward0/net.ipv4.ipforward 1/g"/etc/sysctl.conf sysctlw net.ipv4.ipforward1 c.执行以下命令,修改sshd配置文件: vi /etc/ssh/sshdconfig 按I进入编辑模式,查找“AllowTcpForwarding”和“GatewayPorts”,并删除注释符号,修改内容如下,然后保存并退出: AllowTcpForwarding yesGatewayPorts yes d.执行以下命令,重启sshd服务: service sshd restart 9.执行以下命令查看浮动IP地址: ifconfig 系统显示的“eth0:FIHUE”表示为Hue的浮动IP地址,“eth0:wsom”表示Manager浮动IP地址,请记录“inet”的实际参数值。 然后退出登录:exit 10.在本地机器执行以下命令创建支持动态端口转发的SSH隧道: 使用命令 ssh i 密钥文件路径 v ND 本地端口地址 root@弹性IP 地址或者 ssh v ND 本地端口地址 root@弹性 IP 地址 ,然后输入创建集群时的密码。 其中,“本地端口地址”需要指定一个用户本地环境未被使用的端口,建议选择8157。 创建后的SSH隧道,通过“D”启用动态端口转发功能。默认情况下,动态端口转发功能将启动一个SOCKS代理进程并侦听用户本地端口,端口的数据将由SSH隧道转发到集群的主管理节点。 11.执行如下命令配置浏览器代理。 a.进入本地Google Chrome浏览器客户端安装目录。 b.按住“shift+鼠标右键”,选择“在此处打开命令窗口”,打开CMD窗口后输入如下命令: chrome proxyserver"socks5://localhost:8157" hostresolverrules"MAP 0.0.0.0 , EXCLUDE localhost" userdatadirc:/tmppath proxybypasslist"googlecom, gstatic.com, gvt .com, :80" 说明 8157为步骤10中配置的本地代理端口。 若本地操作系统为Windows 10,请打开Windows操作系统“开始”菜单,输入cmd命令,打开一个命令行窗口执行12中的命令。若该方式不能成功,请打开Windows操作系统“开始”菜单后,在搜索框中输入并执行11中的命令。 12.在新弹出的浏览器地址栏,输入Manager的访问地址。 Manager访问地址形式为 浮动IP 地址:28443/web 。 访问启用Kerberos认证的集群时,需要输入MRS集群的用户名和密码,例如“admin”用户。未启用Kerberos认证的集群则不需要。 第一次访问时,请根据浏览器提示,添加站点信任以继续打开页面。 13.准备站点的访问地址。 a.参考开源组件Web站点中的Web站点一览,获取Web站点的地址格式及对应的角色实例。 b.单击“服务管理”。 c.单击指定的服务名称,例如HDFS。 d.单击“实例”,查看NameNode的主角色实例“NameNode(主)”的“业务IP” 14.在浏览器输入访问Web站点真实地址并访问。 15.退出访问Web站点时,请终止并关闭SSH隧道。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问MRS集群上托管的开源组件Web页面
        创建连接MRS集群的SSH隧道并配置浏览器
      • 连接器异常排查手册
        本文主要介绍在连接器异常时如何进行排查。 一、Docker连接器异常 1、建议升级到最新连接器版本 登录边缘安全加速控制台,选择零信任服务工作台,在连接器管理页面,选择连接器实例,点击【待升级】进行升级: ※立即升级:将自动升级,升级时间1分钟左右。 ※命令安装:根据提供的安装步骤,在连接器所在宿主机上执行命令操作。 2、排查容器及宿主机的网络连通性 (1)检查连接器所在宿主机与零信任控制中心网络连通情况:按照下述命令执行,若状态码响应400,则说明连通性正常。否则,请检查宿主机的网络设置情况。 执行以下curl指令或者wget指令: curl vo /dev/null 控制中心域名 wget O /dev/null 控制中心域名 (2)检查连接器所在容器与零信任控制中心网络连通情况:按照下述命令执行,若状态码响应400,则说明连通性正常。否则,请检查宿主机的网络设置情况。 获取连接器所在容器的容器名称: docker ps format "{{.Names}}" grep "secconnector" 如下示例就是容器名称 测试网络连通性,执行curl或者wget命令测试,将 secconnector容器名称替换为如上步骤获取的容器名称: docker exec it secconnector容器名称 curl vo /dev/null 控制中心域名 docker exec it secconnector容器名称 wget O /dev/null 控制中心域名 二、Redhat/Debian连接器异常 注意 以下问题排查方式主要针对redhat连接器1.20、debian连接器1.21及以上版本
        来自:
        帮助文档
        边缘安全加速平台
        常见问题
        连接器异常排查手册
      • 语句行为相关参数
        statementtimeout (integer) 中止任何使用了超过指定毫秒数的语句,从命令到达服务器开始计时。如果logminerrorstatement被设置为ERROR或更低,语句如果超时也会被记录。一个零值(默认)将关闭这个参数。我们不推荐在postgresql.conf中设置statementtimeout,因为它会影响所有会话。 locktimeout (integer) 如果任何语句在试图获取表、索引、行或其他数据库对象上的锁时等到超过指定的毫秒数,该语句将被中止。该时间限制独立地应用于每一次锁获取尝试。该限制会应用到显式锁定请求(如LOCK TABLE或不带NOWAIT的SELECT FOR UPDATE)和隐式获得的锁。如果logminerrorstatement被设置为ERROR或更低,超时的语句会被记录。一个零值(默认)将关闭这个参数。与statementtimeout不同,这个超时只在等待锁时发生。注意如果statementtimeout为非零,设置locktimeout为相同或更大的值没有意义,因为事务超时将总是第一个被触发。我们不推荐在postgresql.conf中设置locktimeout,因为它会影响所有会话。 idleintransactionsessiontimeout (integer) 终止任何已经闲置超过这个参数所指定的时间(以毫秒计)的打开事务的会话。这使得该会话所持有的任何锁被释放,并且其所持有的连接槽可以被重用,它也允许只对这个事务可见的元组被清理。默认值0 会禁用这个特性。 vacuumfreezetableage (integer) 当表的pgclass.relfrozenxid域达到该设置指定的年龄时,VACUUM会执行一次全表扫描。 积极的扫描不同于常规的VACUUM,因为它会访问每个可能包含未冻结XID或MXID的页面,而不仅仅是那些可能包含死元组的页面。 默认值是 1.5 亿个事务。尽管用户可以把这个值设置为从 0 到 20 亿,VACUUM会悄悄地将有效值限制为autovacuumfreezemaxage值的95%,因此在表上启动一次反回卷自动清理之前有机会进行一次定期手动VACUUM。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        客户端连接默认相关参数
        语句行为相关参数
      • 连接RabbitMQ 管理地址
        本文主要介绍如何连接分布式消息服务RabbitMQ的管理地址。 在浏览器中输入RabbitMQ管理地址,访问开源RabbitMQ的集群管理工具。 操作步骤 一、获取实例管理地址。 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 3. 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务 > RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 4. 单击实例名称,进入实例详情页面,获取Web界面UI地址和用户名。 图1 获取实例Web界面UI地址(未开启公网访问) 图2 获取实例Web界面UI地址(开启公网访问) 说明 用户名和密码为创建RabbitMQ实例时自定义的内容。 二、确认实例安全组规则是否配置正确。 1. 在实例详情页面的“基本信息 > 网络”,单击安全组名称,跳转到安全组页面。 2. 选择“入方向规则”,查看安全组入方向规则。 实例未开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5672的访问。 如果是公网访问,需要允许端口15672的访问。 实例已开启SSL开关 如果是VPC内访问,实例安全组入方向规则,需要允许端口5671的访问。 如果是公网访问,需要运行端口15671的访问。 三、在浏览器中打开Web界面UI地址,进入Web登录页面。 说明 如果RabbitMQ实例开启了公网访问,可直接在公网环境下的浏览器访问Web页面。 如果RabbitMQ实例未开启公网访问,您需要购买一台与RabbitMQ实例网络相通的Windows弹性云主机,然后登录弹性云主机访问Web页面。 购买弹性云主机操作,请参考 图3 登录实例Web页面 四、单击“Login”,登录完成。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        连接RabbitMQ 管理地址
      • 线下OpenStack环境导入公有云环境
        cat CentOSOpenStackrocky.repo [centotackrocky] nameopenstackrocky baseurl enabled1 gpgcheck0 [qumekvm] nameqemukvm baseurl enabled1 gpgcheck0 7. 执行以下命令,安装packstack。 plaintext 安装leatherman yum y install leatherman 安装packstack yum y install openstackutils openstackpackstack 8. 执行以下命令,生成应答文件并编辑配置文件。 plaintext packstack genanswerfile/root/openstack.ini vim openstack.ini 除修改以下所列项外,其他项不保持变(密码字段,可根据需要自行修改,这里全部配置为了 123456) CONFIGDEFAULTPASSWORD123456 CONFIGAODHINSTALLn CONFIGMARIADBUSERroot CONFIGMARIADBPW123456 CONFIGKEYSTONEDBPW123456 CONFIGKEYSTONEADMINEMAILroot@localhost CONFIGKEYSTONEADMINUSERNAMEadmin CONFIGKEYSTONEADMINPW123456 CONFIGNEUTRONML2TYPEDRIVERSvxlan,flat CONFIGNEUTRONML2TENANTNETWORKTYPESvxlan CONFIGNEUTRONML2MECHANISMDRIVERSopenvswitch CONFIGNEUTRONL2AGENTopenvswitch CONFIGNEUTRONOVSBRIDGEMAPPINGSextnet:brex CONFIGNEUTRONOVSBRIDGEIFACESbrex:eth0 CONFIGNEUTRONOVSEXTERNALPHYSNETextnet CONFIGPROVISIONDEMOn 9. 执行以下命令,通过应答文件进行安装。 plaintext packstack answerfile/root/openstack.ini 10. 打开浏览器,输入 11. 执行以下命令,导入镜像。 plaintext openstack image create "centos" file centos.img diskformat qcow2 containerformat bare public 12. 执行以下命令,创建网络。 plaintext openstack create net vnet openstack network create providernetworktypeflat providerphysicalnetworkextnet external share extnet 13. 执行以下命令,创建子网。 plaintext openstack subnet create subnet1 network int subnetrange 172.16.1.0/24 gateway 172.16.1.1 openstack subnet create ex network extnet gateway 192.168.101.254 allocationpool start192.168.101.200,end192.168.101.205 subnetrange 192.168.101.0/24 14. 执行以下命令,创建路由。 plaintext openstack router create route openstack router add subnet route ex openstack router add subnet route subnet1 15. 执行以下命令,创建规格。 plaintext openstack flavor create vcpus 1 ram 512 disk 10 test1 16. 执行以下命令,创建密钥。 plaintext openstack keypair create cy 17. 执行以下命令,创建虚拟机。 plaintext openstack server create flavor test1 image centos nic netidcc9d7710d82e4109941256ae02a18d7d securitygroup default keyname cy test 18. 执行以下命令,连接虚拟机并上传qemuga、cloudinit以及virtio组件。 下载路径在“镜像服务”>“私有镜像”>“创建私有镜像”页面中连接下载。 根据说明文档安装后关闭虚拟机。 19. 执行以下命令,将云主机转为image。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 20. 执行以下命令,将image保存到本地(此时的镜像为raw格式)。 plaintext openstack server image create 1b1d3411b75549809da6db01d8331600 name cytestimg 21. 执行以下命令,将镜像转换为qcow2格式(防止镜像过大,上传到桶失败)。 plaintext qemuimg convert f raw o qcow2 cytestimg centos.qcow2 22. 将镜像上传到天翼云。 进入对象存储原生版,创建桶后,上传镜像到桶中(镜像较大建议通过oss api上传)。 23. 创建私有镜像。 通过“镜像服务”>“私有镜像”>“创建私有镜像”,选择镜像文件并填写对象的地址,然后转为私有镜像。 其中,地址可以在对象存储控制台中的“更多”>“复制URL”选项中复制获得。 24. 创建成功后,“弹性云主机”>“创建云主机”,镜像处选择私有镜像。创建完成后可进入云主机查看数据完整性。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建环境相关最佳实践
        线下OpenStack环境导入公有云环境
      • 开发作业
        本章节主要介绍数据开发部分的开发作业。 对已新建的作业进行开发和配置。 前提条件 已新建作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定作业后才能继续开发作业。新建或导入作业后默认被当前用户锁定,详情参见提交版本并解锁章节中的“编辑锁定”功能。 编排作业节点 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击Pipeline模式批处理作业或实时处理作业的名称,进入作业开发页面。 4. 拖动所需的节点至画布,鼠标移动到节点图标上,选中连线图标并拖动,连接到下一个节点上。 说明 每个作业建议最多包含200个节点。 详见下图:编排作业 5. 配置节点功能。右键单击画布中的节点图标,根据实际需要选择如行表所示的功能。 右键节点功能 功能 说明 配置 进入该节点的“节点属性”页面。 删除 支持删除一个节点或同时删除多个节点。 单节点删除:右键单击画布中的节点图标,选择删除或按快捷键Delete 。 多节点删除:按下键盘中的Ctrl ,单击画布中需要删除的节点图标,在当前作业画布空白处单击右键,选择删除或按快捷键Delete。 复制 支持复制一个或多个节点至任意作业中: 单节点复制:右键单击画布中的节点图标,选择复制或按快捷键Ctrl+C ,在作业画布空白处粘贴节点或按快捷键Ctrl+V ,复制后的节点携带原节点的配置信息。 多节点复制:按下键盘中的Ctrl ,单击画布中需要复制的节点图标,在当前作业画布空白处单击右键选择复制或按快捷键Ctrl+C ,在目标作业画布空白处粘贴或按快捷键Ctrl+V。复制后的节点携带原节点的配置信息,但不包含节点间的连接关系。 测试运行 测试运行该节点。 从当前节点测试运行 仅在批作业下显示该选项。选择“从当前节点测试运行”,则测试运行当前节点以及后续节点。 添加/删除连线 可以选择为两个不同的节点添加或删除连线, 编辑CDM作业 仅CDM Job节点显示该选项。选择CDM集群和作业后,可以跳转到CDM作业编辑页面,进行作业修改。 查看CDM作业日志 仅CDM Job节点显示该选项。当CDM作业运行后,右键选中CDM Job节点,单击“查看CDM日志”,可以跳转到作业监控页面,查看作业日志打印的详细信息,帮助开发者定界定位作业运行异常原因。 编辑脚本 仅关联了脚本的节点显示该选项。跳转到脚本编辑页面,对关联的脚本进行编辑。 添加便签 为该节点添加便签,每个节点可以有多个便签。 6. (可选)配置连线功能。右键单击画布中的节点间连线,显示“删除”和“设置条件”功能,您可以根据实际需要进行选择。 − 删除:可以删除节点间的连线。 − 设置条件:在弹出的窗口中,您可以通过EL表达式语法填写三元表达式。当三元表达式结果为true的时候,才会执行连线后面的节点,否则后续节点将被跳过。 如下图所示,是一个典型的三元表达式。当“DQM”节点的运行结果为true时,才会执行连线后的节点。当运行结果为false时,如果失败策略为“跳过所有节点”,则该连线后面的节点A以及A后的所有节点均会被跳过。 关于EL表达式的语法,您可以查看 表达式概述。 7. 请参见节点概述配置具体节点的属性。 8. 配置节点属性。单击画布中的节点,在右侧显示“节点属性”页签,默认展开此配置页面,请参见节点概述配置具体节点的属性。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        开发作业
      • 恢复shardsvr2副本集
        本节主要介绍恢复shardsvr2副本集 准备目录 rm rf /compile/clusterrestore/shd2 mkdir p /compile/clusterrestore/shd21/data/db mkdir p /compile/clusterrestore/shd21/log mkdir p /compile/clusterrestore/shd22/data/db mkdir p /compile/clusterrestore/shd22/log mkdir p /compile/clusterrestore/shd23/data/db mkdir p /compile/clusterrestore/shd23/log 操作步骤 步骤 1 准备单节点配置文件和目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40309.yaml)。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 准备数据,将解压后的shardsvr2文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0292b196d2401041a7af869a2a3cab7079no02/ /compile/clusterrestore/shd21/data/db/ 启动进程。 ./mongod f restoreconfig/single40309.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40309 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40309'; cf['members'][1]['host']'127.0.0.1:40310'; cf['members'][2]['host']'127.0.0.1:40311'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新configsvr信息。 var vs db.getSiblingDB('admin').system.version.find(); while (vs.hasNext()) { var curr vs.next(); if (curr.hasOwnProperty('configsvrConnectionString')) { db.getSiblingDB('admin').system.version.update({'id' : curr.id}, {$set: {'configsvrConnectionString': 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'}}); } } 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建shardsvr2副本集。 准备副本集配置文件和目录,将shardsvr2节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd22/data/db/ cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd23/data/db/ 修改shardsvr21节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40309.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40309.yaml 修改shardsvr22节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40310.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40310 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd22/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd22/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd22/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40310.yaml 修改shardsvr23节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40311.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40311 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd23/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd23/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd23/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40311.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40309 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复shardsvr2副本集
      • 入门实践
        当您购买了弹性云主机后,可以根据业务需要搭建为不同的环境、网站或应用。本文介绍如何在弹性云主机上搭建Discuz!论坛。 背景介绍 Discuz!是一款通用的社区论坛软件系统,它采用PHP和MySQL组合的基础架构,为您提供高效的论坛解决方案。 前提条件 已购买弹性云主机实例,实例满足以下条件: 1. 实例已分配公网IP地址或绑定弹性公网IP(EIP)。 2. 操作系统必须为CentOS 7.x。 3. 实例安全组的入方向规则已放行22、80、443端口。 操作步骤 安装Apache Apache是世界使用排名第一的Web服务器软件。它可以运行在几乎所有广泛使用的计算机平台上,由于其跨平台和安全性被广泛使用,是最流行的Web服务器端软件之一。它快速、可靠并且可通过简单的API扩充,将Perl/Python等解释器编译到服务器中。 1. 安装软件httpd httpd是Apache超文本传输协议(HTTP)服务器的主程序。执行以下命令: yum install httpd y 2. 启动主程序httpd 启动主程序httpd,用以接受请求。执行以下命令: service httpd start 3. 设置httpd 开机自启动 httpd开机自动启动可以保证虚拟机重启之后,服务可以同时启动,执行以下命令: chkconfig httpd on 4. 安装php 编译器 安装php编译器,为后续的编写工作做准备。执行以下命令: yum install php –y 5. 安装phpmysql 插件 安装php编译器与mysql链接的插件,用户进行数据库连接。执行以下命令: yum install phpmysql y Apache软件安装完成。
        来自:
        帮助文档
        弹性云主机 ECS
        快速入门
        入门实践
      • SSH密码方式登录
        操作场景 本节操作介绍在Windows和Linux环境中使用SSH密码方式远程登录Linux云主机的操作步骤。 前提条件 Linux云主机状态处于“运行中”。 Linux 操作系统首次登录的用户名一般可以设置为 root 或 ecsuser,出于安全考虑,推荐您使用ecsuser,CoreOS的默认用户名为“core”。 Linux云主机所在安全组的入方向已开放22端口。 Linux云主机防火墙未开启或开启后放通22端口。 如果创建Linux云主机时登录方式设置的为密钥,请通过重置密码功能,设置Linux云主机的登录密码后执行本节操作。重置密码请参考:在控制台重置弹性云主机密码。 您所使用的SSH登录工具(例如PuTTY)已经正确配置,并且与Linux云主机具有网络连通性。如果使用处于公网中的终端登录,需要您的Linux云主机已绑定弹性IP。如果通过内网使用此方式登录,则不需要绑定弹性IP,例如VPN、云专线等内网网络连通场景。 本地使用Windows操作系统 如果本地主机为Windows操作系统,可以按照以下方式登录云主机。下面的步骤以PuTTY为例: 1. 您可通过官方途径下载PuTTY和PuTTYgen。 2. 运行PuTTY。 3. 在PuTTY的配置界面中,填写以下信息: Host Name (or IP address):输入Linux云主机的弹性IP。 Port:输入 22。 Connection Type:选择 SSH。 Saved Sessions:为任务设置一个名称,以便下次使用PuTTY时可以直接打开该任务。 4. 单击"Window",在"Translation"下的"Received data assumed to be in which character set:"选择"UTF8"。 5. 单击“Open”。如果首次登录服务器,PuTTY会显示安全警告对话框,询问是否接受服务器的安全证书。单击"是"将证书保存到本地注册表中。 6. 建立到Linux云主机的SSH连接后,根据提示输入用户名和密码登录云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        登录实例
        登录Linux弹性云主机
        SSH密码方式登录
      • 配置HTTP重定向
        本文帮助您快速熟悉如何配置HTTP重定向。 操作场景 HTTPS在HTTP的基础上通过传输加密和身份认证保证了传输过程中的安全性。如果企业为了保障业务建立安全连接,想要从HTTP升级使用HTTPS,可以使用HTTP重定向功能帮助用户业务从HTTP平滑无感知的迁移到HTTPS。当客户端通过HTTP请求访问云上的web服务时,配置了HTTP到HTTPS的重定向后,弹性负载均衡会返回HTTPS的响应,从而强制客户端以HTTPS的方式访问web服务。 前提条件 已创建HTTPS监听器,并运行正常。 注意事项 只能重定向至HTTPS监听器,并且每个监听器只能重定向一次。开启重定向功能后,QPS限速、请求超时时间、空闲超时时间、附加http头字段、WAF能力失效,请在重定向后的监听器开启。 重定向的监听器不可创建转发策略。 添加HTTP监听器时配置重定向,具体操作如下: 1. 添加HTTP协议监听器,在高级配置中可见HTTP重定向参数,通过开关控制。 2. 开启“HTTP重定向”开关,选择重定向目标HTTPS监听器,点击“立即创建”,监听器直接进入创建步骤。 3. 当HTTP监听器状态跳转至“运行中”,则创建成功。 4. 重定向的监听器不可创建转发策略,到此监听器的访问都将被重定向至已配置的HTTPS监听器。 在监听器的转发策略配置中开启重定向,具体操作如下: 1. 在HTTP监听器详情页面,点击“转发策略”,匹配特定域名或URL做重定向。 2. 在弹出的转发策略页面开启“HTTP重定向”后,直接点击“立即创建”,略过后端主机和健康检查配置步骤。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        配置HTTP重定向
      • NVIDIA GPU 物理机常见问题处理指南
        3.1 连通性测试 3.1.1 服务端启动(LID 模式) plaintext ibping S C P 示例:ibping S C mlx50 P 1 3.1.2 客户端测试(LID 模式) plaintext ibping c 10000 f C P L 示例:ibping c 10000 f C mlx50 P 1 L 59 3.1.3 预期输出结果 Sent与Received包数一致,Loss%为 0。 3.2 带宽与时延测试 3.2.1 带宽测试 ibwritebw a d mlx50 reportgbits 单流带宽测试(本地回环) ibwritebw a F 192.168.30.6 d mlx50 reportgbits 跨节点带宽测试(指定对端IP) 3.2.2 时延测试 ibwritelat a d mlx50 单向时延测试 3.2.3 其他测试 ibreadbw、ibsendbw、ibreadlat、ibsendlat等等。 四、系统内核与GPU驱动兼容性问题 4.1 内核模块冲突 涉及组件包括Nvidia Gpu driver、CUDA与cudnn、OFED、nvidiafabricmanager。 4.1.1 问题一:Nvidia的驱动版本和nvidiafabricmanager的版本不一致 Ubuntu系统可能会自动升级Nvidia驱动版本apt y update / upgrade,导致nvidiafabricmanager版本和Nvidia驱动版本不一致,或者客户升级/关闭了nvidiafabricmanage,导致无法正常使用多卡训练。 排查指令: dpkg list grep linuximage 查看可用的内核版本 uname r 查看正在使用的内核是否为新内核,若不是新内核则reboot重启系统后默认使用新内核 nvidiasmi 显示GPU相关信息 nvcc version 检查 CUDA 是否正常工作 cat /proc/version grep CuDNN 检查 CuDNN 是否正常工作 ibstat ib卡State为 active 并且 Link Layer 为: InfiniBand 则正常 ibvdevinfo 检查端口的模式是否为 InfiniBand systemctl status nvidiafabricmanager 验证nvidiafabricmanager nvidiasmi topo m 显示GPU内外拓扑结构和连接关系
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        NVIDIA GPU 物理机常见问题处理指南
      • 搭建FTP
        (可选)配置FTP防火墙支持 如果需要使用FTP服务器的被动模式,则需要配置FTP防火墙支持。 如果天翼云上的服务器需要通过公网IP地址访问天翼云上的实例搭建的FTP服务器时,需要配置FTP服务器的被动模式。 1. 双击“FTP防火墙支持”,打开FTP防火墙支持的配置界面。 2. 配置相关参数,并单击“应用”。 数据通道端口范围:指定用于被动连接的端口范围。可指定的有效端口范围为102565535。请根据实际需求进行设置。 防火墙的外部IP地址:输入该弹性云主机的公网IP地址。 3. 重启云主机使防火墙配置生效。 设置安全组及防火墙 搭建好FTP站点后,需要在弹性云主机安全组的入方向添加一条放行FTP端口的规则,具体步骤参见虚拟私有云安全组添加安全组规则。 如果配置了“FTP防火墙支持”,需要在安全组中同时放行FTP站点使用的端口和FTP防火墙使用的数据通道端口。 服务器防火墙默认放行TCP的21端口用于FTP服务。如果选用其他端口,需要在防火墙中添加一条放行此端口的入站规则。 客户端测试 打开客户端的计算机,在路径栏输入 “ftp://FTP服务器IP地址:FTP端口”(如果不填端口则默认访问21端口) 。弹出输入用户名和密码的对话框表示配置成功,正确的输入用户名和密码后,即可对 FTP 文件进行相应权限的操作。 说明 如果没有配置“FTP防火墙支持”,客户端使用此方法访问FTP站点时,需要对IE浏览器进行设置,才能打开FTP的文件夹。打开IE浏览器,选择“设置 > Internet 选项 > 高级”。勾选“启用FTP文件夹视图”,取消勾选“使用被动FTP”。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        搭建FTP
      • 基本概念
        层 层是对函数运行时、函数公共依赖库、函数扩展等的分层拆分。通过层的拆分,可以实现层的共享和复用,减小代码包体积、提升函数部署速度。更多信息,请参考层管理。 触发器 在事件驱动模型中,事件源是事件的生产者,函数是事件的处理者(消费者),而触发器是连接两者的桥梁。触发器集中管理不同事件源的事件,当满足触发器定义的规则时,事件触发函数调用。更多信息,请参考触发器简介。 自定义域名 用户可以为配置了HTTP触发器的函数或应用绑定用户自己定义的域名。使用自定义域名,用户可以通过固定的、有特定标识的域名访问函数计算服务。也可以为自定义域名提供CDN加速,提供更好的用户体验。更多信息,请参考配置自定义域名。 弹性实例 函数计算的最主要实例类型。此类实例会根据实时业务流量弹性伸缩,适用于流量突发、计算密集等场景。更多信息,请参考实例类型及使用模式。 按量模式 顾名思义,根据业务量大小,按需由系统自动计算、分配和释放函数实例。更多信息,请参考实例类型及使用模式。 预留模式 将函数计算的实例分配和释放交给用户管理。当请求到达时,系统会优先将请求转发给预留的实例。当请求量超出预留实例处理能力时,再将剩余部分请求转发给按量模式的实例。 预留模式是常驻型的,可以消除冷启动高延迟对业务的影响。另一方面,预留模式也可能造成一些浪费,为了平衡响应速度和成本,可以设置定时伸缩策略。更多信息,请参考实例类型及使用模式。
        来自:
        帮助文档
        函数计算
        产品介绍
        基本概念
      • 实例生命周期管理
        操作场景 您可以通过管理控制台重启数据库节点,用于解决数据库连接问题。 使用限制 “异常”状态的数据库实例节点允许重启。 重启数据库实例节点所需的时间,取决于您的特定数据库引擎的崩溃恢复过程。为了缩短重启时间,建议您在重启过程中尽可能减少数据库活动,以减少中转事务的回滚活动。 注意 重启数据库实例节点会将导致短暂中断,在此期间,数据库实例节点状态将显示为“节点重启中”。 重启过程中,该节点将不可用。建议您在业务低谷期执行重启节点操作并确保应用具备重连机制。 如果该实例存在参数修改,则需要重启实例新参数才会生效。重启实例后才能重启节点。重启前,请做好业务安排,谨慎操作。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 在“实例管理”页面的实例列表中,选择对应实例,单击实例名称进入“基本信息”页面。 步骤 5 在“基本信息”页面的“节点信息”模块,选择目标节点,在“操作”列单击“重启” 步骤 6 在弹框中选择重启时间,目前支持“立即重启”和“可维护时间段重启”。 1. 选择“立即重启”,直接单击“是”重启节点。 2. 选择“可维护时间段重启”,可以单击“修改”对重启时间段进行修改,然后单击“是”,实例将会在可维护时间段重启节点。 修改可维护时间段,不影响原有可维护时间段内定时任务的执行时间。 可维护时间段内预约的定时重启任务将于下一个时间窗执行。 修改节点名称
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        实例生命周期管理
      • 金丝雀升级
        重启数据面 在卸载控制面前,您可以点击数据面标签,对存量的工作负载进行重启。具体步骤如下: 登录CSM控制台,选定您的网格实例进入网格管理页面。 在左侧栏,网格实例中,选中网格实例升级。 选择金丝雀发布,点击数据面。 进入页面后,您可以依据集群和命名空间筛选仍为升级的工作负载,逐一进行滚动更新。 可以看到,ratings已经更新到1.20版本不会再出现在列表中。 另外,您可以在网格状态中,选择全部命名空间查看版本,以确认是否所有工作负载都升级到新版本了。 当所有工作负载都更新后,总体框架如下: 网关升级 服务网格Ingress和Egress网关数据面和sidecar一样也是基于Envoy构建,需要连接对应版本的控制面;在完成了控制面版本升级后,网关也需要升级数据面版本,以下以Ingress网关为例介绍网关升级流程。 进入服务网格控制台 > 网关 > 入口网关,选择对应的集群和命名空间可以看到已经创建的网关实例。 点击操作栏的灰度升级按钮,当前网关还是老的版本,我们选择 部署灰度副本,部署完成后网关流量会按副本数比例分配到新老版本的网关上,您可以根据需要灵活调整新老版本网关的比例。 如果发现新版本网关有问题,可以将灰度版本下线,后续再基于日志等监控能力定位相关问题。 经过验证确认灰度版本可以正常承载流量后,您可以重启旧版本的网关,所有网关实例都升级到了新版本。 确认重启后的网关实例正常后就可以删除灰度版本了。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格管理
        升级管理
        金丝雀升级
      • 海量文件概述
        本节介绍了用户指南: 海量文件概述。 云容器引擎支持挂载天翼云海量文件存储卷。cstorcsi插件支持使用海量文件动态存储卷和静态存储卷,通过将海量文件存储卷挂载到容器指定目录下,以满足数据持久化需求。 海量文件服务OceanFS为全托管、可扩展的海量文件系统,适用于海量数据及高带宽应用场景。OceanFS支持弹性扩展至PB级别,具备高可用性与数据持久性,适用于高性能计算、媒体处理、文件共享、内容管理及Web服务等多种场景。 使用限制 插件版本 使用海量文件存储功能,需要cstorcsi插件版本 >3.6.0 文件协议 当前cstorcsi插件仅支持NFS协议 容量 单个文件系统最小容量为100GB subpath模式 在subpath模式下,暂不支持目录配额,subpath使用的容量实际上是整个海量文件的容 其他限制 参见 海量文件使用限制 产品优势 共享访问 1. 支持多台客户端挂载访问同一文件系统,可支持连接上千个客户端实例。 2. 支持NFSv3/v4.1。 3. 支持IPv4和IPv6网络协议。 海量可扩展 1. 用户可以根据业务需要配置文件系统的初始存储容量,后续可以随着数据量的变化而扩容。 2. 支持PB级存储空间。 安全可信 1. 支持使用VPC用户隔离、权限组等安全管理功能进行访问权限控制,保障数据安全可靠。 2. 文件服务支持HA高可用,出现任何硬件故障时,业务自动切换到其他节点,服务可用性在99.95%及以上。 友好易用 1. 操作界面友好、简单易用,用户可通过控制台界面快速轻松地创建、配置和管理文件系统,省去复杂的文件系统部署工作。 2. 提供全托管服务,不必考虑复杂的安装、配置及性能调优工作,用户可轻松创建使用文件系统,只需几分钟便可使用高性能的文件系统。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        海量文件
        海量文件概述
      • 文件传输类
        排查步骤 可能的原因 解决办法 排查待上传/下载的文件是否打包成压缩文件 堡垒机不支持下载文件夹, 需要把文件夹打包成压缩文件才可以上传/下载。 把文件夹打包成压缩文件,再进行上传/下载。 排查是否配置了上传/下载权限 未开启资源“文件管理权限”,也未授权用户“文件管理”的上传/下载权限。 1. 开启资源“文件管理”权限。 2. 授权用户“文件管理”的上传/下载权限。 排查浏览器的缓存空间 浏览器的缓存空间不足 用户手动清理浏览器缓存空间后,再次上传。 排查“个人网盘空间”是否还有可存储容量 “个人网盘空间”不支持自动定期清理,“个人网盘空间”容量小,个人网盘空间不足,甚至系统剩余可用存储空间不足。 l 用户手动清理用户个人主机网盘文件,释放出可用空间。 l 管理员用户重新设置个人网盘空间。 排查上传/下载的文件是否太大 上传/下载的文件太大 l 用户将大文件切割成1G左右的小文件,分批次上传/下载。 排查Web登录超时时间配置是否不合理 上传/下载大文件耗时较长,且Web登录连接超时,导致上传/下载超大文件失败。 l 用户上传/下载过程中不定时返回上传/下载界面,保持云堡垒机在操作状态。 l 管理员用户修改Web登录超时时间。 l 管理员用户重新设置个人网盘空间。 排查客户端使用的协议和上传工具是否与云堡垒机兼容 云堡垒机暂不支持debian+rdp协议和zoc工具上传/下载文件。 使用云堡垒机支持的协议以及对应的客户端工具上传/下载文件: l SFTP 协议 :Xftp 6及以上、WinSCP 5.14.4及以上、FlashFXP 5.4及以上 l FTP 协议 :Xftp 6及以上、WinSCP 5.14.4及以上、FlashFXP 5.4及以上、FileZilla 3.46.3及以上
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        文件传输类
      • 迁移前准备工作
        本节为您介绍迁移前的准备工作,包括账号注册认证、账户余额确认、迁移网络打通等。 使用或注册天翼云账号,并完成实名认证。 1. 打开天翼云门户网站,单击“免费注册”。 2. 在注册页面,请填写“邮箱地址”、“登录密码”、“手机号码”,并点击“同意协议并提交” 按钮,如1分钟内手机未收到验证码,请再次点击“免费获取短信验证码”按钮; 3. 注册成功后,可到邮箱激活您的账号,即可体验天翼云。 如需实名认证,请参考会员服务实名认证。 帐号余额不少于100元,避免迁移过程中欠费,导致迁移失败。主机迁移服务本身免费,但迁移过程中会创建按量付费资源并产生少量费用。具体请参见计费说明。 用户开通并使用CMSSMS服务。 1. 使用您的天翼云账号完成登录。 2. 在云迁移产品主页,单击“立即开通”按钮进入控制中心。 3. 在控制台选择您目标机资源所在区域,此处示例我们选择的是福州3。 确认迁移源是否满足操作系统要求。 需对CMSSMS迁移服务支持迁移的迁移源操作系统做确认,具体请见兼容性列表。 迁移网络打通。 迁移源 源机需要正常访问公网,访问CMSSMS控制台,注意安全组出方向放通情况,建议出方向安全组不限制; 若使用专线或VPN,需提前购买和配置正确的专线或VPN。 目标机 系统需要开放TCP的8000端口、8001端口。 若使用弹性IP连接,目标机需要提前购买和配置正确的EIP; 说明 目标机安全组放通8000、8001端口,其中8000端口建议指定为迁移源IP,避免端口脏数据注入,导致迁移失败,安全组开放端口与操作系统保持一致。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移前准备工作
      • 支持异步执行的DDL语句
        DRDS支持直接连接DBProxy执行DDL语句,本文为您介绍dbproxy支持异步执行的DDL语句。 注意 仅V5.1.20.0.13及以后版本的实例,支持使用本文介绍的DDL语句。 异步执行DDL说明 正常客户端在执行DDL时,是同步等待服务端返回。用户DDL请求转为DdlTask(UdalDdlEventVO)提交到zk,然后等待zk任务的执行状态改变(执行完成),再将zk中的任务执行结果返回给客户端。这是一种同步等待的模式,如果DDL执行久,会话一直卡住,特别是admin执行时,会一直占用线程数量。 dbproxy支持客户端在DDL SQLl前加上HINT语法,提示dbproxy以异步方式执行DDL,dbproxy在接收到异步DDL请求时,用户DDL请求转为DdlTask(UdalDdlEventVO)提交到zk后,会立刻返回客户端成功,不等待dbproxy侧DDL执行完成返回结果。 HINT语法: plaintext / !HINT({"asyncDdlMode":true, "taskId":"{合法的uuid字符串}"})/ 注意 taskId要求是个合法的UUID,dbproxy会有校验。注意 / !HINT中间有个空格。 示例如下: plaintext / !HINT({"asyncDdlMode":true, "taskId":"9aa71832a94511ef80aa080027252449"})/CREATE TABLE IF NOT EXISTS testglobal ( k int(11) NOT NULL default 0 comment 'k', v int(11) NOT NULL DEFAULT '0' comment 'v', PRIMARY KEY (k) ) ENGINEInnoDB DEFAULT CHARSETutf8 comment'test'/sharding @@table name'testglobal' set type'global' and dn'testdb1,testdb2';/; 支持异步执行的DDL语句 支持异步执行的DDL语句如下: 管理数据表的DDL语句 设置分片规则的DDL语句 管理用户和角色的DDL语句 授权和回收权限的GRANT/REVOKE语句 全局序列和全局索引的DDL语句 索引相关的DDL语句
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        支持异步执行的DDL语句
      • prometheus(停止维护)
        本文主要介绍 prometheus。 插件简介 Prometheus是一套开源的系统监控报警框架。它启发于Google的borgmon监控系统,由工作在SoundCloud的Google前员工在2012年创建,作为社区开源项目进行开发,并于2015年正式发布。2016年,Prometheus正式加入Cloud Native Computing Foundation,成为受欢迎度仅次于Kubernetes的项目。 在云容器引擎CCE中,支持以插件的方式快捷安装Prometheus。 插件官网: 开源社区地址: 约束与限制 CCE提供的Prometheus插件仅支持1.21及以下版本的集群。 插件特点 作为新一代的监控框架,Prometheus具有以下特点: 强大的多维度数据模型: 时间序列数据通过metric名和键值对来区分。 所有的metrics都可以设置任意的多维标签。 数据模型更随意,不需要刻意设置为以点分隔的字符串。 可以对数据模型进行聚合,切割和切片操作。 支持双精度浮点类型,标签可以设为全unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 使用pull模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 可以采用push gateway的方式把时间序列数据推送至Prometheus server端。 可以通过服务发现或者静态配置去获取监控的targets。 有多种可视化图形界面。 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        prometheus(停止维护)
      • 防护配置常见问题
        WAF原生版是否支持HTTPS双向认证? HTTPS双向认证是相较于HTTPS单向认证而言的,HTTPS单向认证是指客户端在请求服务器数据时,需要验证服务器的身份。而双向认证是在此基础上,服务器端验证客户端的身份,从而实现双向认证。 双向认证主要应用场景是部分重要业务需要验证客户端身份时,需要使用双向验证。而使用WAF防护的业务,一般为对公众提供的Web服务,其原始业务不会有双向验证的要求,故当前WAF原生版不支持HTTPS双向认证。 WAF原生版是否支持WebSocket协议? WebSocket是HTML5引入的一项技术,用于在Web应用程序中实现实时双向通信。与传统的HTTP请求响应模型不同,WebSocket允许服务器主动向客户端推送数据,而不需要客户端发起请求。WebSocket连接保持打开状态,允许客户端和服务器之间进行双向通信,这为实时应用程序提供了更高效和实时的通信方式。当前WAF支持WebSocket进行用户业务的转发,实现WebSocket通信。 若一个IP同时配置了白名单和黑名单,优先级是什么? IP白名单的优先级高于黑名单,若同时配置了白名单和黑名单,则优先以白名单为准,详情请参见IP黑白名单。 WAF支持设置单条防护规则的防护状态吗? 支持。 WAF原生版提供具体防护规则的防护开关。您可以根据业务需要选择开启或关闭规则的防护。 WAF支持针对地理位置配置禁止访问策略吗? 支持。 地域访问控制支持针对地理位置的黑名单封禁,可指定需要封禁的国家、地区,阻断该区域的来源IP的访问。通过地域访问控制模块,可以满足针对地理位置的黑名单封禁。支持封禁的地域请参见地域访问控制。 注意 WAF云SaaS模式的基础版不支持地域访问控制功能,请升级到更高版本使用。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        常见问题
        防护配置类
        防护配置常见问题
      • 迁移其他云厂商数据到媒体存储
        本文主要讲解迁移第三方云厂商数据至媒体存储的具体步骤。 部分用户有大量数据在第三方云厂商对象存储上,如果他们需要将他们的数据迁移到对媒体存储,需要先将第三方云厂商上的对象数据下载到本地,再通过控制台、客户端等工具上传,整个过程耗时又耗力,并且很容易存在漏传、误传等问题。 针对迁移第三方云厂商的对象数据至媒体存储的场景,媒体存储提供在线迁移服务。通过迁移服务,用户只需在控制台配置简单的连接参数以及迁移任务,即可把数据从第三方云厂商简单、平滑地迁移至媒体存储。 下面以阿里云OSS数据迁移到媒体存储为例。 前提条件 已在天翼云注册账号,并完成实名认证。 已开通媒体存储。 已在媒体存储中创建桶用来接收数据。 创建源端阿里云和目的端天翼云对象存储的访问密钥(AK/SK)。 源端桶对应账户需要的权限:只读访问阿里云对象存储服务(OSS)的权限。 注意: 若您源端有归档状态的数据需要迁移,则应该先解冻,待解冻完成后再进行迁移,否则这些数据会迁移失败。 源端操作 源端阿里云:检查阿里云账号是否拥有AK/SK以及只读访问对象存储服务(OSS)的权限,如果没有,参考以下步骤生成AK/SK并添加权限。 1. 登录阿里云RAM控制台。 2. 在左侧导航栏,选择身份管理 > 用户。 3. 在用户页面,单击用户名称,进入用户详情页面。 4. 在用户 AccessKey区域,单击“创建 AccessKey”,生成AccessKey ID和AccessKey Secret。 5. 添加权限:在用户页面,单击RAM用户操作列的添加权限,授予RAM用户只读访问对象存储服务(OSS)的权限。 6. 记录需要迁移的桶名以及EndPoint信息,具体获取如下图:
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        数据迁移与备份
        迁移其他云厂商数据到媒体存储
      • 在Serverless集群中运行Job任务
        本文为您介绍如何Serverless集群中运行Job任务。 背景信息 在Serverless集群中,您可以按需按量创建Pod。当Pod结束后停止收费,无需为Job任务预留计算资源,从而摆脱集群计算力不足和扩容的烦扰,同时结合抢占式实例可以降低Job任务的计算成本。本文主要为您介绍如何通过SCE按需创建Job任务,来对圆周率Pi进行小数位的计算。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群 。 确保kubectl工具已经连接目标集群。 操作步骤 登录控制台创建Job 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群”。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“任务”。 5. 点击创建任务。 6. 点击创建工作负载后,可在Job列表查看Job。 使用命令行创建Job 1. 创建job.yaml文件,内容如下: shell apiVersion: batch/v1 kind: Job metadata: name: pi spec: template: spec: containers: name: pi image: user1registryhuadong1.crsinternal.ctyun.cn/library/perl command: ["perl", "Mbignumbpi", "wle", "print bpi(10)"] restartPolicy: Never backoffLimit: 4 2. 执行命令创建该任务。 plaintext kubectl apply f job.yaml 3. 查看Job与Pod的运行状态,可以看到已经运算成功。 shell kubectl get job pi NAME COMPLETIONS DURATION AGE pi 1/1 2m23s 9m21s kubectl get pod NAME READY STATUS RESTARTS AGE pib89fv 0/1 Completed 0 9m37s 4. 查看运算结果。 登录到弹性容器实例的控制台,进入到上面Pod对应的ECI实例中,查看日志,可以看到对圆周率的小数点后9位的运算结果。
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        在Serverless集群中运行Job任务
      • 获取对象元数据
        参数 是否必填 参数类型 说明 示例 下级对象 xamzmeta 是 String 以xamzmeta为前缀的参数作为用户自定义meta header。当用户在PostObject时设置了以xamzmeta为前缀的自定义meta,则响应中会包含这些自定义meta test LastModified 是 String 对象最新修改时间 Thu, 15 Sep 2022 08:36:33 GMT xamzstorageclass 是 String 对象的存储类型 STANDARD xrgwobjecttype 是 String 对象Object的类型。如果是通过PutObject上传的Object类型为Normal,如果是appendObject上传的,那么类型为Appendable。如果对象为软连接,那么类型为 Symlink Normal xrgwnextappendposition 是 Integer 对于Appendable类型的Object会返回此Header,指明下一次请求应当提供的position 1 xamznextappendposition 是 Integer 同xrgwnextappendposition 1 xamzversionid 是 String Object的版本ID。只有查看Object指定版本的元数据信息时才显示该字段 1dfasf xrgwobjectatime 是 String Object的最后一次访问时间。时间格式为HTTP 1.1协议中规定的GMT时间。开启访问追踪时,该字段的值会随着文件被访问的时间持续更新。如果开启后关闭了访问追踪,该字段的值保留为上一次最后更新的值。Object的最后一次访问时间是异步更新的,会保证在24小时内完成Object最后一次访问时间的更新。对于24小时内多次访问同一个Object,仅更新该Object的最早一次访问时间 Thu, 15 Sep 2022 08:36:33 GMT xamzbucketowner 是 String 桶的拥有者 test xamztaggingcount 是 String 对象关联的标签个数。仅当用户有读取标签权限时才会返回 2
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        获取对象元数据
      • 通过Serverless集群快速部署Nginx应用
        本文介绍如何通过Serverless集群快速部署Nginx应用。 Serverless集群不需要用户管理维护节点,让您将精力放在具体应用的开发和维护上,而不是底层基础设施的管理。本文将介绍如何在Serverless集群上实现在线Web应用的免运维托管。 前提条件 确保您已经成功创建了Serverless集群。 背景信息 Serverless集群兼容原生Kubernetes语义和API,您可以在Serverless集群中轻松创建Deployment、StatefulSet、Service、Ingress、ConfigMap或Secret等资源。此外,您也可以使用Helm部部署和管理复杂的Kubernetes应用程序的生命周期。 操作步骤 1.通过kubectl工具连接Serverless集群。 2.创建Nginx应用的YAML配置文件nginx.yaml,内容示例如下: apiVersion: v1 kind: Service metadata: name: nginxservice namespace: default spec: selector: app: nginx ports: protocol: TCP port: 30003 targetPort: 80 type: ClusterIP apiVersion: apps/v1 kind: Deployment metadata: name: nginxdeployment namespace: default labels: app: nginx spec: selector: matchLabels: app: nginx replicas: 2 template: metadata: labels: app: nginx spec: containers: name: nginx image: registryhuadong1.crsinternal.ctyun.cn/opensource/nginx:1.25alpine resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "0.5" memory: "500Mi" ports: containerPort: 80 3.通过该配置文件部署Nginx应用。 kubectl apply f nginx.yaml 预期返回为: service/nginxservice created deployment.apps/nginxdeployment created 4.查看创建Pod和Serivce的状态,查看Pod的状态信息: kubectl get pod 预期输出结果为: NAME READY STATUS RESTARTS AGE nginxdeployment7d4df6ffc852dr8 1/1 Running 0 12m nginxdeployment7d4df6ffc8gshq4 1/1 Running 0 12m 查看Service的状态信息: kubectl get svc 预期输出结果为: NAME TYPE CLUSTERIP EXTERNALIP PORT(S) AGE nginxservice ClusterIP 10.96.75.52 30003/TCP 28m 5.进入容器内部,访问Nginx应用: curl 10.96.75.52:30003 预期输出结果为: Welcome to nginx! ...
        来自:
        帮助文档
        云容器引擎 Serverless版
        快速入门
        通过Serverless集群快速部署Nginx应用
      • CDN加速助力手机应用快速更新
        本文以CDN加速产品为例,为您介绍CDN加速产品在手机应用商店发布应用、更新应用的集中高并发业务场景下,如何将业务流量下沉边缘,缓解源站服务器压力,提升用户端下载体验。 业务场景简介 风起云涌的高科技时代,智能终端的普及不仅推动了移动互联网的发展,也带来了移动APP应用的爆炸式增长。越来越多的企业已经意识到手机应用可以为其提供自有销售平台、精准消费者数据信息、线下到线上的无缝连接和品牌宣传渗透的稳定渠道。无独有偶,各地的政务服务也在逐步从传统的线下办理模式到移动终端线上快捷高效办理的模式进行转变。 业务场景痛点 手机应用在给用户带来极度便利的同时,也为企业带来了许多问题: 用户需求飞速衍生,应用体量越来越大 因业务需要和用户诉求多元化,各类手机应用的功能都在不断叠加、丰富,市面上超过百M大小的手机应用已经成为普遍现象。 应用更新、发布后,用户更新和下载行为集中 现有应用的更新和新应用的发布,往往在上线后的3天内会面临着用户的集中更新和下载,造成服务站点的下行带宽暴涨、机器资源被耗尽,客户业务随时都面临瘫痪风险,用户下载体验差,流失风险高。 客户端多网分布,跨网传输稳定性差 用户分布于国内各大主要运营商网络下,客户自建服务站点在不具备BGP线路时,用户的下载、更新存在跨网传输的情况,极易造成下载速度慢、不稳定、下载中断等情况。 硬件、网络资源扩容建设成本高昂 通过服务站点硬件和网络带宽的扩容建设解决用户集中下载、更新带来的一系列问题,建设的成本让大多数企业望而却步;在业务闲时,扩建的资源也无法得到有效利用。
        来自:
        帮助文档
        CDN加速
        最佳实践
        CDN加速助力手机应用快速更新
      • 作业开发
        Spark作业访问MySQL数据库的方案 通过DLI Spark作业访问MySQL数据库中的数据有如下两种方案: 方案1:在DLI中购买按需专属队列,创建增强型跨源连接,再通过跨源表读取MySQL数据库中的数据,该方案需要用户自行编写java代码或scala代码。 方案2:先使用云数据迁移服务CDM将MySQL数据库中的数据导入OBS桶中,再通过Spark作业读取OBS桶中的数据,如果用户已有CDM集群,该方案比方案1简单,且不会对现有数据库造成压力。 如何通过JDBC设置spark.sql.shuffle.partitions参数提高并行度 操作场景 Spark作业在执行shuffle类语句,包括group by、join等场景时,常常会出现数据倾斜的问题,导致作业任务执行缓慢。 该问题可以通过设置spark.sql.shuffle.partitions提高shuffle read task的并行度来进行解决。 设置spark.sql.shuffle.partitions参数提高并行度 用户可在JDBC中通过set方式设置dli.sql.shuffle.partitions参数。具体方法如下: Statement st conn.stamte() st.execute("set spark.sql.shuffle.partitions20") Spark jar 如何读取上传文件 Spark可以使用SparkFiles读取 –file中提交上来的文件的本地路径,即:SparkFiles.get("上传的文件名")。 说明 lDriver中的文件路径与Executor中获取的路径位置是不一致的,所以不能将Driver中获取到的路径作为参数传给Executor去执行。 lExecutor获取文件路径的时候,仍然需要使用SparkFiles.get(“filename”)的方式获取。 lSparkFiles.get()方法需要spark初始化以后才能调用。 代码段如下所示 package main.java import org.apache.spark.SparkFiles import org.apache.spark.sql.SparkSession import scala.io.Source object DliTest { def main(args:Array[String]): Unit { val spark SparkSession.builder .appName("SparkTest") .getOrCreate() // driver 获取上传文件 println(SparkFiles.get("test")) spark.sparkContext.parallelize(Array(1,2,3,4)) // Executor 获取上传文件 .map( > println(SparkFiles.get("test"))) .map( > println(Source.fromFile(SparkFiles.get("test")).mkString)).collect() } }
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业开发
      • 用户管理优秀实践
        本章节主要介绍用户管理优秀实践。 DWS集群中,常用的用户分别是系统管理员和普通用户。本节简述了系统管理员和普通用户的权限,如何创建以及如何查询用户相关信息。 系统管理员 在启动DWS集群时创建的用户dbadmin是系统管理员,其拥有系统的最高权限,能够执行所有的操作(表空间,表,索引,模式,函数,自定义视图的操作权限及系统表和系统视图的查看权限)。 要创建新的数据库管理员,则以管理员用户身份连接数据库,并使用带SYSADMIN选项的CREATE USER语句或 ALTER USER语句进行设置。 例如: 创建用户Jim为系统管理员。 CREATE USER Jim WITH SYSADMIN password 'password'; 修改用户Tom为系统管理员。(ALTER USER时,要求用户已存在。) ALTER USER Tom SYSADMIN; 普通用户 普通用户由SQL语句CREATE USER创建。不具有对表空间创建,修改,删除,分配权限,访问需要被赋权;仅对自己创建的表/模式/函数/自定义视图有所有权限,仅可以在自己的表上建索引,仅可查看部分系统表和系统视图。 数据库集群包含一个或多个已命名数据库。用户在整个集群范围内是共享的,但是其数据并不共享。 常见用户相关操作如下,此处使用的密码需要用户自定义: 1.创建用户。 CREATE USER Tom PASSWORD 'password'; 2.修改用户密码。 将用户Tom的登录密码由password修改为newpassword。 ALTER USER Tom IDENTIFIED BY 'newpassword' REPLACE 'password'; 3.给用户授权。 −要创建有“创建数据库”权限的用户,需要加CREATEDB关键字。 CREATE USER Tom CREATEDB PASSWORD 'password'; −为用户追加CREATEROLE权限。 ALTER USER Tom CREATEROLE; 4.撤销权限。 REVOKE ALL PRIVILEGES FROM Tom; 5.锁定或解锁用户。 −锁定Tom帐户: ALTER USER Tom ACCOUNT LOCK; −解锁Tom用户: ALTER USER Tom ACCOUNT UNLOCK; 6.删除用户。 DROP USER Tom CASCADE;
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        用户管理优秀实践
      • 查看其它资料并清理资源
        本章节主要介绍数据仓库服务如何查看其它资料并清理资源。 查看其它资料 完成如上操作步骤后,我们推荐您可以参考如下资料继续对数据仓库服务进行更详细深入的了解: 《数据仓库服务用户指南》:本指南在此入门的基础上,对创建、管理、监控以及连接集群的概念和相关操作提供全面详细的信息。 《数据仓库服务数据库开发指南》:本指南在此入门的基础上,为数据库开发人员提供全面详细的信息,帮助他们了解如何构建、管理和查询DWS 数据库,包括SQL语法、用户管理、数据导入导出等指导。 清理资源 当完成快速入门的样例后,如果您不再需要使用本样例创建的样例数据、集群、ECS以及VPC时,您可以删除这些资源,以免资源浪费或占用您的配额。 1.删除DWS 集群。 在DWS 管理控制台,单击“集群管理”,在集群列表中集群“dwsdemo”所在行,单击“更多 > 删除”。然后在弹出对话框中勾选“释放与集群绑定的弹性IP”,单击“确定”。 如果待删除集群使用了自动创建的安全组,且该自动创建的安全组没有被别的集群使用,删除集群时,该安全组也会一起被自动删除。 2.删除子网。删除前请先确保该子网未被其他资源绑定。 登录虚拟私有云管理控制台,在左侧导航树单击“虚拟私有云”,在虚拟私有云列表中,单击名称“vpcdws”,然后在子网列表中“subnetdws”所在行单击“删除”。 3.删除虚拟私有云。删除前请先确保该虚拟私有云未被其他资源绑定。 登录虚拟私有云管理控制台,在虚拟私有云列表中,找到虚拟私有云“vpcdws) ”,单击其所在行的“删除”。 具体步骤,请参见《虚拟私有云用户指南》中“虚拟私有云和子网 > 删除虚拟私有云”章节。
        来自:
        帮助文档
        数据仓库服务
        快速入门
        查看其它资料并清理资源
      • 产品优势
        本章节主要介绍数据仓库服务的产品优势。 DWS数据库内核使用自主研发的GaussDB数据库,兼容PostgreSQL 9.2.4的数据库内核引擎,从单机OLTP数据库改造为企业级MPP(大规模并行处理)架构的OLAP分布式数据库,其主要面向海量数据分析场景。 DWS与传统数据仓库相比,主要有以下特点与显著优势,可解决多行业超大规模数据处理与通用平台管理问题: 易使用 一站式可视化便捷管理 DWS让您能够轻松完成从项目概念到生产部署的整个过程。通过使用DWS 管理控制台,您不需要安装数据仓库软件,也不需要部署数据仓库服务器,就可以在几分钟之内获得高性能、高可靠的企业级数据仓库集群。 您只需点击几下鼠标,就可以轻松完成应用程序与数据仓库的连接、数据备份、数据恢复、数据仓库资源和性能监控等运维管理工作。 与大数据无缝集成 您可以使用标准SQL查询HDFS、对象存储服务(Object Storage Service,OBS)上的数据,数据无需搬迁。 提供一键式异构数据库迁移工具 DWS提供配套的迁移工具,可支持Oracle和Teradata的SQL脚本迁移到DWS 。 高性能 云化分布式架构 DWS采用全并行的MPP架构数据库,业务数据被分散存储在多个节点上,数据分析任务被推送到数据所在位置就近执行,并行地完成大规模的数据处理工作,实现对数据处理的快速响应。 查询高性能,万亿数据秒级响应 DWS后台还通过算子多线程并行执行、向量化计算引擎实现指令在寄存器并行执行,以及LLVM动态编译减少查询时冗余的条件逻辑判断,助力数据查询性能提升。 DWS支持行列混合存储,可以同时为用户提供更优的数据压缩比(列存)、更好的索引性能(列存)、更好的点更新和点查询(行存)性能。 数据加载快 DWS提供了GDS极速并行大规模数据加载工具。
        来自:
        帮助文档
        数据仓库服务
        产品简介
        产品优势
      • 边缘实例概述
        本节主要介绍边缘虚拟机的定义和使用场景等。 定义 智能边缘云(ECX)边缘虚拟机实例是指靠近用户侧的边缘场景下创建的实例资源,包含CPU、内存、GPU、存储、网络等资源组件。 使用场景 边缘虚拟机实例与天翼云弹性云主机(CTECS)相对独立,承载不同的业务,边缘实例更适用于IoT、智慧园区等靠近用户侧的场景。 使用说明 您可访问智能边缘云控制台( 实例规格 当前可售卖实例规格含通用计算型、计算增强型、GPU型等不同类型,根据虚拟机的vCPU、内存、GPU等的数量及实例所属区域不同,价格不同,具体参考价格。 实例规格指标数据如下: 规格 名称 vCPU 内存 网络带宽能力(Gbps) 网络收发包pps 队列数 通用计算型 s6.large.1 2 4 1 30万 2 通用计算型 s6.xlarge.2 4 8 1.5 50万 4 通用计算型 s6.2xlarge.2 8 16 2 80万 8 通用计算型 s6.4xlarge.2 16 32 3 100万 16 通用计算型 s6.8xlarge.2 32 64 6 200万 16 计算增强型 c6.large.1 2 4 1 30万 2 计算增强型 c6.xlarge.2 4 8 1.5 50万 4 计算增强型 c6.2xlarge.2 8 16 2 80万 8 计算增强型 c6.4xlarge.2 16 32 3 100万 16 计算增强型 c6.8xlarge.2 32 64 6 200万 16 说明 上述实例规格指标均在纯转发测试环境下验证获得。 在实际业务场景中,由于实例的负载类型、包长大小、长短连接、镜像版本、组网模型等条件不同,实例的性能表现可能存在差异。建议您先进行业务压测了解实例的性能表现,以选择合适的实例规格。 不同资源池可开通的实例规格库存不同,具体以开通界面为准。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘虚拟机
        实例
        边缘实例概述
      • 1
      • ...
      • 108
      • 109
      • 110
      • 111
      • 112
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      模型推理服务

      应用托管

      推荐文档

      产品功能

      安全防护告警

      管理云间高速

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号