云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)I型_相关内容
      • HBlock服务
        服务 服务名称 作用 stor:mdm 元数据管理服务(仅集群版支持) 管理整个系统的元数据。 stor:fc 故障转移控制服务(仅集群版支持) 进行系统健康检测,实现故障转移控制。 stor:ls 日志服务(仅集群版支持) 提供基于日志的数据同步功能。 stor:ds x 数据服务(仅集群版支持) 管理用户的文件数据块。 stor:cs 协调服务(仅集群版支持) 监视各服务器的状态,触发通知事件,确保集群服务高可用。 stor:ms 管理服务 处理请求信息,维护集群运行状态。 stor:ws 监控服务 监控各个服务的状态,并负责服务的启动。 stor:ps 协议解析服务 负责iSCSI协议解析与数据存储。 stor:ag 数据采集服务 负责采集性能数据。 stor:ua 升级监听服务 负责接收升级请求,执行升级相关操作。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        附录
        HBlock服务
      • 查看巡检
        本章节主要介绍如何查看巡检 背景信息 数据仓库服务(DWS)支持在变更操作前(扩/缩容、经典规格变更、升级)进行集群巡检,即在对应变更页面单击 “立即巡检” 按钮后会巡检当前集群的健康状态和集群指标是否满足变更要求,检查通过后可开始变更。如果巡检不通过,可打开巡检详情,查看不通过的巡检项,根据详情说明处理不通过的巡检项。 说明 该特性仅8.1.1及以上集群版本支持。 注意事项 集群已安装巡检插件并且插件版本为8.3.1.100及以上。 当前巡检结果24小时内有效,在有效期可执行变更操作,超过后需要重新进行巡检。 变更前集群24小时内没有巡检成功过,在变更操作(扩/缩容、经典规格变更、升级)开始前需要先完成一次巡检,并保证巡检检查通过。 查看巡检详情 1. 登录数据仓库服务(DWS)管理控制台。 2. 在集群列表中单击指定集群名称。 3. 进入“集群详情”页面,切换至“ 巡检管理 ”页签。 4. 单击指定任务名称旁边的下拉按钮,查看巡检结果(巡检状态、执行进度、巡检结果、通过率等),并单击所在行“查看详情”按钮查看具体巡检项详情。 说明 在变更界面创建巡检任务后也可在当前页面查看巡检进度,巡检详情以及终止巡检。 终止巡检任务 1. 登录数据仓库服务(DWS)管理控制台。 2. 在集群列表中单击指定集群名称。 3. 进入“集群详情”页面,切换至“ 巡检管理 ”页签。 4. 单击巡检中任务所在行操作列的“终止任务”按钮终止该巡检任务。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        变配与扩容
        查看巡检
      • 任务管理
        参数名 说明 数据源类型 从下拉列表中选择数据源类型。 说明 元数据采集支持丰富的数据源类型,对于DWS、DLI、MRS HBase、MRS Hive、RDS(MySQL)、RDS(PostgreSQL)和ORACLE类型的数据源,首先需要在管理中心创建数据连接。 OBS桶 选择待采集数据归属的OBS桶,仅数据源类型为OBS时,呈现此参数。 数据连接 所选数据连接类型中已创建数据连接,支持从下拉列表中选择。 所选数据连接类型中未创建数据连接,请单击“新建”,创建新的数据连接。 OBS路径 选择待采集数据在OBS桶中的存储路径,仅数据源类型为OBS时,呈现此参数。 采集范围 选择待采集数据的采集范围,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“当前文件夹”,采集任务仅采集obs路径中设置的文件夹下的对象。 选择“当前文件夹和所有子文件夹”,采集任务会采集obs路径中设置的文件夹下所有的对象,包括其子文件夹下的对象 采集内容 选择待采集数据的采集内容,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“文件夹和对象”,采集任务采集文件夹和对象。 选择“ 文件夹”,采集任务仅采集文件夹。 数据库和schema 仅数据源类型为DWS时,呈现此参数。 单击数据库和schema后的“设置”,设置采集任务扫描的数据库和schema范围。当不进行设置时,默认选择该数据连接下的所有数据库和schema。 单击“清除”,可对已选择的数据库和schema进行修改。 命名空间 仅数据源类型为MRS HBase时,呈现此参数。 单击命名空间后的“设置”,设置采集任务扫描的命名空间范围。当不进行设置时,默认选择该数据连接下的所有命名空间 。 单击“清除”,可对已选择的命名空间进行修改。 数据库 数据表 呈现待采集的数据库和数据表。 单击数据库后的“设置”,设置采集任务扫描的数据库范围。当不进行设置时,默认选择该数据连接下的所有数据库 。 单击数据表后的“设置”,设置采集任务扫描的数据表范围。当不进行设置时,默认选择数据库下的所有数据表。针对数据连接类型为Mysql、Oracle和DLI的数据表,支持按照正则表达式过滤需要采集的表。 当数据库和数据表均不设置时,则采集任务扫描的数据范围为该数据连接下的所有数据表。 单击“清除”,可对已选择的数据库和数据表进行修改。 选择图 仅数据源类型为GES时,呈现此参数。 选择存储了以“关系”为基础的结构数据的图。 选择集群 仅数据源类型为CSS时,呈现此参数。 选择待采集数据存储的CSS集群。 您也可以单击“新建”,创建CSS集群,创建完成后单击“刷新”,选择新建的CSS集群即可。 绑定Agent 管理CloudTable/GES/CSS类型的数据连接,请选择CDM集群提供的Agent。 用户也可以单击“新建”,创建新的Agent,创建完成后单击“刷新”,选择新的Agent即可。 索引 仅数据源类型为CSS时,呈现此参数。 用于存储Elasticsearch的数据,类似关系型数据库的Database。是一个或多个分片分组在一起的逻辑空间。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        元数据采集
        任务管理
      • 叠加CDN加速
        本节介绍了为业务同时部署DDoS高防(边缘云版)和CDN加速的操作步骤。 使用场景 如果您的网站既需要进行流量型DDoS攻击的防护,同时也有对内容分发的加速需求,您可以在DDoS高防(边缘云版)的基础上,叠加CDN加速进行使用。 天翼云CDN加速(CDN,Content Delivery Network),即内容分发网络,是基于天翼云遍布全球的网络节点提供的内容分发加速服务。它将源站内容分发至最接近用户的节点,使用户可就近获取所需内容,解决因跨运营商、跨地域、服务器带宽及性能瓶颈带来的访问延迟问题,提高用户访问的响应速度和成功率。 配置前提 已分别开通DDoS高防(边缘云版)及CDN加速。 已完成天翼云CDN加速域名接入。 业务流程 由于DDoS高防(边缘云版)及CDN加速,采用统一的边缘云网络架构和底座,无需重复进行网站接入配置,并且也无需考虑不同产品串联时网络层转发的顺序问题。 (非统一架构的产品叠加,需确定不同产品之间网络层转发顺序,如先经过DDoS高防再经过CDN加速,那么DDoS的高防的回源地址需与CDN加速的接入地址相匹配,而不能直接配置为源站地址。非统一架构的产品叠加会增加网络配置复杂度。) 配置步骤 以先配置CDN加速,再配置DDoS高防(边缘云版)为例。 1. 完成CDN的域名接入配置,详细配置步骤,请参考添加加速域名。 2. 进入DDoS高防(边缘云版)控制台,在左侧导航中,点击【业务接入】【域名接入】。 3. 点击右上角【新增域名】,并填入域名信息,此时会弹窗提示"您的域名已经在CDN加速(中国内地)产品控制台新增,产品关联后才能同步网站通用配置,请确认是否关联"。 4. 点击确认后,系统会自动获取并完成网站配置,点击【确定】即可完成配置。 注意 DDoS高防(边缘云版)叠加天翼云CDN加速产品,域名需先在CDN控制台添加完成后,再在DDoS高防(边缘云版)控制台上新增。目前暂不支持先在DDoS高防(边缘云版)控制台上新增域名后,再叠加CDN加速产品。 DDoS高防(边缘云版)叠加天翼云CDN加速产品后,域名CNAME地址直接使用CDN加速提供的CNAME地址即可,无需调整。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        最佳实践
        叠加CDN加速
      • 断点续训加速
        万卡规模国产化集群下,断点续训在5类故障下实现1分钟检测、5分钟内定位、15分钟内恢复训练。 测试数据及代码准备 数据集 数据集大小 使用模型 Wikipediaen (1M条) 9.1GB Llama270B /Llama3.1405B 使用预处理为MindRecord格式的Wikipediaen (1M条)数据集,上传到对象存储,并由对象存储下载到平台HPFS。 测试代码在gitlab仓库下载到本地,并放置于/work/home下。 脚本和任务准备 按照下面修改run.sh脚本 plaintext ! /bin/bash huijuformers的绝对路径, 需要修改pathtohuijuformers export BASEDIR/work/data/llama29216/huijuformers 以下为平台自动注入的环境变量 yaml文件中需要修改的环境变量 export BATCHSIZE1 export EPOCHS350 export LEARNINGRATE6.e5 export DATAPARALLEL256 export MODELPARALLEL4 export PIPELINESTAGE9 模型微调相关 export FINETUNEMODELTYPEllama270bbase 合并为一个参数,与模型存放文件夹名称一致(与后端沟通过) export FINETUNINGTYPEALL export TIMETAG$(date +"%m%d%H%M") 数据相关 export DATASETPATH${BASEDIR}/data export DATASETFILEoriginaldata.json 需要修改 以下为平台后端需要自行更改后传入的环境变量 平台数据格式转换,专用数据调试时用不到 export DATASETTMPPATH${BASEDIR}/data/processeddata/${FINETUNEMODELTYPE} mkdir p ${DATASETTMPPATH} 模型输入 专业模式,平台训练时需要按照平台的挂载路径去修改这一块的变量 export CHECKPOINTDIR'' 低代码模式,微调时约定挂载为下面的路径 export CHECKPOINTDIR/work/mount/publicModel/${FINETUNEMODELTYPE}/${FINETUNEMODELTYPE} 输出文件夹路径,runmode为训练模式,如train,lora,full runmodetrain export OUTPUTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode}/${TIMETAG} export OUTPUTROOTDIR${BASEDIR}/output/${FINETUNEMODELTYPE}/${runmode} rm rf ${OUTPUTDIR}/resumerecord 获取节点IP、名称,记录至文件 echo $(hostname I awk '{print $1}'),$NODENAME >> ${BASEDIR}/output/nodes sed i '/pamlimits.so/s/^//' /etc/pam.d/sshd 启动脚本 cd ${BASEDIR}/bin/scripts apt install netcat y 微调 bash finetune.sh 预训练 export MSTOPOTIMEOUT7200 bash train.sh 启动训练任务 点击训练任务页面的新建任务,按照如下的示例配置训练命令和模型挂载等,然后启动任务。 Llama270B万卡测试结果 在平台使用9216卡对Llama270B进行预训练,万卡规模国产化集群下,断点续训在5类故障下实现1分钟检测、5分钟内定位、15分钟内恢复训练。
        来自:
        帮助文档
        训推服务
        用户指南
        训推加速
        断点续训加速
      • 通过LTS记录WAF全量日志
        本文介绍如何开启全量日志。 启用WAF全量日志功能后,您可以将攻击日志、访问日志记录到云日志服务(Log Tank Service,简称LTS)中,通过LTS记录的WAF日志数据,快速高效地进行实时决策分析、设备运维管理以及业务趋势分析。 LTS对于采集的日志数据,通过海量日志数据的分析与处理,可以为您提供一个实时、高效、安全的日志处理能力。LTS默认存储日志的时间为7天,存储时间可以在1~30天之间进行设置,超出存储时间的日志数据将会被自动删除,对于需要长期存储的日志数据(日志持久化),LTS提供转储功能,可以将日志转储至对象存储服务(OBS)或者数据接入服务(DIS)中长期保存。 前提条件 已申请WAF。 已添加防护网站。 系统影响 开启全量日志功能是将WAF日志记录到LTS,不影响WAF性能。 将防护日志配置到LTS 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全> Web应用防火墙(独享版)”。 4. 在左侧导航栏,选择“防护事件”,进入“防护事件”页面。 5. 选择“全量日志”页签,开启全量日志,并选择日志组和日志流。 配置全量日志: 全量日志配置参数: 参数 参数说明 取值样例 选择日志组 选择已创建的日志组。 ltsgroupwaf 记录攻击日志 选择已创建的日志流。 攻击日志记录每一个攻击告警信息,包括攻击事件类型、防护动作、攻击源IP等信息。 ltstopicwafattack 记录访问日志 选择已创建的日志流。 访问日志记录每一个HTTP访问的关键信息,包括访问时间、访问客户端IP、访问资源URL等信息。 ltstopicwafaccess 6. 单击“确定”,全量日志配置成功。您可以在LTS管理控制台查看WAF的防护日志。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        通过LTS记录WAF全量日志
      • 管理遵从包
        导入遵从包 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“风险预防 > 基线检查”,进入基线检查页面后,选择“安全遵从包”页签,默认进入遵从包页面。 5. 在下方遵从包列表左上角,单击“导入”。 6. 在弹出的对话框中单击“下载模板”,根据模板填写遵从包信息。 7. 填写完成后,在弹出的对话框中单击“添加文件”,上传已填写的信息表格。 说明 导入遵从包数据时,有以下限制条件: 支持导入.xlsx格式的文件。 一次仅支持导入一个文件,且单次导入数据条不超过100条。 系统内置的遵从包不支持编辑、删除操作。 在空间托管场景,托管视图的“风险预防> 基线检查”页面呈现的遵从包与主空间配置一致,其中主空间是用户在创建托管视图时绑定的工作空间。 “操作系统配置基线”、“经典弱口令检测”、“口令复杂度策略检测”遵从包仅支持查看、启用、停用、导出遵从包,不支持导入、编辑和删除操作。 8. 上传完成后,单击“导入”。 9. 导入完成后,在遵从包页面可查看已导入的遵从包信息,可以对遵从包进行启用、停用、编辑、删除操作。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        基线检查
        管理遵从包
      • 快速入门总流程
        本页面提供了如何在管理控制台创建实例、连接实例的具体操作流程。 请按照以下流程操作云数据库ClickHouse: 1. 创建实例: 创建包年/包月或按需计费的云数据库ClickHouse集群 2. 创建账号并获取连接地址: 在产品控制台中的账号管理页面创建管理员的数据库账号(参考:创建账号),以便管理云数据库ClickHouse集群。 按需配置云数据库ClickHouse集群的访问限制(参考:账号管理)。 从控制台页面获取端口,从而获得连接地址(实例管理 > 点击已开通实例 > 实例详情 > 连接地址查看)。 3. 客户端连接: 云数据库ClickHouse支持多种连接方式,包括JDBC连接、HTTP连接、命令行客户端连接、MySQL客户端连接。 4. 经典场景示例——创建数据库并导入数据进行使用: 使用clickhouseclient工具,将特定的数据集(hitsv1)导入到已创建的分布式表中,实现数据导入和管理。 云数据库ClickHouse提供单副本、双副本类型集群架构,用户可以根据实际情况选择合适的架构类型: 测试或一般业务场景 :无严格高可用场景需求(或高业务连续性需求,且对资源要求不高),可选择使用单副本集群。单副本集群一方面无需单独部署ZK集群节点(与计算存储节点混合部署),更少资源需求。另一方面,可以支持最小1个节点,扩容节点时可按新增最小1个计算进行扩容,对资源要求较低。 重要及核心业务场景 :有严格的高可用场景需求,建议使用双副本集群。ClickHouse提供副本机制,将数据冗余存储至2台或多台主机上,以提高数据的可靠性和冗余容错能力。与此同时,副本保证了数据的备份和故障恢复,当一个节点出现故障时,可以切换到其他副本节点,可以确保数据的持久性和可用性,有效应对主机故障场景。 配置建议: 架构 最小节点数 最小配置 节点推荐配置 单副本 1个计算节点 计算规格:4C16G 存储空间:100 GB 8C32G及以上,存储空间500GB及以上(根据实际业务需求进行测试和评估) 双副本 3个协调节点 2个计算节点 协调节点规格:4C16G 协调节点存储空间:100GB 计算节点规格:4C16G 计算节点存储空间:100GB 协调节点:8C32G,存储空间200GB+ 计算节点:8C32G/16C64G/32C128G,1TB及以上(根据实际业务需求进行测试和评估)
        来自:
        帮助文档
        云数据库ClickHouse
        快速入门
        快速入门总流程
      • 弹性云主机的应用场景
        本节描述了云主机的网站应用、企业电商、图形渲染、高性能计算的应用场景。 网站应用 对CPU、内存、硬盘空间和带宽无特殊要求,对安全性、可靠性要求高,服务一般只需要部署在一台或少量的服务器上,一次投入成本少,后期维护成本低的场景。例如网站开发测试环境、小型数据库应用。 推荐使用通用型弹性云主机,主要提供均衡的计算、内存和网络资源,适用于业务负载压力适中的应用场景,满足企业或个人普通业务搬迁上云需求。 企业电商 对内存要求高、数据量大并且数据访问量大、要求快速的数据交换和处理的场景。例如广告精准营销、电商、移动APP。 推荐使用内存优化型弹性云主机,主要提供高内存实例,同时可以配置超高IO的云硬盘和合适的带宽。 图形渲染 对图像视频质量要求高、大内存,大量数据处理,I/O并发能力。可以完成快速的数据处理交换以及大量的GPU计算能力的场景。例如图形渲染、工程制图。 推荐使用GPU图形加速型弹性云主机,G1型弹性云主机基于NVIDIA Tesla M60硬件虚拟化技术,提供较为经济的图形加速能力。能够支持DirectX、OpenGL,可以提供最大显存1GiB、分辨率为4096×2160的图形图像处理能力。 高性能计算 高计算能力、高吞吐量的场景。例如科学计算、基因工程、游戏动画、生物制药计算和存储系统。 推荐使用高性能计算型弹性云主机,主要使用在受计算限制的高性能处理器的应用程序上,适合要求提供海量并行计算资源、高性能的基础设施服务,需要达到高性能计算和海量存储,对渲染的效率有一定保障的场景。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        弹性云主机的应用场景
      • 操作
        id19b725bcd4c33) 天翼AI云电脑的大文件处理性能流畅吗? 天翼AI云电脑连接时长一般需要多久? 是否支持通过IPv6地址访问天翼AI云电脑吗? 想用天翼AI云电脑(政企版)打游戏可以吗,可以做图形渲染吗? 天翼AI云电脑是否支持本地磁盘映射? 天翼AI云电脑的对等连接建立成功,并添加了本端和对端的路由,但两端VPC仍然不能正常通信? 天翼AI云电脑使用对等连接进行通信,数据会经过公网吗? 在天翼AI云电脑里如何使用本地的USB打印机? 在天翼AI云电脑里如何使用本地的网络打印机? 是否支持通过IPv6地址访问天翼AI云电脑吗? 天翼AI云电脑如何默认预装办公软件? 用户能否自行更换天翼AI云电脑的显卡驱动吗? 天翼AI云电脑App退出或切换后,AI云电脑支持挂机吗? 支持挂机,但不同类型的AI云电脑挂机策略不同。可支持挂机时长会根据运营策略动态调整,目前可支持挂机时长如下: 天翼AI云电脑(政企版): 包月计费的云电脑会进入节能模式,在节能模式下,资源使用率会受到限制。连续30个自然日无操作或无连接,系统将自动关机。 按需计费的云电脑按开机时长计费,不自动关机。 天翼AI云电脑(公众版): 连续1小时无操作或无连接,系统将自动进入休眠状态。 连续24小时无操作或无连接,系统将自动关机。 注意 1. 已下线的天翼AI云电脑经济型、商务型,30分钟后自动休眠,点击进入即可使用。 2. 严禁在挂机期间使用游戏外挂、软件多开工具、作弊程序、恶意插件等违规工具,确保使用合规性。
        来自:
        帮助文档
        天翼云电脑(政企版)
        常见问题
        操作
      • 监控概述
        本节主要介绍监控概述。 点击导航栏中的“运维”>“监控”,进入“监控”页面,查看系统(集群版)、存储池(集群版)、服务器、数据目录、卷的性能表现。 说明 监控数据以服务器系统时间为准进行记录。时间被调整,或者集群中的服务器时间不统一,可能导致监控数据不准确。但用户的业务数据不会受到影响。 曲线图中指示图标为灰色表示未显示该项的数据,点击对应的图标即可显示。 图1 监控(单机版) 图2 监控(集群版)
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        监控概述
      • 桶和对象相关
        桶存储类别和对象存储类别有什么关系? 上传对象时,对象的存储类别默认继承桶的存储类别。您也可以重新指定对象的存储类别。 修改桶的存储类别,桶内已有对象的存储类别不会修改,新上传对象时的默认对象存储类别随之修改。 我可以修改对象名称吗? 可以。 重命名桶中对象 OBS客户端支持重命名桶中对象,您可以对单个对象重命名。 我可以修改桶所在的区域吗? 不可以。桶创建后,不能更改区域。 如何获取对象访问路径? 对象访问路径为: 您可以自己拼接,或通过以下工具方式获取: 工具 对象URL 管理控制台 单击对象,从对象属性中copy获取到对象URL访问路径。 OBS Browser+ 单击对象属性按钮,从对象属性中copy获取到对象URL访问路径。 API 不支持 说明 如果是自己拼接的对象访问路径,用户需要参考URL编码(URL encoding)规则对对象名进行转义。 无法搜索到桶中对象 OBS管理控制台和OBS Browser+支持通过前缀搜索对象,例如,您搜索“test”,搜索结果为以前缀为“test”的对象。若您输入的不是待搜索对象名称的前缀,则搜索不到对象。例如,您待搜索对象名称为“testabc”,您输入“abc”搜索,则搜索不到“testabc”对象,只能搜索到名称以“abc”开头的对象。
        来自:
        帮助文档
        对象存储 OBS
        常见问题
        桶和对象相关
      • 服务概览
        本文为您介绍对象存储迁移服务的功能特性等信息。 服务介绍 对象存储迁移服务(ZOS Migration Service,简称:ZMS)是天翼云提供的存储数据迁移服务。通过对象存储迁移服务,您可以将其它云厂商存储的数据,通过云端控制台的操作,迁移到天翼云对象存储(ZOS)。 对象存储迁移服务目前提供“ 迁移评估 ”和“ 迁移任务 ”两个控制界面,分别对应对象存储迁移场景中的评估需求和迁移需求。 对象存储迁移服务目前提供“ 全托管模式 ”和“ 半托管模式 ”两种迁移模式,分别适用于小数据量非紧急的迁移和大数据量紧急迁移两种场景。 服务控制台入口位置:控制中心>存储>对象存储>对象存储迁移服务 支持主流云服务的数据迁移 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 支持迁移前的数据感知评估 评估任务支持感知迁移源端的数据大小及分布情况。 评估任务支持对源端待迁移对象数量的感知。 支持两种迁移模式 支持传统的全托管迁移模式,由服务端执行迁移任务。 支持半托管迁移模式,由您自己的设备执行迁移,可适应多种迁移部署需要,灵活提升迁移速率。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        服务概览
      • 超高IO型实例类型总览
        本文主要介绍超高IO型实例类型总览 超高I/O型弹性云主机使用高性能NVMe SSD本地磁盘,提供高存储IOPS以及低读写时延,您可以通过管理控制台创建挂载有高性能NVMe SSD盘的弹性云主机。 在售:Ir7n、Ir3、I3、Ir7 规格名称 计算 磁盘类型 网络 :::: 超高I/O型Ir7n CPU/内存配比:1:4 vCPU数量范围:264 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.4GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 高IO 超高IO 通用型SSD 极速型SSD 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:600万PPS 最大内网带宽:40Gbps 超高I/O型Ir7 CPU/内存配比:1:4 vCPU数量范围:264 处理器:第三代英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.5GHz 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 高IO 超高IO 通用型SSD 极速型SSD 支持IPv6 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:600万PPS 最大内网带宽:40Gbps 最大网络连接数:500万 超高I/O型Ir3 CPU/内存配比:1:4 vCPU数量范围:232 处理器:第二代英特尔® 至强® 可扩展处理器 基频/睿频:2.6GHz/3.5GHz 高IO 超高IO 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:450万PPS 最大内网带宽:30Gbps 超高I/O型I3 CPU/内存配比:1:8 vCPU数量范围:864 处理器:英特尔® 至强® 可扩展处理器 基频/睿频:3.0GHz/3.4GHz 高IO 超高IO 通用型SSD 极速型SSD 超高网络收发包能力 实例网络性能与计算规格对应,规格越高网络性能越强 最大网络收发包:500万PPS 最大内网带宽:25Gbps
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        超高IO型
        超高IO型实例类型总览
      • 统计分析类
        本节主要介绍统计分析类相关问题。 流出流量是什么意思? 流出流量就是下载数据所用的流量,即下行流量。 OOS中,下载文件算不算流出流量? 下载文件属于流出流量,是下行流量。 什么是互联网 / 非互联网流量和请求次数? 互联网流量、请求次数是指从互联网进行操作,如上传下载文件时产生的流量和请求次数。 非互联网流量、请求次数是指从非互联网,例如内网等,进行上传下载文件时产生的流量和请求次数。 什么是直接/ 漫游流量和请求次数? 直接流量和请求次数是指未经对象存储网络的地域调度产生的流量和请求次数。例如,用户从对象存储网络的郑州地域访问,并将数据就近存储到了郑州,那么就属于直接流量和请求。 漫游流量和请求次数是指通过对象存储网络的地域调度产生的流量和请求次数。例如,用户从对象存储网络的郑州地域访问,并指定将数据写入沈阳,这个过程经过了地域调度,那么就属于漫游流量和请求次数。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        统计分析类
      • 复制备份
        本节介绍了复制备份的操作场景、约束限制、操作步骤等相关内容。 操作场景 关系型数据库服务支持复制自动和手动备份。 限制条件 只支持在同一区域下复制并使用备份,暂不支持跨region操作。 备份保留策略 如果删除实例,该实例的自动备份将会被同步删除。 如果开启了实例的自动备份策略,当实例的自动备份保留期结束,该实例的自动备份也将会被同步删除。 如果需要长期保留自动备份,您可以复制该自动备份生成一个手动备份,该手动备份在您删除之前将会一直保留。 如果手动备份所使用的空间超过您的默认存储空间,则可能会增加关系型数据库存储成本。 复制备份不会影响实例上的业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入“基本信息”页面,在左侧导航栏,单击“备份恢复”,选择目标备份,单击操作列中的“复制”。 您也可以在左侧导航栏,单击“备份管理”,在“备份管理”页面,选择目标备份,单击操作列中的“复制”。 步骤 5 填写新备份名称和描述,单击“确定”。 备份名称的长度在4~64个字符之间,必须以字母开头,区分大小写,可以包含字母、数字、中划线或者下划线,不能包含其他特殊字符。 备份描述不能超过256个字符,不能包含回车和>!<"&'特殊字符。 步骤 6 新备份创建成功后,用户可在“备份管理”页面,查看并管理自己的备份。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        执行备份
        复制备份
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • SQL Server如何收缩事务日志
        本文介绍SQL Server如何收缩事务日志。 产品提供了事务日志备份功能,日志备份会截断事务日志并归档,起到收缩事务日志的作用。 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【备份恢复】,然后单击【备份策略】页签,查看当前实例的备份策略。 5. 单击【数据备份策略】, 设置备份策略后单击【确定】。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        日志
        SQL Server如何收缩事务日志
      • 开启慢日志
        本文介绍如何开启SQL Server的慢日志。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【日志】标签页,然后单击【慢日志】,进入慢日志页面。 5. 单击【慢日志】按钮,打开慢日志设置弹窗。打开慢日志采集开关,然后设置慢日志的采集阈值(默认1秒),单击确认,开启慢日志采集功能。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        慢日志
        开启慢日志
      • 数据库的使用
        如何查看当前连接数据库的session ID 可以通过在数据库中执行 show full processlist;来查看当前所有连接的session,如下图所示: 其中Id表示session ID,您可以通过执行kill Id可终止该连接的会话。 导出SQL查询结果到Excel出现乱码怎么办 乱码问题可能是由于编码不匹配所导致的。在导出Excel文件时,默认编码通常为UTF8,而乱码的情况可能是因为目标系统或应用程序的编码格式与导出文件的编码格式不一致所导致的。为了解决这个问题,您可以在导出的Excel文件中将默认编码转换为Unicode编码,以确保字符的正确显示和处理。 数据库实例做OPTIMIZE TABLE操作时是否会锁表 InnoDB引擎在执行OPTIMIZE TABLE时会在后台进行重建表,并不会锁定整个表。这意味着在重建表期间,其他会话可以继续执行DML操作但不能执行DDL操作。同时,对于正在重建的特定数据页,会使用短暂的排他锁来保持数据的一致性而影响数据库的性能,对此需要您提前进行充分的测试和评估,建议在业务低峰期时执行该操作。 关系数据库MySQL版数据库如何进行主备切换? 关系型数据库MySQL版(简称MySQL)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。具体操作,请参见主备切换。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        其他类
        数据库的使用
      • 查询Agent防护状态统计数据
        接口功能介绍 主机总数:该客户的服务器总数,包括所有的云主机和物理机,无论是否防护都需要统计。防护中:防护状态为“防护中”的服务器数量统计。已离线:防护状态为“已离线”的数量统计。已关闭:防护状态为“已关闭”的数量统计。未防护:防护状态为“未防护”的数量统计。基础版防护:服务器配额为基础版的服务器数量。企业版防护:服务器配额为企业版的服务器数量。 接口约束 此功能为收费功能。确认已经购买服务器配额,并且开启服务器防护。如果没有购买配额,可按照页面提示进行购买。如果没有开启防护,请在服务器列表页开启机器防护。 URI GET /v1/index/status 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 success returnObj Object 返回对象 returnObj traceId String traceId 211111111111111111111 statusCode String 状态码 200成功 200 表 returnObj 参数 参数类型 说明 示例 下级对象 total Integer 服务器总数 1 unGuard Integer 未安装,未防护服务器数量(未激活) 1 offLine Integer 离线服务器数量(Agent离线或错误) 1 guard Integer 防护中服务器数量(Agent在线且开启防护) 1 closedGuard Integer 关闭防护(Agent在线且关闭防护)数量 1 baseGuard Integer 基础版防护数量 1 enterpriseGuard Integer 企业版防护数量 1
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        安全概览
        查询Agent防护状态统计数据
      • 安装部署
        本文为您介绍对象存储数据灾备安装部署的相关操作。 概要 对象存储数据灾备主要解决对象存储相关的数据同步场景。帮助用户将海量非结构化数据同步至对象存储中,进而提高非结构化数据的检索与访问性能。既降低了运营的成本,又提高了数据的安全性。文件归档功能使得数据归档管理更加灵活方便,能够及时将本地存储符合归档条件的数据同步至对象存储中,从而释放本地存储资源;所有归档记录可以通过管理界面快速查询和恢复,十分适合有海量数据存储的场景。 对象存储数据灾备的使用场景主要有: 本地/NAS存储上的数据同步至对象存储,详情见本地到对象存储规则、文件比较与同步规则两章节; 对象存储上的数据同步至本地/NAS存储,详情见对象存储到本地规则章节; 对象存储到对象存储之间的数据同步,详情见文件比较与同步规则章节。 针对以上场景:对象存储数据灾备可以实现间隔为秒级的数据定期同步。 操作步骤 一、购买许可 持续数据保护/主机高可用/数据定时灾备/文件存储数据灾备/对象存储数据灾备/数据库双活的购买许可步骤类似。下面以持续数据保护为例,介绍购买许可步骤。 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源同步”“资源同步管理”,进入资源管理模块页面。 5. 点击左侧菜单栏“对象存储数据灾备”,点击“许可”,进入许可页面。 6. 点击右上角“购买对象存储数据灾备许可”按钮,弹出购买许可弹窗。按需购买许可。 7. 填写购买数量和时长,勾选已阅读并同意相关协议后,点击“购买”按钮,完成许可支付。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        安装部署
      • 回收存储库
        本文介绍如何回收混合备份存储库空间。 操作场景 当混合存储库需要立即释放已过期版本的备份数据所占用的使用空间时,可以对存储库进行回收操作。 前提条件 已成功创建混合备份存储库。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角选择地域,此处选择华东华东1。 3. 选择“存储>云备份”,进入云备份控制台。 4. 在云备份页面,单击左侧“混合备份(存储版)”按钮,进入混合备份控制台。 5. 在存储库页面,单击待回收存储库所在行的“操作>回收”按钮。 6. 在弹出页面确认是否进行回收操作,单击“确定”后,回到存储库页面,可以看到存储库已用容量更新,则表明回收操作成功。
        来自:
        帮助文档
        云备份 CBR
        用户指南
        存储库管理
        混合备份存储库
        回收存储库
      • 相关术语
        视频转封装 视频转封装是指在不改变视频编码的情况下,将一个视频文件的容器格式从一种类型转换为另一种类型的过程。容器格式是指视频文件中包含视频和音频流以及其他元数据的文件格式,常见的容器格式有MP4、AVI、MKV等。在视频转封装的过程中,视频和音频的编码格式不会改变,但是可以调整封装格式的参数,如封装方式、视频帧率、音频码率、字幕等。转封装可以帮助适应不同的播放设备和软件,提高视频的兼容性和播放效果。 GOP GOP是视频编码中的一个重要概念,是Group of Pictures的缩写。在视频编码中,一帧画面经过压缩编码后会被分为I帧、P帧和B帧三种类型,I帧是关键帧,也是独立编码的帧,P帧和B帧是参前后的帧进行预测编码的帧。GOP是由一组连续的I帧、P帧和B帧组成的序列,整个序列被视为一个编码单元,用于提高视频编码效率和减小文件大小。 在一个GOP中,第一个I帧被称为GOP头,最后一个B帧被称为GOP尾,中间的P帧和B帧被称为B帧组或P帧组。GOP的大小可以根据需要进行调整,通常选择一个适当的GOP大小可以在保证视频质量的同时减小视频文件的大小。较小的GOP大小可以提高视频的编码效率,但同时也会增加编码延迟和视频文件的大小。 声道数 声道(Sound Channel)是指声音在录制(或播放)时,在不同空间位置采集(或播放)的相互独立的音频信号。所谓声道数,也就是声音录制时的音源数量或播放时的扬声器数量。
        来自:
        帮助文档
        云点播
        产品介绍
        相关术语
      • 复制备份
        本节介绍了复制备份的操作场景、约束限制、操作步骤等相关内容。 操作场景 关系型数据库服务支持复制自动和手动备份。 限制条件 只支持在同一区域下复制并使用备份,暂不支持跨region操作。 备份保留策略 如果删除实例,该实例的自动备份将会被同步删除。 如果开启了实例的自动备份策略,当实例的自动备份保留期结束,该实例的自动备份也将会被同步删除。 如果需要长期保留自动备份,您可以复制该自动备份生成一个手动备份,该手动备份在您删除之前将会一直保留。 如果手动备份所使用的空间超过您的默认存储空间,则可能会增加关系型数据库存储成本。 复制备份不会影响实例上的业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击实例名称,进入“基本信息”页面,在左侧导航栏,单击“备份恢复”,选择目标备份,单击操作列中的“复制”。 您也可以在左侧导航栏,单击“备份管理”,在“备份管理”页面,选择目标备份,单击操作列中的“复制”。 步骤 5 填写新备份名称和描述,单击“确定”。 备份名称的长度在4~64个字符之间,必须以字母开头,区分大小写,可以包含字母、数字、中划线或者下划线,不能包含其他特殊字符。 备份描述不能超过256个字符,不能包含回车和>!<"&'特殊字符。 步骤 6 新备份创建成功后,用户可在“备份管理”页面,查看并管理自己的备份。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据备份
        创建实例级备份
        复制备份
      • 复制参数模板
        本页介绍了天翼云关系数据库MySQL版参数模板的复制方法。 操作场景 您可以复制默认参数模板以及您自定义的模板。当您已创建一个数据库参数模板,并且想在新的数据库参数模板中包含该组中的大部分自定义参数和值时,复制参数模板是一个方便的解决方案。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 参数模板,进入参数模板列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在参数模板列表中,找到需要复制的参数模板,然后在操作 列选择更多 > 复制。 4. 在复制参数模板对话框中,填写新参数模板名和描述信息。 注意 参数模板名称的长度为1~64位,区分大小写,可包含字母、数字、中划线、下划线或句点,不能包含其他特殊字符。 描述信息不能超过255位,且不能包含回车和特殊字符 > ! < " & ' 。 5. 单击确定。 您可以在参数模板列表中看到新复制生成的参数模板。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        参数管理
        复制参数模板
      • 云审计
        本页面主要介绍天翼云关系数据库MySQL版对接的云审计服务使用和查看方法。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 字段 创建实例、创建只读、恢复到新实例 rdsCreateInstance 实例重启 rdsInstanceRestart 删除实例 rdsDeleteInstance 节点扩容 rdsGrowInstance 磁盘扩容 rdsExtendInstanceVolume 规格变更 rdsInstanceAction 数据备份 ManualCreateBackup 数据恢复 Recovery、RestoreTable 参数修改 ModifyInstanceParameter 主备切换 SwitchInstanceHA 绑定公网IP BindEIP 解绑公网IP UnBindEip
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        日志管理
        云审计
      • 相关术语解释
        说明:本章会介绍关系型数据库的相关术语解释,对常见的相关名词进行详细解答 什么是 实例 ? 关系型数据库的最小管理单元是实例,一个实例代表了一个独立运行的关系型数据库。用户可以在关系型数据库系统中自助创建及管理各种数据库引擎的实例。实例的类型、规格、引擎、版本和状态,请参考实例说明。 什么是数据库引擎? 专属云关系型数据库支持以下引擎: MySQL PostgreSQL 什么是 实例类型 ? 云数据库RDS的实例分为两个类型,即单机实例和主备实例。不同系列支持的引擎类型和实例规格不同。 各系列产品的详细介绍请参考产品类型简介和产品功能对比。 什么是 实例规格 ? 数据库实例各种规格(vCPU个数、内存(GB)、对应的数据库引擎)请参考数据库实例规格。 什么是 自动备份 ? 创建实例时,关系型数据库服务默认开启自动备份策略,实例创建成功后,您可对其进行修改,关系型数据库会服务根据您的配置,自动创建数据库实例的全量备份。 什么是 手动备份 ? 手动备份是由用户启动的数据库实例的全量备份,它会一直保存,直到用户手动删除。 什么是 区域和可用区 ? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。 什么是 项目 ? Project用于将OpenStack的资源(计算、存储和网络资源)进行分组和隔离。Project可以是一个部门或者一个项目组。一个帐户中可以创建多个Project。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        相关术语解释
      • 开启安全卫士防护
        接口功能介绍 开启服务器防护 接口约束 基础版配额服务器开启基础防护,企业版配额服务器开启企业版防护。 URI POST /v1/openStatus 路径参数 无 Query参数 无 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String ContentType application/json 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 agentGuid 是 String agentGuid testagentguid 响应参数 参数 参数类型 说明 示例 下级对象 error String 返回码 CTCSSCN000000:成功 CTCSSCN000001:失败 CTCSSCN000003:用户未签署协议,安全卫士系统无法正常使用 CTCSSCN000004:鉴权错误 CTCSSCN000005:用户没有付费版配额,功能不可用 CTCSSCN000000 message String 返回信息 success returnObj Object 返回对象 traceId String traceId 211111111111111111111 statusCode String 状态码 200成功 200 枚举参数 无 请求示例 请求url 无 请求头header {"ContentType": "application/json"} 请求体body {"agentGuid": "testagentguid"}
        来自:
        帮助文档
        服务器安全卫士(原生版)
        API参考
        API
        2022-10-20
        服务器列表
        开启安全卫士防护
      • 概述
        本章节介绍公网连接天翼云关系型数据库的流程。 本章介绍如何在管理控制台创建MicrosoftSQLServer实例,并使用弹性公网IP通过公网连接Microsoft SQL Server实例。 步骤一:创建实例。根据业务需求,确认Microsoft SQL Server实例的规格、存储、网络配置、数据库帐户配置信息等。 步骤二:设置安全组规则。从安全组外访问安全组内的关系型数据库实例时,需要为RDS所在安全组配置相应的入方向规则。 步骤三:绑定弹性公网IP。弹性公网IP提供独立的公网IP资源,包括公网IP地址和公网出口带宽服务。可以在虚拟私有云管理控制台申请弹性公网IP并将该弹性公网IP绑定至RDS实例。 步骤四:通过公网连接Microsoft SQL Server实例。
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        通过公网连接Microsoft SQL Server实例
        概述
      • 概述
        本章节会介绍公网连接天翼云关系型数据库的流程。 本章介绍如何在管理控制台创建PostgreSQL实例,并通过绑定弹性公网IP从公网连接访问PostgreSQL实例。 步骤一:创建实例。根据业务需求,确认MySQL实例的规格、存储、网络配置、数据库帐户配置信息等。 步骤二:设置安全组规则。从安全组外访问安全组内的关系型数据库实例时,需要为RDS所在安全组配置相应的入方向规则。 步骤三:绑定弹性公网IP。弹性公网IP提供独立的公网IP资源,包括公网IP地址和公网出口带宽服务。可以在虚拟私有云管理控制台申请弹性公网IP并将该弹性公网IP绑定至RDS实例。 步骤四:通过psql连接实例。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        快速入门
        通过公网连接PostgreSQL实例
        概述
      • 统计信息同步
        本页介绍天翼云TeleDB数据库统计信息同步的操作。 初始化实例 1. 通过pgxcctl新建一个双CN、双DN的实例,并开启服务。 2. 通过telesql连接到CN节点。 3. 执行sql “create default node group defaultgroup with(dn01, dn02); create sharding group to group defaultgroup;”。 创建插件 1. 通过telesql连接到CN节点。 2. 执行sql “create extension teledbxcore;” 3. 执行telesql命令dx,查看插件teledbxcore是否存在。 创建枚举类型 1. 通过telesql连接到CN节点。 2. 执行sql“create type week as enum('Sun','Mon','Tues','Wed','Thur','Fri','Sat');”。 创建表 执行sql “CREATE TABLE basictypestable ( id INT PRIMARY KEY, booleancol BOOLEAN, smallintcol SMALLINT, integercol INTEGER, bigintcol BIGINT, realcol REAL, doublecol DOUBLE PRECISION, numericcol NUMERIC(10,2), decimalcol DECIMAL(10,2), charcol CHAR(10), varcharcol VARCHAR(50), textcol TEXT, datecol DATE, timecol TIME, timestampcol TIMESTAMP, intervalcol INTERVAL, binarycol BYTEA );” 执行sql “create table duty( person text, weekday week );” 执行sql “CREATE TABLE complextest ( id serial PRIMARY KEY, complexcolumn complextype );“ 创建索引 执行sql “CREATE INDEX integerindex ON basictypestable(integercol);” 创建索引。 创建统计对象 执行sql “CREATE STATISTICS basictypesstats ON booleancol, integercol, doublecol, numericcol, charcol, timestampcolFROM basictypestable;“ 插入数据 1.执行sql “DO $$ DECLARE i INT : 1; BEGIN WHILE i < 1000 LOOP INSERT INTO basictypestable (id, booleancol, smallintcol, integercol, bigintcol, realcol, doublecol, numericcol, decimalcol, charcol, varcharcol, textcol, datecol, timecol, timestampcol, intervalcol, binarycol) VALUES ( i, CASE WHEN random() < 0.5 THEN TRUE ELSE FALSE END, trunc(random() 65536 32768)::SMALLINT, trunc(random() 2147483647)::INTEGER, trunc(random() 9223372036854775807)::BIGINT, random() 1000, random() 1000, trunc(random() 1000 random() 100) / 100, trunc(random() 1000 random() 100) / 100, substr(md5(random()::text), 1, 10), substr(md5(random()::text), 1, 50), md5(random()::text), CURRENTDATE (trunc(random() 3650) ' days')::INTERVAL, CURRENTTIME (trunc(random() 86400) ' seconds')::INTERVAL, CURRENTTIMESTAMP (trunc(random() 3650) ' days')::INTERVAL, (trunc(random() 3650) ' days')::INTERVAL, decode(md5(random()::text), 'hex') ); i : i + 1; END LOOP; END $$;”插入数据。 2.执行sql “select count() from basictypestable;”查询表内数据行数。 3.执行sql “insert into duty values('April','Sun'); insert into duty values('Harris','Mon'); insert into duty values('Dave','Wed');”插入数据。 4.执行sql “select count() from duty; “查询表内数据行数
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        统计信息同步
      • 1
      • ...
      • 30
      • 31
      • 32
      • 33
      • 34
      • ...
      • 411
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      应用托管

      一站式智算服务平台

      推荐文档

      如何充值?

      工单操作

      启动会议

      支持的监控指标

      《工业和信息化部关于进一步落实网站备案信息真实性核验工作方案(试行)》工信部电管〔2010〕64号

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号