活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云文件储存_相关内容
      • 个人实名认证变更
        本文主要讲述了个人实名认证变更规则及操作流程。 原实名认证为个人类型的账号,可变更为其他个人或升级为企业账号。适用于通过大陆居民身份证认证的个人账号变更,非身份认证的账号的变更请通过工单申请。 修改个人认证 即原个人类型的账号更为其他个人账号,实名主体发生变更。 推荐通过天翼云APP修改个人认证,更加便捷。 变更规则 实名认证变更生效(审批通过)之前,原实名认证主体信息仍然有效。 实名认证变更开始到变更生效(审批通过)期间,产生的欠费和新购的资源归属于变更后的主体。 实名认证变更开始到审批驳回期间,产生的欠费和新购的资源归属于原主体。 操作步骤 1、登录天翼云官网,点击“我的已实名认证”快速进入实名认证页面。 2、选择“修改个人认证”。 3、阅读实名认证变更影响,并点击确认。 4、使用天翼云APP或手机微信扫描弹窗二维码,进入身份证认证流程。 5、根据手机端页面提示,选择“个人用户个人身份证认证”,上传本人身份证(变更后主体),并进行活体验证,完成实名认证。 升级为企业认证 即原个人类型的账号更为企业账号,实名主体发生变更。
        来自:
        帮助文档
        账号中心
        操作指南
        实名认证
        个人实名认证变更
      • 权限模型
        本章节主要介绍权限模型。 基于角色的权限控制 FusionInsight通过采用RBAC(rolebased access control,基于角色的权限控制)方式对大数据系统进行权限管理,将系统中各组件零散的权限管理功能集中呈现和管理,对普通用户屏蔽掉了内部的权限管理细节,对管理员简化了权限管理的操作方法,提升权限管理的易用性和用户体验。 FusionInsight权限模型由“用户-用户组-角色-权限”四类对象构成。 权限模型 权限 由组件侧定义,允许访问组件某个资源的能力。不同组件针对自己的资源,有不同的权限。 例如: −HDFS针对文件资源权限,有读、写、执行等权限。 −HBase针对表资源权限,有创建、读、写等权限。 角色 组件权限的一个集合,一个角色可以包含多个组件的多个权限,不同的角色也可以拥有同一个组件的同一个资源的权限。 用户组 用户的集合,当用户组关联某个或者多个角色后,该用户组内的用户就将拥有这些角色所定义的组件权限。 不同用户组可以关联同一个角色,一个用户组也可以不关联任何角色,该用户组原则上将不具有任何组件资源的权限。 说明 部分组件针对特定的默认用户组,系统默认赋予了部分权限。 用户 系统的访问者,每个用户的权限由该用户关联的用户组和角色所对应的权限构成,用户需要加入用户组或者关联角色来获得对应的权限。 基于策略的权限控制 Ranger组件通过PBAC(policybased access control,基于策略的权限控制)方式进行权限管理,可对HDFS、Hive、HBase等组件进行更加细粒度的数据访问控制。 说明 组件同时只支持一种权限控制机制,当组件启用Ranger权限控制策略后,通过FusionInsight Manager创建的角色中关于该组件的权限将失效(HDFS与Yarn的组件ACL规则仍将生效),用户需通过Ranger管理界面添加策略进行资源的赋权。 Ranger的权限模型由多条权限策略组成,权限策略主要由以下几方面组成: 资源 组件所提供的可由用户访问的对象,例如HDFS的文件或文件夹、Yarn中的队列、Hive中的数据库/表/列等。 用户 系统的访问者,每个用户的权限由该用户关联的策略来获得。LDAP中的用户、用户组、角色信息会周期性的同步至Ranger。 权限 策略中针对资源可配置各种访问条件,例如文件的读写,具体可以配置允许条件、拒绝条件以及例外条件等。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        权限模型
      • 权限管理
        本章介绍如何通过IAM创建用户并授权的方法。 创建用户并授权使用SMS 本章节为您介绍对IAM用户授权的方法。 管理员帐号拥有SMS迁移所需要的所有权限,使用管理员帐号进行迁移时,不需要进行授权。如果您需要对您所拥有的SMS进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的天翼云帐号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用SMS。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将SMS委托给更专业、高效的其他天翼云帐号或者云服务,这些帐号或者云服务可以根据权限进行代运维。 前提条件 给用户组授权之前,请您了解用户组可以添加的SMS权限,并结合实际需求进行选择,SMS支持的系统权限,请参见:SMS系统权限。若您需要对除SMS之外的其它服务授权,IAM支持服务的所有权限请参见权限策略。 示例流程 操作步骤 1. 创建用户组并授权: 1. 系统策略:如果IAM用户需要主机迁移服务(SMS)的所有操作权限,则为IAM用户授予系统策略。在IAM控制台创建用户组,并授予“SMS FullAccess”、"OBS OperateAccess"、“ECS FullAccess”、“VPC FullAccess”。 2. 自定义策略:如果IAM用户只需要拥有主机迁移服务(SMS)的部分操作权限,则使用自定义策略。自定义策略相比于系统策略,粒度更细,更安全。 2. 创建用户并加入用户组,在IAM控制台创建用户,并将其加入步骤1中创建的用户组。 3. 用户登录并验证权限,新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择“迁移>主机迁移服务”,进入主机迁移服务界面,在迁移服务器列表页面找到待迁移的服务器,在“目的端”列下单击“设置目的端”,设置目的端服务器。若可以设置目的端服务器,表示授予的权限已生效。 在“服务列表”中选择除主机迁移服务和依赖服务外的任一服务,若提示权限不足,表示授予的权限已生效。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        权限管理
      • Pod异常问题排查
        系统自动添加的污点 对应含义 可能原因 处理方法 node.kubernetes.io/notready 节点未准备好,处于NotReady状态。 1、节点上kubelet进程异常。 2、节点主机状态异常,如:关机、hang死。 登录主机检查kubelet进程是否异常,有无错误日志。 node.kubernetes.io/unreachable 节点控制器访问不到节点,相当于节点状况Ready 的值为Unknown。 1、节点上kubelet进程异常 2、master节点到异常节点之间主机网络异常 1、登录主机检查kubelet进程是否异常,有无错误日志。 2、排查异常节点到master节点直接的主机网络。 node.kubernetes.io/memorypressure 节点存在内存压力。 节点上Pod进程和主机进程占用了较多内存,内存使用率较高。 1、调整工作负载副本数,删除或减少不必要的Pod。2、根据自身业务情况,调整Pod对应工作负载的CPU、内存资源的requests值和limits值。 3、在集群中扩容新的节点。 node.kubernetes.io/diskpressure 节点存在磁盘压力。 节点上Pod进程和主机进程占用了较多的磁盘空间,磁盘空间不足。 1、清理主机上不再需要的大文件,如不再需要的镜像文件、日志文件等。 2、新增磁盘挂载或扩容磁盘。 3、在集群中扩容新的节点。 node.kubernetes.io/pidpressure 节点存在PID压力。 节点上Pod进程和主机进程占用了较多的Pid,进程数过多导致可分配Pid不足。 1、尽量避免在k8s节点对应的主机上运行业务程序。 2、调整工作负载副本数,删除或减少不必要的Pod。 3、在集群中扩容新的节点。 node.kubernetes.io/networkunavailable 节点网络不可用。 节点上网络插件Pod异常。 检查该节点上的网络插件Pod状态和Pod日志。 node.kubernetes.io/unschedulable 节点不可调度。 节点被驱逐。 检查是否人为将该节点设置为驱逐,可通过执行kubectl uncordon <nodeName>恢复。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        工作负载
        Pod异常问题排查
      • 备份功能简介
        备份方式 DRDS的备份方式包括快速备份和一致性备份,具体说明如下: 快速备份:仅保证单个RDS层面的数据一致性,不保证全局一致性。 一致性备份:面对分库分表的场景,保证全局数据一致性。 备份内容 DRDS的备份由数据备份、日志备份和元数据备份组成,具体说明如下: 说明 通过数据备份、日志备份和元数据备份,您可以快速恢复任意时间点的数据。 数据备份:复用底层关联的MySQL的备份能力,直接对数据文件进行备份。 日志备份:复用底层关联的MySQL的备份能力,对日志文件进行备份。 元数据备份:对实例的元数据进行备份。 注意 创建或删除逻辑库、逻辑库分片变更等影响元数据的重要操作,会自动触发元数据备份。 备份清理 DRDS的备份清理包括自动清理和手动清理两种方案,具体说明如下: 自动备份清理:按照备份策略清理,每天会自动清理不在备份保留天数内的备份文件。 手动备份清理:您可以在DRDS控制台页面手动删除手动备份数据。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        备份与恢复
        备份
        备份功能简介
      • DLI Flink Job
        参数 是否必选 说明 作业类型 是 选择“Flink自定义作业”。 jar包路径 是 用户自定义的程序包。在选择程序包之前,您需要将对应的jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考 入口类 是 指定加载的Jar包类名,如KafkaMessageStreaming。 默认:根据Jar包文件的Manifest文件指定。 指定:需要输入类名并确定类参数列表(参数间用空格分隔)。 说明 当类属于某个包时,需携带包路径,例如:packagePath.KafkaMessageStreaming。 入口参数 是 指定类的参数列表,参数之间使用空格分隔。 DLI队列 是 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 作业特性 否 选择自定义镜像和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfile将作业运行需要的依赖(文件、jar包或者软件)打包到镜像中,生成自己的自定义镜像,然后将镜像发布到SWR(容器镜像服务)中,最后在此选择自己生成的镜像,运行作业。自定义镜像可以改变Spark作业和Flink作业的容器运行环境。用户可以将一些私有能力内置到自定义镜像中,从而增强作业的功能、性能。 CUs 是 一个CU是1核4G的资源配置。 管理节点CU数量 是 设置管理单元的CU数,支持设置1~4个CU数,默认值为1个CU。 并发数 是 并发数是指同时运行Flink SQL作业的任务数。 说明 并发数不能大于计算单元(CUs1)的4倍。 异常自动启动 否 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 作业名称 是 填写DLI Flink作业的名称,只能包含英文字母、数字、“”,且长度为1~64个字符。默认与节点的名称一致。 作业名称添加工作空间前缀 否 设置是否为创建的作业添加工作空间前缀。 节点名称 是 节点名称,可以包含中文、英文字母、数字、“”、“”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        节点参考
        DLI Flink Job
      • 配置事件分类规则
        导出事件分类规则 1. 登录日志审计(原生版)控制台。 2. 在左侧导航栏选择“风险分析 > 事件策略 > 事件分类规则”。 3. 手动勾选需要导出的事件分类规则,点击“导出”按钮,可自动下载规则json文件到本地。 导入事件分类规则 1. 登录日志审计(原生版)控制台。 2. 在左侧导航栏选择“风险分析 > 事件策略 > 事件分类规则”。 3. 点击“导入”按钮。 4. 配置重复数据导入策略,选择需要上传的json文件。 重复数据导入策略支持覆盖和跳过: 覆盖:如果导入解析规则系统已经存在,则覆盖已有策略。 跳过:如果导入解析规则系统已经存在,则保留原有策略,不进行导入。 5. 单击“提交”完成导入。 相关操作 规则配置完成后,在规则列表,支持查询规则、查看规则详情、编辑规则、删除规则。 说明 内置规则不支持修改、删除。 查询规则:在查询栏中,填写需要查询的条件,点击搜索图标,列表展示过滤后的规则。 查看规则详情:单击规则列表操作列的“查看”按钮,进入事件分类规则的详情界面。 修改规则:单击规则列表操作列的“修改”按钮,弹出编辑界面,修改事件分类规则。 删除规则:勾选需要删除的规则,单击规则列表右上方的“删除”按钮,在弹出的提示框中,单击“确定”。
        来自:
        帮助文档
        日志审计(原生版)
        用户指南
        风险分析
        事件策略
        配置事件分类规则
      • 告警日志
        本章节为您介绍告警日志的相关内容 当系统检测到违反安全策略或预定义规则的行为时,会生成对应等级的告警日志 ,以警示用户可能面临的安全隐患。 为了增强查询的便捷性和效率 ,系统还支持根据时间、特定字段、告警等级以及规则名称等多种条件进行精确筛选 ,确保用户能够迅速定位并处理潜在的安全风险。 检索告警日志 1.在左侧菜单栏选择“查询分析 > 告警日志”进入告警日志页面。 2.设置查询条件(如时间范围、资产、操 作类型等) ,单击“搜索”即可查询相关告警日志。 3.可单击查询条件下方的“更多条件”,在更多条件对话框中勾选需要的查询条件 ,单击“确认”即可添 加相应的查询条件 ,单击“恢复默认”可以恢复至默认查询条件。 查看告警日志详情 1.在左侧菜单栏选择“查询分析 > 告警日志”进入告警日志页面。 2.在告警日志列表中,单击日志条目右侧的“详情”可以查看该告警记录的详细信息,包括告警记录的基本信息、客户端信息、服务端信息、 请求详情、返回详情。 3.单击告警日志详情窗口右下角的“上一条”或“下一条”可切换查看临近的告警日志。 4.在日志详细中 ,单击“取证”即可弹出下载框 ,等待文件生成成功后 ,单击“下载”即可下载.png 图片格式的告警日志详情文件。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        查询分析
        告警日志
      • 如何添加子账号
        本文介绍添加子账号的操作步骤。 背景信息 一般情况下,客户只需一个天翼云账号即可管理在天翼云上购买的视频直播资源。如果存在需要为企业内部的员工设置不同的访问权限,以达到不同员工之间权限隔离的效果,则可以使用天翼云CDN+统一身份认证服务(CDN+ Identity and Access Management,简称CDN+IAM)进行精细的权限管理。本文主要介绍相关操作步骤。 操作步骤 步骤一:登录CDN+IAM平台 1. 平台登录入口:天翼云CDN+IAM。 2. 进入账号登录界面,请单击【其他登录方式】里的第一个图标,如下图所示。 3. 随即自动跳转到天翼云账号登录界面,输入官网账号和密码后,单击【登录】。 步骤二:创建子账号。 1. 选择右上角【我的工作区】中的【系统内置工作区】。 2. 在【工作区管理】页面中,单击左侧菜单中的【子用户管理】,并单击页面中的【新增】。 3. 输入子用户基本信息,并单击【确定添加】。 步骤三:为子账号配置权限。 1. 在【工作区管理】页面中,单击左侧菜单中【角色管理】,并在【角色所属服务】中搜索【直播控制台】,单击对应角色中的【管理】按钮,如下图所示。 2. 单击页面中的【备选成员】,并在对应成员中单击【授权】。 3. 在【工作区管理】页面中,单击左侧导航栏中的【子用户管理】,并在对应子账号的操作栏中单击【配置权限】。 4. 单击【备选角色】菜单,增加【CDN参与者】和【直播参与者】权限。 步骤四:子账号登录控制台。 配置子账号后,单击进入天翼云CDN+IAM,并输入子账号和密码,登录控制台页面。
        来自:
        帮助文档
        视频直播
        最佳实践
        如何添加子账号
      • 入门准备
        需求确认 客户联系专属客户经理或者拨打天翼云客服电话4008109889或者点击新建业务需求单下单,客户经理与客户确定项目需求,最终确定项目配置方案和交付时间,并完成下单。 环境勘测 一体机安装对客环境要求包括:机房环境(空间、电力、散热等)、网络环境(网段分配)、公网ip、运维通道、安防等。具体需求确定后,进行现场工勘并提供工勘报告。 交付验收 天翼云公司完成项目设计、软硬件集成、测试验收系列工作后,输出网络集成规范、系统集成方案、测试用例等,并现场上电、通网、现场系统测试、系统交付检查。最后由客户进行智算一体机全方位验收,验收通过后即进入计费周期,客户可以开始进行大模型训练或者推理。
        来自:
        帮助文档
        智算一体机
        快速入门
        入门准备
      • 通过界面升级大版本
        查看升级检查报告和升级报告 当升级检查失败或升级失败时,可通过升级检查报告或升级报告来分析失败的原因,步骤如下: 1. 查看“pgupgradeinternal.log”。 “pgupgradeinternal.log”为升级检查报告或升级报告的主要日志文件,当操作失败,首先查看该文件内容,查看相关报错。常见的报错如下: − A list of problem libraries is in the file: loadablelibraries.txt 存在高版本不兼容的插件,插件列表记录在“loadablelibraries.txt”文件中。 − A list of tables with the problem is in the file: tableswithoids.txt 建表时声明了WITH OIDS,该声明在PostgreSQL 12或以上版本不支持,相关表被记录在“tableswithoids.txt”文件中。 − Consult the last few lines of "pgupgradeserver.log" for the probable cause of failure. 升级检查时,高版本启动失败,具体原因在“pgupgradeserver.log”报告项中查看。 − Consult the last few lines of "pgupgradedumpxxxx.log" for the probable cause of failure. 升级过程中,pgdump失败,具体原因在“pgupgradedumpxxxx.log”报告项中查看。 2. 根据“pgupgradeinternal.log”中的信息,在对应的报告项中分析原因。 − loadablelibraries.txt 展示不兼容的library,通常对应了不兼容的插件。排查“loadablelibraries.txt”中列出的插件,根据实际需要进行评估是否删除,建议在不影响业务稳定的情况下删除后升级。 − tableswithoids.txt 展示声明了WITH OIDS的表清单。排查“tableswithoids.txt”中列出的表,评估业务代码中是否对OID有依赖,确认不影响业务之后,执行以下SQL: plaintext ALTER TABLE {tablename} SET WITHOUT OIDS; − pgupgradeserver.log 查看“pgupgradeserver.log”的最后几行信息,如果存在如下报错,则说明高版本中不存在xxx插件,根据实际业务,评估可删除xxx插件,并在sharedpreloadlibraries中删除xxx,建议在不影响业务稳定的情况下删除后升级。 plaintext FATLA: could not access file "xxx": No such file or directory. 示例: plaintext FATLA: could not access file "pgpathman": No such file or directory. − pgupgradedumpxxxx.log 查看“pgupgradedumpxxxx.log”最后几行信息,如果存在如下报错,则说明当前实例中表的数量过多,按照提示需适当增加maxlockspertransaction参数值,并重新升级。 plaintext pgdump: error: query failed: ERROR: out of shared memory HINT: You might need to increase maxlockspertransaction. pgdump:error: query was: LOCK TABLE "xxx"."xxx" IN ACCESSSHARE MODE 查看“pgupgradedumpxxxx.log”最后几行信息,如果存在如下报错,是因为当前实例中存在插件pglddldeploy,该插件高低版本不兼容,导致升级失败。请根据升级插件限制说明排查实例中是否存在其他不兼容的三方插件(部分三方插件的兼容性无法通过升级检查识别出来),根据实际需要进行评估是否删除,建议在不影响业务稳定的情况下删除后升级。 plaintext pgrestore: error: could not execute query: ERROR: could not find function "xxx" in file xxx Command was: CREATE FUNCTION "pglddldeploy"."xxx"
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        版本升级
        通过界面升级大版本
      • 到期与欠费
        本节主要介绍到期与欠费 在API网关实例资源将要到期或欠费时,天翼云会以邮件的方式通知客户,如用户需继续使用,则可联系客户经理执行续费操作或自行在控制台进行续订。如果用户未执行续费操作,天翼云将发送资源超期提醒邮件,并在之后释放API网关实例资源。 从包周期API网关到期或按需用户发生欠费时算起,资源将进入15天冻结期,超过冻结期后,资源将被删除回收,资源删除后用户数据不可恢复。 欠费后,可以查看欠费详情。为防止相关资源不被停止或者释放,请您及时进行充值,帐号将进入欠费状态,需要在约定时间内支付欠款。
        来自:
        帮助文档
        API网关
        计费说明
        到期与欠费
      • 如何申请增加容量配额?
        1、登录天翼云官网,点击右上角”我的>工单管理>新建工单“。 2、在”配额类“点击”提问“,进入配额相关页面,点击”配额申请“,按页面要求填写工单信息即可。
        来自:
        帮助文档
        海量文件服务 OceanFS
        常见问题
        操作类
        如何申请增加容量配额?
      • 创建数据集
        本文介绍如何在科研助手中创建数据集。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【数据存储】。 3. 在【数据存储】弹出的选项中,选择【数据集管理】。 4. 在【数据集管理】页面中切换至【个人数据集】,点击左上角的【创建数据集】按钮。 5. 在弹出的【创建数据集 】页面中,存储类型选择【文件存储 】或【对象存储】,配置参数,具体如下表所示: 参数 说明 是否必选 名称 输入作业名称。要求如下:长度范围为4~63个字符。名称由小写字母、数字、中划线()组成。以小写字母开头。以小写字母或数字结尾。 是 资源池 在选择资源池类型后,再选择资源池。 是 存储类型 选择【文件存储】或【对象存储】。 是 选择存储源 选择已有的且状态为可用的存储源作为数据集的挂载存储源,如果还未创建存储源,可单击“新建存储源”进行创建。 是 存储容量 数据集的存储容量大小,要求输入为数字,可选单位为Gi/Ti。 是 访问模式 目前仅支持ReadWriteMany的访问模式。 是 6. 创建数据集页面如下,配置名称和资源池,根据存储类型,选择对应的存储源。配置确认无误后,点击右下角的【确认】,即可完成数据集的创建。
        来自:
        帮助文档
        科研助手
        用户指南
        数据存储
        数据集管理
        创建数据集
      • 安全类
        早期通过OOS产线开通的账号密码有效期多久? 为了防止长期使用的账号密码被泄露,OOS会扫描用户密码创建时间是否超过1年,超过后通过OOS的控制台地址(仅限早期通过OOS产线侧开通的账号)登录时,会强制用户进行密码重置,在重置密码时会新增邮件验证码。完成重置密码后,可成功登录控制台进行使用。如果邮箱无法接收验证码,可以去天翼云注册账号,然后联系对应的客户经理/客服,和OOS侧的账号做绑定,后续可以通过天翼云官网登录并跳转到OOS控制台进行使用。
        来自:
        帮助文档
        对象存储(经典版)I型
        常见问题
        安全类
      • 记录数据迁移入库时间
        本章节主要介绍记录数据迁移入库时间。 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 创建表/文件迁移作业 1.在创建表/文件迁移作业时,选择已创建的源端连接器、目的端连接器。 图 配置作业 2.单击“下一步”,进入“字段映射”配置页面后,单击源字段图标。 图 配置字段映射 3.选择“自定义字段”页签,填写字段名称及字段值后单击“确认”按钮,例如: 名称:InputTime。 值:${timestamp()},更多时间宏变量请参见下表。 图 添加字段 表 时间变量宏定义具体展示 宏变量 含义 实际显示效果 ${dateformat(yyyyMMdd)} 以yyyyMMdd格式返回当前时间。 20171016 ${dateformat(yyyy/MM/dd)} 以yyyy/MM/dd格式返回当前时间。 2017/10/16 ${dateformat(yyyyMMdd HH:mm:ss)} 以yyyyMMdd HH:mm:ss格式返回当前时间。 20171016 09:00:00 ${dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} 以yyyyMMdd HH:mm:ss格式返回时间,时间为当前时间的前一天。 20171015 09:00:00 ${timestamp()} 返回当前时间的时间戳,即1970年1月1日(00:00:00 GMT)到当前时间的毫秒数。 1508115600000 ${timestamp(10, MINUTE)} 返回当前时间点10分钟前的时间戳。 1508115000000 ${timestamp(dateformat(yyyyMMdd))} 返回今天0点的时间戳。 1508083200000 ${timestamp(dateformat(yyyyMMdd,1,DAY))} 返回昨天0点的时间戳。 1507996800000 ${timestamp(dateformat(yyyyMMddHH))} 返回当前整小时的时间戳。 1508115600000 说明 添加完字段后,新增的字段在界面不显示样值,不会影响字段值的传输,CDM会将字段值直接写入目的端。 这里“添加字段”中“自定义字段”的功能,要求源端连接器为JDBC连接器、HBase连接器、MongoDB连接器、ElasticSearch连接器、Kafka连接器,或者目的端为HBase连接器。 4.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。这里保持默认值“1”。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入数据前需要先配置好OBS连接。这里保持默认值“否”即可,不记录脏数据。 作业运行完是否删除:这里保持默认值“不删除”。 5.单击“保存并运行”,回到作业管理的表/文件迁移界面,在作业管理界面可查看作业执行进度和结果。 6.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        记录数据迁移入库时间
      • 实例类
        物理机的主机名带后缀“novalocal”,这正常吗? 正常。 当创建物理机时,Linux物理机的主机名是通过Cloudinit注入的用户自定义名称来确定的。在某些情况下,查询物理机的主机名可能会带有后缀 ".novalocal",而其他情况下则不带此后缀。这是因为不同的发行版本和操作系统在Cloudinit的实现方式上存在差异,导致主机名的呈现方式可能会有所不同。因此,带有 ".novalocal" 后缀的主机名是一种正常现象,并且不会对物理机的正常运行产生影响。 如何监控物理机的各类指标? 您可以使用云监控服务来监控物理机的各类指标。以下是监控物理机的方式: 1. 物理机监控页签查看监控指标:天翼云提供的公共镜像均已安装Agent插件,使用平台提供的公共镜像创建物理机后,您可以在物理机监控页签快速查看物理机的不同指标:包括 CPU 使用率、内存利用率、磁盘空间、网络流量等。 2. 云监控面板管理监控数据:您可以通过云监控服务的控制台或API来查看物理机的监控数据。您可以实时监控各项指标的数值,并根据设定的阈值接收警报通知。 详细的安装指导以及所支持的监控指标请参见:使用主机监控。
        来自:
        帮助文档
        物理机 DPS
        常见问题
        实例类
      • 查看路径分析报告
        前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 已创建路径分析实例,并执行过分析操作 操作步骤 1. 登录控制中心,进入网络控制台页面。 2. 在控制中心页面左上角选择对应区域,本文我们选择庆阳2。 3. 在左侧导航栏,选择“路径分析”选项,进入路径分析列表页。 4. 在路径分析列表页面,选定要查询的路径分析实例,进入路径分析详情页。 5. 在路径分析详情页面,选定要查看的历史分析报告,点击“查看分析报告”按钮,即可查看对应路径分析报告。
        来自:
        帮助文档
        虚拟私有云 VPC
        路径分析
        查看路径分析报告
      • 创建工作流
        方法二:使用YAML编辑 通过编写简洁且易读的YAML配置文件来定义和管理工作流。 shell specVersion: '0.8' version: '1.0' name: test start: Hello states: name: Hello type: Operation actions: functionRef: type: Noop transition: nextState: InvokeFunction name: InvokeFunction type: Operation metadata: {} stateDataFilter: {} actions: retryRef: [] catchRef: [] functionRef: type: cf:InvokeFunction arguments: functionName: pytest qualifier: LATEST invocationType: sync body: '' regionId: bb9fdb42056f11eda1610242ac110002 actionExecuteMode: RequestComplete end: true 重要参数说明 type : 节点操作类型。cf:InvokeFunction 表示调用函数。 functionName: 函数名称。 qualifier: 函数版本或别名。 invocationType: 函数调用方式。 body: 函数调用的Payload信息。 regionId: 函数所在的地域ID。 编辑流程 流程创建完成后,您可以根据界面提示编辑流程、删除流程和查看流程等。本章节重点介绍编辑流程的操作步骤。 1. 登录云工作流控制台 登录 云工作流控制台,然后在顶部菜单栏选择地域。 2. 进入工作流列表 在 工作流列表 页面,单击目标工作流。 3. 编辑工作流 在工作流详情页面的右上角,单击 编辑工作流,然后选择编辑方式: CloudFlow Studio编辑: 根据需要增删任务状态或编辑任务状态的基本配置、输入配置、输出配置或错误处理。 依次单击 保存 和 退出。 YAML编辑: 修改流程定义。 依次单击 保存 和 退出。 您也可以在右侧图表区域预览流程图。 其他操作 如果需要修改流程的描述或配置执行流程使用的角色,单击上方的 工作流配置 ,修改完成后依次单击 保存 和 退出。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        创建工作流
      • Kubectl常用命令参考
        设置命令 label 更新资源上的标签: kubectl label pods mypod newlabelnewlabel annotate 更新资源上的注释: kubectl label pods mypod iconurl completion 用于实现kubectl工具自动补全。 其他命令 apiversions 打印受支持的api版本: kubectl apiversions apiresources 打印支持的api资源: kubectl apiresources config 修改kubeconfig文件:用于访问api,比如配置认证信息。 help 所有命令帮助。 version 打印客户端和服务版本信息。 kubectl version
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        kubectl访问集群
        Kubectl常用命令参考
      • 通过密钥轮转加强密钥使用的安全性
        非对称密钥版本 非对称密钥不支持自动轮转,需人工创建新的密钥版本,版本创建后立即生效。 非对称的用于主密钥没有主版本(PrimaryKeyVersion)的概念,因此使用非对称密码运算的接口除需指定用户主密钥标志符(或别名)之外,还需指定密钥版本。 操作步骤 设置自动轮转(对称密钥) 1. 登录密钥管理服务控制台。 2. 在页面最上方的导航栏的资源池下拉列表,选择密钥所在的区域; 3. 在左侧导航栏,单击密钥管理服务,进入密钥列表; 4. 定位待设置的对称密钥,点击密钥ID,进入密钥详情页; 5. 在密钥版本区域,点击设置轮转策略; 6. 在设置轮转策略对话框,选择轮转周期,30天、90天、180天,或自定义天数; 7. 设置了自动轮转策略后,将显示密钥下次轮转时间。点击确定完成设置;
        来自:
        帮助文档
        密钥管理
        最佳实践
        通过密钥轮转加强密钥使用的安全性
      • 智算一体机服务协议
        天翼云息壤智算一体机服务协议
        来自:
        帮助文档
        智算一体机
        相关协议
        智算一体机服务协议
      • 账号名找回
        本文主要介绍忘记账号名该如何找回。 当用户忘记账号名时,可通过账号登录页面点击“忘记账号”进行账号名找回。 操作流程 1、进入天翼云官网,在账号登录页面点击右下角的“忘记账号”。 2、选择找回方式,根据提示操作,完成账号名找回。 方式一:通过个人信息找回 (1)填写天翼云账号个人实名认证信息:姓名、身份证号。 (2)进行人脸识别,验证身份。 (3)通过后页面显示该身份证下认证的账号信息。 方式二:通过企业信息找回 (1)填写天翼云账号企业认证信息:企业名称、信用代码/组织机构代码,及申诉原因。 (2)输入法人姓名、法人身份证号。 (3)进行法人的人脸识别,验证身份。 (4)通过后页面显示该企业证件下认证的账号信息。 说明 仅针对完成实名认证的账号,才支持找回账号名。
        来自:
        帮助文档
        账号中心
        操作指南
        安全信息管理
        账号名找回
      • 操作流程
        本页为其他云MySQL迁移到RDS for MySQL的具体操作流程。 1、购买DTS迁移实例 购买实例入口请参考订购数据迁移实例文档。 其他云MySQL迁移到RDS for MySQL的相关配置为: 在订购页面,实例类型选择"数据迁移",网络接入类型选择"公网EIP",数据库类型选择"MySQL",目标库实例请选择需要将数据迁移至该库的RDS for MySQL实例,完成页面信息的选择和设置后,完成迁移实例的购买。 2、配置实例 开通实例后,在【数据迁移】实例列表页面中,实例处于“待配置”状态,先点击“绑定弹性IP”按钮完成公网弹性IP的绑定,然后再点击该实例操作列的“实例配置”按钮。 3、配置源库及目标库信息 进入实例配置页面的第一步,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 还可以选择连接方式为 SSL安全连接 ,此时需要上传正确的证书文件。 完成上述信息的填写后可以进行数据库的连接测试,测试数据库能否正常连接。 4、选择迁移对象 所有信息填写正确后,点击检测连通性并下一步按钮,进入配置同步对象及高级配置页面,选择要迁移的源库对象。 各配置及说明如下: 配置 说明 任务步骤 如果只需要进行全量迁移,请同时勾选库表结构迁移和全量迁移 。 如果需要进行不停机迁移,请同时勾选库表结构迁移 、全量迁移和增量迁移 。 注意: 如果未选择增量迁移,为保障数据一致性和任务正常运行,数据迁移期间请勿在源实例中执行DML和DDL操作。 迁移对象 当前源库为MySQL的情况下,支持表、视图、函数、存储过程四种类型对象的迁移。 在迁移对象框中单击待迁移的对象,然后单击>将其移动到已选择对象框。已选择对象可以通过单击 <将对象回退。 选择迁移对象时,如不展开库的详细信息,则表示整库迁移,后续在增量任务过程中,可在源库创建新表,其他类型暂不支持。 映射名称更改 支持库表列三级名称映射,如需更改单个迁移对象在目标实例中的库名、表名和列名,选择对象,然后点击编辑按钮。 如需批量更改迁移对象在目标实例中的库名、表名,请单击已选择对象方框右上方的“批量编辑”。 过滤待迁移数据 支持设置where条件过滤数据,过滤条件不允许;和字符,如需使用引号,请使用单引号('),只有满足where条件的数据才会迁移到目标库。 增量同步的DML 选择增量同步DML操作,选中迁移对象,点击“编辑”,在弹跳框中选择所需增量迁移的DML操作。若在数据库级别和表级别都指定了DML操作,则表级别的设置会覆盖库级别的。 增量同步的DDL 增量同步的DDL操作仅支持CREATE INDEX、DROP INDEX、ALTER TABLE和DROP TABLE,如果是整库迁移或同步,支持CREATE TABLE。 是否定时开始任务 同步任务可在指定的时间启动。 注意 若迁移任务仅包含结构迁移和全量迁移,支持列映射名称更改,若迁移任务包含增量迁移,不允许列映射名称更改。 库表名仅支持字母、数字和下划线,长度不超过64个字符。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云MySQL迁移到RDS for MySQL
        操作流程
      • 下载并安装SQL Server
        SQL Server 2016安装步骤 以下安装方法以SQL Server 2016安装为例,云主机操作系统为Windows Server 2012 数据中心版 R2 64位。 1. 点击下载好的“SQLServer2016SSEIEval.exe”文件,进入SQL安装向导,进行安装操作。 2. 选择“自定义”安装,等待安装程序准备完毕。 3. 选择安装的语言,以及安装目录,点击“安装”。等待安装程序下载,下载完毕后自动进入SQL Server安装中心。 4. 点击左侧的“安装”导航栏,选择第一个选项,即“全新SQL Server独立安装或向现有安装添加功能”。 5. 选择“指定可用版本”,采用免费镜像模式进行安装。(若要正式搭建Sharepoint,需要输入密钥安装SQL Server完整版本。)点击“下一步”。 6. 勾选“我接受许可条款和隐私声明”。点击“下一步”。 7. 如果需要使用Microsoft Update更新则勾选。如果不需要则不用勾选。点击“下一步”。 8. 勾选“全选”,选择安装全部功能后,取消勾选“针对外部数据的PolyBase查询服务”、R服务(数据库内)”以及“R Server(独立)”功能。该云主机为域控制器,PolyBase无法在域控制器中使用,因此取消该选项。点击“下一步”。 9. 勾选“默认实例”。使用默认值来配置实例,不需要任何修改。点击“下一步”。 10. 设置SQL server Configuration。 修改“SQL Server 数据库引擎”的“账户名”为“NT AUTHORITYNETWORK SERVICE”。 设置“SQL Server Analysis Services”为Windows Server添加AD,DHCP,DNS,IIS服务中设置的域账户和密码。详细步骤参见:为Windows Server添加AD,DHCP,DNS,IIS服务。 设置完毕之后点击“下一步”。 11. 勾选“Windows身份验证模式”,点击“添加当前用户”,将当前账号作为SQL Server的管理员账号。点击“下一步”。 12. 勾选“多维和数据挖掘模式”。点击“添加当前用户”,为当前账号添加Analysis Services的管理员权限。点击“下一步”。 13. 设置Reporting Services,在Reporting Services本机模式中,勾选“安装和配置”,在Reporting Services SharePoint集成模式下,勾选“仅安装”。单击“下一步”。 14. 点击“添加当前用户”,为当前账号添加Distributed Replay 控制器的权限。点击“下一步”。 15. Distributed Replay客户端设施使用默认值,不修改。点击“下一步”。 16. 确认SQL Server配置,点击“安装”开始安装。 17. 检查功能状态是否全部成功,如果全部成功,点击“关闭”,SQL Server安装完成。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        数据库相关最佳实践
        下载并安装SQL Server
      • 连接未开启SASL的Kafka实例
        命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 步骤 1 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中, [kafkatar] 表示命令行工具的压缩包名称。 例如: tar zxf kafka2.122.7.2.tgz 步骤 2 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 步骤 3 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist {连接地址} topic {Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。如果Kafka实例开启了自动创建Topic功能,此参数值可以填写已创建的Topic名称,也可以填写未创建的Topic名称。 本文以公网连接为例,获取的Kafka实例公网连接地址为“10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094”。执行完命令后输入内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9094,10.78.42.127:9094,10.4.49.103:9094 topic topicdemo >Hello >DMS >Kafka! >^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 步骤 4 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver {连接地址} topic {Topic名称} group ${消费组名称} frombeginning 参数说明如下: 连接地址:从前提条件中获取的连接地址,如果是公网访问,请使用“公网连接地址”,如果是VPC内访问,请使用“内网连接地址”,请根据实际情况选择。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败 。 消费组名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka实例
        连接未开启SASL的Kafka实例
      • 备份迁移
        本节主要介绍备份迁移 备份迁移场景最后一个备份文件选择错误该如何处理 备份迁移过程中,根据选择“最后一个备份文件”来判断是否为最后一次备份,对于人工操作中不可控的误选择,有以下两种情况及处理方法: 选择“是”,但原本期望为否,即仍然希望继续做增量备份迁移。但由于SQL Server本身的设计,数据库一旦收到还原已完成的信号,便会做一系列的内部工作并把数据库置为可用,已无法继续增量备份迁移。此时,只能删除备份数据库重新进行全量+增量的备份还原。 选择“否”,但原本期望为是,即不希望继续恢复增量备份迁移。其实SQL Server没有严格意义上的的最后一个备份文件,此时可以再做一个增量备份(即使没有数据改变也可以备份),在该次增量备份时选择“是”即可完成迁移,相关数据库将会变为可用。 手动配置信息 操作场景 目前从本地或虚拟机通过DRS备份迁移功能直接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。一个用户通常会有多个该类型账号,用户迁移到RDS for SQL Server实例后,需要手动将自己本地的Login账号同步在实例上进行创建,以下方法将介绍如何在本云RDS for SQL Server实例上创建同名,同密码的Login账号,并进行授权操作。 步骤 1 通过以下脚本获取本地实例Login账号创建脚本,获取到的脚本可以直接在目标端上执行,以创建同名,同密码的Login账号。 SELECT 'IF (SUSERID('+QUOTENAME(SP.name,'''')+') IS NULL) BEGIN CREATE LOGIN ' +QUOTENAME(SP.name)+ CASE WHEN SP.typedesc 'SQLLOGIN' THEN ' WITH PASSWORD ' +CONVERT(NVARCHAR(MAX),SL.passwordhash,1)+ ' HASHED,SID' +CONVERT(NVARCHAR(MAX),SP.SID,1)+',CHECKEXPIRATION ' CASE WHEN SL.isexpirationchecked 1 THEN 'ON' ELSE 'OFF' END +', CHECKPOLICY ' +CASE WHEN SL.ispolicychecked 1 THEN 'ON,' ELSE 'OFF,' END ELSE ' FROM WINDOWS WITH' END ' DEFAULTDATABASE[' +SP.defaultdatabasename+ '], DEFAULTLANGUAGE[' +SP.defaultlanguagename+ '] END;' as CreateLogin FROM sys.serverprincipals AS SP LEFT JOIN sys.sqllogins AS SL ON SP.principalid SL.principalid WHERE SP.type 'S' AND SP.name NOT LIKE '
        来自:
        帮助文档
        数据库复制
        常见问题
        备份迁移
      • ALM-12014 设备分区丢失
        本章节主要介绍ALM12014 设备分区丢失。 告警解释 系统按60秒周期进行扫描,如果检测到挂载服务目录的设备分区丢失(如由于设备拔出、设备离线、删除分区等原因)时,产生此告警。 此告警需要手动恢复。 告警属性 告警ID 告警级别 是否自动清除 12014 重要 否 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 挂载目录名 产生告警的挂载目录名。 设备分区名 产生告警的设备分区名。 对系统的影响 造成服务数据无法写入,业务系统运行不正常。 可能原因 硬盘被拔出 硬盘离线、硬盘坏道等故障。 处理步骤 1. 打开FusionInsight Manager页面,选择“运维 > 告警 > 告警”,单击此告警所在行的。 2. 从“定位信息”中获取“主机名”、“设备分区名”和“挂载目录名”。 3. 确认“主机名”节点的“设备分区名”对应的磁盘是否在对应服务器的插槽上。 是,执行步骤4。 否,执行步骤5。 4. 联系硬件工程师将故障磁盘在线拔出。 5. 以root用户登录发生告警的“主机名”节点,检查“/etc/fstab”文件中是否包含“挂载目录名”的行。 是,执行步骤6。 否,执行步骤7。 6. 执行vi /etc/fstab命令编辑文件,将包含“挂载目录名”的行删除。 7. 联系硬件工程师插入全新磁盘,具体操作请参考对应型号的硬件产品文档,如果原来故障的磁盘是RAID,那么请按照对应RAID卡的配置方法配置RAID。 8. 等待20~30分钟后执行mount命令(具体时间依赖磁盘的大小),检查磁盘是否已经挂载在目录“挂载目录名”上。 是,手动清除该告警,操作结束。 否,执行步骤9。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12014 设备分区丢失
      • Linux任务配置
        本节为您介绍云迁移服务CMS服务器迁移中Linux迁移任务相关配置。 自定义分区 根据源机分区自动初始化目标机分区配置,用户可自定义修改。 说明 存储容量修改建议:若需调整分区可通过查看源机分区与平台处查看源机分区查看迁移源信息,参照迁移源文件系统类型,挂载点,分区类型等信息进行目标机分区大小调整操作。具体请参见 1. 单点击“添加目标机分区”新增分区,分区类型包含标准分区、扩展分区、逻辑分区和LVM分区。 2. 您也可以按需进行“管理分区类型”、“管理LVM”、“查看源机分区”、“重置”。
        来自:
        帮助文档
        云迁移服务CMS
        快速入门
        服务器迁移服务模块
        迁移任务配置与开始全量迁移
        Linux任务配置
      • 创建告警监控规则
        本章节将为您详细介绍创建告警规则的步骤。 云监控支持灵活的创建告警规则。您既可以根据实际需要对某个监控指标设置自定义告警规则,同时也能够使用告警模板为多个资源或者云服务批量创建告警规则。 说明 目前仅支持监控“一类节点”区域的实例。 数据库审计支持的区域请参见支持的区域。 操作步骤 1. 登录天翼云控制中心。 2. 在产品服务列表中“管理与部署 > 云监控服务”,进入云监控服务主页面。 3. 在左侧导航栏,选择“云服务监控”,单击“数据库审计”产品。 4. 在数据库审计监控列表中选择目标实例,单击操作列的“创建告警规则”。 5. 在“创建告警规则”页面,根据界面提示配置参数。 配置参数及相关含义说明如下: 模块 参数 参数说明 配置示例 选择监控对象 规则类型 选择规则的类型,主要包括指标监控、事件监控、站点监控、自定义监控、自定义事件五种。 指标监控 选择监控对象 服务 配置告警规则监控的云服务资源类型。 数据库审计 选择监控对象 维度 用于指定告警规则对应指标的维度名称。 数据库审计实例 选择监控对象 监控对象类型 具体实例/资源分组/全部资源 具体实例 选择监控对象 监控对象 用来配置该告警规则针对的具体资源,可以是一个或多个。 实例名称 定义告警策略 选择类型 支持自定义创建 、从模板导入。 自定义创建 定义告警策略 策略 支持选择满足全部 或任意策略。 策略信息包括: 监控指标,支持的监控指标请参见[实例支持的监控指标](
        来自:
        帮助文档
        数据库审计
        用户指南
        实例管理
        使用云监控服务监控数据库审计实例
        创建告警监控规则
      • 推流地址生成规则
        本文介绍视频直播加速服务中推流地址的生成规则。 前提条件 已开通视频直播服务。 已添加推流域名,详细信息请参见添加加速域名。 已配置CNAME。 推流地址生成规则 生成规则 天翼云视频直播支持RTMP(S)格式的直播推流,对应推流地址的生成规则如下所示: RTMP(S)格式:rtmp(s)://推流域名/AppName/StreamName 字段 说明 推流域名 在直播控制台添加的推流域名。 AppName 发布点,即直播的应用名,是指直播流媒体文件的存放路径。默认为“live”,可根据实际需要自定义。AppName支持大小写字母、数字、下划线和中划线。 StreamName 流名,通常与域名和发布点一起唯一标识一路流。StreamName支持大小写字母、数字、下划线和中划线。 示例 假设推流域名为"push.ctyun.cn"、AppName为"live"、StreamName为"ctyun1",则推流地址为:rtmp(s)://push.ctyun.cn/live/ctyun1 说明 如果需要在推流URL中携带相应的鉴权参数,请参见URL鉴权。 您可以在地址生成器中生成URL示例,详细信息请参见地址生成器。
        来自:
        帮助文档
        视频直播
        快速入门
        推流地址生成规则
      • GDS实践指南
        本章节主要介绍GDS最佳实践。 安装GDS前必需确认GDS所在服务器环境的系统参数是否和数据库集群的系统参数一致。 GDS与DWS通信要求物理网络畅通,尽量使用万兆网。因为千兆网无法承载高速的数据传输压力,极易出现断连,使用千兆网时DWS无法提供通信保障。满足万兆网的同时,要求数据磁盘组I/O性能大于GDS单核处理能力上限(约400MB/s),才能保证单文件导入速率最大化。 提前做好服务部署规划,数据服务器上,建议一个Raid只布1~2个GDS。GDS跟DN的数据比例建议在1:3至1:6之间。一台加载机的GDS进程不宜部署太多,千兆网卡部署1个GDS进程即可,万兆网卡机器建议部署不大于4个进程。 提前对GDS导入导出的数据目录做好层次划分,避免一个数据目录包含过多的文件,并及时清理过期文件。 合理规划目标数据库的字符集,强烈建议使用UTF8作为数据库的字符集,不建议使用sqlascii编码,因为极易引起混合编码问题。GDS导出时保证外表的字符集和客户端字符集一致即可,导入时保证客户端编码,数据文件内容编码和客户端一致。 如果存在无法变更数据库,客户端,外表字符集时,可以尝试使用iconv命令进行手动转换。 注意 f 表示源文件的字符集,t为目标字符集 iconv f utf8 t gbk utf8.txt o gbk.txt 关于GDS导入实践可参考“导入数据最佳实践”章节中的“使用GDS导入数据”。 GDS支持CSV、TEXT、FIXED三种格式,缺省为TEXT格式。不支持二进制格式,但是可以使用encode/decode函数处理二进制类型。例如: 对二进制表导出: 创建表。 CREATE TABLE blobtypet1 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet1( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ) WRITE ONLY; INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO blobtypet1 VALUES(E'xDEADBEEF'); INSERT INTO fblobtypet1 select encode(BTCOL,'base64') from blobtypet1; 对二进制表导入: 创建表。 CREATE TABLE blobtypet2 ( BTCOL BYTEA ) DISTRIBUTE BY REPLICATION; 创建外表 CREATE FOREIGN TABLE fblobtypet2( BTCOL text ) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:7789/fblobtypet1.dat.0', FORMAT 'text', DELIMITER E'x08', NULL '', EOL '0x0a' ); insert into blobtypet2 select decode(BTCOL,'base64') from fblobtypet2; SELECT FROM blobtypet2; btcol xdeadbeef xdeadbeef xdeadbeef xdeadbeef (4 rows) 对同一张外表重复导出会覆盖之前的文件,因此不要对同一个外表重复导出。 若不确定文件是否为标准的csv格式,推荐将quote参数设置为0x07,0x08或0x1b等不可见字符来进行GDS导入导出,避免文件格式问题导致任务失败。 CREATE FOREIGN TABLE foreignHRstaffSft1 ( MANAGERID NUMBER(6), sectionID NUMBER(4) ) SERVER gsmppserver OPTIONS (location 'file:///inputdata/', format 'csv', mode 'private', quote '0x07', delimiter ',') WITH errHRstaffSft1; GDS支持并发导入导出,gds t参数用于设置gds的工作线程池大小,控制并发场景下同时工作的工作线程数且不会加速单个sql任务。gds t缺省值为8,上限值为200。在使用管道功能进行导入导出时,t参数应不低于业务并发数。 GDS外表参数delimiter是多字符时,建议TEXT格式下字符不要完全相同,例如不建议使用delimiter ''。 GDS多表并行导入同一个文件提升导入性能(仅支持text和csv文件)。 创建目标表。 CREATE TABLE pipegdswidetb1 (city integer, telnum varchar(16), cardcode varchar(15), phonecode vcreate table pipegdswidetb3 (city integer, telnum varchar(16), cardcode varchar(15), phonecode varchar(16), regioncode varchar(6), stationid varchar(10), tmsi varchar(20), recdate integer(6), rectime integer(6), rectype numeric(2), switchid varchar(15), attachcity varchar(6), opc varchar(20), dpc varchar(20)); 创建带有filesequence字段的外表。 CREATE FOREIGN TABLE gdspipcsvr1( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '51'); CREATE FOREIGN TABLE gdspipcsvr2( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '52'); CREATE FOREIGN TABLE gdspipcsvr3( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '53'); CREATE FOREIGN TABLE gdspipcsvr4( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '54'); CREATE FOREIGN TABLE gdspipcsvr5( like pipegdswidetb1) SERVER gsmppserver OPTIONS (LOCATION 'gsfs://127.0.0.1:8781/widetb.txt', FORMAT 'text', DELIMITER E'+', NULL '', filesequence '55'); 将widetb.txt并发导入到pipegdswidetb1。 parallel on INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr1; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr2; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr3; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr4; INSERT INTO pipegdswidetb1 SELECT FROM gdspipcsvr5; parallel off filesequence参数详细内容,可参考《开发指南》中的“CREATE FOREIGN TABLE (GDS导入导出)”。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        GDS实践指南
      • 1
      • ...
      • 232
      • 233
      • 234
      • 235
      • 236
      • ...
      • 560
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      推荐文档

      如何修改账号的密码?

      特惠专区

      普通连接

      产品功能

      产品定义

      管理

      云课堂 第二十课:巧用天翼云盘备份云主机数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号