活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      内容审核_相关内容
      • 管理测试工程
        导入测试工程 性能测试支持导入性能测试类型和JMeter类型的测试工程。 1、登录性能测试控制台,在左侧导航栏中选择“测试工程”,单击“导入工程”。 2、性能测试工程导入。 3、“工程类型”选择“测试工程”。 4、单击性能测试文件后的“选择文件”,选中json格式的工程文件,单击“导入”。 导入的工程名称不能和性能测试服务中已存在的工程同名,否则导入会失败。 5、JMeter工程导入。 说明 JMeter文件中关键信息请使用性能测试服务支持的字符。 JMeter解析的内容包括: 线程组、HTTP请求、HTTP信息头管理器、正则表达式提取器、用户参数、用户定义的变量、HTTP默认请求值、固定定时器。 暂不支持随机变量。 为保证数据导入的准确性,尽量不要使用重名变量。 JMeter脚本大小不超过5MB。 “工程类型”选择“JMeter工程”。 单击JMeter文件后的“选择文件”,选中jmx格式的工程文件,单击“导入”。 6、工程导入成功后,您可以根据业务需要参照修改和删除测试工程和管理事务请求信息修改测试工程。 查看测试工程 创建完成测试工程后,可以查看已有的测试工程。 1、登录性能测试控制台,在左侧导航栏中选择“测试工程”。 2、在搜索框输入测试工程名称,可以根据名称搜索测试工程来查看测试工程。 也可以根据下拉框来查看不同范围的测试工程。 全部:展示当前用户权限范围下所有的工程,包括子帐号创建的工程。 该用户下工程:仅展示该用户创建的工程。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        性能测试工程管理
        管理测试工程
      • 通过特权容器配置内核参数
        本节介绍了云容器引擎的最佳实践:通过特权容器配置内核参数。 前提条件 开通特权容器需要通过命令行模式连接到目标集群,所以需要先保存集群kubeconfig,并且配置好kubectl环境。 注意 修改主机的内核配置可能会对系统的稳定性和安全性产生影响,因此在进行这些操作时请谨慎考虑,并确保您具备足够的了解和经验。 后台操作流程 编写应用yaml,创建特权容器,示例如下: kind: DaemonSet apiVersion: apps/v1 metadata: name: daemonsettest labels: name: daemonsettest spec: selector: matchLabels: name: daemonsettest template: metadata: labels: name: daemonsettest spec: hostNetwork: true containers: name: daemonsettest image: nginx:alpine command: "/bin/sh" args: "c" while :; do time$(date);done imagePullPolicy: IfNotPresent lifecycle: postStart: exec: command: sysctl "w" net.ipv4.tcptwreuse1 securityContext: privileged: true imagePullSecrets: name: defaultsecret spec.spec.containers.lifecycle 字段是指容器启动后执行设置的命令;spec.spec.containers.securityContext.privileged: true是指开启特权容器。 使用以上yaml文件创建特权容器:kubectl apply f daemonsettest.yaml 执行后查看是否容器启动成功:kubectl get daemonset 当看到READY数量跟节点数量相同时,说明已经全部创建成功,则可以在当前主机执行kubectl get po grep daemonsettest 或者docker ps grep daemonsettest查找对应容器。 通过命令 docker exec it 356d0e5a831c /bin/sh 或 kubectl exec it podname bash 进入容器内部,然后执行命令sysctl a grep net.ipv4.tcptwreuse查看对应的内容是否有修改命令行终端确认修改系统参数成功。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        容器
        通过特权容器配置内核参数
      • 挂载CIFS文件系统到弹性云主机 (Windows)
        操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算>弹性云主机”,进入弹性云主机页面,找到即将执行挂载操作的云主机所在行。 3. 点击“远程登录”,使用管理控制台提供的VNC方式远程登录Windows弹性云主机。 注意 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 4. 对于Windows Server 2016以上的系统,需要配置允许客户端匿名访问,在命令行工具执行以下命令。 plaintext REG ADD HKEYLOCALMACHINESYSTEMCurrentControlSetservicesLanmanWorkstationParameters /f /v AllowInsecureGuestAuth /t REGDWORD /d 1 5. 单击桌面左下角Windows按键,选择这台电脑,右键单击“这台电脑”,选择“映射网络驱动器”。 6. 在弹出窗口中,设置“驱动器”盘符名称及文件夹(即在文件系统中看到的挂载目录),文件夹内容为文件系统的挂载地址,可在文件系统的详情页获取。勾选“登录时重新连接”可在云主机重启后自动挂载文件系统。设置完毕后单击完成。 7. 单击桌面左下角Windows按键,单击“这台电脑”,在网络位置处将出现已挂载的文件系统,此时您可以像使用一般的文件系统一样进行创建、修改删除文件,构造自己的文件系统。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        挂载文件系统
        挂载CIFS文件系统到弹性云主机 (Windows)
      • 通过自定义域名访问集群
        本节介绍了通过自定义域名访问集群的用户指南。 前提条件 已经创建了一个天翼云账号,并且有一个已经创建好的云容器引擎集群。 集群中已经部署了应用服务,并且可以通过Cluster IP或NodePort进行访问。 已经拥有一个域名,并可以对其进行DNS配置。 创建Ingress Controller 登录云容器引擎控制台,单击集群名称进入集群。 在左侧导航栏中找到网络,下拉找到路由,点击路由,点击左上角创建路由。 创建Ingress Controller。 安装完成后,可以使用kubectl命令查看Ingress Controller的服务: plaintext kubectl get services n ingressnginx 确保ingressnginxcontroller服务已经创建并在运行。 创建Ingress资源 编写Ingress资源配置文件 创建一个新的YAML文件,例如myingress.yaml,内容如下: plaintext apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: myingress namespace: default spec: rules: host: http: paths: path: / pathType: Prefix backend: service: name: port: number: 替换 为您的自定义域名, 为您的Kubernetes服务名称, 为服务的端口号。 应用Ingress资源 使用kubectl应用刚才创建的Ingress资源文件: plaintext kubectl apply f myingress.yaml 验证Ingress资源是否已创建: plaintext kubectl get ingress 配置自定义域名的DNS记录 获取Ingress Controller的外部IP 使用以下命令获取Ingress Controller的外部IP: plaintext kubectl get services n ingressnginx 记录ingressnginxcontroller服务的EXTERNALIP。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        访问集群
        通过自定义域名访问集群
      • 文件传输类
        云堡垒机的“主机网盘”是什么? 云堡垒机“主机网盘”是系统用户的个人网盘,可作为用户传输文件的“中转站”,暂存用户上传/下载的文件。 系统用户私有个人网盘空间。网盘中内容仅用户自己可见,对系统其他用户不可见。 与系统用户直接关联。用户被删除后,个人网盘中数据将被清空,个人网盘内存将被释放。 可用内存大小为系统配置的“个人网盘空间”大小。 系统所有用户的已使用个人网盘空间,不能超过系统配置的“网盘总空间”大小。 注意 不支持用户自定义个人网盘空间大小,仅能由系统管理员设置“个人网盘空间”,为系统用户分配相同大小的个人网盘空间; 不支持查询个人网盘已使用内存大小; 不支持设置定期清理,用户仅能通过手动删除文件来清理空间。 如何清理个人网盘空间? 云堡垒机“主机网盘”是系统用户的个人网盘,暂不支持设置定期清理。 管理员可通过手动删除过期或废弃的文件,来清理个人网盘空间。 删除某个用户所有的网盘空间 1 登录云堡垒机系统。 2 选择“系统 > 数据维护 > 存储配置”,进入系统存储配置管理页面。 3 展开网盘空间,即可查看设置的“个人网盘空间”和“网盘总空间”。 4 单击“详情”,进入网盘详情页面。 5 在目标网盘所在行的“操作”列,单击“删除网盘数据”,可以清理个人网盘空间。 勾选多个需要删除的网盘数据,单击“删除网盘数据”,可批量清理个人网盘数据。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        文件传输类
      • 自动化回归-用例管理
        本章节介绍如何使用自动化回归功能管理自动化测试用例 概述 自动化回归功能基于服务契约信息快速编排被测服务、管理自动化测试用例,帮助您高效管理、回归业务测试场景,完成业务快速验证和交付。 查看用例列表 在左侧导航栏,Dubbo治理 > 自动化测试用例管理。查看当前账号下的用例列表。用例列表展示了用例名称、最后一次执行时间、最后一次结束时间、最后一次执行结果等信息,如果用例较多,可以通过环境、用例名称进行筛选或搜索。 创建用例 在用例列表页面,单击创建用例按钮。 用例名称:自定义测试用例名称。 步骤名称:自定义测试步骤名称。 环境:选择一个环境。 应用:选择需要测试的应用。 框架类型:选择Dubbo框架。 服务:选择需要测试的服务。 方法:dubbo服务中对应的方法,在列表中选择一个方法,只能单选。 基本信息:支持JSON格式的参数输入方式。其中默认入参为[]。 断言(选填):输入检查对象和检查内容,选择检查条件。 出参提取(选填):输入出参名和出参提取表达式。 用例详情 在用例列表页面操作列,单击详情按钮,进入到用例详情页面。在用例详情页面可以看到用例的具体信息,单击立即执行按钮用例就会开始执行,单击访问一次按钮,对应的步骤则会执行一次。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        微服务治理
        Dubbo治理
        自动化回归-用例管理
      • 数据库使用规范
        本章节主要介绍RDSPostgreSQL数据库使用规范。 命名规范 对象名(如库、表、索引等)字符总长度小于等于63。 禁止对象名(表名、列名、函数名、视图名、序列名等对象名称)使用数据库保留字,不要以pg、数字或下划线开头,具体可参考PostgreSQL官网数据库保留字相关内容。 query语句中的别名不要使用 “小写字母,下划线,数字” 以外的字符,例如中文。 建议主键索引应以 pk 开头, 唯一索引要以 uk 开头,普通索引要以 idx 打头。 建议临时表以 tmp 开头,子表以规则结尾,例如按年分区的主表如果为tbl,则子表为tbl2016,tbl2017。 设计规范 多表中的相同列以及有JOIN需求的列,必须保证列名一致,数据类型一致。 btree索引字段不建议超过2000字节,如果有超过2000字节的字段需要建索引,建议使用函数索引(例如哈希值索引),或者使用分词索引。 使用外键时,如果你使用的RDSPostgreSQL版本没有自动建立fk的索引,则必须要对foreign key手工建立索引,否则可能影响references列的更新或删除性能。 出于全球化的考略,建议所有的字符存储与表示均以UTF8编码。 表结构设计应该预先规划,避免经常修改表结构,建议单表字段数不超过64个。 建议有定期历史数据删除需求的业务表建议分区,例如以时间分区,清理数据时建议通过DROP或者TRUNCATE操作对应的表,不要使用DELETE。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        使用规范概览
        数据库使用规范
      • 基于Dify和OpenSearch快速搭建知识库问答RAG应用
        本文通过开源Dify服务与云搜索服务的OpenSearch向量数据库与搜索大模型(支持Embedding向量化与Rerank重排序技术)快速构建智能知识问答(RAG)服务。 Dify作为一个低代码平台,将AI的强大能力整合到日常的数据流和工作流中,旨在帮助用户简化和自动化各种业务和数据处理任务。开源Dify可以将天翼云云搜索服务的OpenSearch作为向量数据库和全文检索库,通过接入外部模型的方式低代码、低成本、快速地的完成知识库问答的RAG应用。 RAG(Retrieveraugmented Generation)是一种结合了信息检索和生成的自然语言处理(NLP)技术,特别适用于需要从大量数据中检索信息并生成自然语言文本的场景。它在处理复杂任务时能够提升生成模型的性能,尤其是在模型缺乏足够上下文或知识的情况下。 RAG的优势 RAG通过检索外部知识库或数据库中的相关信息,能够在生成过程中动态地补充实时或特定领域的知识,弥补了生成模型的“知识盲区”。这使得模型能够在没有训练时直接获得的信息基础上进行更加准确的回答或内容生成。针对企业内部包含的敏感数据(如薪资标准、客户资料等)以及大量专有信息(包括产品文档、客户案例、流程手册等),RAG提供了安全的解决方案。由于这些非公开信息无法直接预置到大模型中,RAG通过外部知识调用的方式,既满足了信息需求,又确保了数据安全性。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        基于Dify和OpenSearch快速搭建知识库问答RAG应用
      • TeleDB管控服务安装部署
        该任务用于指导软件工程师安装部署teledb管控服务。 该任务用于指导软件工程师安装部署teledb管控服务。 前提条件 已初始化环境,包括创建teledb用户,挂载磁盘,并给于sudo权限。 操作步骤 本次安装以X86安装包为例: 1. 创建根目录提供给挂载盘/data使用,并给于sudo权限。 plaintext mkdir p /data mount /dev/vdb /data echo "UUID"blkid /dev/vdbcut d '"' f2" /data xfs defaults 0 0" sudo tee a /etc/fstab 2. 上传并解压安装包 plaintext cd /app 上传teledbdeployx86centos.zip和teledbxossxxxi.x8664.rpm至app目录下。 unzip teledbdeployx86centos.zip cd teledbdeployx86centos/teledbxmirror/pgxzm cp teledbxossxxxi.x8664.rpm 3. 安装dos2unix 执行如下命令 plaintext cd /app/teledbdeployx86centos/teledbxmirror/deploy/utils/ rpm ivh dos2unix6.0.34.el7.x8664.rpm 出现如下回显信息。 plaintext cd /app chmod R 755 teledbdeployx86centos chown R teledb:teledb /app 4. 修改配置文件role.info和ossinit.conf 执行如下命令修改role.info配置文件 plaintext su teledb cd /app/teledbdeployx86centos/teledbxmgr/conf vim role.info 您可按照如下模版修改配置文件内容: 需要修改的就是主机ip、ssh端口、ssh连接用户(teledb)、用户密码
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        安装部署手册
        安装过程
        TeleDB管控服务安装部署
      • 产品应用场景
        超大规模数据仓库解决方案 在面对企事业单位内部复杂业务时,往往需要购买两套不同数据库产品分别用于交易类和数据分析。TeleDB 能在一套集群分配分布式分析型架构,更高效地建设企业数仓,产品基于存算分离架构,存储容量可以无限扩展,可以管理 PB 级数据,提供并行计算(MPP)等能力,轻松完成千亿级数据分析和大模型应用扩展,产品支持链接到 MySQL、Oracle 等外部数据,或采用 DTS、DMS等进行数据实时同步,轻松对接下游大数据分析服务系统。同时,产品兼容 PostgreSQL/Greenplum/Oracle 等语法生态,大多数的 BI、商业智能、日志分析、ERP 等极少或无需改造即可上线业务。 电商/游戏 电子商务/ 游戏等互联网场景下,用户可根据业务发展情况订购对应数量的天翼云 RDS实例,无需购买昂贵的服务器、操作系统和数据库管理系统等软硬件,有效避免资源闲置浪费。且可实现弹性扩展,高可用,高安全,满足电商处理大量用户请求和交易数据的高并发场景。以便捷的运维方式,详细的实例信息和实时监控告警,让客户能随时了解实例动态。 网站/APP 数据库是网站搭建及应用程序开发的重要基础,用于存储和管理大量数据,提供数据持久化、高效访问和管理的功能,能为网站和应用程序提供动态内容和个性化服务。天翼云云数据库所具有的数据备份、恢复和安全性管理功能,能确保网站数据的安全性和一致性,避免数据丢失和泄露等风险。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品应用场景
      • 启用CDN后同名文件如何进行更新
        本文介绍启用CDN后同名文件如何进行更新。 使用天翼云CDN加速后,如果需要对同名文件进行更新,可以参照以下方法进行操作: 1. 建议源站内容不使用同名更新文件。将更新后的文件重命名为一个新的文件名,确保与原文件名称不同。例如,videov1.0.mp4、videov2.0.mp4;之后在您的网站代码或应用程序中更新链接或引用,将指向原文件的URL更改为指向更新后的文件的URL。这样,访问您的网站或应用程序时将获取到最新的文件。 2. 如果必须使用同名更新文件,可以从控制台或API接口提交刷新请求,参考控制台刷新指引:刷新,或对外API接口案例:创建刷新任务。 3. 使用CDN刷新功能后,访问的资源如没有更新,可能的原因及解决方案如下: 使用CDN刷新虽然清除了CDN缓存,但是受到浏览器缓存的影响,导致访问到旧的资源。此时可尝试清理浏览器缓存,然后刷新页面,查看资源是否更新。 源站的资源没有更新,本身就是旧的资源。可将域名直接绑定源站(通过修改本地host的方式),直接访问源站,检查源站的资源是否更新。如果资源没有更新,请更新源站的资源,再在CDN加速控制台提交刷新任务。 刷新任务没有执行完毕。可检查刷新预取任务是否执行完毕,如果没有执行完毕,建议等任务执行成功后再进行测试。
        来自:
        帮助文档
        CDN加速
        常见问题
        刷新预取
        启用CDN后同名文件如何进行更新
      • 产品使用相关问题
        为什么部分浏览器、客户端访问HTTPS提示证书校验失败 可能是因为浏览器、客户端版本较低,不支持SNI认证,查看是否支持SNI认证,可抓包查看是否携带ServerName,如下图: 域名被停用了,为什么? 当平台监测到以下几种情况时,会自动触发域名停用。 欠费 未备案或备案已过期 内容违规 如对域名停用有任何异议,可提交工单进行咨询。 域名停用后,配置会保留吗? 无论因为欠费或人工手动关停等原因导致的域名停用,域名配置会在平台保留暂时保留7天,7天内启用域名,配置将恢复。7天后配置将不会被保留,无法恢复。 如停用域名后,将域名删除,配置将无法恢复。 DDoS高防(边缘云版)开放的端口是否会给客户业务带来额外影响? 不会。DDoS高防(边缘云版)开放的端口都不会对您的业务造成影响。遍布全国的高防节点由统一控制管理,会预先设置一些端口用于客户业务接入防护和转发回源服务。每个接入高防节点流量,经过DDoS高防流量清洗后,业务流量只通过接入配置时设置的源站服务端口进行转发,任何未接入配置的访问请求是不会转发到源站服务器的,所以对您的业务、源站是不会带来任何的安全风险和威胁。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        常见问题
        功能咨询类
        产品使用相关问题
      • Flink模板管理
        基于模板新建作业 用户可以基于样例模板或者自定义模板新建作业。 1.在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Flink模板”。 2.在样例模板列表中,单击对应模板“操作”列中的“创建作业”。创建作业请参考创建Flink SQL作业、创建Flink Jar作业。 修改模板 用户创建完自定义模板后,可以根据实际需求修改自定义模板。样例模板不支持修改,但是可以查看。 1.在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Flink模板”,单击“自定义模板”页签。 2.在自定义模板列表中,选择一个需要修改的模板,单击模板名称或该模板“操作”列中的“编辑”,进入“编辑”页面。 3.在SQL语句编辑区,根据需要修改SQL语句。 4.“保存方式”选择“修改”。 5.单击右上角“保存”,保存当前模板修改的内容。 删除模板 用户可以根据需求删除不需要的自定义模板,不支持删除样例模板。模板删除后无法恢复,请谨慎操作。 1.在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Flink模板”,单击“自定义模板”页签。 2.在自定义模板列表中,勾选需要删除的模板,支持多选,单击自定义模板列表左上方的“删除”。 用户也可以在自定义模板列表中,勾选需要删除的模板,单击“操作”栏中“更多 > 删除”,删除对应的模板。 3.在弹出的删除确认窗口中,单击“是”。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业模板
        Flink模板管理
      • 术语解释
        本章节主要介绍数据湖探索(DLI)的术语解释。 租户 数据湖探索支持多个组织、部门或应用共享使用资源。通过提供一个逻辑实体来统一使用不同资源和服务,这个逻辑实体就是租户。多个不同的租户统称多租户。租户对应公司。一个租户可以创建多个子用户,并可以对不同用户授予不同权限。 项目 各个服务中的一些可以访问的资源集合称为项目。一个账号可以在一个区域下创建多个项目,并基于项目进行授权。不同项目下的资源相互隔离。项目可以是一个部门或者一个项目组。 数据库 数据湖探索中数据库的概念、基本用法与Oracle数据库基本相同,它还是数据湖探索管理权限的基础单元,赋权以数据库为单位。 在数据湖探索中,表和数据库是定义底层数据的元数据容器。表中的元数据让数据湖探索知道数据所在的位置,并指定了数据的结构,例如列名称、数据类型和表名称。数据库是表的逻辑分组。 元数据 元数据(Metadata)是用来定义数据类型的数据。主要是描述数据自身信息,包含源、大小、格式或其它数据特征。数据库字段中,元数据用于诠释数据仓库的内容。 计算资源 数据湖探索服务中的队列即为计算资源,计算资源是使用数据湖探索服务的基础,用户执行的SQL作业和Spark作业都需要使用计算资源。 存储资源 存储资源是数据湖探索服务内部存储的资源,用于存储数据库和数据湖探索表,是向数据湖探索导入数据的必备条件,体现用户数据存储在数据湖探索中的数据量。
        来自:
        帮助文档
        数据湖探索
        产品简介
        术语解释
      • 使用限制
        本节介绍了智能语音交互使用限制类问答。 语音合成服务对于文本格式是否有要求? 具体语音合成服务文本格式要求也可以参考语音合成API。 目前仅支持 base64 编码方式请求,暂不支持 url 方式请求。 一次请求仅支持一条数据。 智能语音交互产品是HTTP GET请求还是HTTP POST请求? 智能语音交互产品以API的方式提供服务,支持HTTP POST请求。 HTTP POST提供了加密传输、身份验证和授权以及请求参数验证和过滤等机制,从而可以更好的保障用户的数据安全。 智能语音交互能否提供100%识别准确率? 智能语音交互准确率与上传的文本内容质量相关,同时也存在一定概率的误差,无法做到100%识别准确率。 如您对当前使用的智能语音交互产品服务有识别准确率相关问题,您可通过提交天翼云官网工单或者拨打客服电话【4008109889转1】联系我们。 QPS不够用怎么办? 默认支持5个QPS,建议您在程序中可以进行一定的请求限制,避免收到大量限流报错。 注意:如果您的程序在失败时有重试机制,当您扩大并发量后接口返回错误码时,请不要重试,否则可能加重限流报错情况。 智能语音交互服务是否支持私有化部署? 智能语音交互支持公有云、私有化部署。 您可通过提交天翼云官网工单或者拨打客服电话【4008109889转1】沟通私有化部署相关合作。
        来自:
        帮助文档
        智能语音交互
        常见问题
        使用限制
      • 使用限制
        本章节介绍印刷文字识别(OCR) 关于使用限制、产品功能、产品性能、系统逻辑等常见问题与解答。 印刷文字识别前端展示页面对于上传的图片是否有要求? 每个API对图片大小的限制请参考API文档。 图片格式支持jpg、png、jpeg、bmp等。 印刷文字识别是HTTP GET请求还是HTTP POST请求? 印刷文字识别以API的方式提供服务,支持HTTP POST请求。 HTTP POST提供了加密传输、身份验证和授权以及请求参数验证和过滤等机制,从而可以更好的保障用户的数据安全。 印刷文字识别的请求图像放置在Http请求的哪部分? 请求图片应当放置于Http的body中,不能放置于query或者header中。 印刷文字识别的API接口是否支持单次请求多张图片? 印刷文字识别的API接口对单次请求的图片限制不一致,具体可参考【API参考】【API】具体产品(如通用型OCR)“接口要求”中的详细说明。 车牌识别支持新能源车牌吗? 支持新能源车牌。车牌识别适用于中国大陆的车牌识别服务,支持蓝牌、黄牌(单层)、新能源车牌的检测与识别,同时支持图片内有多张车牌,结构化返回车牌内容及车牌位置坐标。 OCR能否提供100%识别准确率? OCR识别无法做到100%识别准确率。如您对当前使用的OCR产品服务有识别准确率相关问题,您可拨打通过天翼云官网工单或者客服电话【4008109889转1】联系我们。
        来自:
        帮助文档
        印刷文字识别
        常见问题
        使用限制
      • 环境准备
        本文为您分布式消息服务MQTT的环境准备内容。 在创建天翼云分布式消息服务MQTT实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管MQTT实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证MQTT实例的安全性。 每个分布式消息服务MQTT实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理MQTT实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置MQTT实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: VPC与使用的天翼云分布式消息服务MQTT服务应在相同的区域。 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        环境准备
      • ALM-14009 Dead DataNode数量超过阈值
        处理步骤 查看DataNode是否故障 1.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”。 2.在“基本信息”区域,单击“NameNode(主)”,进入HDFS WebUI页面。 说明 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 3.在HDFS WebUI,单击“Datanodes”页签,在“In operation”区域,打开“Filter”下拉菜单,查看是否有“down”选项。 是,选择“down”,记录筛选出的DataNode节点的信息,执行步骤4。 否,执行步骤8。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 实例”,在实例列表中,检查已记录的DataNode节点是否存在。 所有已记录的DataNode节点都存在时,执行步骤5。 所有已记录的DataNode节点都不存在时,执行步骤6。 部分已记录的DataNode节点存在时,执行步骤7。 5.勾选对应的DataNode实例,选择“更多 > 重启实例”进行重启,重启结束后,查看本告警是否恢复。 是,处理完毕。 否,执行步骤8。 6.勾选所有的NameNode实例,选择“更多 > 滚动重启实例”进行重启,重启结束后,查看本告警是否恢复。 是,处理完毕。 否,执行步骤16。 7.勾选所有的NameNode实例,选择“更多 > 滚动重启实例”进行重启。重启完成后,勾选对应的DataNode实例,选择“更多 > 重启实例”进行重启,重启结束后,查看本告警是否恢复。 是,处理完毕。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14009 Dead DataNode数量超过阈值
      • 关于日志
        文件目录 日志内容 /var/log/Bigdata/audit 组件审计日志。 /var/log/Bigdata/controller 日志采集脚本日志。 controller进程日志。 controller监控日志。 /var/log/Bigdata/dbservice DBService日志。 /var/log/Bigdata/flume Flume日志。 /var/log/Bigdata/hbase HBase日志。 /var/log/Bigdata/hdfs HDFS日志。 /var/log/Bigdata/hive Hive日志。 /var/log/Bigdata/httpd httpd日志。 /var/log/Bigdata/hue Hue日志。 /var/log/Bigdata/kerberos Kerberos日志。 /var/log/Bigdata/ldapclient LDAP客户端日志。 /var/log/Bigdata/ldapserver LDAP服务端日志。 /var/log/Bigdata/loader Loader日志。 /var/log/Bigdata/logman logman脚本日志管理日志。 /var/log/Bigdata/mapreduce MapReduce日志。 /var/log/Bigdata/nodeagent NodeAgent日志。 /var/log/Bigdata/okerberos OMS Kerberos日志。 /var/log/Bigdata/oldapserver OMS LDAP日志。 /var/log/Bigdata/metricagent MetricAgent运行日志。 /var/log/Bigdata/omm oms:“omm”服务端的复杂事件处理日志、告警服务日志、HA日志、认证与授权管理日志和监控服务运行日志。 oma:“omm”代理端的安装运行日志。 core:“omm”代理端与“HA”进程失去响应的dump日志。 /var/log/Bigdata/spark2x Spark2x日志。 /var/log/Bigdata/sudo omm执行sudo命令产生的日志。 /var/log/Bigdata/timestamp 时间同步管理日志。 /var/log/Bigdata/tomcat Tomcat日志。 /var/log/Bigdata/watchdog Watchdog日志。 /var/log/Bigdata/yarn Yarn日志。 /var/log/Bigdata/zookeeper ZooKeeper日志。 /var/log/Bigdata/oozie Oozie日志。 /var/log/Bigdata/kafka Kafka日志。 /var/log/Bigdata/storm Storm日志。 /var/log/Bigdata/upgrade 升级OMS日志。 /var/log/Bigdata/updateservice 升级服务日志。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        日志管理
        关于日志
      • 通用类
        本章节内容主要介绍常见问题中通用类 使用文档数据库服务要注意什么? 故障切换 文档数据库实例采用多路由+多分片+副本集的部署形态,当路由主机出现故障时,可实时动态切换。副本集包含多个副本,当主节点发生故障时,系统会在30秒之内切换到备节点。 实例的弹性云主机,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 文档数据库服务使用的对象存储服务上的备份文件,对用户不可见,它们只对后台管理系统可见。 申请文档数据库服务后,您还需要做什么? 您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: 文档数据库实例的CPU、IOPS、空间是否足够,如果不够需要优化或者扩容。 文档数据库实例是否存在性能问题,是否有大量的慢查询,查询语句是否需要优化,是否有多余的索引或者索引缺失等。 什么是文档数据库实例可用性? 文档数据库实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 我的实例是否会受其他用户实例影响? 文档数据库实例不会受其他用户实例影响,因为每个用户的实例与其他用户的实例是独立的,并且有资源隔离,互不影响。 文档数据库服务支持读写分离吗? 文档数据库服务支持读写分离,它的写操作仅可以在副本集中的主节点上进行,用户通过配置实现读操作在从节点进行。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        通用类
      • 升级内核小版本
        本节介绍了升级内核小版本的相关内容。 操作场景 RDS for PostgreSQL支持手动升级内核小版本,内核小版本的升级涉及性能提升、新功能或问题修复等。 注意事项 当有对应的小版本更新时(定期同步开源社区问题、漏洞修复),请及时手动立即升级小版本。 升级数据库内核小版本会重启RDS for PostgreSQL实例,服务会出现一定时间的业务中断,中断时长和业务量相关,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 升级主实例小版本时,如有只读实例,也会同步升级只读实例的小版本,升级完成会重启实例,请您选择合适的时间升级(不支持单独升级只读实例的小版本)。 升级内核小版本后,实例会升级到新的内核小版本,无法降级。如果升级失败,将会自动回退到原版本。 升级小版本前建议先做一次全量备份。 小版本升级之前,若磁盘空间不足,请提前进行磁盘扩容。如果升级期间触发自动扩容,则两者都会失败。 容灾实例在小版本升级后,灾备实例需要重建。 RDS for PostgreSQL 12.6之前的小版本(不包含12.6版本)进行升级前,需要停止所有的逻辑复制,并删除所有的逻辑复制槽,否则小版本升级会失败。 − 查询复制槽:select from pgreplicationslots; − 删除复制槽:select pgdropreplicationslot('SLOTNAME');
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        版本升级
        升级内核小版本
      • 跟踪标记
        本节介绍了跟踪标记的相关内容。 操作场景 使用存储过程进行跟踪标记,跟踪标记的主要用途如下: 获取比较深入的RDS for SQL Server信息,如Lock Manager的各种锁定操作。 改变某些RDS for SQL Server预设定的行为,如停止查询优化器寻找执行计划的超时时间。 改变某些命令当前的行为,如终止使用查询提示。 前提条件 成功连接RDS for SQL Server实例。关于连接关系型数据库实例, 约束 执行此存储过程的必须是拥有[CREATE ANY DATABASE]权限的用户。如果不具备此权限的用户尝试执行该存储过程,系统将会如下提示: plaintext Database restores can only be performed by database logins with [CREATE ANY DATABASE] permissions. 当前版本仅支持的跟踪标记为“1117, 1118, 1204, 1211, 1222, 1224, 3604”,如果对其他标记进行操作,系统将会如下提示: plaintext Current version just open 1117, 1118, 1204, 1211, 1222, 1224, 3604 permission. 跟踪标记操作仅包括1,0,1,若出现其他操作,系统将会如下提示: plaintext Just support Open:1 Close:0 Check:1 操作步骤 执行以下命令,进行跟踪标记。 EXEC msdb.dbo.rdsdbcctrace @TraceFlag, @TraceAction; @ TraceFlag:指定跟踪标记序号,当前仅支持 1117, 1118, 1204, 1211, 1222, 1224, 3604。 @ TraceAction:指定跟踪标记操作,1为打开跟踪标记,0为关闭跟踪标记,1为查看跟踪标记。 打开跟踪标记1117,示例如下: EXEC msdb.dbo.rdsdbcctrace 1117, 1;
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        存储过程的使用
        跟踪标记
      • 全量数据恢复:按备份文件恢复
        本节介绍了全量数据恢复:按备份文件恢复的相关内容。 操作场景 关系型数据库支持使用已有的自动备份和手动备份,将实例数据恢复到备份被创建时的状态。该操作恢复的为整个实例的数据。 功能说明 表 功能说明 类别 说明 恢复范围 恢复整个实例。 恢复后实例数据 恢复后实例数据与用于恢复的全备文件中的数据一致。 恢复到新实例会为用户重新创建一个和该备份数据相同的实例。 恢复到已有实例会导致实例数据被覆盖。 恢复类型 恢复到新实例 恢复到已有实例(非原实例) 恢复到新实例各配置项 新实例的数据库引擎和数据库版本,自动与原实例相同。 存储空间大小默认和原实例相同,且必须大于或等于原实例存储空间大小。 其他参数需要重新配置。 恢复时长 恢复时长和实例的数据量有关,平均恢复速率为40MB/s。 限制条件 恢复到已有实例(非原实例)的限制: − 如果目标数据库实例已被删除,则不可恢复到已有实例。 − 恢复到已有实例会导致实例数据被覆盖,且恢复过程中实例将不可用。 − 只可选择与原实例相同VPC,相同引擎,相同版本的实例。例如:16.5版本的实例备份只能恢复到16.5版本的目标实例,无法恢复到16.6版本的目标实例。 − 请确保目标实例的存储空间大于或等于当前实例的存储空间,否则会导致任务下发失败。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据恢复
        恢复到云上PostgreSQL数据库
        全量数据恢复:按备份文件恢复
      • 升级DCS实例小版本/代理版本
        本节介绍了升级DCS实例小版本/代理版本的相关内容。 DCS会不定期升级实例小版本和代理版本,优化产品功能和修复产品缺陷,提升服务稳定性。本章节介绍如何升级已创建实例的小版本或代理版本到最新版。 升级实例小版本或代理版本不会改变实例的连接地址、访问密码、白名单配置、参数及告警配置等信息。 约束与限制 仅Redis 4.0及以上版本实例支持升级实例的小版本/代理版本。 仅Proxy集群和读写分离实例涉及代理版本(Proxy版本),其他实例类型不涉及。 如果实例已经为最新小版本/代理版本,不支持升级。 实例升级小版本时,Cluster集群请确保客户端能正常处理MOVED和ASK命令,否则会导致请求失败。 实例升级小版本或代理版本后不支持回退。 升级影响 建议在业务低峰期执行实例小版本升级。业务高峰期(如实例内存利用率、CPU利用率达到90%以上或写入流量过大)升级可能会失败,若升级失败,请在业务低峰期再次尝试升级。 实例升级小版本采用节点迁移的方式,在数据迁移过程中,访问时延会增大,每迁移一个分片会发生一次秒级闪断和一分钟以内的只读,请确保客户端应用具备重连机制和处理异常的能力。 实例升级代理版本过程中会发生秒级连接闪断,请确保客户端应用具备重连机制和处理异常的能力,建议在业务低峰期升级。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        升级DCS实例小版本/代理版本
      • C++Redis客户端(hiredis)
        本章介绍使用同一VPC内弹性云主机ECS上的C++ hiredis连接Redis实例的方法。 介绍使用同一VPC内弹性云主机ECS上的C++ hiredis连接Redis实例的方法。更多的客户端的使用方法请参考Redis客户端。 说明 本章节操作,仅适用于连接单机、主备、Proxy集群实例,如果是使用C++ Redis客户端连接Cluster集群,请参考C++ Redis客户端。 前提条件 已成功申请Redis实例,且状态为“运行中”。 已创建弹性云主机,创建弹性云主机的方法,请参见《弹性云主机用户指南》。 如果弹性云主机为Linux系统,该弹性云主机必须已经安装gcc编译环境。 操作步骤 步骤 1 查看并获取待连接Redis实例的IP地址和端口。 具体步骤请参见查看实例信息。 步骤 2 登录弹性云主机。 本章节以弹性云主机操作系统为centos为例介绍通过C++ redis客户端连接实例。 步骤 3 安装gcc、make和hiredis。 如果系统没有自带编译环境,可以使用yum方式安装。 yum install gcc make 步骤 4 下载并解压hiredis。 wget unzip master.zip 步骤 5 进入到解压目录后编译安装。 make make install 步骤 6 使用hiredis客户端连接Redis实例。 关于hiredis的使用,请参考redis官网的使用介绍。这里举一个简单的例子,介绍连接、密码鉴权等的使用。 1. 编辑连接Redis实例的demo示例,然后保存退出。 vim connRedis.c 示例内容如下:
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        C++Redis客户端(hiredis)
      • 配置OBS源端参数
        参数类型 参数名 说明 取值样例 基本参数 桶名 待迁移数据所在的桶名。 BUCKET2 基本参数 源目录或文件 “列表文件”选择为“否”时,才有该参数。 待迁移数据的目录或单个文件路径。文件路径支持输入多个文件(最多50个),默认以“l”分隔,也可以自定义文件分隔符。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 FROM/example.csv 基本参数 文件格式 文件格式指CDM以哪种格式解析数据,可选择以下格式: CSV格式:以CSV格式解析源文件,用于迁移文件到数据表的场景。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 JSON格式:以JSON格式解析源文件,一般都是用于迁移文件到数据表的场景。 CSV格式 基本参数 列表文件 当“文件格式”选择为“二进制格式”时,才有该参数。 打开列表文件功能时,支持读取OBS桶中文件(如txt文件)的内容作为待迁移文件的列表。该文件中的内容应为待迁移文件的绝对路径(不支持目录),例如直接写为如下内容: /052101/DAY20211110.data /052101/DAY20211111.data 是 基本参数 列表文件源连接 当“列表文件”选择为“是”时,才有该参数。可选择列表文件所在的OBS连接。 OBStestlink 基本参数 列表文件OBS桶 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶名。 01 基本参数 列表文件或目录 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶中的绝对路径或目录。 此处建议选择为文件的绝对路径。当选择为目录时,也支持迁移子目录中的文件,但如果目录下文件量过大,可能会导致集群内存不足。 /0521/Lists.txt 基本参数 JSON类型 当“文件格式”选择为“JSON格式”时,才有该参数。JSON文件中存储的JSON对象的类型,可以选择“JSON对象”或“JSON数组”。 JSON对象 基本参数 记录节点 当“文件格式”选择为“JSON格式”并且“JSON类型”为“JSON对象”时,才有该参数。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割。 data.list 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。当“文件格式”选择为“CSV格式”时,才有该参数。 n 高级属性 字段分隔符 文件中的字段分隔符,使用Tab键作为分隔符请输入“t”。当“文件格式”选择为“CSV格式”时,才有该参数。 , 高级属性 使用包围符 选择“是”时,包围符内的字段分隔符会被视为字符串值的一部分,目前CDM默认的包围符为:"。 否 高级属性 使用正则表达式分隔字段 选择是否使用正则表达式分隔字段,当选择“是”时,“字段分隔符”参数无效。当“文件格式”选择为“CSV格式”时,才有该参数。 是 高级属性 正则表达式 分隔字段的正则表达式。 ^(d. d) (w ) [(. )] ([w.] ) (w. ). 高级属性 首行为标题行 “文件格式”选择“CSV格式”时才有该参数。在迁移CSV文件到表时,CDM默认是全部写入,如果该参数选择“是”,CDM会将CSV文件的第一行数据作为标题行,不写入目的端的表。 否 高级属性 编码类型 文件编码类型,例如:“UTF8”或“GBK”。只有文本文件可以设置编码类型,当“文件格式”选择为“二进制格式”时,该参数值无效。 GBK 高级属性 压缩格式 当“文件格式”为“CSV格式”或“JSON格式”时该参数才显示。选择对应压缩格式的源文件: 无:表示传输所有格式的文件。 GZIP:表示只传输GZIP格式的文件。 ZIP:表示只传输ZIP格式的文件。 TAR.GZ:表示只传输TAR.GZ格式的文件。 无 高级属性 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩的文件后缀名。当一批文件中以该值为后缀时,才会执行解压缩操作,否则则保持原样传输。当输入或为空时,所有文件都会被解压。 高级属性 源文件处理方式 作业执行成功后对源端文件的处理方式: 不处理。 重命名:作业执行成功后将源文件重命名,添加用户名和时间戳的后缀。 删除:作业执行成功后将源文件删除。 不处理 高级属性 启动作业标识文件 选择是否开启作业标识文件的功能。当源端路径下存在启动作业的标识文件时才启动作业,否则会挂起等待一段时间,等待时长在下方“等待时间”中配置。 否 高级属性 标识文件名 选择开启作业标识文件的功能时,需要指定启动作业的标识文件名。指定文件后,只有在源端路径下存在该文件的情况下才会运行任务。该文件本身不会被迁移。 ok.txt 高级属性 等待时间 选择开启作业标识文件的功能时,如果源路径下不存在启动作业的标识文件,作业挂机等待的时长,当超时后任务会失败。 等待时间设置为0时,当源端路径下不存在标识文件,任务会立即失败。 单位:秒。 10 高级属性 文件分隔符 “源目录或文件”参数中如果输入的是多个文件路径,CDM使用这里配置的文件分隔符来区分各个文件,默认为 。 高级属性 过滤类型 满足过滤条件的路径或文件会被传输,该参数有“无”、“通配符”和“正则表达式”三种选择。 通配符 高级属性 目录过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 input 高级属性 文件过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录下的文件,符合过滤器规则的文件,允许进行迁移。支持配置多个文件,中间使用“,”分隔。 .csv, .txt 高级属性 时间过滤 选择“是”时,可以根据文件的修改时间,选择性的传输文件。 是 高级属性 起始时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间大于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss,90,DAY))} 表示:只迁移最近90天内的文件。 20190601 00:00:00 高级属性 终止时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间小于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss))} 表示:只迁移修改时间为当前时间以前的文件。 20190701 00:00:00 高级属性 加密方式 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 高级属性 忽略不存在原路径/文件 如果将其设为是,那么作业在源路径不存在的情况下也能成功执行。 否 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 MD5文件名后缀 “文件格式”选择“二进制格式”时,该参数才显示。 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置OBS源端参数
      • 怎样配置Linux分析工具:atop和kdump
        kdump配置方法 以EulerOS以及CentOS 7/8系列Linux产品为例: 1. 查看是否已安装kexectools。 rpm qa grep kexectools 如果没有安装,执行下面命令安装kexectools。 yum install y kexectools 2. 设置kdump开机启动。 systemctl enable kdump 3. 设置crashkernel参数,设置这个参数的目的是预留内存给捕获内核(capture kernel)。 首先查看该参数是否已经设置。 grep crashkernel /proc/cmdline 如果有显示,则表示已经设置,如果没有显示,则需要重新设置。 编辑/etc/default/grub文件,此文件通常包含如下内容: GRUBTIMEOUT5 GRUBDEFAULTsaved GRUBDISABLESUBMENUtrue GRUBTERMINALOUTPUT"console" GRUBCMDLINELINUX"crashkernelauto rd.lvm.lvrhel00/root rd.lvm.lvrhel00/swap rhgb quiet" GRUBDISABLERECOVERY"true" 在GRUBCMDLINELINUX一行添加crashkernelauto。 4. 更新grub,执行更新grub命令,使配置生效。命令如下。 grub2mkconfig o /boot/grub2/grub.cfg 5. 打开/etc/kdump.conf文件中找到“path”参数,添加以下内容。 path /var/crash 默认是保存在/var/crash目录下,如果要保存到其他目录,则改成对应的目录,例如保存在/home/kdump下,则改成: path /home/kdump 请确保指定的路径有足够的空间保存vmcore,建议剩余空间不小于物理内存(RAM)的大小,也可以保存在SAN,NFS等共享设备上。 6. 设置转存vmcore级别,查看/etc/kdump.conf文件,是否存在以下设置,如果存在则无需添加。 corecollector makedumpfile d 31 c c:表示压缩vmcore文件, d:表示过滤掉部分无效的内存数据,可以根据需要调整,一般31即可,31是由如下的值与计算而成。 zero pages 1 cache pages 2 cache private 4 user pages 8 free pages 16 7. 设置内核参数(可选)。 为了控制在哪些场景下触发kdump,内核提供了一些参数,建议设置以下参数: kernel.hardlockuppanic1 kernel.panic5 kernel.paniconoops1 kernel.softlockuppanic1 kernel.unknownnmipanic1 kernel.nmiwatchdog1 将以上配置参数写入/etc/sysctl.conf文件并保存。另外,可以选择添加如下几个参数到/etc/sysctl.conf文件中。 kernel.paniconionmi1 kernel.paniconwarn1 8. 进入天翼云控制台云主机详情页,对当前云主机进行重启,使以上配置生效。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        操作系统类(Linux)
        怎样配置Linux分析工具:atop和kdump
      • 实例服务器初始化及实例开通
        步骤6:导入sql语句至dcp库中prodtemplate配置表 1. 查找sql语句。打开dcp安装包中Readme.md文件,查找teleDBX标题的sql语句。具体内容如下: INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces, prodhostconfig, prodshow, iscontainerization, prodspecenname, prodspecendesc) VALUES (1, 10012001, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主一备,主备自动切换,企业业务生产首选 ', '企业版 ', '6.15', '["2C4G", "4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts": [{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":2,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001}, {"hostTypeName":"cn","hostType":"cn","hostDefaultNum":2,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003}, {"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL); INSERT INTO prodtemplate(prodtype, prodid, prodcode, prodenginename, prodspecdesc, prodspecname, prodversion, prodperformancespeces, prodhostconfig, prodshow, iscontainerization, prodspecenname, prodspecendesc) VALUES (1, 10012002, 'TELEDBX', 'TELEDBX', '全局事务管理器、协 调节点一主两备,支持两地三中心部署模式,达到金融级高可用 ', '灾备版 ', '6.15', '["2C4G", "4C8G","4C16G", "8C16G","8C32G","16C32G","16C64G","32C64G"]', '{"hostInsts": [{"hostTypeName":"gtm","hostType":"gtm","hostDefaultNum":3,"hostNumCanEdit":fals e,"installPath":"/data/teledbx","gtmPort":3001}, {"hostTypeName":"cn","hostType":"cn","hostDefaultNum":3,"hostNumCanEdit":false," installPath":"/data/teledbx","cnPort":3002,"cnPoolerPort":3003}, {"hostTypeName":"dn","hostType":"dn","hostDefaultNum":4,"hostNumCanEdit":false," installPath":"/data/teledbx","dnPort":3004,"dnPoolerPort":3005}]}', 0, 0, NULL, NULL); 2. 在配置库导入表数据。 执行如下命令查找prodtemplate 配置表所在目录。 ps ef grep mysqld 执行如下命令,进入sql语句所在目录。 cd /app/monitor/teledb/mysqlinstall/bin/ 执行如下命令,导入sql语句中内容。 ./mysql u root S /tmp/mysql6301.sock p 导入后,输入exit退出。 说明 这里dcp的sql导入的teledbx版本是6.14,如果你后面上传的teledbx的内核版本是6.15的 话,请把6.14改为6.15,请按照您实际版本修改。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安装部署
        安装过程
        实例服务器初始化及实例开通
      • 产品优势
        此小节介绍数据库审计的优势。 数据库安全审计提供的旁路模式数据库审计功能,可以对风险行为进行实时告警。同时,通过生成满足数据安全标准的合规报告,可以对数据库的内部违规和不正当操作进行定位追责,保障数据资产安全。 支持海量数据库协议 支持40余种协议,包括关系型协议、非关系型协议、大数据协议及其他常见协议。 支持国内外主流数据库,包括传统的数据库系统、大数据系统和Web系统等。 数据库安全分析 内置丰富的漏洞规则,在审计过程中通过规则匹配发现数据库的配置不合理项和安全漏洞,并可根据漏洞情况提供合理的安全建议和审计规则。 智能关联分析 同时提取Web业务端和数据库端的协议流量,提取出具体业务操作请求URL、POST/GET值、业务账号、原始客户端IP、MAC地址、提交参数等。通过智能自动多层关联,关联出每条SQL语句所对应URL以及其原始客户端IP地址等信息,实现追踪溯源。 双向审计 双向审计不但包含了SQL语句执行状态、返回行数、执行时长等基本信息,同时包含数据库的返回结果内容。 功能简单、易上手 采用数据库旁路部署方式是一种简单且快速上手的数据库审计部署方式,该部署方式是在数据库服务器之外设置一个独立的审计服务器,通过旁路方式捕获数据库的操作和日志信息,实现对数据库的实时监控和记录。同时方便用户快速上手,对数据库实例操作简单。
        来自:
        帮助文档
        数据库审计
        产品介绍
        产品优势
      • 在科研助手使用Dify搭建DeepSeek知识库
        本案例用于指导用户在科研助手上使用 Dify 快速搭建 DeepSeek 知识库。 概述 DeepSeekR1 DeepSeekR1 是幻方量化旗下 AI 公司深度求索(DeepSeek)研发的一款高性能推理模型。该模型使用强化学习技术进行后训练,专注于提升在数学、代码和自然语言推理等复杂任务上的表现。 DeepSeekR1 在需要逻辑推理、思维链推理和实时决策的任务中表现出色,如解决高级数学问题、生成复杂代码、解析复杂科学问题等。在类似 Codeforces 的挑战场景中获得了2029 Elo 评分;在复杂推理基准测试中,表现与 OpenAI 的 o1 模型相当。尽管总共有6710亿的庞大参数,但每次前向传递时仅激活370亿个参数,比大多数大模型更加高效的利用资源。 Dify Dify 是一站式大模型应用开发平台,降低开发门槛,集成数据管理、Prompt 工程等功能,支持多模型,可云端和本地部署,适用于智能客服、内容生成、智能助手等场景,显著提升开发效率。 当前在科研助手的社区镜像中,我们已经为您提前部署好了基于 Dify 搭建的DeepSeekR1:7B模型,方便您即刻体验,开箱即用。 前置说明 1. 该文档为在科研助手上使用 Dify 快速搭建 DeepSeek 知识库的说明; 2. 本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责。 环境准备
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用Dify搭建DeepSeek知识库
      • 消费者实例查询
        本文介绍分布式消息服务RocketMQ的消费者实例查询操作内容。 场景描述 RocketMQ显示当前在线的消费者实例有以下作用: 监控消费者状态:通过显示当前在线的消费者实例,可以实时监控消费者的状态。可以了解消费者的连接情况、消费进度和消费速率等信息,帮助及时发现消费者异常或故障,以便进行及时处理和调整。 故障排查与追踪:通过显示当前在线的消费者实例,可以帮助定位消息消费失败的原因。可以查看每个消费者实例的消费情况,包括消费的消息数量、消费延迟等信息,方便排查故障和进行问题定位。 综上所述,显示当前在线的消费者实例可以帮助监控消费者状态、故障排查等,为系统的稳定运行提供重要支持。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入消费者实例查询菜单,列出了指定集群和Broker下的消费组消费的情况。 列表展示了指定集群和指定Broker下的消费组消费的情况。 连接实例 显示该消费组,当前在线的消费者实例列表。 堆积量 显示该消费组消费指定Topic时,还有多少未消费。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理消息
        消费者实例查询
      • 媒资管理
        视频截图 在【视频截图】标签卡,可以看到该视频条目下的所有截图列表(如下图所示)。 由于云点播支持多种截图方式,因此在该标签卡下,截图会按照截图模版的属性(采样截图、时间点列表截图、雪碧图截图、WebVTT截图)分类展示。 每种截图分类会展示以下信息: 对应的截图模版名称。 对应的水印模版名称。 截图尺寸。 截图预览。 点击【预览】按钮,可以查看当前模版下的所有截图。您可以在其中选择合适的截图作为当前视频条目的封面,也可以点击图片上的【复制地址】获得该截图的地址。 删除视频条目 前提条件 已开通云点播产品。 已创建至少一个点播实例。 操作步骤 在【媒体库】页面,选择需要删除的视频条目,点击【删除】即可删除该视频条目。 您也可以勾选多个视频条目,点击工具栏浮现的【删除】按钮进行批量删除。 注意 1. 删除该视频条目将导致原始视频及相关联的转码后视频、截图文件、媒资信息等内容被一并删除,请谨慎操作。 2. 该删除操作不可逆,一旦视频条目被删除,将不会再通过其他任何方式被找回。 检索视频条目 操作步骤 在【媒体库】页面,您可以通过【点播实例】和检索框的组合,输入合适的查询条件检索视频条目。目前支持的检索条件包括: 视频条目VideoID 视频条目的原始视频名称。如未特意指定或修改,默认为上传文件的文件名。 导出媒资信息
        来自:
        帮助文档
        云点播
        用户指南
        点播模式
        媒资管理
      • 1
      • ...
      • 104
      • 105
      • 106
      • 107
      • 108
      • ...
      • 148
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      一站式智算服务平台

      知识库问答

      动作活体识别

      通用型OCR

      车牌识别

      推荐文档

      云课堂 第五课:CC攻击介绍及如何防御

      修改描述

      篡改告警

      创建生产者

      操作手册

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号