云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      关系数据库SQL Server版_相关内容
      • 任务搜索
        本节为您介绍数据库迁移工具提供订阅任务搜索功能。 数据库迁移工具提供订阅任务搜索功能,用户可根据ID、任务名称、状态、任务时间、是否异常筛选出想要查看的迁移任务,查询条件之间是并且的关系。 ID 基于ID列的精确查询条件 名称 基于任务名称列的模糊查询条件 状态 基于状态列的下拉选项精确查询条件 时间 基于启动时间列的时间段精确查询条件 异常任务 该搜索条件支持搜索表有延迟、堆积的任务
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据同步
        数据订阅
        任务搜索
      • 攻击防御功能概述
        sectionc62bffa22a7004b3)。 功能名称 功能描述 检测类型 配置方式 基础防御 内置的规则库,覆盖常见网络攻击,为您的资产提供基础的防护能力。 检查威胁及漏洞扫描; 检测流量中是否含有网络钓鱼、特洛伊木马、蠕虫、黑客工具、间谍软件、密码攻击、漏洞攻击、SQL注入攻击、XSS跨站脚本攻击、Web攻击; 是否存在协议异常、缓冲区溢出、访问控制、可疑DNS活动及其它可疑行为。 查看和修改规则库请参见修改入侵防御规则的防护动作 虚拟补丁 在网络层级为IPS提供热补丁,实时拦截高危漏洞的远程攻击行为,同时避免修复漏洞时造成业务中断。 更新的规则优先进入虚拟补丁库中,您可以根据业务情况判断是否增加至基础防御库中。 增加方式:打开开关,虚拟补丁中的规则将生效,实时防护并支持手动修改防护动作。 检查威胁及漏洞扫描; 检测流量中是否含有网络钓鱼、特洛伊木马、蠕虫、黑客工具、间谍软件、密码攻击、漏洞攻击、SQL注入攻击、XSS跨站脚本攻击、Web攻击; 是否存在协议异常、缓冲区溢出、访问控制、可疑DNS活动及其它可疑行为。 查看和修改规则库请参见修改入侵防御规则的防护动作 自定义IPS特征(仅专业版支持) 提供的规则库无法满足需求时,支持自定义特征规则。 检测类型和“基础防御”一致。 支持添加HTTP、TCP、UDP、POP3、SMTP、FTP协议类型的特征规则。 请参见自定义IPS特征 敏感目录扫描防御:防御对云主机敏感目录的扫描攻击,配置方式请参见[开启敏感目录扫描防御](
        来自:
        帮助文档
        云防火墙
        用户指南
        拦截恶意攻击
        攻击防御功能概述
      • 以Jeager方式接入
        在监控Node.js应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍了如何通过Jaeger将Node.js应用接入APM。 前提条件 完成vpce接入。 接入步骤 1.引入相关依赖。 2.查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3.server 端上报示例。 请将url和token替换成第2步中获取的接入点信息。 编写以下 server 端代码,保存为 nodejsdemoserverjaeger.js 文件 plaintext // nodejsdemoserverjaeger.js const initTracer  require('jaegerclient').initTracer const config  {   serviceName: 'nodejsdemoserverjaeger',   sampler: {     type: 'const',     param: 1,   },   reporter: {     logSpans: true,     collectorEndpoint: ' ',     username: 'apm',     password: ' ',   }, } const tracer  initTracer(config) const express  require('express') const app  express() const port  3000 const { opentracing }  require('jaegerclient') app.all('', (req, res, next) > {   req.span  tracer.startSpan('httpserver', {     tags: {       [opentracing.Tags.HTTPMETHOD]: req.method,       [opentracing.Tags.HTTPURL]: req.url,       [opentracing.Tags.SPANKIND]: opentracing.Tags.SPANKINDRPCSERVER,     },   })   next() }) app.get('/', (req, res) > {   console.log('received request')   const span  req.span   span.log({     event: 'timestamp',     value: Date.now(),   })   span.finish()   res.send('Hello World!') }) app.listen(port, () > {   console.log(server running at  }) 运行 server 端代码。 4.client端上报示例。 编写以下 client 端代码,保存为 nodejsdemoclientjaeger.js 文件 plaintext // nodejsdemoclientjaeger.js import('nodefetch').then(async ({ default: fetch }) > {   const response  await fetch('   const data  await response.text()   console.log(data) }) 运行 client 端代码。 5.通过以上步骤即可在控制台查看接入的Node.js应用。
        来自:
      • 添加增强高速网卡
        后续任务: 物理机无法识别新添加的增强高速网卡,需要参考配置增强高速网卡(SUSE Linux Enterprise Server 12系列)、配置增强高速网卡(SUSE Linux Enterprise Server 11系列)、配置增强高速网卡(RedHat系列,CentOS系列,Oracle Linux系列,Euler系列)、配置增强高速网卡(Ubuntu系列)、配置增强高速网卡(Windows Server系列)手动激活网卡。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        增强高速网络
        添加增强高速网卡
      • 巡检评分
        扣分项 含义 扣分子项 条件 分数计算规则 内存使用率(memUsage) 一天的平均内存使用率。 严重事件 memUsage>90% min[3 + (memUsage0.9)50, 10] 内存使用率(memUsage) 一天的平均内存使用率。 警告事件 80%<memUsage<90% 1+(memUsage0.8)20 CPU使用率(cpuUsage) 一天的CPU平均使用率。 说明 多核CPU需要换算为单核进行计算。 严重事件 cpuUsage>80% min[3+(cpuUsage0.8)30,10] CPU使用率(cpuUsage) 一天的CPU平均使用率。 说明 多核CPU需要换算为单核进行计算。 警告事件 70%<cpuUsage<80% 1+(cpuUsage0.7)20 空间使用率(spaceUsage) (已使用空间的平均值/总空间)100%。 严重事件 spaceUsage > 90% min[3+(spaceUsage0.9)40,10] 空间使用率(spaceUsage) (已使用空间的平均值/总空间)100%。 警告事件 70%<spaceUsage<90% 1+(spaceUsage0.7)20 连接使用率(connectionRate) 一天内连接数的平均值/最大允许的连接数。 严重事件 connectionRate>80% 3 连接使用率(connectionRate) 一天内连接数的平均值/最大允许的连接数。 警告事件 70%<connectionRate<80% 1 IOPS使用率(iopsUsage) (一天内IOPS的平均值/最大允许IOPS值)100%。 严重事件 iopsUsage>90% 5 IOPS使用率(iopsUsage) (一天内IOPS的平均值/最大允许IOPS值)100%。 警告事件 70%<iopsUsage<90% 3 活跃会话(threadRunning) 一天内产生的活跃会话的个数。 严重事件 threadRunning>min(4cpuCores+8,96) 9 活跃会话(threadRunning) 一天内产生的活跃会话的个数。 警告事件 threadRunning>min(2cpuCores+8,64) 3 慢SQL数量(slowSqlCount) 一天内产生的慢SQL的总条数。 严重事件 slowSqlCount>500 18+(slowSqlCount10)/30 慢SQL数量(slowSqlCount) 一天内产生的慢SQL的总条数。 警告事件 100<slowSqlCount<500 4+(slowSqlCount100)/30 慢SQL数量(slowSqlCount) 一天内产生的慢SQL的总条数。 优化事件 0
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        MySQL
        巡检评分
      • 访问控制
        本章节介绍如何对DRDS实例进行访问控制 操作场景 当前创建DRDS实例时,DRDS默认支持负载均衡(个别没有负载均衡能力的局点除外)。当业务通过控制台提供的内网地址连接DRDS时,默认不限制访问的IP地址,即此时安全组是失效的,需要通过“访问控制”功能来做访问的安全控制。若直连DRDS节点,安全组依然有效。 操作步骤 1、登录分布式关系型数据库控制台。 2、选择“实例管理 > 实例名称 > 基本信息页 > 网络信息”,单击打开“访问控制”的开关。 3、单击“设置”,弹出“修改访问控制”弹框,,输对应名单的IP地址,单击“确定”。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        访问控制
      • 术语解释
        本节介绍了DDoS高防(边缘云版)常见术语及其解释。 CNAME记录 CNAME ( Canonical Name ),即别名,用于把一个域名解析到另一个域名,当DNS系统在查询CNAME 左面的名称的时候,都会转向CNAME右面的名称再进行查询,一直追踪到最后的PTR或A名称,成功查询后才会做出回应,否则失败。例如,您有一台服务器,使用docs.cytun.cn访问,您又希望通过documents.ctyun.cn也能访问该服务器,那么就需要在您的DNS解析服务商添加一条CNAME记录,将documents.ctyun.cn指向docs.cytun.cn,添加该条CNAME记录后,所有访问documents.ctyun.cn的请求都会被转到docs.cytun.cn,获得相同的内容。 CNAME域名 控制台添加完域名后,您会得到一个给您分配的CNAME域名(该CNAME域名假如是. ctyun.cn), 您需要在您的DNS解析服务商添加CNAME记录,将自己的域名指向这个. ctyun.cn的CNAME域名,这样该域名所有的请求才会都将转向天翼云清洗的节点,达到清洗效果。 DNS DNS即Domain Name System,是域名解析服务的意思。它在互联网的作用是:把域名转换成为网络可以识别的ip地址。人们习惯记忆域名,但机器间互相只认IP地址,域名与IP地址存在对应关系,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。 常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        术语解释
      • 通过表级时间点恢复备份
        说明:本章节会介绍如何通过表级时间点恢复备份 操作场景 为了保证数据的完整性,以及降低对原实例的性能影响,在进行表级时间点恢复备份时,首先将选中时间点的全量数据和增量数据在后台恢复至一个临时实例,然后自动导出用户需要恢复的表,再将这些表恢复至原实例。由于需要对实例的所有数据进行备份及恢复操作,对于数据量较大的实例,所需时间较长,请耐心等待。通过表级时间点恢复备份,将不会导致实例数据被覆盖,您可以根据需要恢复库表。 前提条件 由于该操作会在源实例上新生成恢复后的库表,请确保您的源实例磁盘空间充足。 操作步骤 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 对于MySQL引擎,在左侧导航栏,单击“备份恢复”,在“全量备份”子页签下,单击“更多”,在下拉框中单击“表级时间点恢复”。在“binlog备份”子页签下,单击“表级时间点恢复”。 填选恢复日期、可恢复的时间区间、要恢复到的时间点和选择恢复库表,单击“下一步:确认恢复信息”。 为了方便您操作,所需恢复的数据库和表名支持搜索。 系统会自动生成以时间戳为后缀的库表名,如果需要,您也可以自定义恢复后的库表名。 表名不能重复且满足:名称长度在1~64个字符之间,只能包含字母、数字、下划线、中划线或$,不能包含其他特殊字符并且不能与同库下的数据库名重命。 表级时间点恢复功能暂不支持库名带“.”字符的数据库恢复。 在“表级时间点恢复信息确认”页面,信息确认无误后,单击“立即恢复”。 在“实例管理”页面,可查看该实例状态为“恢复中”,恢复过程中该实例业务不中断。 同时,您可在“任务中心”页面,查看“表级时间点恢复”任务的执行进度及结果。 恢复成功后,您可根据实际情况对表进行数据处理。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        备份与恢复
        通过表级时间点恢复备份
      • 配置MongoDB/DDS源端参数
        参数名 说明 取值样例 数据库名称 选择待迁移的数据库。 mongodb 集合名称 相当于关系数据库的表名。单击输入框后面的按钮可进入选择集合名的界面,用户也可以直接输入集合名称。 如果选择界面没有待选择的表,请确认表是否已经创建,或者对应连接里的帐号是否有元数据查询的权限。 COLLECTION 查询筛选 创建用于匹配文档的筛选条件,CDM只迁移符合条件的数据。例如: 1. 按表达式对象筛选:例如{'lastname': 'Smith'},表示查找所有“lastname”属性值为“Smith”的文档。 2. 按参数选项筛选:例如{ x : "john" }, { z : 1 },表示查找xjohn的所有z字段。 3. 按条件筛选:例如{ "field" : {gt: 5 } },表示查找field字段中大于5的值。 4. 按时间宏筛选:例如 {"ts":{gte:ISODate("${dateformat(yyyyMMdd'T'HH:mm:ss.SSS'Z',1,HOUR)}")}},表示查找ts字段中大于 时间宏转换后的值。 {'lastname': 'Smith'}
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置MongoDB/DDS源端参数
      • 以Jeager方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍采用Jaeger SDK方式上报go应用的链路数据,具体如下。 前提条件 完成vpce接入。 接入步骤 1. 引入go依赖包。 plaintext import ( "github.com/opentracing/opentracinggo" "github.com/uber/jaegerclientgo" "github.com/uber/jaegerclientgo/transport" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化Jaeger SDK。 注意 需将token和endpoint替换成相应地域的接入点信息。 plaintext func NewJaegerTracer(service string) opentracing.Tracer { auth : map[string]string{ "xctgauthorization":" ", //上面获取到的token } sender : transport.NewHTTPTransport( " ", //jaeger 上报的http地址 transport.HTTPHeaders(auth), ) tracer, : jaeger.NewTracer(service, jaeger.NewConstSampler(true), jaeger.NewRemoteReporter(sender, jaeger.ReporterOptions.Logger(jaeger.StdLogger)),) return tracer } 4. client 端上报demo。 plaintext func runClient(tracer opentracing.Tracer, httpUrl string, spanName string, r http.Request) { c : &http.Client{Transport: &nethttp.Transport{}} span : tracer.StartSpan(spanName) if r ! nil { spanCtx, : tracer.Extract(opentracing.HTTPHeaders, opentracing.HTTPHeadersCarrier(r.Header)) span tracer.StartSpan(spanName, opentracing.ChildOf(spanCtx)) } span.SetTag(string(ext.Component), spanName) defer span.Finish() ctx : opentracing.ContextWithSpan(context.Background(), span) req, err : http.NewRequest( "GET", httpUrl, nil, ) tracer.Inject(span.Context(), opentracing.HTTPHeaders, opentracing.HTTPHeadersCarrier(req.Header)) if err ! nil { onError(span, err) return } req req.WithContext(ctx) // wrap the request in nethttp.TraceRequest req, ht : nethttp.TraceRequest(tracer, req) defer ht.Finish() res, err : c.Do(req) if err ! nil { onError(span, err) return } defer res.Body.Close() body, err : ioutil.ReadAll(res.Body) if err ! nil { onError(span, err) return } fmt.Printf("Received result: %sn", string(body)) } func run() { for { time.Sleep(3 time.Second) tracer : NewJaegerTracer(HttpClientName) runClient(tracer, " + serverPort + "/", HttpClientName, nil) } } 5. server端上报demo。 注意 需将url1和url2替换成下游调用地址。 plaintext //server端接收到请求后继续再向java服务发起请求,最终实现client》goserver》javaserver的请求链路 func getJavaDemo(tracer opentracing.Tracer) func(http.ResponseWriter, http.Request) { return func(w http.ResponseWriter, r http.Request) { fmt.Println(r.Header) fmt.Println(opentracing.HTTPHeadersCarrier(r.Header)) span : opentracing.SpanFromContext(r.Context()) span.SetTag("http.serveraddr", "serveraddr") //填写您的服务端地址 span.SetTag("http.clientaddr", "clientaddr") //填写您的客户端地址 runClient(tracer, " ", HttpServerName, r) time.Sleep(10time.Millisecond) runClient(tracer, " ", HttpServerName, r) log.Print("Received getTime request") io.WriteString(w, "get java demo") } } func runServer(tracer opentracing.Tracer) { http.HandleFunc("/", getJavaDemo(tracer)) log.Printf("Starting server on port %s", serverPort) err : http.ListenAndServe( fmt.Sprintf(":%s", serverPort), // use nethttp.Middleware to enable OpenTracing for server nethttp.Middleware(tracer, http.DefaultServeMux)) if err ! nil { log.Fatalf("Cannot start server: %s", err) } } 6. 通过以上例子,我们就可以实现jaeger的方式采集go的监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以Jeager方式接入
      • 如何下载数据库安全审计的Agent?
        Agent添加完成后,您还需要下载Agent,并根据Agent的添加方式在数据库端或应用端安装Agent。 每个Agent都有唯一的AgentID,是Agent连接数据库安全审计实例的重要密钥。若您将添加的Agent删除,在重新添加Agent后,请重新下载Agent。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 数据库已成功添加Agent。 操作步骤 1. 登录管理控制台。 2. 单击右上角的,选择区域。 3. 选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 4. 在左侧导航树中,选择“数据库安全审计 > 数据库列表”,进入数据库列表界面。 5. 在“选择实例”下拉列表框中,选择需要下载Agent的数据库所属的实例。 6. 单击“数据库列表”列表页面下方的展开Agent的详细信息,在Agent所在行的“操作”列,单击“下载agent”。将Agent安装包下载到本地。 请根据安装Agent节点的操作系统类型,选择下载相应的Agent安装包。 Linux操作系统 在“操作系统”为“LINUX64”的数据库中下载Agent安装包 Windows操作系统 在“操作系统”为“WINDOWS64”的数据库中下载Agent安装包
        来自:
        帮助文档
        数据库安全
        常见问题
        Agent相关
        如何下载数据库安全审计的Agent?
      • 对比迁移项
        本节主要介绍对比迁移项 对比迁移项可以清晰反馈出源数据库和目标数据库的数据是否存在差异。为了尽可能减少业务的影响和业务中断时间,数据库实时迁移场景提供了完整的迁移对比流程,帮助您确定合适的业务割接时机。 图 对比流程 迁移对比功能支持对象级对比、数据级对比。 对象级对比:支持对数据库、索引、表、视图、存储过程和函数、表的排序规则等对象进行对比。 数据级对比:支持对表或者集合的行数和内容进行对比。 说明 全量迁移中的任务无法进行数据级对比。 如果源库进行DDL操作,为保证对比结果的准确性,需重新进行内容对比。 为避免占用资源,DRS对行对比的时长进行限制,超过限制时长,行对比任务自动停止。源库是关系型数据库时,行对比限制时长为60分钟;源库为非关系数据库,比如Mongo,行对比限制时长为30分钟。 前提条件 已登录数据复制服务控制台。 已启动迁移任务。 创建对比任务 在进行迁移项数据对比时,您可以按照迁移对比须知模块推荐的流程操作,也可以根据业务场景选用对比方式。以下操作将按照迁移对比须知模块的推荐方案详细介绍各功能的使用方法。 步骤 1 在“实时迁移管理”界面,选中指定迁移任务,单击任务名称,进入“基本信息”页签。 步骤 2 单击“迁移对比”页签,进入“迁移对比”信息页面,对源数据库和目标数据库的数据进行对比分析。 1. 首先进行数据库对象完整性检查。 1. 单击“对象检查”,进入“对象级对比”页签,查看各个对比项的对比结果。 2. 若需要查看对比项的对比结果详情,可单击指定对比项操作列的“详情”。 2. 数据库对象检查完成后,进行迁移数据行数及内容的对比。 1. 单击迁移对比须知处的“全面检查”,进入“创建对比任务”页面。 2. 在“创建对比任务”页面,分别选择“对比类型”、“对比时间”和“对象选择”后,单击“是”,提交对比任务。 1. 对比类型:分为行数对比和内容对比。 2. 对比时间:可设置为“立即启动”和“稍后启动”。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现符合实际情况的少量数据不一致对比结果,推荐结合对比定时功能,选择在业务低峰期进行对比,得到更为具有参考性的对比结果。 3. 对象选择:可根据具体的业务场景选择需要进行对比的对象。 说明 进行内容对比之前,系统会帮助您对内容对比所需的耗时进行预估。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 对比任务提交成功后,返回“数据级对比”页签,单击刷新列表,可以查看到所选对比类型的对比结果。 若需要查看对比类型详情,可单击指定对比类型操作列的“查看对比报表”,然后选择需要进行对比的数据库,单击操作列的“查看详情”,查看指定源数据库和目标数据库的对比结果详情。 说明 运行中的任务可以随时取消,已取消的对比任务也支持查看对比报表。 3. 业务割接前,进行割接复查。 单击“割接复查”,进入创建对比任务页面,选择“对比类型”、“对比时间”和“对象选择”,单击“确定”,提交对比任务。 查看对比详情的方法请参考。 4. 结束任务。 业务系统和数据库切换成功后,为了防止源数据库的操作继续同步到目标数据库,造成数据覆盖问题,此时您可选择结束迁移任务。该操作仅删除了迁移实例,迁移任务仍显示在任务列表中,您可以进行查看或删除。 一般情况下,结束任务功能可以确保特殊对象迁移的完整性(触发器、事件在结束阶段迁移),罕见情况下(例如网络异常)可能结束任务失败。当遇到多次任务结束失败时,可以勾选“强制结束任务”优先结束任务,以减少等待时间。强制结束任务,极端场景下可能会导致触发器、事件迁移不完整,请手工迁移触发器、事件。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        对比迁移项
      • 消息模板
        消息模板是告警通知消息的固定格式,系统发送告警通知消息必须使用消息模板向订阅者发送。默认内置消息模板分别为关键词模板、keywordstemplate、sql模板和sqltemplate。不同协议的订阅者优先选择模板名称对应的协议模板,如果对应的协议模板不存在,则采用内置的消息模板。使用消息模板发送告警通知消息时,系统会自动将模板变量替换为告警规则中的内容。 创建消息模板 1. 在云日志服务管理控制台,单击“告警”,进入告警页面,选择“消息模板”。 说明 消息模板默认有以下内置模板,当您所选择的消息模板中未配置消息内容时,云日志服务默认使用内置模板。 1. 关键词模板:关键词告警模板 2. keywordstemplate:关键词告警英文模板 3. sql模板:sql告警模板 4. sqltemplate:sql告警英文模板 2. 单击“创建”,在界面右侧弹出的“创建消息模板”页面中,配置消息模板的相关参数。 表 1 配置消息模板参数 参数名称 说明 校验规则 样例 模板名称 消息模板的名称 输入内容只能是数字、字母、下划线、汉字、中划线,且不能以下划线、中划线等特殊符号开头和结尾。长度不能超过100个字符。 LTStest 模板描述 对消息模板的描述 输入内容只能是数字、字母、下划线、汉字,且不能以下划线等特殊符号开头和结尾。长度不能超过1024个字符。 消息头语言 系统在发送消息时会默认添加消息头 中文(简体)英文 中文:“尊敬的用户...” 英文:“Dear User...” 通知方式 消息的通知方式类型 邮件、HTTP/HTTPS 主题 消息的主题 支持自定义主题名称和使用变量命名主题两种方式。主题名称长度不能超过512个字符。仅邮件类型支持配置消息主题。 test 正文 消息的内 添加变量: 规则原始名称:${eventname} 告警级别:${eventseverity} 发生时间:${startsat} 发生区域:${regionname} 账号:${domainname} 告警源:$event.metadata.resourceprovider 资源类型:$event.metadata.resourcetype 资源标识:${resources} 告警状态:$event.annotations.alarmstatus 表达式:$event.annotations.conditionexpression 当前值:$event.annotations.currentvalue 统计周期:${frequency} 规则名称:${eventname} 关键词告警支持的变量 1. 查询时间:$event.annotations.results[0].time 2. 查询日志:$event.annotations.results[0].rawresults 3. 查询URL:$event.annotations.results[0].url 4. 日志组/日志流名称:$event.annotations.results[0].resourceids 注:只支持添加首次创建的日志组/日志流原始名称,不支持添加修改后的日志组/日志流名称。 5. 查询自定义字段 $event.annotations.results[0].fields.xxx 注:xxx表示原始日志的结构化字段和内置字段(hostIP、hostName等)。 SQL告警支持的变量 1. 图表0的日志组/流名称:$event.annotations.results[0].resourceid 注:只支持添加首次创建的日志组/日志流原始名称,不支持添加修改后的日志组/日志流名称。 2. 图表0的查询语句:$event.annotations.results[0].sql 3. 图表0的查询时间:$event.annotations.results[0].time 4. 图表0的查询URL:$event.annotations.results[0].url 5. 图表0的查询日志:$event.annotations.results[0].rawresults 复制模板 : keywordstemplate sqltemplate sql模板 关键词模板 自定义模板(用户通过添加变量创建的消息模板) ${eventname} ${eventseverity} ${startsat} ${regionname} 用户自定义创建消息模板 复制模板创建消息模板 说明 1. 邮件内容支持html标签和消息预览。 2. 针对AOM和LTS,最多可以创建100(包含)条消息模板,如果消息模板数量已达上限100个时,请删除不需要的消息模板后重新创建。 3. 配置完成后,单击“确定”。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志告警
        告警通知
        消息模板
      • 数据库灰度
        本章节介绍数据库治理中的数据库灰度 概述 数据库灰度在应用层提供灰度环境数据隔离能力。其原理是将数据层的流量路由到数据库影子表中,从而与原有数据进行隔离。结合全链路灰度,可以实现网关到后端服务再到数据库的全链路环境隔离,方便进行灰度环境的服务验证。 使用限制 JDBC驱动支持的版本如下: 框架 限制 详情 Druid Spring Cloud Dalston及以上版本 HikariCP 2.3.13或以上版本 jdk版本 1.8+ 功能入口 1. 登录微服务治理控制台。 2. 在控制台左侧导航栏中选择应用治理。 3. 在应用治理页面的应用卡片页签单击目标应用卡片。 4. 在左侧导航栏选择数据库治理,在数据库灰度页签下可以进行数据库灰度的配置。 步骤一 开启前检查灰度影子表,需要您先开启全链路灰度,针对需要灰度的数据库表进行对应灰度表的创建(灰度表创建规则为默认环境的表名后面加上“标签名”,例如gray环境,默认环境表名为msetable,那么灰度表名为msetablegray)。 如果您只需要针对某些表进行灰度操作,那么您需要配置“需要灰度的数据库表”列表,填入您需要进行灰度访问的数据库表名集合,同时确保您需要灰度的表都有提前创建灰度表。 步骤二 开启数据库灰度。 步骤三 开始验证灰度版本,灰度环境的SQL流量会自动操作对应环境的灰度表。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        数据库治理
        数据库灰度
      • 配置磁盘挂载
        Ubuntu系统 1.使用如下命令安装nfskernelserver sudo aptget update sudo apt install nfskernelserver 2.设置共享文件夹 打开/etc/exports,比如要把/sharedata目录设置为共享目录,可以填入如下内容。 /sharedata 192.168.0.0/24(rw,sync,norootsquash) 说明 上述内容的含义是:把/sharedata这个目录共享给192.168.0.0/24这个子网段的其他服务器。 命令输入完成后,可以执行命令exportfs v 显示共享的目录,从而判断是否设置成功。 3.启动nfs服务 service nfskernelserver restart 4.修改共享目录 比如需要新增/home/myself/download到共享目录,可以在/etc/exports中新增如下内容: /home/myself/download 192.168.0.0/24(rw,sync,norootsquash) 然后重启nfs服务 service nfs restart 或者用如下命令,无需重启nfs服务: exportfs rv Windows系统 1.安装nfs server软件 目前可用的收费软件有:hanewin nfs server,可到对应官网下载。 免费的有:FreeNFS、winnfsd等,可到sourceforge上下载。 打开nfs功能 如果是winnfsd,可参见: 如果是hanewin nfs server,可以参见如下步骤。 以Windows系统管理员身份运行nfsctl.exe 在空白处右键,然后Insert,完成设置 Insert
        来自:
        帮助文档
        函数工作流
        用户指南
        配置函数
        配置磁盘挂载
      • 入门概述
        本页介绍了三种规格文档数据库服务特性,以及新建并连接实例的操作流程。 三种规格特性及适用场景 文档数据库服务提供了集群版、副本集和单机版三种规格的实例,分别采用不同的部署架构,能够满足不同的业务场景。 集群版 分片集群提供Mongos、Shard、ConfigServer三类节点,每个Shard和ConfigServer基于副本集(每个副本集使用三节点主从模式)组成。 适用于高并发读写的场景,可以自由地选择Mongos和Shard节点的个数和配置,扩展性能及存储空间,构建不同性能的分片集群实例,满足不同的业务需求。 副本集 副本集提供不同角色的节点,一个可供读写的Primary节点,一个、三个或五个提供高可用的Secondary节点,一个隐藏的Hidden节点,0~5个只读的ReadOnly节点。 适用于需要保证高可用,读多写少的中小型业务系统,可按需增加Secondary节点和ReadOnly节点,扩展读性能。 单机版(单节点) 单机版仅部署一个节点在虚拟机上,没有高可用等高级特性,优点是性价比高。 适用于研发测试、学习培训、以及非企业核心数据存储的场景。 新建并连接数据库 1. 新建实例 根据业务需要定制相应计算能力和存储空间的实例。 2. 设置安全组 将需要连接实例的设备添加至实例的安全组访问规则中,以允许外部设备能够访问该实例。 使用内网连接实例,当实例和弹性云主机处于不同安全组时,或者使用公网连接实例时,需要配置安全组访问规则。 3. 绑定弹性IP(可选) 如果要使用公网地址连接实例,需要先申请并绑定弹性公网IP。 4. 连接实例 提供内网、公网、程序代码连接单机版(单节点)、副本集、分片集群实例的操作。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        入门概述
      • 自建SQL Server迁移至自建TiDB
        本节为您介绍自建SQL Server迁移至自建TiDB任务配置。 前提条件 自建TiDB目标端版本为V5、V6版本 目标端权限要求 迁移模式 所需权限 基础权限 SELECT, INSERT, DELETE 全量迁移 需具备基础权限,且具备CREATE, ALTER 结构迁移 需具备基础权限,且具备CREATE, ALTER, REFERENCES, INDEX, TRIGGER, CREATE VIEW, DROP, CREATE ROUTINE, EXECUTE 增量迁移 需具备基础权限 稽核修复 需具备基础权限 目标端配置 数据源类型 选定为TIDB,可将源端迁移至版本范围内的TiDB数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建SQL Server为源的迁移任务配置
        自建SQL Server迁移至自建TiDB
      • 将MySQL同步到DWS
        使用须知 在创建同步任务前,请务必阅读以下使用须知。 说明 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源或目标数据库的帐号密码修改后,请尽快修改连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表使用须知 类型名称 使用和操作限制 数据库权限设置 l 源数据库帐号需要具备如下权限:SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 l 目标数据库帐号必须具有每张表的如下权限:INSERT、SELECT、UPDATE、DELETE、CONNECT、CREATE、REFERENCES。 同步对象约束 l 支持表、索引、约束(主键、空、非空)的同步,不支持视图、外键、存储过程、触发器、函数、事件、虚拟列、唯一约束、唯一索引的同步。 l 全量同步支持comment,增量不支持。 l 不支持的数据类型有:xml、geometry、point、lineString、polygon、geometrycollection、multipoint、multilinestring、multipolygon。 l 不支持非MyISAM和非InnoDB表的同步。 l 对象名同步到目标库后会转换成小写,因此选择的源库表中不能存在表名称字母相同但大小写不同的表,否则,会导致同步失败。 源数据库要求 l 增量同步时,MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 l 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。设置为0,可能会导致同步失败。 − 源数据库为自建MySQL时,通过设置expirelogsdays参数设置binlog保留时间。建议将expirelogsday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证任务中断后的顺利恢复。 − 源数据库为RDS for MySQL时,设置binlog保留时间可参考《RDS用户指南》。 l 源数据库GTID状态必须为开启状态,源数据库实例没有开启GTID的情况下不支持主备倒换,DRS任务会因为位点不续接而中断导致无法恢复。 l 必须设置MySQL源数据库的server-id,server-id的取值范围在2-4294967296之间。 l 源数据库中的库名、表名不能包含:. /"以及非ASCII字符。 目标数据库要求 l 目标数据库实例的运行状态必须正常。 l 目标数据库实例必须有足够的磁盘空间。 l 目标数据库的时区设置必须与源数据库一致。 操作须知 l 相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。常见的关联关系:索引引用表等。 l 不支持外键级联操作。当外键是普通索引的时候,可能会导致表结构创建失败,建议改成唯一索引。 l 不支持源数据库进行恢复操作。 l 不支持强制清理binlog,否则会导致同步任务失败。 l 源数据库不支持reset master或reset master to命令,可能会导致DRS任务失败或者数据不一致。 l 不建议在数据库中使用非精确数值类型做主键,该特性影响 DRS 增量场景下对 UPDATE、DELETE语句的同步,导致任务失败。 l 如果无主键表中包含大字段(blob、text、clob、nclob、bytea),增量同步阶段存在大字段数据不一致的可能性。 l 源库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 l 源库为RDS for MySQL实例时,支持源端多张表对DWS一张表的映射。详细操作可参考创建MySQL到DWS同步任务。 l 如果源库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.7.05.7.28之间),如果不支持TLS1.2协议,需提交运维申请才能使用SSL测试连接。 l 网络中断在30秒内恢复的,不影响实时同步,如果超过30秒,则会导致同步任务失败。 l MySQL的唯一约束(unique key)在同步到目标DWS后会改写成普通约束,主键(primary key)的同步保持不变。 l 目标数据库与源数据库字符集不一致可能会导致同步后数据不一致或者同步失败。 l 数据类型不兼容时,可能引起同步失败。 l 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 l 实时同步过程中,若源库为RDS时,支持修改端口,修改之后同步任务失败,需要通过重试后继续进行同步。 l 实时同步过程中,若源库为非RDS时,不支持修改端口。 l 实时同步过程中,不支持IP、帐号、密码修改。 l DRS全量同步表结构时,源库中char、varchar、nvarchar、enum、set字符类型长度在目标库会按照字节长自动扩大(因为目标库为字节长),扩大倍数和源库中列的字符集有关。如源库字符集为UTF8的按照字节长扩大3倍,为UTF8MB4的按照字节长扩大4倍。 l 增量同步过程中支持DDL操作。 − 一对一的场景下,默认同步的DDL类型有CREATETABLE,RENAMETABLE,ADDCOLUMN,MODIFYCOLUMN,ALTERCOLUMN,CREATEINDEX,DROPINDEX,RENAMEINDEX,CHANGECOLUMN,TRUNCATETABLE,DROPTABLE,客户可以根据自身需求,在对象选择页面选择需要同步的DDL类型。 − 多对一场景下,执行colunm重命名操作,必须停业务操作,不然会有数据不一致的风险。 − 新增和修改表名、列名、索引名时不能超出63字符,否则任务会失败。 − 源库无主键表增加主键的时候,必须含有第一列,否则任务会失败。 l 增量同步过程中,库级同步新建的无主键表必须包含以下列中的其中之一。 INTEGER TYPES: TINYINT、SMALLINT、INT、BIGINT、NUMERIC/DECIMAL; CHARACTER TYPES: CHAR、BPCHAR、VARCHAR、VARCHAR2、NVARCHAR2; DATE/TIME TYPES: DATE、TIME、TIMETZ、TIMESTAMP、TIMESTAMPTZ、INTERVAL、SMALLDATETIME; 无主键表会指定可作为分布列的其中一列作为分布列,如果所有列类型都无法作为分布列,会导致建表失败,DRS同步中断。 l 库级同步,在增量同步过程中,不能在源库创建名称字母相同但大小写不同的表,否则会导致其中一张表无法同步。 l 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 l 源端同步的表如果有AUTOINCREMENT属性,结束任务时,DRS会自动刷新同步表的序列整型列所对应的DWS自增列(sequence)起始值,刷新值为该列的最大值+10000。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到DWS
      • 帮助命令
        本节主要介绍帮助命令行的使用。 ./stor { help h } 此命令用来查看HBlock的命令帮助信息。 示例 示例1 查看HBlock整体命令。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64] ./stor –help Usage: stor [options] stor [options] Type 'stor help ' or 'stor help ' to print help on a specific subcommand. Type 'stor version' to print HBlock version. Available commands: alarm View and manage alarms. backup Manage backup(s). config Configure HBlock. conssnap Manage consistency snapshot(s). event Event information. info Get HBlock information. install Install HBlock. license Manage HBlock license(s). logcollect Log collection information. lun Manage LUN(s). monitor Get performance data. qos Manage QoS policy. restart Restart HBlock. server Manage HBlock server(s). setup Initialize HBlock. snapshot Manage snapshot(s). start Start HBlock. status Get HBlock status. stop Stop HBlock. storagepool Manage storage pools. target Manage target(s). topology Manage topology. tuning Adjusting parameters to fit different scenarios. uninstall Uninstall HBlock on all servers. upgrade Upgrade HBlock. General subcommands: add Add an entity, such as adding a LUN or server. ls List entities or the specified entity, such as listing servers or the specified server. rm Remove an entity, such as removing a LUN or server. set Set entity properties, such as setting LUN or server properties. Available subcommands for alarm: E[export] Export alarm records to a file. M[mute] Set the mute status of a specified alarm record to Muted status, stop receiving its alarm emails and not list it by default. UM[unmute] Set the mute status of a specified alarm record to Normal status. R[resolve] Set a specified alarm record to Resolved status. Available subcommands for backup: E[export] Export backup file. I[import] Import backup file to a LUN. Available subcommands for conssnap: R[rollback] Rollback consistency snapshot. Available subcommands for lun: C[clone] Create clone LUN. F[flatten] Flatten clone LUN. RC[recover] Recover the specified LUN from the cloud. RS[resume] Resume the specified LUN. SUS[suspend] Suspend the specified LUN. S[switch] Switch between active and standby iSCSI targets. W[wipe] Wipe the specified LUN. X[expand] Expand LUN. Available subcommands for monitor: E[export] Export historical performance data to a file. V[view] Get realtime performance data. Available subcommands for qos: A[assoc] Associate the QoS policy with the specified objects. D[disass] Disassociate the QoS policy with the specified objects. Available subcommands for server: A[addpath] Add path(s) to store data. R[rmpath] Remove path(s). S[setpath] Set path(s) properties. Available subcommands for snapshot: R[rollback] Rollback snapshot or a snapshot in consistency snapshot. Available subcommands for storagepool: A[addnode] Add node(s) to storage pool. R[rmnode] Remove node(s) from storage pool. Available subcommands for target: R[rmallow] Remove iSCSI target allowlist. S[setallow] Set iSCSI target allowlist. Available subcommands for upgrade: T[status] Get upgrade status.
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        帮助命令
      • 配置DLI目的端参数
        参数名 说明 取值样例 资源队列 选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 cardetail 导入前清空数据 选择导入前是否清空目的表的数据。 如果设置为是,任务启动前会清除目标表中数据。 否 清空数据方式 导入前清空数据,如果设置为true时,呈现此参数。 TRUNCATE:删除标准数据。 INSERTOVERWRITE:新增数据插入,同主键数据覆盖。 TRUNCATE 分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写分区信息后,表示清空该分区的数据。 year2020,locationsun
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置DLI目的端参数
      • 数据库运维实名审计
        管理员对数据库资产进行授权 1. 左侧菜单选择“授权管理>资产访问授权”,在基础设施访问授权标签页中点击“新增”后,切换至授权配置页。 2. 按授权引导属性配置运维人员(主账号)和数据库资产的关联关系,授权后,即表示配置中的运维人员有权限访问配置关联的资产。 运维人员触发“本地访问初始化”进行运维 1. 运维人员登录堡垒机。 2. 左侧菜单选择“资产访问”。 3. 在资产访问页面,点击“本地访问初始化”后,系统后台将策略下发到本地,下发成功后将弹出提示。 4. “本地访问初始化”成功后,运维人员即可按使用习惯打开本地客户端,输入资产地址、账户、密码连接资产进行运维。 数据库运维审计 1. 审计管理员登录堡垒机。 2. 左侧菜单选择“资源会话审计>数据库审计”。 3. 在数据库审计页面查看运维会话记录。
        来自:
        帮助文档
        云堡垒机(原生版)
        最佳实践
        数据库运维实名审计
      • MCP市场
        本文介绍MCP市场的功能。 MCP是指Model Calling Platform相关的服务资源,涵盖内容生成、网页搜索、效率工具等多种类型,全面支撑企业各类智能应用场景。 操作步骤 1. 登录应用托管控制台,点击【MCP市场】。 2. 选择应用点击对应的【立即部署】按钮,进入应用详情页。 3. 选择已经部署的MCP Servers应用实例,填写必要的参数,勾选协议,点击【立即部署】按钮。 4. 若无可用MCP Servers应用实例,可以点击“新建实例”,创建MCP Servers实例并部署选择的MCP服务。 5. 在创建MCP Servers应用实例页面填写必要的参数,勾选协议,点击【部署应用】按钮。 6. 应用实例创建完成后,进入应用实例详情页,点击配置详情TAB,可以看到对应MCP的访问token和URL地址。
        来自:
        帮助文档
        应用托管
        用户指南
        MCP市场
      • 基本语法
        本节介绍SQL基本语法的组成。 SQL由查询语句和分析语句组成,以竖线 分隔。查询语句可单独使用,分析语句必须与查询语句一起使用。 查询语句 分析语句 语句类型 说明 查询语句 查询语句用于指定日志查询时的筛选条件,返回符合条件的日志。通过设置筛选条件,可以帮助您快速、有效地查询到所需日志。 分析语句 分析语句用于对查询结果进行计算和统计。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        查询与分析语法
        基本语法
      • 权限机制
        本章节主要介绍权限机制。 FusionInsight采用LDAP存储用户和用户组的数据;角色的定义信息保存在关系数据库中,角色和权限的对应关系则保存在组件侧。 FusionInsight使用Kerberos进行统一认证。 用户权限校验流程大致如下: 1. 客户端(用户终端或FusionInsight组件服务)调用FusionInsight认证接口。 2. FusionInsight使用登录用户名和密码,到Kerberos进行认证。 3. 如果认证成功,客户端会发起访问服务端(FusionInsight组件服务)的请求。 4. 服务端会根据登录的用户,找到其属于的用户组和角色。 5. 服务端获得用户组拥有的所有权限和角色拥有的所有权限的并集。 6. 服务端判断客户端是否有权限访问其请求的资源。 示例场景(RBAC ): HDFS中有三个文件fileA、fileB、fileC。 定义角色roleA对fileA有读和写权限,角色roleB对fileB有读权限。 定义groupA属于roleA;groupB属于roleB。 定义userA属于groupA和roleB,userB属于GroupB。 当userA登录成功并访问HDFS时: 1. HDFS获得useA属于的所有角色(roleB)。 2. HDFS同时还会获得userA属于的所有用户组所属于的角色(roleA)。 3. 此时,userA拥有roleA和roleB对应权限的并集。 4. 因此对于fileA,则userA有读写权限;对fileB,有读权限;对于fileC,无任何权限。 同理userB登录后: 1. userB只拥有roleB对应的权限。 2. 对于fileA,则userB无权限;对fileB,有读权限;对于fileC,无任何权限。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        权限机制
      • 管理角色
        删除 确认要删除自定义角色后,可以使用 dropRole 命令或 db.dropRole() 方法来删除自定义角色。例如,下面的命令删除名为 myrole 的自定义角色: db.dropRole("myrole") 需要留意的是,删除自定义角色将导致该角色与所有用户的关联关系被删除。如果要删除自定义角色之前,请确保已经撤销了与该角色相关的所有用户的角色分配,并且已经备份了数据库。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        数据库权限管理
        角色管理
        管理角色
      • 计算加速型P2v
        使用须知 P2v型云主机当前支持如下版本的操作系统: − Windows Server 2019 Standard 64bit − Windows Server 2016 Standard 64bit − Ubuntu Server 16.04 64bit − CentOS 7.4 64bit − EulerOS 2.2 64bit 使用公共镜像创建的P2v型云主机,默认已安装Tesla驱动。 使用私有镜像创建的P2v型云主机,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包章节。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P2v
      • 与天翼云其他服务之间关系
        本文介绍云搜索服务和天翼云官网其他产品之间的关联关系。 相关服务 交互功能 虚拟私有云(CTVPC,Virtual Private Cloud) 云搜索服务在购买前需要提前开通虚拟私有云,实例将建立在同资源池下指定的子网内,VPC之间网络隔离,可为用户提供安全的网络环境。详细请参考虚拟私有云产品文档。 弹性云主机(CTECS,Elastic Cloud Server) 云搜索服务的每个实例节点即为一台弹性云主机,创建实例时会根据购买需求自动下单对应数量,主要提供计算分析服务。 云硬盘(CTEVS,Elastic Volume Service) 云搜索服务使用云硬盘存储用户的索引数据,创建实例时会根据购买需求将云硬盘自动挂载在对应节点。 弹性IP(EIP,Elastic IP) 云搜索服务如需要开放公网访问,需要购买弹性IP或IPv6带宽并绑定到实例对应组件上。详细请参考弹性IP产品文档。 对象存储服务(CTZOS,Zettabyte Object Storage) 云搜索服务的实例快照及所需要安装的自定义插件均需要开通对象存储服务,进行存储和读取。详细请参考对象存储服务产品文档。 弹性负载均衡(CTELB ,Elastic Load Balancing) 云搜索服务的实例需要分流访问流量时,可以通过购买负载均衡类产品,对接到云搜索实例上,实现后端主机分流访问。详细请参考弹性负载均衡服务产品文档。 云监控服务 云搜索服务集成公有云云监控服务能力,实时监测集群健康状态和磁盘使用率等核心指标,保障服务稳定运行。用户可通过监控数据及时掌握集群资源状况。详细请参考云监控服务产品文档。 云日志服务 云搜索服务将组件运行期间的日志写入云日志服务中,用户可通过查看日志排查实例运行问题。详细请参考云日志服务产品文档。 云审计 云审计全面记录云搜索服务的核心操作事件,支持操作历史查询与审计回溯。详细请参考云审计产品文档。 统一身份认证服务(Identity and Access Management,简称IAM) 云搜索服务使用天翼云官网统一身份认证服务进行身份鉴权。详细请参考统一身份认证服务产品文档。
        来自:
        帮助文档
        云搜索服务
        产品介绍
        与天翼云其他服务之间关系
      • 数据备份/导出
        源Redis使用了多DB,能否迁移数据到集群实例? DCS单机、读写分离和主备实例支持256个库,编号0255。 若目的实例为Cluster集群实例。Cluster集群实例只有1个库。 两个解决思路: a. 源Redis的不同DB合到同一个数据库。 b. 申请多个DCS缓存实例。 迁移后实例连接地址和数据库编号有变化,业务注意改造和适配。 若目的实例为Proxy集群。 Proxy集群默认不开启多DB,仅有一个DB0,请参考开启多DB操作开启Proxy集群多DB设置。再进行迁移。 只想迁移部分数据时应该怎么处理? 控制台在线迁移功能,不支持迁移指定数据库。如果需要单独迁移Redis中的 指定数据库, 可以使用redisshake导出或者导入指定的数据库。 Redisshake的安装和使用可以参考使用RedisShake工具迁移自建Redis Cluster集群和Redisshake配置说明。 如果单独迁移 指定数据 ,建议自行开发脚本,获取指定的key及数据,然后导入DCS缓存实例中。 源Redis迁移到集群实例中有哪些限制和注意事项? Proxy版集群实例 使用方式与单机、主备实例类似,但是默认只有1个DB,不支持select命令。数据文件批量导入时,遇到select命令会返回错误提示并忽略,同时继续将剩余数据导入。 举例: 源Redis在数据库编号0和2中有数据,生成的AOF或RDB文件包含了这两个库。 在导入到Proxy集群实例时会忽略“select 2”的命令,然后继续导入源数据库2中的数据到DB0中。 用户需要注意以下: 源Redis中不同数据库包含了相同的key,则导入时,编号靠前的数据库的key的value会被靠后的数据库中的key覆盖。 源Redis使用了多个数据库,数据迁移到DCS集群实例后,都存储在同一数据库中,不支持select命令。业务需要做适配。 Cluster版集群实例 Cluster版集群除了只有1个DB外,导入方式与其他类型的Redis实例也有差异。Cluster集群的数据,必须由客户端分别连接各分片节点,将数据分别导入。各分片节点的IP地址查询命令: rediscli h {Redis Cluster IP} p 6379 a {password} cluster nodes 返回的节点地址清单中,标记为master的节点IP地址即为Cluster集群的分片节点地址。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        数据备份/导出
      • API&kubectl
        本文为您介绍Serverless集群的API和kubectl如何连接等问题。 用户访问集群API Server的方式有哪些? 集群API方式:集群API需要使用证书认证访问,在云容器引擎控制台集群信息 > 连接信息获取kubeconfig文件,通过kubectl直接连接集群API Server。
        来自:
        帮助文档
        云容器引擎 Serverless版
        常见问题
        API&kubectl
      • 产品类
        操作系统 版本 SUSE SUSE Enterprise 11 SP4 64bit SUSE Enterprise 12 SP1 64bit SUSE Enterprise 12 SP2 64bit SUSE Enterprise 12 SP3 64bit OpenSUSE 13.2 64bit 42.2 64bit 15.0 64bit(该版本暂不支持syslog日志采集) CentOS 6.3 64bit 6.5 64bit 6.8 64bit 6.9 64bit 6.10 64bit 7.1 64bit 7.2 64bit 7.3 64bit 7.4 64bit 7.5 64bit 7.6 64bit Ubuntu 14.04 server 64bit 16.04 server 64bit 18.04 server 64bit Fedora 24 64bit 25 64bit 29 64bit Debian 7.5.0 32bit 7.5.0 64bit 8.2.0 64bit 8.8.0 64bit 9.0.0 64bit
        来自:
        帮助文档
        应用运维管理
        常见问题
        产品类
      • 使用OBS加密数据运行作业
        参数 取值 说明 fs.obs.serversideencryptiontype SSEKMS l SSEKMS:表示使用KMS秘钥的加解密方式。 NONE:表示关闭加密功能。 fs.obs.serversideencryptionkey 表示用来加密的KMS密钥ID。该参数可不配置。 当参数“fs.obs.serversideencryptiontype”配置为“SSEKMS”且该参数未配置时,OBS会使用OBS服务的默认KMS密钥完成加密。 fs.obs.connection.ssl.enabled true 标识是否与OBS建立安全连接。 true:开启安全连接,当需要使用OBS加解密功能时该参数必须配置为“true”。 false:关闭安全连接。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        使用OBS加密数据运行作业
      • 创建互联关系
        本文为您介绍如何创建互联关系。 操作场景 用户创建完客户端账号后,需要与智能网关实例建立互联关系,以便访问SDWAN网络。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经创建完智能网关APP实例并创建完客户端账号。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东1。 3. 依次选择“网络”,单击“天翼云SDWAN”,进入天翼云SDWAN总览页面。 4. 选择“智能网关APP”,单击目标智能网关APP实例名称,进入“组网管理”页签。 5. 单击“添加互联关系”,选择需要连接的智能网关实例。 6. 单击“确定”,完成互联关系创建。
        来自:
        帮助文档
        天翼云SD-WAN
        智能网关APP
        创建互联关系
      • 1
      • ...
      • 77
      • 78
      • 79
      • 80
      • 81
      • ...
      • 376
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      天翼云CTyunOS系统

      公共算力服务

      应用托管

      知识库问答

      人脸活体检测

      动作活体识别

      通用型OCR

      推荐文档

      授权文件导入

      集群信息

      订购

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号