活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对等连接_相关内容
      • 容器引擎基础知识
        本文主要介绍 容器引擎基础知识 容器引擎(Docker)是一个开源的引擎,可以轻松的为任何应用创建一个轻量级、可移植的应用镜像。 安装前的准备工作 在安装容器引擎前,请了解容器引擎的基础知识,具体请参见Docker Documentation。 选择容器引擎的版本 容器引擎几乎支持在所有操作系统上安装,用户可以根据需要选择要安装的容器引擎版本,具体请参见 说明 由于SWR支持容器引擎1.11.2及以上版本上传镜像,建议下载对应版本。 安装容器引擎需要连接互联网,内网服务器需要绑定弹性公网IP后才能访问。 安装容器引擎 你可以根据自己的操作系统选择对应的安装步骤: Linux操作系统下安装 在Linux操作系统下,可以使用如下命令快速安装Docker的最新稳定版本。如果您想安装其他特定版本的Docker,可参考安装Docker。 curl fsSL get.docker.com o getdocker.sh sh getdocker.sh sudo systemctl daemonreload sudo systemctl restart docker EulerOS操作系统下安装 在EulerOS操作系统下,安装容器引擎的方法如下: a. 登录弹性云服务器。 b. 配置yum源。 如果您的机器上还没有配置yum源,首先配置本机的yum。 c. 安装并运行容器引擎。 i. 获取yum源里的dockerengine包。 yum search dockerengine ii. 使用yum install y命令安装上一步获取的dockerengine包,x86架构示例: yum install dockerengine.x8664 y iii. 设置开机启动Docker服务。 systemctl enable docker iv. 启动Docker。 systemctl start docker d. 检查安装结果。 docker version 回显如下类似信息,表示容器引擎安装成功。 Docker version 18.09.0, build 384e3e9
        来自:
        帮助文档
        容器镜像服务
        用户指南
        容器引擎基础知识
      • 如何对外提供服务
        虚拟私有云支持单个ECS对外提供服务,本文带您快速了解通过单个ECS对外提供服务。 单个弹性云主机对外提供服务 如果您要在VPC中的单个弹性云主机实例上提供对外服务,您可申请一个弹性IP,绑定到弹性主机上,该弹性云主机即可连接公网提供服务。具体操作步骤如下: 1. 创建和配置弹性云主机实例:在天翼云管理控制台中创建弹性云主机实例,并选择合适的实例规格、操作系统和网络配置。确保为实例分配弹性IP(EIP)以使其能够与外部网络通信。 2. 配置安全组:安全组是一种虚拟防火墙,用于控制进出弹性云主机实例的流量。为该弹性云主机实例创建一个安全组,并根据应用程序的需求配置入站和出站规则。 3. 配置网络 ACL:ACL也可用于控制子网与外部网络之间的流量。确保对应的子网具有适当的入站和出站规则,以允许外部网络访问该实例提供的服务。 4. 配置路由策略:为了使外部网络能够访问该弹性云主机实例,需要相应的路由配置。 5. 配置DNS解析:将您使用的域名绑定到弹性云主机实例的弹性IP地址上,以便用户可以使用易记的域名访问您提供的服务。 通过弹性负载均衡进行流量分发 对于社交媒体热点事件、电商促销活动等高并发访问的场景,您可以通过弹性负载均衡ELB将访问流量均衡分发到多台弹性云主机上,能够应对大量用户同时访问的需求。天翼云弹性负载均衡无缝集成了弹性伸缩服务,能够根据业务流量自动扩容,保证业务稳定可靠。
        来自:
        帮助文档
        虚拟私有云 VPC
        最佳实践
        常见公网访问方法
        如何对外提供服务
      • 升级内核小版本
        本节主要介绍升级内核小版本。 GeminiDB Influx支持补丁升级,补丁升级涉及性能提升、新功能或问题修复等。 当GeminiDB Influx发布新的涉及性能提升、新功能或问题修复等补丁版本时,客户可以根据自身的业务特点,选择合适的时机升级至最新版本。 天翼云有新的补丁版本发布时,您可以在“实例管理”页面如图1“兼容接口”列看到补丁升级提示,单击“补丁升级”进行补丁版本升级。 图1 补丁升级 使用须知 当有对应的补丁更新时(定期同步开源社区问题、漏洞修复),请及时进行升级。 补丁升级会采用滚动升级的方式,升级过程中会依次重启每一个节点,重启期间业务会由其他节点接管,每次接管会产生510s闪断,请在业务低峰变更,避免实例过载,并建议业务添加自动重连机制,确保重启后连接及时重建。 基础组件升级约需15分钟,数据组件升级与节点数量有关,约12min每节点。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB接口”。 3. 在“实例管理”页面,选择指定的实例,单击“兼容接口”列的“补丁升级”。 图2 补丁升级 您也可以单击实例名称,进入基本信息页面,在“数据库信息 > 兼容接口”处单击“补丁升级”。 图3 补丁升级 4. 在弹出框中,确认信息无误后,单击“确定”。 图4 确认信息 5. 在“实例管理”页面,查看补丁升级情况。 升级过程中,实例运行状态为“补丁升级中”。 升级完成后,实例运行状态变为“正常”。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        变更实例
        升级内核小版本
      • 回源SNI
        本文简述回源SNI功能。 功能介绍 如果一个源站IP地址绑定多个域名,且天翼云边缘安全加速平台安全与加速服务使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源SNI原理 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题,而对SSL/TLS协议所作的一个扩展。它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。开启回源SNI后,边缘节点向源站发起TLS握手时,源站会根据TLS握手中携带的回源SNI信息来确认边缘节点请求的具体域名,然后返回该域名对应的SSL证书给边缘节点。 设置回源SNI后的工作流程如下: 1. 当边缘节点以HTTPS协议回源时,需要在回源SNI中设置访问的域名。 2. 源站收到请求后,返回SNI中设置的域名对应的SSL证书。 3. 边缘节点收到SSL证书后,与源站建立连接。 配置说明 1. 登录边缘安全加速控制台。 2. 单击左侧导航栏【域名管理】。 3. 在【域名管理】页面,找到目标域名,单击【操作】列的【基础配置】。 4. 单击右下方【回源配置】。 5. 在【回源SNI】模块,开启功能。 6. 配置SNI。 7. 单击【保存】,完成配置。 参数名 说明 SNI 回源SNI域名,只能配置精确域名,不支持泛域名。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源SNI
      • 创建表(CREATE TABLE)
        DRDS支持直接连接DBProxy执行DDL语句,本文为您介绍创建数据表的DDL语句。 注意 仅V5.1.20.0.13及以后版本的实例,支持使用本文介绍的DDL语句。 语法 plaintext CREATE TABLE [IF NOT EXISTS] tablename (createdefinition, ...) [tableoption] { [partitionoption] [shardinghint] } createdefinition: columnname columndefinition {INDEX KEY} [indexname] [indextype] (keypart, ...) ... tableoption: { [ENGINE [] enginename] [CHARACTER SET [] charsetname] [COLLATE [] collationname] } partitionoption: { GLOBAL SINGLE [DN [] ‘dnname’] UDALPARTITION BY { HASH(columnname) [udalpartitionoption] HASHSTRING(columnname) [udalpartitionoption] RANGE(columnname) RANGEVALUES ‘value1[,value2...]’ } [DN [] ‘dnname[,dnname...]’] udalpartitionoption: { PARTITIONS [] number BUCKETS [] number } shardinghint: / sharding @@table name’tablename’ set type ’shardingtype’ [and { dn’dnname[,dnname...]’ shardingalgo’shardingalgo’ shardingid’columnname1’ shardingarea’columnname2’ buckets’number’ rangevalues’value1,value2...’ mapfile’enumvalue1:index1,enumvalue2:index2,...’ defaultnode’node’ startdate’startdate’ timeunittype’timeunittype’ timeunitlen’timeunitlen’ innershardingid’columnname’ innershardingalgo’shardingalgo’ innertotal’number’ innermapfile’enumvalue1:index1,enumvalue2:index2,...’ innerdefaultnode’node’ innerstartdate’startdate’ innertimeunittype’timeunittype’ innertimeunitlen’timeunitlen’ }] / shardingalgo: { mod stringmod filemap daterange enummod enumstringmod PartitionByIntRange } shardingtype: { global single inner sharding }
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理数据表的DDL语句
        创建表(CREATE TABLE)
      • 生产者实践
        本文主要介绍消息队列 Kafka 发布者的最佳实践,从而帮助您更好的使用该产品。 文中的最佳实践基于消息队列 Kafka 的 Java 客户端;对于其它语言的客户端,其基本概念与思想是通用的,但实现细节可能有差异,仅供参考。 Kafka 发送示例代码片段 Key 和 Value Kafka 0.10.0.0 的消息字段只有两个:Key 和 Value。Key 是消息的标识,Value 即消息内容。为了便于追踪,重要消息最好都设置一个唯一的 Key。通过 Key 追踪某消息,打印发送日志和消费日志,了解该消息的发送和消费情况。 失败重试 在分布式环境下,由于网络等原因,偶尔的发送失败是常见的。导致这种失败的原因有可能是消息已经发送成功,但是 Ack 失败,也有可能是确实没发送成功。 消息队列 Kafka 是 VIP 网络架构,会主动掐掉空闲连接(30 秒没活动),也就是说,不是一直活跃的客户端会经常收到 “connection rest by peer” 这样的错误,因此建议都考虑重试消息发送。 异步发送 发送接口是异步的;如果你想得到发送的结果,可以调用metadataFuture.get(timeout, TimeUnit.MILLISECONDS)。 线程安全 Producer 是线程安全的,且可以往任何 Topic 发送消息。通常情况下,一个应用对应一个 Producer 就足够了。 Acks Acks的说明如下: acks0,表示无需服务端的 Response,性能较高,丢数据风险较大; acks1,服务端主节点写成功即返回 Response,性能中等,丢数据风险中等,主节点宕机可能导致数据丢失; acksall,服务端主节点写成功,且备节点同步成功,才返回 Response,性能较差,数据较为安全,主节点和备节点都宕机才会导致数据丢失。 一般建议选择 acks1,重要的服务可以设置 acksall。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        生产者实践
      • 通过SCIM同步用户或用户组的示例
        本文为您介绍如何通过SCIM协议,将Microsoft Entra ID(原Azure AD)中的用户或用户组同步到云SSO 操作步骤 打开自动调配并创建SCIM密钥 1. 登录云SSO控制台。 2. 在左侧导航栏,点击“管理设置”。 3. 在“SCIM”页签下,点击“自动调配”,切换到打开状态。 4. 在下方“访问令牌”处的右侧,点击“生成新令牌”。 5. 在弹出的“生成新访问令牌”对话框中,复制访问令牌,然后点击关闭。 在Microsoft Entra ID中创建应用程序 1. 使用Microsoft Entra ID管理员用户登录Entra管理中心。 2. 在左侧导航栏,选择Entra ID企业应用程序所有应用程序。 3. 单击“新建应用程序”。 4. 在“浏览Microsoft Entra库”页面,点击“创建你自己的应用程序”。 5. 在“创建你自己的应用程序”页面,输入应用程序名称(例如:云SSODEMO),并选择“集成未在库中找到的任何其他应用程序(非库)”,然后点击“创建”。 在Microsoft Entra ID中分配用户或用户组到应用程序 1. 在云SSODEMO的左侧导航栏,点击管理用户和组。 2. 单击左上角的添加用户/组。 3. 选择用户或用户组。 4. 单击分配。 在Microsoft Entra ID中配置SCIM同步 1. 在云SSODEMO页面的左侧导航栏,点击管理预配。 2. 点击左上角的“新配置”,创建预配配置,配置管理员凭据。 3. 在租户URL区域,输入SCIM服务端地址。 说明:该地址从云SSO SCIM配置页面的SCIM终端节点处获取。 4. 在机密标记区域,输入SCIM密钥。 说明:该SCIM密钥从“打开自动调配并创建SCIM密钥”步骤中获取。 5. 点击“测试连接”。 6. 测试成功后,点击“创建”。 7. 在“概述(预览)”页面,点击左上角“启动预配”。
        来自:
        帮助文档
        云SSO
        用户指南
        外部身份同步及单点登录配置
        SCIM用户及组同步方式
        通过SCIM同步用户或用户组的示例
      • 回源SNI
        本文介绍回源SNI功能的原理和使用说明。 功能介绍 如果一个源站IP地址绑定多个域名,且CDN加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源SNI原理 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题,而对SSL/TLS协议所作的一个扩展。它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。开启回源SNI后,CDN节点向源站发起TLS握手时,源站会根据TLS握手中携带的回源SNI信息来确认CDN节点请求的具体域名,然后返回该域名对应的SSL证书给CDN节点。 设置回源SNI后的工作流程如下: 1. 当CDN节点以HTTPS协议回源时,需要在回源SNI中设置访问的域名。 2. 源站收到请求后,返回SNI中设置的域名对应的SSL证书。 3. CDN节点收到SSL证书后,与源站建立连接。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 在【回源SNI】模块,开启功能。 6. 配置SNI。 7. 单击【保存】,完成配置。 参数名 说明 SNI 回源SNI域名,只能配置精确域名,不支持泛域名。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源SNI
      • 表结构设计
        选择分布列 采用Hash分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。 所以Hash分布列选取至关重要,需要满足以下原则: 1.列值应比较离散,以便数据能够均匀分布到各个DN 。例如,考虑选择表的主键为分布列,如在人员信息表中选择身份证号码为分布列。 2.在满足第一条原则的情况下尽量不要选取存在常量filter 的列 。例如,表dwcjk相关的部分查询中出现dwcjk的列zqdh存在常量的约束(例如zqdh’000001’),那么就应当尽量不用zqdh做分布列。 3.在满足前两条原则的情况,考虑选择查询中的连接条件为分布列 ,以便Join任务能够下推到DN中执行,且减少DN之间的通信数据量。 对于Hash分表策略,如果分布列选择不当,可能导致数据倾斜,查询时出现部分DN的I/O短板,从而影响整体查询性能。因此在采用Hash分表策略之后需对表的数据进行数据倾斜性检查,以确保数据在各个DN上是均匀分布的。可以使用以下SQL检查数据倾斜性 select xcnodeid, count(1) from tablename group by xcnodeid order by xcnodeid desc; 其中xcnodeid对应DN,一般来说,不同DN 的数据量相差5% 以上即可视为倾斜,如果相差10% 以上就必须要调整分布列 。 4.一般不建议用户新增一列专门用作分布列,尤其不建议用户新增一列,然后用SEQUENCE的值来填充做为分布列。因为SEQUENCE可能会带来性能瓶颈和不必要的维护成本。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        表结构设计
      • 升级Kakfa实例内核版本
        本章节介绍如何将老的内核版本升级到最新的内核版本。 升级Kafka实例内核版本,指的是将老的内核版本升级到最新的内核版本,升级后,Kafka实例将支持一些新的特性(例如支持在控制台创建消费组、支持查看Topic详情等),并且修复老版本的一些问题。 升级Kafka实例内核版本并不会升级Kafka实例的大版本,例如升级前Kafka版本为2.7,升级内核版本后,Kafka版本还是2.7。 升级内核版本的影响 若Topic为单副本,升级期间无法对该Topic生产消息或消费消息,会造成业务中断。 若Topic为多副本,升级不会造成服务中断,但会逐个节点重启,负载会转移到剩余节点上,建议您在业务低峰期升级。 升级过程中会逐个节点升级,单个节点的升级包括两部分:升级软件包和数据同步。升级软件包耗时在5分钟左右,数据同步耗时取决于升级软件包过程中其他节点Leader副本的生产数据量,数据量越大,所需时间越久。升级总耗时每个节点升级软件包耗时+数据同步耗时。 升级过程中会逐个节点重启监控进程,导致监控数据断点,重启成功后,监控数据恢复。 升级过程中节点滚动重启造成分区Leader切换,会发生秒级连接闪断,在用户网络环境稳定的前提下,Leader切换时长一般为1分钟以内。多副本的Topic需要在生产客户端配置重试机制,方法如下: 生产客户端为Kafka开源客户端时,检查是否配置retries和retry.backoff.ms参数。建议参数值分别配置为:retries10,retry.backoff.ms1000。 生产客户端为Flink客户端时,检查是否配置重启策略,配置重启策略可以参考如下代码。 StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment(); env.setRestartStrategy(RestartStrategies.fixedDelayRestart(10, Time.seconds(20)));
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        升级Kakfa实例内核版本
      • 使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
        导入数据 步骤 1 在顶部菜单栏选择“导入·导出”>“导入”。 步骤 2 DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 从本地导入文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS中文件保存在OBS桶中。 说明 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,然后DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会落盘在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 从OBS桶中导入文件 在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 说明 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 步骤 3 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”继续。 步骤 4 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据库迁移
        使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
      • 创建用于警报和作业的操作员
        本节介绍了创建用于警报和作业的操作员的相关内容。 操作场景 使用存储过程创建用于警报和作业的操作员(通知收件人)。 前提条件 成功连接RDS for SQL Server实例。通过SQL Server客户端连接目标实例。 操作步骤 执行以下命令,创建用于警报和作业的操作员 EXEC [msdb].[dbo].[rdsaddoperator] @name 'name', @enabledenabled, @emailaddress'emailaddress', @pageraddress'pageraddress', @weekdaypagerstarttime weekdaypagerstarttime, @weekdaypagerendtime weekdaypagerendtime, @saturdaypagerstarttime saturdaypagerstarttime, @saturdaypagerendtime saturdaypagerendtime, @sundaypagerstarttime sundaypagerstarttime, @sundaypagerendtime sundaypagerendtime, @pagerdays pagerdays, @netsendaddress'netsendaddress', @categoryname'category'; 表 参数说明 参数 说明 'name' 操作员(通知收件人)的名称。此名称必须唯一,并且不能包含百分号( % )字符。名称为sysname,无默认值。 enabled 指示操作员的当前状态。“enabled”为“tinyint”,默认值为1 (已启用)。 如果为0,则不启用操作员且不会收到通知。 'emailaddress' 操作员的电子邮件地址。此字符串将直接传递到电子邮件系统。“emailaddress”为“nvarchar(100)”,默认值为NULL。 'pageraddress' 操作员的寻呼地址。此字符串将直接传递到电子邮件系统。“pageraddress”为“nvarchar(100)”,默认值为NULL。 weekdaypagerstarttime 时间,在该时间之后SQL Server代理将寻呼通知发送到工作日的指定操作员,从星期一到星期五。“weekdaypagerstarttime”的值为“int”,默认值为090000,指示9:00 A.M。 并且必须使用HHMMSS格式输入。 weekdaypagerendtime 一个时间,在此时间之后,SQLServerAgent服务不再向星期一到星期五的工作日发送寻呼通知。“weekdaypagerendtime”值为“int”,默认值为180000,表示6:00 P.M. 并且必须使用HHMMSS格式输入。 saturdaypagerstarttime SQLServerAgent服务在星期六向指定操作员发送寻呼通知的时间。 “saturdaypagerstarttime”的值为“int”,默认值为090000,指示9:00 A.M。 并且必须使用HHMMSS格式输入。 saturdaypagerendtime 一个时间,在此时间之后,SQLServerAgent服务不再向周六的指定操作员发送寻呼通知。“saturdaypagerendtime”的值为“int”,默认值为180000,表示6:00 P.M. 并且必须使用HHMMSS格式输入。 sundaypagerstarttime SQLServerAgent服务在星期日向指定操作员发送寻呼通知的时间。 “sundaypagerstarttime”的值为“int”,默认值为090000,指示9:00 A.M。 并且必须使用HHMMSS格式输入。 sundaypagerendtime 在星期日上,SQLServerAgent服务不再向指定操作员发送寻呼通知的时间。 “sundaypagerendtime”的值为“int”,默认值为180000,表示6:00 P.M. 并且必须使用HHMMSS格式输入。 pagerdays 是一个数字,指示操作员可用于页面的日期(受限于指定的开始/结束时间)。pagerdays为tinyint,默认值为0,表示运算符从不可用于接收页面。 有效值为0至127。 pagerdays是通过添加所需日期的各个值来计算的。 例如,从星期一到星期五是2+4+8+16+32 62。下表列出了一周中每天的值。 值为1,表示星期日。 值为2,表示星期一。 值为4,表示星期二。 值为8,表示星期三。 值为16,表示星期四。 值为32,表示星期五。 值为64,表示星期六。 'netsendaddress' 要向其发送网络消息的操作员的网络地址。netsendaddress为nvarchar(100),默认值为NULL。 'netsendaddress' 'category' 此操作员的类别名称。category 的类型为sysname,默认值为 NULL。 执行成功后,系统将会如下提示: plaintext Commands completed successfully.
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        存储过程的使用
        创建用于警报和作业的操作员
      • 基于角色的权限管理(RBAC)
        本章节主要介绍最佳实践中基于角色的权限管理(RBAC)。 什么是基于角色的用户管理? 基于角色的用户管理(RoleBased Access Control,简称RBAC)是通过为角色赋予权限,用户通过成为适当的角色而得到这些角色的权限。 角色是一组权限的抽象。 使用RBAC可以极大简化对权限的管理。 什么是RBAC模型? 为角色赋予适当的权限。 指定用户为相应的角色。 场景介绍 假设有两个SCHEMA:s1, s2。 有两组用户: 一组用户包括u1, u2,可以在s1中查询所有表,在s2中更新所有表。 另一组用户包括u3, u4,可以在s2中查询所有表,在s1中更新所有表。 1.使用系统管理员dbadmin连接DWS数据库。 2.复制以下语句在窗口1中执行,创建本用例的SCHEMA s1和s2,用户u1~u4。 说明 示例中'{password}'请替换成实际密码。 CREATE SCHEMA s1; CREATE SCHEMA s2; CREATE USER u1 PASSWORD '{password}'; CREATE USER u2 PASSWORD '{password}'; CREATE USER u3 PASSWORD '{password}'; CREATE USER u4 PASSWORD '{password}'; 3.复制以下语句在窗口1中执行,创建对应的s1.t1,s2.t1表。 CREATE TABLE s1.t1 (c1 int, c2 int); CREATE TABLE s2.t1 (c1 int, c2 int); 4.复制以下语句在窗口1中执行,为表插入数据。 INSERT INTO s1.t1 VALUES (1,2); INSERT INTO s2.t1 VALUES (1,2); 5.复制以下语句在窗口1中执行,创建4个角色。分别对应s1的查询权限、s1的更新权限、s2的查询权限、s2的更新权限。 CREATE ROLE rs1select PASSWORD disable; s1的查询权限 CREATE ROLE rs1update PASSWORD disable; s1的更新权限 CREATE ROLE rs2select PASSWORD disable; s2的查询权限 CREATE ROLE rs2update PASSWORD disable; s2的更新权限 6.复制以下语句在窗口1中执行,将SCHEMA s1和s2的访问权限先授予这些角色。 GRANT USAGE ON SCHEMA s1, s2 TO rs1select, rs1update,rs2select, rs2update; 7.复制以下语句在窗口1中执行,将具体的权限授予这些角色。 GRANT SELECT ON ALL TABLES IN SCHEMA s1 TO rs1select; 将s1下的所有表的查询权限授予角色rs1select GRANT SELECT,UPDATE ON ALL TABLES IN SCHEMA s1 TO rs1update; 将s1下的所有表的查询、更新权限授予角色rs1update GRANT SELECT ON ALL TABLES IN SCHEMA s2 TO rs2select; 将s2下的所有表的查询权限授予角色rs2select GRANT SELECT,UPDATE ON ALL TABLES IN SCHEMA s2 TO rs2update; 将s2下的所有表的查询、更新权限授予角色rs2update 8.复制以下语句在窗口1中执行,将对应的角色授予对应的用户,实现将一组权限授予用户。 GRANT rs1select, rs2update TO u1, u2; u1,u2可以对s1的查询权限、对s2的更新权限。 GRANT rs2select, rs1update TO u3, u4; u3,u4可以对s2的查询权限、对s1的更新权限。 9.复制以下语句在窗口1中执行,可以查看指定用户绑定的角色。 du u1; 10.重新打开一个会话窗口2,以用户u1连接DWS数据库。 gsql d gaussdb h U u1 p 8000 r W {password}; 11.复制以下语句在窗口2中执行,验证用户u1对s1.t1有查询权限而没有更新权限。 SELECT FROM s1.t1; UPDATE s1.t1 SET c2 3 WHERE c1 1; 12.复制以下语句在窗口2中执行,验证用户u1对s2.t1有更新权限。 SELECT FROM s2.t1; UPDATE s2.t1 SET c2 3 WHERE c1 1;
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        安全管理
        基于角色的权限管理(RBAC)
      • 订购AI云电脑
        本节介绍在天翼云电脑移动终端订购云电脑的操作说明。 订购方式 AI云电脑(公众版)使用包年包月的计费方式,订购方式如下: (1)天翼AI云电脑App订购,可前往天翼AI云电脑下载页或在其他安卓应用市场下载安卓移动端,安装完成后在APP内订购。(iOS版暂不支持订购) (2)天翼云官网订购:天翼云网门户>产品>计算>云终端,选择“天翼AI云电脑(公众版)”自助订购。 (3)营业厅订购:请前往当地的电信营业厅咨询天翼AI云电脑产品订购相关内容。 AI云电脑(政企版)使用包年包月的计费方式,订购方式如下: (1)天翼云官网订购:天翼云网门户>产品>计算>云终端,选择“天翼AI云电脑(政企版)”自助订购。通过“单实例”方式开通或“资源包”方式开通。AI云电脑(政企版)连接互联网需单独订购上网带宽。 (2)营业厅订购:请前往当地的电信营业厅咨询天翼AI云电脑产品订购相关内容。 天翼AI云电脑移动端订购AI云电脑(公众版) 提示:天翼AI云电脑安卓移动客户端仅提供天翼AI云电脑(公众版)的订购。 以下是AI云电脑(公众版)在移动客户端的订购流程。 1. 登录“天翼AI云电脑”移动客户端; 2. 选择“首页”,点击顶部的订购入口,进入AI云电脑产品列表; 3. 选择所需要的AI云电脑规格,点击“立即订购”; 4. 进入产品详情页,选择AI云电脑的购买时长,数据盘容量,点击“提交订单”; 5. 确认订单信息后并完成支付; 6. 支付成功后,点击底部导航“AI云电脑”按钮,即可查看并使用AI云电脑(首次开通需要等待一段时间,完成系统初始化设置)。
        来自:
        帮助文档
        天翼云电脑(公众版)
        移动终端指南
        订购AI云电脑
      • Windows客户端安装
        本节介绍在Windows操作系统环境下安装天翼云电脑客户端遇到补丁缺失等问题时的解决方法。 Windows安装运行问题 在Windows操作系统环境下安装云电脑时,为确保云电脑客户端及相关组件正常安装, 需确保Windows installer服务正常运行,系统盘剩余容量大于600M。 Win7系统需提前安装SP1补丁(KB976932)、KB3033929、KB2999226补丁,否则将导致登录客户端报异常退出、桌面不能连接、模块加载失败等问题。用户可参考以下指引完成补丁安装。 Windows7操作系统缺少SP1补丁的解决办法 ●请根据本地计算机操作系统版本,到以下地址下载对应安装包运行安装: ●查看补丁安装情况 第1步 启动Windows 7操作系统,点击任务栏"开始"按钮。选择"所有程序控制面板"项。 第2步 打开"控制面板"程序窗口,点击下侧"程序"图标。 第3步 打开"程序"选项界面,点击上侧"程序和功能"图标。 第4步 打开"程序和功能"选项界面,点击左侧"查看已安装的更新"图标。 KB3033929补丁缺失解决办法 ●请根据本地计算机操作系统版本,到以下地址下载对应安装包运行安装: 32位地址: 64位地址: ●查看补丁安装情况 第1步 启动Windows 7操作系统,点击任务栏"开始"按钮。选择"所有程序控制面板"项。 第2步 打开"控制面板"程序窗口,点击下侧"程序"图标。
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南
        Windows客户端安装
      • ServiceAccount Token安全性提升说明
        : > 7.0.5 官方说明请参见: 说明 如果您在业务中需要一个永不过期的Token,您也可以选择 Token的机制,但还是推荐使用 排查方案 CCE提供以下排查方式供用户参考(CCE 1.21及以上版本的集群均涉及): 排查集群中使用的插件版本。 若用户集群中有使用2.23.34及以下版本Prometheus 插件,则需升级至2.23.34以上版本。 若用户集群中有使用1.15.0及以下版本npd插件,则需升级至最新版本。 通过kubectl连接集群,并通过kubectl get raw "/metrics" grep stale查询,可以看到一个名为serviceaccountstaletokenstotal的指标。 如果该值大于0,则表示当前集群可能存在某些负载正在使用过低的clientgo版本情况,此时请您排查自己部署的应用中是否有该情况出现。如果存在,则尽快将clientgo版本升级至社区指定的版本之上(至少不低于CCE集群的两个大版本,如部署在1.23集群上的应用需要使用1.19版本以上的Kubernetes依赖库)。
        来自:
        帮助文档
        云容器引擎
        用户指南
        权限管理
        ServiceAccount Token安全性提升说明
      • Windows事件日志采集
        附:windows日志事件ID列表 事件ID 对应事件 35 更改时间源 36 时间同步失败 37 时间同步正常 41 表示系统在未先正常关机的情况下重新启动。当出现意外断电关机、系统崩溃时出现此事件ID。 134 当出现时间同步源DNS解析失败时会出现此事件ID。 512 Windows启动事件 513 Windows关机事件 515 受信任的登录过程已经在本地安全机构注册 516 审核失败事件 517 清除安全事件日志事件 518 安全帐户管理器已加载通知数据包 519 进程正在使用无效的本地过程调用(LPC)端口试图伪装客户端并向客户端地址空间答复读取或写入 520 更改系统时间事件 521 无法记录事件 528 登录成功事件 529 登录失败事件用户名未知或密码错误 530 登录失败事件时间限制 531 登录失败事件帐户当前已禁用 532 登录失败事件指定用户帐户已过期 533 登录失败事件不允许用户由此计算机登录 534 登录失败事件不允许该登录类型 535 登录失败事件指定帐户的密码已过期 536 登录失败事件NetLogon组件未激活 537 登录失败由于其他原因登录尝试失败 538 用户注销事件 539 登录失败试图登录时该帐户已锁定 540 登录成功事件 553 检测到重放攻击事件 560 准许对现有对象的访问 560 拒绝对现有对象的访问事件 562 指向对象的句柄已关闭 563 试图打开一个对象并打算将其删除 564 受保护对象已删除 565 访问权限已授予现有的对象类型 566 发生了一般对象操作 567 与使用的句柄关联的权限 568 尝试创建已审核文件的硬链接事件 574 对象权限被修改 576 对新登录指派特殊特权 592 创建新进程事件 592 创建新流程事件 600 对进程指派了主令牌事件 601 用户尝试安装服务事件 602 创建计划的作业事件 608 指派了用户帐户特权 609 移除了用户帐户特权 610 创建删除或修改了与另一域的信任关系 611 创建删除或修改了与另一域的信任关系 612 更改审核策略事件 613 更改IPsec策略事件 614 更改IPsec策略事件 615 更改IPsec策略事件 620 创建删除或修改了与另一域的信任关系 621 对帐户授予了系统访问权 622 从系统移除了系统访问权 623 更改审核策略事件 624 创建用户帐户事件 625 按用户刷新审核策略 626 启用了用户帐户 627 更改密码尝试事件 628 用户帐户密码设置或重置事件 630 删除用户帐户事件 631 启用了安全性的全局组更改事件 632 启用了安全性的全局组更改事件 633 启用了安全性的全局组更改事件 634 启用了安全性的全局组更改事件 635 启用了安全性的全局组更改事件 636 启用了安全性的全局组更改事件 637 启用了安全性的全局组更改事件 638 启用了安全性的全局组更改事件 639 启用了安全性的组更改事件 641 启用了安全性的组更改事件 642 更改用户帐户事件 643 更改域安全策略事件 644 帐户锁定尝试事件 644 用户帐户自动锁定事件 645 帐号及安全组策略更改事件 659 启用了安全性的通用组更改事件 660 启用了安全性的通用组更改事件 661 启用了安全性的通用组更改事件 662 启用了安全性的通用组更改事件 666 帐号及安全组策略更改事件 668 启用了安全性的组更改事件 672 已成功颁发和验证身份验证服务(AS)票证 675 预验证失败事件 680 帐户登录事件 681 登录失败尝试进行域帐户登录事件 682 用户已重新连接至已断开的终端服务器会话 683 用户未注销就断开终端服务器会话 685 更改用户帐户名称事件 698 更改目录服务还原模式密码事件 1074 查看计算机的开机、关机、重启的时间以及原因和注释。 1100 事件记录服务已关闭 1101 审计事件已被运输中断。 1102 审核日志已清除 1102 日志清除 1104 安全日志现已满 1105 事件日志自动备份 1108 事件日志记录服务遇到错误 4199 当发生TCP/IP地址冲突的时候出现此事件ID,用来排查用户IP网络的问题。 4608 Windows正在启动 4608 Windows启动事件 4609 Windows正在关闭 4609 Windows关机事件 4610 本地安全机构已加载身份验证包 4611 已向本地安全机构注册了受信任的登录进程 4611 受信任的登录过程已经在本地安全机构注册 4612 为审计消息排队分配的内部资源已经用尽,导致一些审计丢失。 4612 审核失败事件 4613 清除安全事件日志事件 4614 安全帐户管理器已加载通知包。 4614 安全帐户管理器已加载通知数据包 4615 LPC端口使用无效 4615 进程正在使用无效的本地过程调用(LPC)端口试图伪装客户端并向客户端地址空间答复读取或写入 4616 系统时间已更改。 4616 更改系统时间事件 4617 无法记录事件 4618 已发生受监视的安全事件模式 4621 管理员从CrashOnAuditFail恢复了系统 4622 本地安全机构已加载安全包。 4624 帐户已成功登录 4624 登录成功事件 4625 帐户无法登录 4625 登录失败事件用户名未知或密码错误 4626 用户/设备声明信息 4626 登录失败事件时间限制 4627 集团会员信息。 4628 登录失败事件指定用户帐户已过期 4629 登录失败事件不允许用户由此计算机登录 4630 登录失败事件不允许该登录类型 4631 登录失败事件指定帐户的密码已过期 4632 登录失败事件NetLogon组件未激活 4633 登录失败由于其他原因登录尝试失败 4634 帐户已注销 4634 用户注销事件 4635 登录失败试图登录时该帐户已锁定 4636 登录成功事件 4646 IKE DoS防护模式已启动 4647 用户启动了注销 4648 使用显式凭据尝试登录 4649 检测到重播 4649 检测到重放攻击事件 4650 建立了IPsec主模式安全关联 4651 建立了IPsec主模式安全关联 4652 IPsec主模式协商失败 4653 IPsec主模式协商失败 4654 IPsec快速模式协商失败 4655 IPsec主模式安全关联已结束 4656 请求了对象的句柄 4656 准许对现有对象的访问 4656 拒绝对现有对象的访问事件 4657 注册表值已修改 4658 对象的句柄已关闭 4658 指向对象的句柄已关闭 4659 请求删除对象的句柄 4659 试图打开一个对象并打算将其删除 4660 对象已删除 4660 受保护对象已删除 4661 请求了对象的句柄 4661 访问权限已授予现有的对象类型 4662 对对象执行了操作 4662 发生了一般对象操作 4663 尝试访问对象 4663 与使用的句柄关联的权限 4664 试图创建一个硬链接 4664 尝试创建已审核文件的硬链接事件 4665 尝试创建应用程序客户端上下文。 4666 应用程序尝试了一个操作 4667 应用程序客户端上下文已删除 4668 应用程序已初始化 4670 对象的权限已更改 4670 对象权限被修改 4671 应用程序试图通过TBS访问被阻止的序号 4672 分配给新登录的特权 4672 对新登录指派特殊特权 4673 特权服务被召唤 4674 尝试对特权对象执行操作 4675 SID被过滤掉了 4688 已经创建了一个新流程 4688 创建新进程事件 4688 创建新流程事件 4689 一个过程已经退出 4690 尝试复制对象的句柄 4691 请求间接访问对象 4692 尝试备份数据保护主密钥 4693 尝试恢复数据保护主密钥 4694 试图保护可审计的受保护数据 4695 尝试不受保护的可审计受保护数据 4696 主要令牌已分配给进程 4696 对进程指派了主令牌事件 4697 系统中安装了一项服务 4697 用户尝试安装服务事件 4698 已创建计划任务 4698 创建计划的作业事件 4699 计划任务已删除 4700 已启用计划任务 4701 计划任务已禁用 4702 计划任务已更新 4703 令牌权已经调整 4704 已分配用户权限 4704 指派了用户帐户特权 4705 用户权限已被删除 4705 移除了用户帐户特权 4706 为域创建了新的信任 4706 创建删除或修改了与另一域的信任关系 4707 已删除对域的信任 4707 创建删除或修改了与另一域的信任关系 4708 更改审核策略事件 4709 IPsec服务已启动 4709 更改IPsec策略事件 4710 IPsec服务已禁用 4710 更改IPsec策略事件 4711 PAStore引擎(1%) 4711 更改IPsec策略事件 4712 IPsec服务遇到了潜在的严重故障 4713 Kerberos策略已更改 4714 加密数据恢复策略已更改 4715 对象的审核策略(SACL)已更改 4716 可信域信息已被修改 4716 创建删除或修改了与另一域的信任关系 4717 系统安全访问权限已授予帐户 4717 对帐户授予了系统访问权 4718 系统安全访问已从帐户中删除 4718 从系统移除了系统访问权 4719 系统审核策略已更改 4719 更改审核策略事件 4720 已创建用户帐户 4720 创建用户帐户事件 4721 按用户刷新审核策略 4722 用户帐户已启用 4722 启用了用户帐户 4723 尝试更改帐户的密码 4723 更改密码尝试事件 4724 尝试重置帐户密码 4724 用户帐户密码设置或重置事件 4725 用户帐户已被禁用 4725 帐户当前已禁用 4726 用户帐户已删除 4726 删除用户帐户事件 4727 已创建启用安全性的全局组 4727 启用了安全性的全局组更改事件 4728 已将成员添加到启用安全性的全局组中 4728 启用了安全性的全局组更改事件 4729 成员已从启用安全性的全局组中删除 4729 启用了安全性的全局组更改事件 4730 已删除启用安全性的全局组 4730 启用了安全性的全局组更改事件 4731 已创建启用安全性的本地组 4731 启用了安全性的全局组更改事件 4732 已将成员添加到启用安全性的本地组 4732 启用了安全性的全局组更改事件 4733 成员已从启用安全性的本地组中删除 4733 启用了安全性的全局组更改事件 4734 已删除已启用安全性的本地组 4734 启用了安全性的全局组更改事件 4735 已启用安全性的本地组已更改 4735 启用了安全性的组更改事件 4737 启用安全性的全局组已更改 4737 启用了安全性的组更改事件 4738 用户帐户已更改 4738 更改用户帐户事件 4739 域策略已更改 4739 更改域安全策略事件 4740 用户帐户已被锁定 4740 帐户锁定尝试事件 4740 用户帐户自动锁定事件 4741 已创建计算机帐户 4741 帐号及安全组策略更改事件 4742 计算机帐户已更改 4743 计算机帐户已删除 4744 已创建禁用安全性的本地组 4745 已禁用安全性的本地组已更改 4746 已将成员添加到已禁用安全性的本地组 4747 已从安全性已禁用的本地组中删除成员 4748 已删除安全性已禁用的本地组 4749 已创建一个禁用安全性的全局组 4750 已禁用安全性的全局组已更改 4751 已将成员添加到已禁用安全性的全局组中 4752 成员已从禁用安全性的全局组中删除 4753 已删除安全性已禁用的全局组 4754 已创建启用安全性的通用组 4755 启用安全性的通用组已更改 4755 启用了安全性的通用组更改事件 4756 已将成员添加到启用安全性的通用组中 4756 启用了安全性的通用组更改事件 4757 成员已从启用安全性的通用组中删除 4757 启用了安全性的通用组更改事件 4758 已删除启用安全性的通用组 4758 启用了安全性的通用组更改事件 4759 创建了一个安全禁用的通用组 4760 安全性已禁用的通用组已更改 4761 已将成员添加到已禁用安全性的通用组中 4762 成员已从禁用安全性的通用组中删除 4762 帐号及安全组策略更改事件 4763 已删除安全性已禁用的通用组 4764 组类型已更改 4764 启用了安全性的组更改事件 4765 SID历史记录已添加到帐户中 4766 尝试将SID历史记录添加到帐户失败 4767 用户帐户已解锁 4768 请求了Kerberos身份验证票证(TGT) 4768 已成功颁发和验证身份验证服务(AS)票证 4769 请求了Kerberos服务票证 4770 更新了Kerberos服务票证 4771 Kerberos预身份验证失败 4771 预验证失败事件 4772 Kerberos身份验证票证请求失败 4773 Kerberos服务票证请求失败 4774 已映射帐户以进行登录 4775 无法映射帐户以进行登录 4776 域控制器尝试验证帐户的凭据 4776 帐户登录事件 4777 域控制器无法验证帐户的凭据 4777 登录失败尝试进行域帐户登录事件 4778 会话重新连接到Window Station 4778 用户已重新连接至已断开的终端服务器会话 4779 会话已与Window Station断开连接 4779 用户未注销就断开终端服务器会话 4780 ACL是在作为管理员组成员的帐户上设置的 4781 帐户名称已更改 4781 更改用户帐户名称事件 4782 密码哈希帐户被访问 4783 创建了一个基本应用程序组 4784 基本应用程序组已更改 4785 成员已添加到基本应用程序组 4786 成员已从基本应用程序组中删除 4787 非成员已添加到基本应用程序组 4788 从基本应用程序组中删除了非成员。 4789 基本应用程序组已删除 4790 已创建LDAP查询组 4791 基本应用程序组已更改 4792 LDAP查询组已删除 4793 密码策略检查API已被调用 4794 尝试设置目录服务还原模式管理员密码 4794 更改目录服务还原模式密码事件 4797 试图查询帐户是否存在空白密码 4798 枚举了用户的本地组成员身份。 4799 已枚举启用安全性的本地组成员身份 4800 工作站已锁定 4801 工作站已解锁 4802 屏幕保护程序被调用 4803 屏幕保护程序被解雇了 4816 RPC在解密传入消息时检测到完整性违规 4817 对象的审核设置已更改。 4818 建议的中央访问策略不授予与当前中央访问策略相同的访问权限 4819 计算机上的中央访问策略已更改 4820 Kerberos票证授予票证(TGT)被拒绝,因为该设备不符合访问控制限制 4821 Kerberos服务票证被拒绝,因为用户,设备或两者都不符合访问控制限制 4822 NTLM身份验证失败,因为该帐户是受保护用户组的成员 4823 NTLM身份验证失败,因为需要访问控制限制 4824 使用DES或RC4进行Kerberos预身份验证失败,因为该帐户是受保护用户组的成员 4825 用户被拒绝访问远程桌面。默认情况下,仅当用户是Remote Desktop Users组或Administrators组的成员时才允许用户进行连接 4826 加载引导配置数据 4830 SID历史记录已从帐户中删除 4864 检测到名称空间冲突 4865 添加了受信任的林信息条目 4866 已删除受信任的林信息条目 4867 已修改受信任的林信息条目 4868 证书管理器拒绝了挂起的证书请求 4869 证书服务收到重新提交的证书请求 4870 证书服务撤销了证书 4871 证书服务收到发布证书吊销列表(CRL)的请求 4872 证书服务发布证书吊销列表(CRL) 4873 证书申请延期已更改 4874 一个或多个证书请求属性已更改。 4875 证书服务收到关闭请求 4876 证书服务备份已启动 4877 证书服务备份已完成 4878 证书服务还原已开始 4879 证书服务恢复已完成 4880 证书服务已启动 4881 证书服务已停止 4882 证书服务的安全权限已更改 4883 证书服务检索到存档密钥 4884 证书服务将证书导入其数据库 4885 证书服务的审核筛选器已更改 4886 证书服务收到证书请求 4887 证书服务批准了证书请求并颁发了证书 4888 证书服务拒绝了证书请求 4889 证书服务将证书请求的状态设置为挂起 4890 证书服务的证书管理器设置已更改。 4891 证书服务中的配置条目已更改 4892 证书服务的属性已更改 4893 证书服务存档密钥 4894 证书服务导入并存档了一个密钥 4895 证书服务将CA证书发布到Active Directory域服务 4896 已从证书数据库中删除一行或多行 4897 启用角色分离 4898 证书服务加载了一个模板 4899 证书服务模板已更新 4900 证书服务模板安全性已更新 4902 已创建每用户审核策略表 4904 尝试注册安全事件源 4905 尝试取消注册安全事件源 4906 CrashOnAuditFail值已更改 4907 对象的审核设置已更改 4908 特殊组登录表已修改 4909 TBS的本地策略设置已更改 4910 TBS的组策略设置已更改 4911 对象的资源属性已更改 4912 每用户审核策略已更改 4913 对象的中央访问策略已更改 4928 建立了Active Directory副本源命名上下文 4929 已删除Active Directory副本源命名上下文 4930 已修改Active Directory副本源命名上下文 4931 已修改Active Directory副本目标命名上下文 4932 已开始同步Active Directory命名上下文的副本 4933 Active Directory命名上下文的副本的同步已结束 4934 已复制Active Directory对象的属性 4935 复制失败开始 4936 复制失败结束 4937 从副本中删除了一个延迟对象 4944 Windows防火墙启动时,以下策略处于活动状态 4945 Windows防火墙启动时列出了规则 4946 已对Windows防火墙例外列表进行了更改。增加了一条规则 4947 已对Windows防火墙例外列表进行了更改。规则被修改了 4948 已对Windows防火墙例外列表进行了更改。规则已删除 4949 Windows防火墙设置已恢复为默认值 4950 Windows防火墙设置已更改 4951 规则已被忽略,因为Windows防火墙无法识别其主要版本号 4952 已忽略规则的某些部分,因为Windows防火墙无法识别其次要版本号 4953 Windows防火墙已忽略规则,因为它无法解析规则 4954 Windows防火墙组策略设置已更改。已应用新设置 4956 Windows防火墙已更改活动配置文件 4957 Windows防火墙未应用以下规则 4958 Windows防火墙未应用以下规则,因为该规则引用了此计算机上未配置的项目 4960 IPsec丢弃了未通过完整性检查的入站数据包 4961 IPsec丢弃了重放检查失败的入站数据包 4962 IPsec丢弃了重放检查失败的入站数据包 4963 IPsec丢弃了应该受到保护的入站明文数据包 4964 特殊组已分配给新登录 4965 IPsec从远程计算机收到一个包含不正确的安全参数索引(SPI)的数据包。 4976 在主模式协商期间,IPsec收到无效的协商数据包。 4977 在快速模式协商期间,IPsec收到无效的协商数据包。 4978 在扩展模式协商期间,IPsec收到无效的协商数据包。 4979 建立了IPsec主模式和扩展模式安全关联。 4980 建立了IPsec主模式和扩展模式安全关联 4981 建立了IPsec主模式和扩展模式安全关联 4982 建立了IPsec主模式和扩展模式安全关联 4983 IPsec扩展模式协商失败 4984 IPsec扩展模式协商失败 4985 交易状态已发生变化 5024 Windows防火墙服务已成功启动 5025 Windows防火墙服务已停止 5027 Windows防火墙服务无法从本地存储中检索安全策略 5028 Windows防火墙服务无法解析新的安全策略。 5029 Windows防火墙服务无法初始化驱动程序 5030 Windows防火墙服务无法启动 5031 Windows防火墙服务阻止应用程序接受网络上的传入连接。 5032 Windows防火墙无法通知用户它阻止应用程序接受网络上的传入连接 5033 Windows防火墙驱动程序已成功启动 5034 Windows防火墙驱动程序已停止 5035 Windows防火墙驱动程序无法启动 5037 Windows防火墙驱动程序检测到严重的运行时错 终止 5038 代码完整性确定文件的图像哈希无效 5039 注册表项已虚拟化。 5040 已对IPsec设置进行了更改。添加了身份验证集。 5041 已对IPsec设置进行了更改。身份验证集已修改 5042 已对IPsec设置进行了更改。身份验证集已删除 5043 已对IPsec设置进行了更改。添加了连接安全规则 5044 已对IPsec设置进行了更改。连接安全规则已修改 5045 已对IPsec设置进行了更改。连接安全规则已删除 5046 已对IPsec设置进行了更改。添加了加密集 5047 已对IPsec设置进行了更改。加密集已被修改 5048 已对IPsec设置进行了更改。加密集已删除 5049 IPsec安全关联已删除 5050 尝试使用对INetFwProfile.FirewallEnabled的调用以编程方式禁用Windows防火墙(FALSE 5051 文件已虚拟化 5056 进行了密码自检 5057 加密原语操作失败 5058 密钥文件操作 5059 密钥迁移操作 5060 验证操作失败 5061 加密操作 5062 进行了内核模式加密自检 5063 尝试了加密提供程序操作 5064 尝试了加密上下文操作 5065 尝试了加密上下文修改 5066 尝试了加密功能操作 5067 尝试了加密功能修改 5068 尝试了加密函数提供程序操作 5069 尝试了加密函数属性操作 5070 尝试了加密函数属性操作 5071 Microsoft密钥分发服务拒绝密钥访问 5120 OCSP响应程序服务已启动 5121 OCSP响应程序服务已停止 5122 OCSP响应程序服务中的配置条目已更改 5123 OCSP响应程序服务中的配置条目已更改 5124 在OCSP Responder Service上更新了安全设置 5125 请求已提交给OCSP Responder Service 5126 签名证书由OCSP Responder Service自动更新 5127 OCSP吊销提供商成功更新了吊销信息 5136 目录服务对象已修改 5137 已创建目录服务对象 5138 目录服务对象已取消删除 5139 已移动目录服务对象 5140 访问了网络共享对象 5141 目录服务对象已删除 5142 添加了网络共享对象。 5143 网络共享对象已被修改
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        其他接入方式
        Windows事件日志采集
      • 实时同步
        本节主要介绍实时同步 DRS支持直接同步不同schema的表到同一个schema吗 DRS支持直接同步不同schema的表到同一个schema,表不可以冲突。 DRS实时同步支持使用Online DDL工具吗 DRS MySQL到MySQL的表级增量同步支持使用Online DDL工具进行加减列的操作,需注意以下几点: 因为DRS同步机制和工具的冲突,在同步任务的“设置同步”页面,选择对象同步范围时,不能勾选“增量DDL”项。 使用Online DDL工具进行加列操作时,需先在目标库执行,然后在源库执行。 使用Online DDL工具进行减列操作时,需先在源库执行,再在目标库执行。 常见Online DDL工具: ptonlineschemachange ghost 源库Oracle为RAC集群时,为什么建议使用SCAN IP连接 源库Oracle为RAC集群时,建议使用SCAN IP+ SERVICENAMES方式创建任务,因为SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 如果需要使用SCAN IP,需要保证SCAN IP与源库的所有VIP互通,否则无法通过测试连接检查。 若不使用SCAN IP,可以使用某一节点的VIP,其他节点异常不影响同步。 关于SCAN IP的说明,可参考Oracle官网文档。 源库Oracle补全日志检查方法 Oracle数据库在Physical Standby模式下,日志会从主库直接复制,而自身不产生任何日志。针对Oracle为源的增量同步链路,DRS需要用户提前手动在主库检查补全日志是否符合要求,以保证任务的正常运行。以下检查和设置方法中, 表级:针对指定表的设置。 库级:指整个数据库级别的设置。 PK/UI:每一行日志中除了记录变更的列以外,还额外记录了该行中主键和唯一键的值。 ALL:每一行日志中记录了该行所有列的值。 以下三项检查,满足其中一项即可符合DRS增量同步的基本要求。 表级补全日志PK/UI检查(最低要求) 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 1 在源库中执行以下sql语句。 select from ALLLOGGROUPS where (LOGGROUPTYPE'UNIQUE KEY LOGGING' or LOGGROUPTYPE'PRIMARY KEY LOGGING') and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中能同时对应到LOGGROUPTYPE值为UNIQUE KEY LOGGING和PRIMARY KEY LOGGING的两条记录,即可满足DRS增量同步要求。 步骤 1 如果不满足要求,可执行以下sql语句开启表级PK/UI级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(primary key,unique) columns; 表级补全日志ALL检查 针对用户选择的待同步的表级对象,检查补全日志是否满足要求。 步骤 2 在源库中执行以下sql语句。 select from ALLLOGGROUPS where LOGGROUPTYPE'ALL COLUMN LOGGING' and OWNER'大写SCHEMA名' and TABLENAME'大写表名'; 该表名在查询结果中有记录,即可满足DRS增量同步要求。 步骤 2 如果不满足要求,可执行以下sql语句开启表级ALL级别补全日志。 alter database add supplemental log data; alter table SCHEMA名.表名add supplemental log data(all) columns; 库级补全日志检查 针对待同步的库级对象,检查补全日志是否满足要求。 步骤 3 在源库执行以下sql语句。 select SUPPLEMENTALLOGDATAMIN MIN, SUPPLEMENTALLOGDATAPK PK, SUPPLEMENTALLOGDATAUI UI, SUPPLEMENTALLOGDATAALL ALLLOG from v$database; 步骤 3 满足以下其中一项要求即可。 PK和UI同时为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级PK/UI级别补全日志。 alter database add supplemental log data(primary key, unique) columns; ALLLOG为YES,即可满足DRS增量同步要求。 如果不满足要求,可执行以下sql语句开启库级ALL级别补全日志。 alter database add supplemental log data(all) columns;
        来自:
        帮助文档
        数据库复制
        常见问题
        实时同步
      • 云主机绑定多EIP
        本文介绍如何通过将弹性公网IP与辅助弹性网卡绑定,实现单个云主机绑定多个EIP。 背景信息 单台云主机根据其核数不同,可绑定多个弹性IP,本文将为您介绍单云主机绑定多弹性IP的操作步骤。 业务场景 某公司在天翼云创建了云主机实例,并为其绑定了一个EIP。随着公司业务的增长,现在需要将该云主机实例扩展,使其能够同时拥有3个EIP。为了实现这一目标,您可以采取以下步骤: 方式一: 1. 增加弹性网卡:首先,在该云主机实例上增加2个弹性网卡。 2. 申请弹性IP:在天翼云控制台或者使用相应的API,为该云主机实例申请2个额外的EIP。 3. 绑定弹性IP与辅助弹性网卡:将这2个额外的EIP与辅助弹性网卡的主私网IP分别绑定,实现多个EIP与辅助弹性网卡的私网IP的一一对应。 4. 更新网络配置:在云主机实例内部,根据您的操作系统和网络配置工具,配置并启用新的私网IP地址。这将确保云主机实例能够与所有绑定的EIP建立连接。 方式二: 1. 增加弹性网卡 2. 申请弹性IP 3. 申请虚拟IP 4. 绑定虚拟IP与服务器的弹性网卡 5. 将已绑定网卡的虚拟IP绑定弹性IP 6. 更新网络配置 通过以上步骤,您将成功地将单个云主机实例扩展为同时拥有3个EIP的配置。这将有助于满足公司不断增长的业务需求。 注意 部分资源池仅支持方式二 前提条件 辅助弹性网卡:与要绑定的云主机实例属于同一个VPC。 EIP:各EIP的地域与要绑定的辅助弹性网卡的地域相同。 配置步骤
        来自:
        帮助文档
        弹性IP EIP
        最佳实践
        云主机绑定多EIP
      • 图形化界面安装类
        Ubuntu系列弹性云主机如何安装图形化界面? 操作场景 为了提供纯净的弹性云主机系统给客户,Ubuntu系列弹性云主机默认没有安装图形化界面,如果您需要图形化界面,请参见本节内容进行安装。 约束与限制 本文档适用于Ubuntu14/16/18操作系统云主机。 系统需绑定弹性公网IP或者配置内网镜像源。 弹性云主机安装图形化界面前,请确保云主机内存不小于2GB,否则可能出现图像化界面安装失败,或安装后无法启动的问题。 操作步骤 1. 登录弹性云主机,运行如下命令安装图形化桌面。 a. 执行如下命令,更新软件库。 aptget update b. 执行如下命令,安装Ubuntu图形化桌面。 aptget install xubuntudesktop 运行过程中需要手动两次确认,请选择Y。 2. 执行以下命令,编辑/root/.profile文件。 vi /root/.profile 修改末尾行mesg n true为tty s && mesg n true,修改后该文件内容如下: ~/.profile: executed by Bournecompatible login shells. if [ "$BASH" ]; then if [ f ~/.bashrc ]; then . ~/.bashrc fi fi tty s && mesg n true 3. (Ubuntu 20.04操作系统必选)添加子账号。 安装图形化桌面后,Ubuntu 20.04操作系统禁止root登录,因此需要再安装完成后添加子账号用于登录图像化桌面。 以添加user01用户为例,执行以下命令。 adduser user01 根据提示设置新用户的密码 设置user01的其他信息,该信息均为可选,如果不设置可以 按回车键跳过,最后系统将提示您确认输入的信息是否正确无误。 正确输入"Y"。 4. 重启服务器。 5. 通过控制台提供的VNC登录方式连接服务器,使用root帐号或3中添加的子账号登录图形化界面。 Ubuntu 20.04操作系统需使用添加的子账号登录图像化桌面。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        操作系统管理类
        图形化界面安装类
      • 资源监控
        带宽使用率高问题分析 如果是正常业务访问以及正常应用进程导致的带宽使用率高,需要升级服务器的带宽进行解决。如果是非正常访问,如某些特定IP的恶意访问,或者服务器遭受到了CC攻击。或者异常进程导致的带宽使用率高。可以通过流量监控工具nethogs来实时监测统计各进程的带宽使用情况,并进行问题进程的定位。 使用nethogs工具进行排查 a. 执行以下命令,安装nethogs工具。 yum install nethogs y 安装成功后可以通过netgos命令查看网络带宽的使用情况。 nethogs命令常用参数说明如下: u d:设置刷新的时间间隔,默认为 1s。 u t:开启跟踪模式。 u c:设置更新次数。 u device:设置要监测的网卡,默认是eth0。 运行时可以输入以下参数完成相应的操作: u q:退出nethogs工具。 u s:按发送流量大小的顺序排列进程列表。 u r:按接收流量大小的顺序排列进程列表。 u m:切换显示计量单位,切换顺序依次为KB/s、KB、B、MB。 b. 执行以下命令,查看指定的网络端口每个进程的网络带宽使用情况。 nethogs eth1 回显参数说明如下: u PID:进程 ID。 u USER:运行该进程的用户。 u PROGRAM:进程或连接双方的IP地址和端口,前面是服务器的IP和端口,后面是客户端的IP和端口。 u DEV:流量要去往的网络端口。 u SENT:进程每秒发送的数据量。 u RECEIVED:进程每秒接收的数据量。 c. 终止恶意程序或者屏蔽恶意访问IP。 如果确认大量占用网络带宽的进程是恶意进程,可以使用kill PID命令终止恶意进程。 如果是某个IP恶意访问,可以使用iptables服务来对指定IP地址进行处理,如屏蔽IP地址或限速。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        资源监控
      • 基于Java开发完整示例
        本页介绍了基于Java开发文档数据库服务应用程序的完整示例。 java import com.mongodb.MongoClient; import com.mongodb.MongoClientOptions; import com.mongodb.MongoCredential; import com.mongodb.ServerAddress; import com.mongodb.client.MongoClients; import com.mongodb.client.MongoCollection; import com.mongodb.client.MongoCursor; import com.mongodb.client.MongoDatabase; import com.mongodb.client.model.CreateCollectionOptions; import com.mongodb.client.model.Indexes; import org.bson.Document; import java.util.ArrayList; import java.util.List; import static com.mongodb.client.model.Filters.eq; public class MongoDBExample { public static void main(String[] args) { //用户名 String username ""; //数据库 String databaseName ""; //密码 String password ""; //连接地址 String host ""; //端口 int port 8030; // 创建MongoCredential对象 MongoCredential credential MongoCredential.createCredential(username, databaseName, password.toCharArray()); // 创建MongoClientOptions对象 MongoClientOptions options MongoClientOptions.builder() .retryWrites(true) .build(); // 创建MongoClient实例 MongoClient mongoClient new MongoClient(new ServerAddress(host, port), credential, options); //访问database MongoDatabase memberInfoDatabase mongoClient.getDatabase("MemberInfo"); //访问collection MongoCollection goldMemberCollection memberInfoDatabase.getCollection("goldmember"); //创建collection memberInfoDatabase.createCollection("testCollection", new CreateCollectionOptions().sizeInBytes(200000)); //插入数据 Document doc0 new Document("name", "万三") .append("age", 23) .append("sex", "male"); Document doc1 new Document("name", "刘亚") .append("age", 42) .append("sex", "male"); Document doc2 new Document("name", "王莹") .append("age", 22) .append("sex", "female"); List documents new ArrayList<>(); documents.add(doc0); documents.add(doc1); documents.add(doc2); goldMemberCollection.insertMany(documents); //删除数据 goldMemberCollection.deleteOne(eq("name", "刘亚")); //删除表 MongoCollection collection memberInfoDatabase.getCollection("test"); collection.drop(); //读数据 MongoCursor cursor (MongoCursor ) goldMemberCollection.find(); while (cursor.hasNext()) { Object result cursor.next(); } cursor.close(); //带过滤条件的查询 MongoCursor cursorCondition (MongoCursor )goldMemberCollection.find( new Document("name","zhangsan") .append("age", 5)); while (cursorCondition.hasNext()) { Object result cursorCondition.next(); } cursorCondition.close(); //运行命令 MongoClient mongoClientShell (MongoClient) MongoClients.create(); MongoDatabase database mongoClientShell.getDatabase("MemberInfo"); Document buildInfoResults database.runCommand(new Document("buildInfo", 1)); System.out.println(buildInfoResults.toJson()); Document collStatsResults database.runCommand(new Document("collStats", "restaurants")); System.out.println(collStatsResults.toJson()); //创建索引 MongoCollection collectionTest memberInfoDatabase.getCollection("goldmember"); collectionTest.createIndex(Indexes.ascending("age")); } }
        来自:
        帮助文档
        文档数据库服务
        开发指南
        应用程序开发
        基于Java开发
        基于Java开发完整示例
      • 使用Redis-cli迁移自建Redis(RDB文件)
        本文介绍使用Rediscli迁移自建Redis(RDB文件) 迁移介绍 Rediscli 是 Redis 自带的命令行客户端工具,它允许用户通过命令行与 Redis 服务器进行交互 如果 Redis 服务不支持获取 AOF 文件,你可以尝试使用 Rediscli 工具获取 RDB 文件,并通过其他工具(如 RedisShake)将其导入到 DCS 缓存实例中。 说明 源Redis实例必须支持“SYNC”命令,因为使用Rediscli导出RDB文件依赖SYNC命令。 步骤1:导出前准备 对于主备或集群实例,由于数据写入 RDB 文件存在一定的时延,你可以在迁移之前先了解待迁移 Redis 实例的 RDB 策略配置(策略配置位于 redis.conf 文件中) 为确保 RDB 文件包含完整的缓存数据,建议先暂停业务系统 步骤2:导出RDB文件 说明 建议业务空闲时间进行迁移操作。 待导出的源Redis为集群模式时,需要对集群的每个节点逐一执行导出操作,然后再逐一导入到目标Redis中。 使用如下命令导出RDB文件: ./rediscli h {redisaddress} p {redisport} a {password} rdb {output.rdb} 执行命令后回显"Transfer finished with success.",表示文件导出成功。 步骤3:上传RDB文件至天翼云ECS 为节省传输时间,请先压缩RDB文件再传输。 将压缩文件(如以SFTP/SCP等方式)上传到天翼云ECS。 说明 ECS需保证有足够的磁盘空间,供数据文件存储,同时需要与缓存实例网络互通,通常要求相同VPC和相同子网,且安全组规则不限制访问端口。 步骤4:导入数据 可借助RedisShake工具完成数据导入。 步骤5:迁移后验证 数据导入成功后,请连接DCS缓存实例,通过dbsize命令,确认数据是否导入成功 如果导入不成功,需要分析原因,修正导入语句,然后使用flushall或者flushdb命令清理实例中的缓存数据,并重新导入。
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        自建Redis迁移到DCS
        使用Redis-cli迁移自建Redis(RDB文件)
      • 工作负载和节点的反亲和性
        通过控制台设置 步骤 1 参照创建无状态负载(Deployment)或创建有状态负载(StatefulSet),在“高级设置”的“调度策略”下,单击“工作负载和节点的亲和性 > 与节点的反亲和性”下的“添加”。 步骤 2 勾选工作负载不希望部署到的节点,单击“确定”。 若勾选多个节点,工作负载将不会部署到这些节点上。 通过kubectl命令行设置 本节以nginx为例,说明kubectl命令创建工作负载的方法。 前提条件 请参见通过kubectl操作CCE集群配置kubectl命令,使弹性云主机连接集群。 操作步骤 参见通过kubectl命令行创建无状态工作负载或通过kubectl命令行创建有状态工作负载,工作负载和节点反亲和性的yaml示例如下: apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx spec: replicas: 1 selector: matchLabels: app: nginx strategy: type: RollingUpdate template: metadata: labels: app: nginx spec: containers: image: nginx imagePullPolicy: Always name: nginx imagePullSecrets: name: defaultsecret affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: matchExpressions: key: nodeName node中lable 的key operator: NotIn notin说明不部署 values: testnode1 node中对应key 的value 工作负载创建完成后设置 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”或“工作负载 > 有状态负载 StatefulSet”。 步骤 2 单击工作负载名称进入详情页,单击“调度策略 > 简易调度策略 > 添加反亲和对象”。 步骤 3 对象类型选择“节点”,勾选工作负载不希望部署到的节点,设置完成后当前工作负载不会部署到已选择的节点上。 图添加反亲和对象节点 说明:该方法可新增、编辑和删除调度策略。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        亲和/反亲和性调度
        简易调度策略
        工作负载和节点的反亲和性
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 创建CSS类型跨源认证
        本章节主要介绍如何创建CSS类型跨源认证。 操作场景 通过在DLI控制台创建的CSS类型的跨源认证,将CSS安全集群的认证信息存储到DLI,无需在SQL作业中配置帐号密码,安全访问CSS安全集群。 本节操作介绍在DLI控制台创建CSS安全集群的跨源认证的操作步骤。 操作须知 已创建CSS安全集群,且集群满足以下条件: CSS集群版本选择“6.5.4”或“6.5.4”以上版本。 CSS集群已开启“安全模式”。 操作步骤 1. 下载CSS安全集群的认证凭证。 a.登录CSS服务管理控制台,单击“集群管理”。 b.在“集群管理”页面中,单击对应的集群名称,进入“基本信息”页面。 c.单击“安全模式”后的下载证书,下载CSS安全集群的证书。 2. 将认证凭证上传到OBS桶。 3. 创建跨源认证。 a.登录DLI管理控制台。 b.选择“跨源管理 > 跨源认证”。 c.单击“创建”。 填写CSS认证信息,详细参数说明请参考下表。 参数说明 参数 参数说明 认证信息名称 所创建的跨源认证信息名称。 名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 输入长度不能超过128个字符。 建议名称中包含CSS安全集群的名称,便于区分不同集群的安全认证信息。 类型 选择CSS。 用户名 安全集群的登录用户名。 用户密码 安全集群的登录密码。 Certificate路径 上传“安全证书”的OBS路径。即步骤2的OBS桶地址。 4. 访问CSS的表。 跨源认证创建成功后,在创建访问CSS的表时只需关联跨源认证即可安全访问数据源。 例如在使用Spark SQL来创建访问CSS的表时使用es.certificate.name字段配置跨源认证信息名称,配置连接安全CSS集群。
        来自:
        帮助文档
        数据湖探索
        用户指南
        跨源认证
        创建CSS类型跨源认证
      • 查看规格列表
        枚举参数 无 请求示例 请求url GET /v4/elb/querysla/?regionIDxxxx 请求头header 无 请求体body 无 响应示例 { "statusCode": 800, "errorCode": "SUCCESS", "message": "success", "description": "成功", "returnObj": [ { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2549c05f1011eda1c2005056897257", "name": "elb.s2.small", "description": "该规格最大可支持连接数: 100000, 新建连接数(CPS): 10000, 每秒查询次数(QPS)1000", "spec": "标准型I" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f254e485f1011eda1c2005056897257", "name": "elb.s2.large", "description": "该规格最大可支持连接数: 200000, 新建连接数(CPS): 20000, 每秒查询次数(QPS)2000", "spec": "标准型II" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2550b45f1011eda1c2005056897257", "name": "elb.s3.small", "description": "该规格最大可支持连接数: 400000, 新建连接数(CPS): 30000, 每秒查询次数(QPS)4000", "spec": "增强型I" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2552d05f1011eda1c2005056897257", "name": "elb.s3.large", "description": "该规格最大可支持连接数: 600000, 新建连接数(CPS): 50000, 每秒查询次数(QPS)6000", "spec": "增强型II" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2554c45f1011eda1c2005056897257", "name": "elb.s4.small", "description": "该规格最大可支持连接数: 1000000, 新建连接数(CPS): 50000, 每秒查询次数(QPS)10000", "spec": "高阶型I" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2556ae5f1011eda1c2005056897257", "name": "elb.s4.large", "description": "该规格最大可支持连接数: 2000000, 新建连接数(CPS): 100000, 每秒查询次数(QPS)20000", "spec": "高阶型II" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2558985f1011eda1c2005056897257", "name": "elb.s5.small", "description": "该规格最大可支持连接数: 4000000, 新建连接数(CPS): 200000, 每秒查询次数(QPS)40000", "spec": "超强型I" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f255a785f1011eda1c2005056897257", "name": "elb.s5.large", "description": "该规格最大可支持连接数: 10000000, 新建连接数(CPS): 500000, 每秒查询次数(QPS)100000", "spec": "超强型II" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f25415a5f1011eda1c2005056897257", "name": "elb.default", "description": "该规格不限制连接数, 仅用于存量实例的维护和升级前新建传统型实例的维护", "spec": "存量" }, { "regionID": "81f7728662dd11ec810800155d307d5b", "azName": null, "projectID": "0", "ID": "9f2546d25f1011eda1c2005056897257", "name": "elb.s1.small", "description": "该规格最大可支持连接数: 30000, 新建连接数(CPS): 5000, 每秒查询次数(QPS)1000", "spec": "免费型" } ] }
        来自:
        帮助文档
        弹性负载均衡 ELB
        API参考
        API
        2022-09-09
        新版
        负载均衡实例
        查看规格列表
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 字符串函数
        函数 说明 strformat 判断日志字段是否存在 strjoin 判断日志字段是否不存在。支持和其他函数组合使用。 strzip 通过连接符将输入的字符串连接生成一个新的字符串。 strencode 按照指定的编码格式对字符串进行编码。 strdecode 按照指定的编码格式对传入值进行解码。 strhexescapeencode 转义特殊字符,支持将十六进制字符转义为中文字符。 struuid 随机生成UUID。 strsort 将指定的对象进行排序。 strreverse 将一个字符串进行反转。 strreplace 根据规则将旧字符串替换成新字符串。 strtranslate 将字符串中的指定字符按照对应关系进行替换。 strstrip 删除字符串中指定的字符。 strlstrip 删除字符串开头的指定字符。 strrstrip 删除字符串结尾的指定字符。 strlower 将字符串中所有大写字符转换为小写字符。 strcapitalize 将字符串的第一个字母转化为大写,其他字母转化为小写。 strswapcase 对字符串的大小写字母进行转换。 strcount 统计字符串里某个字符出现的次数。 strfind 判断原字符串中是否包含指定的子字符串。 strrfind 查找字符串中指定字符或者字符串最后一次出现的位置。 strendswith 判断字符串是否以指定后缀结尾。 strstartswith 判断字符串是否以指定字符串开头。 strsplit 通过指定分隔符对字符串进行分割。 strsplitlines 通过换行符符对字符串进行分割。 strpartition 根据指定的分隔符将字符串从左往右分割为三部分。 strrpartition 根据指定的分隔符将字符串从右往左分割为三部分。 strcenter 用指定字符将字符串填充到指定长度。 strljust 用指定字符将字符串从结尾填充至指定长度。 strrjust 用指定字符将原字符串从开头填充至指定长度。 strzfill 用字符0从开头将字符串填充至指定长度。 strexpandtabs 将字符串中的t转为空格。 strisalnum 判断字符串是仅由字母和数字组成。 strisalpha 判断字符串是否仅由字母组成。 strisascii 判断字符串是否在ASCII中。 strisdecimal 判断字符串是否仅包含十进制字符。 strisdigit 判断字符串是否仅由数字组成。 strislower 判断字符串是否由小写字母组成。 strisspace 判断字符串是否仅由空格字符组成。 stristitle 判断字符串中所有单词的拼写首字母是否为大写,且其他字母为小写。 strisupper 判断字符串中所有的字母是否都为大写。
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        数据加工语法
        字符串函数
      • 数据库参数
        本页介绍了文档数据库服务参数。 能否调整实例的时区设定 鉴于无法调整文档数据库服务的时区设置,您可以通过在应用程序中获取当前时间并将其插入到表中的方式来处理。 用户需要关注实例的哪些参数 storage.engine 这个参数用于指定 MongoDB 使用的存储引擎,默认为 WiredTiger。可以根据需求选择其他存储引擎,如 InMemory 引擎或 MMAPv1 引擎。 storage.wiredTiger.engineConfig.cacheSizeGB 对于使用 WiredTiger 存储引擎的 MongoDB,这个参数用于配置缓存大小,即存储引擎使用的内存量。根据数据量和可用内存设置合适的值。 net.maxIncomingConnections 这个参数限制 MongoDB 实例可以同时处理的连接数。通过适当设置这个参数,可以控制 MongoDB 的并发连接数量。 security.authorization 使用这个参数可以启用或禁用 MongoDB 的访问控制功能。设置为 true 时,需要进行身份验证才能访问 MongoDB。 MapReduce提示不支持JavaScript MapReduce是一种用于对大型数据集进行处理和分析的功能强大的工具。然而,从安全性和性能方面考虑,在某些情况下可能会限制使用JavaScript代码,包括在MapReduce中执行JavaScript代码。 这种限制的目的是为了减少潜在的安全风险,避免不当的代码执行以及提高执行效率。JavaScript代码的执行可能会引起一些潜在的问题,例如代码注入攻击和性能下降。 为了安全考虑,mongodb默认限制了JavaScript脚本的执行。 文档数据库服务数据一致性策略:writeConcern与readConcern的运用与限制 MongoDB的写入和读取是数据库操作中重要的两个方面。为了确保数据的可靠性和一致性,MongoDB提供了writeConcern和readConcern这两个机制。 当我们谈论writeConcern时,实际上是在谈论写入操作的策略。通过配置writeConcern,我们可以控制数据写入的行为。例如,当我们将writeConcern设置为"majority"级别时,MongoDB会确保数据被写入到大多数节点上,从而降低了数据丢失的风险。这意味着,即使部分节点发生故障,大多数节点仍然保存着相同的数据,保障了数据的可靠性。 而readConcern则是与读取操作相关的策略。当我们设置readConcern为"majority"级别时,MongoDB会确保所读取的数据已经被写入到了大多数节点上。这就消除了因为读取操作而引起的脏读问题,因为我们可以确信读取到的数据已经经过大多数节点的确认。 然而,需要注意的是,目前文档数据库服务并不直接支持设置readConcern为"majority"级别。但这并不妨碍我们保障数据的一致性。通过设置writeConcern为"majority",我们可以将数据写入到大多数节点,从而实现了大多数节点数据的一致性。随后,通过读取单个节点的数据,仍然可以保证读取到的内容是已经经过多数节点确认的,避免了脏读的问题。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库参数
      • 创建并管理工作空间
        创建工作空间 步骤 1 以DAYU Administrator 或Tenant Administrator账号登录DataArts Studio管理控制台。 步骤 2 在“空间管理”页签,单击“新建”,在空间信息页面请根据页面提示配置参数,参数说明如表1 所示。 表1 新建空间参数说明 参数名 说明 空间名称 空间名称,只能包含字母、数字、下划线、中划线、中文字符,且长度不超过32个字符。在当前的DataArts Studio实例中,工作空间名称必须唯一。 空间描述 空间的描述信息。 空间模式 选择新建工作新建工作空间的模式。 l简单模式:即传统的DataArts Studio工作空间模式,使用方便,但无法对数据开发流程和表权限进行强管控。 l企业模式:企业模式下DataArts Studio数据开发组件以及对应管理中心组件数据连接支持设置开发环境和生产环境,有效隔离开发者对生产环境业务的影响。企业模式的相关介绍请参见 DataArts Studio企业模式概述。 企业项目 DataArts Studio实例默认工作空间关联的企业项目。 如果已经创建了企业项目,这里才可以选择。当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio工作空间的企业项目与该云服务实例的企业项目相同。 l一个企业项目下只能创建一个DataArts Studio实例。 l需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 作业日志OBS路径 用于指定DataArts Studio数据开发作业的日志存储的OBS桶。工作空间成员如需使用DataArts Studio数据开发,必须具备“作业日志OBS桶”的读、写权限,否则,在使用过程中,系统将无法正常读、写数据开发的作业日志。 l单击“请选择”按钮,您可以选择一个已创建的OBS桶和对象,系统将基于工作空间全局配置作业日志OBS桶。 l如果不配置该参数,DataArts Studio数据开发的作业日志默认存储在以“dlflog{projectId}”命名的OBS桶中。{projectId}即项目ID,您可以参考获取项目ID和账号ID进行获取。 DLI脏数据OBS路径 用于指定DataArts Studio数据开发中DLI SQL执行过程中的脏数据存储的OBS桶。工作空间成员如需使用DataArts Studio数据开发执行DLI SQL,必须具备“DLI脏数据OBS桶”的读、写权限,否则,在使用过程中,系统将无法正常读、写DLI SQL执行过程中的脏数据。 l单击“请选择”按钮,您可以选择一个已创建的OBS桶和对象,系统将基于工作空间全局配置DLI脏数据OBS桶。 l如果不配置该参数,DataArts Studio数据开发的DLI SQL脏数据默认存储在以“dlflog{projectId}”命名的OBS桶中。 步骤 3 配置完成后,单击“确定”完成工作空间的创建。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        准备工作
        管理工作空间
        创建并管理工作空间
      • 使用须知
        实例ID 每个实例的标识 实例密码 auth的认证密码。集群版实例密码为:实例名实例密码;标准版实例:实例密码。 DB Redis中的Database,范围[0,255]。 Redis连接数 接入机与每个redis节点之间的连接数。 空闲Redis连接数 接入机与每个redis节点的空闲连接数。 客户端最大连接数 客户端可创建的最大连接数。
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        使用须知
      • 1
      • ...
      • 107
      • 108
      • 109
      • 110
      • 111
      • ...
      • 139
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      弹性伸缩服务 AS

      训推服务

      模型推理服务

      应用托管

      科研助手

      知识库问答

      人脸属性识别

      推荐文档

      产品功能

      术语解释

      产品定义

      实例管理

      导入数据

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号