爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      SQL自动生成字段功能实现

      首页 知识中心 数据库 文章详情页

      SQL自动生成字段功能实现

      2023-05-23 01:22:48 阅读次数:465

      sql,字段

      背景

      最近在维护的一款数据产品,有一个数据推送功能,就是把数据从A数据源同步到B数据源。通过SQL指定A数据源里面的数据表,和字段。

      前面有SQL编辑框,可以提交语法无误的SQL。上面截图中的字段,表示期望推送到下游数据源的字段。左侧提供一个自动生成字段的功能,当然,右侧提供一个控件,支持用户手动输入多个字段(英文逗号分隔)。

      实现

      JDBC

      这种方案很容易想到,想要获取查询字段,那就把SQL语句提交执行一遍,然后获取查询字段。

      出版如下:

      public List<String> getSqlColumn(String sql) throws Exception {
      if (StringUtils.isBlank(sql)) {
      return Collections.emptyList();
      }
      List<String> columns = new ArrayList<>();
      Connection con = null;
      Statement ps = null;
      ResultSet rs = null;
      try {
      JSONObject dataSourceJson = JSONObject.parseObject(JSONObject.toJSONString(dataSource));
      con = JdbcUtil.getConnection(dataSourceJson);
      if (con == null) {
      throw new Exception("getSqlColumn jdbc connection failed.");
      }
      ps = con.createStatement();
      rs = ps.executeQuery(sql);
      ResultSetMetaData metaData = rs.getMetaData();
      int columnCount = metaData.getColumnCount();
      if (columnCount != 0) {
      for (int j = 0; j < columnCount; j++) {
      columns.add(j, metaData.getColumnName(j + 1));
      }
      }
      } catch (Exception e) {
      throw new Exception("getSqlColumn error: " + e);
      } finally {
      if (rs != null) {
      rs.close();
      }
      if (ps != null) {
      ps.close();
      }
      if (con != null) {
      con.close();
      }
      }
      return columns;
      }

      这段代码的逻辑很简单,但是稍微思考就知道有如下几个问题:

      1. 如果不知道数据源的URL、用户名、密码,或者由于密码更新等情况,对于简简单单的非常通用的​​select 1 as name​​查询语句,JDBC将连接失败,获取查询字段失败;
      2. 对于多段SQL,如先建表再查询:​​drop table if exists aa;create table aa as select * from ... ... ;select * from aa ... ...;​​​,SQL语句是应该直接全部提交还是分批提交呢?如果只根据最后一个select查询子句,提交到JDBC执行,会抛出​​table not exists​​问题;
      3. 多段SQL,多个建表或者join查询语句,耗时非常久

      Druid SQL Parser

      这种方式的好处是:无需执行(多段)SQL,直接根据各种SQL方言(dialect)的语法规范来解析。尤其适用于前面有若干个建表语句后,最后再来一个select查询语句这种。

      初版如下:

      public static List<String> getSelectColumns(String sql, String jdbcType) {
      List<String> columns = new ArrayList<>();
      SQLStatementParser parser = SQLParserUtils.createSQLStatementParser(sql, jdbcType);
      List<SQLStatement> stmtList = parser.parseStatementList();
      if (CollectionUtils.isEmpty(stmtList)) {
      throw new RuntimeException("未发现SELECT语句");
      }
      // 取最后一条语句
      SQLStatement stmt = stmtList.get(stmtList.size() - 1);
      // 接收查询字段
      List<SQLSelectItem> items = new ArrayList<>();
      if (stmt instanceof SQLSelectStatement) {
      SQLSelectStatement statement = (SQLSelectStatement) stmt;
      SQLSelect sqlselect = statement.getSelect();
      SQLSelectQueryBlock query = (SQLSelectQueryBlock) sqlselect.getQuery();
      items = query.getSelectList();
      }
      for (SQLSelectItem s : items) {
      String column = StringUtils.isEmpty(s.getAlias()) ? s.toString() : s.getAlias();
      // 防止字段重复
      s.getExpr().getAttributes();
      if (!columns.contains(column)) {
      columns.add(column);
      }
      }
      return columns;
      }

      注,使用的alibaba druid版本如下,算是比较新:

      <dependency>
      <groupId>com.alibaba</groupId>
      <artifactId>druid</artifactId>
      <version>1.2.8</version>
      </dependency>

      方案选择

      由于我们平台的业务方提交的SQL语句一般都是多段SQL,并且是多段建表语句这种,采用JDBC这种方式,自动获取字段就得把全部SQL语句执行一遍,耗时非常久,动辄20~25分钟。

      经过考虑,弃用JDBC这种方式,选择SQL Parser这种方式。

      问题

      本地开发自测时成就感满满。结果上线后,遇到各种各样的数据源和SQL,啪啪啪打脸。遇到如下几类问题

      问题1 select *

      对于​​select * from user​​​这种简单的没有列出查询字段的select查询语句,druid sql parser解析得到的字段是​​*​​。

      深有一种what the fuck的感觉,这算哪门子解析、更新druid版本,还是不行。

      不过,这完全不是druid的问题!!!

      问题2 com.alibaba.druid.sql.ast.statement.SQLUnionQuery cannot be cast to com.alibaba.druid.sql.ast.statement.SQLSelectQueryBlock

      很简单的SQL,druid sql parser解析失败:

      select 111 as userId
      union all
      select 222 as userId;

      问题3 java.lang.IllegalArgumentException: No enum constant com.alibaba.druid.sql.ast.expr.SQLIntervalUnit.DAYS

      经过简化的报错的SQL如下:

      select
      a.user_id
      from
      (
      select
      allot_time,
      user_id
      from
      ods.tb_dunt_case_v2
      where
      isactive
      ) a
      join (
      select
      creation_date,
      user_id
      from
      edw.d_cs_dunt_record_fly
      where
      dt >= to_date(now() - interval 2 days)
      and user_id is not null
      ) c on a.user_id = c.user_id
      and to_date(a.allot_time) <= to_date(c.creation_date);

      再去看一下​​com.alibaba.druid.sql.ast.expr.SQLIntervalUnit.java​​枚举类的定义,有DAY,没有DAYS。

      问题4 ParseException shuffle/[shuffle]

      具体的报错信息如下:

      java.lang.Exception: org.apache.hive.service.cli.HiveSQLException: ParseException: Syntax error in line 12:
      left join shuffle (select t1.borrowerid,
      ^
      Encountered: (
      Expected: AS, CROSS, DEFAULT, FULL, GROUP, HAVING, INNER, JOIN, LEFT, LIMIT, OFFSET, ON, ORDER, RIGHT, STRAIGHT_JOIN, TABLESAMPLE, UNION, USING, WHERE, COMMA, IDENTIFIER
      CAUSED BY: Exception: Syntax error

      不管shuffle是否有中括号,druid sql-parser解析都有问题。

      问题5 as ‘中文别名’

      对于如下含有​​as '中文别名'​​的SQL:

      SQL自动生成字段功能实现

       

      解析出来的字段包括英文双引号:

      SQL自动生成字段功能实现

       

      其实这算不上啥问题,毕竟用户提交的​​AS​​​SQL就是这样写的。正常的SQL写法是:​​AS 车抵贷成交金额​​​但在我负责的产品功能应用场景下,需要根据​​"中文别名"​​这个字段,来获取SQL查询结果里该字段对应的数据,即把具体的数据替换掉改别名。而hive-jdbc在执行SQL之后,getColumnLabel获取到的字段是不带引号的,会出现数据替换失败的问题。

      SQL自动生成字段功能实现

       

      解决方案:

      if (!columns.contains(column)) {
      // as '中文别名' 特殊逻辑
      if (column.contains("\"") && !StringUtil.isEnglish(column)) {
      columns.add(column.replaceAll("\"", ""));
      } else {
      columns.add(column);
      }
      }

      ​​StringUtil.java​​工具类:

      public static boolean isEnglish(String p) {
      byte[] bytes = p.getBytes();
      // i为字节长度
      int i = bytes.length;
      // j为字符长度
      int j = p.length();
      return i == j;
      }

      问题6 getColumnName获取不到大小写/驼峰命名字段

      getColumnName vs getColumnLabel,区别

      问题7 getColumnLabel + hive-jdbc获取不到大小写/驼峰命名字段

      最终版

      优先考虑使用Druid SQL Parser解析方式,如果遇到SQL parser解析失败的情况,则抛异常(druid自身也会抛异常);然后在​​catch​​​代码块里面使用JDBC的方式,分次提交前面​​N-1​​​条多段SQL​​Statement.execute(sql)​​​,最后再执行查询语句:​​Statement.executeQuery(sql)​​。

      源码如下:

      /**
      * 取查询字段
      *
      * @param sql sql, 支持英文分号间隔的多段SQL
      * @param jdbcType like mysql, clickhouse, etc.
      * @return list of selected columnNames
      */
      public List<String> getSqlColumn(String sql) throws Exception {
      if (StringUtils.isBlank(sql)) {
      return Collections.emptyList();
      }
      List<String> columns = new ArrayList<>();
      Connection con = null;
      Statement ps = null;
      ResultSet rs = null;
      try {
      // 以`;`作为分隔符,故而SQL里面如果使用到group_concat函数一定不能使用`;`字段
      String[] sqlArr = SqlUtil.getAsSubQuery(sql).split(";");
      // alibaba druid sql-parse 解析最后一条子SQL获取字段
      try {
      columns = SqlUtil.getSelectColumns(sqlArr[sqlArr.length - 1], SqlUtil.getDbType(dataSource.get("driver")));
      } catch (Exception e) {
      JSONObject dataSourceJson = JSONObject.parseObject(JSONObject.toJSONString(dataSource));
      con = JdbcUtil.getConnection(dataSourceJson);
      if (con == null) {
      for (int i = 0; i < 2; i++) {
      if (con == null) {
      con = JdbcUtil.getConnection(dataSourceJson);
      }
      }
      }
      if (con == null) {
      throw new Exception("getSqlColumn jdbc connection failed.");
      }
      ps = con.createStatement();
      // 先执行前面若干条准备语句
      for (int y = 0; y < sqlArr.length - 1; y++) {
      String subSql = SqlUtil.getAsSubQuery(sqlArr[y]);
      ps.execute(subSql);
      }
      rs = ps.executeQuery(sqlArr[sqlArr.length - 1]);
      ResultSetMetaData metaData = rs.getMetaData();
      int columnCount = metaData.getColumnCount();
      if (columnCount != 0) {
      for (int j = 0; j < columnCount; j++) {
      // 注意: hive-jdbc, odps-jdbc等JDBC实现, getColumnLabel并不能拿到大小写/驼峰命名字段
      columns.add(j, metaData.getColumnLabel(j + 1));
      }
      }
      }
      } catch (Exception e) {
      throw new Exception("getSqlColumn error:" + e);
      } finally {
      if (rs != null) {
      rs.close();
      }
      if (ps != null) {
      ps.close();
      }
      if (con != null) {
      con.close();
      }
      }
      return columns;
      }

      ​​SqlUtil.java​​如下:

      /**
      * 取查询字段
      *
      * @param sql sql
      * @param jdbcType mysql
      * @return list of selected column
      */
      public static List<String> getSelectColumns(String sql, String jdbcType) {
      List<String> columns = new ArrayList<>();
      if (StringUtils.isBlank(jdbcType)) {
      jdbcType = "mysql";
      }
      SQLStatementParser parser = SQLParserUtils.createSQLStatementParser(sql, jdbcType);
      List<SQLStatement> stmtList = parser.parseStatementList();
      if (CollectionUtils.isEmpty(stmtList)) {
      throw new RuntimeException("未发现SELECT语句");
      }
      // 取最后一条语句
      SQLStatement stmt = stmtList.get(stmtList.size() - 1);
      // 接收查询字段
      List<SQLSelectItem> items = new ArrayList<>();
      if (stmt instanceof SQLSelectStatement) {
      SQLSelectStatement statement = (SQLSelectStatement) stmt;
      SQLSelect sqlselect = statement.getSelect();
      SQLSelectQueryBlock query;
      if (sqlselect.getQuery() instanceof SQLUnionQuery) {
      // union (all)兼容
      query = sqlselect.getFirstQueryBlock();
      } else {
      query = (SQLSelectQueryBlock) sqlselect.getQuery();
      }
      items = query.getSelectList();
      }
      for (SQLSelectItem s : items) {
      String column = StringUtils.isEmpty(s.getAlias()) ? s.toString() : s.getAlias();
      // 防止字段重复
      s.getExpr().getAttributes();
      if (!columns.contains(column)) {
      // as '中文别名' 特殊逻辑, 替换为 as 中文别名
      if (column.contains("\"") && !StringUtil.isEnglish(column)) {
      columns.add(column.replaceAll("\"", ""));
      } else {
      columns.add(column);
      }
      }
      }
      if (columns.size() > 0 && columns.get(0).equals("*")) {
      throw new RuntimeException("暂不支持*,请列出查询字段!");
      }
      List<String> finalColumns = Lists.newArrayListWithExpectedSize(columns.size());
      for (String item : columns) {
      // 反单引号处理
      item = item.replaceAll("`", "");
      if (item.contains(".")) {
      // 表名前缀处理
      finalColumns.add(item.substring(item.indexOf(".") + 1));
      } else {
      finalColumns.add(item);
      }
      }
      return finalColumns;
      }

      public static String getDbType(String driver) {
      if (StringUtils.isNotBlank(driver)) {
      return DbDriverTypeEnum.getNameByDbDriverType(driver).equals("impala") ? "hive" : DbDriverTypeEnum.getNameByDbDriverType(driver);
      }
      return "mysql";
      }

      ​​DbDriverTypeEnum.java​​​枚举类如下,一定要注意​​name​​​这个属性字段,必须和​​druid sql-parser​​​里面的枚举类​​com.alibaba.druid.DbType.java​​一模一样,不能有空格,大小写保持一致:

      @Getter
      @AllArgsConstructor
      public enum DbDriverTypeEnum {
      // 严格来说是Hive
      IMPALA("impala", "org.apache.hive.jdbc.HiveDriver", "jdbc"),
      MYSQL("mysql", "com.mysql.cj.jdbc.Driver", "jdbc"),
      SQLSERVER("sqlserver", "com.microsoft.sqlserver.jdbc.SQLServerDriver", "jdbc"),
      ORACLE("oracle", "oracle.jdbc.OracleDriver", "jdbc"),
      DB2("db2", "com.ibm.db2.jcc.DB2Driver", "jdbc"),
      POSTGRESQL("postgresql", "org.postgresql.Driver", "jdbc"),
      CLICKHOUSE("clickhouse", "ru.yandex.clickhouse.ClickHouseDriver", "jdbc"),
      ODPS("odps", "com.aliyun.odps.jdbc.OdpsDriver", "jdbc"),
      ;

      private final String name;
      private final String dbDriverType;
      private final String connectionType;

      public static String getNameByDbDriverType(String dbDriverType) {
      String name = "";
      for (DbDriverTypeEnum ddt : DbDriverTypeEnum.values()) {
      if (ddt.dbDriverType.equals(dbDriverType)) {
      name = ddt.getName();
      break;
      } else {
      name = MYSQL.getName();
      }
      }
      return name;
      }

      }
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/u_15851118/5807181,作者:johnny233,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:使用PowerDesigner做数据库设计(二)

      下一篇:Redis底层数据结构的映射关系

      相关文章

      2025-05-14 10:03:13

      【Mybatis】-动态SQL

      【Mybatis】-动态SQL

      2025-05-14 10:03:13
      include , set , sql , SQL , 条件 , 标签
      2025-05-14 10:02:58

      30天拿下Rust之结构体

      在Rust语言中,结构体是一种用户自定义的数据类型,它允许你将多个相关的值组合成一个单一的类型。结构体是一种复合数据类型,可以用来封装多个不同类型的字段,这些字段可以是基本数据类型、其他结构体、枚举类型等。通过使用结构体,你可以创建更复杂的数据结构,并定义它们的行为。

      2025-05-14 10:02:58
      Rust , 使用 , 字段 , 实例 , 方法 , 示例 , 结构
      2025-05-13 09:53:23

      java动态获取实体类的字段

      在Java中,我们可以使用反射(Reflection)API来动态地获取实体类的字段。

      2025-05-13 09:53:23
      API , Java , 使用 , 字段 , 实体类 , 方法 , 获取
      2025-05-13 09:51:29

      oracle 10.2.0.4安装ogg执行ddl_setup.sql时,报警“ORA-20783:RECYCLEBIN must be turned off”

      oracle 10.2.0.4安装ogg执行ddl_setup.sql时,报警“ORA-20783:RECYCLEBIN must be turned off”

      2025-05-13 09:51:29
      ORA , setup , sql
      2025-05-13 09:51:29

      ogg目标端表比源端多一个字段的同步测试

      ogg目标端表比源端多一个字段的同步测试

      2025-05-13 09:51:29
      ogg , 同步 , 字段 , 测试
      2025-05-13 09:50:48

      sql*plus中文乱码

      sql*plus中文乱码

      2025-05-13 09:50:48
      sql , 中文 , 乱码
      2025-05-13 09:50:48

      查找正在执行的select以及dml语句的相关信息

      查找正在执行的select以及dml语句的相关信息

      2025-05-13 09:50:48
      select , session , sql , SQL , 语句
      2025-05-09 08:50:35

      数据库实训复习(1)

      数据库实训复习(1)

      2025-05-09 08:50:35
      字段 , 字段名 , 数据 , 数据库 , 添加 , 表中 , 表名
      2025-04-23 08:18:38

      基础—SQL—DQL(数据查询语言)排序查询

      排序查询这里面涉及的关键字:ORDER BY。在我们日常的开发中,这个是很常见的,比如打开一个网购的商城,这里面可以找到一个销量的排序、综合的排序、价格的排序(升序、降序)等等。

      2025-04-23 08:18:38
      升序 , 员工 , 字段 , 排序 , 查询
      2025-04-23 08:18:38

      基础—SQL—DQL(数据查询语言)案例练习

      基础—SQL—DQL(数据查询语言)案例练习

      2025-04-23 08:18:38
      升序 , 员工 , 字段 , 排序 , 查询
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5250593

      查看更多

      最新文章

      30天拿下Rust之结构体

      2025-05-14 10:02:58

      oracle 10.2.0.4安装ogg执行ddl_setup.sql时,报警“ORA-20783:RECYCLEBIN must be turned off”

      2025-05-13 09:51:29

      查找正在执行的select以及dml语句的相关信息

      2025-05-13 09:50:48

      数据库实训复习(1)

      2025-05-09 08:50:35

      MySQL第二讲·表的创建与修改

      2025-04-22 09:27:17

      基础—SQL—DDL—建表、查表、修改表以及总结

      2025-04-18 08:02:09

      查看更多

      热门文章

      Demo | 神操作,SqlAlchemy用一行命令还原数据库!

      2023-05-06 10:22:26

      pandas to_sql保存数据到数据库后,添加自增长的主键ID(PRIMARY KEY)

      2023-04-19 09:22:23

      SQL数据库查询LIMIT 数据分页

      2023-04-17 10:54:25

      取出一个实体中不为null的属性和属性值

      2022-12-29 09:29:46

      go 通过sql操作mysql

      2024-06-28 06:18:10

      MySQL数据库(17):高级数据操作-删除数据

      2023-02-23 07:57:25

      查看更多

      热门标签

      数据库 mysql 字符串 数据结构 MySQL 算法 redis oracle java sql python 数据 索引 SQL 查询
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      MySQL5.6到8.0的账号迁移

      go 通过sql操作mysql

      全网多种方法解决You have an error in your SQL syntax; check the manual that corresponds to your MySQL server

      pandas to_sql保存数据到数据库后,添加自增长的主键ID(PRIMARY KEY)

      JDBC的CRUD操作之查询数据操作

      学习 MySQL 中的 SQL_SMALL_RESULT 关键字

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号