活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      数据湖探索

      数据湖探索

        • 产品动态
        • 产品简介
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 与其他产品的关系
        • 术语解释
        • 计费说明
        • 资源节点
        • 产品规格
        • 产品价格
        • 计费模式
        • 购买
        • 续订
        • 退订
        • 快速入门
        • 注册天翼云账号
        • 创建并提交Spark SQL作业
        • 使用TPC-H样例模板开发并提交Spark SQL作业
        • 创建并提交Spark Jar作业
        • 用户指南
        • 概述
        • DLI控制台总览
        • SQL编辑器
        • 作业管理
        • SQL作业管理
        • Flink作业管理
        • Flink作业管理概述
        • Flink作业权限管理
        • 准备Flink作业数据
        • 创建Flink SQL作业
        • 创建Flink Jar作业
        • 调试Flink作业
        • 操作Flink作业
        • Flink作业详情
        • 开启Flink作业动态扩缩容
        • Spark作业管理
        • Spark作业管理概述
        • 创建Spark作业
        • 设置作业优先级
        • 队列管理
        • 队列管理概述
        • 队列权限管理
        • 创建队列
        • 删除队列
        • 修改队列网段
        • 队列弹性扩缩容
        • 弹性扩缩容定时任务
        • 测试地址联通性
        • 创建消息通知主题
        • 弹性资源池
        • 使用前必读
        • 弹性资源池概述
        • 使用场景一:创建弹性资源池并运行作业
        • 使用场景二:配置弹性资源池队列扩缩容策略
        • 弹性资源池基本操作
        • 创建弹性资源池
        • 弹性资源池权限管理
        • 弹性资源池添加队列
        • 弹性资源池关联队列
        • 弹性资源池队列管理
        • 弹性资源池CU设置
        • 弹性资源池规格变更
        • 查看弹性资源池扩缩容历史
        • 数据管理
        • 库表管理
        • 库表管理概述
        • 数据库权限管理
        • 表权限管理
        • 创建数据库和表
        • 删除数据库和表
        • 修改数据库和表所有者
        • 导入数据
        • 将DLI数据导出至OBS
        • 查看元数据
        • 预览数据
        • 程序包管理
        • 程序包管理概述
        • 程序包组和程序包权限管理
        • 创建程序包
        • 删除程序包
        • 修改所有者
        • 内置依赖包
        • 作业模板
        • SQL模板管理
        • Flink模板管理
        • Spark模板管理
        • 附录
        • SQL模板下TPC-H样例数据说明
        • 增强型跨源连接
        • 增强型跨源连接概述
        • 跨源分析开发方式
        • 创建增强型跨源连接
        • 删除增强型跨源连接
        • 修改主机信息
        • 绑定/解绑队列
        • 添加路由
        • 删除路由
        • 增强型跨源连接权限管理
        • 跨源认证
        • 跨源认证概述
        • 创建CSS类型跨源认证
        • 创建Kerberos跨源认证
        • 创建Kafka_SSL类型跨源认证
        • 创建Password类型跨源认证
        • 跨源认证权限管理
        • 全局配置
        • 全局变量
        • 全局变量权限管理
        • 服务授权
        • 权限管理
        • 权限管理概述
        • 创建IAM用户并授权使用DLI
        • DLI自定义策略
        • DLI资源
        • DLI请求条件
        • 常用操作与系统权限关系
        • 其他常用操作
        • 导入数据至DLI表的方式
        • 数据湖探索监控指标说明及查看指导
        • 云审计服务支持的DLI操作列表说明
        • 配额管理
        • 常见问题
        • 计费类
        • 购买类
        • 使用咨询
        • 作业管理
        • 隐私安全
        • 操作类
        • Flink作业相关问题
        • 使用咨询
        • Flink SQL作业相关问题
        • Flink Jar作业相关问题
        • 性能调优
        • 运维指导
        • SQL作业相关问题
        • 使用咨询
        • 作业开发
        • 作业运维报错
        • 运维指导
        • Spark作业相关问题
        • 使用咨询
        • 作业开发
        • 作业运维报错
        • 运维指导
        • 配额相关问题
        • 授权相关问题
        • 使用咨询
        • 运维指导
        • 队列相关问题
        • 使用咨询
        • 运维指导
        • 跨源连接相关问题
        • 跨源连接问题
        • 跨源分析问题
        • 跨源连接运维报错
        • 相关协议
        • 数据湖探索产品服务协议
        • 文档下载
        • 数据湖探索服务用户操作手册
        • 数据湖探索SQL语法参考
        • 数据湖探索开发指南
        • 数据湖探索故障排除
          无相关产品

          本页目录

          帮助中心数据湖探索常见问题操作类Flink作业相关问题Flink Jar作业相关问题
          Flink Jar作业相关问题
          更新时间 2023-12-01 11:47:39
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2023-12-01 11:47:39
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本章节主要介绍Flink作业相关问题中有关Flink Jar作业的问题。

          Flink Jar作业配置checkpoint保存到OBS

          Flink Jar作业配置checkpoint保存到OBS步骤如下:

          1.在Flink Jar作业的Jar包代码中加入如下代码:

          //StreamExecutionEnvironment 依赖的pom文件配置参考后续说明 
          StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
          
                  env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE); 
                  env.getCheckpointConfig().setCheckpointInterval(40000); 
                  env.getCheckpointConfig().enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION); 
                  RocksDBStateBackend rocksDbBackend = new RocksDBStateBackend(new FsStateBackend("obs://${bucket}/jobs/checkpoint/my_jar"), false); 
                  rocksDbBackend.setOptions(new OptionsFactory() { 
                      @Override 
                      public DBOptions createDBOptions(DBOptions currentOptions) { 
                          return currentOptions 
                                  .setMaxLogFileSize(64 * 1024 * 1024) 
                                  .setKeepLogFileNum(3); 
                      } 
          
                      @Override 
                      public ColumnFamilyOptions createColumnOptions(ColumnFamilyOptions currentOptions) { 
                          return currentOptions; 
                      } 
                  }); 
                  env.setStateBackend(rocksDbBackend);
          
          说明

          上述代码含义是以EXACTLY_ONCE模式,每隔40s保存checkpoint到OBS的${bucket}桶中的jobs/checkpoint/my_jar路径。

          其中,最重要的是保存checkpoint路径。一般是将checkpoint存入OBS桶中,路径格式如下:

          • 路径格式:obs://${bucket}/xxx/xxx/xxx
          • StreamExecutionEnvironment依赖的包需要在pom文件中添加如下配置。
          <dependency> 
                      <groupId>org.apache.flink</groupId> 
                      <artifactId>flink-streaming-java_${scala.binary.version}</artifactId> 
                      <version>${flink.version}</version> 
                      <scope>provided</scope> 
          </dependency>
          

          2.在DLI Flink Jar作业中配置“ 优化参数 ”和“从checkpoint恢复”功能。

          −配置优化参数

          i.在DLI控制台,选择“作业管理>Flink作业”。

          ii.在对应Flink Jar作业操作列单击“编辑”,进入Flink Jar作业编辑页面。

          iii.在优化参数中,添加如下两个参数:

          fs.obs.access.key=xxx

          fs.obs.secret.key=xxx

          优化参数说明

          配置项 默认值 是否必填 说明
          fs.obs.access.key 无 是 AK(Access Key Id),需要具备访问OBS对应桶的权限。
          fs.obs.secret.key 无 是 SK(Secret Access Key),需要具备访问OBS对应桶的权限。

          −配置从checkpoint恢复

          i.勾选“异常自动重启”。

          ii.勾选“从checkpoint恢复”,填写“Checkpoint路径”。

          Checkpoint路径与用户在Jar包中设置的checkpoint路径相对应,格式如下:

          “Checkpoint路径”格式为:${bucket}/xxx/xxx/xxx

          示例:

          如果Jar包中代码配置为:obs://mybucket/jobs/checkpoint/jar-3

          那么“Checkpoint路径”填写为: mybucket/jobs/checkpoint/jar-3

          说明

          l  每个Flink Jar作业配置的Checkpoint路径要保持不同,否则无法从准确的checkpoint路径恢复。

          l  checkpoint路径中的OBS桶需要给DLI授权,DLI服务才能访问此桶下的文件。

          3.查看作业是否从checkpoint恢复。

          Flink Jar作业是否支持上传配置文件,要如何操作?

          自定义(JAR)作业支持上传配置文件。

          1.将配置文件通过程序包管理上传到DLI;

          2.在Flink jar作业的其他依赖文件参数中,选择创建的DLI程序包;

          3.在代码中通过ClassName.class.getClassLoader().getResource("userData/fileName")加载该文件(其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名)。

          Flink Jar 包冲突,导致提交失败

          问题描述

          用户Flink程序的依赖包与DLI Flink平台的内置依赖包冲突,导致提交失败。

          解决方案

          查看是否已包含DLI Flink运行平台中已经存在的包,如果存在,则需要将自己的Jar包删除。

          Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误

          问题描述

          提交Flink Jar作业访问DWS数据仓库服务时,提示启动失败,作业日志报如下错误信息。

          FATAL:  Already too many clients, active/non-active/reserved: 5/508/3
          

          原因分析

          当前访问的DWS数据库连接已经超过了最大连接数。错误信息中,non-active的个数表示空闲连接数,例如,non-active为508,说明当前有大量的空闲连接。

          解决方案

          出现该问题时建议通过以下操作步骤解决。

          1.登录DWS命令执行窗口,执行以下SQL命令,临时将所有non-active的连接释放掉。

          SELECT PG_TERMINATE_BACKEND(pid) from pg_stat_activity WHERE state='idle';
          

          2.检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。

          3.在GaussDB(DWS) 控制台设置会话闲置超时时长session_timeout,在闲置会话超过所设定的时间后服务端将主动关闭连接。

          session_timeout默认值为600秒,设置为0表示关闭超时限制,一般不建议设置为0。

          session_timeout设置方法如下:

          a.登录GaussDB(DWS) 管理控制台。

          b.在左侧导航栏中,单击“集群管理”。

          c.在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。

          d.单击“参数修改”页签,修改参数“session_timeout”,然后单击“保存”。

          e.在“修改预览”窗口,确认修改无误后,单击“保存”。

          Flink Jar作业运行报错,报错信息为Authentication failed

          问题现象

          Flink Jar作业运行异常,作业日志中有如下报错信息:

          org.apache.flink.shaded.curator.org.apache.curator.ConnectionState - Authentication failed
          

          问题原因

          因为帐号没有在全局配置中配置服务授权,导致该帐号在创建跨源连接访问外部数据时因为权限不足而导致跨源访问失败。

          解决方案

          1.登录DLI管理控制台,选择“全局配置 > 服务授权”。

          2.在服务授权界面,全选委托权限。

          3.单击“更新委托授权”。界面会提示“委托权限更新成功”,表示修改成功。

          4.委托授权完成后,重新创建跨源连接和运行作业。

          Flink Jar作业设置backend为OBS,报错不支持OBS文件系统

          问题现象

          客户执行Flink Jar作业,通过设置checkpoint存储在OBS桶中,作业一直提交失败,并伴有报错提交日志,提示OBS桶名不合法。

          原因分析

          1.确认OBS桶名是否正确。

          2.确认所用AKSK是否有权限。

          3.设置依赖关系provided防止Jar包冲突。

          4.确认客户esdk-obs-java-3.1.3.jar的版本。

          5.确认是集群存在问题。

          处理步骤

          1.设置依赖关系provided。

          2.重启clusteragent应用集群升级后的配置。

          3.去掉OBS依赖,否则checkpoint会写不进OBS。

          Hadoop jar包冲突,导致Flink提交失败

          问题现象

          Flink 提交失败,异常为:

          Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.obs.metrics.OBSAMetricsProvider not found 
           at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2664) 
           at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2688) 
           ... 31 common frames omitted 
           Caused by: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.obs.metrics.OBSAMetricsProvider not found 
           at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2568) 
           at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2662) 
           ... 32 common frames omitted
          

          原因分析

          Flink jar包冲突。用户提交的flink jar 与 DLI 集群中的hdfs jar包存在冲突。

          处理步骤

          1.将用户pom文件中的的hadoop-hdfs设置为:

           <dependency> 
           <groupId>org.apache.hadoop</groupId> 
           <artifactId>hadoop-hdfs</artifactId> 
           <version>${hadoop.version}</version> 
           <scope> provided </scope> 
           </dependency>
          

          或使用exclusions标签将其排除关联。

          2.若使用到hdfs的配置文件,则需要将core-site.xml、hdfs-site.xml、yarn-site.xml 修改为mrs-core-site.xml、mrs-hdfs-site.xml、mrs-hbase-site.xml。

           conf.addResource(HBaseUtil.class.getClassLoader().getResourceAsStream("mrs-core-site.xml"), false); 
           conf.addResource(HBaseUtil.class.getClassLoader().getResourceAsStream("mrs-hdfs-site.xml"), false); 
           conf.addResource(HBaseUtil.class.getClassLoader().getResourceAsStream("mrs-hbase-site.xml"), false);
          

          Flink jar 如何连接SASL_SSL?

          使用Flink Jar连接开启SASL_SSL认证的Kafka。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  Flink SQL作业相关问题
          下一篇 :  性能调优
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明