活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      数据湖探索

      数据湖探索

        • 产品动态
        • 产品简介
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 与其他产品的关系
        • 术语解释
        • 计费说明
        • 资源节点
        • 产品规格
        • 产品价格
        • 计费模式
        • 购买
        • 续订
        • 退订
        • 快速入门
        • 注册天翼云账号
        • 创建并提交Spark SQL作业
        • 使用TPC-H样例模板开发并提交Spark SQL作业
        • 创建并提交Spark Jar作业
        • 用户指南
        • 概述
        • DLI控制台总览
        • SQL编辑器
        • 作业管理
        • SQL作业管理
        • Flink作业管理
        • Flink作业管理概述
        • Flink作业权限管理
        • 准备Flink作业数据
        • 创建Flink SQL作业
        • 创建Flink Jar作业
        • 调试Flink作业
        • 操作Flink作业
        • Flink作业详情
        • 开启Flink作业动态扩缩容
        • Spark作业管理
        • Spark作业管理概述
        • 创建Spark作业
        • 设置作业优先级
        • 队列管理
        • 队列管理概述
        • 队列权限管理
        • 创建队列
        • 删除队列
        • 修改队列网段
        • 队列弹性扩缩容
        • 弹性扩缩容定时任务
        • 测试地址联通性
        • 创建消息通知主题
        • 弹性资源池
        • 使用前必读
        • 弹性资源池概述
        • 使用场景一:创建弹性资源池并运行作业
        • 使用场景二:配置弹性资源池队列扩缩容策略
        • 弹性资源池基本操作
        • 创建弹性资源池
        • 弹性资源池权限管理
        • 弹性资源池添加队列
        • 弹性资源池关联队列
        • 弹性资源池队列管理
        • 弹性资源池CU设置
        • 弹性资源池规格变更
        • 查看弹性资源池扩缩容历史
        • 数据管理
        • 库表管理
        • 库表管理概述
        • 数据库权限管理
        • 表权限管理
        • 创建数据库和表
        • 删除数据库和表
        • 修改数据库和表所有者
        • 导入数据
        • 将DLI数据导出至OBS
        • 查看元数据
        • 预览数据
        • 程序包管理
        • 程序包管理概述
        • 程序包组和程序包权限管理
        • 创建程序包
        • 删除程序包
        • 修改所有者
        • 内置依赖包
        • 作业模板
        • SQL模板管理
        • Flink模板管理
        • Spark模板管理
        • 附录
        • SQL模板下TPC-H样例数据说明
        • 增强型跨源连接
        • 增强型跨源连接概述
        • 跨源分析开发方式
        • 创建增强型跨源连接
        • 删除增强型跨源连接
        • 修改主机信息
        • 绑定/解绑队列
        • 添加路由
        • 删除路由
        • 增强型跨源连接权限管理
        • 跨源认证
        • 跨源认证概述
        • 创建CSS类型跨源认证
        • 创建Kerberos跨源认证
        • 创建Kafka_SSL类型跨源认证
        • 创建Password类型跨源认证
        • 跨源认证权限管理
        • 全局配置
        • 全局变量
        • 全局变量权限管理
        • 服务授权
        • 权限管理
        • 权限管理概述
        • 创建IAM用户并授权使用DLI
        • DLI自定义策略
        • DLI资源
        • DLI请求条件
        • 常用操作与系统权限关系
        • 其他常用操作
        • 导入数据至DLI表的方式
        • 数据湖探索监控指标说明及查看指导
        • 云审计服务支持的DLI操作列表说明
        • 配额管理
        • 常见问题
        • 计费类
        • 购买类
        • 使用咨询
        • 作业管理
        • 隐私安全
        • 操作类
        • Flink作业相关问题
        • 使用咨询
        • Flink SQL作业相关问题
        • Flink Jar作业相关问题
        • 性能调优
        • 运维指导
        • SQL作业相关问题
        • 使用咨询
        • 作业开发
        • 作业运维报错
        • 运维指导
        • Spark作业相关问题
        • 使用咨询
        • 作业开发
        • 作业运维报错
        • 运维指导
        • 配额相关问题
        • 授权相关问题
        • 使用咨询
        • 运维指导
        • 队列相关问题
        • 使用咨询
        • 运维指导
        • 跨源连接相关问题
        • 跨源连接问题
        • 跨源分析问题
        • 跨源连接运维报错
        • 相关协议
        • 数据湖探索产品服务协议
        • 文档下载
        • 数据湖探索服务用户操作手册
        • 数据湖探索SQL语法参考
        • 数据湖探索开发指南
        • 数据湖探索故障排除
          无相关产品

          本页目录

          帮助中心数据湖探索常见问题操作类Spark作业相关问题作业开发
          作业开发
          更新时间 2023-11-30 00:56:32
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2023-11-30 00:56:32
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本章节主要介绍Spark作业相关问题中有关作业开发的问题。

          Spark如何将数据写入到DLI表中

          使用Spark将数据写入到DLI表中,主要设置如下参数:

          • fs.obs.access.key
          • fs.obs.secret.key
          • fs.obs.impl
          • fs.obs.endpoint

          示例如下:

          import logging 
          from operator import add 
          from pyspark import SparkContext 
          
          logging.basicConfig(format='%(message)s', level=logging.INFO) 
          
          #import local file 
          test_file_name = "D://test-data_1.txt" 
          out_file_name = "D://test-data_result_1" 
          
          sc = SparkContext("local","wordcount app") 
          sc._jsc.hadoopConfiguration().set("fs.obs.access.key", "myak") 
          sc._jsc.hadoopConfiguration().set("fs.obs.secret.key", "mysk") 
          sc._jsc.hadoopConfiguration().set("fs.obs.impl", "org.apache.hadoop.fs.obs.OBSFileSystem") 
          sc._jsc.hadoopConfiguration().set("fs.obs.endpoint", "myendpoint") 
          
          # red: text_file rdd object 
          text_file = sc.textFile(test_file_name) 
          
          # counts 
          counts = text_file.flatMap(lambda line: line.split(" ")).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a + b) 
          # write 
          counts.saveAsTextFile(out_file_name)
          

          通用队列操作OBS表如何设置AK/SK

          • 获取结果为AK和SK时,设置如下:
          1. 代码创建SparkContext
            val sc: SparkContext = new SparkContext() 
            sc.hadoopConfiguration.set("fs.obs.access.key", ak) 
            sc.hadoopConfiguration.set("fs.obs.secret.key", sk)
            
          2. 代码创建SparkSession
            val sparkSession: SparkSession = SparkSession 
                 .builder() 
                 .config("spark.hadoop.fs.obs.access.key", ak) 
                 .config("spark.hadoop.fs.obs.secret.key", sk) 
                 .enableHiveSupport() 
                 .getOrCreate()
            
          • 获取结果为ak、sk和securitytoken时,鉴权时,临时AK/SK和securitytoken必须同时使用,设置如下:
          1. 代码创建SparkContext
            val sc: SparkContext = new SparkContext() 
            sc.hadoopConfiguration.set("fs.obs.access.key", ak) 
            sc.hadoopConfiguration.set("fs.obs.secret.key", sk) 
            sc.hadoopConfiguration.set("fs.obs.session.token", sts)
            
          2. 代码创建SparkSession
            val sparkSession: SparkSession = SparkSession 
                 .builder() 
                 .config("spark.hadoop.fs.obs.access.key", ak) 
                 .config("spark.hadoop.fs.obs.secret.key", sk) 
                 .config("spark.hadoop.fs.obs.session.token", sts) 
                 .enableHiveSupport() 
                 .getOrCreate()
            
          说明

          出于安全考虑,不建议在obs路径上带AK/SK信息。而且,如果是在OBS目录上建表,建表语句path字段给定的obs路径不能包含AK/SK信息。

          如何查看DLI Spark作业的实际资源使用情况

          查看Spark作业原始资源配置

          登录DLI 控制台,单击左侧“作业管理”>“Spark作业”,在作业列表中找到需要查看的Spark作业,单击“作业ID”前的,即可查看对应Spark作业的原始资源配置参数。

          说明

          在创建Spark作业时,配置了“高级配置”中的参数,此处才会显示对应的内容。

          查看Spark作业实时运行资源

          查看Spark作业实时运行资源,即查看有多少CU正在运行。

          1. 登录DLI 控制台,单击左侧“作业管理”>“Spark作业”,在作业列表中找到需要查看的Spark作业,单击“操作”列中的“SparkUI”。

          2. 在SparkUI页面可查看Spark作业实时运行资源。

            4png

          3. 在SparkUI页面还可以查看Spark作业原始资源配置(只对新集群开放)。

            在SparkUI页面,单击“Environment”,可以查看Driver信息和Executor信息。

            详见下图:Driver信息

            5png

            详见下图:Executor信息

            6png

          将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库?

          1.缺少pymysql模块,可以查看是否有对应的egg包,如果没有,在“程序包管理”页面上传pyFile。具体步骤参考如下:

          a.将egg包上传到指定的OBS桶路径下。

          b.登录DLI管理控制台,单击“数据管理 > 程序包管理”。

          c.在“程序包管理”页面,单击右上角“创建”可创建程序包。

          d.在“创建程序包”对话框,配置如下参数:

          • 包类型:PyFile。
          • OBS路径:选择1.aegg包所在的OBS路径。
          • 分组设置和分组名称根据情况选择。

          e.单击“确定”完成程序包上传。

          f.在报错的Spark作业编辑页面,“依赖python文件”处选择已上传的egg程序包,重新运行Spark作业。

          2.pyspark作业对接MySQL,需要创建跨源链接,打通DLI和RDS之间的网络。

          如何在DLI中运行复杂PySpark程序?

          数据湖探索(DLI)服务对于PySpark是原生支持的。

          对于数据分析来说Python是很自然的选择,而在大数据分析中PySpark无疑是不二选择。对于JVM语言系的程序,通常会把程序打成Jar包并依赖其他一些第三方的Jar,同样的Python程序也有依赖一些第三方库,尤其是基于PySpark的融合机器学习相关的大数据分析程序。传统上,通常是直接基于pip把Python库安装到执行机器上,对于DLI这样的Serverless化服务用户无需也感知不到底层的计算资源,那如何来保证用户可以完美运行他的程序呢?

          DLI服务在其计算资源中已经内置了一些常用的机器学习的算法库,这些常用算法库满足了大部分用户的使用场景。对于用户的PySpark程序依赖了内置算法库未提供的程序库该如何呢?其实PySpark本身就已经考虑到这一点了,那就是基于PyFiles来指定依赖,在DLI Spark作业页面中可以直接选取存放在OBS上的Python第三方程序库(支持zip、egg等)。

          对于依赖的这个Python第三方库的压缩包有一定的结构要求,例如,PySpark程序依赖了模块moduleA(import moduleA),那么其压缩包要求满足如下结构:

          压缩包结构要求

          1png

          即在压缩包内有一层以模块名命名的文件夹,然后才是对应类的Python文件,通常下载下来的Python库可能不满足这个要求,因此需要重新压缩。同时对压缩包的名称没有要求,所以建议可以把多个模块的包都压缩到一个压缩包里。至此,已经可以完整的运行起来一个大型、复杂的PySpark程序了。

          Spark作业访问MySQL数据库的方案

          通过DLI Spark作业访问MySQL数据库中的数据有如下两种方案:

          • 方案1:在DLI中购买按需专属队列,创建增强型跨源连接,再通过跨源表读取MySQL数据库中的数据,该方案需要用户自行编写java代码或scala代码。
          • 方案2:先使用云数据迁移服务CDM将MySQL数据库中的数据导入OBS桶中,再通过Spark作业读取OBS桶中的数据,如果用户已有CDM集群,该方案比方案1简单,且不会对现有数据库造成压力。

          如何通过JDBC设置spark.sql.shuffle.partitions参数提高并行度

          操作场景

          Spark作业在执行shuffle类语句,包括group by、join等场景时,常常会出现数据倾斜的问题,导致作业任务执行缓慢。

          该问题可以通过设置spark.sql.shuffle.partitions提高shuffle read task的并行度来进行解决。

          设置spark.sql.shuffle.partitions参数提高并行度

          用户可在JDBC中通过set方式设置dli.sql.shuffle.partitions参数。具体方法如下:

          Statement st = conn.stamte() 
          st.execute("set spark.sql.shuffle.partitions=20")
          

          Spark jar 如何读取上传文件

          Spark可以使用SparkFiles读取 –-file中提交上来的文件的本地路径,即:SparkFiles.get("上传的文件名")。

          说明

          lDriver中的文件路径与Executor中获取的路径位置是不一致的,所以不能将Driver中获取到的路径作为参数传给Executor去执行。

          lExecutor获取文件路径的时候,仍然需要使用SparkFiles.get(“filename”)的方式获取。

          lSparkFiles.get()方法需要spark初始化以后才能调用。

          代码段如下所示

          package main.java 
          
          import org.apache.spark.SparkFiles 
          import org.apache.spark.sql.SparkSession 
          
          import scala.io.Source 
          
          object DliTest { 
            def main(args:Array[String]): Unit = { 
              val spark = SparkSession.builder 
                .appName("SparkTest") 
                .getOrCreate() 
          
              // driver 获取上传文件 
              println(SparkFiles.get("test")) 
          
              spark.sparkContext.parallelize(Array(1,2,3,4)) 
                   // Executor 获取上传文件 
                .map(_ => println(SparkFiles.get("test"))) 
                .map(_ => println(Source.fromFile(SparkFiles.get("test")).mkString)).collect() 
            } 
          }
          
          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  使用咨询
          下一篇 :  作业运维报错
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明