活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      Serverless容器引擎

      Serverless容器引擎

        • 产品动态
        • 产品简介
        • 产品定义
        • 功能特性
        • 产品优势
        • 应用场景
        • 使用限制
        • 计费说明
        • 计费概述
        • 快速入门
        • Serverless集群使用快速入门
        • 通过Serverless集群快速部署Nginx应用
        • 基于Serverless集群和容器镜像服务部署hello-world应用
        • 基于Serverless集群快速部署Stable Diffusion应用
        • 基于Serverless集群快速部署FastChat应用
        • 用户指南
        • ECI Pod
        • ECI实例概述
        • 通过指定CPU和内存创建ECI Pod
        • 使用GPU实例
        • 创建多可用区的Pod
        • 为Pod配置时区
        • ECI Pod Annotation
        • 集群
        • Serverless集群概述
        • 创建Serverless集群
        • 查看集群信息
        • 删除集群
        • 管理和访问集群
        • 通过kubectl连接Kubernetes集群
        • 控制集群API Server的公网访问能力
        • 镜像
        • 免密拉取容器镜像服务CRS镜像
        • 拉取自建仓库的镜像
        • 使用ImageCache加速创建Pod
        • 应用
        • 通过命令行管理应用
        • 使用镜像创建应用
        • 创建服务
        • 查看容器
        • 配置项及密钥
        • 管理配置项
        • 在容器组中使用配置项
        • 管理保密字典
        • 在容器组中使用保密字典
        • 存储
        • 存储概述
        • 安装与升级cstor-csi插件
        • 云硬盘存储卷
        • 云硬盘存储卷概述
        • 使用云硬盘静态存储卷
        • 使用云硬盘动态存储卷
        • 日志
        • Job类型任务如何采集日志
        • 通过CRD采集应用日志
        • 通过Pod环境变量采集应用日志
        • 收集Serverless集群控制平面组件日志
        • 网络
        • Service管理
        • Service概述
        • 创建LoadBalance类型Service
        • 通过Annotation配置负载均衡类型的服务
        • Nginx Ingress管理
        • Nginx Ingress概述
        • 安装Nginx Ingress Controller
        • 创建Nginx Ingress
        • 服务发现DNS
        • 为ECI Pod分配IPv6地址
        • 为ECI Pod配置独立安全组
        • 监控
        • 将云监控服务接入Serverless集群
        • 采集指定虚拟节点的Metrics
        • 安全合规
        • 基础设施安全
        • 使用集群的API Server审计功能实现集群安全运维
        • 最佳实践
        • 在Serverless集群中运行Job任务
        • 在Serverless集群中部署Jenkins并完成应用构建和部署
        • 搭建WordPress应用
        • 给应用服务挂载弹性公网IP
        • 搭建Spark应用
        • 基于DNS的服务发现
        • 基于Service实现集群内访问负载均衡
        • 基于Ingress实现集群外访问负载均衡
        • 部署高可靠Ingress Controller
        • 集群内请求会话保持
        • 集群外Ingress访问请求会话保持
        • 将Ingress服务暴露到公网
        • 基于Ingress实现服务发布
        • 使用ECI快速部署Tensorflow
        • 常见问题
        • Serverless集群创建失败的解决方法
        • Serverless集群退订或删除常见问题
        • API&kubectl
        • 域名DNS异常排查
        • 相关协议
        • 服务协议
        • 服务等级协议
          无相关产品

          本页目录

          帮助中心Serverless容器引擎最佳实践搭建Spark应用
          搭建Spark应用
          更新时间 2025-03-31 19:07:59
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-03-31 19:07:59
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本文为您介绍如何搭建Spark应用。

          背景信息

          Spark是新一代分布式内存计算框架,Apache开源的顶级项目。相比于Hadoop Map-Reduce计算框架,Spark将中间计算结果保留在内存中,速度提升10~100倍;同时它还提供更丰富的算子,采用弹性分布式数据集(RDD)实现迭代计算,更好地适用于数据挖掘、机器学习算法,极大提升开发效率。

          前提条件

          • 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。
          • 确保kubectl工具已经连接目标集群。

          操作步骤

          步骤一:准备镜像和创建命名空间namespace

          1. 从dockerHub镜像仓库获取Spark相关镜像。
          docker pull index.docker.io/caicloud/spark:1.5.2
          docker pull index.docker.io/caicloud/zeppelin:0.5.6
          
          1. 创建命名空间。
          #namespace-spark-cluster.yaml
          apiVersion: v1
          kind: Namespace
          metadata:
            name: spark-cluster
            labels:
              name: spark-cluster
          
          $ kubectl create -f namespace-spark-cluster.yaml
          
          1. 查看Namespace。
          $ kubectl get ns
          NAME          LABELS             STATUS
          default       <none>             Active
          spark-cluster name=spark-cluster Active
          

          步骤二:启动master服务

          1. 创建无状态工作负载,spark-master-deployment.yaml可参考如下:
          #spark-master-deployment.yaml
          apiVersion: apps/v1
          kind: Deployment
          metadata:
            name: spark-master-controller
            namespace: spark-cluster
          spec:
            replicas: 1
            selector:
              matchLabels:
                component: spark-master
            template:
              metadata:
                labels:
                  component: spark-master
              spec:
                containers:
                - name: spark-master
                  image: index.****/spark:1.5.2    ##替换成您自己的spark镜像
                  imagePullPolicy: Always
                  command: ["/start-master"]
                  ports:
                  - containerPort: 7077
                  - containerPort: 8080
                  resources:
                    requests:
                      cpu: 100m
          
          $ kubectl create -f spark-master-deployment.yaml
          
          1. 创建Master-Service,spark-master-service.yaml可参考如下:
          # spark-master-service.yaml
          kind: Service
          apiVersion: v1
          metadata:
            name: spark-master
            namespace: spark-cluster
          spec:
            ports:
              - port: 7077
                targetPort: 7077
            selector:
              component: spark-master
          
          $ kubectl create -f spark-master-service.yaml
          service "spark-master"created
          
          1. 创建WebUI-Service,spark-webui.yaml可参考如下:
          # spark-webui.yaml
          kind: Service
          apiVersion: v1
          metadata:
            name: spark-webui
            namespace: spark-cluster
          spec:
            ports:
              - port: 8080
                targetPort: 8080
            selector:
              component: spark-master
          
          $ kubectl create -f service/spark-webui.yaml
          service "spark-webui" created
          
          1. 检查Master是否能运行和访问:
          $ kubectl get deploy -nspark-cluster
          NAME                      DESIRED   CURRENT   AGE
          spark-master-controller   1         1         23h
          
          $ kubectl get svc
          NAME           CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
          spark-master   10.254.106.29   <none>        7077/TCP   1d
          spark-webui    10.254.66.138   <none>        8080/TCP   18h
          
          $ kubectl get pod -nspark-cluster
          NAME                            READY     STATUS    RESTARTS   AGE
          spark-master-controller-b3gbf   1/1       Running   0          23h
          
          1. 确认master正常运行后,再使用Kubernetes proxy连接Spark WebUI:
          $ kubectl proxy --port=8001
          

          然后通过浏览器访问http://localhost:8001/api/v1/proxy/namespaces/spark-cluster/services/spark-webui/查看spark的任务运行状态。其中localhost替换成执行kubectl proxy命令的主机IP,如若在本地主机上执行kubectl proxy命令,直接在本地浏览器访问localhost即可。

          步骤三:启动 Spark workers

          Spark workers 启动时需要 Master service处于运行状态,您可以通过修改replicas来设定worker数目(比如设定 replicas: 4,即可建立4个Spark Worker)。您可以为每一个worker节点设置了CPU和内存的配额,保证Spark的worker应用不会过度抢占集群中其他应用的资源。spark-worker-deployment.yaml可参考如下:

          #spark-worker-deployment.yaml
          apiVersion: apps/v1
          kind: Deployment
          metadata:
            name: spark-worker-controller
            namespace: spark-cluster
          spec:
            replicas: 4
            selector:
              matchLabels:
                component: spark-worker
            template:
              metadata:
                labels:
                  component: spark-worker
              spec:
                containers:
                - name: spark-worker
                  image: index.caicloud.io/spark:1.5.2
                  imagePullPolicy: Always
                  command: ["/start-worker"]
                  ports:
                  - containerPort: 8081
                  resources:
                    requests:
                      cpu: 100m
          
          $ kubectl create -f spark-worker-deployment.yaml
          deployment "spark-worker-controller" created
          

          查看 workers是否正常运行,通过kubectl查询状态(可看到spark-worker都已经正常运行):

          $ kubectl get pods -nspark-cluster
          NAME                            READY     STATUS              RESTARTS   AGE
          spark-master-controller-b3gbf   1/1       Running             0          1d
          spark-worker-controller-ill4z   1/1       Running             1          2h
          spark-worker-controller-j29sc   1/1       Running             0          2h
          spark-worker-controller-siue2   1/1       Running             0          2h
          spark-worker-controller-zd5kb   1/1       Running             0          2h
          

          通过WebUI查看: worker就绪后应该出现在UI中。

          50.png

          步骤四:提交Spark任务

          1. 通过Spark-client,可以利用spark-submit来提交复杂的Python脚本、Java/Scala的jar包代码。
          $ kubectl get pods -nspark-cluster | grep worker
          NAME                            READY     STATUS    RESTARTS   AGE
          spark-worker-controller-1h0l7   1/1       Running   0          4h
          spark-worker-controller-d43wa   1/1       Running   0          4h
          spark-worker-controller-ka78h   1/1       Running   0          4h
          spark-worker-controller-sucl7   1/1       Running   0          4h
          $ kubectl exec spark-worker-controller-1h0l7 -it bash
          $ cd /opt/spark
          
          # 提交python spark任务
          ./bin/spark-submit \
              --executor-memory 4G \
              --master spark://spark-master:7077 \
              examples/src/main/python/wordcount.py \
              "hdfs://hadoop-namenode:9000/caicloud/spark/data"
          
          # 提交scala spark任务
          ./bin/spark-submit 
              --executor-memory 4G
              --master spark://spark-master:7077
              --class io.caicloud.LinearRegression
              /nfs/caicloud/spark-mllib-1.0-SNAPSHOT.jar
              "hdfs://hadoop-namenode:9000/caicloud/spark/data"
          
          1. 通过Zeppelin,可以直接在命令行或UI编写简单的spark代码。

          先创建zeppelin的工作负载:

          $ kubectl create -f zeppelin-controller.yaml
          deployment "zeppelin-controller"created
          $ kubectl get pods -nspark-cluster -l component=zeppelin
          NAME                        READY     STATUS    RESTARTS   AGE
          zeppelin-controller-5g25x   1/1       Running   0          5h
          

          使用已创建的Zeppelin pod,设置WebUI的映射端口:

          $ kubectl port-forward zeppelin-controller-5g25x 8080:8080
          

          访问http://localhost:8080/,并提交测试代码。

          51.png

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  给应用服务挂载弹性公网IP
          下一篇 :  基于DNS的服务发现
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明