活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 12.12年度钜惠 NEW 爆款云主机2核2G仅需28.8元/年,X实例35.1元/半年起! 8代机+XSSD新客专享2.5折!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云AI产品特惠 NEW 人脸识别+文字识别焕新,新用户免费试用
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
智算云(DeepSeek专区)
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
算力互联调度平台
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案智云上海应用生态专区
AI应用
  • 泛微合同管理解决方案
  • 泛微数智大脑Xiaoe.AI解决方案
  • MaxKB知识库解决方案
  • 天翼AI文创
AI服务
  • 昆仑AI训推服务解决方案
  • 国信模型服务解决方案
企业应用
  • 翼电子签约解决方案
  • 翼协同解决方案
  • 翼电签-契约锁解决方案
  • 翼视频云归档解决方案
教育应用
  • 翼电子教室
  • 潜在AI教育解决方案
建站工具
  • SSL证书
  • 翼定制建站解决方案
  • 翼多端小程序解决方案
办公协同
  • 天翼云企业云盘
  • 安全邮箱
灾备迁移
  • 云管家2.0
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      物理机

      物理机

      • 物理机

      无数据

        • 产品动态
        • DeepSeek专题
        • DeepSeek专题导航
        • 图解:DeepSeek与公有云深度融合
        • 从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
        • 高性能GPU云主机助力DeepSeek深度应用
        • 天翼云SD-WAN与DeepSeek超强联动,开启云上高效互联新时代
        • 实践指南:DeepSeek驱动高效能云生态
        • GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        • GPU物理机:物理机搭建DeepSeek指南
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • 昇腾 910B 物理机使用Galaxy镜像嵌入式模型部署指南
        • NVIDIA GPU物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • SD-WAN跨境:SD-WAN助力DeepSeek模型定向加速
        • 智算容器:云容器引擎与DeepSeek融合实践
        • 函数计算:天翼云函数计算与DeepSeek大模型
        • Q&A:典型问题解析与策略应对
        • 产品简介
        • 产品定义
        • 产品优势
        • 产品应用场景
        • 物理机镜像
        • 镜像概述
        • 物理机类型与支持的操作系统版本
        • 标准裸金属
        • 弹性裸金属
        • 云硬盘
        • 网络
        • 安全
        • 身份认证与访问控制
        • 主机监控
        • 区域和可用区
        • 物理机与其他服务的关系
        • 产品支持和使用限制
        • 支持列表
        • 使用限制
        • 产品规格
        • 实例概述
        • 通用型
        • 计算型
        • 大数据型
        • GPU型
        • 国产化型
        • 购买指南
        • 计费说明
        • 实例到期的影响
        • 包周期按量互转
        • 快速入门
        • 注册账号
        • 创建物理机
        • 登录物理机
        • 部署应用环境
        • 释放物理机
        • 用户指南
        • 实例
        • 创建物理机
        • 创建指南
        • 通过私有镜像创建物理机
        • 批量设置有序的实例名称或主机名称
        • 查看物理机信息
        • 登录物理机
        • 登录方式概述
        • 登录Linux物理机
        • 登录Windows物理机
        • 管理物理机
        • 物理机开机/关机/重启操作
        • 物理机重装操作系统
        • 物理机重置密码操作
        • 物理机实例名称修改操作
        • 物理机续订/释放操作
        • GPU驱动安装说明
        • Ubuntu操作系统安装NVIDIA GPU驱动
        • CentOS操作系统安装NVIDIA GPU驱动
        • 镜像
        • 通过物理机创建系统盘私有镜像
        • 常用GPU镜像-关闭及禁用防火墙操作文档
        • 磁盘
        • 磁盘类型概述与挂载/卸载/扩容
        • 初始化数据盘
        • 初始化数据盘场景及磁盘分区形式介绍
        • 初始化Windows数据盘(Windows 2019)
        • 初始化Linux数据盘(fdisk)
        • 初始化Linux数据盘(parted)
        • 容量大于2TB,初始化Linux数据盘(parted)
        • 容量大于2TB,初始化Windows数据盘(Windows 2012)
        • 配置RAID
        • 云盘随实例释放
        • 网络
        • 弹性IP
        • 弹性IP概述
        • 绑定弹性IP
        • 解绑弹性IP
        • 修改弹性IP的带宽
        • 虚拟私有云
        • 虚拟私有云概述
        • 绑定虚拟IP至物理机
        • 修改私有IP地址
        • 安全
        • 创建和管理企业项目
        • 统一身份认证IAM
        • 统一身份认证IAM介绍
        • 通过IAM用户控制资源访问
        • 资源位置与调整资源配额
        • API参考
        • API使用说明
        • 最佳实践
        • 物理机监控最佳实践
        • 介绍说明
        • 物理机面板查看
        • 云监控面板查看
        • 创建告警规则
        • 弹性裸金属ORACLE RAC搭建最佳实践
        • 介绍说明
        • 资源规划
        • 资源创建
        • 云网络资源创建
        • 云硬盘资源创建
        • 物理机资源创建
        • Oracle软件配置安装
        • 系统环境配置
        • Oracle RAC安装前准备
        • Oracle Grid集群管理软件安装
        • 使用ASMCA配置数据盘分组
        • Oracle Database软件安装
        • Oracle数据库初始化
        • 智算场景NVIDIA GPU镜像组件的安装指南
        • 物理机搭建DeepSeek指南
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • 昇腾 910B 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • 昇腾 910B 物理机使用Galaxy镜像嵌入式模型部署指南
        • NVIDIA GPU物理机使用Galaxy镜像部署DeepSeek指南(单机版)
        • NVIDIA GPU 物理机使用Galaxy镜像部署DeepSeek指南(多机版)
        • 昇腾 910B 物理机通过benchmark测试推理性能的操作指南
        • NVIDIA GPU A800(80G)物理机双机部署指南
        • 通过EvalScope测试推理性能的操作指南
        • 昇腾 910B 物理机部署Qwen3指南(单机版)
        • 昇腾 910B 物理机大EP推理方案部署指南
        • 昇腾 910B 物理机部署MinerU2.1指南
        • Linux mdadm 软RAID阵列创建与管理指南
        • Linux LVM 镜像逻辑卷创建与故障恢复指南
        • CUDA Samples 编译指导
        • NVIDIA GPU 物理机常见问题处理指南
        • 常见问题
        • 通用类
        • 实例类
        • 计费类
        • 密码类
        • 登录类
        • 网络和安全类
        • 磁盘类
        • 操作系统类
        • 故障排除
        • Linux系统常见启动问题
        • Linux系统启动时,Grub报错找不到设备
        • Linux系统启动时,dracut报错某分区找不到,无法系统并进入紧急模式
        • Linux系统启动时,报错无法挂载根分区
        • 用户升级CentOS系统内核后,无法连接服务器
        • 修改SSH端口后,无法通过SSH远程连接服务器
        • 物理机数据盘的分区挂载失败
        • 国产化弹性裸金属网络优化配置
        • 视频专区
        • 文档下载
        • 用户使用手册
        • 相关协议
        • 产品服务协议
        • 产品服务等级协议
        • 关于弹性云主机、物理机产品中麒麟、统信镜像无License使用的声明
          无相关产品

          本页目录

          帮助中心物理机最佳实践CUDA Samples 编译指导
          CUDA Samples 编译指导
          更新时间 2025-12-24 16:18:04
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-12-24 16:18:04
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接

          CUDA Samples(原称 NVIDIA CUDA SDK Samples)是 NVIDIA 官方提供的一系列示例程序,涵盖 CUDA 核心技术(如并行计算、内存管理、流处理)、深度学习加速、图形渲染、异构计算等多个领域。这些示例不仅是学习 CUDA 编程的核心资料,也是验证 CUDA 环境是否正常工作的重要工具。此文档旨在在提供 CUDA Samples 的获取、环境准备、编译流程及常见问题解决的完整指导,适用于 Linux、Windows 主流操作系统。 

          一、 前置条件

          1.1 硬件要求

          • 需搭载 NVIDIA 显卡,且显卡需支持 CUDA 架构(可通过 NVIDIA 官方文档 查询显卡兼容性)。

          • 建议显卡计算能力(Compute Capability)≥ 3.5(主流显卡均满足,如 GTX 10 系列及以上、Tesla 系列)。

          1.2 软件环境要求

          需完成「CUDA 工具链 + 编译工具」的环境搭建,不同系统的依赖如下:

          系统类型核心依赖组件说明
          Linux(CentOS)CUDA Toolkit12.4、GCC/G++、Make、CMakeGCC 版本需与 CUDA 12.4 兼容(支持 GCC 12 及以下)
          Linux(Rocky)CUDA Toolkit12.8、GCC/G++、Make、CMakeGCC 版本需与 CUDA 12.8 兼容(支持 GCC 13 及以下)
          WindowsCUDA Toolkit、Visual Studio需安装 Visual Studio 2019 及以上(含 C++ 编译组件),且版本与 CUDA Toolkit 匹配

          1.3 基于包管理器的依赖安装指导(Linux) 

          1.3.1 YUM 系列(CentOS - CUDA 12.4)

          # 安装基础编译工具
          $ sudo yum install -y gcc gcc-c++ make cmake
          
          # 安装 EPEL 源(部分依赖需额外源)
          $ sudo yum install -y epel-release
          
          # 安装开发工具集(可选,用于多版本 GCC 管理)
          $ sudo yum install -y centos-release-scl
          $ sudo yum install -y devtoolset-12  # 对应 GCC 12 版本(兼容 CUDA 12.4)
          
          # 安装 NVIDIA 驱动及 CUDA Toolkit 12.4(通过官方 repo)
          $ sudo dnf config-manager --add-repo=https://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-rhel7.repo
          $ sudo yum install -y cuda-toolkit-12-4  # 明确安装 CUDA 12.4

          1.3.2 YUM 系列(Rocky Linux - CUDA 12.8)

          # 安装基础编译工具
          $ sudo dnf install -y gcc gcc-c++ make cmake
          
          # 安装 EPEL 源
          $ sudo dnf install -y epel-release
          
          # 安装开发工具集
          $ sudo dnf install -y rocky-release-scl
          $ sudo dnf install -y devtoolset-13  # 对应 GCC 13 版本(兼容 CUDA 12.8)
          
          # 安装 NVIDIA 驱动及 CUDA Toolkit 12.8(通过官方 repo)
          $ sudo dnf config-manager --add-repo=https://developer.download.nvidia.com/compute/cuda/repos/rhel9/x86_64/cuda-rhel9.repo
          $ sudo dnf install -y cuda-toolkit-12-8  # 明确安装 CUDA 12.8

          1.3.3 APT 系列(Ubuntu、Debian等)

          # 更新包索引
          $ sudo apt update
          
          # 安装基础编译工具
          $ sudo apt install -y gcc g++ make cmake
          
          # 安装 CUDA 12.4(适用于 Ubuntu 22.04)
          $ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
          $ sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
          $ wget https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda-repo-ubuntu2204-12-4-local_12.4.0-550.54.14-1_amd64.deb
          $ sudo dpkg -i cuda-repo-ubuntu2204-12-4-local_12.4.0-550.54.14-1_amd64.deb
          $ sudo cp /var/cuda-repo-ubuntu2204-12-4-local/cuda-*-keyring.gpg /usr/share/keyrings/
          $ sudo apt update
          $ sudo apt install -y cuda-toolkit-12-4

          二、CUDA Samples 获取

          获取 CUDA Samples 主要有两种方式,推荐通过 CUDA Toolkit 安装时同步获取,确保版本匹配。

          2.1 方式 1:CUDA Toolkit 安装时自带(推荐)

          安装 CUDA Toolkit 过程中,默认会勾选「CUDA Samples」组件,安装完成后可在以下路径找到:

          • Linux:/usr/local/cuda-[版本号]/samples(如 /usr/local/cuda-12.4/samples,如 /usr/local/cuda-12.8/samples)

          • Windows:C:\ProgramData\NVIDIA Corporation\CUDA Samples\[版本号](如 C:\ProgramData\NVIDIA Corporation\CUDA Samples\12.4)

          2.2 方式 2:GitHub 源码克隆

          若未同步安装或需获取最新版本,可从 NVIDIA 官方 GitHub 仓库克隆:

          # 克隆主仓库
          $ git clone https://github.com/NVIDIA/cuda-samples.git
          $ cd cuda-samples
          
          # CentOS(CUDA 12.4)需切换到对应版本分支
          $ git checkout branch-v12.4
          
          # Rocky(CUDA 12.8)需切换到对应版本分支
          $ git checkout branch-v12.8
          
          # 或使用标签(精确版本匹配)
          # CentOS: git checkout v12.4.127
          # Rocky: git checkout v12.8.140

          三、环境验证

          在编译前需确认 CUDA 环境已正确配置,避免编译失败。

          3.1 验证 CUDA Toolkit 安装

          执行以下命令查看 CUDA 版本,确保输出正常:

          # Linux/Windows(PowerShell)通用
          $ nvcc --version

          预期输出:包含 CUDA 版本、VCC 版本等信息(如"release 12.4, V12.4.127","release 12.8, V12.8.140")。

          3.2 验证 NVIDIA 驱动

          驱动是 CUDA 程序运行的基础,需确保驱动版本与 CUDA Toolkit 兼容(驱动版本可通过 NVIDIA 官网 查询匹配关系):

          • Linux:

          $ nvidia-smi

          预期输出:显示显卡型号、驱动版本、CUDA 支持版本(如 Driver Version: 550.54.14 CUDA Version: 12.4)。

          • Windows: 右键桌面 → 打开「NVIDIA 控制面板」→ 「帮助」→ 「系统信息」→ 查看「驱动程序版本」。

          3.3 验证编译工具

          • Linux:确认 GCC、Make 已安装:

          $ gcc --version
          $ make --version
          • Windows:确认 Visual Studio 已安装 C++ 组件,可通过「Visual Studio Installer」检查「Desktop development with C++」选项是否勾选。

          四、编译流程

          CUDA Samples 支持两种编译方式:传统 Make 编译(Linux 推荐)和 CMake 编译(跨平台通用,支持 Windows/Linux)。

          4.1 方式 1:Make 编译(Linux 专属)

          4.1.1 进入 Samples 根目录

          $ cd /usr/local/cuda-12.4/samples
          $ cd /usr/local/cuda-12.8/samples

          4.1.2 执行编译命令

          • 全量编译(编译所有 Samples,耗时较长,约 10-30 分钟):

          $ make -j$(nproc)  # $(nproc) 表示使用所有 CPU 核心加速编译
          • 增量编译(仅编译指定示例,推荐):
            进入具体示例目录(如 0_Simple/vectorAdd,向量加法示例),执行 make:

          $ cd 0_Simple/vectorAdd
          $ make

          4.1.3 查看编译结果

          编译成功后,可执行文件生成路径:

          CentOS:/usr/local/cuda-12.4/samples/bin/x86_64/linux/release/
          Rocky:/usr/local/cuda-12.8/samples/bin/x86_64/linux/release/

          4.2 方式 2:CMake 编译(跨平台通用)

          CMake 编译更灵活,支持自定义输出路径、选择编译示例,适用于 Windows 和 Linux 系统。注意:不同 CUDA 版本的 Samples 编译方式可能存在差异(如 CMake 最低版本要求、依赖组件等),请务必参考源码根目录的 README.md 文件获取对应版本的详细说明。

          4.2.1 新建编译目录(避免污染源码)

          # Linux/Windows(PowerShell)通用
          $ cd cuda-samples  # 进入 Samples 根目录
          $ mkdir build && cd build

          4.2.2 生成编译配置

          根据操作系统和 CUDA 版本选择对应的生成器(以 CUDA 12.2 为例):

          • Linux(生成 Makefile):

          $ cmake .. -DCMAKE_BUILD_TYPE=Release \
                   -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.4/bin/nvcc
          或
          $ cmake .. -DCMAKE_BUILD_TYPE=Release \
                   -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.8/bin/nvcc
          • Windows(生成 Visual Studio 解决方案):
            需指定 Visual Studio 版本(如 2022)和架构(64 位):

          $ cmake .. -G "Visual Studio 17 2022" -A x64 \
                   -DCMAKE_BUILD_TYPE=Release \
                   -DCMAKE_CUDA_COMPILER="C:/Program Files/NVIDIA GPU Computing Toolkit/CUDA/v12.4/bin/nvcc.exe"

          4.2.3 执行编译

          • Linux:

          $ make -j$(nproc)  # 全量编译
           # 或编译指定示例(如 vectorAdd)
          $ make vectorAdd
          • Windows:
            方式 1:通过 Visual Studio 打开 build 目录下的 CUDA Samples.sln,点击「生成」→「生成解决方案」。
            方式 2:通过命令行编译:

          $ cmake --build . --config Release -j$(Get-CimInstance Win32_Processor).NumberOfCores

          4.2.4 查看编译结果

          • Linux:可执行文件在 build/bin/Release/ 目录下。

          • Windows:可执行文件在 build\[示例目录]\Release\ 目录下(如 build\0_Simple\vectorAdd\Release\vectorAdd.exe)。

          五、运行与验证

          编译完成后,运行示例程序验证是否正常工作。以基础示例 vectorAdd(向量加法,验证 CUDA 设备计算能力)为例:

          5.1 运行示例

          • Linux:

          $ cd /usr/local/cuda-12.4/samples/bin/x86_64/linux/release
          或
          $ cd /usr/local/cuda-12.8/samples/bin/x86_64/linux/release
          $ ./vectorAdd
          • Windows:

          $ cd C:\ProgramData\NVIDIA Corporation\CUDA Samples\[版本号]\bin\win64\Release
          $ .\vectorAdd.exe

          5.2 验证输出

          预期成功输出:

          [Vector Addition Using CUDA]
          Copy input data from the host memory to the CUDA device
          CUDA kernel launch with 196 blocks of 256 threads
          Copy output data from the CUDA device to the host memory
          Test PASSED
          Done

          若显示「Test PASSED」,说明 CUDA 环境及编译流程均正常;若显示「Test FAILED」或设备无法识别,需排查驱动或 CUDA 配置问题。

          六、常见问题与解决方案

          6.1 编译报错:「nvcc: command not found」

          • 原因:nvcc(CUDA 编译器)未添加到系统环境变量。

          • 解决方案:

            • Linux:在 ~/.bashrc 或 ~/.zshrc 中添加环境变量:

          $ echo 'export PATH=/usr/local/cuda-12.4/bin:$PATH' >> ~/.bashrc
          $ echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.4/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
          $ source ~/.bashrc
          • Windows:在「系统属性」→「高级」→「环境变量」中,将 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\[版本号]\bin 添加到 PATH 变量。

          6.2 编译报错:「GCC version is higher than supported」

          • 原因:GCC 版本超过 CUDA Toolkit 支持的最高版本(如 CentOS 用 GCC 13 编译 CUDA 12.4)。

          • 解决方案:加载兼容版本 GCC:

          # CentOS 切换到 GCC 12
          $ scl enable devtoolset-12 bash
          
          # Rocky 切换到 GCC 13
          $ scl enable devtoolset-13 bash

          6.3 运行报错:「no CUDA-capable device is detected」

          • 原因:NVIDIA 驱动未安装、驱动版本过低,或显卡不支持 CUDA。

          • 解决方案:

            1. 执行 nvidia-smi 检查驱动是否正常加载,若提示「command not found」需重新安装驱动。

            2. 确认显卡型号在 CUDA 兼容列表 中。

            3. 若使用虚拟机,需开启「GPU 直通」或「虚拟化 GPU」功能。

          6.4 CMake 生成失败:「Could not find CUDA」

          • 原因:CMake 未找到 CUDA Toolkit 安装路径。

          • 解决方案: 编译时指定 CUDA 路径:

          $ cmake .. -DCMAKE_BUILD_TYPE=Release -DCMAKE_CUDA_COMPILER=/usr/local/cuda-[版本号]/bin/nvcc

          七、扩展说明

          7.1 Samples 目录结构解析

          CUDA Samples 按功能分类,核心目录说明:

          • 0_Simple:基础示例(向量加法、矩阵乘法等,入门首选)。

          • 1_Utilities:工具类示例(设备查询、性能计时等)。

          • 2_Graphics:图形渲染相关示例(结合 OpenGL、DirectX)。

          • 3_Imaging:图像处理示例(卷积、直方图等)。

          • 4_Finance:金融领域示例(蒙特卡洛模拟等)。

          • 5_DL:深度学习加速示例(结合 cuDNN、TensorRT)。

          7.2 自定义编译选项

          • 指定 CUDA 架构:(如针对 Ampere 架构):

          # CUDA 12.4/12.8 通用
          $ make NVCCFLAGS="-arch=sm_86"  # Make 编译
          $ cmake .. -DCMAKE_CUDA_ARCHITECTURES=86  # CMake 编译
          • 版本差异说明: CUDA 12.8 相比 12.4 增加了对新显卡架构的支持,部分 Samples(如 5_DL 目录下)需依赖更高版本的 cuDNN/TensorRT。 编译前务必参考对应版本的 README.md,例如:

          # 查看当前版本 Samples 的编译说明
          $ cat /usr/local/cuda-12.4/samples/README.md  # CentOS
          $ cat /usr/local/cuda-12.8/samples/README.md  # Rocky

          八、参考资源

          • NVIDIA CUDA Samples 官方文档

          • CUDA Toolkit 下载页面

          • CUDA C++ 编程指南

          • CMake CUDA 编译指南

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  Linux LVM 镜像逻辑卷创建与故障恢复指南
          下一篇 :  NVIDIA GPU 物理机常见问题处理指南
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明