爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      CUDA Samples: heat conduction(模拟热传导)

      首页 知识中心 其他 文章详情页

      CUDA Samples: heat conduction(模拟热传导)

      2023-03-29 09:39:45 阅读次数:492

      CUDA,cpp

      以下CUDA sample是分别用C++和CUDA实现的模拟热传导生成的图像,并对其中使用到的CUDA函数进行了解说,code参考了《GPU高性能编程CUDA实战》一书的第七章,各个文件内容如下:

      funset.cpp:

       

      #include "funset.hpp"
      #include <random>
      #include <iostream>
      #include <vector>
      #include <memory>
      #include <string>
      #include "common.hpp"
      #include <opencv2/opencv.hpp>
      
      int test_heat_conduction()
      {
      	const int width{ 1024 }, height = width;
      	cv::Mat mat1(height, width, CV_8UC4), mat2(height, width, CV_8UC4);
      
      	const float speed{ 0.25f }, max_temp{ 1.f }, min_temp{0.0001f};
      	float elapsed_time1{ 0.f }, elapsed_time2{ 0.f }; // milliseconds
      
      	// intialize the constant data
      	std::unique_ptr<float[]> temp(new float[width * height]);
      	for (int i = 0; i < width*height; ++i) {
      		temp[i] = 0;
      		int x = i % width;
      		int y = i / height;
      		if ((x>300) && (x<600) && (y>310) && (y<601))
      			temp[i] = max_temp;
      	}
      
      	temp[width * 100 + 100] = (max_temp + min_temp) / 2;
      	temp[width * 700 + 100] = min_temp;
      	temp[width * 300 + 300] = min_temp;
      	temp[width * 200 + 700] = min_temp;
      
      	for (int y = 800; y < 900; ++y) {
      		for (int x = 400; x < 500; ++x) {
      			temp[x + y * width] = min_temp;
      		}
      	}
      
      	int ret = heat_conduction_cpu(mat1.data, width, height, temp.get(), speed, &elapsed_time1);
      	if (ret != 0) PRINT_ERROR_INFO(heat_conduction_cpu);
      
      	ret = heat_conduction_gpu(mat2.data, width, height, temp.get(), speed, &elapsed_time2);
      	if (ret != 0) PRINT_ERROR_INFO(heat_conduction_gpu);
      
      	for (int y = 0; y < height; ++y) {
      		for (int x = 0; x < width; ++x) {
      			cv::Vec4b val1 = mat1.at<cv::Vec4b>(y, x);
      			cv::Vec4b val2 = mat2.at<cv::Vec4b>(y, x);
      
      			for (int i = 0; i < 4; ++i) {
      				if (val1[i] != val2[i]) {
      					fprintf(stderr, "their values are different at (%d, %d), i: %d, val1: %d, val2: %d\n",
      						x, y, i, val1[i], val2[i]);
      					//return -1;
      				}
      			}
      		}
      	}
      
      	std::string save_image_name{ "E:/GitCode/CUDA_Test/heat_conduction.jpg" };
      	cv::resize(mat2, mat2, cv::Size(width / 2, height / 2), 0.f, 0.f, 2);
      	cv::imwrite(save_image_name, mat2);
      
      	fprintf(stderr, "test heat conduction: cpu run time: %f ms, gpu run time: %f ms\n", elapsed_time1, elapsed_time2);
      
      	return 0;
      }
      heat_conduction.cpp:

       

       

      #include "funset.hpp"
      #include <chrono>
      #include <memory>
      #include <vector>
      
      static void copy_const_kernel(float* iptr, const float* cptr, int width, int height)
      {
      	for (int y = 0; y < height; ++y) {
      		for (int x = 0; x < width; ++x) {
      			int offset = x + y * width;
      			if (cptr[offset] != 0) iptr[offset] = cptr[offset];
      		}
      	}
      }
      
      static void blend_kernel(float* outSrc, const float* inSrc, int width, int height, float speed)
      {
      	for (int y = 0; y < height; ++y) {
      		for (int x = 0; x < width; ++x) {
      			int offset = x + y * width;
      
      			int left = offset - 1;
      			int right = offset + 1;
      			if (x == 0) ++left;
      			if (x == width - 1) --right;
      
      			int top = offset - height;
      			int bottom = offset + height;
      			if (y == 0) top += height;
      			if (y == height - 1) bottom -= height;
      
      			outSrc[offset] = inSrc[offset] + speed * (inSrc[top] + inSrc[bottom] + inSrc[left] + inSrc[right] - inSrc[offset] * 4);
      		}
      	}
      }
      
      static unsigned char value(float n1, float n2, int hue)
      {
      	if (hue > 360) hue -= 360;
      	else if (hue < 0) hue += 360;
      
      	if (hue < 60)
      		return (unsigned char)(255 * (n1 + (n2 - n1)*hue / 60));
      	if (hue < 180)
      		return (unsigned char)(255 * n2);
      	if (hue < 240)
      		return (unsigned char)(255 * (n1 + (n2 - n1)*(240 - hue) / 60));
      	return (unsigned char)(255 * n1);
      }
      
      static void float_to_color(unsigned char *optr, const float *outSrc, int width, int height)
      {
      	for (int y = 0; y < height; ++y) {
      		for (int x = 0; x < width; ++x) {
      			int offset = x + y * width;
      
      			float l = outSrc[offset];
      			float s = 1;
      			int h = (180 + (int)(360.0f * outSrc[offset])) % 360;
      			float m1, m2;
      
      			if (l <= 0.5f) m2 = l * (1 + s);
      			else m2 = l + s - l * s;
      			m1 = 2 * l - m2;
      
      			optr[offset * 4 + 0] = value(m1, m2, h + 120);
      			optr[offset * 4 + 1] = value(m1, m2, h);
      			optr[offset * 4 + 2] = value(m1, m2, h - 120);
      			optr[offset * 4 + 3] = 255;
      		}
      	}
      }
      
      int heat_conduction_cpu(unsigned char* ptr, int width, int height, const float* src, float speed, float* elapsed_time)
      {
      	auto start = std::chrono::steady_clock::now();
      
      	std::vector<float> inSrc(width*height, 0.f);
      	std::vector<float> outSrc(width*height, 0.f);
      
      	for (int i = 0; i < 90; ++i) {
      		copy_const_kernel(inSrc.data(), src, width, height);
      		blend_kernel(outSrc.data(), inSrc.data(), width, height, speed);
      		std::swap(inSrc, outSrc);
      	}
      
      	float_to_color(ptr, inSrc.data(), width, height);
      
      	auto end = std::chrono::steady_clock::now();
      	auto duration = std::chrono::duration_cast<std::chrono::nanoseconds>(end - start);
      	*elapsed_time = duration.count() * 1.0e-6;
      
      	return 0;
      }
      heat_conduction.cu:

       

       

      #include "funset.hpp"
      #include <iostream>
      #include <algorithm>
      #include <memory>
      #include <vector>
      #include <cuda_runtime.h> // For the CUDA runtime routines (prefixed with "cuda_")
      #include <device_launch_parameters.h>
      #include "common.hpp"
      
      /* __global__: 函数类型限定符;在设备上运行;在主机端调用,计算能力3.2及以上可以在
      设备端调用;声明的函数的返回值必须是void类型;对此类型函数的调用是异步的,即在
      设备完全完成它的运行之前就返回了;对此类型函数的调用必须指定执行配置,即用于在
      设备上执行函数时的grid和block的维度,以及相关的流(即插入<<<   >>>运算符);
      a kernel,表示此函数为内核函数(运行在GPU上的CUDA并行计算函数称为kernel(内核函
      数),内核函数必须通过__global__函数类型限定符定义); */
      __global__ static void copy_const_kernel(float* iptr, const float* cptr)
      {
      	/* gridDim: 内置变量,用于描述线程网格的维度,对于所有线程块来说,这个
      	变量是一个常数,用来保存线程格每一维的大小,即每个线程格中线程块的数量.
      	一个grid最多只有二维,为dim3类型;
      	blockDim: 内置变量,用于说明每个block的维度与尺寸.为dim3类型,包含
      	了block在三个维度上的尺寸信息;对于所有线程块来说,这个变量是一个常数,
      	保存的是线程块中每一维的线程数量;
      	blockIdx: 内置变量,变量中包含的值就是当前执行设备代码的线程块的索引;用
      	于说明当前thread所在的block在整个grid中的位置,blockIdx.x取值范围是
      	[0,gridDim.x-1],blockIdx.y取值范围是[0, gridDim.y-1].为uint3类型,
      	包含了一个block在grid中各个维度上的索引信息;
      	threadIdx: 内置变量,变量中包含的值就是当前执行设备代码的线程索引;用于
      	说明当前thread在block中的位置;如果线程是一维的可获取threadIdx.x,如果
      	是二维的还可获取threadIdx.y,如果是三维的还可获取threadIdx.z;为uint3类
      	型,包含了一个thread在block中各个维度的索引信息 */
      	// map from threadIdx/BlockIdx to pixel position
      	int x = threadIdx.x + blockIdx.x * blockDim.x;
      	int y = threadIdx.y + blockIdx.y * blockDim.y;
      	int offset = x + y * blockDim.x * gridDim.x;
      
      	if (cptr[offset] != 0) iptr[offset] = cptr[offset];
      }
      
      __global__ static void blend_kernel(float* outSrc, const float* inSrc, int width, int height, float speed)
      {
      	// map from threadIdx/BlockIdx to pixel position
      	int x = threadIdx.x + blockIdx.x * blockDim.x;
      	int y = threadIdx.y + blockIdx.y * blockDim.y;
      	int offset = x + y * blockDim.x * gridDim.x;
      
      	int left = offset - 1;
      	int right = offset + 1;
      	if (x == 0) ++left;
      	if (x == width - 1) --right;
      
      	int top = offset - height;
      	int bottom = offset + height;
      	if (y == 0) top += height;
      	if (y == height - 1) bottom -= height;
      
      	outSrc[offset] = inSrc[offset] + speed * (inSrc[top] + inSrc[bottom] + inSrc[left] + inSrc[right] - inSrc[offset] * 4);
      }
      
      /* __device__: 函数类型限定符,表明被修饰的函数在设备上执行,只能从设备上调用,
      但只能在其它__device__函数或者__global__函数中调用;__device__函数不支持递归;
      __device__函数的函数体内不能声明静态变量;__device__函数的参数数目是不可变化的;
      不能对__device__函数取指针 */
      __device__ static unsigned char value(float n1, float n2, int hue)
      {
      	if (hue > 360) hue -= 360;
      	else if (hue < 0) hue += 360;
      
      	if (hue < 60)
      		return (unsigned char)(255 * (n1 + (n2 - n1)*hue / 60));
      	if (hue < 180)
      		return (unsigned char)(255 * n2);
      	if (hue < 240)
      		return (unsigned char)(255 * (n1 + (n2 - n1)*(240 - hue) / 60));
      	return (unsigned char)(255 * n1);
      }
      
      __global__ static void float_to_color(unsigned char *optr, const float *outSrc)
      {
      	// map from threadIdx/BlockIdx to pixel position
      	int x = threadIdx.x + blockIdx.x * blockDim.x;
      	int y = threadIdx.y + blockIdx.y * blockDim.y;
      	int offset = x + y * blockDim.x * gridDim.x;
      
      	float l = outSrc[offset];
      	float s = 1;
      	int h = (180 + (int)(360.0f * outSrc[offset])) % 360;
      	float m1, m2;
      
      	if (l <= 0.5f) m2 = l * (1 + s);
      	else m2 = l + s - l * s;
      	m1 = 2 * l - m2;
      
      	optr[offset * 4 + 0] = value(m1, m2, h + 120);
      	optr[offset * 4 + 1] = value(m1, m2, h);
      	optr[offset * 4 + 2] = value(m1, m2, h - 120);
      	optr[offset * 4 + 3] = 255;
      }
      
      static int heat_conduction_gpu_1(unsigned char* ptr, int width, int height, const float* src, float speed, float* elapsed_time)
      {
      	/* cudaEvent_t: CUDA event types,结构体类型, CUDA事件,用于测量GPU在某
      	个任务上花费的时间,CUDA中的事件本质上是一个GPU时间戳,由于CUDA事件是在
      	GPU上实现的,因此它们不适于对同时包含设备代码和主机代码的混合代码计时 */
      	cudaEvent_t start, stop;
      	// cudaEventCreate: 创建一个事件对象,异步启动
      	cudaEventCreate(&start);
      	cudaEventCreate(&stop);
      	// cudaEventRecord: 记录一个事件,异步启动,start记录起始时间
      	cudaEventRecord(start, 0);
      
      	float* dev_inSrc{ nullptr };
      	float* dev_outSrc{ nullptr };
      	float* dev_constSrc{ nullptr };
      	unsigned char* dev_image{ nullptr };
      	const size_t length1{ width * height * sizeof(float) };
      	const size_t length2{ width * height * 4 * sizeof(unsigned char) };
      
      	// cudaMalloc: 在设备端分配内存
      	cudaMalloc(&dev_inSrc, length1);
      	cudaMalloc(&dev_outSrc, length1);
      	cudaMalloc(&dev_constSrc, length1);
      	cudaMalloc(&dev_image, length2);
      
      	/* cudaMemcpy: 在主机端和设备端拷贝数据,此函数第四个参数仅能是下面之一:
      	(1). cudaMemcpyHostToHost: 拷贝数据从主机端到主机端
      	(2). cudaMemcpyHostToDevice: 拷贝数据从主机端到设备端
      	(3). cudaMemcpyDeviceToHost: 拷贝数据从设备端到主机端
      	(4). cudaMemcpyDeviceToDevice: 拷贝数据从设备端到设备端
      	(5). cudaMemcpyDefault: 从指针值自动推断拷贝数据方向,需要支持
      	统一虚拟寻址(CUDA6.0及以上版本)
      	cudaMemcpy函数对于主机是同步的 */
      	cudaMemcpy(dev_constSrc, src, length1, cudaMemcpyHostToDevice);
      
      	const int threads_block{ 16 };
      	/* dim3: 基于uint3定义的内置矢量类型,相当于由3个unsigned int类型组成的
      	结构体,可表示一个三维数组,在定义dim3类型变量时,凡是没有赋值的元素都
      	会被赋予默认值1 */
      	dim3 blocks(width / threads_block, height / threads_block);
      	dim3 threads(threads_block, threads_block);
      
      	for (int i = 0; i < 90; ++i) {
      		copy_const_kernel << <blocks, threads >> >(dev_inSrc, dev_constSrc);
      		blend_kernel << <blocks, threads >> >(dev_outSrc, dev_inSrc, width, height, speed);
      		std::swap(dev_inSrc, dev_outSrc);
      	}
      
      	/* <<< >>>: 为CUDA引入的运算符,指定线程网格和线程块维度等,传递执行参
      	数给CUDA编译器和运行时系统,用于说明内核函数中的线程数量,以及线程是如何
      	组织的;尖括号中这些参数并不是传递给设备代码的参数,而是告诉运行时如何
      	启动设备代码,传递给设备代码本身的参数是放在圆括号中传递的,就像标准的函
      	数调用一样;不同计算能力的设备对线程的总数和组织方式有不同的约束;必须
      	先为kernel中用到的数组或变量分配好足够的空间,再调用kernel函数,否则在
      	GPU计算时会发生错误,例如越界等;
      	使用运行时API时,需要在调用的内核函数名与参数列表直接以<<<Dg,Db,Ns,S>>>
      	的形式设置执行配置,其中:Dg是一个dim3型变量,用于设置grid的维度和各个
      	维度上的尺寸.设置好Dg后,grid中将有Dg.x*Dg.y个block,Dg.z必须为1;Db是
      	一个dim3型变量,用于设置block的维度和各个维度上的尺寸.设置好Db后,每个
      	block中将有Db.x*Db.y*Db.z个thread;Ns是一个size_t型变量,指定各块为此调
      	用动态分配的共享存储器大小,这些动态分配的存储器可供声明为外部数组
      	(extern __shared__)的其他任何变量使用;Ns是一个可选参数,默认值为0;S为
      	cudaStream_t类型,用于设置与内核函数关联的流.S是一个可选参数,默认值0. */
      	float_to_color << <blocks, threads >> >(dev_image, dev_inSrc);
      
      	cudaMemcpy(ptr, dev_image, length2, cudaMemcpyDeviceToHost);
      
      	// cudaFree: 释放设备上由cudaMalloc函数分配的内存
      	cudaFree(dev_inSrc);
      	cudaFree(dev_outSrc);
      	cudaFree(dev_constSrc);
      	cudaFree(dev_image);
      
      	// cudaEventRecord: 记录一个事件,异步启动,stop记录结束时间
      	cudaEventRecord(stop, 0);
      	// cudaEventSynchronize: 事件同步,等待一个事件完成,异步启动
      	cudaEventSynchronize(stop);
      	// cudaEventElapseTime: 计算两个事件之间经历的时间,单位为毫秒,异步启动
      	cudaEventElapsedTime(elapsed_time, start, stop);
      	// cudaEventDestroy: 销毁事件对象,异步启动
      	cudaEventDestroy(start);
      	cudaEventDestroy(stop);
      
      	return 0;
      }
      
      static int heat_conduction_gpu_2(unsigned char* ptr, int width, int height, const float* src, float speed, float* elapsed_time)
      {
      	return 0;
      }
      
      static int heat_conduction_gpu_3(unsigned char* ptr, int width, int height, const float* src, float speed, float* elapsed_time)
      {
      	return 0;
      }
      
      int heat_conduction_gpu(unsigned char* ptr, int width, int height, const float* src, float speed, float* elapsed_time)
      {
      	int ret{ 0 };
      	ret = heat_conduction_gpu_1(ptr, width, height, src, speed, elapsed_time); // 没有采用纹理内存
      	//ret = heat_conduction_gpu_2(ptr, width, height, src, speed, elapsed_time); // 采用一维纹理内存
      	//ret = heat_conduction_gpu_3(ptr, width, height, src, speed, elapsed_time); // 采用二维纹理内存
      
      	return ret;
      }
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/fengbingchun/article/details/76228257,作者:fengbingchun,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:CUDA Samples: Streams\' usage

      下一篇:CUDA Samples: ripple

      相关文章

      2025-05-07 09:08:23

      Qt中Widget Aplication项目的文件内容介绍

      Qt中Widget Aplication项目的文件内容介绍

      2025-05-07 09:08:23
      cpp , ctrl , 快捷键 , 文件 , 项目
      2025-04-18 08:02:09

      CUDA从入门到精通(二)——NVCC编译器介绍

      nvcc(NVIDIA CUDA Compiler)是 NVIDIA CUDA 编程工具链中的编译器驱动程序。它负责将基于 CUDA C/C++ 编写的代码编译成能够在 NVIDIA GPU 上执行的程序。

      2025-04-18 08:02:09
      CPU , CUDA , GPU , 代码 , 编译
      2025-04-18 08:02:09

      CUDA从入门到精通(一)——基于CUDA的异构并行计算

      CUDA从入门到精通(一)——基于CUDA的异构并行计算

      2025-04-18 08:02:09
      CUDA , GPU , 任务 , 线程 , 编程 , 计算
      2025-04-18 08:02:09

      CUDA从入门到精通(三)——CUDA编程示例

      CUDA(Compute Unified Device Architecture)是由 NVIDIA 提供的一种并行计算平台和编程模型。它允许开发者利用 NVIDIA GPU 的并行计算能力,编写可以在 GPU 上高效运行的代码,从而加速计算密集型任务。

      2025-04-18 08:02:09
      CUDA , GPU , 内存 , 程序 , 线程 , 释放
      2025-03-10 09:50:40

      数据库用户登录验证及注册功能实现

      数据库用户登录验证及注册功能实现

      2025-03-10 09:50:40
      cpp , mysql , 安装 , 数据库 , 配置
      2025-02-14 08:19:53

      【c++】Scons|scons对比make

      【c++】Scons|scons对比make

      2025-02-14 08:19:53
      cpp , env , hello , 文件 , 编译
      2025-02-11 09:37:48

      深入解剖指针-二维数组

      深入解剖指针-二维数组

      2025-02-11 09:37:48
      cpp , 地址 , 数组 , 数组名 , 题目
      2025-01-08 08:39:44

      windows系统环境c++(c) socket编程实例代码(含服务端和客户端)

      本代码是windows系统环境c++(c) socket编程实例。包含客户端和服务端,可以实现客户端发送消息,服务端接收消息并写入日志。 server.cpp为服务端。

      2025-01-08 08:39:44
      client , cpp , server , socket , windows , 代码 , 客户端 , 服务端
      2024-12-24 10:24:23

      简单的接口与实现分离的测试

      简单的接口与实现分离的测试

      2024-12-24 10:24:23
      cpp , 接口
      2024-12-24 10:19:43

      简单的Windows套接字异步编程

      简单的Windows套接字异步编程

      2024-12-24 10:19:43
      cpp , Windows , 头文件 , 异步 , 接字
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5238098

      查看更多

      最新文章

      Qt中Widget Aplication项目的文件内容介绍

      2025-05-07 09:08:23

      【c++】Scons|scons对比make

      2025-02-14 08:19:53

      深入解剖指针-二维数组

      2025-02-11 09:37:48

      如何查看当前位置显存使用情况

      2024-05-20 09:53:58

      搭建(人工智能)或(视觉处理)环境前必看

      2024-04-25 09:39:52

      activemq-cpp编译

      2023-05-11 06:07:32

      查看更多

      热门文章

      CUDA Samples: Streams\' usage

      2023-03-29 09:39:45

      CUDA Samples:Vector Add

      2023-03-29 09:39:45

      CUDA Samples: ripple

      2023-03-29 09:39:45

      CUDA Samples: Julia

      2023-03-29 09:39:45

      activemq-cpp编译

      2023-05-11 06:07:32

      搭建(人工智能)或(视觉处理)环境前必看

      2024-04-25 09:39:52

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      CUDA Samples: Streams\' usage

      【c++】Scons|scons对比make

      CUDA Samples: Julia

      activemq-cpp编译

      如何查看当前位置显存使用情况

      Qt中Widget Aplication项目的文件内容介绍

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号