Parallel_Programming:使用 openMP、openMPI 和 CUDA 进行并行编程

时间:2021-07-01 19:13:21
【文件属性】:
文件名称:Parallel_Programming:使用 openMP、openMPI 和 CUDA 进行并行编程
文件大小:78KB
文件格式:ZIP
更新时间:2021-07-01 19:13:21
C 并行编程(CUDA、openMP、MPI) 介绍 这个存储库包含一些并行编程的实现。 使用了 3 种技术:* 用于共享内存拓扑的 openMP * 用于分布式内存拓扑的 openMPI * 用于 GPU(图形处理单元)的 CUDA 项目一 描述 该项目包含使用 openMP 和 openMPI 的线性系统高斯算法的并行化实现,并比较各种并行实现与串行实现之间的并行化和时间增益。 在文件 LU_serial.c 中,已经给出了原始序列号。 使用 openMPI 的算法有 4 个并行实现,它们在数据分配类型和进程之间的通信类型方面有所不同。 第一种类型的数据分配是连续块分配。 因此,如果我们有一个 100x100 元素和 n 个进程的数组,则该数组的前 100/n 行分配给第一个进程,接下来的 100/n 行分配给下一个进程。 第二种数据分配类型是数据的循环分配。 所以,如果我们有一个 10
【文件预览】:
Parallel_Programming-master
----README.md(7KB)
----Project3()
--------timer.c(2KB)
--------gpu_util.h(1KB)
--------timer.h(1KB)
--------cuPrintf.cuh(7KB)
--------apsp_main.c(4KB)
--------gpu_util.cu(2KB)
--------graph.h(3KB)
--------common.h(2KB)
--------alloc.c(2KB)
--------gpu_kernels.cu(18KB)
--------cpu_kernels.c(1KB)
--------graph.c(7KB)
--------error.c(2KB)
--------gpuinfo.c(14KB)
--------Makefile(4KB)
--------cuPrintf.cu(31KB)
--------alloc.h(1KB)
--------error.h(1KB)
----Project2()
--------Serial()
--------Recursive()
--------Strassen()
--------Original Code()
--------Tiled()
----Project1()
--------LU_block_p2p.c(5KB)
--------LU_cyclic_bcast.c(5KB)
--------utils.c(2KB)
--------utils.h(1008B)
--------LU_cyclic_p2p.c(5KB)
--------LU_serial.c(1KB)
--------LU_block_bcast.c(5KB)
--------Makefile(857B)
--------LU_omp.c(2KB)

网友评论