Я пытаюсь использовать MVAPICH2-GDR для простой программы hello world. Хотя он может успешно скомпилировать код, во время выполнения возникает ошибка ошибки сегментации. Моя платформа имеет Redhat 6.5 и CUDA 7.5. Итак, я скачал rpm-файл mvapich2-gdr-cuda7.5-intel-2.2-0.3.rc1.el6.x86_64.rpm.
Код MPI представляет собой простую программу hello world:
1 #include <mpi.h>
2 #include <stdio.h>
3
4 int main(int argc, char** argv) {
5 // Initialize the MPI environment
6 MPI_Init(NULL, NULL);
7 // Get the number of processes
8 int world_size;
9 MPI_Comm_size(MPI_COMM_WORLD, &world_size);
10
11 // Get the rank of the process
12 int world_rank;
13 MPI_Comm_rank(MPI_COMM_WORLD, &world_rank);
14
15 // Print off a hello world message
16 printf("Hello world from %d out of %d\n", world_rank, world_size);
17
18 // Finalize the MPI environment.
19 MPI_Finalize();
20 }
Для компиляции программы я использовал следующую команду:
mpicc hello.c -o hello
Чтобы запустить программу:
mpirun -np 2 ./hello
Сообщение об ошибке выглядит следующим образом:
[localhost.localdomain:mpi_rank_1][error_sighandler] Caught error: Segmentation fault (signal 11)
[localhost.localdomain:mpi_rank_0][error_sighandler] Caught error: Segmentation fault (signal 11)
= BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES
= PID 188057 RUNNING AT localhost.localdomain
= EXIT CODE: 139
= CLEANING UP REMAINING PROCESSES
= YOU CAN IGNORE THE BELOW CLEANUP MESSAGES
YOUR APPLICATION TERMINATED WITH THE EXIT STRING: Segmentation fault (signal 11)
Поскольку MVAPICH2-GDR не открывал исходный код, я действительно не знаю, откуда берется ошибка. Кто-нибудь успешно использовал MVAPICH2-GDR?
printf
(убедившись, что они заканчиваются наnewline
для сброса вывода), чтобы определить, какой из этих вызовов вообще возвращается. А вы пробовалиMPI_Init(&argc, &argv);
? - person Weather Vane   schedule 25.07.2016