Portage d’un code sous MPI (Message Passing Interface).
Thierry Garcia (LI-PaRAD)et Pierre SPITERI (IRIT).
Algorithmes parallèles, librairie MPI, communications synchrones et asynchrones, parallèlisme, calcul intensif, HPC, Mémoire distribuée.
Cet atelier va permettre de montrer une manière de porter un code séquentiel résolvant un problème simple de calcul scientifique, dans un environnement parallèle, en utilisant les primitives de communication MPI. On s’attachera à montrer l’importance de la communication et de la synchronisation des machines dans le cas d’une résolution synchrone ou asynchrone.