From 7fc219fc0ca8b565af409ac6fdb96296b37611cf Mon Sep 17 00:00:00 2001 From: Quarto GHA Workflow Runner Date: Tue, 24 Sep 2024 21:56:22 +0000 Subject: [PATCH] Built site for gh-pages --- .nojekyll | 2 +- index.html | 18 +++++++----------- search.json | 6 +++--- sitemap.xml | 8 ++++---- 4 files changed, 15 insertions(+), 19 deletions(-) diff --git a/.nojekyll b/.nojekyll index 06f8985..10495b4 100644 --- a/.nojekyll +++ b/.nojekyll @@ -1 +1 @@ -370ca88e \ No newline at end of file +666687f7 \ No newline at end of file diff --git a/index.html b/index.html index 9e3f6ea..6da8d9f 100644 --- a/index.html +++ b/index.html @@ -230,6 +230,7 @@

Introduction

  • Toutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.
  • Chaque processus exécute éventuellement des parties différentes d’un programme.
  • Une donnée est échangée entre deux ou plusieurs processus via des appels de fonctions.
  • +
  • Pour les langages ne disposant pas de récupérateur de mémoire, la taille sera également nécessaire (C, Fortran)
  • @@ -253,7 +254,7 @@

    MPI vs OpenMP

    Historique

      -
    • Version 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messagesMPI
    • +
    • Version 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messages MPI
    • Version 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)
    • Version 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.
    • Version 4.0 : juin 2021
    • @@ -407,8 +408,7 @@

      Exécuti ## Run the program conda activate rmpi -mpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent "oarsh" $OAR_WORKING_DIRECTORY/hello_mpi -mpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent "oarsh" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R +mpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent "oarsh" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R

      Ce script doit être exécutable

      $ chmod +x hello_mpi.sh
       $ ls -l hello_mpi.sh
      @@ -439,14 +439,10 @@ 

      Exécuti --------- - -------- ---------- ------------------------------------------------ 26118496 F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)

      $ cat hello_mpi.out
      -Hello world from processor dahu146, rank 3 out of 4 processors
      -Hello world from processor dahu146, rank 2 out of 4 processors
      -Hello world from processor dahu146, rank 0 out of 4 processors
      -Hello world from processor dahu146, rank 1 out of 4 processors
      -Hello world from task 003 of 004, on host dahu146
      -Hello world from task 000 of 004, on host dahu146
      -Hello world from task 002 of 004, on host dahu146
      -Hello world from task 001 of 004, on host dahu146
      +Hello world from task 003 of 004, on host dahu146 +Hello world from task 000 of 004, on host dahu146 +Hello world from task 002 of 004, on host dahu146 +Hello world from task 001 of 004, on host dahu146

    Exemple R MPMD (Multiple Program Multiple Data)

    diff --git a/search.json b/search.json index fb62ae0..e6f81de 100644 --- a/search.json +++ b/search.json @@ -88,7 +88,7 @@ "href": "index.html#introduction", "title": "Rmpi", "section": "Introduction", - "text": "Introduction\nL’utilisation de la bibliothèque MPI permet d’exploiter le parallélisme des ordinateurs en utilisant le paradigme de l’échange de messages.\nOn parle de programme séquentiel lorsqu’il est exécuté par un et un seul processus. Dans ce cas, toutes les variables et constantes sont allouées dans la mémoire allouée au processus\nDans un programme parallèle par échanges de messages\n\nLe programme est exécuté simultanément dans plusieurs processus.\nToutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.\nChaque processus exécute éventuellement des parties différentes d’un programme.\nUne donnée est échangée entre deux ou plusieurs processus via des appels de fonctions." + "text": "Introduction\nL’utilisation de la bibliothèque MPI permet d’exploiter le parallélisme des ordinateurs en utilisant le paradigme de l’échange de messages.\nOn parle de programme séquentiel lorsqu’il est exécuté par un et un seul processus. Dans ce cas, toutes les variables et constantes sont allouées dans la mémoire allouée au processus\nDans un programme parallèle par échanges de messages\n\nLe programme est exécuté simultanément dans plusieurs processus.\nToutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.\nChaque processus exécute éventuellement des parties différentes d’un programme.\nUne donnée est échangée entre deux ou plusieurs processus via des appels de fonctions.\nPour les langages ne disposant pas de récupérateur de mémoire, la taille sera également nécessaire (C, Fortran)" }, { "objectID": "index.html#léchange-de-messages", @@ -116,7 +116,7 @@ "href": "index.html#historique", "title": "Rmpi", "section": "Historique", - "text": "Historique\n\nVersion 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messagesMPI\nVersion 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)\nVersion 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.\nVersion 4.0 : juin 2021" + "text": "Historique\n\nVersion 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messages MPI\nVersion 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)\nVersion 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.\nVersion 4.0 : juin 2021" }, { "objectID": "index.html#implémentations-mpi", @@ -165,7 +165,7 @@ "href": "index.html#exécution-sur-le-cluster-perseus", "title": "Rmpi", "section": "Exécution sur le cluster perseus", - "text": "Exécution sur le cluster perseus\nInstallation de Rmpi et récupération du matériel\nsource /applis/environments/conda.sh\nconda create -y -n rmpi r-rmpi -c conda-forge\nconda activate rmpi\ngit clone https://github.com/GroupeCalcul/ANFRCalculRmpi\ncd ANFRCalculRmpi\nfichier hello_mpi.sh nécessaire à l’utilisation d’OAR\n##!/bin/bash\n#OAR --project pr-groupecalcul\n#OAR -n hello_mpi\n#OAR -l /nodes=1/core=4,walltime=00:01:00\n#OAR --stdout hello_mpi.out\n#OAR --stderr hello_mpi.err\n\n## Ensure conda is loaded. The following line can be into your ~/.bashrc file.\nsource /applis/environments/conda.sh\n\n## Run the program\nconda activate rmpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" $OAR_WORKING_DIRECTORY/hello_mpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R\nCe script doit être exécutable\n$ chmod +x hello_mpi.sh\n$ ls -l hello_mpi.sh\n-rwxr-xr-x 1 login-perseus l-formations 567 Sep 24 14:30 hello_mpi.sh\n$ oarsub -S ./hello_mpi.sh\n[ADMISSION RULE] Antifragmentation activated\n[ADMISSION RULE] No antifrag for small jobs\n[FAST] Adding fast resource constraints\n[PARALLEL] Small jobs (< 32 cores) restricted to tagged nodes\n[ADMISSION RULE] Modify resource description with type constraints\n[ADMISSION RULE] Found job type [verysmall]\n[ADMISSION RULE] Automatically add job type [verysmall]\nOAR_JOB_ID=26118495\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 W navarop- 0:00:00 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 L navarop- 0:00:03 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 R navarop- 0:00:06 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ cat hello_mpi.out\nHello world from processor dahu146, rank 3 out of 4 processors\nHello world from processor dahu146, rank 2 out of 4 processors\nHello world from processor dahu146, rank 0 out of 4 processors\nHello world from processor dahu146, rank 1 out of 4 processors\nHello world from task 003 of 004, on host dahu146\nHello world from task 000 of 004, on host dahu146\nHello world from task 002 of 004, on host dahu146\nHello world from task 001 of 004, on host dahu146" + "text": "Exécution sur le cluster perseus\nInstallation de Rmpi et récupération du matériel\nsource /applis/environments/conda.sh\nconda create -y -n rmpi r-rmpi -c conda-forge\nconda activate rmpi\ngit clone https://github.com/GroupeCalcul/ANFRCalculRmpi\ncd ANFRCalculRmpi\nfichier hello_mpi.sh nécessaire à l’utilisation d’OAR\n##!/bin/bash\n#OAR --project pr-groupecalcul\n#OAR -n hello_mpi\n#OAR -l /nodes=1/core=4,walltime=00:01:00\n#OAR --stdout hello_mpi.out\n#OAR --stderr hello_mpi.err\n\n## Ensure conda is loaded. The following line can be into your ~/.bashrc file.\nsource /applis/environments/conda.sh\n\n## Run the program\nconda activate rmpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R\nCe script doit être exécutable\n$ chmod +x hello_mpi.sh\n$ ls -l hello_mpi.sh\n-rwxr-xr-x 1 login-perseus l-formations 567 Sep 24 14:30 hello_mpi.sh\n$ oarsub -S ./hello_mpi.sh\n[ADMISSION RULE] Antifragmentation activated\n[ADMISSION RULE] No antifrag for small jobs\n[FAST] Adding fast resource constraints\n[PARALLEL] Small jobs (< 32 cores) restricted to tagged nodes\n[ADMISSION RULE] Modify resource description with type constraints\n[ADMISSION RULE] Found job type [verysmall]\n[ADMISSION RULE] Automatically add job type [verysmall]\nOAR_JOB_ID=26118495\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 W navarop- 0:00:00 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 L navarop- 0:00:03 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 R navarop- 0:00:06 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ cat hello_mpi.out\nHello world from task 003 of 004, on host dahu146\nHello world from task 000 of 004, on host dahu146\nHello world from task 002 of 004, on host dahu146\nHello world from task 001 of 004, on host dahu146" }, { "objectID": "index.html#exemple-r-mpmd-multiple-program-multiple-data", diff --git a/sitemap.xml b/sitemap.xml index e8cb2ec..b3f93d7 100644 --- a/sitemap.xml +++ b/sitemap.xml @@ -2,18 +2,18 @@ https://groupecalcul.github.io/ANFRCalculRmpi/com_collectives.html - 2024-09-24T21:32:51.395Z + 2024-09-24T21:56:09.134Z https://groupecalcul.github.io/ANFRCalculRmpi/exercice.html - 2024-09-24T21:32:51.395Z + 2024-09-24T21:56:09.135Z https://groupecalcul.github.io/ANFRCalculRmpi/index.html - 2024-09-24T21:32:51.396Z + 2024-09-24T21:56:09.135Z https://groupecalcul.github.io/ANFRCalculRmpi/com_point_a_point.html - 2024-09-24T21:32:51.395Z + 2024-09-24T21:56:09.135Z