Skip to content

Commit

Permalink
Built site for gh-pages
Browse files Browse the repository at this point in the history
  • Loading branch information
Quarto GHA Workflow Runner committed Sep 24, 2024
1 parent 4ce00ed commit 7fc219f
Show file tree
Hide file tree
Showing 4 changed files with 15 additions and 19 deletions.
2 changes: 1 addition & 1 deletion .nojekyll
Original file line number Diff line number Diff line change
@@ -1 +1 @@
370ca88e
666687f7
18 changes: 7 additions & 11 deletions index.html
Original file line number Diff line number Diff line change
Expand Up @@ -230,6 +230,7 @@ <h2 class="anchored" data-anchor-id="introduction">Introduction</h2>
<li>Toutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.</li>
<li>Chaque processus exécute éventuellement des parties différentes d’un programme.</li>
<li>Une donnée est échangée entre deux ou plusieurs processus via des appels de fonctions.</li>
<li>Pour les langages ne disposant pas de récupérateur de mémoire, la taille sera également nécessaire (C, Fortran)</li>
</ul>
</section>
<section id="léchange-de-messages" class="level2">
Expand All @@ -253,7 +254,7 @@ <h2 class="anchored" data-anchor-id="mpi-vs-openmp">MPI vs OpenMP</h2>
<section id="historique" class="level2">
<h2 class="anchored" data-anchor-id="historique">Historique</h2>
<ul>
<li>Version 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messagesMPI</li>
<li>Version 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messages MPI</li>
<li>Version 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)</li>
<li>Version 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.</li>
<li>Version 4.0 : juin 2021</li>
Expand Down Expand Up @@ -407,8 +408,7 @@ <h2 class="anchored" data-anchor-id="exécution-sur-le-cluster-perseus">Exécuti
<span id="cb10-10"><a href="#cb10-10" aria-hidden="true" tabindex="-1"></a></span>
<span id="cb10-11"><a href="#cb10-11" aria-hidden="true" tabindex="-1"></a><span class="co">## Run the program</span></span>
<span id="cb10-12"><a href="#cb10-12" aria-hidden="true" tabindex="-1"></a><span class="ex">conda</span> activate rmpi</span>
<span id="cb10-13"><a href="#cb10-13" aria-hidden="true" tabindex="-1"></a><span class="ex">mpirun</span> <span class="at">--np</span> 4 <span class="at">--machinefile</span> <span class="va">$OAR_NODE_FILE</span> <span class="at">--mca</span> plm_rsh_agent <span class="st">"oarsh"</span> <span class="va">$OAR_WORKING_DIRECTORY</span>/hello_mpi</span>
<span id="cb10-14"><a href="#cb10-14" aria-hidden="true" tabindex="-1"></a><span class="ex">mpirun</span> <span class="at">--np</span> 4 <span class="at">--machinefile</span> <span class="va">$OAR_NODE_FILE</span> <span class="at">--mca</span> plm_rsh_agent <span class="st">"oarsh"</span> Rscript <span class="va">$OAR_WORKING_DIRECTORY</span>/hello_mpi.R</span></code><button title="Copier vers le presse-papier" class="code-copy-button"><i class="bi"></i></button></pre></div>
<span id="cb10-13"><a href="#cb10-13" aria-hidden="true" tabindex="-1"></a><span class="ex">mpirun</span> <span class="at">--np</span> 4 <span class="at">--machinefile</span> <span class="va">$OAR_NODE_FILE</span> <span class="at">--mca</span> plm_rsh_agent <span class="st">"oarsh"</span> Rscript <span class="va">$OAR_WORKING_DIRECTORY</span>/hello_mpi.R</span></code><button title="Copier vers le presse-papier" class="code-copy-button"><i class="bi"></i></button></pre></div>
<p>Ce script doit être exécutable</p>
<div class="sourceCode" id="cb11"><pre class="sourceCode bash code-with-copy"><code class="sourceCode bash"><span id="cb11-1"><a href="#cb11-1" aria-hidden="true" tabindex="-1"></a><span class="ex">$</span> chmod +x hello_mpi.sh</span>
<span id="cb11-2"><a href="#cb11-2" aria-hidden="true" tabindex="-1"></a><span class="ex">$</span> ls <span class="at">-l</span> hello_mpi.sh</span>
Expand Down Expand Up @@ -439,14 +439,10 @@ <h2 class="anchored" data-anchor-id="exécution-sur-le-cluster-perseus">Exécuti
<span id="cb12-15"><a href="#cb12-15" aria-hidden="true" tabindex="-1"></a><span class="ex">---------</span> <span class="at">-</span> <span class="at">--------</span> <span class="at">----------</span> <span class="at">------------------------------------------------</span></span>
<span id="cb12-16"><a href="#cb12-16" aria-hidden="true" tabindex="-1"></a><span class="ex">26118496</span> F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous<span class="kw">|</span><span class="ex">verysmall</span> <span class="er">(</span><span class="va">Karma</span><span class="op">=</span>0.004,quota_ok<span class="kw">)</span></span></code><button title="Copier vers le presse-papier" class="code-copy-button"><i class="bi"></i></button></pre></div>
<div class="sourceCode" id="cb13"><pre class="sourceCode bash code-with-copy"><code class="sourceCode bash"><span id="cb13-1"><a href="#cb13-1" aria-hidden="true" tabindex="-1"></a><span class="ex">$</span> cat hello_mpi.out</span>
<span id="cb13-2"><a href="#cb13-2" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from processor dahu146, rank 3 out of 4 processors</span>
<span id="cb13-3"><a href="#cb13-3" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from processor dahu146, rank 2 out of 4 processors</span>
<span id="cb13-4"><a href="#cb13-4" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from processor dahu146, rank 0 out of 4 processors</span>
<span id="cb13-5"><a href="#cb13-5" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from processor dahu146, rank 1 out of 4 processors</span>
<span id="cb13-6"><a href="#cb13-6" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 003 of 004, on host dahu146</span>
<span id="cb13-7"><a href="#cb13-7" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 000 of 004, on host dahu146</span>
<span id="cb13-8"><a href="#cb13-8" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 002 of 004, on host dahu146</span>
<span id="cb13-9"><a href="#cb13-9" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 001 of 004, on host dahu146</span></code><button title="Copier vers le presse-papier" class="code-copy-button"><i class="bi"></i></button></pre></div>
<span id="cb13-2"><a href="#cb13-2" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 003 of 004, on host dahu146</span>
<span id="cb13-3"><a href="#cb13-3" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 000 of 004, on host dahu146</span>
<span id="cb13-4"><a href="#cb13-4" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 002 of 004, on host dahu146</span>
<span id="cb13-5"><a href="#cb13-5" aria-hidden="true" tabindex="-1"></a><span class="ex">Hello</span> world from task 001 of 004, on host dahu146</span></code><button title="Copier vers le presse-papier" class="code-copy-button"><i class="bi"></i></button></pre></div>
</section>
<section id="exemple-r-mpmd-multiple-program-multiple-data" class="level2">
<h2 class="anchored" data-anchor-id="exemple-r-mpmd-multiple-program-multiple-data">Exemple R MPMD (Multiple Program Multiple Data)</h2>
Expand Down
6 changes: 3 additions & 3 deletions search.json
Original file line number Diff line number Diff line change
Expand Up @@ -88,7 +88,7 @@
"href": "index.html#introduction",
"title": "Rmpi",
"section": "Introduction",
"text": "Introduction\nL’utilisation de la bibliothèque MPI permet d’exploiter le parallélisme des ordinateurs en utilisant le paradigme de l’échange de messages.\nOn parle de programme séquentiel lorsqu’il est exécuté par un et un seul processus. Dans ce cas, toutes les variables et constantes sont allouées dans la mémoire allouée au processus\nDans un programme parallèle par échanges de messages\n\nLe programme est exécuté simultanément dans plusieurs processus.\nToutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.\nChaque processus exécute éventuellement des parties différentes d’un programme.\nUne donnée est échangée entre deux ou plusieurs processus via des appels de fonctions."
"text": "Introduction\nL’utilisation de la bibliothèque MPI permet d’exploiter le parallélisme des ordinateurs en utilisant le paradigme de l’échange de messages.\nOn parle de programme séquentiel lorsqu’il est exécuté par un et un seul processus. Dans ce cas, toutes les variables et constantes sont allouées dans la mémoire allouée au processus\nDans un programme parallèle par échanges de messages\n\nLe programme est exécuté simultanément dans plusieurs processus.\nToutes les variables sont privées et résident dans la mémoire locale allouée à chaque processus.\nChaque processus exécute éventuellement des parties différentes d’un programme.\nUne donnée est échangée entre deux ou plusieurs processus via des appels de fonctions.\nPour les langages ne disposant pas de récupérateur de mémoire, la taille sera également nécessaire (C, Fortran)"
},
{
"objectID": "index.html#léchange-de-messages",
Expand Down Expand Up @@ -116,7 +116,7 @@
"href": "index.html#historique",
"title": "Rmpi",
"section": "Historique",
"text": "Historique\n\nVersion 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messagesMPI\nVersion 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)\nVersion 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.\nVersion 4.0 : juin 2021"
"text": "Historique\n\nVersion 1.0 : en juin 1994, le forum MPI, avec la participation d’une quarantaine d’organisations, aboutit à la définition d’un ensemble de sous-programmes concernant la bibliothèque d’échanges de messages MPI\nVersion 2.0 : apparue en juillet 1997, cette version apportait des compléments importants volontairement non intégrés dans MPI 1.0 (gestion dynamique de processus, copies mémoire à mémoire, entrées-sorties parallèles, etc.)\nVersion 3.0 : septembre 2012, cette version apportait les communications collectives non bloquantes, nouvelle interface Fortran, etc.\nVersion 4.0 : juin 2021"
},
{
"objectID": "index.html#implémentations-mpi",
Expand Down Expand Up @@ -165,7 +165,7 @@
"href": "index.html#exécution-sur-le-cluster-perseus",
"title": "Rmpi",
"section": "Exécution sur le cluster perseus",
"text": "Exécution sur le cluster perseus\nInstallation de Rmpi et récupération du matériel\nsource /applis/environments/conda.sh\nconda create -y -n rmpi r-rmpi -c conda-forge\nconda activate rmpi\ngit clone https://github.com/GroupeCalcul/ANFRCalculRmpi\ncd ANFRCalculRmpi\nfichier hello_mpi.sh nécessaire à l’utilisation d’OAR\n##!/bin/bash\n#OAR --project pr-groupecalcul\n#OAR -n hello_mpi\n#OAR -l /nodes=1/core=4,walltime=00:01:00\n#OAR --stdout hello_mpi.out\n#OAR --stderr hello_mpi.err\n\n## Ensure conda is loaded. The following line can be into your ~/.bashrc file.\nsource /applis/environments/conda.sh\n\n## Run the program\nconda activate rmpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" $OAR_WORKING_DIRECTORY/hello_mpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R\nCe script doit être exécutable\n$ chmod +x hello_mpi.sh\n$ ls -l hello_mpi.sh\n-rwxr-xr-x 1 login-perseus l-formations 567 Sep 24 14:30 hello_mpi.sh\n$ oarsub -S ./hello_mpi.sh\n[ADMISSION RULE] Antifragmentation activated\n[ADMISSION RULE] No antifrag for small jobs\n[FAST] Adding fast resource constraints\n[PARALLEL] Small jobs (&lt; 32 cores) restricted to tagged nodes\n[ADMISSION RULE] Modify resource description with type constraints\n[ADMISSION RULE] Found job type [verysmall]\n[ADMISSION RULE] Automatically add job type [verysmall]\nOAR_JOB_ID=26118495\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 W navarop- 0:00:00 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 L navarop- 0:00:03 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 R navarop- 0:00:06 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ cat hello_mpi.out\nHello world from processor dahu146, rank 3 out of 4 processors\nHello world from processor dahu146, rank 2 out of 4 processors\nHello world from processor dahu146, rank 0 out of 4 processors\nHello world from processor dahu146, rank 1 out of 4 processors\nHello world from task 003 of 004, on host dahu146\nHello world from task 000 of 004, on host dahu146\nHello world from task 002 of 004, on host dahu146\nHello world from task 001 of 004, on host dahu146"
"text": "Exécution sur le cluster perseus\nInstallation de Rmpi et récupération du matériel\nsource /applis/environments/conda.sh\nconda create -y -n rmpi r-rmpi -c conda-forge\nconda activate rmpi\ngit clone https://github.com/GroupeCalcul/ANFRCalculRmpi\ncd ANFRCalculRmpi\nfichier hello_mpi.sh nécessaire à l’utilisation d’OAR\n##!/bin/bash\n#OAR --project pr-groupecalcul\n#OAR -n hello_mpi\n#OAR -l /nodes=1/core=4,walltime=00:01:00\n#OAR --stdout hello_mpi.out\n#OAR --stderr hello_mpi.err\n\n## Ensure conda is loaded. The following line can be into your ~/.bashrc file.\nsource /applis/environments/conda.sh\n\n## Run the program\nconda activate rmpi\nmpirun --np 4 --machinefile $OAR_NODE_FILE --mca plm_rsh_agent \"oarsh\" Rscript $OAR_WORKING_DIRECTORY/hello_mpi.R\nCe script doit être exécutable\n$ chmod +x hello_mpi.sh\n$ ls -l hello_mpi.sh\n-rwxr-xr-x 1 login-perseus l-formations 567 Sep 24 14:30 hello_mpi.sh\n$ oarsub -S ./hello_mpi.sh\n[ADMISSION RULE] Antifragmentation activated\n[ADMISSION RULE] No antifrag for small jobs\n[FAST] Adding fast resource constraints\n[PARALLEL] Small jobs (&lt; 32 cores) restricted to tagged nodes\n[ADMISSION RULE] Modify resource description with type constraints\n[ADMISSION RULE] Found job type [verysmall]\n[ADMISSION RULE] Automatically add job type [verysmall]\nOAR_JOB_ID=26118495\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 W navarop- 0:00:00 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 L navarop- 0:00:03 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 R navarop- 0:00:06 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ oarstat -u\nJob id S User Duration System message\n--------- - -------- ---------- ------------------------------------------------\n26118496 F navarop- 0:00:18 R=4,W=0:1:0,J=B,N=hello_rmpi,P=groupecalcul,T=heterogeneous|verysmall (Karma=0.004,quota_ok)\n$ cat hello_mpi.out\nHello world from task 003 of 004, on host dahu146\nHello world from task 000 of 004, on host dahu146\nHello world from task 002 of 004, on host dahu146\nHello world from task 001 of 004, on host dahu146"
},
{
"objectID": "index.html#exemple-r-mpmd-multiple-program-multiple-data",
Expand Down
8 changes: 4 additions & 4 deletions sitemap.xml
Original file line number Diff line number Diff line change
Expand Up @@ -2,18 +2,18 @@
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://groupecalcul.github.io/ANFRCalculRmpi/com_collectives.html</loc>
<lastmod>2024-09-24T21:32:51.395Z</lastmod>
<lastmod>2024-09-24T21:56:09.134Z</lastmod>
</url>
<url>
<loc>https://groupecalcul.github.io/ANFRCalculRmpi/exercice.html</loc>
<lastmod>2024-09-24T21:32:51.395Z</lastmod>
<lastmod>2024-09-24T21:56:09.135Z</lastmod>
</url>
<url>
<loc>https://groupecalcul.github.io/ANFRCalculRmpi/index.html</loc>
<lastmod>2024-09-24T21:32:51.396Z</lastmod>
<lastmod>2024-09-24T21:56:09.135Z</lastmod>
</url>
<url>
<loc>https://groupecalcul.github.io/ANFRCalculRmpi/com_point_a_point.html</loc>
<lastmod>2024-09-24T21:32:51.395Z</lastmod>
<lastmod>2024-09-24T21:56:09.135Z</lastmod>
</url>
</urlset>

0 comments on commit 7fc219f

Please sign in to comment.