Translations:MPI/1/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "== Introduction à la programmation parallèle == {{quote|To pull a bigger wagon it is easier to add more oxen than to find (or build) a bigger ox. (traduction libre, ''Pour...")
(No difference)

Revision as of 16:21, 16 January 2017

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (MPI)
== A Primer on Parallel Programming ==
{{quote|To pull a bigger wagon it is easier to add more oxen than to find (or build) a bigger ox.|Gropp, Lusk & Skjellum|Using MPI}}
To build a house as quickly as possible, we do not look for the fastest person to do all the work but instead we hire as many people as required and spread the work among them so that various construction tasks are performed at the same time --- "in parallel". Computational problems are conceptually similar. Since there is a limit to how fast a single machine can perform, we attempt to divide up the computational problem at hand and assign work to be completed in parallel to multiple computers. This approach is important not only in speeding up computations but also in tackling problems requiring large amounts of memory.

Introduction à la programmation parallèle[edit]

To pull a bigger wagon it is easier to add more oxen than to find (or build) a bigger ox. (traduction libre, Pour tirer une plus grosse charette, il est plus facile d'ajouter des bœufs que de trouver un plus gros bœuf)

—Gropp, Lusk & Skjellum, Using MPI

Pour construire une maison le plus rapidement possible, on n'engage pas la personne qui peut faire tout le travail plus rapidement que les autres. On distribue plutôt le travail parmi autant de personnes qu'il faut pour que les tâches se fassent en même temps, d'une manière "parallèle". Cette solution est valide aussi pour les problèmes de numériques. Comme il y a une limite à vitesse d'exécution d'un processeur, la fragmentation du problème permet d'assigner des tâches à exécuter en parallèle par plusieurs processeurs. Cette approche sert autant la vitesse du calcul que les exigences élevées en mémoire.