Programme – contenu de l’UE
1/Architectures parallèles
1.1/Architectures parallèles : pourquoi faire ? 1.2/Organisation du contrôle des processeurs 1.3/Organisation de la mémoire 1.4/Organisation du réseau d’interconnexion 1.5/Architectures matérielles (le passé récent) 1.6/Architectures matérielles (le présent) 1.7/Organisation des programmes pour les machines MIMD
2/ Accélération, scalabilité
2.1/Notations asymptotiques (rappels) 2.2/Mesures de performance 2.2.1/Accélération, efficacité, coût et scalabilité d’un algorithme parallèle 2.2.2/Granularité des données
3/Algorithmes parallèles de tri
3.1/Tri à bulles 3.2/Tri rapide 3.3/Arbre de recouvrement minimum 3.4/Plus court chemin issu d’un sommet
3.5/Matrice des plus courtes distances entre sommets 3.6/Fermeture transitive 3.7/Composantes connexes
4/Programmation parallèle
4.1/Présentation générale de la programmation parallèle sous ARCH 4.2/ Coroutines Threads S_Threads 4.3/Communication binaire synchrone 4.4/Communication binaire Asynchrone 4.5/Lecture-écriture distante Données globales Pointeurs distants Tableaux distribués 4.6/Communications collectives 4.7/Univers de communication 4.8/I/O parallèles
5/Algorithmes d’exclusion mutuelle et terminaison distribuée
5.1/Exclusion mutuelle sur un réseau 5.1.1/Exemple introductif 5.1.2/Formulation du problème 5.1.3/Exclusion mutuelle par construction d’un ordre total sur l’ensemble des événements 5.1.4/Exclusion mutuelle par circulation d’un jeton 5.1.5/Exclusion mutuelle par circulation d’un jeton avec diffusion de requêtes 5.1.6/Exclusion mutuelle par construction d’une file d’attente de processeurs 5.2/Détection de terminaison globale 5.2.1/Position du problème 5.2.2/Détection par comptage
6/Travaux personnels
Développement de codes parallèles pour divers algorithmes présentés dans la partie 3. Ces travaux se feront sous ARCH sur le cluster des stations de travail du Nautibus.
Compétences acquises
Méthodologiques : Théorie (évaluation critique de la complexité de calcul des algorithmes parallèles) et algorithmes pour le calcul parallèle et/ou distribuées.
Techniques : Matériels, algorithmes et Outils logiciels de la mise en œuvre des algorithmes parallèles. Pratique effective de la programmation parallèle sur les clusters
Secteur d’activité concerné et compétences métier acquises :
Technologie transversale qui traverse tous domaines d’activité. Voici la liste des segments de marché que DELL affiche dans les pages Web présentant ses produits dédiés au calcul intensif : «There are numerous computing intensive problems that require high performance computing power. Since High Performance Computing Cluster (HPCC) is one of the most cost effective architecture to solve these problems, it is highly prevalent in the academic and research environments as well as in industrial and government segments. Some of the generic usages for the HPCC are in: Bio-Medical and Genomics, Computer Aided Engineering, Design, and Simulation, Geopetroleum: Seismic data processing, Reservoir analysis, simulation, and visualization, Computational Finance and Modeling, Material Science Research and Development, Parallel rendering»
|