Cs, concepteur, intégrateur et opérateur de systèmes critiques



Yüklə 445 b.
tarix25.07.2018
ölçüsü445 b.
#57874



CS, concepteur, intégrateur et opérateur de systèmes critiques



Chiffres clés



CS, maître d’œuvre de systèmes critiques



CS, des solutions de hautes performances pour les infrastructures critiques



Implantations



  • Division Energie & Industrie



Organigramme Division Energie & Industrie



2 centres d’excellence technologique : la simulation – le PLM



  • Offre HPC / Grid Computing



Services HPC

  • Support système et applicatif

    • Opérabilité & disponibilité des systèmes
    • Meilleure rentabilité des moyens de calculs disponibles
    • Simulation Multi-Physique et Multi-Echelle
  • Développement d’application scientifique et de solver

    • Maîtrise des aspects numériques,
    • Plateaux intégrés d’ingénieurs numériciens adressant les problématiques physiques dans un contexte industriel
  • Optimisation et parallélisation de code

    • Maîtrise des performances des codes sur diverses plates-formes
    • Procédure de validation permettant de maîtriser les écarts de résultats entre simulation parallèle et séquentielle
  • Benchmarking

    • Travail Collaboratif avec les constructeurs, aide à la décision
  • Grille de Calcul

  • Produits dédiés

    • Bibliothèques, debugger, profiler, compiler NAG, (PGI), ETNUS et PALLAS
    • Veille technologique


Compétences

  • Plus de 40 experts HPC dans les domaines suivants :

    • Optimisation & parallélisation de Code scientifiques,
    • Compétences numériques : développements de solveurs parallèles, de composants métiers
    • Visualisation haute performance
    • Opérateurs de simulations hautes performances à grande échelle sur des architectures variées
  • Domaines applicatifs :

    • Mécanique des structures, Mécanique des fluides
    • Matériaux, Thermique
    • Eléctromagnetisme, Neutronique ,
    • Couplages mult-physique
  • Outils de Profiling / Debugging :

      • Prof. Scalaire Oprofile / PAPI / grpof / pgprof
      • Prof. Parallèle Vampir / Jumpshot / OPT / pgprof
      • Prof. Vectoriel sxftrace / prof
      • debug totalview, ddt
      • debug mémoire purify, totalview, ddt, valgrind, electric fence


Quelques Références HPC

  • Support Applicatif du CCRT – CEA Bruyères-le-Châtel

    • Accompagnement, Formation, Assistance, Benchmark sur un ensemble de plate-formes variées
    • Optimisations de nombreux codes dans le cadre de la support applicatif du Centre de Calcul en Recherche et Technologie (CEA, EDF, Groupe SAFRAN (Snecma, Turbomeca, ONERA).
  • Développement d’applications parallèles / Optimisation et Parallélisation

    • CEA : Réalisation d’une bibliothèque de résolution de système linéaire : implémentation de solvers (GMRES, BiCGStab, AMG …) et préconditionneurs (Incomplete LU, AMG …)développement
    • CEA : Contribution aux développements d’applications massivement parallèles – développement
    • AIRBUS/ONERA : code ELSA - optimisation
    • IFP : Code C3D - parallélisation
  • Benchmarking de machines

    • Collaboration pour passage de benchmarks chez les principaux constructeurs (HP, Bull, NEC, SGI, IBM, Cray)
  • Culture Études – Nombreuses références CEA-EDF-CEG

    • Mécanique, Dynamiques des Fluides, Génie des Procédés, Partenariats Editeurs
  • Développement de systèmes de visualisation haute-performance

    • (murs d’image, environnememnt 3D, …) pour nos clients du secteur Énergie (CEA, EDF, IFP)


HPC Facilities

  • CS clusters

  • Collaboration with Main HPC hardware companies

  • Access to top performance supercomputers (including CEA and TER@TEC (*) supercomputers) due to our privileged relations with hardware companies and CEA

  • Ter@tec:

    • Bull Novascale : 2 Tflops
    • HP DL585 Farm : 1 Tflops
    • CCRT : HP DL585 Farm : 1.5 Tflops
    • CCRT : NEC SX6 – upgrade SX8 : 0.6 Tflops
    • TERA10 : Bull Novascale : 55 Tflops


Participation CS aux projets des pôles de compétitivité

  • Pôle System@tic (Île de France)

    • DAS Conception Assistée par Ordinateur
      • Coordination du projet IOLS (plate-forme de simulation multi-physique et multi-échelle)
    • DAS Technologies Transverses
      • Participation au projet Usine Logicielle (ingénierie logicielle basée modèles)
  • Pôles Minalogic (RA), Mer-Sécurité (PACA) et Cancer-bio-santé (MP)

    • Contributions CS (infrastructure, modélisation, simulation et calcul intensif)
  • Pôle Aerospace Vallée (Aquitaine et Midi-Pyrénées)

    • DAS Systèmes Embarqués
      • Coordination du projet de coopération OVALIE/ES_PASS (certification, assurance Qualité basée produit et outils de vérification par analyse statique de logiciels embarqués critiques)
      • Forte participation au projet TOPCASED (plate-forme open-source de développement de systèmes embarqués critiques) – Maîtrise d’œuvre du noyau de modélisation (initiative Airbus)
    • DAS Architecture et Intégration
      • Participation au projet de coopération MOSART/MACAO (infrastructure partagée et optimisation des chaînes de calcul)
    • DAS Navigation, Positionnement et Télécoms
      • Participation au projet structurant CEANS (systèmes de transport intelligents)


Offre grilles informatiques

  • Réalisation d’études : état de l’art, spécification de besoins, sécurité

  • Développement et Adaptation de middleware, réalisation de portail de grille

  • Réalisation d’environnements applicatifs

  • Support aux utilisateurs, support à l’exploitation, formation



CS et le grid computing

  • 2000 - DataGrid (CERN)

  • 2001 – eToile (INRIA)

  • 2001 - WLegi

  • 2002 - Grasp

  • 2002 - Rugbi (Biopôle Clermont Limagne, IN2P3)

  • 2003 - Open Plast (Pôle Européen de plasturgie, IN2P3)

  • 2004 - EGEE 1 (CERN)

  • 2004 - eLegi

  • 2005 - Chistera/GAIA (CNES)

  • 2005 - Visage (Airbus)

  • 2006 - EGEE 2 (CERN)



ELIS@ - Plate-forme d’expérimentation pour l’industrie et les PME

    • Permettre aux industriels et aux PME d’expérimenter les grilles
    • Fournir aux industriels et aux PME l’accès aux applications à la demande
    • Issue des projets de R&D : RUGBI, OPEN PLAST, …
    • Ensemble de services applicatifs pour les utilisateurs finaux
    • Domaines d’application :
      • Mécanique des fluides
      • Mécanique des structures
      • Modélisation moléculaire
      • Simulation pour la plasturgie
      • Analyse génomique
    • Logiciels disponibles :
      • Fluent, Ansys, Castem, Ab-Init
      • Autodock, Blast, MPI Blast, Clustalw, DSC, Fasta, …


OpenPlast







Intérêts d’Elis@

  • Portail Web

    • Interface utilisateur disponible depuis un simple PC
    • Transparence infrastructure grille
    • DMZ + FW stricts + virtualisation
  • Moteur de workflow interopérable et générique

    • Globus 2.4, 4.0
    • gLite (Egee), Unicore (Deisa) (en cours)
  • IHM de gestion des données et des études

    • vue virtualisée des espaces de stockage de la grille
    • Association d’une arborescence de données à des calculs
    • Monitoring, workflow et gestion des coûts des études
  • Services applicatifs

  • Abonnement Web mensuel

  • Grille ouverte (intra/extra grid) sur réseaux privés/académiques



Services d’Elis@

  • Système d’Information de la grille

    • utilisateurs, groupes, ressources logiques et matérielles, droits, …
  • Services grille

    • Localisation et configuration des espaces de stockage : publics à tous les utilisateurs, restreints aux membres d’un groupe ou privés
    • Allocation et gestion des calculs via le moteur de workflow
  • Services applicatifs :

    • Déploiement des applications et des bases de données métier de manière permanente ou à la volée par le calcul
    • Soumission et monitoring des calculs via le portail
    • Gestion des licences (FlexLM), Mutualisation de licences -> jetons on demand
  • Services d’exploitation

    • Accounting de l’utilisation des ressources de la grille
    • Monitoring des sites de la grille, des logiciels, des calculs
    • Administration Web des sites, des logiciels, des modèles économiques, des users/groupes




Perspectives elis@

  • Validation Pré-industrielle acquise et disséminée (Rugbi, OpenPlast) auprès des PMEs

  • Perspectives

    • Interopérabilité gLite – EGEE (en cours), IDRIS et DEISA (en discussion)
    • Interopérabilité Salomé III (System@tics - Ehpoc)
    • Interopérabilité Microsoft ( Windows CCS 2006) en cours
    • Partenariats éditeurs en discussion
      • Cadflow, ESI-Software, Simpoe
      • Fluent, Ansys, MSC, Altair, Castem, Abaqus
    • Expérimentation industrielle 1 an : partenariats industriels plasturgie + éditeurs
      • région Rhône Alpes (PCRD3) : PO, Smoby, A Raymond, CS SI, PEP, ESI, Abaqus, Ansys, Fluent, Simpoe
    • Pôles de compétitivité : Plastipolis, system@tic, Minalogic, Biopôle, Aerospace Valley, ...
      • Projets OSOTO, IOLS, EHPOC, MACAO
    • Ouverture à la MicroElectronique et à la Fusion
      • ST Micro, CEA Leti, CEA Cadarache
    • Partenariats IT : Dataswift, HP, Bull, SGI,.
  • De la grille de calcul au bureau virtuel

    • interactivité, chaîne de décision, plateau virtuel, capitalisation du savoir (PLM, ontologies)




Perspectives elis@

  • Validation Pré-industrielle acquise et disséminée (Rugbi, OpenPlast) auprès des PMEs

  • Perspectives

    • Interopérabilité gLite – EGEE (en cours), IDRIS et DEISA (en discussion)
    • Interopérabilité Salomé III (System@tics - Ehpoc)
    • Interopérabilité Microsoft ( Windows CCS 2006) en cours
    • Partenariats éditeurs en discussion
      • Cadflow, ESI-Software, Simpoe
      • Fluent, Ansys, MSC, Altair, Castem, Abaqus
    • Expérimentation industrielle 1 an : partenariats industriels plasturgie + éditeurs
      • région Rhône Alpes (PCRD3) : PO, Smoby, A Raymond, CS SI, PEP, ESI, Abaqus, Ansys, Fluent, Simpoe
    • Pôles de compétitivité : Plastipolis, system@tic, Minalogic, Biopôle, Aerospace Valley, ...
      • Projets OSOTO, IOLS, EHPOC, MACAO
    • Ouverture à la MicroElectronique et à la Fusion
      • ST Micro, CEA Leti, CEA Cadarache
    • Partenariats IT : Dataswift, HP, Bull, SGI,.
  • De la grille de calcul au bureau virtuel

    • interactivité, chaîne de décision, plateau virtuel, capitalisation du savoir (PLM, ontologies)


Qualité de Service

  • Sécurité et Confidentialité

    • Certification PKI X509 : end-user, matériel client
    • Délégation de certificat, gestion de sessions à durée de vie limitée
    • Virtualisation des ressources par accès web
    • Cloisonnement des données et contrôle des flux de données
    • Allocation/désallocation de ressources
    • Rôle des espaces de travail (temporaire/travail/dépôt/transit)
    • Pas d’accès aux ressources (Web/Grid Services) au delà du portail
    • Contrôle réseau : Règles dures Firewall, DMZ, Intrusion, …
  • Qualité de service

    • Comptes clients / sociétés
    • réplication/duplication des données
    • Priorité des jobs
    • Monitoring, Accounting, Statistiques, …


Conclusions

  • CS SI : 200 personnes en Calcul Scientifique et HPC

    • Paris, Grenoble, Toulouse
  • Culture d’Expertise Métier

    • Modélisation, Développement, Optimisation, Parallélisation, Gridification
  • Culture d’Accompagnement

    • ST Micro, PEP, Ecoles Centrale
    • Culture applicative ; Etudes, benchmarks
    • Cuture développement
    • Culture développement/maintenance de système intégral
      • architecture logicielle et matérielle, Web, BD, IHMs,….
    • Culture exploitation HPC
    • Culture R&D
  • HPC Grenoble : CEA, CEA Leti, ST Micro, Biomérieux, IN2P3, Alcan, INSA/Centrale Lyon, Oyonnax

  • Relais de HPC Paris





Yüklə 445 b.

Dostları ilə paylaş:




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin