12
Biorap N°69 – Octobre 2011 SOMMAIRE Forums ORAP Le CCRT fait peau neuve Nouvelles de GENCI Le centre de compétences HPC@LR Exascale Computing Research Europe Etats-Unis : arrêt du projet Blue Waters ? Une jeune pousse : SysFera 37 ème TOP500 Lire, participer Nouvelles brèves Agenda A nos lecteurs Le bulletin Bi-ORAP est diffusé par voie postale à tous ceux qui en font la demande. De nom- breux lecteurs considèrent cependant que la disponibilité de la version électronique, sur le site www.irisa.fr/orap, est une solution qui leur convient. Soucieux de réduire nos frais d’impression et d’expédition, et d’économiser les ressources forestières de la planète, nous proposons aux lecteurs qui ne souhaitent plus recevoir la ver- sion imprimée de ce bulletin de bien vouloir en informer Chantal Le Tonquèze : chantal.le_[email protected] Forums ORAP Le 28 ème Forum ORAP aura lieu le 14 octobre 2011 dans l’amphithéâtre du siège du CNRS à Paris. Les deux thèmes centraux de ce Forum seront : Vers le PetaFlops soutenu et au-delà Applications du HPC : simulation et « incer- titudes » Programme détaillé, informations pratiques (dont conditions d’accès au siège du CNRS) et formulaire d'inscription (inscription gratuite mais obligatoire pour des raisons d’organisation de la journée) seront disponibles prochainement sur le site : http://www.irisa.fr/orap Contact : chantal.le_[email protected] Le CCRT fait peau neuve Le « Centre de Calcul Recherche et Technolo- gie » - CCRT - associé au centre de calcul Défense TERA et au Très Grand Centre de calcul du CEA - TGCC - constitue le complexe de calcul du CEA, d’envergure internationale (http://www-hpc.cea.fr). La mission du CCRT est double. En tant que Tier1 français, il contribue à la mise en œuvre des moyens de calculs nationaux pour la re- cherche, en collaboration avec GENCI. En tant que centre de calcul ouvert à des partenariats industriels, il favorise les échanges et les colla- borations entre le monde de la recherche aca- démique et celui de l’industrie dans le domaine de la simulation numérique haute performance. Associer des industriels au sein du CCRT tra- duit une volonté du CEA de jouer un rôle de catalyseur pour le passage à l’échelle des ap- plications de simulation numérique. Sur le CCRT, chaque partenaire peut accéder à une grande puissance de calcul, bien supérieure à celle de ses besoins propres, et ainsi dévelop- per et perfectionner ses applications, en s’appuyant éventuellement sur les échanges avec les autres partenaires. Une veille technologique, mutualisée au niveau du complexe de calcul, est assurée par les équipes du Département des Sciences de la NUMERO 69

NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011

SOMMAIRE Forums ORAP Le CCRT fait peau neuve Nouvelles de GENCI Le centre de compétences HPC@LR Exascale Computing Research Europe Etats-Unis : arrêt du projet Blue Waters ? Une jeune pousse : SysFera 37ème TOP500 Lire, participer Nouvelles brèves Agenda

A nos lecteurs Le bulletin Bi-ORAP est diffusé par voie postale à tous ceux qui en font la demande. De nom-breux lecteurs considèrent cependant que la disponibilité de la version électronique, sur le site www.irisa.fr/orap, est une solution qui leur convient. Soucieux de réduire nos frais d’impression et d’expédition, et d’économiser les ressources forestières de la planète, nous proposons aux lecteurs qui ne souhaitent plus recevoir la ver-sion imprimée de ce bulletin de bien vouloir en informer Chantal Le Tonquèze : [email protected]

Forums ORAP

Le 28ème Forum ORAP aura lieu le 14 octobre 2011 dans l’amphithéâtre du siège du CNRS à Paris. Les deux thèmes centraux de ce Forum seront : • Vers le PetaFlops soutenu et au-delà • Applications du HPC : simulation et « incer-

titudes »

Programme détaillé, informations pratiques (dont conditions d’accès au siège du CNRS) et formulaire d'inscription (inscription gratuite mais obligatoire pour des raisons d’organisation de la journée) seront disponibles prochainement sur le site : http://www.irisa.fr/orap

Contact : [email protected]

Le CCRT fait peau neuve

Le « Centre de Calcul Recherche et Technolo-gie » - CCRT - associé au centre de calcul Défense TERA et au Très Grand Centre de calcul du CEA - TGCC - constitue le complexe de calcul du CEA, d’envergure internationale (http://www-hpc.cea.fr). La mission du CCRT est double. En tant que Tier1 français, il contribue à la mise en œuvre des moyens de calculs nationaux pour la re-cherche, en collaboration avec GENCI. En tant que centre de calcul ouvert à des partenariats industriels, il favorise les échanges et les colla-borations entre le monde de la recherche aca-démique et celui de l’industrie dans le domaine de la simulation numérique haute performance. Associer des industriels au sein du CCRT tra-duit une volonté du CEA de jouer un rôle de catalyseur pour le passage à l’échelle des ap-plications de simulation numérique. Sur le CCRT, chaque partenaire peut accéder à une grande puissance de calcul, bien supérieure à celle de ses besoins propres, et ainsi dévelop-per et perfectionner ses applications, en s’appuyant éventuellement sur les échanges avec les autres partenaires. Une veille technologique, mutualisée au niveau du complexe de calcul, est assurée par les équipes du Département des Sciences de la

NUMERO 69

Page 2: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 2

Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux partenaires un environne-ment riche, un véritable pôle d’expertise dans le calcul intensif. Le modèle unique du centre s’appuie sur des contrats de partenariats pluriannuels, gage de la construction d’une collaboration solide et pérenne.

Aujourd’hui, douze institutions ou sociétés se partagent avec les utilisateurs de la recherche française issus des appels à projets Dari, les presque 400 téraflops1 (Tflops) de puissance : quatre directions du CEA – sciences de la ma-tière, énergie nucléaire, applications militaires et sciences du vivant – Areva, Cerfacs, EADS/Astrium, EDF, Ineris, Snecma, Techspace Aero, Turbomeca. Ces douze partenaires ont reconduit en avril 2011 leur partenariat avec le CCRT, pour une durée d’environ 4 ans. Afin de répondre aux besoins des partenaires pour cette nouvelle période, le CCRT renou-velle ses moyens de calculs. Pour cela, un ap-pel d’offre est lancé et devrait aboutir à l’installation d’un nouveau calculateur au 2eme trimestre 2012. Le moment est donc propice pour accueillir de nouveaux partenaires … Ce nouveau calculateur sera installé dans le TGCC.

Afin de maintenir une dynamique d’échanges entre ses partenaires, le CCRT organise chaque année une journée consacrée à des exposés utilisateurs. La prochaine aura lieu dans l’amphithéâtre du TGCC, le jeudi 20 Oc-tobre sur le thème « Simulation et flots de données ». (Renseignements sur http://www-ccrt.cea.fr).

Contact : [email protected]

Nouvelles de GENCI

GENCI a annoncé sur son site la validation des résultats de la seconde session de la cam-pagne 2011 d’attribution des ressources sur moyens nationaux. Au total, 127 dossiers ont été déposés : 46 nouveaux projets et 81 de-mandes complémentaires concernant des pro-jets existants. La majorité des demandes utili-sateurs a été acceptée, avec ou sans réduction.

http://www.genci.fr/spip.php?article128

Prochaine session : la 1ère session de la cam-pagne 2012 est ouverte du 16 septembre au 17 octobre 2011, pour une attribution des heures au 1er janvier 2012.

A noter : le rapport d’activité 2010 de GENCI a été publié :

http://www.genci.fr/spip.php?article127

Le centre de compétences HPC@LR

Présentation du centre Inauguré en juin 2009, le centre de compé-tences en calcul de haute performance HPC@LR est construit sur la base d'une colla-boration public/privé, grâce aux financements de la Région Languedoc-Roussillon, de l'Eu-rope (fonds FEDER) et de l'Université Montpel-lier 2. Il propose un modèle original s'appuyant à la fois sur des moyens matériels et humains. Le centre vise à renforcer l'excellence scienti-fique et les compétences des acteurs acadé-miques (chercheurs, enseignants) et industriels en Languedoc-Roussillon dans le domaine du calcul intensif, tous domaines confondus. Ainsi en plus de la puissance de calcul brute offerte, le centre HPC@LR permet, grâce à une architecture hybride fournie par IBM (15 teraflop - 84 serveurs bi-processeurs Intel - 6 serveurs CPU/GPU - une double lame Power 7 - 4 serveurs avec des processeurs Cell - Baie de strockage de plus d'1 To utiles - Réseau Infini-band QDR), de comparer différentes architec-tures « multi-cœurs » actuelles. Les services d’accompagnement (audit, optimi-sation, parallélisation,…) permettent de bénéfi-

Page 3: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 3

cier de solutions de calcul haute performance sans avoir à investir dans l’acquisition de com-pétences de haute technicité. Des sessions d’information et de formation sont organisées pour accompagner la montée en compétence des acteurs publics et privés. Les services offerts par le centre de compé-tences HPC@LR viennent compléter l’offre des centres de niveau supérieur en offrant un pro-cessus léger et réactif tout en étant ouvert aux entreprises et au monde académique.

Le centre de compétences HPC@LR est organisé autour de 3 comités : le comité de pilotage, le comité d’attribution et le pool d’experts : • Le comité de pilotage définit les orientations

stratégiques du centre. • Le comité d’attribution répartit les de-

mandes de ressources auprès du pool d’experts et prend les décisions d’attribution des ressources matérielles et humaines aux utilisateurs. Il fait le lien avec les admi-nistrateurs du cluster de calcul et avec les entreprises partenaires pour l’accompagnement technique et/ou scienti-fique. Il se réunit au moins deux fois par an et remet au comité de pilotage un rapport semestriel présentant le bilan des de-mandes et des ressources accordées.

• Le pool d’experts est composé de scienti-fiques et d’industriels issus des principaux domaines ciblés par le centre. Il veille à la qualité des projets sélectionnés et à leur répartition sur les axes stratégiques et do-maines du centre définis par le comité de pilotage. Toute personne peut demander de faire partie du pool d’experts.

Le centre s’appuie sur des partenaires acadé-miques et industriels : ASA (Advanced Solu-tions Accelerator), le CINES (Centre informa-tique national de l’enseignement supérieur), HPC Project, IBM, Serviware, l’Université Montpellier 2.

Premier anniversaire du centre : 30 juin 2011 Le centre de compétences HPC@LR a fêté son premier anniversaire au PSSC, IBM Montpellier, le 30 juin 2011. Cet événement a réuni plus de 70 participants. Des acteurs majeurs du HPC, y compris internationaux, se sont exprimés et les principaux acteurs du secteur se sont réunis autour d'une table ronde qui a permis de mieux appréhender les très riches perspectives asso-ciées au calcul haute performance en général, et au centre en particulier. La présence de personnalités telles que Marc Snir (Université de l’Illinois, Directeur adjoint

du National Center for Supercomputing Applica-tions) et Ambuj Goyal (IBM General Manager, Responsable des Développements et de la Production de la division Serveurs et Technolo-gies) venues célébrer le premier anniversaire du centre est un signal fort de sa visibilité sur le plan international. Cet anniversaire a été l’occasion de faire un premier bilan des actions conduites. Par le centre.

Les demandes de ressources Un an après son inauguration, environ 7 mois après le lancement des procédures de de-mandes de ressources, le centre HPC@LR compte déjà plus de trente demandes, issues à la fois d’acteurs publics et privés, sur des thé-matiques aussi diverses que le traitement d’images, la biochimie, la santé, l’analyse de données, la modélisation des verres, les éco-systèmes marins, …

Appel à projets en direction des entreprises Un appel à projet piloté par Transferts LR à destination des entreprises a permis de recueil-lir des projets d’entreprises régionales, parmi lesquels quatre ont été identifiés pour un ac-compagnement spécialisé. Les lauréates sont les sociétés BRLI, SKULDTECH, SYSDIAG et TRF Retail.

Page 4: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 4

Formations Le centre a rempli des missions pédagogiques en offrant à des étudiants de Master et de Doc-torat l’accès aux machines HPC ; il a également été utilisé dans le cadre d’une école d’été du CNRS ayant eu lieu à la Grande Motte. Des sessions d'information et de formation ont été organisées tout au long de cette première année, à destination des non spécialistes et spécialistes. En particulier, deux sessions de formation à la programmation parallèle ont été organisées par le centre dans les locaux du CINES ; elles ont attiré des chercheurs, étu-diants, doctorants et ingénieurs du public et du privé issus de la Région Languedoc-Roussillon ou de plus loin (Lyon, Marseille, Paris, ...). Le centre peut proposer des formations à la carte en fonction des besoins (contact : [email protected])

Club des utilisateurs Le 18 mars, le centre a lancé la première ren-contre partenaires/utilisateurs du centre afin de discuter des expériences, des projets des utili-sateurs, des services offerts par le centre.

Rayonnement national et international Présent dans différents projets collaboratifs, le centre HPC@LR est notamment partenaire de l’Equipex GEOSUD et participe au montage de plusieurs projets en lien avec les entreprises et les laboratoires de recherche régionaux, sur la thématique environnementale. Il est notamment partenaire du projet FUI "Lito-CMS : Prévision et aide à la gestion temps réel des crises inon-dation et submersion en zone littorale”, mené en partenariat avec des entreprises (BRL, IBM, Geomatys), et des partenaires académiques tels que l'OSU/OREME.

http://www.hpc-lr.univ-montp2.fr

Anne Laurent Directrice du centre HPC@LR [email protected]

Exascale Computing Research

Le laboratoire Exascale Computing Research est dédié aux applications logi-cielles pour Exascale, et ouvert aux partena-riats extérieurs.

Le laboratoire Exascale Computing Research (ECR) est maintenant complètement opération-nel avec une trentaine de collaborateurs qui travaillent sur une sélection de challenges logi-ciels représentés par l’exascale. Fruit d’une

collaboration entre le CEA, GENCI, Intel et l’UVSQ, ce laboratoire travaille sur deux axes de recherche : • « Co design » qui consiste à travailler sur

les applications existantes, venant de l’industrie ou de partenaires académiques, en vue de leur passage vers l’Exascale. Fondé sur une approche collaborative forte entre le développeur et le laboratoire, l’objectif est de mettre leurs expertises en commun pour optimiser la performance et le passage à l’échelle exascale de ces ap-plications. Des coopérations sont déjà ac-tives dans le domaine de l’énergie, des sciences de la vie, de la santé, à la fois sur des codes propriétaires ou Open Source, et s’étendra rapidement à de nouveaux sec-teurs.

• « Tools » qui vise à développer et proposer un environnement d’outils et méthodes qui permettent un profilage du couple (application, machine) en vue de l’Exascale, basé sur une méthodologie propre, validée à l’aide des applications les plus avancées scientifiquement et les plus exigeantes techniquement.

La mission du laboratoire est donc de conduire cette recherche dans les deux axes mentionnés ci-dessus, en coopération étroite avec des chercheurs Européens, sur des applications qui sont critiques pour les industriels et les universi-taires européens, avec un focus particulier sur la performance globale de l’application. Cette performance peut prendre de nombreux as-pects en fonction du défi à relever : accroisse-ment de la taille du problème traité, de sa pré-cision ou de sa résolution, réduction du temps de traitement global ou minimisation de la con-sommation énergétique. Le laboratoire a pour vocation d’être un contri-buteur significatif au niveau Européen et un acteur très actif de la communauté Exascale, ouvert sur la formation, sur les projets de re-cherche nationaux et européens, et souhaite fournir à la communauté des développeurs d’application l’interface (une combinaison d’outils, de savoir faire et d’expertise) dont elle aura besoin pour passer à l’exascale. Cet objectif passe par la constitution d’un réseau de scientifiques de très haut niveau pour comprendre ensemble comment utiliser au mieux l’exascale. Le laboratoire fait partie de différents réseaux de recherche orientés vers l’exascale, en particulier celui constitué par les Intel EMEA HPC Exascale labs, installés en France, en Belgique et en Allemagne, qui travaillent sur des aspects complémentaires de la problématique exascale.

Page 5: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 5

Contacts : Prof. William Jalby, UVSQ, chief technologist Bettina Krammer, UVSQ, Tools Marie-Christine Sawley, Intel Corp, Co design

http://www.exascale-computing.eu/

Europe 7ème PCRDT : Call 8 ICT La Commission a publié au Journal officiel N° C213/24 du 20 juillet 2011, le huitième appel à propositions pour les Technologies de l'Informa-tion et des Communications : FP7-ICT-2011-8. Doté d’un budget de 787 million €, les proposi-tions pour cet appel sont attendues jusqu'au 17 janvier 2012. Parmi les « objectifs » concernés par cet ap-pel : 1.2 Cloud computing ; advanced software engineering. Pour comprendre les enjeux de cet appel à projets, lire le « programme de travail ICT » mis à jour en juillet 2011 : ftp://ftp.cordis.europa.eu/pub/fp7/docs/wp/cooperation/ict/c-wp-201201_en.pdf

7ème PCRDT : appel à propositions « Infras-tructures de recherche » La Commission a publié le 20 juillet un nouvel appel à propositions concernant les infrastruc-tures de recherche (programme « Capacités »). Sur un budget de plus de 90 M€, 36 M€ iront aux « e-Infrastructures » dans les domaines suivants : • INFRA-2012-2.3.1. Third implementation

phase of the European High Performance Computing (HPC) service PRACE. Budget indicatif : 20 M€

• INFRA-2012-3.2. International cooperation with the USA on common e-Infrastructure for scientific data. Budget indicatif : 2 M€

• INFRA-2012-3.3. Coordination actions, conferences and studies supporting policy development, including international coope-ration, for e-Infrastructures. Budget indica-tif: 14 M€

Les documents concernant les e-infrastructures sont disponibles sur le site : http://cordis.europa.eu/fp7/ict/e-infrastructure/home_en.html

Une plate-forme technologique sur le HPC Rappelons que les ETP (European Technology Platforms) sont composées d’entités qui se regroupent pour définir un agenda de recherche

autour d’un certain nombre de défis straté-giques avec un intérêt sociétal élevé, et où la réalisation de la croissance de l’Europe dépend de recherches de grande ampleur et de progrès technologiques à moyen et long terme (20 à 25 ans). Ces plates-formes jouent un rôle impor-tant dans le FP7. Un consortium vient de lancer PROSPECT, une ETP sur le calcul de haute performance. Elle définira les priorités de recherche dans le cadre d’un SRA (Strategic Research Agenda) qui sera soumis à la Commission et qui devra s’assurer que les investissements publics dans ce do-maine profitent le plus largement possible aux entreprises et à la société européenne. Les membres de ce consortium sont : Barcelo-na Supercomputing Center (BSC), Cray, Data Direct Networks, Dell, Deutscher Wetterdienst, EuroTech, Forschungszentrum Jülich, Frie-drich-Schiller-Universität Jena, HLRS Stuttgart, HP, IBM, Karlsruhe Institute of Technology (KIT), Leibniz-Rechenzentrum (LRZ), Megware, Micron Semiconductors, Netherlands National Computing Foundation (NCF), Numascale, ParTec Cluster Competence Center, The Uni-versity of Edinburgh, T-Platforms, T-Systems, Universität Heidelberg.

L’e-IRG publie son « White Paper 2011 » Le « e-Infrastructure Reflection Group » a pu-blié son septième « White Paper » qui concerne quelques-uns des défis les plus importants auxquels ont à faire face les infrastructures de recherche. Parmi ces défis : • Comment gérer la croissance de la de-

mande énergétique des centres informa-tiques ?

• Quels sont les logiciels nécessaires pour utiliser efficacement la puissance des sys-tèmes de très haute performance ?

• Quels sont les modèles de gouvernance adéquats pour les grandes infrastructures de recherche ?

http://www.e-irg.eu/publications/white-papers.html

Etats-Unis : arrêt du projet Blue Wa-ters ?

L’université de l’Illinois et le NCSA (National Center for Supercomputing Applications) avaient retenu IBM, en 2007, pour développer un superordinateur d’une performance crête de 10 PetaFlops, et d’une performance soutenue de 1 PetaFlops sur un panel d’applications scientifiques. Le nom de ce projet : « Blue Wa-

Page 6: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 6

ters »1. Avec un budget d’environ 300 millions de dollars, dont 200 apportés par la NSF, ce système devait être installé en 2011.

Ce projet, comme très souvent, avait pris un an de retard et l’installation devait être terminée en 2012. Le 6 août 2011, IBM a mis fin au contrat qui le liait au NCSA 2 . La presse spécialisée, dont HPCwire, considère que la complexité de la machine et les coûts de développement étaient devenus trop lourds pour IBM, dans une pé-riode économiquement délicate. IBM prévoyait de mettre en ligne plus de 200.000 cœurs de processeurs Power7 (il s’agit de serveurs Po-wer 755, dont les premiers ont été livrés au NCSA). Le NCSA va restituer à IBM les maté-riels livrés et IBM va rendre les premières sommes reçues.

Ce retrait d’IBM ne signifie sans doute pas la fin du projet Blue Waters car le NCSA annonce qu’il réfléchit avec ses partenaires (financiers, en particulier) à une solution permettant de mettre en place un système d’une performance équivalente avant la fin 2012, sans augmenta-tion de l’enveloppe financière. Un autre cons-tructeur (Cray ou SGI par exemple) pourrait en profiter !

IBM reste présent dans le « pétaflopique » avec, en particulier, deux projets basés sur la techno-logie Blue Gene/Q : « Sequoia », destiné au LLNL (20 PetaFlops) et « Mira » destiné au Argonne National Lab (10 PetaFlops).

A suivre … ces lignes ayant été écrites au dé-but du mois de septembre.

Jean-Loïc Delhaye

Une jeune pousse : SysFera

La simulation numérique et le calcul haute per-formance sur de grands ensembles de données sont de plus en plus courants. Effectués à des fins de recherche, de développement ou de production par des instituts de recherche ou des grands groupes industriels, leur importance est cruciale. Malheureusement, l'utilisation de ressources HPC (clusters, supercalculateurs, 1 Voir Bi-ORAP n° 53 2 Communiqué commun : http://www.ncsa.illinois.edu/BlueWaters/system.html

clouds publics ou privés) pour exécuter des applications intensives reste complexe, en par-ticulier lorsque les ressources sont distribuées ou hétérogènes. Les utilisateurs, pour la plupart non informati-ciens, passent beaucoup de temps à apprivoi-ser et utiliser l'infrastructure matérielle et logi-cielle au lieu de se consacrer à la chose qu'ils maîtrisent le mieux : leur métier. Les adminis-trateurs, eux, doivent composer avec des outils spécifiques à chaque ressource (différents fournisseurs de matériel/logiciel, différents or-donnanceurs batch) et avec des infrastructures physiques parfois complexes (lieux géogra-phiques éloignés, réseaux sécurisés). Enfin, les DSI n'ont pas accès facilement aux métriques d'utilisation du matériel (afin de mesurer ou de refacturer l'usage) et sont dépendants d'un fournisseur de matériel/logiciel.

SysFera développe et distribue SysFera-DS, une solution logicielle complète, open-source, qui permet la mutualisation et le management d'infrastructures HPC, hétérogènes et distri-buées, dédiées aux applications intensives. SysFera-DS offre une manière simple, efficace, évolutive et transparente de répondre aux be-soins ci-dessus, grâce aux fonctionnalités sui-vantes : • Pilotage des calculs

• une interface de soumission de jobs, de transferts de fichiers, ainsi que d'admi-nistration logicielle et matérielle ;

• une interface de monitoring pour ex-traire des informations, les stocker, les mettre à disposition de l'ordonnanceur, et générer des rapports ;

• la reproductibilité d'une session utilisa-teur (à fins d'analyse, de débogage, etc.).

• Gestion de l’infrastructure • gestion des ressources : disponibilité

matérielle et logicielle, ajout ou sup-pression à chaud des ressources, ges-tion des droits, Single Sign On.

• communication : topologie des res-sources, gestion des pare-feux et tun-nels, abstraction du système de fi-chiers, optimisation des transferts.

• Gestion des tâches de calcul • méta-ordonnancement : allocation de

jobs selon des critères définis par le système et/ou l'utilisateur, gestion et optimisation des workflows ;

• gestion des jobs : interface générique (indépendante des ordonnanceurs ou plateformes de cloud sous-jacents), gestion des arrêts/redémarrages et points de reprise ;

• gestion des données : persistance, ré-

Page 7: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 7

plication, choix de la meilleure source, algorithme de remplacement de données.

Parmi les principales innovations technolo-giques de SysFera-DS, on peut citer : • une architecture logicielle hiérarchique et

distribuée, qui permet une prise en compte fluide, dynamique et performante des in-frastructures complexes et une gestion de grandes quantités de requêtes simulta-nées ;

• une gestion des big data via DAGDA, un module puissant de gestion de données qui intègre la réplication implicite et explicite de données, ainsi que des mécanismes intelli-gents pour la gestion des espaces de stockage et le choix des sources de trans-fert ;

• un moteur de dataflow fonctionnel perfor-mant (multi-workflow, algorithmes d'ordon-nancement adaptables, boucles, structures conditionnelles, etc.), totalement open-source.

SysFera-DS est notamment utilisé en produc-tion depuis 2007 sur la grille du Décrypthon, le pendant technologique du Téléthon. Initié en 2001 et relancé en 2005, par l’AFM et IBM en association avec le CNRS, le Décrypthon est une plateforme technologique fournissant la puissance de calcul nécessaire au traitement des données complexes de la biologie d’aujourd’hui. Il fournit aux biologistes un accès simple et rapide à des applications de simula-tion à travers un portail web masquant la com-plexité d'une infrastructure répartie sur six uni-versités françaises (Bordeaux 1, Lille 1, Paris 6 Jussieu, ENS Lyon, Crihan Rouen, Orsay).

Il suffit alors au chercheur de s'enregistrer sur ce portail web où les applications sont dispo-nibles et d'en sélectionner une en fournissant les paramètres d'entrée. SysFera-DS trouve le meilleur serveur en fonction de l'application et des ressources disponibles, fournit un état d'avancement, et rend disponibles les résultats finaux. L'utilisateur n'a plus à se préoccuper de l'infrastructure et de son utilisation. La robus-tesse de SysFera-DS a notamment permis d'assurer aux utilisateurs la continuité des ser-vices du portail et de l'infrastructure lors d'une panne matérielle majeure sur l'un des sites.

SysFera est une société fondée à Lyon en mars 2010 par David Loureiro (PDG), Eddy Caron (maître de conférences HDR) et Frédéric Des-prez (directeur de recherche INRIA et directeur scientifique de Grid'5000). Le cœur technolo-gique de SysFera-DS est basé sur le logiciel open-source DIET, développé conjointement par SysFera et l'équipe INRIA GRAAL.

Augustin Ragon

[email protected] Sites utiles : • www.sysfera.com • www.decrypthon.fr • www.grid5000.fr • graal.ens-lyon.fr/DIET

37ème TOP500

La 37ème édition de la liste3 des 500 systèmes les plus performants installés dans le monde a été publiée en juin dans le cadre de la confé-rence ISC’11.

3 http://www.top500.org

Page 8: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 8

Faits marquants Le premier fait marquant est le retour du Japon à la première place du TOP500, après que le Earth Simulator ait été détrôné en 2004. Le « K computer » a une performance Linpack de 8,16 PetaFlops, soit plus du triple du système en deuxième position, le Tianhe-1A. Le K compu-ter a été développé par Fujitsu, il comprend 548.352 cœurs (processeurs SPARC64 VIIIfx à 6 cœurs) et aucun accélérateur (GPU ou autre). Il est installé au AICS (Advanced Institute for Computational Science) du RIKEN à Kobe et est utilisable par les universités comme par des entreprises privées. Notons que ce système sera étendu prochainement pour atteindre 10 PetaFlops. 212 systèmes utilisent des processeurs ayant au moins six cœurs. 387 systèmes utilisent des processeurs Intel ; AMD suit (et progresse) avec 65 systèmes utili-sant des processeurs Opteron. 19 systèmes utilisent des accélérateurs (12 des GPU de NVIDIA, 5 des processeurs Cell, 2 des ATI Radeon). La performance cumulée des 500 systèmes est passée, en six mois, de 43,7 à 58,9 PetaFlops. L’efficacité énergétique s’améliore : 248 contre 219 Mflops/Watt il y a six mois.

Le Top10 Les dix systèmes les plus performants installés dans le monde sont :

Système Localisation Rmax

K Computer : Fujit-su, SPARC64 six cœurs

RIKEN (Japon) 8162

Tianhe-1A : NUDT TH MPP, X5670, GPU Nvidia

Centre de calcul de Tianjin (Chine)

2566

Jaguar : Cray XT5-HE, Opteron 6 cœurs

ORNL, USA 2331

Nebulae : Dawning TC3600 Blade, Intel X5650, GPU Nvidia

Centre de calcul de Shenzhen (Chine)

1271

Tsubame : NEC/HP, Xeon X5670, GPU Nvidia

Titech (Japon) 1192

Cielo : Cray XE6 8 cœurs

LANL, USA 1110

Pleiades : SGI Altix ICE 8200EX / 8400EX, Xeon

NASA Ames, USA 1088

Hopper : Cray XE6 12 cœurs

NERSC, USA 1054

Tera100, Bull CEA-DAM, France 1050

Roadrunner : IBM BladeCenter QS22/LS21, Po-werXCell, Opteron

NNSA/LANL, USA 1042

Dans le monde Les Etats-Unis continuent de dominer ce sec-teur avec 256 des 500 systèmes (en baisse par rapport à l’édition de novembre 2010 avec 274 systèmes). L’Asie progresse de façon spectaculaire puisque 4 des 5 systèmes les plus performants installés dans le monde sont situés en Asie (Japon et Chine). Le Japon rejoint l’Union euro-péenne (EU-27), suivi de peu par la Chine qui n’avait aucun système dans le TOP500 en 2001. La Chine est maintenant en seconde position dans le monde, en nombre de systèmes instal-lés (62).

Position des principaux pays (%)

En Europe L’Europe compte 125 systèmes, c’est à dire légèrement plus que l’Asie. La distribution de ces systèmes n’a que peu changé depuis six mois, les trois pays qui dominent restent l’Allemagne (30 systèmes), le Royaume-Uni (27) et la France (25). Viennent ensuite l’Italie, la Pologne et la Suède (5), la Suisse (4), les autres pays européens disposant au maximum de 2 systèmes dans ce classement. Les systèmes les plus performants, dépassant 200 TeraFlops sur Linpack, sont situés en Al-lemagne (4 systèmes, tous dans des universi-tés), en France (3) et au Royaume-Uni (1). La machine Tera100 de Bull, installée au CEA-DAM, est n°1 en Europe. La seule machine Tier-0 de PRACE apparais-sant dans le TOP500 est le Blue Gene/P du FZJ (Jüelich) en 12ème position. Mais les systèmes « Curie » en France, « Hermit » et peut-être « SuperMUC » en Allemagne devraient appa-raître en très bonne position dans la prochaine édition.

Page 9: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 9

En France Le tableau des 10 systèmes les plus perfor-mants installés en France est à peu près iden-tique, à l’exception d’un système HP qui prend la deuxième position. Il est installé dans une entreprise manufacturière dont le nom n’est pas communiqué. N° Système Localisation Rmax

9 Bull bullx super-node

CEA-DAM 1050

29 HP Cluster Plat-form 3000

Entreprise 244

30 SGI Altix ICE 8200EX

CINES/GENCI, Montpellier

238

41 HP Cluster Plat-form 3000

Gouvernement 180

43 IBM iDataPlex EDF R&D 169 69 IBM Blue

Gene/P CNRS IDRIS Orsay

119

75 Bull Novascale R422-E2

CEA CCRT 108

79 SGI Altic ICE 8200EX

TOTAL 106

93 IBM Blue Gene/P

EDF R&D 95

103 HP Cluster Plat-form 3000

Industrie 89

Les 25 machines situées en France ont été installées par IBM (12), Bull (6), HP (4) et SGI (3).

Les constructeurs IBM reste en tête avec 42,6% du nombre de systèmes et 26% de la puissance installés. IBM est suivi par HP pour le nombre de systèmes (31,6%), et par Cray pour la performance (15,4%). Fujitsu arrive en troisième position pour la performance (14,8%). Cray prend une place importante avec trois systèmes dans le TOP10. La figure suivante montre la position des princi-paux constructeurs, en pourcentage de sys-tèmes et en performance cumulée dans le TOP500.

Position des principaux constructeurs (%)

Segments 57% des systèmes sont installés dans des en-treprises, 21% dans des centres de recherche et 15,80% dans des universités.

Efficacité énergétique La liste Green5004 des 500 systèmes les plus efficaces a également été publiée. Les sys-tèmes les plus efficaces utilisent des proces-seurs de « faible performance » ou des accélé-rateurs (AMD Radeon GPU, NVIDIA Tesla Fermi GPU, Cell, and Intel Knights Corner). Les deux premières positions sont occupées par des IBM Blue Gene/Q. Le « K Computer » ja-ponais est à la 6ème place. Le numéro 1 (« Sequoia » qui sera installé au LLNL en 2012) fournit 2097 MFlops/W. Le nu-méro 100 fournit 242 MFlops/W et le dernier de la liste 21 MFlops/W. A l’heure où la consommation énergétique des grands centres de calcul devient un problème majeur, en particulier sur la route de l’exascale, on voit que les écarts sont considérables.

Jean-Loïc Delhaye

Lire, participer

Lire

• Le numéro du printemps 2011 de la revue InSiDE publiée par le centre de supercalcul allemand « Gauss » (HLRS, LRZ, JSC) présente la stratégie de ce pays dans le HPC, ainsi que des « papiers » scienti-fiques montrant des résultats obtenus sur les machines de Gauss.

http://inside.hlrs.de/

• Le numéro 4 de la « PRACE Newsletter » http://www.prace-ri.eu/IMG/pdf/PRACE_1ip_nl_4.pdf

• Le numéro spécial de La Gazette du CINES, consacré aux grands défis GENCI-CINES 2010 :

http://www.cines.fr/IMG/pdf/Recueil_definitif_des_articles_V10.pdf

• Un article rédigé par Marc Snir, William Gropp et Peter Kogge intitulé « Exascale Research : Preparing for the post-Moore Era ».

http://www.ideals.illinois.edu/bitstream/handle/2142/25468/Exascale%20Research.pdf

4 http://www.green500.org

Page 10: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 10

• Les présentations faites dans le cadre d’un séminaire organisé en août par le Dépar-tement de l’énergie américain et par le ASCR (Advanced Scientific Computing Research) sur le thème « Exascale and Beyond: Gaps in Research, Gaps in our Thinking » : http://www.orau.gov/archI2011/presentations.htm

Participer • OSD: Onera Scientific Day on Xtrem CFD:

Multi-cores, GPU, Hybrid Architectures. 7 octobre à l’Onera, Chatillon. http://www.onera.fr/jso/xtrem-cfd-2011/index.php

• 12 octobre : 2ème édition de la journée Vi-sualisation scientifique et d'information en France, au TGCC (CEA, Bruyères-le-Chatel). Contact : [email protected], [email protected].

http://visu2011.imag.fr

• 20 octobre : journée CCRT 2011 sur le thème « Simulation et flots de données ». Au TGCC du CEA à Bruyères-le-Chatel.

http://www-ccrt.cea.fr

• L’Ecole d’automne de PRACE aura lieu du 25 au 27 octobre 2011 au très grand centre de calcul (TGCC) du CEA à Bruyères-le-Châtel.

http://www.prace-ri.eu/PRACE-Autumn-School-2011?lang=en

• Le Grand Colloque de bilan du département STIC de l'ANR se tiendra au Centre des Congrès de Lyon, du 4 au 6 janvier 2012. http://www.agence-nationale-recherche.fr/

• Les formations organisées par l’IDRIS (MPI, OpenMP, etc) sont présentées sur la page

https://cours.idris.fr/php-plan/affiche_planning.php?total

NOUVELLES BREVES

è Etats-Unis : initiative AMP Les Etats-Unis ont annoncé l’initiative AMP (Advanced Manufacturing Partnership) qui, en associant le gouvernement fédéral, les entre-prises et les universités, vise à développer les technologies innovantes permettant de redy-namiser les entreprises américaines et inverser la tendance « inventé aux USA, fabriqué ail-leurs ». La simulation et la robotique font bien entendu partie de ces technologies. Cette initia-tive fait suite à une recommandation du rapport « Ensuring Leadership in Advanced Manufactu-

ring » publié il y a peu par le PCAST (Presi-dent's Council of Advisors on Science and Technology). http://www.bulletins-electroniques.com/actualites/67326.htm

è Etats-Unis : programme INCITE Le programme INCITE (Innovative and Novel Computational Impact on Theory and Experi-ment), piloté par le DoE américain, a attribué cette année 1,7 milliards d’heures CPU à 57 projets dans des domaines très divers. INCITE vient de publier un rapport de 68 pages présen-tant le programme et quelques-uns de ses ré-sultats scientifiques : http://www.olcf.ornl.gov/wp-content/uploads/2010/03/ INCITE_IR_FINAL_7-19-11.pdf

è Edition 2011 de la conférence ISC La conférence International Supercomputing Conference a enregistré, une fois encore, des records lors de son édition 2011 à Hambourg. Tant en nombre de participants (2200 inscrits) qu’en nombre d’exposants (152).

è Un guide du « cloud » pour les gouver-nements Un groupe de 70 experts (académiques, mais aussi de SAP, Amazone, IBM, Cisco, Microsoft, etc.) du « cloud computing » a publié le « Cloud First Buyer’s Guide for Government » destiné aux gouvernements qui envisagent de déployer des infrastructures de ce type.

http://www.cloudbuyersguide.org/the-guide/

è LLNL ouvre un “HPC innovation center” pour les entreprises Le LLNL (Lawrence Livermore National Lab) a inauguré le HPCIC (High Performance Compu-ting Innovation Center) destiné à renforcer les collaborations avec les entreprises de tous secteurs (automobile, énergie, santé, etc.) dans l’utilisation du calcul de haute performance. https://www.llnl.gov/news/newsreleases/2011/Jun/NR-11-06-08.html

è OpenHMPP

CAPS entreprise et Pathscale ont réuni leurs efforts pour faire des directives HMPP un stan-dard ouvert. C’est avec cet objectif qu’ils ont créé OpenHMPP, association sans but lucratif de partenaires académiques et industriels. La première réunion des utilisateurs de OpenH-MPP aura lieu en novembre dans le cadre de la conférence SC11 à Seattle.

è Bull • Bull a annoncé la création de BUX, Bull

User group for eXtreme Computing. Ce

Page 11: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 11

groupe indépendant, créé par le CEA, GENCI, le centre de calcul de Barcelone et d’autres organismes très actifs dans le HPC, a pour objectif de partager des expériences et d’échanger avec Bull sur les besoins actuels et futurs dans le domaine du calcul de très haute performance. La première réunion générale de ce groupe aura lieu les 6 et 7 octobre à Aachen, en Allemagne. http://www.bull.com/extreme-computing/bux.html

• Bull fournit un superordinateur de 58 TeraFlops à l’institut météorologique royal des Pays-Bas (KNMI). La solution consiste en 396 nœuds bullx 8500 (processeurs Intel Xeon 5600).

è IBM : Blue Gene/Q IBM a levé le voile sur le processeur Blue Gene/Q, lors de la récente conférence Hot Chips. Selon HPCwire5, les principales diffé-rences entre BG/Q et ses prédécesseurs peu-vent être résumées par le tableau suivant :

Version Architecture du cœur

Nb cœurs Horloge Perf.

crête

BG/L PowerPC 440 2 700 MHz 5,6 GF

BG/P PowerPC 450 4 850 MHz 13,6 GF

BG/Q PowerPC A2 18 1600 MHz

204,8 GF

Le chip de Blue Gene/Q est donc 15 fois plus performant (crête) que le chip de la version P. Rappelons que deux prototypes de systèmes Blue Gene/Q arrivent en tête du classement des superordinateurs les plus efficaces sur le plan de la consommation énergétique. IBM prépare-t-il la version « R » ? Aucune in-formation ne le laisse actuellement supposer.

è NVIDIA Steve Scott rejoint NVIDIA après 19 années passées chez Cray, dont les 6 dernières en tant que « Senior Vice-President and CTO ». Cet expert des architectures devrait prendre la di-rection de la « business unit » Tesla.

è SGI • NTNU (Norwegian University of Science

and Technology) a commandé à SGI un système de 275 TeraFlops crête. Il utilisera les plus récents processeurs Intel. Il sera installé fin 2011.

5 http://www.hpcwire.com/hpcwire/2011-08-22/ ibm_specs_out_blue_gene_q_chip.html

• SGI a annoncé, dans le cadre de la confé-rence ISC’11, la 5ème génération de l’Altix ICE. Utilisant le nouveau processeur Xeon d’Intel (nom de code : « Sandy Bridge EP »), cette nouvelle génération pourra fournir une puissance crête de 100 Pe-taFlops dans sa configuration maximale.

• SGI a annoncé les plans de développement de sa prochaine génération de serveurs qui utilisera les architectures Intel® Many Inte-grated Core (MIC). Objectif : l’exascale.

è T-Platforms Le système construit par T-Platforms pour l’Université Lomonosov de Moscou est mainte-nant en 13ème position dans le TOP500 (perfor-mance : 1,3 PetaFlops).

AGENDA

5 au 7 octobre – IDC 2011 : 5th International Symposium on Intelligent Distributed Computing (Delft, Pays-Bas) 7 octobre – OSD 2011 : Onera Scientific Day on Xtrem CFD: Multi-cores, GPU, Hybrid Architectures (Chatillon, France) 9 au 14 octobre – ESWeek 2011 : Embedded Systems Week (Taipei,Taiwan) 10 octobre – PMEA 2011 : The 3rd Workshop on Programming Models for Emerging Architec-tures (Galveston, TX, USA) 10 au 11 octobre – EESI : The EESI Final International Conference (Barcelona, Espagne) 10 au 12 octobre – SSS 2011 : 13th International Symposium on Stabilization, Safety, and Security of Distributed Systems (Grenoble) 10 au 14 octobre – PACT’11 : The Twentieth International Conference on Parallel Architectures and Compilation Techniques (Galveston, TX, Etats-Unis) 11 au 14 octobre – GTC 2011 : GPU Technology Conference (San Jose, CA, Etats-Unis) 12 au 13 octobre – EPEW 2011 : 8th European Performance Engineering Workshop (Borrowdale, Royaume-Uni) 20 octobre – CCRT 2011 : CCRT annual confe-rence (Bruyères-le-Châtel, France) 21 au 23 octobre – NPC 2011 : The 8th Interna-tional Conference on Network and Parallel Computing (Changsha, Hunan Province, Chine) 23 au 24 octobre – LDAV 2011 : IEEE Sympo-sium on Large-Scale Data Analysis and Visuali-zation (Providence, RI, Etats-Unis)

Page 12: NUMERO 69 - IRISAorap.irisa.fr/wp-content/uploads/2016/03/Biorap-69.pdf · Biorap N°69 – Octobre 2011 2 Simulation et de l’Information du CEA/DIF. Elle permet d’offrir aux

Biorap N°69 – Octobre 2011 12

24 au 26 octobre – ICA3PP 2011 : 11th International Conference on Algorithms and Architectures for Parallel Processing (Melbourne, Australie) 2 au 5 novembre – RACS 2011 : 2011 Research in Applied Computation Symposium (Miami, FL, Etats-Unis) 11 au 17 novembre – SC 2011 : Supercomputing 2011 (Seattle, WA, Etats-Unis) 21 au 23 novembre – NCCA 2011 : IEEE First Symposium on Network Cloud Computing and Applications (Toulouse, France) 30 novembre au 2 décembre – ReConFig 2011 : 2011 International Conference on ReConFigu-rable Computing and FPGA's (Cancun, Mexique) 5 au 8 décembre – UCC 2011 : 4th IEEE Inter-national Conference on Utility and Cloud Com-puting (Melbourne, Australie) 7 au 9 décembre – ICPADS 2011 : The 17th

IEEE International Conference on Parallel and Distributed Systems (Taiwan) 11 au 14 décembre – ICDM 2011 : The 11th IEEE International Conference on Data Mining (Vancouver, Canada) 12 au 14 décembre – CSC 2011 : 2011 IEEE International Conference on Cloud and Service Computing (Hong Kong, Chine) 12 au 16 décembre – GCM 2011 : 2nd Interna-tional Workshop on Green Computing Middle-ware (Lisbonne, Portugal) 13 au 16 décembre – OPODIS 2011 : 15th In-ternational Conference On Principles Of Distri-buted Systems (Toulouse, France) 18 au 21 décembre – HiPC 2011 : 18th IEEE International Conference on High Performance Computing (Bengalore, Inde) 3 au 6 janvier – ICDCN 2012 :13th International Conference on Distributed Computing and Net-working (Hong Kong) 22 au 23 janvier – VDA 2012 : SPIE 2012 Con-ference on Visualization and Data Analysis (San Francisco, CA, Etats-Unis) 30 janvier au 2 février – ICNC 2012 : Internatio-nal Conference on Computing, Networking and Communications (Maui, Hawaii) 15 au 17 février – PDP 2012 : 20th Euromicro International Conference on Parallel, Distri-buted and Network-Based Computing (Gar-ching, Allemagne) 15 au 17 février – PDP 2012 : Session Spéciale sur le GPU Computing et le calcul hybride (Garching, Allemagne) 15 au 17 février – MSOP2P 2012 : 6th Interna-tional Workshop on Modeling, Simulation, and Optimization of Peer-to-peer Environments

(Garching, Allemagne) 25 au 29 février – PPOPP 2012 : 17th ACM ACM SIGPLAN Annual Symposium on Prin-ciples and Practice of Parallel Programming (New Orleans, LA, Etats-Unis) 26 février au 2 mars – ISGC 2012 : Internatio-nal Symposium on Grids and Clouds (Taipei, Taïwan) 28 février au 2 mars – ARCS 2012 : Architec-ture of Computing Systems (Garching/Munich, Allemagne) 28 février au 2 mars – PacificVis 2012 : The 5th IEEE Pacific Visualization Symposium (Songdo, Corée) 25 au 29 mars – SAC 2012 : 27th ACM Sympo-sium on Applied Computing (Trento, Italie) 10 au 13 avril – Eurosys 2012 : The European conference on computer systems (Berne, Suisse) 13 au 14 mai – InPar 2012 : Innovative Parallel Computing : Foundations and Applications of GPU, Manycore, and Heterogeneous Systems (San Jose, CA, Etats-Unis) Les sites de ces manifestations sont acces-sibles sur le serveur ORAP (rubrique Agenda). Si vous souhaitez communiquer des informa-tions sur vos activités dans le domaine du cal-cul de haute performance, contactez directe-ment [email protected] Les numéros de BI-ORAP sont disponibles en format pdf sur le site Web d’ORAP. ORAP est partenaire de

Europe on-line Information Service

http://www.hoise.com/primeur

ORAP Structure de collaboration créée par

le CEA, le CNRS et l’INRIA

Secrétariat : Chantal Le Tonquèze INRIA, campus de Beaulieu, 35042 Rennes Tél : 02 99 84 75 33, fax : 02 99 84 74 99

[email protected] http://www.irisa.fr/orap