Partenaires

CNRS IN2P3
UPMC
UPD
UPMC


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil du site > Plateformes > Calcul Haute Performance (HPC) > Ressources disponibles

Ressources disponibles

par Frederic Derue, Tristan Beau - 6 janvier

Vous trouverez sur cette page des informations sur les ressources de calcul scientifique (HPC) disponibles au LPNHE, à Sorbonne Université et à Université Sorbonne Paris Cité.

 1. au LPNHE

Le groupe GRIF du LPNHE, gérant les ressources de la grille de calcul, a aussi acquis à l’été 2015, des processeurs de type GPU/XeonPhi, de manière à permettre aux membres du laboratoire de se familiariser avec ces technologies :

  • deux processeurs Intel® Xeon Phi™ Coprocessor 5110P (8GB, 1.053 GHz, 60 coeurs)
  • deux cartes GPU K2200, chacune avec 5 multiprocesseurs de 128 cœurs, 4 Go GDDR5, soit 1280 cœurs disponibles en tout.

Les informations concernant le calcul HPC au laboratoire sont réunies sur le wiki du projet HPC LPNHE. Pour y avoir accès, il faut vous authentifier une première fois sur la page du GitLab in2p3 en cliquant sur « Sign in with Shibboleth », et en suivant les instructions. Nota : il faut attendre jusqu’à 24h de blocage du compte puis tout rentre dans l’ordre.

 2. à Sorbonne Université

La Direction des Systèmes d’Information (DSI) de l’UPMC a pour missions d’offrir, auprès de la communauté scientifique du campus Jussieu, un ensemble de ressources matérielles et logicielles dans les domaines suivants :

  • Calcul scientifique : Fournit aux enseignants et chercheurs des moyens informatiques (machines de calcul scalaire, vectoriel et parallèle), logiciels scientifiques…, salles en libre service, imprimantes, sauvegardes et assistance.
  • Distribution de logiciels : Avec les Editeurs ayant établis des accords avec le Groupe Logiciel du Ministère
  • Réseau : Téléinformatique et réseaux locaux moyens à hauts débits, accès à des machines de service (DNS, News, Sendmail...), Téléphonie.
  • DataCenter : Stockage SAN/NAS et sauvegardes des serveurs sensibles du campus et des sites UPMC déportés. Hébergement physique et virtuel des serveurs de l’UPMC.

 2.1 Les clusters pour le calcul parallèle à la DSI

Le pôle calcul de la DSI gère des machines permettant d’effectuer du calcul parallèle et scalaire :

  • cluster IBM JS21 installé en 2007 (plus sous maintenance), d’une puissance crete de 2.68 Teraflops : powerpc 2.5 GHz, 67 noeuds avec chacun 4 coeurs et 4 Go de mémoire, soit un total de 268 coeurs et 268 Go de mémoire
  • Cray XD1 (calcul parallèle) en savoir plus
  • Regatta P655 (calcul scalaire et parallèle). en savoir plus
  • Cluster IBM JS22 installé en 2008 (plus sous maintenance), d’une puissance crete de 1.79 Teraflops : power6 4 GHz, 28 noeuds avec chacun 4 coeurs et 8 Go de mémoire, soit un total de 112 coeurs et 224 Go de mémoire
  • Cluster IBM iDataPlex installé en 2009 et 2010, d’une puissance de 6.6 Teraflops et 7.93 Teraflops avec GPU : Xeon Nehalem 2.53 Ghz, 4 noeuds avec chacun 8 coeurs et 64 Go de mémoire + 76 noeuds avec 8 coeurs et 24 Go de mémoire + 1 noeud avec 12 coeurs et 24 Go de mémoire et 2 GPU Nvidia Tesla M2090 chacun avec 512 coeurs, soit un total de 652 coeurs et 2104 Go de mémoire
Les modalités d’ouverture de compte sont simples : il suffit de figurer dans l’annuaire UPMC et d’en faire la demande par courrier électronique au pole calcul de la DSI.

 2.2 Les clusters pour le calcul parallèle à l’ISCD

Plus d’informations sont disponibles sur la page de l’ICSCD.

 2.2.1 mesu-#alpha : calculateur SMP SGI UV 2000

En 2013, l’UPMC a mis en service un calculateur hautes performances, une machine SGI UV 2000. Cette machine, appelée MeSU-alpha, possède une architecture à large mémoire partagée. Elle possède les catactéristiques suivantes :

  • 128 processeurs Intel Xeon E5-4650L 2.6Ghz (8 cores)
  • 16 To mémoire, 128 Go par processeur
  • interconnexion Numalink 6 12.5 Gb/s
  • 90 To stockage
  • 19.05 Tflops
JPEG - 29.5 ko
Le calculateur MESU SGI UV2000 de l’ICS et les serveurs de la grille de calcul GRIF-UPMC dans les salles machines du LPNHE (2013->fin 2015).

Ce calculateur a été hébergé dans les locaux du LPNHE de 2013 à fin 2015, dans les salles serveurs hébergeant l’informatique du laboratoire ainsi que le noeud de la grille de calcul GRIF-UPMC.

  • au LPNHE certaines personnes ont déjà un peu utilisé cette machine. Veuillez contacter F. Derue et T. Beau pour plus d’informations.
  • pour obtenir un compte sur l’interface utilisateur et les détails d’utilisation de la machine, veuillez vous reporter au wiki de Mesu ou cette page

 2.2.2 Mesu-#beta : cluster SGI ICE XA

Ce cluster est mis en service depuis la fin 2015. Il possède les caractéristiques suivantes :

  • 168 processeurs Intel Xeon E5-2670v3 2.3Ghz (12 cores)
  • 128 Go mémoire par nœud
  • 4 cartes graphique NVIDIA K5200
  • réseau InfiniBand FDR14
  • 200 To stockage
  • 59.3 Tflops

 2.2.3 Mesu-#gamma : cluster IBM iDataPlex

Ce cluster n’a pas encore été mis en place. Il possède les caractéristiques suivantes :

  • 1382 processeurs Intel Xeon X5670 Westmere (2x6 cores)
  • 24 Go mémoire par nœud
  • réseau InfiniBand QDR
  • stockage : 233 To (rapide), 1.4 Po (lent)
  • 200 Tflops

 3. à Université Sorbonne Paris Cité

L’USPC propose une infrastructure numérique pour la recherche disponible pour tous les membres de USPC. La plateforme associée se nomme CIRRUS. Elle comporte 3 volets :

  • MAGI, basé sur le centre interdisciplinaire de calcul de Paris 13, pour le calcul intensif distribué.
  • S-CAPAD, basé sur le centre de calcul parallèle de l’IPGP, pour le calcul parallèle.
  • Cumulus, basé sur le Cloud de Paris Descartes, offre la possibilité de disposer de tout serveur sous un environnement de travail quelconque, au sein de machine(s) virtuelle(s).

 4. au CCIN2P3

Parmi les différents types de machines disponibles au CCIN2P3, il y a environs 1400 processeurs (Intel(R) Xeon(R) CPU E5-2698 v3 @ 2.30GHz) disponibles pour la calcul parallèle. Voir la documentation en ligne pour utiliser ces ressources.

 5. au CERN

Le CERN développe un projet visant à mettre à disposition différentes plateformes de calcul HPC, dans un mode « best effort ». Celui-ci contient différents types de GPU, Phi etc. Le projet s’appelle TechLab.

Facebook