Des milliards de données à traiter

La complexité du projet LHC ne tient pas seulement à la construction d’une immense machine ou à la difficulté de faire collaborer des milliers de personnes venant du monde entier : elle tient également au nombre de données informatiques à traiter.

L’informatique et la physique

De nos jours, l’informatique occupe une place très importante dans les expériences de physique des hautes énergies. Ainsi le web, qui est né au Cern, a été conçu pour répondre au besoin de partage d’informations entre des physiciens travaillant dans différentes universités et instituts situés aux quatre coins du monde. Aujourd’hui, les physiciens utilisent l’informatique pour analyser, simuler ou encore stocker des données. Par exemple, les collisions de particules sont visualisées et analysées grâce aux ordinateurs. En effet, à partir d’une seule collision qui engendre des centaines d’informations, les physiciens cherchent à reconnaître les impacts dans les détecteurs et à reconstruire les trajectoires et l’énergie de particules identifiées. Ce travail de titan n’est réalisable qu’à la faveur des ordinateurs, notamment car il nécessite de faire des milliers d’hypothèses sur chaque trace et donc d’explorer des milliers de combinaisons. Le stockage massif de données est également primordial dans ces recherches, car une même collision sera utilisée et analysée par plusieurs laboratoires dans le monde.

Des centres informatiques centralisent la puissance de calcul

Depuis les années soixante, les physiciens utilisent donc ce qu’on appelle des centres de calcul, c’est-à-dire des centres chargés de fournir les capacités de calcul et de stockage aux chercheurs, grâce aux réseaux à très haut débit. Concrètement, les chercheurs se connectent via leur propre ordinateur sur les serveurs des centres de calcul.

Le LHC représente encore un nouveau challenge puisqu’il va générer une quantité de données informatiques phénoménale : près de 15 millions de milliards d’octets par an, soit l’équivalent de 20 millions de CDs ! Pour traiter toutes ces données, 70 000 processeurs informatiques actuels sont nécessaires. Centraliser le traitement de ces données dans un seul centre de calcul n’étant pas envisageable, les informaticiens participant au projet LHC ont dû faire preuve d’imagination pour faire face à cette quantité énorme de données à traiter, sans quoi le LHC n’aurait pas raison d’être : en effet, à quoi servirait-il de générer des données de physique si on est incapable de les analyser ?
Les informaticiens ont répondu à cette problématique grâce à une nouvelle technologie : la grille informatique.

pour en savoir +
Plan du site  |   Contacts  |  Mentions Légales  |  Crédits  |  Accessibilité  |  Flux RSS