Le système de déclenchement d'ATLAS
Les faisceaux de protons se croisent au coeur du détecteur ATLAS toutes les 25 nanosecondes, soit quarante millions de croisements chaque seconde. À chaque croisement, une dizaine de protons entrent en collision et produisent de nombreuses particules secondaires dont les trajectoires sont "photographiées" par le détecteur. Chaque "photographie" a une taille de l'ordre de 100 mégaoctets, d'où la production d'une somme d'informations de l'ordre de 4 à 6 pétaoctets (approximativement l'équivalent de plus de 1 million de DVD) par seconde. Il est évident qu'une telle quantité d'informations ne peut être stockée de façon pérenne, encore moins analysée, d'autant plus que la plupart de l'information produite concerne des événements sans intérêt, car correspondant à des phénomènes physiques déjà connus.
Un système informatique à plusieurs étages a été développé pour éliminer la plupart des événements "connus" et considérés comme du bruit de fond et aussi pour enrichir l'échantillon d'événements stockés en événements susceptibles d'être intéressants du point de vue d'un ou plusieurs canaux de physique étudiés. Le premier étage (LVL1) est basé sur des processeurs spécialement développés à cet effet et analyse la réponse de détecteurs rapides que sont le calorimètre électromagnétique et certaines chambres du spectromètre à muons. Il analyse la topologie des événements et indique des "zones d'intérêt" susceptibles de contenir des informations pertinentes. Le deuxième étage (LVL2) est constitué d'ordinateurs "standards" utilisant des processeurs d'architecture Intel X86. Il reprend les données des zones d'intérêt et étend l'étude à d'autres détecteurs moins rapides comme le trajectographe ou le calorimètre hadronique. Les événements ayant franchi cette nouvelle étape de sélection sont alors complètement "assemblés" : toutes les données de tous les détecteurs correspondant à cet événement sont rassemblées dans une structure prédéfinie. Ces événements sont alors passés au dernier étage de la sélection (Event Filter ou EF) où ils sont analysés à l'aide d'algorithmes identiques à ceux de l'analyse finale, hors ligne. Cette analyse est effectués dans une ferme dédiée, située près de l'expérience, et constituée de plusieurs milliers de processeurs de type X86. Les événements ayant survécu à cette chaîne d'analyse sont alors stockés sur disque avant d'être analysés dans le Tier 0 de la Grille d'analyse et archivés
Le CPPM a été le moteur du développement de l'infrastructure de l'Event Filter. Il a coordonné les études autour de l'architecture globale du système et a fourni le code assurant la distribution des événements vers les tâches de sélection et de monitorage en ligne de la qualité des données. Pour le Run 2, pour lequel les niveaux LVL2 et EF ont été fusionnés, le groupe avait la responsabilité du Data Collection Manager.