La recherche du boson de Higgs au LHC par Nikola Makovec et Nicolas Arnaud, Laboratoire de l’Accélérateur Linéaire

Pour ce Jeudi de la Recherche, nous avons été accueillis au Laboratoire de l’Accélérateur Linéaire (LAL) par Nikola Makovec et Nicolas Arnaud, tous deux chercheurs au LAL. Après une rapide présentation du LAL par Nicolas Arnaud, Nikola Makovec a cherché à nous faire comprendre pourquoi le prix Nobel de physique de 2013 a été remis à Messieurs Englert et Higgs.

Le LAL

Le LAL, fondé en 1956, est une unité mixte du CNRS (Centre National de la Recherche Scientifique) et de l’Université Paris Sud. L’accélérateur linéaire associé a été créé par des équipes de l’Ecole Normale Supérieure de Paris, dans le but d’étudier la matière en accélérant des électrons à haute énergie puis en les faisant entrer en collision avec une cible. Long de 400 mètres, il a fonctionné jusqu’en décembre 2003. Pendant plus de quarante-cinq ans, il aura donc alimenté en particules de nombreuses expériences installées dans le « complexe accélérateur LAL-LURE », reconnu Site Historique par la société européenne de physique en septembre 2013. Ces installations ont permis des avancées scientifiques importantes en physique et technologie des accélérateurs, en physique des particules et pour l’utilisation du rayonnement synchrotron. Actuellement, les équipes du LAL sont impliquées dans de nombreuses expériences internationales, en particulier au CERN (Organisation Européenne pour la Recherche Nucléaire) dans le cadre du projet LHC. À Orsay, le LAL a développé plusieurs plateformes technologiques, dont l’accélérateur PHIL utilisé pour des activités de R&D. Le LAL est l’un des plus gros laboratoires du CNRS ; il fait partie de l’IN2P3 (Institut National de Physique Nucléaire et de Physique des Particules), fondé en 1971, et qui regroupe plus de 25 laboratoires – dont plusieurs sur le campus d’Orsay : le LAL, l’IPNO, le CSNSM et l’IMNC. Les activités scientifiques du LAL sont réparties de la manière suivante : • Etude de l’infiniment petit (physique des particules) : 2/3 des physiciens environ • Etude de l’infiniment grand (cosmologie) : 1/3.

L’avancée des sciences tout au long du XXe siècle a permis de mettre en exergue les liens étroits entre l’infiniment grand et l’infiniment petit. C’est pour cela que depuis une vingtaine d’années des équipes du LAL s’intéressent également aux rayonnements en provenance du cosmos, ajoutant la cosmologie à la physique des particules – le cœur de métier historique du LAL. Le LAL est un laboratoire constructeur dont les activités de recherche s’appuient sur un département accélérateur et plusieurs services techniques : électronique & instrumentation, informatique, mécanique, infrastructures et logistique, administration. Au total, un peu plus de 300 personnes travaillent au LAL : environ 40% de physiciens pour 60% d’ingénieurs, techniciens et administratifs. Le LAL c’est aussi 2000 missions et 10 thèses soutenues chaque année, pour un budget de neuf millions d’euros.

Le boson de Higgs

Pour comprendre ce qu’est le boson de Higgs et son importance en science, il faut revenir au Modèle Standard de la physique des particules. La matière est composée d’atomes qui sont 10 000 fois plus petits qu’une bactérie et dix millions de fois plus petits qu’une fourmi mais qui ne sont pas des particules élémentaires. Un atome est composé d’électrons en orbite autour d’un noyau constitué de protons et de neutrons, eux-mêmes 100 000 fois plus petits que l’atome. Afin de mieux comprendre la structure de l’atome, nous allons utiliser une comparaison : si notre poing représentant le noyau de l’atome est au centre de Paris, alors les électrons sont situés au niveau du périphérique : un atome est donc essentiellement composé de vide. Ce sont l’interaction électromagnétique entre le noyau et les électrons et la mécanique quantique qui assurent la stabilité de l’atome. Les particules subatomiques sont très légères et donc les unités de masse courantes (multiples et sous-multiples du kilogramme) ne sont pas bien adaptées à leur description : par exemple, un proton pèse environ 2x10-25 kg. Aussi, les scientifiques ont construit un système d’unités plus adapté, basé sur la célèbre équation d’Einstein E=mc², expression dans laquelle c’est la vitesse de la lumière dans le vide (environ 300 000 km/s), m la masse de la particule et E son énergie. L’unité dérivée est « l’électron-volt par c carré » (eV/c2) ; 1 électron-volt (eV) correspond à l’énergie acquise par un électron accéléré par une tension de 1 volt. La masse du proton vaut environ 1 GeV (« Giga électron-volt », soit un million d’eV), une quantité qui va nous servir de repère pour le reste de la conférence. Comment peut-on expliquer la stabilité du noyau alors qu’il contient des protons tous chargés positivement (les neutrons, eux, sont neutres électriquement comme leur nom l’indique) et qui devraient donc se repousser ? En fait, l’interaction électromagnétique n’est pas la seule force en jeu : il y a aussi l’interaction forte (la force la plus intense mais dont la portée est limitée au noyau atomique). C’est cette dernière qui assure la cohésion entre les éléments du noyau. L’interaction forte est également responsable de l’interaction entre les quarks. En effet, les protons et les neutrons ne sont pas non plus des particules élémentaires : ils sont composés chacun de trois quarks – deux « up » et un « down » pour le proton ; un « up » et deux « down » pour le neutron. Jusqu’à présent les scientifiques n’ont pas trouvé de structure interne aux quarks. Ces derniers, au nombre de six, sont donc, comme les électrons, considérés comme des particules élémentaires dans le Modèle Standard. Dans cette théorie, chaque interaction entre deux objets se traduit par un échange de particules élémentaires. Pour illustrer ce fait, on peut utiliser la métaphore suivante. Deux personnes sont dans deux barques séparées et se lancent un ballon ; alors, les barques reculent et s’éloignent : le ballon est le médiateur de l’interaction qui s’est développée entre les deux barres. A chaque interaction sont associées une ou plusieurs particules « médiatrices », appelée boson de jauge ou boson vecteur – par opposition aux « particules de matière » (quarks, électrons, etc.) qui sont des fermions : ces noms distincts illustrent les différences intrinsèques qui existent entre ces deux catégories de particules. La particule médiatrice de l’interaction électromagnétique est le photon ; il a une masse nulle et l’interaction électromagnétique a une portée infinie. Dans le cas de l’interaction nucléaire forte, les médiateurs sont huit gluons ; leurs masses sont également nulles mais la portée de cette l’interaction est seulement de 10-15 mètre. Pour l’interaction nucléaire faible (responsable, par exemple, de la radioactivité bêta) les médiateurs sont les bosons W+, W- et Z0, cette dernière force est 10 000 fois plus faible que l’interaction nucléaire forte et elle a une portée de 10-18 mètre. A l’échelle de la physique des particules la gravitation est négligeable puisque toutes les particules sont extrêmement légères. Sa portée est infinie et son boson de jauge (hypothétique puisqu’on ne sait pas appliquer le formalisme quantique à cette interaction) serait le graviton. Pour résumer : la matière ordinaire est composée de quarks down, de quarks up, d’électrons et de neutrinos (uniquement sensibles à l’interaction faible, ce qui explique la difficulté à les mettre en évidence). Les neutrinos sont partout : chaque jour, chaque cm² de notre peau est traversé par 65 milliards de neutrinos. Il existe deux autres familles de particules qui ont les mêmes propriétés que la « matière ordinaire » mais sont plus massives. Plus les particules sont massives, plus elles vont avoir tendance à se désintégrer rapidement. Certaines particules ont donc existé uniquement au moment de la création de l’Univers et les scientifiques sont à présent capables de les reproduire dans des accélérateurs par le biais de collisions.

Particules élémentaires

Le Modèle Standard de la physique des particules est un cadre mathématique qui décrit de manière globale les interactions et les particules élémentaires. Il peut se résumer en une seule (mais très longue !) équation, appelée Lagrangien. Ses trois piliers fondamentaux sont : • La relativité restreinte, avec notamment la célèbre formule E=mc² trouvée par Einstein • La mécanique quantique • Le concept de symétrie, une notion qui a joué, et joue encore, un rôle clef dans le développement de la physique moderne. Pendant des années, les théoriciens qui travaillaient à l’élaboration du Modèle Standard ont buté sur un problème fondamental : il était impossible de donner des masses non nulles aux particules élémentaires sans briser la cohérence de la théorie. Or, les expériences montraient que les « vraies particules » étaient massives : elles ne se déplaçaient pas à la vitesse de la lumière et les interactions n’avaient pas toutes une portée infinie. Comment sortir de cette contradiction ? Une solution à ce problème a été proposée indépendamment par plusieurs équipes de chercheurs – notamment les Belges Brout & Englert et le Britannique Higgs – en 1964. Ils ont introduit dans le Modèle Standard un ingrédient supplémentaire d’un type nouveau, le champ de Higgs, lequel fournit une masse aux particules élémentaires en interagissant avec elles. Si cette vision est la bonne, il doit exister une nouvelle particule, le boson de Higgs, aux propriétés bien spécifiques. Près de cinquante ans plus tard (2012), ce boson a très probablement été mis en évidence par les expériences ATLAS et CMS sur le grand collisionneur à hadrons (LHC) du CERN. C’est à la suite de cette découverte que le prix Nobel de physique 2013 a été décerné à Englert et Higgs – Brout est malheureusement décédé en 2011. Pour essayer d’appréhender la notion d’interaction entre une particule et le champ de Higgs, le conférencier propose l’analogie avec une personne se déplaçant dans à un champ de neige. Si elle utilise des skis, alors il n’y a quasiment pas de frottement et elle peut donc aller très vite, ce qui est le cas du photon de masse nulle qui n’interagit pas avec le champ de Higgs. Si la personne porte des raquettes, à chaque pas elle va s’enfoncer un peu dans la neige et cette interaction légère peut être comparée à celle du champ de Higgs avec les électrons, qui ont une petite masse. Et enfin, si cette personne marche pieds nus dans la neige elle s’y enfonce profondément. L’interaction est dans ce cas-là forte, comme pour le boson Z qui est très massif. En termes plus scientifiques, le champ de Higgs peut être décrit comme la viscosité du vide tandis que le boson de Higgs en est la matérialisation. Ce mécanisme a été et est toujours un enjeu majeur de la physique des particules. Pour conclure sur la métaphore du champ de neige, nous apprenons qu’il a fallu aller au CERN, au pied des montagnes, pour le trouver !

Le CERN

En effet, le LHC (Large Hadron Collider) se situe entre le Jura et les Alpes, à la frontière entre la France et la Suisse, au bord du lac Léman. Il est construit à 100 mètres sous terre dans un anneau de 27 km de circonférence qui a déjà servi pour son prédécesseur le LEP (Grand Collisionneur Electrons-Positrons de 1989 à 2000). Le LHC peut accélérer des protons ou des ions plomb. Cette machine géante est détentrice de nombreux records ! Elle comporte pas moins de 9000 aimants supraconducteurs qui peuvent produire un champ magnétique 200 000 fois supérieur à celui de la Terre (8,3 Tesla). C’est aussi un des endroits les plus froids de l’Univers, avec une température de -271°C (1,9 K) pour le refroidissement de ces mêmes aimants supraconducteurs. C’est également l’endroit le plus vide du système solaire. En effet, un vide très poussé est nécessaire pour éviter les collisions entre les protons et les différentes molécules de l’air résiduel. Le LHC est également un circuit ultra-rapide • Les protons circulent à 99.9999993 % de la vitesse de la lumière. • Faisceaux de protons de 4 TeV d’énergie jusqu’en 2012 ; puis 6,5 voire 7 TeV en 2015 et les années futures. • 362 MJ d’énergie stockée par faisceau (soit l’équivalent de l’énergie cinétique d’Airbus A320 à l’atterrissage). Et une machine de précision • Croisement de paquets de protons toutes les 50 nanosecondes • Des faisceaux de taille 10 microns (10-5m) aux quatre points de croisement (nommés ALICE, ATLAS, CMS et LHCb) où sont installé des détecteurs gigantesques qui enregistrent les résultats des collisions ! Il y a 3000 « paquets » de proton qui tournent dans l’anneau, chaque paquet est composé de milliards de protons. Le but est de chercher à produire des collisions entre les particules pour en créer de nouvelles, dont l’attendu boson de Higgs. A l’aide d’un champ magnétique la trajectoire des protons est courbée afin qu’ils décrivent un cercle et grâce à un champ électrique ils sont accélérés jusqu’à une vitesse très proche de celle de la lumière. Une fois que les particules accélérées au LHC (par exemple des protons) ont atteint la bonne vitesse et ont la bonne trajectoire, on les fait entrer en collision. Leur énergie cinétique est alors transformée en énergie de masse comme le prévoit la célèbre formule d’Einstein E=mc² (« énergie égale masse » : ces deux concepts sont deux facettes d’une même réalité puisqu’ils sont proportionnels et donc on peut passer de l’un à l’autre : transformer de la masse en énergie et réciproquement). C’est grâce à cette propriété fondamentale que les chercheurs sont capables de créer des particules plus massives que les protons qui se sont entrechoqués : une partie de leur énergie – colossale – est convertie en particules lourdes. En physique des particules, les lois qui nous semblent logiques à l’échelle macroscopique ne s’appliquent plus. En effet, en faisant collisionner deux « fraises quantiques », on peut obtenir des pastèques ou des pommes, mais pas de la compote de fraise – on ne brise pas en morceaux les particules qui entrent en collision : on convertit leur masse-énergie en d’autres particules. Par exemple, lorsqu’un électron et un positron rentrent en collision, il peut se former deux photons, ou une paire de bosons W ou encore un boson Z. Une collision peut être à l’origine de la création de toutes sortes de particules, du moment que les règles de conservations de l’énergie et de la masse sont respectées et que les lois de la physique sont suivies. Dans la salle on se demande pourquoi une particule se désintègre d’une manière donnée et pas d’une autre façon. La réponse est : c’est le hasard ! La mécanique quantique prédit la probabilité que telle ou telle réaction se produise mais, à l’intérieur de ce cadre, chaque désintégration est aléatoire. Le principe « aux mêmes causes, les mêmes effets » ne s’applique pas en physique quantique ! Lors des collisions qui ont lieu au cœur des détecteurs, de nombreuses particules sont créées et les plus instables d’entre elles se désintègrent quasiment instantanément. Les détecteurs vont permettre de « voir » les particules de l’état final car la chaine de désintégration est trop rapide pour détecter les étapes intermédiaires. Le LHC compte quatre détecteurs : • ALICE qui étudie le plasma quark gluon • LHCb qui s’intéresse à l’asymétrie matière antimatière • ATLAS et CMS qui sont généralistes. Ils analysent les mêmes phénomènes physiques mais n’utilisent pas les mêmes techniques

Détecteur

Voici une photo pour mieux se rendre compte de la taille d’un détecteur ! Par exemple, ATLAS pèse 7000 tonnes et prend plusieurs millions de « photos » d’événements par seconde – sur ce total, seules quelques centaines sont effectivement enregistrées. Ce ne sont pas moins de 3000 scientifiques qui travaillent sur les différents détecteurs, l’informatique et les analyses de physique associée.

Pour être très exact, un détecteur ne permet pas de « voir » une particule, mais son interaction avec la matière du détecteur. Le signe de la courbure de la trajectoire donne la charge de la particule et sa taille, la vitesse : plus elle est rapide plus la courbe est droite.

Un boson de Higgs apparaît en moyenne tous les cinq milliards de collisions au LHC. Ainsi, 500 000 de ces particules ont été produites depuis le démarrage du collisionneur, soit un millier environ par jour. Le boson de Higgs a une durée de vie très courte (de l’ordre de dix millième de milliardième de milliardième de seconde !) et se désintègre quasiment instantanément en d’autres particules stables du Modèle Standard. Ce sont ces dernières qui sont détectées et à partir desquelles on doit remonter à la présence éventuelle du boson de Higgs. Il existe plusieurs modes de désintégration du boson de Higgs, plus ou moins fréquents et plus ou moins faciles à mettre en évidence expérimentalement. Par exemple, le boson de Higgs se désintègre une fois sur 500 seulement en deux photons mais ce canal est observable au LHC. A cause du « bruit de fond » constitué de particules « parasites » qui laissent dans les détecteurs une signature très proche de celle de la désintégration d’un boson de Higgs, il est aussi dur à trouver qu’une aiguille dans une botte de foin ! Grâce à des outils informatiques très puissants, les scientifiques ont quand même pu « voir » le boson de Higgs, sous la forme d’une « petite bosse » apparue sur un histogramme qui compte le nombre d’événements « potentiellement Higgs » en fonction de la masse de cette particule hypothétique, reconstruite à partir de ses produits de désintégrations détectés dans ATLAS ou CMS.

Les physiciens ont dû accumuler suffisamment de données pour que la « bosse » soit significative, c’est-à-dire pour être sûr qu’elle n’était pas due au hasard – mais bien la preuve de l’existence d’une nouvelle particule. Les résultats obtenus par CMS et ATLAS montrent le « même genre de bosse nette » à deux masses très proches (125 ou 126 GeV/c2) et avec deux analyses complètement indépendantes (les événements enregistrés, les détecteurs et les physiciens qui ont analysé les données sont différents). Les scientifiques ont donc réussi à trouver le boson de Higgs ! La masse mesurée s’inscrit parfaitement dans le cadre du Modèle Standard ce qui est un peu « triste » selon l’intervenant car, si elle avait été en contradiction avec d’autres mesures, elle aurait ouvert des pistes vers une théorie plus générale. Cette « nouvelle physique » existe forcément puisque le Modèle Standard n’explique pas tous les phénomènes observés, mais on ne sait pas actuellement dans quelle direction aller pour la mettre en évidence. Dans cette optique, la prochaine campagne de prise de données du LHC est très importante, à la fois pour mesurer plus précisément les paramètres du boson de Higgs, et pour chercher des indices de nouvelle physique. Le LHC a été arrêté fin 2012 pour une longue période de maintenance et d’amélioration, prévues de longue date. Le redémarrage est prévu en 2015 avec une énergie de collisions deux fois plus importante : 13, puis 14 TeV. Nikola Makovec conclut sur le fait que la découverte du boson de Higgs n’explique pas tout. Car si les scientifiques sont capables d’estimer la densité de l’Univers, la matière ordinaire – la seule espèce connue – ne représente que 5% de son contenu… Les physiciens ne sont pas non plus en mesure d’expliquer pourquoi une particule élémentaire a telle ou telle masse. De quoi réfléchir encore quelque temps !  

Visite d’ACO

Anneau de Collisions d’Orsay

Les membres de l’association Science ACO nous proposent ensuite un voyage dans le temps. En effet, dans le bâtiment voisin du LAL, se trouve « l’arrière grand-oncle » du LHC : ACO, l’Anneau de Collision d’Orsay. Cet anneau de stockage électrons-positrons a fonctionné de 1965 à 1988 ; il est à présent classé à l’inventaire supplémentaire des monuments historiques et ouvert au public sur demande. Pour nous guider dans notre visite, nous avons eu la chance d’être accompagnés par des scientifiques (MM. André Damany, Yves Ducros et Georges Szklarz) qui ont travaillé sur cette machine lorsqu’elle était encore en fonctionnement, ainsi que sur ses successeurs – DCI et Super ACO.

La machine, d’une dizaine de mètres de diamètre, semble toujours prête pour réaliser de nouvelles expériences. Elle a été conservée à son emplacement d’origine et seulement quelques modifications mineures lui ont été apportées. Les accélérateurs de particules existent depuis les années 1930. A l’époque, les expériences sont dites « de cible fixe » : on envoie un faisceau sur une cible et on étudie les résultats des interactions entre les particules incidentes et la plaque de matière. Cependant, cette méthode ne permet pas d’exploiter l’ensemble de l’énergie disponible lors des collisions et donc limite (via la formule d’Einstein E=mc2) la production de particules. Une autre approche consiste à réaliser des collisions frontales entre deux faisceaux de particules de même énergie. Dans ce cas, toute l’énergie de la collision est convertie en nouvelles particules mais la réalisation de telles collisions est beaucoup plus complexe car il y a alors deux faisceaux à contrôler précisément. Les premières collisions de particules au monde (électron-positron) sont obtenues en 1963-1964 sur l’anneau de stockage AdA, construit au laboratoire de Frascati (près de Rome) sous la direction de Bruno Touschek, et transporté à Orsay en 1962 pour bénéficier de l’accélérateur linéaire du LAL, alors l’un des meilleurs au monde. C’est le début d’une longue série de collisionneurs à travers le monde – le plus récent et le plus performant étant le LHC du CERN. C’est en 1962-1963 que le LAL se lance dans la construction d’un collisionneur électron-positron de taille supérieure à AdA : ACO. En 1965, les premiers faisceaux d’électrons sont injectés dans la nouvelle machine et les premières mesures ont lieu en 1967. A un instant donné, deux « paquets de particules » circulent en même temps : l’un contient des électrons et l’autre des positrons. Ces particules partagent le même tube à vide dans lequel elles tournent en sens inverses sous l’action d’un même champ magnétique – puisque leurs charges électriques sont opposées. Notre guide nous montre les aimants de courbures qui servent à modifier la trajectoire des particules, ainsi que les aimants de focalisation qui vont jouer le même rôle qu’une lentille en focalisant les deux paquets de particules à l’approche du point de collision, puis en les défocalisant une fois celui-ci passé. Tour après tour, les particules perdent une partie de leur énergie sous forme de rayonnement synchrotron (une forme de lumière particulière dont nous reparlerons dans la suite). Elles sont donc ré-accélérées par un champ électrique à chaque fois qu’elles traversent la cavité accélératrice d’ACO, diamétralement opposée à la région où ont lieu les collisions. Le champ électrique est alternatif et synchronisé avec le passage des particules ; son action aide à maintenir la cohésion des deux paquets car les particules qui arrivent en avance (en retard) dans la cavité sont accélérées moins fortement (plus fortement) que la moyenne. En permanence des particules sont perdues dans la machine, ce qui se traduit par une diminution du taux de collisions. Au bout de quelques heures, il faut donc réinjecter de nouveaux paquets dans l’anneau de stockage pour poursuivre l’étude des collisions dans de bonnes conditions. Au musée Sciences ACO, un détecteur a également été recréé pour visualiser les collisions comme les chercheurs le faisaient avec le détecteur initial dans les années 1960. Il s’agit de la simulation d’une chambre à étincelles. En physique des particules ACO a servi à étudier les mésons vecteurs de spin 1 négatif, qui étaient considérés à l’époque comme des particules élémentaires, mais dont on sait aujourd’hui qu’ils sont formés de paires de quarks. A partir du milieu des années 1970, le collisionneur ACO est transformé en anneau de stockage pour exploiter la lumière synchrotron émise par un faisceau d’électrons. Pour les expériences de collision, ce rayonnement est parasite puisqu’il prélève une partie de l’énergie des particules : il faut en permanence le compenser au-moyen d’une zone accélératrice dédiée. Par contre, cette lumière a des propriétés remarquables (spectre très large, brillance, etc.) exploitées dans de nombreuses branches de la physique : sciences des matériaux, biologie, chimie, muséographie, etc. ACO eut ensuite un successeur, SuperACO, exploité par le Laboratoire pour l’Utilisation du Rayonnement Electromagnétique (LURE). Ce dernier est aujourd’hui devenu le synchrotron SOLEIL (Source Optimisée de Lumière d’Énergie Intermédiaire du LURE), l’une des machines dédiées au rayonnement synchrotron les plus performantes au niveau européen. C’est donc sur ACO que les premières recherches impliquant du rayonnement synchrotron ont été réalisées. En souvenir de ces recherches pionnières, une ligne de lumière a été reconstituée dans le musée pour que les visiteurs puissent comprendre son fonctionnement.

Pour plus d’informations ou pour planifier une visite, rendez-vous sur le site internet de Sciences ACO : http://www.sciencesaco.fr.