La physique des particules

Dossier : La physique au XXIe siècleMagazine N°604 Avril 2005
Par Bruno MANSOULIÉ (75)

La physique de l’élémentaire

Si l’ap­pel­la­tion « Phy­sique des par­ti­cules » est tra­di­tion­nelle pour dési­gner l’é­tude des consti­tuants de la matière, je lui pré­fère de beau­coup celle de « Phy­sique de l’élé­men­taire ». À la ques­tion : « De quoi la matière est-elle faite et quelle est son ori­gine ? », une longue tra­di­tion occi­den­tale tente en effet de répondre par une hié­rar­chie de struc­tures, convain­cue que la varié­té de la nature est obte­nue par l’as­sem­blage de cor­pus­cules élé­men­taires d’un petit nombre de types. L’i­dée est simple et forte, et encore de nos jours, la décou­verte d’une nou­velle « par­ti­cule » est un évé­ne­ment aus­si bien pour le public que pour les cher­cheurs. Pour­tant, la phy­sique moderne a élar­gi consi­dé­ra­ble­ment les concepts de consti­tuants et d’in­te­rac­tions : la méca­nique quan­tique nous indique en effet qu’une par­ti­cule est aus­si une onde, cepen­dant que dans la rela­ti­vi­té géné­rale, matière et espace-temps eux-mêmes appa­raissent comme des champs. Dans les théo­ries récentes des super­cordes, les par­ti­cules perdent même leur carac­tère ponc­tuel et sont décrites comme des cordes ou mem­branes en inter­ac­tion dans un espace à dix (ou peut-être onze…) dimensions.

L’i­mage fami­lière du monde des par­ti­cules est donc ini­tia­le­ment celle des pou­pées russes : dans la matière, des atomes, dans un atome un noyau (et des élec­trons), dans un noyau, des pro­tons et des neu­trons, dans un pro­ton des quarks… Selon cette image, tout pro­grès de la dis­ci­pline serait lié à la décou­verte d’un nou­veau com­po­sant, plus petit. En fait, ce que les phy­si­ciens recherchent avant tout, ce sont des struc­tures élé­gantes, et la des­crip­tion de la matière par un modèle simple et cohérent.

Il est vrai que, par­fois, l’ex­pli­ca­tion de ces struc­tures, la sim­pli­fi­ca­tion du modèle viennent de l’in­tro­duc­tion d’une nou­velle échelle de com­po­sants. Le pre­mier exemple fut d’ex­pli­quer la varié­té des élé­ments chi­miques et la com­po­si­tion du tableau de Men­de­leïev par la struc­ture des atomes, et leur des­crip­tion en pro­tons, neu­trons et élec­trons. Le second per­mit d’ex­pli­quer la nature des nom­breuses par­ti­cules décou­vertes dans les années 1960 auprès des accé­lé­ra­teurs, comme des assem­blages variés d’un petit nombre de com­po­sants : les quarks.

Pour autant, cette image simple est trop limi­tée. L’am­bi­tion est en effet bien plus vaste : le modèle recher­ché doit en effet rendre compte de toutes les pro­prié­tés de la matière, natu­relle ou arti­fi­cielle, à toutes les échelles de taille ou d’éner­gie, et à toutes les époques, du big bang à nos jours. Le cœur de cette com­pré­hen­sion est le Modèle stan­dard, qui décrit avec rigueur et pré­ci­sion les consti­tuants de la matière et leurs inter­ac­tions. Toute nou­velle mesure, qu’elle pro­vienne d’un accé­lé­ra­teur de par­ti­cules ou d’une obser­va­tion par satel­lite, est immé­dia­te­ment confron­tée au Modèle stan­dard. Aujourd’­hui, des mesures très pré­cises, effec­tuées sur des objets et dans des gammes d’éner­gies très variés, confirment toutes le Modèle standard.

Mal­gré ses suc­cès, le Modèle stan­dard ne manque pas d’im­per­fec­tions : un grand nombre de para­mètres libres, cer­taines struc­tures tota­le­ment inex­pli­quées, et sur­tout une insuf­fi­sance onto­lo­gique. On sait bien décrire les par­ti­cules et leur com­por­te­ment, on sait mal ce qui fait qu’une par­ti­cule est une par­ti­cule. Pour­quoi, à tel endroit, à tel ins­tant, une concen­tra­tion d’éner­gie nous appa­raît-elle comme une par­ti­cule dotée d’une masse, d’une charge, ou d’un tout petit nombre d’autres caractéristiques ?

Ces insuf­fi­sances de prin­cipe don­naient lieu depuis long­temps à d’in­tenses spé­cu­la­tions sur de nou­veaux modèles théo­riques, asso­ciés à de nom­breuses recherches de signes expé­ri­men­taux. Mais la sur­prise des der­nières années est venue des mesures cos­mo­lo­giques : 95 % de la den­si­té d’éner­gie de l’u­ni­vers est de nature incon­nue, dif­fé­rente de la matière « ordi­naire » que décrit le Modèle stan­dard ! Un tiers envi­ron est sans doute d’une nature « proche », et pour­rait être décrite par cer­taines exten­sions du Modèle déjà envi­sa­gées. Mais le reste, soit plus des deux tiers du conte­nu éner­gé­tique de l’u­ni­vers, échappe encore aujourd’­hui à toute des­crip­tion microscopique.

Entre ces ques­tions, anciennes et nou­velles, on dis­tingue aujourd’­hui un réseau de liens qui touchent aux aspects les plus fon­da­men­taux de notre per­cep­tion du monde : gra­vi­ta­tion, symé­tries, nature de l’espace-temps…

L’élaboration du Modèle standard

La notion d’un Modèle stan­dard, décri­vant toutes les par­ti­cules et les inter­ac­tions de façon cohé­rente, n’ap­pa­raît qu’à la fin des années 1970. Mais les fon­de­ments du modèle remontent direc­te­ment à la période magique de l’aube du ving­tième siècle qui, en moins de dix ans, voit l’ap­pa­ri­tion des théo­ries de la méca­nique quan­tique et de la rela­ti­vi­té, et les décou­vertes de l’élec­tron, du noyau ato­mique et de la radio­ac­ti­vi­té. À ce moment, la théo­rie quan­tique décrit l’é­ton­nant com­por­te­ment micro­sco­pique des par­ti­cules, et la rela­ti­vi­té (res­treinte) admet le temps comme 4e dimen­sion, contrai­gnant la forme des inter­ac­tions (inter­di­sant par exemple l’in­te­rac­tion ins­tan­ta­née à dis­tance, comme celle de New­ton), et mon­trant l’é­qui­va­lence entre masse et énergie.

Il reste à marier ces deux concepts : c’est Dirac, en 1928, qui écrit la pre­mière théo­rie quan­tique rela­ti­viste de l’élec­tron. Ce pas est essen­tiel pour com­prendre la puis­sance de des­crip­tion des modèles actuels. Grâce aux effets quan­tiques et aux rela­tions d’in­cer­ti­tudes, il est pos­sible d’é­chap­per à la conser­va­tion de l’éner­gie pour une quan­ti­té ΔE, à condi­tion que ce soit pour un temps Δt d’au­tant plus court que ΔE est grand : le pro­duit ΔE x Δt doit res­ter infé­rieur à h/4π, où h est la constante de Planck. La peti­tesse de h assure que le monde à l’é­chelle humaine est « clas­sique », avec une éner­gie conser­vée et un com­por­te­ment rai­son­nable. À l’é­chelle des par­ti­cules, cette fenêtre quan­tique ouvre des hori­zons immenses : avec la rela­ti­vi­té, la masse au repos d’une par­ti­cule, m, est équi­va­lente à une éner­gie mc2. Il devient donc pos­sible d’en­vi­sa­ger que, pen­dant un temps Δt, on ait une fluc­tua­tion d’éner­gie ΔE, qui s’ex­prime sous la forme d’une par­ti­cule de masse m = ΔE/c2. On parle alors de par­ti­cule vir­tuelle. Quelle par­ti­cule ? N’im­porte laquelle, à choi­sir dans toutes les par­ti­cules « exis­tantes », connues ou inconnues !

La figure 1 montre, dans la des­crip­tion en dia­grammes intro­duite bien plus tard par Feyn­man (vers 1960), la repré­sen­ta­tion d’un élec­tron « habillé » par des cor­rec­tions quan­tiques rela­ti­vistes. La pre­mière pré­dic­tion de la théo­rie de Dirac est l’exis­tence d’une anti­par­ti­cule pour l’élec­tron, le posi­ton ; il sera décou­vert en 1933 par Ander­son. Le vide lui-même prend un sta­tut de pre­mier plan : le vide clas­sique est… vide. Le vide quan­tique rela­ti­viste contient vir­tuel­le­ment toute la phy­sique exis­tante à toutes les échelles d’éner­gie ou de dis­tance ! La théo­rie quan­tique rela­ti­viste des élec­trons et des pho­tons, l’élec­tro­dy­na­mique quan­tique, s’é­la­bore depuis les années 1930 jus­qu’aux années 1970. La sym­bo­li­sa­tion des cal­culs en dia­grammes, par Feyn­man, en rend la pra­tique aisée et acces­sible à (presque) tous.

Il y a cepen­dant un écueil de taille : la mul­ti­pli­ca­tion des pos­si­bi­li­tés vir­tuelles conduit le plus sou­vent à des résul­tats de cal­culs… infi­nis ! Dans l’exemple de la figure 1a, la som­ma­tion (l’in­té­gra­tion) sur toutes les éner­gies pos­sibles du pho­ton vir­tuel don­ne­rait ain­si une masse infi­nie à l’élec­tron de départ.

Le pro­blème n’est pas vrai­ment nou­veau : il était déjà pré­sent en élec­tro­dy­na­mique clas­sique, lors­qu’on se posait la ques­tion par exemple de la cohé­rence de l’élec­tron : si on décrit un élec­tron comme une boule uni­for­mé­ment char­gée, pour­quoi les par­ties de cette boule ne se repoussent-elles pas ? De façon assez sur­pre­nante, la théo­rie quan­tique, bien qu’elle auto­rise des effets vir­tuels infi­nis et com­plexes, apporte la solu­tion, car elle per­met de hié­rar­chi­ser l’im­por­tance des cor­rec­tions vir­tuelles, et d’en pré­ci­ser les effets. Ces cal­culs sont au début un arti­fice mathé­ma­tique quelque peu hési­tant, mais se trouvent confir­més de façon écla­tante par les mesures de dépla­ce­ment des niveaux ato­miques dus à la pola­ri­sa­tion du vide (effet Lamb). Dans les années 1950–1970, cette approche devient un pro­ces­sus étayé et cen­tral dans le modèle : la « renor­ma­li­sa­tion ». Aujourd’­hui la mesure la plus pré­cise dans ce domaine (le moment magné­tique anor­mal du muon) montre un accord avec la théo­rie avec une pré­ci­sion impres­sion­nante de 11 décimales.

Forte de ses suc­cès, l’élec­tro­dy­na­mique quan­tique est de ce fait deve­nue le modèle à suivre pour toute théo­rie : quan­tique, rela­ti­viste et « renormalisable ».

Au cours du XXe siècle sont mises en évi­dence, puis étu­diées, deux autres inter­ac­tions entre par­ti­cules : les inter­ac­tions faibles, res­pon­sables d’une forme de radio­ac­ti­vi­té (et pri­mor­diales dans le pro­ces­sus de com­bus­tion du Soleil !), et les inter­ac­tions fortes, qui assurent la cohé­sion des noyaux (s’ils n’é­taient sou­mis qu’à la seule inter­ac­tion élec­tro­ma­gné­tique, les pro­tons de même charge ten­draient à se sépa­rer, et les neu­trons ne joue­raient aucun rôle). En 1965, on en est là : l’in­te­rac­tion élec­tro­ma­gné­tique a sa théo­rie puis­sante, cohé­rente et pré­dic­tive. L’in­te­rac­tion faible a été étu­diée en détail par de nom­breuses mesures de pré­ci­sion, soit dans les dés­in­té­gra­tions radio­ac­tives, ou auprès d’ac­cé­lé­ra­teurs, et elle est décrite par un modèle assez élé­gant, pré­dic­tif, mais dont on sait la vali­di­té limi­tée aux basses éner­gies. L’in­te­rac­tion forte, quant à elle, connaît une foule de résul­tats expé­ri­men­taux, les réac­tions obte­nues en envoyant un fais­ceau d’ac­cé­lé­ra­teur sur une cible pro­dui­sant quan­ti­tés de « nou­velles par­ti­cules » de masses et de pro­prié­tés diverses ; les modèles qui tentent de décrire cette varié­té sont phé­no­mé­no­lo­giques, peu pré­dic­tifs, par­fois même un peu éton­nants sur le plan logique (l’un d’entre eux s’ap­pelle le boot-strap, fai­sant réfé­rence à l’i­dée qu’on pour­rait s’é­le­ver en se tirant par les lacets de ses propres bottes !).

Le pro­grès déci­sif est alors de recher­cher l’in­gré­dient qui per­met le fonc­tion­ne­ment de la théo­rie élec­tro­ma­gné­tique, et de l’ap­pli­quer aux deux autres, mal­gré les appa­rentes dif­fé­rences. Cet ingré­dient, c’est la « symé­trie de jauge ». Depuis le début, le rôle des symé­tries est essen­tiel dans notre com­pré­hen­sion théo­rique. Par exemple, il est clair que les lois de la phy­sique doivent être inva­riantes par un chan­ge­ment de repère dans l’es­pace ou le temps : cette inva­riance conduit à la rela­ti­vi­té res­treinte. De nom­breuses autres symé­tries sont uti­li­sées pour contraindre les lois phy­siques : inva­riance par rota­tion, inva­riance (ou pas !) par ren­ver­se­ment du sens du temps, par échange de consti­tuants, etc.

L’in­va­riance de jauge est une inva­riance par rap­port à l’i­den­ti­té des par­ti­cules : si un élec­tron accom­pa­gné d’un pho­ton se mani­feste dans mon détec­teur exac­te­ment comme un élec­tron seul, pour­quoi ne l’ap­pel­le­rais-je pas un élec­tron ? On voit le lien avec la renor­ma­li­sa­bi­li­té : les pho­tons vir­tuels qui accom­pa­gnaient mon élec­tron ris­quaient de deve­nir trop nom­breux et rendre mes cal­culs infi­nis. Mais si c’est « tout cela » un élec­tron, plus de problème !

Appli­quer l’in­va­riance de jauge à la théo­rie faible, et l’u­ni­fier avec l’in­te­rac­tion élec­tro­ma­gné­tique, ne peut pas se faire si faci­le­ment : la por­tée de l’in­te­rac­tion élec­tro­ma­gné­tique est infi­nie (c’est le poten­tiel de Cou­lomb, en 1/r), celle de l’in­te­rac­tion faible est courte (très infé­rieure à la taille d’un pro­ton). Dans la théo­rie, ceci s’ex­prime par le fait que la par­ti­cule média­trice de l’in­te­rac­tion élec­tro­ma­gné­tique (le pho­ton) pos­sède une masse nulle, alors que celles média­trices des inter­ac­tions faibles (les W+, W- et Z0) ont une masse très élevée.

En 1967, Wein­berg et Salam, uti­li­sant un résul­tat de Higgs, réa­lisent pour­tant cette uni­fi­ca­tion. Le modèle part d’une théo­rie com­mune où toutes les masses des par­ti­cules sont nulles. On intro­duit alors une par­ti­cule très spé­ciale, le « boson de Higgs », dont la simple pré­sence donne une masse à toutes les par­ti­cules du modèle… sauf au photon.

La fameuse symé­trie « de jauge » est donc bri­sée, mais d’une façon assez « douce » pour que ses pro­prié­tés soient conser­vées. En 1974, t’Hooft montre en effet que ce type de théo­rie est renormalisable.

À peu près en même temps, les expé­riences tendent à mon­trer que les pro­tons et neu­trons seraient consti­tués d’ob­jets plus petits. Rapi­de­ment, on explique toutes les par­ti­cules pro­duites par inter­ac­tion forte à l’aide d’un petit nombre de consti­tuants, les quarks. Mais là aus­si, le pas déci­sif est de com­prendre que les quarks et leur inter­ac­tion forte peuvent être décrits par une théo­rie « de jauge », la chro­mo­dy­na­mique quan­tique (QCD).

Vers la fin des années soixante-dix, le Modèle stan­dard est enfin consti­tué, et sa concep­tion ne chan­ge­ra pas jus­qu’à nos jours, mal­gré des mises à l’é­preuve expé­ri­men­tales et théo­riques aus­si variées que pré­cises. Seule la gra­vi­ta­tion échappe à cette des­crip­tion, car si nous en avons une excel­lente des­crip­tion clas­sique (la rela­ti­vi­té géné­rale d’Ein­stein), nous n’en connais­sons pas de théo­rie quantique.

Les progrès expérimentaux et le Modèle standard aujourd’hui

Pen­dant la pre­mière moi­tié du XXe siècle, les phé­no­mènes cor­pus­cu­laires sont d’a­bord obser­vés à par­tir de sources natu­relles, radio­ac­ti­vi­té et rayons cos­miques, et des minus­cules accé­lé­ra­teurs d’élec­trons que sont les tubes catho­diques. À par­tir de la Deuxième Guerre mon­diale se déve­loppent les véri­tables accé­lé­ra­teurs de par­ti­cules, de dimen­sions et d’éner­gie tou­jours crois­santes. En effet, la méca­nique quan­tique nous indique que l’im­pul­sion trans­fé­rée par une par­ti­cule sonde est inver­se­ment pro­por­tion­nelle à la pré­ci­sion spa­tiale qu’elle per­met d’atteindre.


FIGURE 2
L’empreinte au sol du tun­nel du LEP au Cern (on aper­çoit au second plan le lac Léman et, en arrière-plan, le Mont-Blanc). Le tun­nel lui-même est situé 100 m sous terre.

Des labo­ra­toires sont créés pour abri­ter spé­ci­fi­que­ment ces grands ins­tru­ments, comme le CERN, fon­dé en 1954 près de Genève par l’en­semble des pays euro­péens, DESY à Ham­bourg, Fer­mi­lab et SLAC aux USA, etc. À titre d’exemple, le pre­mier « gros » accé­lé­ra­teur construit au Cern en 1960 avait un dia­mètre de 72 m. Plu­sieurs géné­ra­tions de machines plus tard, le LEP a fonc­tion­né de 1989 à 2000 dans un tun­nel de 9 km de dia­mètre situé à 100 m sous la cam­pagne gene­voise. Ce tun­nel s’ap­prête main­te­nant à rece­voir le futur fleu­ron du Cern, le LHC, dont le démar­rage est pré­vu en 2007.

Les expé­riences ont aus­si énor­mé­ment aug­men­té en taille, en com­plexi­té, et en durée : une expé­rience auprès du LHC sera un com­plexe de 40 m de long, 30 m de dia­mètre, com­pre­nant des mil­lions de canaux élec­tro­niques, mis au point par une col­la­bo­ra­tion de plus d’un mil­lier de phy­si­ciens et d’in­gé­nieurs pro­ve­nant de tous les pays déve­lop­pés de la pla­nète. Les expé­riences (il y en aura 4) seront pro­ba­ble­ment exploi­tées durant plus de quinze ans.

En paral­lèle, d’autres méthodes de recherche ont été pour­sui­vies, comme l’ob­ser­va­tion des rayons cos­miques, en plein renou­veau actuel­le­ment, ou cer­taines obser­va­tions astronomiques.

Durant les trente der­nières années, le Modèle stan­dard a acquis une éton­nante soli­di­té par un va-et-vient inces­sant entre pré­dic­tions théo­riques et résul­tats expé­ri­men­taux, impos­sibles à détailler ici, mais que le lec­teur peut appré­cier de façon concise (et très réduc­trice !) par ce chiffre : 12 prix Nobel pour la dis­ci­pline depuis 1976 !

Tableau 1
Nom et Type d’interaction 3 familles
Quarks
(inter­ac­tions Forte et Electro-faible)
u c t
d s b
Lep­tons
(inter­ac­tions Electro-faible
e μ τ
νe νμ ντ

Le tableau 1 ras­semble les par­ti­cules élé­men­taires de matière connues. Il com­porte trois colonnes, cou­ram­ment appe­lées « familles » : la pre­mière famille com­prend les par­ti­cules qu’on trouve autour de nous : deux quarks (u et d), qui consti­tuent les pro­tons et les neu­trons dans le noyau des atomes, un élec­tron, et un neu­tri­no dit « élec­tro­nique », pour expri­mer sa paren­té avec l’élec­tron. Les deuxième et troi­sième familles sont des répliques de la pre­mière, conte­nant des par­ti­cules obser­vées dans des réac­tions de plus haute éner­gie, natu­relles (rayons cos­miques) ou arti­fi­cielles (accé­lé­ra­teurs), dont les pro­prié­tés sont iden­tiques à leurs sœurs de la pre­mière colonne, si ce n’est leur masse plus élevée.

Toute par­ti­cule pos­sède son anti­par­ti­cule, de même masse, mais avec toutes les « charges » oppo­sées ; par exemple le posi­ton, anti­par­ti­cule de l’élec­tron, de charge élec­trique + e.

Les dif­fé­rentes « lignes » du tableau décrivent sim­ple­ment quelles par­ti­cules sont sou­mises à quelle(s) interaction(s) fon­da­men­tales : les neu­tri­nos ne connaissent que l’in­te­rac­tion faible, l’élec­tron (et ses par­te­naires μ, τ ) est sou­mis aux inter­ac­tions faible et élec­tro­ma­gné­tique, cepen­dant que les quarks res­sentent les trois inter­ac­tions faible, élec­tro­ma­gné­tique et forte. Comme on l’a vu, les inter­ac­tions élec­tro­ma­gné­tiques et faibles sont consi­dé­rées aujourd’­hui comme deux aspects d’une même inter­ac­tion électrofaible.

Toutes les par­ti­cules de ce tableau ont main­te­nant été obser­vées expé­ri­men­ta­le­ment. Mais la cohé­rence du modèle est telle que plu­sieurs d’entre elles avaient été pré­dites à par­tir de la théo­rie et de mesures indi­rectes, bien avant leur obser­va­tion directe.

Pour com­plé­ter le pay­sage, il faut ajou­ter deux remarques :

  • la pré­sence de trois « familles » est abso­lu­ment inex­pli­quée. Mais on sait qu’elle est à l’o­ri­gine d’un phé­no­mène très impor­tant d’a­sy­mé­trie entre matière et antimatière ;
  • les neu­tri­nos ont une masse très faible, si faible qu’on la sup­po­sait nulle. Des mesures récentes, hors accé­lé­ra­teur, ont démon­tré que ces masses sont certes faibles, mais dif­fé­rentes de zéro. Cela ouvre de nou­velles pos­si­bi­li­tés d’é­tude et de mise en cause du modèle, ain­si qu’un nou­vel éclai­rage sur l’a­sy­mé­trie matière antimatière.

Comme je l’ai dit plus haut, le fameux « boson de Higgs » n’entre pas dans la liste des par­ti­cules de matière, ni dans la liste des mes­sa­gers des inter­ac­tions fon­da­men­tales. C’est aus­si à ce jour la seule par­ti­cule du Modèle stan­dard non obser­vée, mal­gré les efforts des expé­ri­men­ta­teurs. Le lec­teur atten­tif de La Jaune et la Rouge se sou­vient peut-être de la polé­mique sus­ci­tée par l’ar­rêt de l’ac­cé­lé­ra­teur LEP du Cern, en 2000, alors qu’une des quatre grandes expé­riences annon­çait avoir vu les pre­mières indi­ca­tions de l’exis­tence d’un Higgs (figure 3). Depuis, la pro­ba­bi­li­té que ce « signal » soit en fait dû à du « bruit de fond » a été rééva­luée à une valeur de 8 %, bien trop éle­vée pour pré­tendre une décou­verte (on exige en géné­ral une pro­ba­bi­li­té infé­rieure à 1 pour 10 000 pour prendre en consi­dé­ra­tion une reven­di­ca­tion de découverte).

La recherche du Higgs reste donc le tout pre­mier but des phy­si­ciens, et c’est essen­tiel­le­ment ce qui a jus­ti­fié la construc­tion du LHC. En effet ces cal­culs, et les simu­la­tions effec­tuées pour la concep­tion des expé­riences au LHC, laissent pen­ser que ces der­nières pour­ront décou­vrir cette clé de voûte du modèle quelle que soit sa masse. Le LHC, ins­tal­lé au Cern dans le tun­nel de 27 km, pro­dui­ra des col­li­sions entre deux fais­ceaux de pro­tons de cha­cun 7 000 GeV d’éner­gie, soit 7 fois plus que l’ac­cé­lé­ra­teur actuel du même type (Fer­mi­lab, USA), et avec des inten­si­tés de fais­ceau 100 fois supé­rieures. La concep­tion de l’ac­cé­lé­ra­teur et des expé­riences a néces­si­té des déve­lop­pe­ments tech­no­lo­giques très impor­tants : aimants supra­con­duc­teurs, détec­teurs ultra­ra­pides, élec­tro­niques rapides, puis­santes et bon mar­ché, trai­te­ment de quan­ti­tés colos­sales de don­nées. Tout le pro­gramme est actuel­le­ment en pleine construc­tion, pour une mise en ser­vice pré­vue en 2007.

Au-delà du Modèle standard

Mal­gré son incroyable puis­sance pré­dic­tive pour le monde des par­ti­cules, le Modèle stan­dard est loin d’être satis­fai­sant. En pre­mier lieu, parce qu’il contient encore beau­coup de para­mètres inex­pli­qués. Les trois familles de cha­cune 4 par­ti­cules, asso­ciées à 27 para­mètres libres (dont toutes les masses des par­ti­cules de matière), font quelque peu res­sem­bler le Modèle stan­dard à la table de Men­de­leïev avant la décou­verte de la struc­ture ato­mique. Par ailleurs, cer­tains aspects tech­niques manquent de cohé­rence, en par­ti­cu­lier en ce qui concerne la nature spé­ciale du Higgs.

Un des événements enregistrés par une expérience à LEP, et reconstruit par informatique.
FIGURE 3
Un des évé­ne­ments enre­gis­trés par une expé­rience à LEP, et recons­truit par informatique.
Les fais­ceaux d’électrons et de posi­tons sont per­pen­di­cu­laires à la figure et se croisent au centre du détec­teur. Les traces colo­rées repré­sentent les par­ti­cules issues de la col­li­sion e+ – e-.

Enfin et sur­tout, nous com­men­çons à abor­der le domaine qui relie les par­ti­cules élé­men­taires à l’u­ni­vers dans son ensemble. Les mys­tères sont alors nom­breux car nous n’a­vons pas encore aujourd’­hui de théo­rie quan­tique de la gra­vi­ta­tion. Les mesures cos­mo­lo­giques nous indiquent qu’en­vi­ron 70 % de la den­si­té d’éner­gie de l’u­ni­vers (son conte­nu, au sens le plus géné­ral du terme) sont sous une forme incon­nue et incom­prise, qui s’ap­pa­rente à une constante cos­mo­lo­gique, éner­gie répul­sive du vide qu’a­vait intro­duite Ein­stein pour ten­ter de rendre l’u­ni­vers sta­tique. Les ten­ta­tives d’ex­pli­ca­tion de cette forme à par­tir de la phy­sique du Modèle stan­dard se heurtent à une incom­pa­ti­bi­li­té numé­rique de plus de 100 ordres de gran­deur, une indi­ca­tion très claire qu’un élé­ment essen­tiel nous manque. Pour le reste, 26 % seraient consti­tués d’une matière de type encore incon­nu, mais que l’on peut modé­li­ser et com­prendre dans des exten­sions assez natu­relles du Modèle standard.

De fait la confron­ta­tion microscopique/univers entier est rude : le Modèle stan­dard dont nous sommes si fiers ne s’ap­plique qu’à 4 % du conte­nu de l’univers !

Pour dépas­ser le Modèle stan­dard, et résoudre tout ou par­tie de ces pro­blèmes, plu­sieurs théo­ries sont envi­sa­gées, basées sur des chan­ge­ments de prin­cipes phy­siques har­dis, voire radi­caux. La théo­rie la plus popu­laire chez les cher­cheurs, la super­sy­mé­trie, pos­tule l’exis­tence d’un monde de par­ti­cules entiè­re­ment nou­veau, reflet de nos par­ti­cules connues. La plus légère d’entre elles pour­rait consti­tuer les 26 % de matière « non conventionnelle ».

Des expé­riences hors accé­lé­ra­teurs sont actuel­le­ment en cours pour recher­cher direc­te­ment cette « matière noire », et pour­raient dès les pro­chaines années tes­ter l’hy­po­thèse de la super­sy­mé­trie. Les accé­lé­ra­teurs de haute éner­gie actuels et futurs recherchent tout aus­si acti­ve­ment des signes de cette nou­velle physique.

Une autre pos­si­bi­li­té, appa­rue récem­ment, évoque l’exis­tence de dimen­sions sup­plé­men­taires de l’es­pace-temps (en plus des 4 habi­tuelles), acces­sibles dès l’éner­gie du LHC. On ver­rait ain­si des par­ti­cules pro­duites dans les col­li­sions, dis­pa­raître dans une 5e ou 6è dimension !

Conclusion

La recherche de « l’élé­men­taire » est un sujet en pleine forme. L’ap­proche du démar­rage de LHC, les rap­pro­che­ments avec la cos­mo­lo­gie, les nou­velles pers­pec­tives dans le domaine des neu­tri­nos nous pro­mettent une décen­nie riche de décou­vertes expé­ri­men­tales et d’a­van­cées intel­lec­tuelles. Si le but de cette recherche est avant tout l’ac­crois­se­ment des connais­sances, les déve­lop­pe­ments tech­no­lo­giques qui l’ac­com­pagnent (dont le plus reten­tis­sant est l’in­ven­tion du Web au Cern) sont aus­si un apport immé­diat à la société.

Poster un commentaire