Les constantes fondamentales, à la base de la métrologie moderne
On assiste à une révolution silencieuse de la métrologie où la mécanique quantique joue un rôle de plus en plus important. Les incertitudes concernant les différentes approches en compétition laissent prévoir de fortes évolutions de la métrologie à partir des constantes fondamentales de l’univers.
Repères
Le système métrique naît sous la Révolution française avec l’idée-force de mettre en place un système d’unités universel, accessible à tous les peuples de tous les temps. La dimension de la Terre, les propriétés de l’eau apparaissent alors comme une base universelle mais sont vite dénoncées par Maxwell comme moins universelles que les propriétés des molécules elles-mêmes. L’étape suivante est franchie par Johnstone-Stoney, puis par Planck, qui montrent qu’on peut aller encore plus loin et fonder un système d’unités uniquement sur un jeu de constantes fondamentales issues de la physique théorique. Il en résulte un long divorce entre les exigences pratiques de la métrologie instrumentale et le rêve des physiciens théoriciens.
Un ensemble de découvertes et de nouvelles technologies permet de penser que la liaison est possible. Il existe donc à nouveau une tendance forte à rattacher les unités de base à des constantes fondamentales et le débat est ouvert quant à la pertinence, l’opportunité et la formulation de nouvelles définitions.
Cet article est tiré d’une communication faite à l’Académie des sciences par Christian Bordé, membre de l’Académie des sciences.
www.academie-sciences.fr/publications/lettre/pdf/lettre_20.pdf
Le système international comporte sept unités de base en cours d’évolution : le mètre a déjà été redéfini à partir de la seconde et la vitesse de la lumière ; le kilogramme, défini par un artefact de platine iridié, pourrait être redéfini à relativement court terme à partir de la constante de Planck ; les unités électriques ont pris leur indépendance vis-à-vis de l’ampère en retenant pour les constantes de Josephson et de von Klitzing des valeurs conventionnelles ; le kelvin utilise le point triple de l’eau, alors qu’il serait bien plus satisfaisant de fixer la constante de Boltzmann ;
Les nouvelles technologies permettent de relier unités et constantes fondamentales
la candela n’est qu’une unité dérivée de flux énergétique ; la mole est définie à partir de la masse de l’atome de carbone par un nombre sans dimension, le nombre d’Avogadro, celui-ci devrait être mieux déterminé pour permettre une alternative à la redéfinition de l’unité de masse, dans laquelle il serait fixé ; la seconde pourrait à plus long terme être mieux définie à partir d’une horloge optique, ce qui permettrait de la relier à la constante de Rydberg et, peut-être un jour, à la masse de l’électron.
On a donc un ensemble disparate de définitions. Le lien direct entre la définition d’une unité de base à partir d’une constante fondamentale, sa mise en oeuvre pratique et une découverte scientifique majeure est bien illustré dans le cas du mètre et de sa redéfinition. C’est l’archétype d’une démarche qui peut servir de modèle à une redéfinition des autres unités.
L’exemple du mètre
Le mètre est l’exemple le plus connu d’une unité de base pour laquelle une nouvelle définition s’est imposée à partir d’une constante fondamentale, la vitesse de la lumière. Les coordonnées d’espace et de temps sont liées naturellement dans le cadre conceptuel de la théorie de la relativité (où intervient la vitesse de la lumière). Elle a pu servir à redéfinir l’unité de longueur à partir de l’unité de temps parce que l’optique moderne permet une incertitude relative inférieure à celle des meilleures mesures de longueurs, mais aussi parce que les mêmes techniques sont applicables de façon pratique et quotidienne.
En 1960 le mètre avait été redéfini à partir de la radiation fournie par la lampe à krypton. La découverte des lasers, en 1959, a permis de poursuivre résolument dans cette direction. L’apparition de nouvelles méthodes a permis de mesurer la fréquence de ces sources lumineuses directement à partir de l’horloge à césium. Partant de là, la vitesse de la lumière a pu être mesurée avec une incertitude suffisamment faible aboutissant en 1983 à rattacher le mètre à la seconde. Cette démarche peut-elle être généralisée ? Quelles sont les constantes fondamentales disponibles pour les autres unités ?
Les constantes fondamentales
Réduire le nombre d’unités indépendantes
Il est possible, comme dans le cas du mètre, de relier l’unité de masse à l’unité de temps. En effet, la théorie de la relativité nous permet d’interpréter la masse m d’un objet comme son énergie interne, donnée par la fameuse relation E = mc2. Quelques considérations, trop complexes pour être rapportées ici, montrent qu’il suffit de mesurer une fréquence, dire fréquence de De Broglie-Compton, mesurable directement dans le cas de particules microscopiques, telles que les atomes et les molécules, par les techniques d’interférométrie atomique. Partant de là, on peut relier l’unité de masse à celle de temps. L’unité de masse serait alors définie en fixant cette fréquence, ce qui revient à fixer la constante de Planck.
Les constantes fondamentales sont toutes issues des grandes théories de la physique moderne : relativité, mécanique quantique, mécanique statistique, théorie des champs, théorie des cordes. Elles appartiennent à deux catégories bien distinctes.
D’une part, les constantes de conversion. Elles relient des grandeurs qui recouvrent la même réalité physique. Un exemple bien connu est l’équivalence entre chaleur et travail qui a conduit à l’équivalent mécanique de la calorie : 4,18 joules par calorie.
D’autre part, la nature nous impose la valeur de rapports sans dimension, par exemple les constantes de couplage liées aux interactions fondamentales. La plus connue est la constante de structure fine qui décrit le couplage de la matière avec le champ électromagnétique. La valeur de ces constantes est indépendante du système d’unités.
La redéfinition du kilogramme
Depuis 1889, l’unité de masse est la masse du prototype international, cylindre de platine iridié appelé K et conservé dans un caveau du Pavillon de Breteuil à Sèvres en compagnie de six témoins. Il serait bien plus satisfaisant de partir de la masse d’une particule microscopique (atome ou électron) a priori reproductible et de remonter à l’échelle macroscopique. Mais si les masses se comparent très bien entre elles à l’échelle macroscopique ou à l’échelle atomique, toute la difficulté réside dans le raccordement de ces deux échelles. Il faut donc réaliser un objet dont le nombre d’atomes soit connu et dont la masse puisse être comparée à celle du kilogramme étalon. Cela revient à déterminer le nombre d’Avogadro NA qui définit la mole.
Les constantes fondamentales sont toutes issues des théories de la physique moderne
La mole est une quantité d’objets microscopiques définie comme un nombre conventionnel d’entités identiques. Ce nombre sans dimension a été choisi arbitrairement égal au nombre d’atomes, supposés isolés, au repos et dans leur état fondamental, contenus dans 0,012 kg de carbone 12. C’est donc, à un facteur numérique 0,012 près, le rapport sans dimension de la masse du kilogramme étalon à la masse de l’atome de carbone. Ce nombre et cette constante ne sont ni plus ni moins qu’une autre façon d’exprimer la masse de l’atome de carbone ou son douzième.
Il existe un programme international pour la détermination du nombre d’Avogadro à partir de la connaissance d’une sphère de silicium sous tous ses » angles » (dimension, masse, volume de la maille, composition isotopique, état de surface, etc.). Il aboutirait à une détermination du nombre d’Avogadro avec une exactitude compatible avec une redéfinition du kilogramme. Celui-ci serait alors défini à partir de la masse d’une particule élémentaire.
Fixer la charge de l’électron
Avant le mètre, l’ampère est historiquement le premier exemple d’une unité définie à partir d’une constante fondamentale, la perméabilité magnétique du vide µ0 (1948). La combinaison de ces deux définitions fixe donc l’ensemble des propriétés de propagation des ondes électromagnétiques dans le vide : vitesse c et impédance Z0 = µ0c.
Dans la pratique, les reproductibilités des effets Josephson et Hall quantiques sont à un niveau tel que les mesures électriques utilisent aujourd’hui ces effets sans autre raccordement à la définition de l’ampère. Si la constante de Planck était fixée, la tentation serait donc grande pour les électriciens de fixer la charge de l’électron plutôt que la charge de Planck, avec l’arrière-pensée de fixer ainsi les constantes de Josephson et de von Klitzing.
L’effet tunnel permet de compter les électrons un par un
La métrologie électrique quantique est en train de connaître une troisième révolution avec l’effet tunnel à un électron permettant de compter les électrons un par un. La loi d’Ohm devient alors une égalité entre fréquences : une différence de potentiel est exprimée comme une fréquence Josephson, un courant comme un nombre d’électrons par seconde et les résistances électriques rapportées à la résistance de von Klitzing sont sans dimension.
L’unité de température
La mécanique statistique nous permet de passer des probabilités à l’entropie grâce à une autre constante fondamentale, la constante de Boltzmann kB.
Actuellement, l’échelle des températures est arbitrairement définie par le point triple de l’eau, phénomène certes naturel mais néanmoins très éloigné des constantes fondamentales. Par analogie avec le cas de la constante de Planck, il paraît naturel de proposer de fixer la constante de Boltzmann kB. Les variables conjuguées sont le temps et l’inverse de la température, avec les deux constantes fondamentales associées que sont le quantum d’action h et le quantum d’information kB. Celles-ci interviennent toutes deux en mécanique quantique statistique par leur rapport kB/h. Certaines mesures actuellement à l’étude permettent d’espérer une incertitude suffisamment faible pour arriver à une nouvelle définition du kelvin à partir de la constante de Boltzmann. Sur le principe, cette redéfinition ne semble pas rencontrer d’opposition et pourrait se faire dès que l’exactitude requise sera au rendez-vous.
La mesure du temps
Les horloges optiques
Parmi les révolutions récentes, citons les horloges optiques qui, associées aux peignes de fréquence fournis par les lasers femtosecondes (J. L. Hall et T. Haensch, prix Nobel 2005), permettront de compter mieux et plus vite et ont de bonnes chances de supplanter les horloges micro-ondes à l’avenir.
L’exactitude des horloges atomiques gagne un facteur 10 tous les dix ans et leur exactitude est aujourd’hui de l’ordre de 10-15. Grâce à ce très haut niveau d’exactitude, la mesure du temps tire vers le haut les autres mesures, qui se ramènent le plus souvent à une mesure de temps ou de fréquence. Elle s’enracine dans la physique atomique la plus avancée (atomes froids) et a aussi des applications au quotidien, en particulier pour les systèmes satellitaires globaux de navigation tels que le GPS. Les équipes françaises ont fait œuvre de pionnier dans l’utilisation des atomes froids pour la réalisation d’horloges sous forme de fontaines atomiques.
Quel sera le rôle du spatial pour comparer les horloges et distribuer le temps ? L’utilisation des horloges sur Terre sera forcément limitée à 10-17 par méconnaissance du potentiel de gravitation terrestre. Il faudra alors disposer d’une horloge de référence en orbite. Qui seront les maîtres du temps dans l’avenir ? Les futures redéfinitions possibles de la seconde constituent un débat ouvert. Y aura-t-il pour la seconde comme pour le mètre une définition universelle assortie d’une mise en pratique et de réalisations secondaires ? Cela pose, comme pour le mètre, le problème de la variation possible des constantes fondamentales qui affecterait différemment les différentes transitions retenues.
Sera-t-il possible de rattacher formellement l’unité de temps à une constante fondamentale ? Il serait prématuré de l’envisager mais il faut bien prendre conscience qu’il existe un lien implicite entre la définition de l’unité de temps et ces constantes fondamentales.
Une révolution silencieuse
On assiste à une révolution silencieuse de la métrologie où la mécanique quantique joue un rôle de plus en plus important.
On a clairement une compétition entre deux schémas pour la définition de l’unité de masse : dans le premier de ces schémas, la constante de Planck est fixée et la balance du watt permet la mesure commode des masses ; dans le deuxième, le nombre d’Avogadro est déterminé et fixé et l’unité de masse est définie à partir d’une masse élémentaire telle que celle de l’électron.
En ce qui concerne les unités électriques, faut-il fixer la charge du positron e ou bien la charge de Planck qP ? Le rapport de ces deux charges étant la racine carrée de la constante de structure fine, l’incertitude correspondante se trouvera reportée sur la charge qui n’aura pas été fixée.
Tous ces choix font l’objet d’études et de découvertes qui seront mises en œuvre pour la réforme de 2011 de la Conférence générale des poids et mesures (CGPM).
La seule chose que l’on sache aujourd’hui c’est que les incertitudes concernant les différentes approches laissent prévoir de fortes évolutions de la métrologie à partir des constantes fondamentales.