Les réacteurs à fusion ? Plus tôt que vous ne le croyez !
par Benoit Chalifoux et Karel Vereycken
« Je n’y crois plus, car cela fait 50 ans qu’on nous dit qu’il faut 50 ans pour maîtriser la fusion thermonucléaire contrôlée. »
C’est avec cette phrase cynique qu’on nous cache une vérité qui dérange le lobby financier et malthusien : en dépit d’investissements dérisoires, la science n’a cessé de progresser vers la possibilité de voir un jour l’humanité disposer d’une énergie quasi-illimitée et bon marché, lui permettant de s’affranchir des limites des ressources et de sa biosphère.
Il est n’est pas inutile de répéter que l’avenir de l’humanité dépend exclusivement de sa capacité à faire des bonds qualitatifs dans sa maîtrise de l’énergie. La caractéristique de ces bonds est l’augmentation de la densité du flux d’énergie, qui se mesure à la capacité d’extraire plus d’énergie d’un combustible donné et à la capacité de cette énergie, grâce à des technologies plus avancées, de fournir plus de travail pour subvenir aux besoins d’une humanité toujours en croissance.
Mettre le Soleil en bouteille
Vers 1920, Jean Perrin puis Arthur Eddington furent les premiers à avancer l’idée que ce sont des réactions de fusion qui font briller les étoiles. La fusion de l’hydrogène, on l’admire tous les jours en contemplant le Soleil. Cette étoile, où règne une température de 15 millions de degrés, est composée à 75 % d’hydrogène et à 24 % d’hélium.
Le modèle atomique actuel part de l’idée que chaque atome est composé d’un noyau formé de protons et de neutrons, autour duquel orbitent des électrons, le tout étant maintenu ensemble par une énergie de liaison nucléaire. C’est la rupture de cette énergie de liaison qui va libérer l’énergie. On peut l’obtenir soit en provoquant la fission du noyau d’un élément lourd (uranium), soit en organisant la fusion de deux noyaux d’un élément léger (hydrogène).
À la température à laquelle la fusion est susceptible de se produire, la matière est à l’état de gaz ionisé, un quatrième état de la matière qu’on appelle plasma. La grande agitation des ions et des électrons y produit de nombreuses collisions entre les particules. Pour qu’elles soient assez violentes pour entraîner une fusion, trois éléments interviennent : la température, la densité et le temps de la réaction. Lorsque le produit de ces trois paramètres arrive à dépasser un certain seuil, baptisé le critère de Lawson, nous atteignons ce que les chercheurs appellent le break-even. C’est le moment à partir duquel on produit plus d’énergie qu’on en dépense pour déclencher la réaction.
La bombe H
Comme souvent dans l’histoire, c’est d’abord dans le domaine militaire que s’organisent des sauts technologiques. Ainsi, la première expérience avec la fusion a été l’explosion de la « bombe H » (bombe à hydrogène) en 1952. Au cœur du dispositif, quelques grammes de deutérium et une mini-bombe atomique comme détonateur.
L’enjeu est maintenant de maîtriser la fusion sous forme d’un processus contrôlé, de sorte que l’on puisse l’utiliser pour le progrès de l’humanité. Dans la foulée du choc pétrolier des années 1970, des politiques et des chercheurs avaient décidé d’accélérer les recherches sur la fission et la fusion afin d’augmenter la quantité et la qualité des ressources disponibles, mais les moyens financiers n’ont pas suivi.
Est-ce que sera facile ? Certainement pas ! La complexité de tout ce qui touche à la fusion, à l’instar du domaine spatial, agira toutefois comme un moteur pour l’industrie, permettant de faire progresser les connaissances des uns et des autres. Ce qui compte n’est donc pas tel ou tel bel objet ou filière en tant que telle, mais la route excitante qui nous conduit toujours plus loin.
L’état actuel des recherches
Les recherches menées depuis près de 50 ans sur la fusion thermonucléaire contrôlée ont porté sur une bonne dizaine de filières technologiques, dont cinq principales sont aujourd’hui privilégiées pour arriver au « break-even », le seuil où la quantité d’énergie libérée par la réaction équivaut au moins à la quantité d’énergie d’introduite (figure 1).
Figure 1.Schéma montrant la progression des tokamaks construits ou en projet, depuis le premier tokamak russe (T3) en 1968, suivi des machines françaises (TFR), américaines (TFTR et DIII-D), allemandes, japonaises (JT-60), jusqu’à ITER. Les derniers tokamaks chinois (EAST) et coréens (K-STAR) ne sont pas inclus, de même que le stellarator allemand Wendelstein 7-X. Les pastilles blanches indiquent des machines utilisant du deutérium-tritium. La Z-machine, le NIF et le LMJ, qui ne sont pas des tokamaks et ne sont pas soumises exactement aux mêmes critères, sont montrées à titre indicatifs. Tous ces nouveaux réacteurs doivent cependant franchir le seuil fatidique du break-even dans la décennie. Ces filières se définissent essentiellement par le principe physique de base auquel elles font appel et sont regroupées au sein de deux grands groupes.
Le premier type fait appel au confinent magnétique, qui consiste à maintenir un plasma très chaud (de l’ordre de 150 millions de degrés) à un niveau de densité donné (10 puissance 20 atomes par m³), et ce suffisamment longtemps pour donner le temps aux atomes de fusionner. Etant donné qu’aucun contenant ne peut résister à de telles températures, les scientifiques ont imaginé de puissants champs magnétiques pour confiner le plasma ionisé.
Ceci a donné naissance à quelques familles de machines, dont les plus connues sont les tokamaks et les stellarators.
Le tokamak
Les tokamaks sont les machines à confinement magnétique les plus nombreuses dans le monde aujourd’hui car elles ont permis, dès leur invention en Russie à la fin des années 60, d’obtenir des plasmas de température et de densité plus élevées qu’avec les filières étudiées jusque là.
La recherche sur la physique des plasmas entre alors en effervescence et une centaine de tokamaks expérimentaux verront le jour. Vers 1974, le tokamak le plus performant au monde était celui de Fontenay-aux-Roses (TFR) avec 1 mètre cube de plasma. Il a fonctionné jusqu’en 1986. En s’appuyant sur lui et sur d’autres expériences de l’époque, les spécialistes ont construit des machines plus performantes, notamment le Joint European Torus (JET) installé en Angleterre, d’un volume cent fois supérieur à celui du TFR. Hormis le JET, seul le TFTR, avec 25 mètres cubes de plasma, situé à Princeton aux Etats-Unis, a été conçu pour travailler avec un mélange deutérium-tritium.
Mais les durées de confinement restaient limitées à une fraction de seconde à quelques secondes. Or, un futur réacteur devrait fonctionner en continu. Pour relever le défi, l’Europe s’est dotée de Tore Supra, exploité depuis 1988 par les équipes du CEA à Cadarache. Alors que le JET a établi en 1997 le record mondial de puissance de fusion avec 16 MW, Tore Supra a obtenu, le 4 décembre 2003, le record mondial de durée de confinement avec 6 minutes et 30 secondes. Des performances qu’il devait en particulier à son système d’aimants supraconducteurs en alliage de niobium et de titane refroidi à - 271 degrés (très proche du zéro absolu), une technologie alors unique au monde, développée en France.
Ce sont les avancées obtenues par Tore Supra qui ont servi de modèle au projet ITER.
La nouvelle génération de tokamaks actuellement en développement dans le monde (en Chine, en Corée, au Japon, en Russie et ITER en France, voir tableau page suivante) fait appel à la supraconductivité, qui permet d’éviter les surchauffes et de fonctionner plus longtemps (et donc d’allonger le temps de confinement) en générant des champs magnétiques plus puissants avec des courants électriques beaucoup plus faibles.
Les tokamaks fonctionnent sur la base de deux champs magnétiques indépendants, baptisés champ poloïdal (dont les lignes sont verticales et passent par les pôles, et champ toroïdal (suivant le plan horizontal du tore) (voir figure 2). L’inconvénient est que le champ poloïdal ne peut être qu’induit, c’est-à-dire généré à partir d’un courant d’intensité variable, forçant un fonctionnement en mode cyclique. Il faudra par conséquent trouver des moyens pour rendre le courant plus régulier.
par Benoit Chalifoux et Karel Vereycken
« Je n’y crois plus, car cela fait 50 ans qu’on nous dit qu’il faut 50 ans pour maîtriser la fusion thermonucléaire contrôlée. »
C’est avec cette phrase cynique qu’on nous cache une vérité qui dérange le lobby financier et malthusien : en dépit d’investissements dérisoires, la science n’a cessé de progresser vers la possibilité de voir un jour l’humanité disposer d’une énergie quasi-illimitée et bon marché, lui permettant de s’affranchir des limites des ressources et de sa biosphère.
Il est n’est pas inutile de répéter que l’avenir de l’humanité dépend exclusivement de sa capacité à faire des bonds qualitatifs dans sa maîtrise de l’énergie. La caractéristique de ces bonds est l’augmentation de la densité du flux d’énergie, qui se mesure à la capacité d’extraire plus d’énergie d’un combustible donné et à la capacité de cette énergie, grâce à des technologies plus avancées, de fournir plus de travail pour subvenir aux besoins d’une humanité toujours en croissance.
Mettre le Soleil en bouteille
Vers 1920, Jean Perrin puis Arthur Eddington furent les premiers à avancer l’idée que ce sont des réactions de fusion qui font briller les étoiles. La fusion de l’hydrogène, on l’admire tous les jours en contemplant le Soleil. Cette étoile, où règne une température de 15 millions de degrés, est composée à 75 % d’hydrogène et à 24 % d’hélium.
Le modèle atomique actuel part de l’idée que chaque atome est composé d’un noyau formé de protons et de neutrons, autour duquel orbitent des électrons, le tout étant maintenu ensemble par une énergie de liaison nucléaire. C’est la rupture de cette énergie de liaison qui va libérer l’énergie. On peut l’obtenir soit en provoquant la fission du noyau d’un élément lourd (uranium), soit en organisant la fusion de deux noyaux d’un élément léger (hydrogène).
À la température à laquelle la fusion est susceptible de se produire, la matière est à l’état de gaz ionisé, un quatrième état de la matière qu’on appelle plasma. La grande agitation des ions et des électrons y produit de nombreuses collisions entre les particules. Pour qu’elles soient assez violentes pour entraîner une fusion, trois éléments interviennent : la température, la densité et le temps de la réaction. Lorsque le produit de ces trois paramètres arrive à dépasser un certain seuil, baptisé le critère de Lawson, nous atteignons ce que les chercheurs appellent le break-even. C’est le moment à partir duquel on produit plus d’énergie qu’on en dépense pour déclencher la réaction.
La bombe H
Comme souvent dans l’histoire, c’est d’abord dans le domaine militaire que s’organisent des sauts technologiques. Ainsi, la première expérience avec la fusion a été l’explosion de la « bombe H » (bombe à hydrogène) en 1952. Au cœur du dispositif, quelques grammes de deutérium et une mini-bombe atomique comme détonateur.
L’enjeu est maintenant de maîtriser la fusion sous forme d’un processus contrôlé, de sorte que l’on puisse l’utiliser pour le progrès de l’humanité. Dans la foulée du choc pétrolier des années 1970, des politiques et des chercheurs avaient décidé d’accélérer les recherches sur la fission et la fusion afin d’augmenter la quantité et la qualité des ressources disponibles, mais les moyens financiers n’ont pas suivi.
Est-ce que sera facile ? Certainement pas ! La complexité de tout ce qui touche à la fusion, à l’instar du domaine spatial, agira toutefois comme un moteur pour l’industrie, permettant de faire progresser les connaissances des uns et des autres. Ce qui compte n’est donc pas tel ou tel bel objet ou filière en tant que telle, mais la route excitante qui nous conduit toujours plus loin.
L’état actuel des recherches
Les recherches menées depuis près de 50 ans sur la fusion thermonucléaire contrôlée ont porté sur une bonne dizaine de filières technologiques, dont cinq principales sont aujourd’hui privilégiées pour arriver au « break-even », le seuil où la quantité d’énergie libérée par la réaction équivaut au moins à la quantité d’énergie d’introduite (figure 1).
Figure 1.Schéma montrant la progression des tokamaks construits ou en projet, depuis le premier tokamak russe (T3) en 1968, suivi des machines françaises (TFR), américaines (TFTR et DIII-D), allemandes, japonaises (JT-60), jusqu’à ITER. Les derniers tokamaks chinois (EAST) et coréens (K-STAR) ne sont pas inclus, de même que le stellarator allemand Wendelstein 7-X. Les pastilles blanches indiquent des machines utilisant du deutérium-tritium. La Z-machine, le NIF et le LMJ, qui ne sont pas des tokamaks et ne sont pas soumises exactement aux mêmes critères, sont montrées à titre indicatifs. Tous ces nouveaux réacteurs doivent cependant franchir le seuil fatidique du break-even dans la décennie. Ces filières se définissent essentiellement par le principe physique de base auquel elles font appel et sont regroupées au sein de deux grands groupes.
Le premier type fait appel au confinent magnétique, qui consiste à maintenir un plasma très chaud (de l’ordre de 150 millions de degrés) à un niveau de densité donné (10 puissance 20 atomes par m³), et ce suffisamment longtemps pour donner le temps aux atomes de fusionner. Etant donné qu’aucun contenant ne peut résister à de telles températures, les scientifiques ont imaginé de puissants champs magnétiques pour confiner le plasma ionisé.
Ceci a donné naissance à quelques familles de machines, dont les plus connues sont les tokamaks et les stellarators.
Le tokamak
Les tokamaks sont les machines à confinement magnétique les plus nombreuses dans le monde aujourd’hui car elles ont permis, dès leur invention en Russie à la fin des années 60, d’obtenir des plasmas de température et de densité plus élevées qu’avec les filières étudiées jusque là.
La recherche sur la physique des plasmas entre alors en effervescence et une centaine de tokamaks expérimentaux verront le jour. Vers 1974, le tokamak le plus performant au monde était celui de Fontenay-aux-Roses (TFR) avec 1 mètre cube de plasma. Il a fonctionné jusqu’en 1986. En s’appuyant sur lui et sur d’autres expériences de l’époque, les spécialistes ont construit des machines plus performantes, notamment le Joint European Torus (JET) installé en Angleterre, d’un volume cent fois supérieur à celui du TFR. Hormis le JET, seul le TFTR, avec 25 mètres cubes de plasma, situé à Princeton aux Etats-Unis, a été conçu pour travailler avec un mélange deutérium-tritium.
Mais les durées de confinement restaient limitées à une fraction de seconde à quelques secondes. Or, un futur réacteur devrait fonctionner en continu. Pour relever le défi, l’Europe s’est dotée de Tore Supra, exploité depuis 1988 par les équipes du CEA à Cadarache. Alors que le JET a établi en 1997 le record mondial de puissance de fusion avec 16 MW, Tore Supra a obtenu, le 4 décembre 2003, le record mondial de durée de confinement avec 6 minutes et 30 secondes. Des performances qu’il devait en particulier à son système d’aimants supraconducteurs en alliage de niobium et de titane refroidi à - 271 degrés (très proche du zéro absolu), une technologie alors unique au monde, développée en France.
Ce sont les avancées obtenues par Tore Supra qui ont servi de modèle au projet ITER.
La nouvelle génération de tokamaks actuellement en développement dans le monde (en Chine, en Corée, au Japon, en Russie et ITER en France, voir tableau page suivante) fait appel à la supraconductivité, qui permet d’éviter les surchauffes et de fonctionner plus longtemps (et donc d’allonger le temps de confinement) en générant des champs magnétiques plus puissants avec des courants électriques beaucoup plus faibles.
Les tokamaks fonctionnent sur la base de deux champs magnétiques indépendants, baptisés champ poloïdal (dont les lignes sont verticales et passent par les pôles, et champ toroïdal (suivant le plan horizontal du tore) (voir figure 2). L’inconvénient est que le champ poloïdal ne peut être qu’induit, c’est-à-dire généré à partir d’un courant d’intensité variable, forçant un fonctionnement en mode cyclique. Il faudra par conséquent trouver des moyens pour rendre le courant plus régulier.
Commentaire