Annonce

Réduire
Aucune annonce.

Les réacteurs à fusion ? Plus tôt que vous ne le croyez !

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Les réacteurs à fusion ? Plus tôt que vous ne le croyez !

    Les réacteurs à fusion ? Plus tôt que vous ne le croyez !


    par Benoit Chalifoux et Karel Vereycken
    « Je n’y crois plus, car cela fait 50 ans qu’on nous dit qu’il faut 50 ans pour maîtriser la fusion thermonucléaire contrôlée. »
    C’est avec cette phrase cynique qu’on nous cache une vérité qui dérange le lobby financier et malthusien : en dépit d’investissements dérisoires, la science n’a cessé de progresser vers la possibilité de voir un jour l’humanité disposer d’une énergie quasi-illimitée et bon marché, lui permettant de s’affranchir des limites des ressources et de sa biosphère.
    Il est n’est pas inutile de répéter que l’avenir de l’humanité dépend exclusivement de sa capacité à faire des bonds qualitatifs dans sa maîtrise de l’énergie. La caractéristique de ces bonds est l’augmentation de la densité du flux d’énergie, qui se mesure à la capacité d’extraire plus d’énergie d’un combustible donné et à la capacité de cette énergie, grâce à des technologies plus avancées, de fournir plus de travail pour subvenir aux besoins d’une humanité toujours en croissance.
    Mettre le Soleil en bouteille

    Vers 1920, Jean Perrin puis Arthur Eddington furent les premiers à avancer l’idée que ce sont des réactions de fusion qui font briller les étoiles. La fusion de l’hydrogène, on l’admire tous les jours en contemplant le Soleil. Cette étoile, où règne une température de 15 millions de degrés, est composée à 75 % d’hydrogène et à 24 % d’hélium.
    Le modèle atomique actuel part de l’idée que chaque atome est composé d’un noyau formé de protons et de neutrons, autour duquel orbitent des électrons, le tout étant maintenu ensemble par une énergie de liaison nucléaire. C’est la rupture de cette énergie de liaison qui va libérer l’énergie. On peut l’obtenir soit en provoquant la fission du noyau d’un élément lourd (uranium), soit en organisant la fusion de deux noyaux d’un élément léger (hydrogène).
    À la température à laquelle la fusion est susceptible de se produire, la matière est à l’état de gaz ionisé, un quatrième état de la matière qu’on appelle plasma. La grande agitation des ions et des électrons y produit de nombreuses collisions entre les particules. Pour qu’elles soient assez violentes pour entraîner une fusion, trois éléments interviennent : la température, la densité et le temps de la réaction. Lorsque le produit de ces trois paramètres arrive à dépasser un certain seuil, baptisé le critère de Lawson, nous atteignons ce que les chercheurs appellent le break-even. C’est le moment à partir duquel on produit plus d’énergie qu’on en dépense pour déclencher la réaction.
    La bombe H

    Comme souvent dans l’histoire, c’est d’abord dans le domaine militaire que s’organisent des sauts technologiques. Ainsi, la première expérience avec la fusion a été l’explosion de la « bombe H » (bombe à hydrogène) en 1952. Au cœur du dispositif, quelques grammes de deutérium et une mini-bombe atomique comme détonateur.
    L’enjeu est maintenant de maîtriser la fusion sous forme d’un processus contrôlé, de sorte que l’on puisse l’utiliser pour le progrès de l’humanité. Dans la foulée du choc pétrolier des années 1970, des politiques et des chercheurs avaient décidé d’accélérer les recherches sur la fission et la fusion afin d’augmenter la quantité et la qualité des ressources disponibles, mais les moyens financiers n’ont pas suivi.
    Est-ce que sera facile ? Certainement pas ! La complexité de tout ce qui touche à la fusion, à l’instar du domaine spatial, agira toutefois comme un moteur pour l’industrie, permettant de faire progresser les connaissances des uns et des autres. Ce qui compte n’est donc pas tel ou tel bel objet ou filière en tant que telle, mais la route excitante qui nous conduit toujours plus loin.
    L’état actuel des recherches

    Les recherches menées depuis près de 50 ans sur la fusion thermonucléaire contrôlée ont porté sur une bonne dizaine de filières technologiques, dont cinq principales sont aujourd’hui privilégiées pour arriver au « break-even », le seuil où la quantité d’énergie libérée par la réaction équivaut au moins à la quantité d’énergie d’introduite (figure 1).
    Figure 1.Schéma montrant la progression des tokamaks construits ou en projet, depuis le premier tokamak russe (T3) en 1968, suivi des machines françaises (TFR), américaines (TFTR et DIII-D), allemandes, japonaises (JT-60), jusqu’à ITER. Les derniers tokamaks chinois (EAST) et coréens (K-STAR) ne sont pas inclus, de même que le stellarator allemand Wendelstein 7-X. Les pastilles blanches indiquent des machines utilisant du deutérium-tritium. La Z-machine, le NIF et le LMJ, qui ne sont pas des tokamaks et ne sont pas soumises exactement aux mêmes critères, sont montrées à titre indicatifs. Tous ces nouveaux réacteurs doivent cependant franchir le seuil fatidique du break-even dans la décennie. Ces filières se définissent essentiellement par le principe physique de base auquel elles font appel et sont regroupées au sein de deux grands groupes.
    Le premier type fait appel au confinent magnétique, qui consiste à maintenir un plasma très chaud (de l’ordre de 150 millions de degrés) à un niveau de densité donné (10 puissance 20 atomes par m³), et ce suffisamment longtemps pour donner le temps aux atomes de fusionner. Etant donné qu’aucun contenant ne peut résister à de telles températures, les scientifiques ont imaginé de puissants champs magnétiques pour confiner le plasma ionisé.
    Ceci a donné naissance à quelques familles de machines, dont les plus connues sont les tokamaks et les stellarators.
    Le tokamak

    Les tokamaks sont les machines à confinement magnétique les plus nombreuses dans le monde aujourd’hui car elles ont permis, dès leur invention en Russie à la fin des années 60, d’obtenir des plasmas de température et de densité plus élevées qu’avec les filières étudiées jusque là.
    La recherche sur la physique des plasmas entre alors en effervescence et une centaine de tokamaks expérimentaux verront le jour. Vers 1974, le tokamak le plus performant au monde était celui de Fontenay-aux-Roses (TFR) avec 1 mètre cube de plasma. Il a fonctionné jusqu’en 1986. En s’appuyant sur lui et sur d’autres expériences de l’époque, les spécialistes ont construit des machines plus performantes, notamment le Joint European Torus (JET) installé en Angleterre, d’un volume cent fois supérieur à celui du TFR. Hormis le JET, seul le TFTR, avec 25 mètres cubes de plasma, situé à Princeton aux Etats-Unis, a été conçu pour travailler avec un mélange deutérium-tritium.
    Mais les durées de confinement restaient limitées à une fraction de seconde à quelques secondes. Or, un futur réacteur devrait fonctionner en continu. Pour relever le défi, l’Europe s’est dotée de Tore Supra, exploité depuis 1988 par les équipes du CEA à Cadarache. Alors que le JET a établi en 1997 le record mondial de puissance de fusion avec 16 MW, Tore Supra a obtenu, le 4 décembre 2003, le record mondial de durée de confinement avec 6 minutes et 30 secondes. Des performances qu’il devait en particulier à son système d’aimants supraconducteurs en alliage de niobium et de titane refroidi à - 271 degrés (très proche du zéro absolu), une technologie alors unique au monde, développée en France.
    Ce sont les avancées obtenues par Tore Supra qui ont servi de modèle au projet ITER.
    La nouvelle génération de tokamaks actuellement en développement dans le monde (en Chine, en Corée, au Japon, en Russie et ITER en France, voir tableau page suivante) fait appel à la supraconductivité, qui permet d’éviter les surchauffes et de fonctionner plus longtemps (et donc d’allonger le temps de confinement) en générant des champs magnétiques plus puissants avec des courants électriques beaucoup plus faibles.
    Les tokamaks fonctionnent sur la base de deux champs magnétiques indépendants, baptisés champ poloïdal (dont les lignes sont verticales et passent par les pôles, et champ toroïdal (suivant le plan horizontal du tore) (voir figure 2). L’inconvénient est que le champ poloïdal ne peut être qu’induit, c’est-à-dire généré à partir d’un courant d’intensité variable, forçant un fonctionnement en mode cyclique. Il faudra par conséquent trouver des moyens pour rendre le courant plus régulier.

  • #2
    Figure 2.Schéma d’ITER montrant les divers types de bobines nécessaires pour contenir le plasma. Le projet ITER est le premier grand projet d’envergure en termes de collaboration internationale sur la fusion. Il avait été proposé dès les années 1970 par le scientifique russe Eugène P. Velikhov, une idée qui a été reprise une dizaine d’années plus tard, en 1985, au cours d’un sommet entre les chefs d’Etat Gorbatchev et Reagan. Velikhov est aujourd’hui le président du Conseil international d’ITER.
    Le projet ITER disposera d’une chambre à vide de 840 mètres cubes, deux fois plus grande que celle des tokamaks existants. Un centimètre cube de gaz de deutérium et de tritium (environ un gramme) y sera introduit et confiné pour une période de 5 secondes, soit cinq millions de fois plus longtemps que lors des débuts de la recherche sur la fusion il y a 50 ans.
    Ce gaz sera ensuite chauffé à 150 millions de degrés, afin d’agiter suffisamment les atomes pour qu’ils puissent entrer en fusion. On a choisi ici une température 10 fois plus élevée que celle régnant au centre du Soleil, car on ne peut atteindre des temps de confinement aussi long que ceux existant au centre des étoiles. Une température plus élevée nous dispense également d’accroître trop la densité car à partir d’un certain point un étrange processus se manifeste, appelé effet bremsstrahlung, où une partie de l’énergie est convertie en rayonnement par l’interaction entre les électrons et les ions présents dans le plasma. Cette énergie diminue le niveau d’agitation des ions et s’évade du réacteur sans que l’on puisse la récupérer pour produire de l’électricité.
    Grâce à sa taille immense, on espère qu’ITER pourra dépasser le break-even, c’est-à-dire générer 500 MW d’énergie à partir d’un apport externe de 50 MW, pour des impulsions de 1000 secondes ou plus. Il pourra ainsi générer dix fois plus de puissance qu’il n’en aura reçue. Comme le notait le magazine La Recherche en 1997, avant ITER, « chacun des paramètres avait atteint l’ordre de grandeur requis pour l’ignition, mais séparément : des températures supérieures à 100 millions de degrés, des densités dans la gamme des 10 puissance 20 particules par mètre cube, et des temps de confinement supérieurs à la seconde. En termes du produit de ces paramètres, des valeurs inférieures seulement de six fois à celle indiquée par le critère de Lawson pour l’ignition ont été obtenues. »
    -> ITER, qui doit entrer en opération en 2020, est le plus gros des tokamaks. Il viendra couronner la gamme de dernière génération entrée en service depuis 2006.
    Le stellarator

    Figure 3.Schéma du Stellarator, où un seul type de bobine est utilisé mais devant être déformées (voir médaillon) pour arriver à un plasma de forme torsadée. Aucune induction n’est nécessaire, contrairement à ITER, ce qui signifie un courant et un champ continu, mais plus complexe, à créer. Le stellarator, lui aussi en forme de tore, fait appel à un champ magnétique torsadé unique (figure 3), engendré par des bobines de champ pouvant fonctionner, contrairement au tokamak, avec une alimentation en courant continu. Ceci signifie qu’il n’est pas nécessaire de faire appel au phénomène d’induction pour générer la composante poloïdale du champ. Ceci permet un fonctionnement continu (contrairement aux impulsions de 1000 secondes d’ITER) et par conséquent de générer beaucoup plus facilement de l’électricité. Le projet Wendelstein 7-X en cours de construction à l’Institut Max-Planck de physique des plasmas en Allemagne fait ainsi partie des filières prometteuses actuellement en développement.
    -> Entrée prévue en opération : 2015
    Le confinement inertiel

    Egalement baptisé « fusion-laser », le confinement inertiel a été imaginé à l’origine par Jean Robieux, qui a convaincu le général de Gaulle en 1960 de mobiliser les ressources du pays dans cette filière prometteuse. Il utilise de puissants lasers pour provoquer, à la surface d’une micro-bille de deutérium et de tritium, une implosion soudaine se propageant vers l’intérieur sous la forme d’une onde de choc. Celle-ci comprime violemment la bille jusqu’à ce qu’elle entre en fusion.
    Les travaux les plus avancés dans ce domaine ont lieu au Laboratoire national Lawrence Livermore aux Etats-Unis, où se trouve le laser de la National Ignition Facility (NIF).
    -> La presse internationale rapportait récemment que ce dernier vient d’effectuer une percée significative dans la production d’énergie, atteignant pour la première fois le break-even. On attend avec impatience la publication des résultats officiels.
    En France, le Laser Mégajoule (LMJ), toujours en cours de construction, devrait pouvoir projeter environ 1,8 MJ d’énergie sur ses cibles, un niveau comparable à son homologue américain le NIF.
    Une centrale deutérium-tritium à laser, telle que décrite par Jean Robieux dans son livre Vers l’énergie abondante sans pollution, fonctionnerait de la manière suivante.
    Un jeu de plusieurs lasers de compression et un laser d’allumage provoquent la fusion de dix micro-billes de deutérium et de tritium à la seconde, produisant des noyaux d’hélium et des neutrons qui seront projetés vers l’extérieur à grande vitesse, les neutrons transportant dans ce cas quatre fois plus d’énergie que les noyaux d’hélium. Le tout devra être entouré d’une sphère métallique dont le rayon sera de dix mètres, et qui sera constituée de deux parois séparées de dix centimètres. Entre ces deux parois, circulera de l’eau afin de capter l’énergie des particules et de l’évacuer vers une turbine apte à générer de l’électricité (figure 4).
    Figure 4.Centrale à fusion laser, selon Jean Robieux. Le diamètre de la sphère intérieure collectant la chaleur libérée est de 20 mètres. Selon les calculs préliminaires, une telle installation aurait une puissance installée de mille mégawatts électriques (un gigawatt), l’équivalent d’un grand réacteur à fission actuel. A part l’énergie nécessaire pour atteindre et maintenir la température de fusion optimale, les deux aspects non-encore quantifiés à l’heure actuelle sont l’impact des neutrons sur la sphère métallique intérieure, et la masse totale de verre utilisé pour les lasers.
    La fusion de deuxième génération permettra ici aussi de simplifier, du fait de l’absence de neutrons, la conception d’une centrale à confinement inertiel.
    Soulignons ici qu’un article publié récemment (octobre 2013) par des scientifiques du Laboratoire pour l’Utilisation des Lasers Intenses (LULI) de Polytechnique dans la revue Nature Communications présente une nouvelle technique pour réaliser la fusion de troisième génération, en accélérant des protons par des laser de haute puissance avant de les injecter dans un plasma de bore. Ceci permettrait de diminuer considérablement la température à partir de laquelle ces réactions pourraient être déclenchées.
    Les machines à striction axiale

    Il s’agit de machines dont l’origine remonte très tôt dans l’histoire de la recherche sur la fusion, faisant appel à la contraction, par un puissant champ magnétique, d’une colonne d’hydrogène lourd gazeux. Le champ est auto-généré par un courant électrique circulant dans l’axe du cylindre métallique entourant la colonne de gaz.
    Depuis l’annonce, le 8 mars 2006, de résultats montrant que la Z-machine des Laboratoires nationaux de Sandia, aux Etats-Unis, peut atteindre des températures de plus de 2 milliards de degrés, l’on constate qu’un énorme chemin a été parcouru par les scientifiques travaillant sur cette filière. Après avoir modernisé la machine en 2007, afin de la munir de circuits pouvant déclencher des « tirs » de courant plus brefs (une centaine de nanosecondes au lieu d’une microseconde) et se recharger plus rapidement (en 10 secondes), les chercheurs ont adopté une nouvelle approche pour arriver au break-even.
    Il s’agit, comme pour le cas de la fusion à cible magnétisée (voir plus bas), d’une approche hybride, située à mi-chemin entre la fusion par confinement magnétique et celle par confinement inertiel.
    Dans le cas de la Z-machine, les recherches portent maintenant sur la fusion inertielle par tube magnétisé (MagLIF en anglais), utilisant un petit cylindre de béryllium ou d’aluminium (6 mm de haut et 7mm de diamètre), contenant un mélange de combustible. Des simulations effectuées entre 2010 et 2012 par des chercheurs de Sandia montrent qu’une quantité de courant 1000 fois supérieure au courant initial (70 millions d’ampères) pourrait être générée en théorie par des réactions de fusion, ce qui nous conduirait même à l’ignition.

    Commentaire


    • #3
      Pour l’instant, la machine (figure 5), qui a une capacité de 26 millions d’ampères, pourrait selon les calculs atteindre au moins le break-even, en utilisant un laser pour préchauffer le mélange de deutérium et de tritium gazeux contenu dans le cylindre. On prévoit aussi de le « pré-magnétiser » dans le sens vertical pour empêcher les fuites au moment de la compression. Le tout sera ensuite soudainement comprimé (en 100 nanosecondes), selon la méthode caractéristique de la Z-machine, afin de pouvoir déclencher la fusion.
      Figure 5.La Z-machine, dont les capsules ont été modifiées pour entreprendre les expériences sur la fusion inertielle par tube magnétisé (MagLIF). Ici les différentes étapes auxquelles est soumise la capsule de béryllium, contenant du deutérium et du tritium. Cette technique utilise la vitesse et la densité de l’événement de compression un peu à la manière du confinement inertiel (d’où le terme « fusion inertielle » dans le nom), tout en bénéficiant du fait que le premier champ magnétique empêche, contrairement à l’onde de choc associée au confinement inertiel, les particules ionisées de s’échapper en provoquant une perte prématurée de chaleur (d’où le terme « tube magnétisé »).
      Après une première série de tests « à vide » réussis (sans deutérium-tritium) pour valider les simulations sur la résistance des tubes (qui doivent garder leur symétrie jusqu’à la fin de l’événement de compression), les chercheurs ont entamé des essais avec du véritable combustible, et les résultats devraient être connus d’ici peu. Le franchissement du seuil du break-even est ici aussi espéré.
      Restera ensuite à ajouter une couche de deutérium-tritium cryogénisé (de densité plus grande) entre le mélange gazeux et la paroi interne du tube métallique, qui sera « ignitié » par la chaleur dégagée au centre du dispositif. C’est ici qu’une puissance accrue, 70 MA au lieu des 26 MA actuels, permettra, si les simulations sont exactes, de produire un courant 1000 fois supérieur à celui utilisé pour la compression. Cela ouvrira la voie à l’ignition et à la production commerciale d’énergie.
      Un retour sur le phénomène découvert en 2006, (les 2 milliards de degrés produits en utilisant des cylindres de 55 mm de diamètre) pourrait ensuite nous conduire à la fusion « a-neutronique », c’est-à-dire celle utilisant de l’hélium-3 et du deutérium, ou bien du bore et des protons, ne produisant pas de neutrons en effet mais exigeant des températures de déclenchement plus élevées.
      -> Les résultats des essais en cours, avec espoir de break-even, doivent être publiés en 2013-2014.
      La fusion à cible magnétisée

      Une autre voie intéressante, qui avait été abandonnée en raison de l’absence des moyens techniques à l’époque de son invention, est celle de la fusion à cible magnétisée.
      Relancée par une start-up de Vancouver au Canada (GeneralFusion), cette méthode consiste à générer, dans l’axe vertical d’une sphère remplie de lithium et de plomb à l’état liquide, un vortex au sein duquel seront injectés, par les deux pôles, des mini-tores de plasma chaud qui seront ensuite, une fois réunis au centre de la sphère, comprimés par une onde acoustique générée par des pistons situés à l’extérieur de la sphère (figure 6).
      Figure 6.Fusion à cible magnétisée. En haut et en bas, les deux générateurs de mini-tores de plasma chaud qui seront injectés vers le centre de la sphère située au milieu, au sein de laquelle règne un vortex engendré par la rotation de lithium et de plomb à l’état liquide. La sphère centrale est entourée de pistons qui généreront une onde acoustique capable de comprimer le tore de plasma jusqu’au déclenchement de la fusion. La chaleur transportée par les neutrons est récupérée par le liquide, qui sert également de fabrique à tritium. (Image GeneralFusion.) Cette approche combine la fusion par confinement magnétique (dans le sens ou les plasmas sont déjà engendrés et auto-confinés lorsqu’ils arrivent au centre du vortex) au confinement inertiel, utilisant ici non pas des lasers mais une onde acoustique générée par des pistons. L’onde de choc est plus longue que pour le confinement inertiel « pur », 40 microsecondes au lieu de quelques nanosecondes, et plus courte que pour le confinement magnétique (5 secondes avec ITER). Cette méthode possède l’originalité d’incorporer du lithium-plomb liquide, pouvant capter les neutrons générés par la réaction et les utiliser pour transformer une partie du lithium en tritium. Les problèmes de dégradation des matériaux et d’approvisionnement en tritium seraient dans ce cas plus facilement résolus qu’avec les autres méthodes.
      -> Un prototype est actuellement en voie de construction et les premiers essais sont prévus d’ici deux ou trois ans.
      Les réacteurs fusion-fission hybride

      Figure 7.Projet de réacteur fusion-fission hybride (LIFE) du Laboratoire national Lawrence Livermore. Bien que cette filière n’en soit qu’au stade de la modélisation, elle a été à l’étude depuis longtemps, à une époque où on s’inquiétait d’éventuels problèmes d’approvisionnement en uranium en raison de la forte croissance attendue des centrales à fission dans le monde. Ceci supposait alors que la fusion serait disponible bien avant, et que les flux de neutrons produits par la fusion de première génération permettraient de transformer le thorium-232 en uranium-233, plus efficace et plus propre au niveau du combustible usagé que l’uranium-235.
      Aujourd’hui, des institutions comme le Laboratoire national de Lawrence Livermore aux Etats-Unis (siège de la National Ignition Facility étudiant la fusion-laser) se sont à nouveau intéressées à cette filière comme complément à la production d’énergie dans le cas où les conditions idéales d’ignition pour la fusion ne seraient pas atteintes.
      Selon le projet LIFE (Laser Inertial Fusion-Fission Energy) du LLNL, un « réacteur » à fusion par confinement intertiel fonctionnant dans un mode légèrement au-dessous de l’ignition, permettrait de générer suffisamment de neutrons pour nourrir un processus de fertilisation de boulets de thorium, afin de transformer le thorium-232 qu’il contiennent en uranium-233. Les boulets seraient ensuite directement injectés, sans aucune autre transformation, dans des réacteurs-satellites à lit de boulets (fission) pour produire de l’électricité, dont une partie serait réservée aux lasers engendrant les réactions de fusion (figure 7).
      Conclusion

      Même si nous n’avons pas encore atteint l’ère d’une énergie et de matières premières abondantes, les progrès d’ores et déjà accomplis grâce à la recherche sur la fusion ont permis des avancées spectaculaires dans de nombreux domaines scientifiques et technologiques. Que ce soit dans la mise au point de boucliers thermiques pouvant séparer, sur des distances de quelques mètres seulement, des températures de -270 à 150 millions de degrés Celsius ; ou bien dans la maîtrise de la cryogénie, sans parler des supraconducteurs et de l’usage de champs magnétiques extrêmement intenses ; dans le développement de matériaux capables de résister aux bombardements de neutrons, de rayons gamma et de rayons X ; ainsi que de lasers à impulsions ultra-brèves et hautement énergétiques ; dans la manipulation de ce quatrième état de la matière qu’est le plasma : les champs de recherches sont diversifiés et les familles de technologies nombreuses. Toutes ces découvertes trouvent déjà des applications dans la médecine, l’électronique de puissance ou l’aérospatial, pour ne mentionner que quelques secteurs d’activités.
      La révolution de la fusion est en marche. A nous de lui donner une chance d’aboutir !

      Commentaire

      Chargement...
      X