• Si le développement de l’agriculture, de l’énergie et de l’industrie était vital au 20ème siècle, le 21ème siècle est celui de l’abondance, de la surproduction et du gaspillage. Il serait temps de réévaluer nos besoins, de réduire les conséquences de nos activités sur la nature pour évoluer vers une société plus durable, d’intégrer les coûts environnementaux dans les analyses économiques et d’appliquer le principe pollueur-payeur

        Je voudrais aujourd’hui vous parler de l’'eau qui est un besoin vital pour l'Homme comme pour la nature. Elle est un lien organique entre les milieux aquatiques et les espèces, qu’elle rend interdépendants. Ainsi sa protection, comme celle des écosystèmes dont elle dépend, est nécessaire à la santé des hommes et à leurs activités.

    http://lancien.cowblog.fr/images/ClimatEnergie/ACycle.gif

        Nous n’avons pas à être fiers de la situation dans ce domaine, en France,  car la mauvaise qualité de l’eau est générale et les rivières sont très dégradées :
              - 50 % des rivières, lacs et nappes d’eau souterraines n’atteindront pas le bon état écologique en 2030
              - 20% des espèces de poissons d’eau douce du territoire métropolitain sont menacées de disparition
              - 90 % des rivières sont contaminées par les pesticides, l’eau de pluie aussi...et 90 % des pesticides proviennent de l’agriculture (autour de 80 000 tonnes par an)
              - 550 000 tonnes d’azote excédentaire par an arrivent à la mer. 75 % provient de l’agriculture. La pollution par les nitrates en Bretagne a entraîné la pollution du littoral par les algues vertes.
              - 67 % des zones humides ont disparu depuis le début du siècle
              - 20 % de l’eau prélevée dans le milieu naturel est gaspillée
              - 20 à 40 départements sont contraints de réduire leur consommation d’eau chaque été.
              - 80 % de l’eau consommée en France en période estivale l’est par le secteur agricole mais celui-ci est donc très sensible à la sécheresse.

        La France est un pays qui pourtant a une ressource en eau importante : elle reçoit en moyenne 440 milliards de m3 de précipitations par an. 61 % de ce total s'évaporent, 16 % alimentent directement les cours d'eau et 23 % s'infiltrent pour reconstituer les réserves souterraines.
        Le total des écoulements avoisine donc, 191 milliards de m3 par an,  et on estime à 2 000 milliards de m3 le volume d’eau souterraine stocké dans les aquifères et à 100 milliards de m3 le volume moyen annuel de renouvellement des nappes.
        Le total des prélèvements d'eau effectués pour couvrir l'ensemble des besoins de la France (eau potable, agriculture, industrie et énergie) s'éleve à 32 milliards de m3. Comparé aux ressources disponibles, ce chiffre est assez modéré.
        Mais il y a une grande disparité régionale car, selon les bassins, la part des prélèvements totaux par rapport au niveau des écoulements s'échelonne de 7 à 45 %, chiffres passant de 24 à 86 % en période d'étiage.
        Au plan de l’agriculture, le problème se pose certaines années de sécheresse,  parce que la politique de création de réserves n’a pas été suffisante. Il faudrait en créer dans les régions déficitaires. D’autres barrages inutiles devraient être supprimés.
        Il serait aussi souhaitable que la culture de maïs, trop gourmande en eau, diminue fortement.
        On rejette aux rivières et donc dans la mer toute l'eau que l'on consomme et que l'on salit, après passage dans les stations d'épuration. Elle n'est pas consommable pour boire, mais est suffisamment dépolluée pour de l'arrosage. On pourrait faire de grands bassins qui achèveraient de la purifier, grâce aux UV du soleil et, on aurait, près des villes, des quantités importantes d'eau disponibles pour arroser les terres agricoles.
         40% du prix du m3 que nous payons est dû à l'approvisionnement en eau, 40% provient de la dépollution et 20% représentent des taxes.

    http://lancien.cowblog.fr/images/Sciences/repartitionconsommationdeaudunmenage46979.jpg

        Environ 80 m3 d'eau par habitant sont prélevés chaque année pour l'alimentation en eau de la population, soit 6 milliards de m3 au total.
        Une partie de l’eau n’est pas directement utilisable.
        Chaque jour, en moyenne, une personne consomme 200 litres d'eau.
    Or, le prix de l'eau est élevé, car il supporte des coûts de l’épuration. Le prix moyen d'un m3, en France, est aujourd'hui de l’ordre 3,5€. La facture s'élève donc à environ 1200 € par an pour une famille de 4 personnes. Cependant, les études ont montré qu'il était possible de réduire de 40 à 50% sa facture d'eau en adoptant les bons comportements et le bon matériel. Par ailleurs, en réduisant la consommation d'eau chaude, on réduit en même temps la consommation d’énergie.
    Cependant ces valeurs ne sont pas très significatives car selon les communes de France le prix du m3 varie de 2,5 à 8 €. La cartes dessous donne une répartition du prix moyen par département.

    L'eau est une denrée précieuse !

        Les fuites représentent 20% de la consommation d'eau d'un logement. Un robinet qui goutte, ce sont 4 litres d'eau consommés par heure, un mince filet d'eau représente une consommation de 16 litres/heure et une chasse d'eau qui fuit 25 litres/heure. Pensons aussi qu’un bain utilise 150 à 200  litres d’eau, alors qu’une douche - à condition de ne pas y rester des heures - ne consomme qu’ une quarantaine de litres (10 à 15 litres /minute).
        Chaque mètre cube d’eau chaude économisé, c’est près de 7 à 9 € d’économie (4 € pour l’eau et 3 à 5 € pour l’énergie suivant la possibilité de tarif de nuit) et la proportion d'eau chaude est de l'ordredees 2/3.

        Comme pour l’énergie, il faudrait que le gouvernement et les responsables locaux aient des politiques plus réalistes et cohérentes vis à vis de l’eau, mais aussi que nous, citoyens, nous fassions un effort en réduisant nos consommations, essentiellement les gaspillages.

    Partager via Gmail

    votre commentaire
  •      Avant de faire le point, je voudrais parler dela sécurité d'un tel réacteur, car évidemment, tous ceux à qui le nucléaire fait peur, se sont mis à raconter n'importe quoi, alors que  la sécurité de cette filière nouvelle ne présente pas les inconvénients de la filière actuelle de réacteurs à fission et est par principe très grande.

                La sécurité d'ITER et d’un réacteur à fusion.

        Les réacteurs de fission présentent certains risques que nous connaissons bien :
              - Ils peuvent s'emballer en cas de fausse manoeuvre.
    Des sécurités importantes sont mises en place pour éviter un tel accident et il faut, comme à Tchernobyl, être assez inconscient et irresponsable pour court-circuiter les sécurités pour qu’il puisse arriver.
    .         - Un défaut de refroidissement peut faire fondre le coeur comme au Japon.
    Dans les réacteurs français les systèmes de refroidissement sont doublés, voire triplés dans l’EPR, mais au Japon la force du Tsunami avait détruit les arrivées d’eau, l’alimentation électrique, même de secours et les cuves des réacteurs ont été fissurées par le séisme.
             - La production de déchets radioactifs impose un retraitement et un stockage des produits de fission notamment, pour des durées importantes.
    Comme je l’ai expliqué récemment, ce problème diminue peu à peu et est bien moins important que celui des déchets chimiques, d’autant plus que les déchets nucléaires signalent leur présence par leur émissions radioactives.
              - En cas de non refroidissement, de l'hydrogène peut se dégager et entraîner une explosion.   
             - Un défaut d'étanchéité de la cuve ou de l'enceinte peut entraîner la dissémination dans l'air et la retombée sur le sol de produits radioactifs, notamment Iode 137, Césium 135 et Strontium 90.
         Il faut donc d’abord essayer de limiter ce dégagement et ensuite avoir des enceintes de confinement très solides, ce qui n’était pas le cas au Japon ( et à Tchernobyl il n’y en avait pas !). De telles enceintes qui existent sur les réacteurs français et américains, ont fait leurs preuves lors de l’accident de Three Miles Island, qui n’a pas entraîné de pollution, malgré la fonte d’un coeur.

    http://lancien.cowblog.fr/images/Sciences/images-copie-8.jpg    Les réacteurs à fusion sont au contraire très sûrs et très peu polluants.
             - La moindre perturbation au sein du réacteur entraîne un refroidissement et l'arrêt de la réaction, sans possibilité d'emballement. Il n’y a d’ailleurs que quelques grammes de deutérium et de tritium dans l’enceinte à vide (et pas d’oxygène).
        Il ne peut donc pas y avoir d’emballement de la réaction de fusion qui s’arrête d’elle même, ni d’explosion de la chambre.
             - L'équivalent du coeur est le plasma gazeux et ne comporte que quelques grammes de deutérium et tritium radioactifs et les "déchets" sont constitués par de l'hélium, inerte et non radioactif.
        Il n’y a donc pas de déchets radioactifs produits par la réaction, l’hélium est sans danger (inerte chimiquement) et peut être utilisé industriellement et pourrait même être rélâché dans l’atmosphère sans inconvénient.
             - L'enceinte à vide est extrêmement solide et aucune explosion ne peut se produire. Une double enceinte en dépression est facile à réaliser pour éviter toute fuite éventuelle de tritium, qui est un produit radioactif.
        En fait une telle fuite est assez improbable. Elle n’est pas possible dans le réacteur lui même et ne concernerait qu’une quantité négligeable. Elle ne pourrait provenir que des réservoirs et canalisations destinés à alimenter le réacteur, risque que l’on peut techniquement fortement diminuer.
        De plus si l’on produit dans le futur le tritium par action des neutrons sur du Lithium, ce danger disparait presque totalement.   
             - Le seul incident radioactif serait une fuite de tritium, dont la probabilité est faible, et gaz très léger, il se diluerait et monterait rapidement en altitude.
        Cet incident a néanmoins été envisagé dans l'étude de sécurité : les calculs de concentration de tritium dans l'atmosphère montrent que la pollution de l'environnement serait très faible et qu'aucune évacuation de population ne serait à envisager, et la contamination des sols serait nulle.
             - Le seul problème qui subsiste est l'activation de certains composants du réacteur par les neutrons émis, mais c'est un problème local, interne à l'installation, qui peut être facilement défini et maîtrisé. Il s’agit de produits radioactifs d’activité faible et à vie courte et qui n’entraînent que des précautions pour le personnel du réacteur et lors de son éventuel démontage, mais en aucun cas une pollution extérieure, puisqu’il s’agit des matériaux de la chambre et de son enceinte.immédiate.
        Cette activation serait d’ailleurs très réduite en cas d’utilisation du lithium.

        On voit donc que les réacteurs à fusion seraient des engins propres au plan nucléaire, sans risque d’explosion ni de pollution externe et ne produisant pas de déchets radioactifs à vie longue comme les réacteurs à fusion.
        De plus ils constituent une énergie renouvelable car d’une part on pourrait extraire le tritium de l’eau de mer et surtout utiliser le lithium qui est assez abondant (et pourrait d’abord servir dans des batteries électriques).

                  L’avenir d’ITER et de l’énergie de fusion :

        ITER n’est qu’un prototype de démonstration et de faisabilité
        On sait que faire fonctionner un tokamak est possible, mais il faut que l’énergie consommée ne soit pas trop grande vis à vis de celle produite.
        Cela repose en particulier sur la consommation des bobines qui produisent le champ magnétique à une température voisine du zéro absolu et elles seront les premier composants essayés dans ITER, autour de la chambre à vide.
         Ci dessous une bobine en cours de montage au Japon, et qui sera ensuite transportée sur Cadarache.

    Où en este réacteur ITER.

         Les bâtiments destinés à abriter réacteurs et ses annexes sont très avancés ainsi que la conception des tous les éléments qui vont être acheminés et montés sur le site entre 2020 et 2025Ces éléments ont été fabriqués aux quatre coins du monde, dans les usines des partenaires du projet. (la Chine, l'Union européenne, l'Inde, le Japon, la Corée, la Russie, les États-Unis étal Suisse).

    Où en este réacteur ITER.

        Construction de la chambre:

    Où en este réacteur ITER.


        Le premier plasma à base d’hydrogène devrait être généré vers 2025, mais il faudra une dizaine d’années supplémentaires pour que le réacteur ITER réussisse à produire la première fusion tritium-deutérium et atteigne son point de fonctionnement nominaI.
        ITER fournira de la chaleur mais on ne la convertira pas en vapeur et en électricité, car le processus  est relativement classique
         On testera en fin d’étude le procédé de transformation  de Lithium en tritium

        ITER sera ensuite démonté vers 2040.
        Il sera remplacé probablement alors par un prototype de réacteur industriel, DEMO, de puissance environ 500 à 1000 MW, qui devra permettre ensuite de fabriquer des réacteurs à un coût raisonnable, à la fin du siècle.
        Son organisation pourrait ressembler au schéma ci-dessous, avec éventuellement une utilisation des neutrons produits pour transformer sur place du lithium en tritium
        
    http://lancien.cowblog.fr/images/Sciences/reacteurfutur.jpg

    Partager via Gmail

    votre commentaire
  •           On ne parle plus beaucoup du réacteur ITER et de la fusion nucléaire. C'est effectivement un projet à long terme et je ne sais pas si vous savez tous en quoi il consiste.
              Je vais essayer de décrire succinctement cette étude qui devraitdurer jusqu'en 3034

         ITER (“le chemin” en latin, et originellement en anglais : International Thermonuclear Experimental Reactor ) est un prototype de réacteur nucléaire à fusion, actuellement en construction à Cadarache près de Manosque et Aix en Provence). Ce prototype est destiné à vérifier la « faisabilité scientifique et technique de la fusion nucléaire comme nouvelle source d’énergie », dans le cadre d'une coopération internationale.

        Je vais rappeler d’abord brièvement les principes de la fusion nucléaire, avant de parler des études précédant ITER : celle des  réacteurs russes “Tokamak”.

            La fusion nucléaire.

        Lorsque en se scindant ou en s’assemblant, les noyaux des atomes peuvent donner lieu à une diminution de la masse des composants, la réaction peut se produire et dégage de l’énergie selon la formule d’Einstein  E = mc2.
        Cette énergie est communiquée à des particules ou aux noyaux formés sous forme d’énergie cinétique, et ensuite, se transforme en chaleur au cours de leur ralentissement.
        La réaction peut être spontanée parce que le noyau est instable : c’est la radioactivité.
        Avec des noyaux très lourds comme l’uranium, le plutonium, le thorium, on peut, en les bombardant avec des neutrons, provoquer leur fission en deux atomes plus légers.

     Le réacteur de fusion nucléaire ITER.    Des noyaux très légers tels que l’hydrogène, le deutérium, le tritium peuvent  fusionner en créant un atome plus lourd, en éjectant un neutron et de l’énergie, mais la réaction ne peut se produire qu’à une température énorme de l’ordre d’une centaine de millions de degrés.

         Ces réactions sont à l’origine du fonctionnement du soleil et des étoiles et sur terre de celui d’une bombe thermonucléaire.
         Les réactions dans les étoiles fusionnent entre eux des noyaux d’hydrogène (c’est à dire des protons) et événtuel-lement des protons avec des noyaux de carbone ou d’azote. Au cœur du Soleil 620 millions de tonnes d'hydrogène y sont transformés en 615,7 millions de tonnes d'hélium chaque seconde; la pression est égale à 200 milliards de fois la pression atmosphérique terrestre et la température centrale atteint environ 15 millions de degrés, mais l’énorme énergie est produite de façon beaucoup plus lente que dans une bombe à fusion thermonucléaire.
        Dans cette dernière la température énorme est obtenue en faisant exploser une “amorce” qui est une bombe nucléaire à fission. Par ailleurs la bombe exige une quantité importante de produits réactifs, sous un très faible volume..

        Pour domestiquer l’énergie de fusion, on n'utilisera que des quantités très faibles de deutérium et tritium, qui se consommeront peu à peu, mais le problème est de créer cette température et de contenir le plasma obtenu, qui, sous l’effet de la température, a tendance à chauffer tout autour de lui et à provoquer une violente expansion.
        La réaction utilisée est 
            2D1  +  3T1    -->  4He2  +  1n0
     et comme le tritium est un gaz très cher à fabriquer, on envisage de le produire par la suite au fur et à mesure du besoin, en utilisant les neutrons produits au sein du réacteur, à partir du lithium, abondant sur terre, par la  réaction       
            6Li3  + 1n0  -->  4He2  +  3H1

            Comment domestiquer la fusion : les “tokamak”

    Pour produire une réaction de fusion nucléaire, il faut chauffer la matière à de très hautes températures (plusieurs centaines de millions de degrés). Dans ces conditions, les électrons se détachent complètement de leur noyau — on dit que l'atome s'ionise. La matière entre alors dans un nouvel état : l'état de plasma.

    http://lancien.cowblog.fr/images/Sciences/tokamak2.jpg
      De nombreuses études ont été faites dans ce domaine, et les russes ont conçu en 1960 une machine appelé “Tokamak”
        Dans les années 70 des machines analogues ont été construites aux Etats-Unis et en France au centre CEA de Fontenay aux roses et à Grenoble.
        De nombreuses autres machines ont été construites par la suite, notamment “Joint European Torus,” en Angleterre et “Tore supra” à Cadarache.
         Ci-contre la chambre à vide d'un Tokamak. 

            Principe d’un “tokamak”

        Un tokamak est une chambre de confinement magnétique destinée à confiner et contrôler un plasma (deutérium + tritium), pour étudier la possibilité de la production d'énergie par fusion nucléaire.
    http://lancien.cowblog.fr/images/Sciences/tokamak.jpg    Comme le plasma est constitué de particules chargées, on peut confiner leur trajectoire de déplacement à l'intérieur d'un tore au moyen de champs magnétiques. C’est en quelque sorte une “boite aux parois immatérielle”.
        D’énormes bobines (en orange sur le schéma), créent un champ toroïdal  qui confine le plasma à l’écart des parois et fait circuler à l’intérieur un très fort courant qui le réchauffe fortement et qui crée à nouveau un champ qui contribue aussi au confinement du plasma, qui est très chaud en son centre  et va en se refroidissant vers l'extérieur.   
        D’autres bobines horizontales circulaires permettent de mieux contrôler la forme du plasma (en vert sur le schéma).

    http://lancien.cowblog.fr/images/Sciences/ITERchambre.jpg    Ce courant n’est pas suffisant pour chauffer suffisamment le plasma et on complète ce chauffage pa des ondes hautes fréquences (comme dans un four à micro-ondes) et par l’injection de particules qui par chocs  augmentent la température.
        Lorsque la température suffisante est atteinte, la réaction de fusion se produit et l’énergie dégagée suffit à entretenir la température.
        Dans l’air un tel plasma ne pourrait se former et donc on doit le créer dans une enceinte à vide torique, au sein de laquelle règne un vide extrêmement poussé.
        Il faut évacuer les produits parasites créés (l’hélium, gaz inerte et non radioactif) et d’autre part évacuer  aussi la chaleur si on veut l’utiliser ensuite pour produire de l’électricité, grâce à un fluide caloporteur entre le plasma et les parois de la chambre à vide.

    http://lancien.cowblog.fr/images/Sciences/bobinesITER.jpg
        Un autre problème de ces réacteurs est de générer un champ magnétique suffisamment puissant c’est à dire de faire circuler un courant très important dans les bobines. Pour cela les bobine sont réalisées en matériaux supraconducteurs, dont la résistance est pratiquement nulle à une température proche du zéro absolu (- 273 d° K) de telle sorte que des courants très intenses peuvent circuler sans perte par effet joule.
        Le problème est évidemment de conserver une température aussi basse autour d’un réacteur qui est extrêmement chaud.
        Les petits tokamak déjà réalisés ont permis de démontrer la faisabilité scientifique de ce processus en dégageant quelques mégawatts d’énergie pendant plusieurs minutes. Mais par contre, l’énergie fournie était presque aussi important que l’énergie produite.
       
         ITER est destiné à démontrer que la production rentable est possible et de résoudre de nombreux problèmes techniques et notamment la résistance des parois et l’isolation thermique pendant des périodes longues.
        Il est important de noter que si dans de tels réacteurs plusieurs dizaines de kg de deutérium et de tritium seront consommés par an,  par contre la quantité de combustible présente dans la chambre pour la réaction est très faible, quelques grammes et correspond à une dizaine de secondes de fonctionnement.
        La moindre perturbation au sein du réacteur entraîne un refroidissemnt et l’arrêt de la réaction, sans possibilité d’emballement.

        ITER sera le plus gros Tokamak réalisé jusqu’à présent, en attendant un réacteur industriel. son plasma aura 6,20 m de rayon et 6,80 mètres de haut et la durée de maintien sera de l’ordre d’une quinzaine de minutes.

    http://lancien.cowblog.fr/images/Sciences/coupeITER.jpg

       
       
       

    Partager via Gmail

    votre commentaire
  •      J’ai lu un article assez intéressant sur  le numéro d’avril 2019 du magazine « Pour la Science » concernant les méthodes de capture du CO2 dans l’air, qui pourraient être un moyen de diminuer nos émissions de gaz à effets de serre.
        Il y a 10 ans, on pensait que remplacer les centrales à charbon par de l’énergie nucléaire, éolienne ou photovoltaïque, passer aux voitures électriques, augmenter l’isolation des logements, les éclairer avec des leds,  réduire notre consommation énergétique suffiraient pour limiter le réchauffement climatique.
    Mais l’effort fait n’a pas été suffisant et les émissions de CO2 ont continué à augmenter. Il faut donc des mesures supplémentaires. Le captage de CO2 à grande échelle apparaît comme la seule solution.
        Les scientifiques estiment que d’ici 2100, si nous voulons limiter l’augmentation de température à 1,5 d°C, il faudra capter environ 1000 milliards de tonnes de CO2, soit en moyenne 20 milliarsds de tonnes par an à partir de 2050..
        Quelles méthodes utiliser ?

    1.) - Reforestation.
        Les arbres captent le CO2 de l’air et le transforment en bois.
        Il faut arrêter la déforestation (notamment en Amazonie), replanter des arbres jeunes là où l’on enlève des anciens, étendre les forêts. IL faudra également réformer le marché du bois et les pratiques de gestion forestière. Les forêts peuvent absorber 3,5 milliards de tonnes par an.

    2.)- Captage et stockage du CO2.
   
         On peut capturer le CO2 de l’air par séparation chimique, et le stocker dans le sol de façon permanente à quelques centaines de mètres de profondeur. Des roches basaltiques peuvent ensuite l’absorber.Le potentiel de cette technique peut être important (10 milliards de tonnes par an, mais le coût est important (100 à 250 € la tonne) et la consommation en énergie importante; Pour extraire 100 millions de tonnes par an il faut une centrale de 300 à 500 MW. Evidemment une centrale à charbon produirait plus de CO2 qu’on ne capterait : il faut donc utiliser de l’énergie propre.

    3.) Transformation en biocarburants ou en énergie.
        On brûle des végétaux et on peut produire de l’énergie, mais il faut capter le CO2 produit ou les transformer en biocarburant, mais au détriment des surfaces de terres agricoles.

    4) Biochar
        On chauffe en l’absence d’oxygène des déchets organiques, du fumier, des récoltes. On obtient des biocarburants et du « biochar » qui est un résidu très riche en carbone. Il peut servir à amender le sol et à augmenter le rendement des cultures.
        On envisage une capture de 2 milliards de tonnes par ans, à un coût de 100 à 200 € la tonne.

    5.)- L’altération forcée.
         On réduit des roches en poussière que l’on épand sur les champs. Elle capte du CO2 et fertilise le sol. Epandue sur les océans, elle régit sur l’eau de mer en transformant le CO2 en carbonates, qui tombent au fond. Le problème est de parvenir à transporter et pulvériser la roche sans que ce soit trop cher. on pense qu’il serait possible de capter 2 à 4 milliards de tonnes par an pour 50 à 150 € la tonne, mais pour le moment on ne sait pas faire.

    6.) - Fertilisation des océans
    En soupoudrant les océans avec des substances qui favoriseraient le développement de certaines algues, celles-ci pourraient capter du CO2;
         Mais on ne sait pas maîtriser le phénomène ni prévoir les conséquences pour les écosystèmes marins.

    7.) - Séquestration du CO2 dans le sol par l’intermédiaire de plantes.
        Celles-ci absorbent le CO2 et le fixe dans leurs racines

    Le tableau ci-dessous compare les avantages et inconvénients des diverses méthodes.

    http://lancien.cowblog.fr/images/ClimatEnergie2/Numeriser1.jpg

        Aucune méthode n’est actuellement au point et il faut donc financer un énorme effort de recherche et de mise au point, et il faut non seulement trouver des techniques qui captent le CO2, mais qu’il faut que ces techniques apportent quelques chose à vendre (le bois, du carburant, de l’énergie) ou un apport technique comme la fertilisation des sols.
        Reste à trouver les moyens financiers de faire ces recherches.

    Quelques éléments sur le stockage du CO2

            Il serait donc prioritaire que la recherche soit intensifiée dans le domaine de la capture et du stockage du CO2 des centrales thermiques
          Actuellement on envisage de piéger le CO2 dans les sols en le captant à la sortie des cheminées et en le séparant des fumées par dissolution dans un solvant, qui ensuite réchauffé, rejette le CO2 que l’on l’enfouit dans des sites géologiques.
    Dans le cadre d’une étude européenne (projet Castor), une installation pilote a été mise en place en 2006 au Danemark dans la centrale d’Esbjerg.

    http://lancien.cowblog.fr/images/ClimatEnergie2/lachainedecaptagestockageduco2.jpg
          Un autre procédé consisterait à injecter de l’oxygène pur dans la combustion et de recycler le CO2 à la place de l’azote de l’air et on a alors une sortie de CO2 pratiquement exempte de fumées que l’on peut directement envoyer au stockage.
          Ces techniques sont encore beaucoup trop onéreuses.
          La technique de l’enfouissement est par ailleurs encore discutée ; en effet, enfouir le CO2 ne signifie pas le détruire. Il est donc très important d’étudier la sécurité de l’enfouissement, l’imperméabilité des cavités, la résistance à l’activité sismique, la surveillance afin d’éviter les fuites. Selon le BRGM, il serait possible de stocker plusieurs milliards de tonnes de CO2 rien que dans le Bassin Parisien (mais à quel coût ?)
        La généralisation de cette technique n’est pas envisageable avant 2050, ce qui est bien tard pour réduire nos émissions correspondantes.

    Partager via Gmail

    votre commentaire
  •           Jusqu’à présent les panneaux solaires étaient à 90% d’origine chinoise, l’Europe étant totalement dépassée dans ce domaine et l’industrie française inexistante. 

              Grace au travail de recherche du CEA depuis une dizaine d’années, d’un industriel grenoblois de fours ECM, et l’association avec une entreprise italienne, Enel Green Power, la donne changera peut être légèrement, dans les prochaines années.

               Pour comprendre le problème voyons d’abord comment fonctionne un capteur solaire photo-voltaïque.
               Les 4 schémas ci-dessous décrivent succinctement le principe :

    Des panneaux photovoltaïques européens performants et moins chers.

    On dope une zone de silicium cristallin                Au contact des zones N et P les électrons
    ayant quatre électrons externes, avec                  et les trous diffusent les uns vers les autres
    du phosphore qui en possède 5 d’où                    qui s’annihilent et créent un champ
    un excédent d’électrons.N.                                    électrique : c’est la jonction qui possède
    On dope une autre zone avec du bore                  un champ électrique entre N et P.
    ayant trois électrons externes d’où un
    déficit d’électrons, des « trou positif » P

    Les photons solaire transmettent leur                     Les trous et les électrons soit se recom- 
    énergie aux électrons du silicium qu’ils                   binent, soit sont séparés par le champ

    arrachent aux atomes, créant des paires                électrique et collectés sur les extrémités
    électron-trous. (ronds et point blanc sur                  des zones N (pour les trous) et P (pour
    le schéma).                                                              les électrons), générant un courant élec-
                                                                                     trique continu de faible voltage.

    Des panneaux photovoltaïques européens performants et moins chers.

               Actuellement le silicium utilisé monocristallin a un rendement qui approche les 20% mais il est très cher. Il représente 40% du marché. Les 60% autres % utilisent du silicium polycristallin, moins cher, mais de rendement très inférieur
              Le constructeur de four ECM a eu l’idée de fondre 10% de silicium monocristallin et 90% de polycristallin et d’obtenir des lingots parallélépipédiques de silicium à 95% monocristallin, donc d’un coût bien moindre, qui ne nécessite qu’une température de 200 d° au lieu de 800.

    Des panneaux photovoltaïques européens performants et moins chers.         Le CEA-Liten a imaginé une structure particulière, appelée hétérojonction,  en ajoutant deux couches fines d’une dizaine de nanomètres, de silicium amorphe et de silicium amorphe dopé, qui augmentent l’attraction des électrons vers les zones de collecte.

              Par ailleurs l’épaisseur des capteurs a pu être diminuée de 170 à 110 µ. Les cellules devenant très souple il a fallu concevoir des automates spéciaux pour la manipuler.
              Les surfaces sont composées de pyramides qui piègent les photons par réflexions successives,, et les couches de silicium sont revêtues d’un oxyde métallique transparent, qui améliore la collecte des électrons.
              La cellule est biface, ce qui permet de capter les photons renvoyés par le sol ou le toit, et améliore donc sensiblement le rendement.
              Enfin le rendement de toute cellule photovoltaïque baisse avec la température, mais le coefficient de température des cellules du CEA est moindre.

     La société italienne Enel Green Power construit une usine à Catane, qui produira des panneaux solaires sur ce modèle, pour une puissance d’environ 80 Mw par an.
              Elle espère obtenir des panneaux ayant un rendement de 30%, bien supérieur à celui des produits chinois et pour un coût analogue.

              L’Europe espère ainsi remonter la pente, vis à vis du monopole chinois, ce qui et une bonne chose.

               Mais il ne faut pas oublier que, même si les panneaux ont un meilleur rendement, à moindre coût, le rendement du soleil lui même et faible, car il est absent la nuit,  (alors qu’on voudrait charger les batteries des véhicules électriques), et l’hiver ou par mauvais temps et que le soleil est absent, alors que ce sont les périodes les plus froides où l’on a le plus besoin d’électricité.

     De plus le courant produit est faible, de basse tension, et continu. IL faut donc le rendre alternatif pour le transporter- ce qui affecte le rendement -, et multiplier le nombre de cellules ce qui exige de grandes surfaces.

     Le solaire photovoltaïque n’est donc intéressant que si on ne le transporte pas, c’est à dire sur le toit des maisons, mais cela limite les puissances à 3 à 5 kW et exclut donc le chauffage.

     Réaliser des centrales solaires est peut être de nature à satisfaire les écologistes souvent peu techniciens, mais est une aberration sur le plan de la surface exigée et des coûts. Quant à faire une centrale flottante sur des lac, je souhaite bien du plaisir à ceux qui devront faire des jonctions électriques dans l’eau, ce qui augmentera le coût et le risque de pannes.

    Partager via Gmail

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique