En archives : avril à novembre 2013

Publié le 04/12/2013
Auteur(s) : Sylviane Tabarly, professeure agrégée de géographie, responsable éditoriale de Géoconfluences de 2002 à 2012 - Dgesco et École normale supérieure de Lyon

Mode zen PDF

Europe et Proche Orient


Allemagne

21/11/2013, Sécurité d'approvisionnement dans le secteur électrique : nouveau rapport du Conseil scientifique du Ministère fédéral de l'économie http://www.bulletins-electroniques.com/actualites/74402.htm

Le Conseil scientifique du Ministère fédéral de l'économie et de la technologie (BMWi) a publié le 15 novembre 2013 un rapport intitulé "Contrôle à long terme de la sécurité d'approvisionnement dans le secteur électrique". Dans ce document, il souligne que la sécurité de l'alimentation électrique en Allemagne est une des meilleures au monde. Dans le même temps, il y exprime des doutes quant à savoir si la conception actuelle du marché de l'électricité pourrait garantir à long terme des capacités suffisantes à une alimentation électrique fiable.

Comme l'électricité ne peut actuellement pas être stockée efficacement en grandes quantités, les centrales conventionnelles fossiles sont encore nécessaires. Toutefois, le développement des énergies renouvelables financé par la loi EEG diminuerait la volonté d'investir dans des centrales conventionnelles et pourrait menacer à l'avenir le fonctionnement des installations existantes. Afin d'assurer la sécurité d'alimentation à long terme, un marché de capacités central est donc recommandé. A l'inverse, le Conseil scientifique voit d'un oeil critique la mise en place d'une réserve stratégique ou d'autres mécanismes de capacité "sélectifs", puisque ceux-ci entraîneraient des coûts d'électricité plus élevés.

Une alimentation électrique fiable est une condition sine qua non de l'efficacité et de la compétitivité de l'économie allemande. Le BMWi salue donc la mise en avant de cette thématique par le Conseil scientifique. Dans le cadre d'un forum organisé sur le thème des centrales, le BMWi a commandé des études sur la performance du marché de l'électricité actuel ainsi que sur les effets concrets de potentiels mécanismes de capacité. Les résultats de ces études sont attendus au printemps 2014.

Le Conseil scientifique est une entité indépendante qui conseille le BMWi en matière de politique économique. Il décide lui-même l'objet de ses réflexions et présente ses résultats sous forme d'expertises.



25/10/2013 La transition énergétique allemande face à de nouveaux défis régionaux http://www.bulletins-electroniques.com/actualites/74184.htm

Le consensus politique sur les objectifs de la transition énergétique allemande est établi depuis la catastrophe de Fukushima ; les technologies de production d'énergie décentralisées ne sont plus l'exception. Pour autant, la transition énergétique allemande n'est pas automatique. Parmi les raisons qui expliquent la mise en oeuvre compliquée de ce projet, les scientifiques de l'Institut Leibniz pour le développement régional et la planification structurelle (IRS, situé à Erkner, Brandebourg) ont identifié lors de plusieurs travaux de recherche les aspects de la transition liés aux acteurs et aux lieux. Ils voient de grands défis au niveau local, étant donné que les directives centrales fixées sur les aspects technologiques et écologiques ne reflètent pas la réalité complexe de prise de décision pour les communes et les régions.

Le département "Changement des institutions et biens indivis régionaux" de l'IRS travaille dans le cadre de plusieurs projets sur les aspects spatiaux et sociaux de la transition énergétique. Par l'analyse simultanée des acteurs, des institutions et des territoires, les scientifiques ont une perspective intéressante sur la mise en oeuvre de ce projet complexe. "En outre, le fait de voir l'énergie comme un des nombreux biens publics régionaux est utile", estime M. Timothy Moss, le directeur du département. Selon lui, les principaux enjeux de la transition énergétique ne sont plus dans les développements technologiques ou dans le consensus sociétal sur les objectifs ; au contraire, ils sont dans le jeu des institutions à différents niveaux, et dans la possibilité associée au niveau local d'être en mesure de façonner véritablement la transition énergétique.

Elément essentiel de la transition énergétique allemande, une forte orientation politique centrale est mise en place, sous la forme de systèmes d'incitations puissantes et de règlements tels que les tarifs de rachat en vertu de la loi sur les énergies renouvelables (EEG). Différentes mesures réglementaires et de marché sont prises par l'UE, le Bund et les Länder dans les zones rurales, où elles rencontrent un arrangement complexe d'objectifs d'intérêt public. "Les acteurs locaux doivent intégrer des objectifs écologiques, énergétiques, de conservation, touristiques, économiques régionaux ou identitaires", a déclaré Ludger Gailing, chercheur au département. "Ceci place les communes face à des défis majeurs et rend raisonnable la nécessité d'intégrer des plans d'action locaux aux instruments de pensée au niveau central." Il y aurait ainsi un grand écart entre les options de conception régionales vues par la transition énergétique allemande et la situation réelle sur le terrain. Pour pouvoir faire primer la souveraineté conceptrice régionale et utiliser les grandes possibilités de développement, il est généralement nécessaire d'avoir au niveau régional une puissance économique élevée, une bonne mise en réseau et un engagement civique. "La belle image de la région concevant activement ses projets est très fragile et très différenciée en Allemagne", conclut M. Moss. Ainsi, de nombreux acteurs régionaux du Bade-Wurtemberg, de la Rhénanie-Palatinat ou du Schleswig-Holstein bénéficieraient de la transition énergétique et seraient même créateurs d'activité. En revanche, dans certaines régions périphériques du Brandebourg et du Mecklembourg-Poméranie-Occidentale, cette transition serait parfois ressentie comme une "colonisation", amenant de nouveaux conflits.

L'une des principales raisons de ce développement inégal est la contradiction générale entre une intégration des technologies décentralisées de production d'énergie et un manque de décentralisation dans le paysage institutionnel. Si en outre, des éoliennes, des panneaux solaires et des centrales à biomasse deviennent des instruments centralisés, les effets locaux positifs d'une énergie décentralisée restent absents dans de nombreux endroits. "Quel argent reste ensuite dans la commune ? Quels acteurs locaux bénéficient d'une installation ? Où les installations de production sont-elles construites ? Ce sont des questions essentielles pour les municipalités", explique M. Gailing. "Nous avons rencontré des cas extrêmes dans lesquels les investisseurs prennent en bail des terres agricoles pour cultiver à grande échelle du maïs pour la production de biogaz, ou sur lesquelles la population locale ne bénéficie pas de l'essor de l'éolien terrestre. Cela attise les conflits locaux ; une politique énergétique responsable devrait faire face à ces réalités de mise en oeuvre".

Pour en savoir plus, contacts :

Dr. Timothy Moss, directeur du département "Changement des institutions et biens indivis régionaux", Institut Leibniz pour le développement régional et la planification structurelle (IRS) - tél. : +49 3362 793 185 - email : MossT@irs-net.de



5/09/2013 Stockage géologique de CO2 : achèvement des travaux d'injection du gaz sur le site pilote de Ketzin http://www.bulletins-electroniques.com/actualites/73861.htm

Le 29 août 2013, le Centre de recherche allemand pour les géosciences (GFZ) de Potsdam (Brandebourg) a officiellement mis fin, après cinq années de fonctionnement, à l'injection de dioxyde de carbone dans les sous-sols géologiques du site pilote de Ketzin (Brandebourg) [1]. Sur ce site, dédié à l'étude scientifique du stockage géologique de CO2, a été injecté depuis juin 2008 un total de 67.271 tonnes de gaz dans du grès contenant de l'eau salée, et ce à une profondeur de 630 à 650 m. Du CO2 de haute pureté, habituellement utilisé dans la production alimentaire, a été principalement utilisé pour ce stockage. En outre, le site a accueilli en 2011, sur une période de six semaines, pas moins de 1.515 tonnes de CO2 capturées sur la centrale pilote de Schwarze Pumpe (Brandebourg) [2]. Sous la direction du GFZ, le projet pilote de Ketzin est accompagné par un vaste programme de recherche et développement.

Les études menées jusqu'à présent ont apporté une connaissance fondamentale du site de stockage lui-même, mais aussi du stockage géologique du CO2 dans des couches profondes de roches contenant de l'eau salée. Le site de Ketzin est considéré tant au niveau national qu'international comme un projet de référence pour l'étude et la mise en oeuvre du stockage géologique du CO2. Axel Liebscher, directeur du Centre pour le stockage géologique au GFZ, présente les principales conclusions : "Nous avons pu montrer que le stockage géologique du CO2 sur le site pilote de Ketzin est sûr et fiable, sans risque pour l'humain ou l'environnement. Une combinaison judicieuse de diverses méthodes de surveillance géochimiques et géophysiques permet de détecter de très faibles quantités de CO2 et de représenter leur étendue souterraine." Les interactions entre le fluide et la roche sur le site de Ketzin, provoquées par le stockage de CO2, sont, d'après ces recherches, inoffensives et n'ont aucun effet sur l'intégrité des roches entourant et couvrant le site de stockage. En outre, des simulations numériques ont permis de reproduire le comportement temporel et spatial du CO2 stocké.

L'ensemble du programme de recherche n'est cependant pas encore terminé. "Avec l'arrêt de l'injection de CO2 commence une nouvelle phase du projet à Ketzin", explique M. Liebscher. "L'objectif de la prochaine phase consiste à parcourir le cycle de vie complet d'un site de stockage de CO2, depuis l'exploration du site en passant par son exploitation, jusqu'à son démantèlement." Par conséquent, une surveillance de l'emplacement et de la propagation de CO2 est également prévue au cours des cinq prochaines années. Dans le même temps débutera à l'automne 2013 le démantèlement des installations et le rebouchage progressif des forages.

Pour en savoir plus, contacts :



16/05/2013 Solaire thermique : le gouvernement allemand finance la plus grande centrale du monde, au Maroc http://www.bulletins-electroniques.com/actualites/73056.htm

Le 10 mai 2013, à l'occasion d'une cérémonie d'inauguration en présence du Roi du Maroc, Mohammed VI, ont été lancés à Ouarzazate (Maroc) les travaux de construction de la plus grande centrale solaire du monde. Le gouvernement fédéral allemand, par l'intermédiaire du Ministère fédéral de l'environnement, de la conservation de la nature et de la sûreté nucléaire (BMU) ainsi que du Ministère fédéral de la coopération économique et du développement (BMZ), participent au financement de ce projet à hauteur de 115 millions d'euros. Grâce à cette contribution, l'Allemagne est le partenaire commercial européen le plus important dans la réalisation de la centrale solaire de Ouarzazate.

L'Allemagne soutient le Maroc depuis 30 ans dans le secteur de l'énergie [1], en particulier les énergies renouvelables et l'efficacité énergétique. La coopération germano-marocaine soutient le développement de plans régionaux d'actions énergétiques, la mise en place de nouvelles institutions, les lois et règlements en matière d'énergies renouvelables et d'efficacité énergétique. Il met également à disposition des prêts pour des parcs solaires ou éoliens et des centrales hydroélectriques. Outre la contribution à la centrale de Ouarzazate mentionnée ci-dessus, le gouvernement fédéral allemand soutiendra le développement de l'énergie solaire au Maroc avec 650 millions d'euros supplémentaires au cours des prochaines années. Le soutien de l'Allemagne a lieu en étroite coordination avec les autres bailleurs de fonds participants comme la Banque mondiale, la Banque africaine de développement, la Banque européenne d'investissement, l'Agence française du développement et la Commission européenne.

La construction de la centrale solaire de Ouarzazate, d'une capacité de 160 mégawatts, est la première étape dans la mise en oeuvre de l'ambitieux plan solaire marocain, selon lequel sera atteinte d'ici 2020 une capacité de production d'électricité de 2.000 mégawatts. En comptant également sur un développement de l'énergie éolienne, le Maroc pourrait assurer en 2020 déjà la moitié de son approvisionnement en électricité à partir de sources d'énergie renouvelables.

Selon la presse allemande, si le lancement de la construction de la centrale à Ouarzazate est un grand pas pour le Maroc, il s'agirait en revanche d'une avancée bien plus timide concernant Desertec, le projet de production d'électricité d'origine solaire dans le désert nord-africain pour alimenter l'Afrique du Nord et l'Europe [2]. L'ambition d'alimenter l'Europe avec de l'électricité d'origine solaire provenant d'Afrique du Nord serait à tout le moins repoussée, cédant avant tout à l'objectif d'alimenter en premier lieu les pays producteurs.

Pour en savoir plus, contacts :


Belgique

3/05/2013 Les variations climatiques des 2000 dernières années ne sont pas les mêmes selon les régions du monde http://www.bulletins-electroniques.com/actualites/72962.htm

Les variations climatiques des 2000 dernières années présentent des différences régionales marquées. C'est ce que démontre une vaste étude internationale à laquelle l'UCL est associée, qui a reconstruit précisément les températures passées au cours des 2000 dernières années à l'échelle des différents continents. L'une des principales découverte est un refroidissement graduel, observé de manière cohérente sur les différents continents au cours des derniers 2000 ans. Ce lent refroidissement est dû à la superposition de différents facteurs naturels (lentes variations de l'orbite terrestre, activité solaire, volcanisme, etc..). Il s'interrompt à la fin du 19e siècle, lorsque démarre le réchauffement climatique.

Les résultats de cette étude (qui viennent d'être publiés (21/04) dans la prestigieuse revue scientifique Nature Geoscience) ont été acquis dans le cadre du projet international de grande ampleur PAGES 2k (coordonné par l'organisation PAGES (Past Global Changes). Cette étude a mobilisé 80 chercheurs du monde entier, dont un chercheur de l'UCL, soit l'une des recherches la plus importante réalisée jusqu'à présent pour reconstituer les climats passés à l'échelle planétaire. Pour cela, les auteurs ont rassemblé, évalué et utilisé des données provenant de tous les continents. Dans ce cadre, la contribution de Hugues Goosse, professeur au centre de recherche Earth & Climate de l'UCL (qui faisait partie de l'équipe de rédaction de l'article), s'est principalement focalisée sur l'analyse des causes possibles des changements observés.

L'organisation PAGES a été fondée en 1991. Elle est financée essentiellement par les fondations nationales pour la science des Etats-Unis et de la Suisse, pour stimuler les recherches internationales sur la compréhension de la dynamique passée du climat et de l'environnement. L'initiative visant à reconstruire le climat des 2000 dernières années avec une précision inégalée a été lancée en 2006. Pour ce faire, un appel aux meilleurs spécialistes des variations climatiques passées a été lancé au niveau international. Diverses procédures mathématiques ont ainsi été utilisées pour reconstruire les différentes séries temporelles des températures continentales, et leur inter-comparaison a permis d'établir la fiabilité des principales conclusions de l'étude. Les études précédentes portant sur le climat des derniers millénaires avaient été menées à une échelle globale ou hémisphérique, et ne faisaient donc que survoler les différences régionales qui accompagnent les changements globaux.

Les archives naturelles du climat et les sources documentaires

Pour mener cette étude intitulée "Variabilité de la température à l'échelle continentale pendant les deux derniers millénaires", les chercheurs ont construit des courbes de température pour différentes grandes régions du globe, réparties sur les 7 continents. 511 enregistrements locaux, obtenus à partir d'analyses de cernes d'arbres, de grains de pollen fossiles, de coraux, de sédiments lacustres et marins, de carottes de glaces, de stalagmites, et de documents historiques ont été utilisés. Il s'agit, dans la plupart des cas, d'enregistrements à haute résolution, permettant de caractériser la variabilité du climat à l'échelle de l'année ou de la décennie, et non d'enregistrements pour lesquels le signal est lissé sur plusieurs siècles. En Afrique, cependant, le nombre d'enregistrements était trop faible pour une détermination précise des changements de température sur le long terme pour ce continent. Il ne fait aucun doute que cette nouvelle base de données sera largement utilisée dans les études à venir, en particulier pour effectuer des comparaisons avec les sorties des modèles numériques de climat, utilisés également pour étudier l'évolution future du climat.

Les résultats montrent que l'évolution des températures a été plus cohérente parmi les continents de chaque hémisphère qu'entre les deux hémisphères. Le professeur Heinz Wanner, de l'Université de Berne (Suisse) est l'un des architectes du réseau PAGES 2k. Il indique que des périodes caractéristiques ressortent clairement, comme par ex. une période médiévale chaude suivie d'un petit âge de glace, mais sans présenter une uniformité à l'échelle globale. Une période particulièrement fraîche est en effet enregistrée dans toutes les régions vers l'an 1500. Cependant, cette baisse de température se produit avec quelques dizaines d'années d'avance en Arctique, Europe et Asie, par rapport aux Amériques et à l'Hémisphère Sud. Ces découvertes vont vivement stimuler les discussions au sein de la communauté des climatologues.

L'inversion de la lente tendance au refroidissement

L'observation la plus cohérente entre les régions étudiées est une tendance lente, mais globale, à un refroidissement au cours des 2000 dernières années. Elle a été causée par la combinaison de facteurs naturels, tels que les variations lentes de l'orbite terrestre, une tendance générale à l'augmentation de l'activité volcanique, des variations de l'activité solaire, et des changements de la couverture végétale. Au cours de la période 830-1910, les refroidissements les plus prononcés en moyenne sur 30 ans sont observés durant les périodes de plus faible activité solaire et de fortes éruptions volcaniques. La conjonction des deux phénomènes a été responsable d'une baisse marquée des températures durant 5 épisodes ayant duré de 30 à 90 ans, entre 1251 et 1820.

Le lent refroidissement a été interrompu vers la fin du 19e siècle par le réchauffement climatique du 20e siècle, qui a donc renversé la tendance. On note que ce réchauffement a été 2X plus marqué dans l'hémisphère nord que dans l'hémisphère sud et que l'augmentation récente des températures n'est pas claire en Antarctique.

Une analyse de l'évolution des températures par intervalles de 30 ans montre que la période de 1971 - 2000 a été probablement plus chaude que toute autre période de 30 ans pendant les 1400 dernières années. Cependant, certaines régions ont connu au début de notre ère des épisodes de 30 ans plus chauds qu'au 20e siècle. Ainsi, en Europe, les années entre 21 et 80 ont probablement été plus chaudes que les années 1971-2000.

Pour en savoir plus, contacts :

  • Sources : Service Presse et Communication - Université catholique de Louvain - Isabelle Decoster, attachée de presse - http://www.uclouvain.be/presse  - tél. : +32 10 47 88 70 - +32 (0) 486 42 62 20 - email : isabelle.decoster@uclouvain.be
  • Rédacteurs : Isabelle DECOSTER - isabelle.decoster@uclouvain.be
  • Origine : BE Belgique numéro 73 (3/05/2013) - Ambassade de France en Belgique / ADIT - http://www.bulletins-electroniques.com/actualites/72962.htm


Espagne 

17/06/2013 Acidification et réchauffement global en mer Méditerranée http://www.bulletins-electroniques.com/actualites/73291.htm

Une équipe internationale de chercheurs, coordonnées par Patrizia Ziveri, de l'Université Autonome de Barcelone, vient d'achever une croisière scientifique sur la mer Méditerranée afin de réaliser un sondage des conditions actuelles de l'environnement marin en relation avec les concentrations élevées de CO2 atmosphériques. L'objectif était également de relever et détecter les autres impacts anthropogéniques perceptibles également dans l'océan, comme la distribution de micro plastiques.

C'est à travers le projet européen MEDSEA, co-financé par le 7° programme cadre de l'Union Européenne (PCRDT) et par le Ministère de l'Economie et de la Compétitivité (MINECO) que cette excursion aura permis de réaliser une prospection complète des changements chimiques, climatiques et biologiques ayant lieu en mer Méditerranée, en conséquence de l'augmentation de la part de Dioxyde de Carbone. Elle révèle en particulier l'impact de l'acidification sur les organismes marins mais aussi les impacts socio-économiques de ces changements.

L'acidification de l'océan

L'acidification des océans est un terme utilisé pour décrire la diminution du pH de l'océan en raison des émissions de CO2 d'origine humaine, comme l'utilisation de combustibles fossiles et de la production de ciment. Il s'agit du premier effort conjoint pour étudier l'impact de l'acidification et du changement climatique dans les écosystèmes méditerranéens, dont la préservation intéresse directement plusieurs millions de personnes vivant sur les côtes.

Au cours des dernières années, la question de l'acidification des océans est rapidement survenue dans les programmes politiques, économiques et sociaux et son étude est particulièrement pertinente lorsqu'elle est intégrée à l'analyse d'autres pressions exercées sur le milieu marin, telles que la température, la surpêche, les espèces invasives et désoxygénation. La mer Méditerranée est d'un fort intérêt pour avancer sur la recherche de l'acidification de l'océan car c'est une mer complexe, semi-fermée et comprenant une grande variabilité environnementale.

A bord du navire de l'Institut Espagnol d'Océanographie (IEO), le navire Angeles Alvarino, les scientifiques ont prélevé des échantillons d'eau, à la fois en surface et en profondeur, pour analyser la concentration de CO2 et des autres substances chimiques. L'objectif étant d'observer l'impact direct sur certains organismes et les processus biogéochimiques. Quatre robots marins chargés de capteurs miniatures ont été lancés dans les différentes régions de la Méditerranée pour poursuivre les observations des paramètres marins, comme la température, les nutriments, la salinité, la chlorophylle, etc... pendant les prochains mois.

Parmi les premiers résultats de cette campagne, les chercheurs mettent notamment en évidence la présence de nombreux petits déchets en plastique flottant en haute mer. C'est la première fois qu'une étude de ce type a été faite sur les déchets à l'échelle de tout le bassin méditerranéen. Le résultat est surprenant, car des micro-plastiques ont été largement retrouvés dans des zones très éloignés de la côte. Une autre donnée importante de la campagne a été l'observation de grandes concentrations de méduses en haute-mer. Cette campagne a permis pour la première fois d'avoir une idée précise de leur nombre à l'échelle méditerranéenne. Dans le bassin occidental de la méditerranée, de grandes quantités d'espèces de méduses "Pelagia noctiluca" (méduses luminescentes) et de polypes "Velella velella" (voile de mer ou voile violet) ont été retrouvées. Les données obtenues permettront d'avancer dans l'étude des causes de ces proliférations et pourront déterminer si elles sont d'origine anthropique.



12/04/2013 Le changement climatique redessinera la carte mondiale des zones viticoles http://www.bulletins-electroniques.com/actualites/72837.htm

"Le rock français c'est comme le vin anglais" ironisait John Lennon. On ne sait pas quelle sera l'influence du changement climatique sur la production musicale en France. Une étude récente à laquelle a participé le "Laboratorio Internacional en cambio global (LINCGlobal)" commun au CSIC espagnol et à la Pontificia Universidad Catolica de Chile, montre en revanche qu'il pourrait faire du sud de l'Angleterre une zone propice à la culture des vignes à partir de 2050.

Plus précisément, les chercheurs impliqués dans ce travail publié dans Proceedings of the National Academy of Science, ont analysé la modification induite par le changement climatique de l'équilibre entre température et humidité dans les différentes régions du globe, et en concluent deux grands types de conséquences sur la production viticole. D'une part elle modifiera la carte des régions les plus adaptées à cette culture, en réduisant de 25 à 75% les terres propices dans les principales zones de production actuelles comme la rive nord de la Méditerranée. La carte proposée par les chercheurs montre notamment que le bordelais ou la vallée du Rhône sont menacés. D'autres territoires pourraient en revanche devenir de nouvelles zones viticoles, comme l'Europe du Nord.

D'autre part, cette évolution du climat pourrait entraîner une forte pression sur les ressources hydriques dans les régions viticoles traditionnelles pour maintenir leur production sur des terres situées dans un zone où le climat sera devenu plus sec. Dans d'autres régions, l'introduction de vignes pourrait par ailleurs conduire à perturber la faune ou l'ensemble de l'écosystème, car comme l'indique l'article "les vignes pourraient se déplacer plus rapidement que les espèces".

Reference bibliographique: Lee Hannah, Patrick R. Roehrdanz, Makihiko Ikegami, Anderson V. Shepard, M. Rebecca Shaw, Gary Tabor, Lu Zhi, Pablo A. Marquet, and Robert J. Hijmans. Climate change, wine and conservation. PNAS. doi: 10.1073/pnas.1210127110

 

Lettonie 

7/05/2013 Assainissement de la mer Baltique d'ici 2020 http://www.bulletins-electroniques.com/actualites/72982.htm

es leaders des onze états qui bordent la mer Baltique ont été unanimes : la mer Baltique devra être nettoyée d'ici 2020. L'environnement marin de la fragile Baltique est important pour le bien-être de millions de personnes. Cette décision a été prise lors de la conférence qui a réuni les chefs ou représentants des chefs de gouvernement des états de la mer Baltique qui s'est tenue début avril 2013. Ces rencontres sont fixées deux fois par an dans le cadre de la convention d'Helsinki "Helcom" [1] conclue en 1974 afin de protéger l'environnement marin, avec une attention toute particulière à la lutte contre la pollution pétrolière et autres substances dangereuses.

La stratégie européenne pour la région de la mer Baltique [2] est une initiative relativement récente qui rend compte d'une nouvelle forme de coopération entre les pays de la région [3]. Comme les états de la mer Baltique développent des moyens pour travailler ensemble, il est clair que l'accent dominant doit porter sur un intérêt commun : sauver la mer Baltique. Sans cela, les deux autres préoccupations majeures dans la stratégie de la mer Baltique, connecter la région et renforcer sa prospérité, n'ont alors que peu de sens. D'importants progrès ont pu être observés à travers la stratégie européenne pour la Baltique : les différents états ont déjà pris la décision de supprimer les phosphates dans les détergents (et plus particulièrement les détergents domestiques) qui contribuent à l'eutrophisation (voir BE Lettonie 7, "Prolifération d'algues dans la mer Baltique" [4]). Les états ont également mobilisé les agriculteurs afin d'adopter de meilleures pratiques et éviter la pollution, et ont mis en place des projets pilotes pour l'élimination des nutriments dans les usines de traitement des eaux usées de quatre municipalités clés.

Cependant, les états de la Baltique ont besoin de "stimuli" additionnels pour travailler ensemble avec le soutien des décideurs ayant une influence directe sur la situation environnementale de la Baltique. C'est ainsi que plusieurs forums ont été établis avec une seule idée : protéger la Baltique (le forum annuel de la stratégie européenne pour la région de la mer Baltique à Vilnius les 11 et 12 novembre 2013, le Forum du développement Balte [5] à Riga les 29 et 30 2013). Tous les états bordant la mer Baltique croient en cette coopération pour trouver des solutions pragmatiques aux défis de la région. Cette coopération pour la mer Baltique a déjà mené à de grands projets mais les états doivent rester ambitieux, et assurer un environnement meilleur pour les générations à venir.

Pour en savoir plus, contacts :

 

Royaume-Uni

16/10/2013 Changement climatique et communication scientifique : faire simple sans être simpliste ? http://www.bulletins-electroniques.com/actualites/74116.htm

La communauté scientifique britannique est fortement impliquée dans l'étude du changement climatique, et nombre de ses chercheurs ont participé à la rédaction ou à la discussion du dernier rapport de l'International Panel for Climate Change (IPCC, ou GIEC en français) rendu public le 27 septembre 2013 [1].

Elle a donc suivi avec intérêt sa présentation officielle, et organise de nombreuses présentations, conférences, et débats sur le sujet, au sein des universités ou dans les sociétés savantes. Ainsi la Royal Society a-t-elle tout récemment invité le co-président de l'IPCC, Thomas Stocker, à faire plusieurs présentations successivement devant des fonctionnaires britanniques, auprès d'un grand public éclairé, et lors d'un colloque scientifique intitulé "next steps in climate science" [2].

La communication vers le public, préoccupation traditionnelle du monde scientifique britannique, à travers notamment l'action des sociétés savantes, et activité encouragée par les pouvoirs publics, prend cependant dans ce domaine du changement climatique une connotation cruciale et délicate, compte tenu d'une part de sa complexité, et d'autre part de sa dimension de politique publique.

Sir Mark Walport, Chief Scientific Adviser auprès du gouvernement britannique, a ainsi souligné l'importance de cette communication vers une large audience, en relevant que sa fonction auprès du gouvernement était justement de faciliter cette transition du scientifique vers le politique grâce à cette communication, en décrivant les trois "lentilles" à travers lesquelles la politique publique se doit de voir le problème : réalité physique du phénomène et des risques , approche économique (prix de l'énergie, coût des dommages), et sécurité d'approvisionnement énergétique. Les risques liés au changement climatique figurent bien tout en haut de liste du National Risk Register du gouvernement, mais Sir Mark Walport a fait état de sondages auprès de la population du Royaume-Uni, qui montrent que la perception de l'importance du changement climatique diminue graduellement, tendance probablement liée au contexte économique défavorable et à l'évolution des prix de l'énergie au Royaume-Uni.

Le Science and Technology Committee de la Chambre de Communes vient également de lancer des auditions publiques sur le thème "climat : compréhension du public et ses implications politiques". Les premières auditions ont mis l'accent sur le rôle des communautés locales et l'effet d'une communication proche du terrain, mettant en avant les impacts quotidiens et les risques sur les populations, et l'intérêt concret des économies d'énergies. Et en matière de communication grand public justement, plus les auteurs du rapport de l'IPCC sont convaincus de leurs mesures, de leurs hypothèses et de leurs modèles, plus ils apparaissent précautionneux dans la formulation de leurs résultats, peut-être échaudés par des polémiques passées et par la contradiction portée par certains climatosceptiques.

Il est vrai que le sujet est d'une telle complexité qu'il se prête mal à cette exercice de simplification. Une fois affirmée la conviction des auteurs "à 95%" que, depuis 1950, le réchauffement climatique est "non équivoque" et "sans précédent depuis un millénaire", que l'influence humaine sur le climat est "évidente", et que la hausse des températures au cour de ces trente dernières années est "certainement" la plus forte depuis un siècle, et "probablement" depuis plus de 1 500 ans, il faut déjà comprendre que ces assertions s'appuient sur toute une série de mesures et de constatations (fonte continue des glaces, élévation accélérée du niveau de la mer, forçage radiatif total positif, dû essentiellement à l'accroissement du taux de CO2 atmosphérique, etc.) , prenant en compte les perturbations solaires et les éruptions volcaniques, le tout avec de grandes précautions méthodologiques.

Les difficultés commencent avec la modélisation (c'est bien le cumul des émissions de CO2 qui offre la plus forte corrélation avec l'évolution de la température moyenne, et c'est une des bases de modélisation des scenarios), mais aussi parce qu'il faut passer d'un raisonnement global à des conséquences régionales : par exemple, il est fait état d'une variabilité interne accrue du système, en particulier en ce qui concerne la répartition spatiale et temporelle les précipitations, ce qui est déterminant pour une bonne prise en compte des conséquences concrètes sur les pays et les individus, alors même que les modèles dits régionaux sont encore très perfectibles.

Et cela devient vraiment délicat quand on rentre dans certains détails, tels le "warming hiatus". Ce fléchissement depuis les années 2000 de l'accroissement de la température moyenne à la surface du globe ne remet pas en cause la conviction des auteurs d'un réchauffement global, fondée sur toute une série d'autres indices que cette température moyenne. Il soulève en revanche de vraies questions scientifiques sur la compatibilité de certaines séries de données, sur la validité de certains modèles, et sur la nature même du phénomène, que l'on tente d'expliquer par une variabilité temporelle mais surtout spatiale de l'accumulation de chaleur, notamment par un possible stockage profond de la chaleur dans les océans. Ce hiatus peut évidemment donner prise à des réactions de climatosceptiques (il n'y en a pas cependant pas eu de récentes pour l'instant au Royaume-Uni, contrairement aux USA et à la France).

Plus gênant reste le fait que, même si la température moyenne de surface du globe se révèle ne pas être toujours le meilleur indicateur du bilan énergétique du climat, c'est néanmoins celui qui sert de base aux différents scenarios et aux programmes de mitigation.

Afin d'enrayer toute mauvaise interprétation ou polémique, le Science Media Centre [3], qui est un organisme indépendant basé à Londres destiné à faciliter l'accès et les relations entre les journalistes scientifiques de la grande presse nationale (écrite et radio/télé) et le monde scientifique, a accompagné la sortie de ce rapport de l'IPCC par l'organisation d'un briefing spécifique entre la presse scientifique et une douzaine d'experts, et par la mise sur son site d'une trentaine de réactions de scientifiques de renom venant des principales universités du pays. S'agissant plus spécifiquement du warming hiatus (ou slowdown), le Science Media centre a mis ces derniers jours sur son site une "briefing note" [4] synthétisant d'une manière très accessible la position dominante de la communauté scientifique sur ce sujet délicat.

Il y a néanmoins quand même un risque d'affaiblissement du message général, ou de relativisation possible des enjeux par les politiques. C'est déjà un peu déjà le cas au Royaume-Uni, où le ministre de l'agriculture, de l'environnement et des affaires rurales, Owen Patterson, qui est en particulier chargé au sein du gouvernement de l'adaptation au changement climatique, a indiqué au cours d'une intervention devant la conférence annuelle du parti conservateur que le risque de changement climatique avait été exagéré. Il a déclaré être soulagé de voir que ce rapport prévoit une hausse des températures relativement modeste et déjà à moitié réalisée (sic !), et affirmé que l'humanité devrait pouvoir s'adapter dans le temps.

Les réactions de plusieurs scientifiques britanniques, certains directement impliqués dans la rédaction du rapport de l'IPCC, ont été évidemment rapides et plutôt virulentes, et d'autres membres du gouvernement ont pris des positions beaucoup plus mesurées, mais le débat politique n'est peut-être pas clos au Royaume-Uni, et cela dans un contexte d'austérité économique confirmée, et de vifs débats sur le prix de l'énergie.

Le rôle du Governmental Chief scientific Adviser dans ce dossier va donc être "probablement" assez délicat dans les prochains mois...

Pour en savoir plus, contacts :


1/06/2013 Rapport : Nouvelle vague d'énergies au Royaume-Uni Ambassade de France au Royaume-Uni - 1/06/2013 - 20 - pdf 7,1 Mo http://www.bulletins-electroniques.com/rapports/smm13_015.htm
Auteurs : RIERA Eliette

Alors que l'année 2012 a été marquée de nombreux événements climatiques majeurs, avec le record de fonte des neiges de l'Arctique ou les dégâts causés sur la côte Ouest des Etats-Unis par l'ouragan Sandy, l'importance du changement climatique et l'urgence d'une action internationale concrète sont plus que jamais évidentes. A une époque où le réchauffement climatique, ainsi que les niveaux de dioxyde de carbone (CO2) présents dans l'atmosphère atteignent des niveaux alarmants, les technologies à faible consommation, notamment les énergies vertes, deviennent un enjeu crucial pour notre société. Les Etats membres de l'Union européenne devront, d'ici 2020, avoir réduit de 20 % leurs émissions de CO2 par rapport aux niveaux de 1990.

Lors d'un discours prononcé en juillet 2012, Edward Davey, ministre de l'énergie et du changement climatique, a incité les pays de l'Union à élever ces objectifs jusqu'à 30 % de réduction des émissions1. Cependant, seule une poignée d'énergies renouvelables sont, à ce jour, totalement opérationnelles, et bien que l'éolien (sur terre ou en mer) ou encore l'énergie solaires aient prouvé leur efficacité, ces méthodes restent bien trop dépendantes du climat pour constituer une alternative viable aux énergies fossiles, et l'énergie nucléaire soulève encore beaucoup de problématiques.

D'un autre côté, les marées sont des phénomènes scientifiques bien connus, fiables et puissants. Les énergies marines, exploitant les forces de nos océans et de nos mers, possèdent un fort potentiel pour alimenter le futur mix énergétique qui sera nécessaire pour atteindre les objectifs ambitieux que se sont fixés les pays européens. Ces technologies sont encore nouvelles, et par conséquent coûteuses, et encore incertaines (notamment en matière d'impacts environnementaux), mais ont connu de grands progrès lors des dernières années. La fin de l'année 2012 et le début de l'année 2013 ont été marqués par des annonces encourageantes pour le domaine des énergies marines, montrant une volonté à la fois des secteurs académiques, industriels et politiques d'aider ces technologies à franchir le cap de la commercialisation et à devenir compétitives.

La recherche dans les énergies marines est une discipline qui connait actuellement un grand dynamisme en Europe. Le Royaume-Uni s'est notamment illustré par une avance notable, à la fois dans les domaines de la recherche pure, mais également grâce à la mise en place d'infrastructures permettant un déploiement considérable de prototypes à pleine échelle et de programmes d'études d'impact environnementaux. La création de centres de recherches et de parcs d'énergies marines, ainsi que de dispositifs de financements dédiés, ont contribué à hisser les britanniques au rang de leaders mondiaux dans ce domaine en pleine expansion.

Ce document a pour but de donner un aperçu du paysage britannique dans ce domaine, permettant de mettre en exergue les domaines d'excellences présents au Royaume-Uni, ainsi que le contexte politique, social et économique mis en place pour leur bon développement.

Au sommaire de ce document :

1. Contexte général

1.1 Objectifs européens

1.2 Objectifs britanniques

  • - Climage Change Act 2008
  • - Committee for Climate Change
  • - Energies renouvelables

2. Energies marines

2.1 Place des énergies marines dans la stratégie britannique renouvelables

2.2 Situation actuelle et perspectives

  • - Energies renouvelables : soutiens et mécanismes gouvernementaux
  • - Financements propres aux énergies marines
  • - Potentiel

3. La RD&D, outil essentiel du développement des nouvelles technologies

3.1 Excellence britannique en R&D

  • - RCUK Energy Programme
  • - Centre pour les énergies renouvelables
  • - Consortia SuperGen
  • - SuperGen UK Centre for Marine Energy Research

3.2 Formation : le programme IDCORE

3.3 Parcs d'énergies marines et plateformes de tests

  • - Bassins de test à petite échelle
  • - Plateformes de test en mer : les exemples du Wave Hub et de l'EMEC
  • - Parcs d'énergies marines

4. L'Ecosse, leader mondial des énergies marines

4.1 Un environnement propice au développement des énergies marines

4.2 La problématique marine au sein du gouvernement écossais

  • - Marine Scotland
  • - Le Marine Energy Group

4.3 Financements et institutions notables

  • - Instituts de recherche
  • - Scottish European Green Energy Centre
  • - Scottish Renewables
  • - Le Saltire Prize

Conclusion

Téléchargez gratuitement la version pdf de ce rapport à l'url : http://www.bulletins-electroniques.com/rapports/smm13_015.htm

Origine : Ambassade de France au Royaume-Uni / ADIT - http://www.bulletins-electroniques.com/rapports/smm13_015.htm


3/09/2013 Lancement des plus grands parcs éoliens du monde http://www.bulletins-electroniques.com/actualites/73815.htm

L'éolien offshore, priorité affichée du gouvernement britannique [1] notamment dans l'optique de réduction des émissions de gaz à effet de serre et de création d'emploi, pourrait permettre de produire suffisamment d'électricité pour 11 millions de maisons britanniques d'ici 2020, tout en créant près de 30.000 emplois, et contribuant jusqu'à 7 Md£ à l'économie britannique. Pays disposant de la plus grande puissance éolienne offshore installée, le Royaume-Uni a confirmé cet été sa place de leader mondial dans ce secteur.

Début août, le Department for Energy and Climate Change (DECC, ministère de l'énergie et du changement climatique) a ainsi publié la stratégie industrielle en éolien offshore [2]. Le gouvernement a ainsi annoncé :

- la mise à disposition de 20 M£ de financements provenant du Regional Growth Fund (fonds pour la croissance régionale) et destinés à améliorer la chaîne de production britannique pour l'éolien offshore ;

- mais également 46 M£ permettant de catalyser l'innovation conjointe entre l'industrie, le gouvernement et les académiques, et d'aider les entreprises à commercialiser de nouveaux produits.

Par ailleurs, les deux plus grands parcs éoliens offshore au monde, le London Array et Greater Gabbard sont désormais opérationnels au large des côtes britanniques, et de nouveaux déploiements de fermes, à la fois terrestres et maritimes, ont été annoncés.

Le London Array

Le 4 juillet 2013, le premier ministre David Cameron, accompagné de Greg Barker et Edward Davey, respectivement ministre et secrétaire d'Etat du DECC, ont assisté à l'ouverture du plus parc éolien offshore du monde : le London Array, située à Margate dans le Kent. Constituée de 175 turbines, cette ferme a la capacité de produire jusqu'à 630 MW d'électricité, suffisamment pour alimenter près d'un demi-million de maisons, l'équivalent des deux-tiers du Kent [3].

Projet de 1,5 Md£, co-financé par les entreprises britanniques E.ON, DONG Energy et Masdar (entreprise d'énergies renouvelables d'Abu Dhabi bénéficiant d'un soutien financier de l'Etat), sa réalisation a nécessité la collaboration de 6 700 personnes au sein de plus de 75 organisations. Les investissements réalisés ont également bénéficié à de nombreux secteurs industriels britanniques, impliquant par exemple des entreprises de câblages à York, des bateaux provenant de Brightlingsea, et des tours éoliennes écossaises.

David Cameron a salué l'ouverture de cette ferme en la qualifiant de "triple victoire", tout d'abord en apportant des bénéfices à long terme dans le Kent, mais également en permettant de démontrer que des projets d'énergie renouvelables à grande échelle peuvent voir le jour au Royaume-Uni, et enfin, en prouvant que les projets de cette échelle, quel que soit le secteur, ne sont pas réservés aux pays des BRICs ou aux Etats-Unis, mais peuvent également être menés à bien en Europe Occidentale.

Félicitant tous les acteurs impliqués dans ce projet, Edward Davey a déclaré : "Le London Array est un élément important pour l'éolien offshore, un élément important pour la production d'électricité britannique, et un élément important pour l'attraction d'investissements vers le Royaume-Uni". Il a rappelé que cette ferme permettrait d'augmenter la part d'énergies renouvelables présentes dans le mix énergétique britannique, et de réduire les émissions de dioxyde de carbone.

Greater Gabbard

Un mois plus tard, le 7 août 2013, le ministre de l'énergie et de l'industrie, Michael Fallon, a ouvert officiellement la ferme éolienne de Greater Gabbard, au large du Suffolk. Comportant aujourd'hui 140 turbines, elle sera étendue d'ici 2017 avec la ferme annexe Galloper, doublant le nombre de turbines opérationnelles. Ce projet de 1,3 Md£ a été financé par les compagnies SSE Renewables, leader en production d'électricité issue de sources renouvelables avec une capacité totale de 3 200 MW, et l'entreprise RWE Innogy, filiale spécialisée en énergies renouvelables de RWE Group, qui construit et gère le fonctionnement d'installations de production d'électricité à partir de sources renouvelables. Greater Gabbard permettra également d'alimenter près de 500.000 maisons en électricité dans la région du Suffolk, sur la côte Est de l'Angleterre.

Michael Fallon a déclaré : "Le Royaume-Uni est le leader mondial en production d'énergie éolienne offshore, avec une capacité de génération plus importante que le reste du monde combiné, et nous souhaitons voir ce secteur évoluer encore plus. Greater Gabbard a déjà permis de créer des emplois et d'apporter des profits à la communauté locale, avec des centaines de personnes travaillant sur le site, et un fond de 150.000 £ créé pour soutenir les initiatives locales".

Projets à venir

Par ailleurs, deux nouveaux projets de grande envergure ont obtenu le 11 juillet 2013 le feu vert du gouvernement britannique :

- pour l'éolien offshore, la ferme de Triton Knoll, au large des côtes du Lincolnshire et du Norfolk : plus grande que le London Array, cette ferme comportera 288 turbines, pour une capacité de 1 200 MW, permettant d'alimenter 820.000 maisons. Il est estimé que ce projet attirera près de 3,6 Md£ d'investissement dans les régions concernées, et permettra de créer 1 130 emplois ;

- du côté de l'éolien terrestre, la ferme de Pen y Cymoedd, au Sud du Pays de Galles : elle sera la plus grande ferme éolienne terrestre du Pays de Galles et de l'Angleterre, avec la construction de 76 turbines qui devrait débuter en 2014, pour une génération d'électricité dans le réseau britannique d'ici 2016. Bénéficiant d'un investissement de 400 M£ de la part de la compagnie Vattenfall, elle permettra de produire de l'électricité pour 140.000 maisons, et de créer plus de 300 emplois.

Le Royaume-Uni profite ainsi de ces bonnes nouvelles et de ces projets phares pour envoyer un nouveau signal positif aux investisseurs quant au climat propice au développement de nouveaux projets éoliens. Ces initiatives permettent par ailleurs de soutenir la croissance économique et la création d'emplois dans les communautés locales, tout en aidant à réduire les émissions de gaz à effet de serre du Royaume-Uni.

[3] Chiffre prévisionnel, prenant en compte des projections de consommation énergétiques des habitations de la région, un lissage dans le temps de l'énergie récupérée, stockée, redirigée (l'énergie éolienne, comme beaucoup d'énergies renouvelables, est "intermittente"), les caractéristiques techniques des éoliennes en elles-mêmes et du réseau électrique utilisé, etc.

Pour en savoir plus, contacts :

  • Sources :

- Communiqués de Presse du DECC :
* 04/07/2013, "World's largest offshore wind farm opens in the UK" : http://redirectix.bulletins-electroniques.com/zhmTB
* 11/07/2013, "UK wind energy goes large" https://www.gov.uk/government/news/uk-wind-energy-goes-large
* 17/07/2013, "Davey - plan for energy infrastructure increases investor certainty and keeps bills down" http://redirectix.bulletins-electroniques.com/RbT63
* 07/08/2013, "Fallon opens world's second largest offshore wind farm" http://redirectix.bulletins-electroniques.com/BIrhk
* 27/06/2013, "New energy infrastructure investment to fuel recovery" http://redirectix.bulletins-electroniques.com/cYnaj
- DECC, "Offshore wind: part of the UK's energy mix" https://www.gov.uk/offshore-wind-part-of-the-uks-energy-mix

 

Amériques


Canada

13/05/2013 Les stocks halieutiques canadiens et mondiaux en voie d'extinction http://www.bulletins-electroniques.com/actualites/73011.htm

Des chercheurs canadiens des côtes pacifique et atlantique ont alerté la communauté internationale sur l'épuisement des ressources halieutiques en publiant de nouvelles prévisions alarmantes sur l'évolution des stocks mondiaux.

L'équipe de recherche comprenant le Dr Jeffrey Hutchings de l'université Dalhousie en Nouvelle-Ecosse -(côte atlantique du Canada) a modélisé les stocks de plus de 150 espèces de poissons et d'invertébrés au cours de 184 évènements historiques d'épuisements de ressources halieutiques à travers le monde. L'étude a été publiée fin avril dans le journal Science sous le titre "Resilience and Recovery of Overexploited Marine Populations [Endurance et reconstitution des populations marines surexploitées]".

Des stocks canadiens en chute libre : exemple de la morue

Dès les années 1970, les chalutiers canadiens ont pêché la morue dans la partie profonde de l'océan atlantique faisant chuter brutalement les stocks. La communauté internationale est trop lente pour mettre en place les quotas internationaux qui régulent désormais la pêche mondiale et, en 1977, le Canada s'attribue toute une région de l'atlantique comme zone de pêche exclusivement canadienne. De manière spectaculaire, le stock halieutique s'effondre jusqu'à sa quasi-disparition en 1990. Alors que 800.000 tonnes de morue étaient pêchées par an en 1970, la production est suspendue en 1992 par un moratoire tardif.

Dans son étude, Jeffrey Hutchings précise que malgré son bien-fondé, ce moratoire a empêché les stocks de se reconstituer puisqu'il a laissé oeuvrer les pêcheries à petite échelle qui ont tué dans l'oeuf les possibilités de régénération. On ne compte aujourd'hui que 2 à 3% du volume des années 60 après 20 ans de suspension... Les stocks canadiens pour les autres poissons sont en déclin constant ou bien stagnent à des niveaux dangereusement bas.

Les stocks mondiaux en péril

Le sommet mondial des Nations Unies sur le développement durable en 2002 proposa que les stocks soient ramené à leur niveau de "Rendement Maximal Durable" (RMD = niveau auquel une population est suffisamment nombreuse pour produire un maximum de capture sans mettre son stock en péril) d'ici 2015. Les auteurs de l'étude doutent bruyamment du succès de cette mesure dans 2 ans sachant que seul 1% des stocks a été ramené au RMD jusqu'alors et que les trois-quarts des stocks en périls continuent d'être surexploités.

Mais des espoirs persistent

L'étude nuance cependant son constat de plusieurs découvertes positives. Les stocks sont en effet capables de survivre plus longtemps que prévu et une reconstitution des stocks reste encore possible si des mesures majeures étaient prises. Le Dr Hutchings donne des espoirs de reconstitution dans les 10 ans si des mesures fortes sont prises pour réduire fortement la mortalité du poisson. Par contre si ces mesures ne sont pas prises rapidement, la durée de reconstitution s'allonge et devient exponentiellement improbable avec le temps.

Le Dr Hutchings souligne que le devenir des stocks halieutiques mondiaux est entre les mains des politiciens qui doivent faire preuve de courage pour ne plus reporter ces décisions urgentes pour des raisons à court terme qui condamnent les populations sur le long terme.

Pour en savoir plus, contacts :

  • - Article original : Neubauer, P., O. P. Jensen, J. A. Hutchings, et J. K. Baum. 2013. "Resilience and Recovery of Overexploited Marine Populations". Science 340 (6130) (avril 18): 347 349. doi:10.1126/science.1230441. http://www.sciencemag.org/content/340/6130/347.abstract
  • - Jeffrey A. Hutchings - Professeur à la Faculté de Science de l'université Dalhousie - Jeff.Hutchings@dal.ca
     


Etats-Unis

 25/10/2013 Acidification des océans : une menace pour les Etats-Unis http://www.bulletins-electroniques.com/actualites/74177.htm

L'acidification des océans est un problème majeur, lié au réchauffement climatique, qui menace la biodiversité des océans. Depuis la révolution industrielle, les océans ont absorbé un quart des émissions de CO2 liées à la combustion d'énergie fossile [1] (2.000 milliards de tonnes). Cet effet de "puits de carbone" limite l'impact du réchauffement climatique, du moins à court terme, mais augmente considérablement l'acidité des océans, qui atteint aujourd'hui des niveaux record. Plusieurs rapports, auxquels ont contribué de nombreux scientifiques américains, publiés au cours des dernières semaines, font état des mêmes résultats inquiétants sur les conséquences de l'acidification des océans. La côte Nord-Ouest des Etats-Unis, dont une partie de l'économie dépend fortement des ressources marines, est d'ores et déjà affectée par les conséquences de l'acidification des océans et la côte Est commence également à s'en inquiéter.

Un phénomène inquiétant

Le premier volume du cinquième Rapport d'évaluation du GIEC [2] (Groupe d'experts intergouvernemental sur l'évolution du climat), publié fin septembre, décrit précisément ce phénomène et les changements observés dans la chimie des océans. L'Ocean Health Index [3], publié il y a quelques semaines, témoigne également des changements en cours dans les océans, de la nécessité d'une meilleure gestion pour les protéger et de mesures plus précises sur l'acidification. Cet index rend compte chaque année de l'état des services éco-systémiques liés aux océans. Il est dirigé par Ben Halpern, directeur du Center for Marine Assessment and Planning à l'Université de Californie à Santa Babara. Le rapport se base sur 10 services écosystémiques rendus par les océans pour établir leur "état de santé" comme par exemple le stockage du carbone, la propreté des eaux, la biodiversité, la protection des côtes, les économies de bords de mer ou encore le tourisme. Cette année, les chercheurs estiment que le facteur présentant le plus grand danger est la capacité des océans à répondre à nos besoins alimentaires. Enfin, la semaine dernière, State of the Ocean, une étude réalisée tous les deux ans dans le cadre du programme international sur l'état des océans [4], soulignait également les dangers de l'acidification croissante des océans.

Des impacts directs sur l'économie américaine

L'acidification des océans augmente aujourd'hui à un taux plus rapide qu'au cours des dernières 300 millions d'années [5], ce qui présente un danger majeur pour un grand nombre d'espèces. En effet, l'acidification rend plus difficile la construction des coquilles et des squelettes, à partir du carbonate de calcium (CaCO3). Aux Etats-Unis, les conséquences de l'acidification se font déjà sentir, comme le montre le reportage ci-dessous (anglais) réalisé par PBS, une chaîne nationale publique américaine, qui présente les conséquences de l'acidification des océans dans le Nord-Ouest américain, dont l'économie dépend fortement des fruits de mer, et les inquiétudes croissantes de la côte Est :

Des recherches sont nécessaires pour mieux comprendre le phénomène et évaluer son ampleur

L'acidification, la diminution de la concentration en oxygène et le réchauffement des eaux présentent un risque direct pour les coraux mais également pour les espèces qui construisent une coquille qui risque de devenir de plus en plus mince et de plus en plus fragile (comme les moules, les huîtres, les homards ou encore les crabes). Les scientifiques du laboratoire sur l'environnement marin du Pacifique de la NOAA [6] (National Oceanic and Atmospheric Administration) ont d'ailleurs récemment observé la dissolution des coquilles de ptéropodes, présents dans le Nord-Ouest du Pacifique et dans les eaux arctiques. La NOAA travaille également sur des projections de l'acidification des océans pour étudier leur impact sur l'industrie de la pêche au crabe, particulièrement développée en Alaska [7]. De nombreux organismes et écosystèmes dépendent également de ces espèces (oiseaux, baleines, poissons). Le cas du saumon rose est exemplaire : les ptéropodes représentent 60% de son alimentation.

La NOAA a lancé une nouvelle expédition au cours de l'été, rassemblant des chimistes et des biologistes, pour mieux comprendre les conséquences de l'acidification sur les différents organismes marins dans les eaux du Nord-Ouest des Etats-Unis [8].

Un prix lancé pour encourager le développement de capteurs plus performants et moins chers

S'il est clair que les océans s'acidifient de plus en plus à un niveau global, il reste de nombreuses incertitudes sur le niveau des changements selon les différentes régions et les niveaux de profondeurs. Obtenir des données plus précises permettrait de faire avancer les connaissances scientifiques et de mieux préparer les politiques de protection des océans. De nombreux tests ont été réalisés mais ils sont encore assez coûteux et difficiles.

Pour résoudre ce problème, un nouveau prix a été lancé en septembre dernier qui propose d'offrir une récompense d'un million de dollars à une équipe capable de développer un moyen de tester facilement et à moindres coûts l'acidité des océans (sans réétalonnage fréquent) et un autre million de dollars à l'équipe qui développera le détecteur le plus précis (pouvant fonctionner à plus de 3000 mètres de profondeur et capable de détecter une variation de pH de 0.002). L'objectif de ce prix est d'avoir des données sur l'acidité des océans similaires à celles que nous avons pour la température [9].

Le prix, qui porte le nom de son initiatrice, "Wendy Schmidt Ocean Health X PRIZE", a déjà connu un certain succès dans le secteur des océans ; par exemple en 2010, ce concours a permis le lancement d'une technologie capable d'accélérer le nettoyage des eaux de surface des océans suite à des déversements de pétrole [10]. Créé en 1995, l'ONG XPrize organise régulièrement des prix dans 5 catégories (énergie et environnement, exploration, développement sciences de la vie et apprentissage). Espérons que de nouveaux succès dans le domaine de la mesure du pH contribueront à la compréhension de l'évolution des océans, et à leur sauvegarde.

Pour en savoir plus, contacts :

  • - [2] Pour en savoir plus et lire le rapport : http://www.ipcc.ch
  • - [3] Pour en savoir plus : http://www.oceanhealthindex.org/
  • - [4] Pour en savoir plus : http://www.stateoftheocean.org/index.cfm
  • - [9] Le site du programme ARGO sur la mesure des températures des océans : http://www.argo.net/
  • - [10] Pour en savoir plus sur ce prix: http://www.xprize.org/
  • - Le projet Sea Change, réalisé par le photographe Steve Ringman et le reporteur Craig Welch, présente les changements observés dans la chimie des océans du Nord au Sud du Pacifique. Ce projet a été rendu possible grâce à l'examen de centaines de publications scientifiques sur le sujet et à la participation de scientifiques aux Etats-Unis et dans une demi-douzaine d'autres pays.
  • - Le site du programme sur l'acidification des océans de la NOAA : http://oceanacidification.noaa.gov/
     


4/10/2013 Complexité des systèmes urbains : quelles perspectives ? http://www.bulletins-electroniques.com/actualites/74059.htm

Face à la complexification de nos sociétés modernes (mondialisation accélérée, croissance continue d'une population dont les besoins augmentent, amélioration globale des niveaux de vie et d'éducation), les chercheurs et les ingénieurs sont contraints de mettre au point des méthodes innovantes d'analyse de données pour permettre aux organisations humaines de rester réactives, rigoureuses et précises dans l'accomplissement des tâches qui leur sont affectées.

Il n'aura ainsi fallu que quelques décennies pour que l'étude des systèmes complexes, interdisciplinaires par nature, soit considérée comme une thématique clé de la recherche contemporaine, notamment celle appliquée aux territoires des villes, mégalopoles en tête.

La complexité des systèmes urbains au coeur de la recherche contemporaine

Définition et évolution

On qualifie un système de "complexe" lorsque l'interaction du grand nombre d'entités qui le constituent favorise l'émergence de traits et de phénomènes globaux qui ne peuvent être ramenés à la compréhension des interactions locales. En clair, le tout est plus que la somme de ses parties.

La recherche sur la complexité vise à comprendre des phénomènes dont l'intrication est telle qu'ils sont difficilement abordables en utilisant les méthodes connues. L'étude et la modélisation des systèmes complexes se sont développées il y a plus de quarante ans et ont d'abord trouvé une assise institutionnelle en 1984, aux Etats-Unis, avec la création du Santa Fe Institute. Ses membres fondateurs eurent à coeur de promouvoir l'interdisciplinarité [1]. La biologie (et plus précisément la génomique) fut l'un des premiers secteurs à bénéficier du déluge de données lié à la puissance accrue de calcul des ordinateurs. Au fil des ans, de nombreux autres secteurs ont eux-aussi été transformés par l'accès à des volumes gigantesques de données. Depuis l'explosion des télécommunications à la fin des années 1990, la quantité d'information échangée en continu n'a jamais cessé de croître : le développement massif du web (plus de deux milliards d'internautes dans le monde en 2012 [2]) y a largement contribué. L'avènement plus récent de l'Internet des Objets (appareils connectés aux réseaux de télécommunication tels que les smartphones, ordinateurs, tablettes, capteurs en tout genre) accentue encore plus cette tendance [3]. En parallèle, les données publiques s'ouvrent à la faveur du mouvement Open Data [4, 5], notamment dans le domaine du transport et de l'optimisation du fonctionnement des services publics. Dans ce paradigme en constante évolution, il sera de plus en plus nécessaire de mettre en place des outils formels permettant de naviguer dans ces larges quantités de données disponibles à faible coût [6].

Il est impératif de préciser que la complexité touche l'ensemble des champs de la connaissance. La compréhension des mouvements économiques et financiers ne se cantonne pas à celle de la spéculation d'une poignée de traders, tout comme les embouteillages ne s'expliquent pas par la somme des comportements individuels des automobilistes impliqués [7]. La propagation d'une rumeur ou d'une épidémie relève également d'un important niveau de complexité. Son étude doit donc reposer sur la mise en commun de compétences issues de domaines de recherche différents ainsi que de puissants outils de calculs. La clé serait donc l'interaction de disciplines souvent considérées comme reines - à l'instar des mathématiques ou de l'informatique - avec les autres disciplines comme la biologie et la sociologie. Les données étudiées n'étant plus uniquement physiques, leur analyse nécessite bien le double regard des sciences dures et des sciences dites "molles" : le risque serait trop grand que les physiciens fassent de l'économétrie physique sans se préoccuper des assises économiques et sociales des réalités sur lesquelles ils travaillent [1].

Et la ville dans tout ca ?

Associée aux besoins analytiques de compréhension des systèmes urbains dont est supposée émerger la ville du futur (une ville hyper-connectée et "durable", d'après le triptyque économie-environnement-équité sociale), la recherche sur la complexité vise à mieux comprendre l'imbrication et l'interaction de la foule de paramètres - qu'ils soient relatifs à l'énergie, au transport, à la santé, à l'éducation, etc. - définissant l'espace urbain et le volume relatif de données à traiter (en augmentation exponentielle, comme nous l'avons vu). Ainsi, en connaissant mieux les influences sociologiques ou écologiques d'une ville, sans se cantonner à l'analyse des seuls flux physiques, de grands espoirs sont placés dans l'étude des systèmes complexes comme outil permettant de mieux guider les politiques publiques. En d'autres termes, comment retirer de l'analyse des systèmes urbains des éléments de compréhension et de réflexion pour les décideurs... sans oublier de leur préciser de s'en servir avec précaution, et discernement.

La pression règlementaire sur la thématique de la ville durable, la disponibilité accrue des données sur le territoire urbain et les travaux engagés de manière continue sur le traitement de cette information font que le chantier de la ville du futur est un marché aujourd'hui en pleine maturation où l'innovation joue un rôle majeur. La Silicon Valley n'échappe pas à la règle avec l'émergence d'un grand nombre de startups dans le domaine de l'analyse de données ou du cleanweb, tandis que les universités de premier rang comme Berkeley et Stanford multiplient les programmes ayant trait - de manière logique - à cette "complexité" urbaine [8-10]. La logique Smart Grid [11] d'optimisation énergétique mais aussi celle, plus large, de la ville intelligente [12], sont ainsi typiquement traitées. Parce que les métiers urbains sont tous couplés et s'influencent mutuellement, il faut être capable de modéliser cette interaction systémique pour identifier les bons leviers d'action : un chantier de taille !

Il est d'ailleurs intéressant de souligner que désormais, rendre la ville durable passe par une modalité de recherche non plus seulement centrée sur l'excellence de coeurs disciplinaires, mais sur la qualité de l'interdisciplinarité. Le tout est plus que la somme de ses parties, n'est-ce pas ?

Sources :

 

14/06/2013 Les biocarburants : le point sur les impacts environnementaux et les gaz à effet de serre http://www.bulletins-electroniques.com/actualites/73272.htm

Le développement des biocarburants (également appelés agrocarburants) représente un enjeu important pour les Etats-Unis. Comme nous l'évoquions dans de précédents communiqués cette année [1,2], les Etats-Unis poursuivent les investissements financiers pour développer le secteur des biocarburants de seconde et de troisième générations (attribution de plus de 50 millions de dollars de subventions gouvernementales début 2013). Les travaux de recherche se concentrent aujourd'hui sur l'aspect environnemental lié à la production et à l'utilisation des biocarburants. Depuis le début de l'année 2013, le Comité américain de l'Energie et du Commerce a publié une série de livres blancs afin de mettre à jour le programme Renewable Fuel Standard (RFS) lancé en 2007. A ce jour, trois publications ont été éditées: 1. "Les problèmes de compatibilité des biocarburants mélangés à l'essence" (publié le 20 mars 2013 [3]), 2. "Les impacts sur le secteur agricole" (publié le 18 avril 2013 [4]), et 3. "Bilan des émissions de gaz à effet de serre et des impacts environnementaux générés par les biocarburants" (publié le 9 mai 2013) [5].

Pour mémoire, l'agence américaine de protection de l'environnement (EPA) a lancé, en 2007, un programme nommé Renewable Fuel Standard (RSF1), établissant les règles et les chiffres clés (notamment les volumes de production règlementaires) pour le développement de la filière de production des biocarburants. Ce programme a été établi dans le cadre de la loi de Politique Energétique de 2005 (Energy Policy Act of 2005) et avait pour objectif de développer le secteur des biocarburants en vue de réduire les importations, et d'assurer la sécurité énergétique du pays. Un premier objectif d'utilisation d'un volume minimum de biocarburants dans les moyens de transport avait été fixé à 33 milliards de litres d'ici 2012, et c'est finalement 56,8 milliards de litres qui ont été produits en 2012. Pour 2013, l'objectif de production de biocarburant est fixé à 63 milliards de litres.

Afin de mettre à jour les volumes de production et les objectifs fixés dans le programme RFS1, le programme RFS2 a été mis en place en 2012. Il a été établi en cohérence avec les objectifs fixés dans le cadre de la loi de la sécurité et de l'énergie parue en 2007 (Energy Independence and Security Act of 2007) et présente de nouvelles priorités d'actions dont les principales concernent les volumes de production (158 milliards de litres de biocarburants produits en 2022), la création de catégories de biocarburants selon le type de matière première utilisée (biocarburant cellulosique, biodiesel, biocarburants dits "avancés"), et la protection de l'environnement (réduire les émissions de gaz à effet de serre) [6].

Le troisième livre blanc rappelle que la mise en place du RFS a pour objectif d'améliorer la sécurité énergétique, de soutenir l'économie rurale aux Etats-Unis, et d'apporter des avantages environnementaux liés à l'utilisation de ces biocarburants.

Réduire les gaz à effet de serre

Les gaz à effet de serre, liés à la production et à l'utilisation des biocarburants, incluent les émissions provenant des changements d'utilisation des sols ( terres utilisées pour la culture de la biomasse), les émissions associées à la production des engrais et autres intrants nécessaires à la culture des matières premières, les émissions issues de la production des biocarburants et les émissions des gaz d'échappement produits lors de la combustion du produit final dans les véhicules. Selon l'Association des Energies Renouvelables (Renewable Fuel Association), sur les deux dernières décennies durant lesquelles les biocarburants auraient été utilisés, les émissions des gaz d'échappement des véhicules ont diminué de 30% pour le rejet de monoxyde de carbone, de 13% pour les gaz toxiques, et de 50% pour le rejet de particules fines [7].

Pour estimer les quantités de gaz à effet de serre produites, le calcul est réalisé en prenant pour référence la quantité moyenne de gaz à effet de serre produite par le carburant (l'essence ou le diesel) utilisé comme combustible de transport en 2005. Cependant, l'établissement des analyses de cycle de vie pour la production des biocarburants est loin d'être simple à effectuer en raison des difficultés liées à la récolte des données (grande diversité des acteurs impliqués). La donnée la plus délicate à intégrer dans les calculs est l'émission de gaz à effet de serre issue de l'utilisation des terres qui servent à la fois pour la production de matières premières humaines ou animales et de biocarburants.

En 2007, le RFS prévoyait une augmentation de l'utilisation de biocarburants dits "avancés" (biocarburant produit à partir de tout type de biomasse (déchets agricoles ou forestiers, ou d'autres sources de biomasse durable, y compris les algues, mais à l'exception de maïs). Cette catégorie inclut le biodiesel et le biocarburant cellulosique qui présenteraient moins d'impacts négatifs sur l'environnement et produiraient moins de gaz à effet de serre que l'essence. En 2005, Michael Wang, du laboratoire National d'Argonne, chercheur reconnu pour ces études sur les analyses des cycles de vie des biocarburants, avait estimé une réduction de près de 85% des gaz à effet de serre émis par les biocarburants cellulosiques par rapport à la moyenne de référence [8]. En 2012, et suite à des études de terrain pour la production de biocarburants cellulosiques menées sur la période 2008-2012, Michael Wang montre qu'il existe une diminution réelle mais que celle-ci ne représente que 34% seulement des gaz à effet de serre émis par rapport à la moyenne de référence [9].

Avec la mise en place du programme RFS2, l'EPA prévoit que, d'ici 2022, les émissions de gaz à effet de serre devraient diminuer de 138 millions de tonnes par an (ce qui équivaut à retirer 27 millions de voitures du trafic actuel). Les estimations de l'EPA indiquent également que le biodiesel produirait 50% de moins de gaz à effet de serre par rapport à la moyenne de référence, le biocarburant cellulosique 60%, et les biocarburants dits "avancés" 50%.

Maitriser les autres impacts environnementaux

Les éléments, sous-entendus par "les autres impacts environnementaux", incluent la qualité de l'air, les effets sur l'hypoxie, les pesticides ; la qualité des eaux , les sédiments, la charge biologique et les agents pathogènes ; et la conservation des sols. La loi sur la protection de l'air (Clean Air Act), approuvée en 1990, mandate l'EPA pour prendre, suite à la mise en place du RFS, les mesures nécessaires afin d'atténuer les impacts négatifs sur la qualité de l'air.

En ce qui concerne les gaz toxiques, une étude prospective effectuée par l'EPA en 2010 sur le RFS (intitulée "L'EPA finalise la réglementation du RFS pour 2010 et après") a montré que la production de monoxyde de carbone ou de benzène, par exemple, devrait être inférieure avec l'exploitation des biocarburants, comparativement à la quantité produite avec l'essence [10]. En contrepartie, la libération de particules fines et d'ozone devraient augmenter lors de la production et l'utilisation des biocarburants.

Selon la loi de l'Indépendance Energétique et de la Sécurité (Energy Independence and Security Act - 2007), l'EPA doit également rendre compte au Congrès, par la remise d'un rapport actualisé tous les trois ans, sur les dernières données relatives aux impacts environnementaux et à la conservation des ressources suite à la mise en place du RFS. Le premier rapport, paru en Décembre 2011, conclut sur les points suivants : 1. A ce jour, l'ampleur des impacts négatifs est limitée et ceux-ci sont principalement associés à l'intensification de la production de maïs, 2. Dans le futur, les impacts, positifs ou négatifs, seront déterminés par le choix des matières premières, l'utilisation des terres agricoles, la culture et les pratiques de conservation, et 3. La réalisation des avantages potentiels des biocarburants nécessitera la mise en oeuvre et le suivi de meilleures pratiques de gestion agricole, l'amélioration de l'efficacité de la production de la biomasse et la mise en oeuvre de technologies innovantes à l'échelle commerciale [11]. L'EPA travaille actuellement à la mise à jour de la deuxième édition.

Pour en savoir plus, contacts :

 

Asie Océanie


Inde

16/09/2013 Les Sundarbans : un archipel indien rongé par le changement climatique http://www.bulletins-electroniques.com/actualites/73935.htm

Les Sundarbans sont une région faite d'innombrables bras et canaux du Gange qui descendent vers le golfe du Bengale. On y trouve la plus grande forêt de mangrove du monde. La région, caractéristique du Bengale, est à cheval sur l'Inde (dans le Bengale occidental) et le Bangladesh. Elle a été classée patrimoine mondial de l'UNESCO. C'est un espace fragile, dans le golfe du Bengale, le niveau de la mer augmente chaque année de 3,14 millimètres, contre une moyenne de 2 millimètres dans les autres océans. Cette différence est liée à la fonte des glaciers de l'Himalaya. Depuis 1975, malgré la construction de digues, deux îles des Sundarbans ont disparu sous les eaux provoquant le déplacement de 6.000 habitants. Les prévisions portent à 30.000 le nombre de familles qui devront migrer d'ici 2020, lorsque 15% des terres auront disparus.

Chaque année, entre septembre et novembre, à la saison des cyclones, les habitants des Sundarbans voient la mer grappiller leur terre. Dans le même temps, c'est la plus grande surface de mangrove au monde qui diminue, son existence-même est menacée par les fortes tempêtes cycloniques, la démographie ingérable, la montée des eaux, les inondations côtières et l'érosion. Les scientifiques estiment que l'île de Sagar sera la plus touchée, avec plus de 30.000 personnes déplacées. Selon les estimations, entre 2001 et 2010, près de 63km^2 de terres ont été submergés. Environ 1,35 millions de personnes sont actuellement exposées à un risque fort de montée des eaux, d'inondations et de tempêtes.

Le phénomène s'accélère. Au cours des 25 dernières années, le taux d'augmentation relative du niveau de la mer a été proche de 8 mm / an, soit nettement plus que le taux de 3.14mm/anr dans la décennie précédente. Sugata Hazra, directeur de l'Ecole d'études océanographiques de l'Université Jadavpur à Calcutta, a travaillé sur les Sundarbans. "Ces dernières années, il y a eu quatre cyclones - Sidr, Nargis, Bijli et Aila - dans la partie nord de la baie du Bengale, explique-t-il. Bien que la fréquence de ces tempêtes et cyclones a diminué, leur intensité semble augmenter, probablement en raison de la hausse des températures de surface de la mer", ce qui fragilise d'autant plus la terre. Selon ses prévisions, la pré-mousson devrait être particulièrement violente en 2015.

Les terres sont touchées, et avec elles les forêts. En vingt ans, les zones forestières ont baissé de 5%. Autre facteur : la pollution. Les mangroves du delta des Sundarbans, qui participent à sa renommée -63 des 69 espèces de mangroves répertoriées en Inde y seraient recensées - sont au contact des déchets domestiques et industriels charriés par les rivières. Métaux lourds, pesticides, eaux usagées, sont suspectés de modifier l'environnement côtier.

Le gouvernement a pris la mesure de ces bouleversements, avec un plan d'action sur les changements climatiques rendu public en mars 2013 et le lancement de nouvelles études scientifiques. Il s'agit de se préparer à l'inévitable.

Pour en savoir plus, contacts :


Japon

22/11/2013 La plus grande centrale photovoltaïque flottante mondiale http://www.bulletins-electroniques.com/actualites/74417.htm

Quelques 4 500 panneaux solaires flottent dans le réservoir du parc industriel d'Okegawa Tobu (Préfecture de Saitama), recouvrant environ 12 400m2 des 30.000m2 du réservoir. Mise en fonctionnement en Juin 2013, la centrale devrait produire environ 1,2MW par an, ce qui correspond à la consommation électrique d'environ 400 familles [1]. De plus, à la demande de la ville, des batteries ont été mises en place pour pouvoir fournir de l'énergie en cas d'urgence.

Installer des panneaux solaires sur des lacs ou des réservoirs possède de nombreux avantages : pour les propriétaires, ils représentent une nouvelle source de revenus ; pour les exploitants, ils permettent de diminuer les coûts grâce à un loyer bon marché et à une maintenance réduite par rapport aux centrales terrestres. De plus, bien que les panneaux utilisés (composés de silicium cristallin) voient leur capacité de production affectée par l'augmentation de la chaleur, le fait de flotter sur l'eau permet d'éviter cette augmentation et de plus facilement stabiliser la quantité d'énergie produite par rapport à une installation terrestre, grâce au refroidissement apporté par l'eau.

Les panneaux flottent sur l'eau grâce à des flotteurs en plastiques, assimilables à des radeaux. Pour stabiliser les panneaux, les radeaux sont connectés entre eux à raison de vingt panneaux par rangée. Ces ensembles sont ancrés à chaque coin pour empêcher tout mouvement dû au vent ou à des fluctuations du niveau d'eau. L'entreprise française Ciel et Terre International a participé à la conception des panneaux flottants. En effet, la technologie de flottaison des panneaux est plus avancée en Europe qu'aux Etats-Unis ou au Japon.

Etant donné le coût élevé de l'installation, le problème actuel est de savoir comment absorber cette augmentation et sécuriser la rentabilité en même temps. La West Holdings Group, constructeur et exploitant de la centrale, affirme que les coûts seront réduits pour les prochaines centrales car celle-ci était la première de grande envergure. De plus, les systèmes de flottaisons devraient également voir leur coût diminuer avec leur utilisation plus répandue. Le temps d'installation, plus long que pour une centrale terrestre, devrait aussi baisser progressivement. Le dernier point incertain reste la maintenance. Selon le groupe, après un an d'observation les coûts et procédures pourront être définis. West Holdings a également prévu de surveiller l'impact de l'installation sur la faune et la flore du réservoir.

Le réservoir, appartenant à la ville d'Okegawa et initialement construit pour éviter les inondations des rivières locales, coûtait beaucoup à la ville en maintenance et n'était que très peu utilisé. De nombreux réservoirs de ce genre existent dans la région de Saitama. La ville devrait désormais gagner environ 1,859 millions de yens (13 977 euros [2]) par an pour les vingt prochaines années.

[1] famille type de 4 personnes.

[2] taux de conversion 1 euros = 133¥

 

4/11/2013 Le Japon mise gros sur l'énergie éolienne offshore http://www.bulletins-electroniques.com/actualites/74252.htm

A environ 20 km en mer de la centrale Fukushima, une immense éolienne de 107 m de haut traduit le pari ambitieux du Japon dans l'énergie du vent. Cette éolienne sera mise en fonctionnement le mois prochain et devrait fournir assez d'électricité pour alimenter 1700 foyers. L'objectif à long terme est de produire d'ici à 2020 plus d'un gigawatt [1] d'électricité avec un parc de 140 éoliennes, soit l'équivalent d'une centrale nucléaire.

Les investisseurs du projet soulignent que les éoliennes offshores peuvent représenter un atout important pour un pays pauvre en ressource fossile. En effet, le Japon possède la dixième plus grande zone économique exclusive (ZEE) [2] mondiale et donc des millions de mètres carrés pour développer des parcs offshores.

Ce qui différencie ce projet des autres est que les éoliennes, l'annexe et le transformateur électrique flottent sur une gigantesque plateforme ancrée dans le fond marin. Cette technologie permet d'élargir les possibilités de localisation des parcs éoliens offshores qui étaient jusqu'à présent limités aux eaux peu profondes. Le Japon pourra, grâce à cette nouvelle technologie, agrandir fortement son parc d'éoliennes offshores, ses les fonds marins gagnent très vite en profondeur. De plus, bien que la Norvège et le Portugal expérimentent également des éoliennes flottantes, le projet japonais est le plus important de part sa taille parmi les premières technologies qui pourraient être.

Installer des éoliennes en eaux profondes pourrait générer 1570 gigawatt d'électricité, soit environ 8 fois la capacité de toutes les entreprises Japonaises produisant de l'énergie réunies selon les simulations de l'Université de Tokyo. La catastrophe de Fukushima a forcée le Japon à s'intéresser de plus près aux énergies renouvelables. Aujourd'hui les 50 réacteurs arrêtés et dans l'attente d'une inspection privent le pays d'une ressource représentant 30% de son électricité. L'orientation vers les importations de pétrole et de gaz naturel a fortement accru la dépendance énergétique du pays et a fait ressortir ses retards dans le domaine des énergies renouvelables. Car contrairement aux idées reçues, le développement de celles-ci a été très lent : mis à part l'énergie hydraulique, les énergies renouvelables ne représentaient que 3% du mixe énergétique japonais en 2011.

Dans son effort pour rattraper son retard, le Japon a mis en place un programme intensif pour diversifier les énergies renouvelables. Le photovoltaïque a été l'énergie la plus développée à ce jour. Cependant, la croissance des panneaux solaires reste limitée tandis que plus de 90% du potentiel Japonais en énergie renouvelables proviendrait du vent, et plus particulièrement de l'éolien offshore selon les estimations du Ministère de l'environnement. Le gouvernement de M. Shinzo Abe assume les frais des trois premières éoliennes de ce projet dans le cadre de sa politique d'encouragement des énergies renouvelables, soit environ 22 milliards de Yens (225,7 millions de dollars). Par la suite, un consortium de 11 entreprises dont Hitachi, Mitsubishi Heavy Industries, Shimizu et Marubeni, poursuivra le projet.

Les coopératives de pécheurs ont donné leur accord pour les 3 premières éoliennes, cependant les 100 autres qui devraient suivre doivent être renégociées après l'étude de leur impact sur la pêche. En effet, l'un des principaux enjeux de ce projet concerne la zone de pêche : abandonnée après les événements de Mars 2011, les pécheurs ont aujourd'hui peur que le projet les empêche de reprendre leur activité car les chalutiers ne pourront plus traverser la zone. D'un autre côté, certains espèrent que les grandes chaînes ancrées au fond marin participeront au développement des poissons et des algues.

Le coût du projet est également une question importante. Pour les trois premières éoliennes, construites chacune avec une conception différente, le prix du kilowatt est environ 2 millions de Yens (20 500$), soit huit fois le prix obtenu pour une éolienne terrestre. Le consortium espère réduire ce coût à seulement 2 fois celui d'une éolienne terrestre par des économies d'échelle et des améliorations de la conception.

La durabilité est le troisième enjeu de ces grands moulins à vent. Shimizu, la société de production des éoliennes, estime que les pales sont conçues pour durer une vingtaine d'années et résister aux plus gros typhons ayant frappés la région durant le dernier siècle. Néanmoins, elle émet de quelques réserves sur ces prévisions.

Le développement des éoliennes offshore implique des industries que le Japon souhaiterait faire revivre comme notamment la construction navale, perdue au profit du marché Chinois et Sud Coréen il y a quelques années. Les retombées économiques attendues seront potentiellement importantes, selon le PDG de Mizuho Financial Group : les 20.000 pièces des éoliennes offshores pourraient rapporter des milliards de yens à l'économie japonaise.

[1] 1GW = 1.000 MW = 1 million de kW

[2] zone économique exclusive : espace jusqu'à 370 km (200miles) des côtes où l'Etat exerce un droit souverain sur l'exploitation et l'usage des ressources qui s'y trouvent.



25/10/2013 Les centrales photovoltaïques à l'assaut des terrains inoccupés http://www.bulletins-electroniques.com/actualites/74190.htm

Depuis la catastrophe de Mars 2011, le Japon connaît une forte croissance dans l'activité photovoltaïque. Les panneaux solaires permettent de réhabiliter des zones inhabitables dans la préfecture de Fukushima, de valoriser des terrains inoccupés ou inoculables et pallient ainsi aux besoins énergétiques de l'archipel.

- Développement de centrales photovoltaïques pour la reconstruction de Fukushima [1]

De nombreuses grandes centrales photovoltaïques sont construites dans la préfecture de Fukushima pour la réhabilitation de la zone. La centrale Soma d'une capacité de production d'environ 2MW a été mise en fonctionnement le 11 Octobre 2013. Développée par Fujita Corp, IHI Corp et Nakamura Civil Engineering Co Ltd sur une zone inoccupée de 6 ha dans le Soma Central Industrial Park de la ville de Soma, cette centrale est l'un des projets modèles du plan de reconstruction des espaces inappropriés au logement.

D'autres centrales photovoltaïques sont déjà en fonctionnement dans la préfecture de Fukushima mais la majorité est située sur des sites d'usines dirigées par des compagnies telles que Japan Metals & Chemicals Co Ltd, GS Yuasa Corp et Lixil Corp. A la différence de ces projets, la centrale de Soma est à l'initiative des autorités locales dans le but de la reconstruction de la zone sinistrée.

Le plus grand projet photovoltaïque pour la reconstruction de la zone sinistrée est mené conjointement par la ville de Minamisoma et Toshiba Corp. Cette centrale devrait avoir une capacité d'environ 100MW et recouvrir 150ha de la zone côtière frappée par le tsunami. Selon les informations de la ville, le projet est réalisé à 47% : la sélection et l'acquisition des sites pour la centrale devraient être finies en 2014.

- Une centrale photovoltaïque de 2MW construite sur d'anciennes terres agricoles [2]

Orix Corp a célébré le 21 Octobre 2013 la réalisation d'une grande centrale photovoltaïque de 2MW dans la ville de Mitoyo (préfécture de Kagawa). Une société d'Orix exploitera la centrale "Orix Mitoyo Mega-solar Power Plant", construite sur un terrain inoccupé (ancienne terre agricole reconvertie en zone résidentielle) appartenant à Asahigaoka Sangyo (une compagnie basée à Mitoyo). Takenaka Corp a fourni l'ingénierie, l'approvisionnement et la construction pour ce projet. Les panneaux solaires et les onduleurs ont été fabriqués respectivement par Solar Frontier K,K et Toshiba Mitsubishi-Electric Industrial Systems Corp (TMEIC)

Asahigaoka Sangyo songe à construire une autre centrale photovoltaïque de 2MW sur un site adjacent. Cependant une demande de permit modifiant le statut agricole du terrain est nécessaire pour pouvoir installer ce second projet, ce qui n'est pas une tâche aisée.

- Une centrale photovoltaïque conçue pour une zone industrielle côtière [3]

La centrale photovoltaïque de la ville de Kawasaki à Ukishima est située dans un complexe industriel de chimie lourde, sur un terrain ayant subi un grand nettoyage durant 20 ans après avoir été utilisé comme site de retraitement des déchets.

Le projet qui a débuté en Août 2011 est la première centrale dans la classe des 7MW. Elle a été construite conjointement par la ville de Kawasaki et Tokyo Electric Power Company (TEPCO), ainsi que les équipements du "Kawasaki Eco Kurashi-mirai-kan Museum". Ce dernier présente une exposition sur la production d'énergie solaire et un observatoire fournissant une vue panoramique des centrales voisines.



Rapports : Forêt, sylviculture et industries du bois au Japon : panorama des défis du secteur forestier et des politiques publiques mises en place pour les affronter Ambassade de France au Japon - 10/08/2012 - 69 - pdf 3,3 Mo http://www.bulletins-electroniques.com/rapports/smm13_011.htm
Auteurs : DUMOND Julien

En dépit d'une longue histoire de gestion de sa forêt, qui s'étend sur 67% du territoire national, et d'un arsenal législatif encadrant tous les secteurs d'activité sylvicoles à tous les niveaux de l'état, le Japon sous-exploite sa forêt. Par manque de structuration de l'économie forestière, la forte demande en bois est compensée par des importations massives en provenance des pays voisins.

La valorisation économique de la forêt japonaise se heurte à plusieurs obstacles : le morcellement des propriétés forestières en petites entités non profitables économiquement, le faible nombre des exploitations, le faible d'attrait professionnel du secteur et la difficulté d'accès des zones forestières en général. Le gouvernement multiplie des initiatives pour rendre attractif ce secteur (formation) et faciliter l'exploitation (accès routiers).

Ces dernières années, les gouvernements successifs ont mis en place des cadres législatifs visant à favoriser la valorisation de la forêt, celle-ci jouant un rôle important dans la compensation des émissions de CO2 et dans la capacité du Japon a respecté ses engagements vis à vis du Protocole de Kyoto. Que ce soit pour la préservation de la qualité de l'eau, la lutte contre l'érosion des sols ou pour l'utilisation de la lignite comme biomasse, le Japon essaie de mettre en oeuvre une politique attractive qui inclut la notion de "paiements pour les services environnementaux".

Au sommaire de ce document :

1. La forêt japonaise, une ressource aujourd'hui sous exploitée et demain valorisée pour ses fonctions économiques, sociales et environnementales

1.1. Caractéristiques du secteur forestier japonais

1.2. Mesures d'encadrement du secteur forestier japonais

1.3. Défis du secteur forestier japonais

2. Un regain d'intérêt pour le potentiel socio-économique de la sylviculture et des industries du bois

2.1. Des caractéristiques techniques défavorables

2.2. Une situation socio-économique dégradée

2.3. Des initiatives pour promouvoir l'usage du bois et ses industries

3. Les ressources forestières japonaises, un potentiel de plus en plus valorisé sur le plan environnemental

3.1. Des forêts de protection garantes des services environnementaux

3.2. De nombreuses autres initiatives

3.3. Un atout précieux dans la lutte contre le changement climatique

4. La promotion de la biomasse énergie revitalise l'ensemble de la filière forestière japonaise en créant de nouveaux débouchés

4.1. L'industrie du bois de feu, une filière immature mais prometteuse

4.2. Les pouvoirs publics promeuvent activement la filière biomasse énergie

4.3. Des installations plus ou moins innovantes déjà en activité

5. Conclusion

Sélection : Sylviane Tabarly

Pour citer cet article :  

Sylviane Tabarly, « En archives : avril à novembre 2013 », Géoconfluences, décembre 2013.
https://geoconfluences.ens-lyon.fr/informations-scientifiques/dossiers-thematiques/developpement-durable-approches-geographiques/veille-de-lactualite-scientifique-et-technologique-internationale/avril-a-novembre-2013