Die Autoren:
Dr. rer. agr. J. P. Biehler
Dr. rer. nat. R. Ebert
S. Hab Master of Science (M. Sc.)
B E I T R A G Z U R K L I M A D I S K U S S I O N
Wir müssen Dr. Wolfgang Thüne allerdings widersprechen, was die Modifikation des Wettergeschehens angeht.
Zur Person Dr. Wolfgang Thüne klicken Sie auf den LINK.
Der Treibhauseffekt steht im Widerspruch zur Thermodynamik und zu Emissionseigenschaften von Gasen
https://de.wikipedia.org/wiki/Wolfgang_Thuene
..., und INOPOWER Hagelkanonen haben sich bewährt.
InoPower Hagelschutzkanone (Schallwellen, LINK)
UPDATE_TESLA_WEATHER-CONTROL-PLASMA-EFFECTS (LINK
"Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer."
(Gustav Le Bon in "Psychologie der Massen")
Schon dem Chemiker Friedrich Wöhler, der 1859 als Erster Siliziumnitrid herstellte, war aufgefallen, dass der Planet Erde in glühend heißem Zustand überhaupt keine Gashülle besessen haben konnte. Da die 20% Sauerstoff der Lufthülle einzigartig nur über Photosynthese gebildet werden konnten, muss der Stickstoff zu diesem Zeitpunkt chemisch gebunden vorgelegen haben. Wöhler vermutete, dass er an Silizium gebunden war. Erst später trat Wasserdampf und Kohlendioxid aus Vulkanen aus. Noch sehr viel später hat sich beim Abregnen das Wasser mit Alkalioxiden verbunden, und somit ist unter Hitzeeinwirkung aus Siliziumnitrid Ammoniak entstanden, die Voraussetzung für die Entstehung von Leben. Gleichzeitig war so die Möglichkeit gegeben, dass die erkaltende Erde eine Gashülle aus Ammoniak erhielt. Das NH3 wurde durch das UV-Licht der Sonne in N2 verwandelt, wobei der Wasserstoff in den Weltraum diffundierte.
Das Stickstoffmolekül ist wegen seiner 3-fach Bindung äußerst reaktionsträge, wofür es chemisch keine Erklärung gibt, denn die quantenmechanischen Berechnungen beruhen auf experimentellen Untersuchungen. Das Vorhandensein von 80% Stickstoff in der Atmosphäre bewirkt in Verbindung mit Reibungselektronen die Bildung von atomaren Stickstoffatomen mit x - Elektronen, die aggressiv mit den Sauerstoffmolekülen reagieren. Dies führt zu Blitz und Donner der elektrischen Gewitter, die mit etwa 50 Millionen Entladungen täglich für die Düngung des Erdreiches mit Stickoxiden sorgen. Ohne den Stickstoffblitz wären die Grundchemikalien des Lebens Aminosäuren, Zucker, DNA-Basen usw. überhaupt nicht entstanden und auch nicht die heutige Flora und Fauna in den Meeren und auf dem Land.
Der Klimaschwindel als gezielte, gesteuerte Lüge
Der Club of Rome (Rockefeller Organisation, Mitbegründer war Aurelio Peccei, Chef von Fiat & Olivetti), eine weitere Denkfabrik für die Weltregierung. https://de.wikipedia.org/wiki/Aurelio_Peccei
Diese steht hinter der Idee die Globale Erwärmung als Propagandamittel zu benutzen, um die Menschen weiter unter Kontrolle zu halten und einen weiteren "Grund" für die Einführung globaler Organisationen zu haben. Wir sagen es hier vorraus: Die Politiker werden verkünden, dass die Globale Erwärmung ein globales Problem ist und deswegen auch eine globale Lösung braucht. Außerem wird man eine Steuer auf CO2 einführen. (vorausgesagt 2013) (sic !)
Der Club of Rome (eine Rockefeller Organisation) schrieb in einem Bericht mit dem Titel "The First Global Revolution" von 1991 folgendes:
"In unserem Streben nach einem neuen Feind, um uns zu vereinen, kamen wir auf die Idee, dass die Verschmutzung, die Bedrohung der globalen Erwärmung, Wasserknappheit, Hungersnöte und Ähnliches in der Rechnung passen würden, …. All diese Gefahren werden durch menschliche Intervention verursacht… Der wahre Feind ist somit die Menschheit an sich."
Weltklimarat begeht schleichenden Selbstmord - auf Raten
Der Weltklimarat, sein offizieller Name ist „Intergovernmental Panel on Climate Change“ (IPCC), wurde 1988 von den Vereinten Nationen ins Leben gerufen. Er war ein von einigen Regierungen installiertes „Panel“ oder Schiedsgericht, das selbst keine Forschung betreibt, sondern einzig und allein die Aufgabe zugewiesen bekam, die weltweite Literatur über „Climate Change“ oder Klimaveränderungen zusammenzutragen, zu sichten, zu werten und der Politik Entscheidungsgrundlagen zu liefern.
Von Beginn an trat der Weltklimarat nicht als Ratgeber, sondern als großer Zensor auf, der wissenschaftliche Unfehlbarkeit beanspruchte. Er ließ sich gerne von den Medien loben und in der Weltöffentlichkeit als Gremium feiern, in dem die 3000 weltweit renommiertesten „Klimaexperten“ versammelt waren. Deren „Konsensmeinung“ wurde in den Rang allgemeingültiger Wahrheit erhoben, die zu kritisieren keinem Sterblichen erlaubt war. Dies galt insbesondere für die langfristigen Klimaprognosen, die in Wahrheit bestenfalls Projektionen waren auf der Basis vorgegebener Treibhausszenarien.
Das Urteil war politisch gefällt, bevor der Weltklimarat installiert wurde. Er hatte nur noch die Aufgabe, über ein internationales Expertengremium „wissenschaftlich“ die Alleinschuld der Treibhausgase per Mehrheit an der drohenden globalen Klimakatastrophe, d. h. demokratisch, feststellen zu lassen. Unter gigantischem Pressejubel publizierte 1990 der Weltklimarat seinen ersten globalen Klimazustandsbericht. Er operierte mit Angst- und Horrorszenarien, um in der Welt eine Art Untergangsstimmung zu erzeugen. Rettung bestehe dann und nur dann, wenn möglichst rasch und drastisch die Emissionen an Treibhausgasen gesenkt und die fossilen Energieträger geächtet würden.
Nur so könne der Klimakollaps verhindert werden. Um den Ernst der Lage fühlbar werden zu lassen, wurde das ganze Spektrum an möglichen Unwettern aufgeboten. Alle nur möglichen Wetterszenarien wurden bemüht, um den Eindruck eines nahenden Weltuntergangs zu erwecken. Der menschengemachte CO2-Treibhauseffekt werde die Erde zur „Hölle“ machen. Die Zahl und Intensität von Hitze- und Dürreperioden, aber auch an Orkanen, Wirbelstürmen, Sturmfluten wie Überschwemmungen werde dramatisch ansteigen. Aber auch Bilder von „Land unter“ wie bei der „Sintflut“ wurden als reales Zukunftsszenarium prognostiziert. War es eine allgemeine Angststarre, die kaum Kritik und Zweifel aufkommen ließ?
Noch hatte der Weltklimarat das alleinige Meinungsmonopol. Die Kritik aus der Fachwelt war sehr verhalten und die wenigen Mutigen, die an der Existenz des Treibhauseffektes Zweifel zu äußern wagten und die statistischen Trendanalysen infrage stellten, wurden pauschal als „Klimaskeptiker“ oder gar „Klimaleugner“ auf polemisch rüde Art abgebügelt und öffentlich an den Pranger gestellt. Doch diese unsinnigen Begriffsprägungen sollen ablenken und die eigene argumentative Hilflosigkeit kaschieren. „Klima“ ist ein statistisches Konstrukt, das anhand langjährig erhobener Wetterdaten berechnet wird. An Klimadaten zu zweifeln oder sie gar zu leugnen, käme keinem Kritiker in den Sinn. Doch da die Kritik substantieller Natur und physikalisch nicht zu widerlegen ist, greift man zum Mittel der Diffamierung, der sich die Masse leicht anschließen kann.
Aber die „Masse“ hat kein eigenes Denk- und Urteilsvermögen. Sie orientiert sich am Wind des Zeitgeistes und dreht sich mit ihm. Sie kennt nicht die Forderung des Sozialphilosophen Herbert Marcuse (1898-1979), dass „jeder, der gelernt hat, rational und autonom zu denken“ geradezu verpflichtet ist, sich zu Wort zu melden, Kritik zu üben und Missstände offen zu legen. Dies ist sozusagen eine staatsbürgerliche demokratische Pflicht.
Die „Masse“ begehrte auch nicht auf, als sie in Kollektivhaftung genommen und pauschal zum „Klimakiller“ entwürdigt wurde. Was soll sie töten? Das „Klima“ - ein totes Abstraktum, das es im Gegensatz zum lebendigen Wetter gar nicht gibt. Dies bestätigt die WELT am 29. September 2013 mit der simplen Aussage des Meteorologen Sven Plöger: „Das Klima kann niemand spüren“. Was man nicht spüren kann, kann man nicht fühlen, kann man nicht messen und auch nicht töten bzw. „killen“. Dies gelänge nicht einmal beim Wetter! Und dieses fühlt man, wenn ein Herbststurm einem um die Ohren pfeift und Bäume umwirft!
IPCC – Kometenhafter Aufstieg bis zum „Friedensnobelpreis 2007“
Schnell hatte das erlauchte Gremium von Klimaexperten die absolute Deutungshoheit gewonnen und damit die Interpretationsmacht über ein „Ding an sich“ (Immanuel Kant), das Globalklima. Dieses war in höchster Lebensgefahr und musste unbedingt zum Wohle der Menschheit gerettet werden. Dieses war aber auch gefährlich und konnte sich, so sagt man, an dem ihm Gewalt antuenden Menschen rächen, indem es dem Wetter den Befehl erteilte, etwas „verrückter“ zu spielen und „extremer“ zu werden. Diese Warnung der Klimaexperten „zog“ und breitete sich wie eine Gezeitenwelle als „Welle der Angst“ rund um die Welt aus.
Da diese Warnung im Diffusen verharrte und kein Mensch, ebenso wie kein Staat, wusste, wo das nächste Wetterextrem einschlug und Schneisen der Verwüstung schlug, bemühten sich alle, Musterschüler im Klimaschutz zu sein. Insbesondere Deutschland wollte Klassenprimus und Vorreiter sein und der Welt den Weg weisen. Hier wurde das Kohlenstoffdioxid CO2 als besonders gefährliches Klimagas in Acht und Bann geworfen. Es wurde zu einem „Umweltgift“ deklariert, und wenn es nach besonders gläubigen Klimaschutz-Aktivisten gegangen wäre, dann hätte man längst die Atmosphäre von diesem klimaschädlichen „Giftgas“ befreit, um das Klima auf den Pfad der Tugend zurückzuführen und es zu besänftigen.
Deswegen kam auch das Friedensnobelpreis-Komitee in Oslo auf die grandiose Idee, den Weltklimarat mit dem Friedensnobelpreis auszustatten. Doch was hatte dieser konkret gemacht, um das Globalklima auf einen Anti-Konfrontationskurs zu bringen? Sollte es die ewigen Sünden des Menschen und seine unaufhörlichen CO2-Attacken einfach negieren und sich still verhalten? Doch so zu fragen ist politisch nicht korrekt! Wie man sich in solch einer prekären Lage verhält, das hatte der ehemalige US-Vizepräsident Al Gore gezeigt mit seinem Film „Eine unbequeme Wahrheit“. Seine Premiere war auf dem Sundance Film Festival 2006. Dieser erwies sich als Science-Fiction-Film nicht nur als Kassenschlager, sondern brachte Al Gore auch einige „Oskars“ ein. Für deutsche Schulen wurde dieser Film massenweise gekauft, um den Kindern die Gefährlichkeit und Heimtücke des Klimas vor Augen zu führen. Ganz anders war dies in Großbritannien. Dort entdeckte das oberste Gericht neun eklatante Fehler in dem Film, so dass er nicht ohne Hinweis auf diese Lügen in Schulen gezeigt werden darf.
Jedenfalls wurden Al Gore ebenso wie der Weltklimarat unter seinem Vorsitzenden Rajendra Pachauri für würdig befunden und mit dem Friedensnobelpreis 2007 ausgezeichnet. Welches ihre besondere Leistung war, das bleibt im Unklaren und Ungewissen. Wer zwischen zwei befeindeten Parteien, hier der „Globalmensch“ und dort das „Globalklima“, Frieden stiften will und soll, der muss mit beiden Kontrahenten reden, die verfeindeten Parteien an einen Tisch bringen. Denn wozu sonst soll ein Friedensnobelpreis dienen? Doch wie verhandelt man mit beiden Parteien, wenn diese nur als Abstraktionen, als Fiktionen existieren, als statistische Größen? Darüber schweigen die Geehrten beharrlich und lassen es sich mit dem Preisgeld gut gehen. Wer kann schon zwischen „Gespenstern“ vermitteln?
Doch war da nicht doch eine Leistung des IPCC? In seinem „Fourth Assessment Report“ (AR4) 2007 hatte sich nach langen Recherchen und im Konsens der Weltklimarat darauf geeinigt, dass man sich zu 90 Prozent sicher sei, dass menschlicher Einfluss auf das Klima mehr als die Hälfte des Anstiegs der mittleren globalen Bodentemperatur seit Ende der „Kleinen Eiszeit“ ab 1850 verursacht habe. Nach einem Beweis wurde das Experten-Gremium nicht gefragt, so dass Spielraum „nach oben“ blieb.
Das Wetter spielt nicht mit und demaskiert den Weltklimarat
Kaum waren die Nobel-Feierlichkeiten in Oslo vorbei, da wurde im November 2009 kurz vor der UN-Weltklimakonferenz in Kopenhagen der Weltklimarat von einem Datenskandal im Klimaforschungszentrum der Universität von East Anglia überrascht, auch „Climategate“ genannt. In allen Prognose-Modellen war der Anstieg der „Globaltemperatur“ kausal an den Anstieg des CO2-Gehalts geknüpft. Stieg der CO2-Gehalt, so stieg auch automatisch die „Globaltemperatur“. Doch diese hatte bereits 1998 ihren Höhepunkt erreicht und fiel seitdem langsam aber merklich ab. Dies konnte der IPCC lange Zeit kaschieren und als bloße Propaganda abtun, bis über eine Indiskretion ein E-Post-Schriftverkehr publik wurde, der nach Datenmanipulation roch. Alle staatlichen Untersuchungskommissionen wollten jedoch keine Manipulation sehen und plädierten für „Freispruch“.
Sehr aufschlussreich ist allerdings die Reaktion vieler renommierter Klimaexperten, darunter auch die Deutschen Jochem Marotzke, Hans Joachim Schellnhuber und Hans von Storch. Sie alle vertraten die Meinung: Der anthropogene Klimawandel sei Realität und werde künftig noch stärker in Erscheinung treten! Solche Äußerungen sind gefährlich, denn die Realität ist schnell und legt Fehlprognosen schonungslos offen. Dies haben insbesondere die Forstexperten gespürt. Alle ihre Waldsterbens-Prognosen erwiesen sich als pure Spekulation. In der FAZ vom 18. Oktober 2013 schreibt Marcus Jauer in einem Artikel „Die Natur der Hysterie“:
„Heute, dreißig Jahre später, ist keine der Voraussagen eingetroffen. … Aber keine Baumart, kein Wald ist verschwunden, im Gegenteil, es gibt in Deutschland mehr Wald als vorher. … Wie konnte etwas, das unabwendbar schien und von dem deshalb jeder ausging, am Ende doch nicht eintreten? War alles nur Hysterie?“
Ja, das war Hysterie, die künstlich geschürt wurde, weil man einige Wissenschaftler mit einer Art „Heiligenschein“ umgab und sachliche Kritik einfach vom Tisch wischte. Hans von Storch erklärt das in dem Artikel so: „Es ist damals von wissenschaftlicher Seite eine Angststrategie gefahren worden, um mit Prognosen bestimmte Lösungen zu erzwingen.“ Hans von Storch weiter: „Danach sei die Forstwissenschaft kaputt gewesen und als öffentlicher Berater verbraucht.“ Auch der Weltklimarat ist als Berater längst verbraucht, doch als Institution hat er ein zähes Leben und wird um sein Überleben kämpfen.
Sein „Kampf ums Dasein“ geht weiter. IPCC geht keinen Schritt zurück, sondern verkündet in seinem jüngsten „Fifth Assessment Report“ (AR5), dass er sich nun zu 95 Prozent sicher sei, dass für die Periode 1951 bis 2010 der Mensch mehrheitlich an der Erderwärmung beteiligt sei. Irgendeine Erläuterung gibt es nicht. Auch nicht bezüglich des Widerspruchs, dass das IPCC sich der Meinung des Britischen Wetterdienstes angeschlossen habe, dass in der Tat die anhand einer unbekannten Zahl von Wetterstationen berechnete „Globaltemperatur“ seit 1998, also seit nunmehr 15 Jahren, zurückgehe, trotz des enorm gestiegenen CO2-Gehalts der Luft. Was den Wert von 95 Prozent Sicherheit angeht, so wurde dieser bereits 1995 in Berlin vor der 2. UN-Klimakonferenz propagiert. Ihn lieferte das Max-Planck-Institut für Meteorologie in Hamburg unter Leitung von Klaus Hasselmann.
In einem Interview mit „faz.net“ am 21. September 2013 antwortet Hans von Storch auf die Frage, warum seit 15 Jahren die „Globaltemperatur“ nicht mehr steige: „Das passt schon. Die Klimaerwärmung kann eine Pause einlegen, um sich später wieder einzustellen.“ Was ist das für ein Phänomen „Klimaerwärmung“, das beschließt, eine Pause einzulegen, um irgendwann den Gipfelsturm wieder aufzunehmen? Was die Unsicherheit der Klimamodell betrifft, so offenbart von Storch lapidar: „Wir können die Rolle der Sonne etwas verstärken und gleichzeitig den Einfluss der Treibhausgase etwas zurücknehmen. Und schon liegen wir wieder ziemlich richtig.“ Für diesen tiefen Einblick in die Arbeitsphilosophie der Klimaexperten gehört Hans von Storch unser aufrichtiger Dank. Und solche Modelle verlangen Unfehlbarkeit? Und zum schlechten Image des Weltklimarates sagt von Storch: „Das verdanken wir schlampig argumentierenden Wissenschaftlern und der elendigen Politisierung der Klimaforschung.“ Warum nimmt er sich da persönlich aus? Warum verschweigt er, dass die gesamte Klimaforschung am staatlichen Fördertropf hängt? Da hilft auch nicht der politische Seitenhieb: „Noch schlimmer ist das Bundesumweltamt, das qua Amt unleugbare Wahrheiten vorgeben will.“
Die Erklärungsnot wird größer, die Rechtfertigungsversuche schwächer
Trotz aller forschen Selbstsicherheit bei der Präsentation der Zusammenfassung des fünften Weltklimaberichts ist er doch von einer tiefen Unsicherheit geprägt. Viele Journalisten schauen inzwischen auf „Das Kleingedruckte“ wie Joachim Müller-Jung in der FAZ vom 2. Oktober 2013. Und da fallen plötzlich Ungereimtheiten auf, die vorher überlesen wurden. Dies betrifft die ominöse und experimentell niemals nachgewiesene „Klimasensitivität“. Diese erweist sich zunehmend als Spielwert, um heimlich im Nachhinein die Modellberechnungen an die Realität anzupassen. Manche plädieren für eine Herabsetzung, manche für eine Heraufsetzung der Sensitivität, rein aus dem Bauchgefühl, ohne physikalische Begründung. Das willkürliche Drehen an Stellschrauben, um ins Chaos abdriftende Computervorhersagen mehr an die Wirklichkeit zu adaptieren, verklausulierte man früher als „Flusskorrekturen“.
Obgleich die Vorhersageunsicherheiten gestiegen sind, verkündet Peter Lemke vom Alfred-Wegener-Institut: „Aussagen über mögliche künftige Entwicklungen des Klimas sind auf der Grundlage von erweiterten und verbesserten Modellen belastbarer und sicherer geworden.“ Auch Christiane Textor, die die Deutsche IPCC-Koordinierungsstelle in Bonn leitet, vertritt die Meinung (VDI nachrichten vom 4. Oktober 2013), „dass die Sicherheit zugenommen, habe, dass die Veränderungen im Klimasystem menschlichen Aktivitäten zuzuordnen sind“.
Doch wo ist bei dem Rückgang der „Globaltemperatur“ die zusätzlich von der Atmosphäre aufgenommene Wärme im Klimasystem der Erde geblieben? Hier waren die Klimaexperten bei der Suche nach dem „Wärmeversteck“ besonders kreativ. Michael Schulz, Direktor des Zentrums für maritime Umweltwissenschaften der Universität Bremen, weiß es ganz genau, „nämlich zu 93 % in den Weltmeeren“. Hurra, hier hat man endlich die „Wärmesenke“ gefunden. Wer ist in seiner Verzweiflung auf diese Idee gekommen? Nun, das bleibt sicher anonym, wenn auch laut IPCC an dem AR5 nur noch 830 Autoren gearbeitet haben, statt der ehemals 3000 weltweit führenden Klimaexperten.
Obgleich die Zahl von „93 %“ bekannt scheint, hätten die Forscher gerne genauere Messdaten aus den Ozeanen, um gerade kurzfristige Klimareaktionen genauer bestimmen zu können. So komme man nicht mehr in Verlegenheit, wenn man die 15jährige Erwärmungspause erklären soll. Der Nebeneffekt sind zahlreiche Forschungsreisen in die Weiten des Pazifischen Ozeans. Ausgerechnet hier soll das vom Treibhauseffekt erwärmte Oberflächenwasser ähnlich einem „Bermuda-Dreieck-Effekt“ plötzlich abgetaucht und in den Tiefen verschwunden sein. Hier habe es sich in „Meeresschichten unterhalb von 700 Meter Tiefe“ versteckt, um nach völlig unbekannter Dauer wieder an die Oberfläche aufzusteigen, um die Erwärmungspause bei der Globaltemperatur zu beenden. Die eigentlich jedem auf der Zunge liegende Frage, wie warmes und damit leichtes Oberflächenwasser freiwillig abtauchen kann, um sich in 700 Meter Tiefe vor den Augen der Welt zu verstecken, hat bisher niemand gestellt. Weder ein Journalist, noch ein Wissenschaftler, geschweige denn ein Politiker. Erst wenn Wasser auf vier Grad abgekühlt ist und dort seine größte Dichte hat, sinkt es ab.
In dem weltweiten Unterhaltungsspiel „Klimakatastrophe“ durch „Klimaerwärmung“ durch „Treibhauseffekt“ scheint es immer kurioser zuzugehen. Hier werden Forschungsgelder verprasst, wird gesungen und gelacht. Zum Lachen waren auch die „Lehren aus der Treibhaus-Welt der Urzeit“, die das Museum für Naturkunde Berlin am 8. Oktober 2013 verbreitete. Da hat man die Zeit zwischen Perm und Trias vor 251 Millionen Jahren untersucht und kam zu der Erkenntnis: „Die globale Erwärmung am Ende des Perms wird auf anhaltende massive Vulkanausbrüche in Sibirien zurückgeführt, bei welchen durch die Verbrennung von Kohlenstoff-reichen Sedimenten große Mengen des Treibhausgases Kohlendioxid (CO2) in die Atmosphäre befördert wurden.“ Weiter heißt es: „Die Ergebnisse des Berliner Forscherteams zeigen, dass die Meerwasser-Temperaturen in der äquatorialen Zone (in welcher sich der heutige Iran vor 251 Millionen Jahren befand) innerhalb recht kurzer geologischer Zeit um 5 bis 8 Grad auf über 35 Grad angestiegen sind.“
Ob der Weltklimarat ob dieser Erkenntnisse erfreut sein wird? Immerhin hat er bisher die These vertreten, dass Vulkanausbrücke kühlend auf die Atmosphäre wirken. Und nun plötzlich genau das Gegenteil? Doch genau dies scheint plausibel, denn Vulkanologen wissen, dass von den vulkanischen Exhalationen im Schnitt 80 % Wasserdampf, 16 % Kohlenstoffdioxid und nur 4 % Staub und sonstige Aerosole sind. Einen Klimaexperten muss ich noch zitieren. In der Allgemeinen Zeitung Mainz vom 28. September 2013 sagte er: „Jetzt muss gehandelt werden. UN-Bericht lässt keine Zweifel am Temperaturanstieg mehr zu.“ So ignorant können nur Ideologen sein!
Und es gibt weitere Kuriositäten. So meldete die französische Nachrichtenagentur AFP am 12. Oktober 2013: „Komet löste Eiszeit vor 13.000 Jahren aus: Neue Erkenntnisse.“ Man höre und staune: „Vor rund 13.000 Jahren erlebte die Erde einen dramatischen Klimawandel, der weitreichende Auswirkungen auf die Tier- und Pflanzenwelt hatte. Wissenschaftler sind jetzt zu der Erkenntnis gelangt, dass der damalige plötzliche Übergang zu einem kühleren und trockeneren Klima mutmaßlich auf den Einschlag eines Asteroiden oder Kometen ausgelöst worden sei, wie das US-Fachmagazin „Proceedings of the National Academy of Sciences“ berichtet.“ Der Himmelskörper soll im Gebiet der kanadischen Provinz Quebec eingeschlagen sein, aber der Krater sei noch nicht gefunden.
Nach meinem Informationsstand begann vor 115.000 Jahren die Weichsel-Eiszeit und endete vor 12.000 Jahren. In Nordamerika hat sie den Namen Wisconsin-Eiszeit. Beide haben etwa denselben Verlauf. Beider Maximalausdehnung war vor rund 25.000 Jahren. Danach ging die Eisausdehnung in Etappen zurück. Dass ein Komet vor 13.000 eine Eiszeit ausgelöst haben soll, das scheint doch mehr als nur fraglich. Eine ähnliche „Ente“ hatte schon das Pentagon in Washington in die Welt gesetzt. Danach soll vor 8.200 Jahren unvermittelt der Golfstrom gestoppt haben mit der Folge, dass Nordeuropa unter einer dicken Eisschicht verschwand und im Osten der USA Temperaturen wie in Sibirien herrschten. Diese „richtige Eiszeit“ dauerte dann mehr als 100 Jahre. Auch hierfür gibt es keinerlei Belege. Es war die Zeit, als die über 2000 Meter dicke Eisschicht über Skandinavien abschmolz und das Schmelzwasser die Ostsee zurückließ. Skandinavien ging nicht unter, sondern erhob sich „vom Eise befreit“ aus dem Meer. Allerdings versank der südliche Teil der Nordsee mit der Doggerbank. Der Ärmelkanal entstand. England wurde eine Insel und konnte trockenen Fußes nicht mehr erreicht werden.
Klima heißt Neigung und es scheint, dass jeder Klimaexperte seinen Neigungen freien Lauf lässt. Wissenschaft kann erheiternd sein. Wer weiss, was noch an Überraschungen auf uns zukommt.
Oppenheim, den 30. Oktober 2013 Dipl.-Met. Dr. phil. Wolfgang Thüne
Jeder weiß um die Bemühungen vor allem der Deutschen Regierung das Klima zu schützen. Dabei steht vor allem die Senkung des Treibhauseffektes durch Verringerung der Produktion der sogenannten Treibhausgase im Vordergrund. Im Folgenden wären also die Theorien der vermeintlichen Experten zu erläutern, oder auch durch Kenntnisse der Physik und andere Naturwissenschaften zu widerlegen. Die gewonnenen Erkenntnisse werden dann dafür nötig sein, um die Folgen der Klimapolitik in Deutschland zu erkennen.
Die Macher
Während des sogenannten Kalten Krieges ging es ganz offensichtlich um die Weltvorherrschaft: Sollten die Geschicke des 21. Jahrhunderts von der Spitze einer selbsternannten Avantgarde der Arbeiterklasse oder der Spitze der marktbeherrschenden Finanzinstitutionen bestimmt werden. Wegen des atomaren Patts, wurde daraus ein Krieg um das Denken, Wollen und Fühlen der jeweiligen Mehrheit der Menschen.
In der ersten Phase des Wiederaufbaus gewann der Westen wegen der rasch steigenden Versorgung der Bevölkerung in den westlichen Industrienationen rasch die Oberhand. Der Osten fand dagegen bei den ärmeren Massen und in den führenden Kreisen der Entwicklungsländer Rückhalt, die nach einer gewissen Aufbauphase während des 2. Weltkrieges nun wirtschaftlich wieder an die Wand gespielt wurden.
Das Establishment des Westens fühlte sich durch die wachsende Masse ärmerer und verarmender Menschen zunehmend bedroht. Gleich zu Beginn des Kalten Krieges, 1948, veröffentlichte ein Verwandter des Geldmagnaten J. P. Morgans, ein Fairfield Osborn, das Buch Our Plundered Planet (Unser geplünderter Planet, dessen Titel später Herbert Gruhl aufgriff).
Darin hieß es: "Das Problem der zunehmenden Bevölkerung, das vielleicht größte Problem, vor dem die Menschheit heute steht, kann nicht auf eine Weise gelöst werden, die der Idee der Menschheit entspricht". Er meinte damit, daß dies nur auf "unmenschliche" Weise geschehen könne. Das Konzept: "Die Überwindung der Armut durch Beseitigung der Armen" ließ sich so direkt natürlich nicht massenwirksam vermarkten. Im gleichen Jahr erschien William Vogts "Road to Survival" mit der Einleitung des Wall Street Spekulant, Organisators der US-Rüstung im ersten Weltkrieg und Präsidentenberaters Bernhard Baruch. Damals wurde von führenden Persönlichkeiten des Westens weitere Organisationen wie z.B. die Vorkriegsorganisation Internantional Planned Parenthood Ferderation wieder ins Leben gerufen.
1954 auf dem Höhepunkt des Koreakrieges erschien die Broschüre des einflußreichen Geschäftsmanns Hugh Moore "The Population Bomb" (Die Bevölkerungsbombe, der Titel wurde während der Studentenrevolte 1968 von Paul Ehrlich erneut aufgegriffen). Von dem Buch wurden weltweit 2 Millionen Exemplaren verschenkt. Einen nachweisbaren Einfluß auf die offizielle Politik hatten diese Bemühungen während des sich zuspitzenden Systemkonflikts zunächst noch nicht. Sie führte aber in den folgenden Jahren zu einer Reihe vorbereitender Gremien und Aktionszirkel z.B. zum Population Council John D. Rockefellers, dem Office of Population Research an der Universität Princeton und zur Abteilung Bevölkerung bei den Vereinten Nationen.
Offen in die Politik einzugreifen begann die Antibevölkerungsidee wieder um 1957/58. Damals erfaßte die Westliche Welt die erste deutliche Wirtschaftsrezession und erinnerte trotz der allgemein verbreiteten Keynesianischen Wirtschaftsregulierungen an die prinzipielle Krisenhaftigkeit der freien Marktwirtschaft. Die Elite begann eine intensive Diskussion über weitreichende Verwaltungsreformen, um eine Gesellschaftsform einzurichten, die drastische wirtschaftliche Belastungen aushalten kann. Hierbei spielten zu Beginn der 50er Jahre im Labor entwickelte Instrumente der Bewußtseinsbeeinflussung und Bewußtseinsveränderung großer Teile der Bevölkerung eine Rolle. Die Ergebnisse dieser Überlegungen flossen 1965 in das Konzept der "Great Society" unter Präsident Johnson und der "Formierten Gesellschaft" unter Ludwig Ehrhard ein. Es handelte sich um die ersten mißlungenen Versuche, eine stationäre, "postindustrielle" Gesellschaft einzurichten. Sie scheiterten an der fehlenden Unterstützung durch die Bevölkerung.
Für die US-Elite war Bevölkerungspolitik war vor allem Außenpolitik. Daher setzte Präsident Eisenhower 1959 an die Spitze der Präsidentschaftskommission zum Studium des US-Militärhilfeprogramms für Regierungen, die sich gegen "kommunistisch unterwanderte" Befreiungsbewegungen zu wehren hatten, General W. Draper einen bekannten, fanatischen Verfechter der Bevölkerungsreduktion und 1962 stellte der Stellvertretende US-Außenminister Richard Gardner unter J. F. Kennedy vor den Vereinten Nationen die US Politik über "Bevölkerungswachstum und Wirtschaftliche Entwicklung" dar. Sie folgte der Linie, die Präsident Johnson 1965 drastisch wie folgt zusammenfaßte: "Laßt uns aufgrund der Tatsache handeln, daß weniger als 5 Dollar, die in Bevölkerungskontrolle investiert werden, 100 Dollar entsprechen, die in Wirtschaftsentwicklung zu investieren wären".
Der politische Umbau mußte beschleunigt werden, als 1967 die dramatische Dollar- und Pfundkrise einsetzte, es 1971 zur Kündigung des 1944 in Bretton Woods eingerichteten Weltfinanzsystems durch US Präsident Nixon kam, 1972 das System frei floatender Wechselkurse eingerichtet wurde und 1974 die sogenannte Ölkrise den Dollarkurs durch eine künstliche Nachfrage nach Dollar stützen sollte. Die OPEC hatte sich aufgrund des Yom Kippur Krieges verpflichtet, die Ölpreise um 400 % anzuheben, Ölrechnungen nur noch in Dollar begleichen zu lassen und einen erheblichen Teil der Mehreinnahmen in US-Schatzanleihen anzulegen.
Als sich die Dollar-Pfundkrise 1968 zuspitzte, und die sogenannte Studentenrevolte ihren Höhepunkt erreichte, beschäftigte die Elite ein weiteres bedrohliches Nachkriegsproblem. Darüber gibt ein Schrift Auskunft, die 1967 in den USA als Iron Mountain Bericht ("Report from the Iron Mountain on the Possibility and Desirability of Peace, und 1968 auf Deutsch unter dem Titel "Der verdammte Frieden" im List-Verlag) erschienen war. Der Text gibt vor, die Wiedergabe von Verhandlungen von 15 Spitzenkräften der US-Wirtschaft zu sein, die sich 1963 nach Einsetzen der Pugwash-Bemühungen in ihrem Atombunker Iron Mountain bei New York getroffen hatte, um zu erörtern, was die "Gesellschaft "stabilisierende Funktion" des "Kriegssystem" in dem Fall ersetzen könne, daß zwischen der UdSSR und den USA der Frieden ausbräche.
"Denn das Kriegssystem ermöglicht es in der Gesellschaft stabile Regierungen zu bilden "weil es die Gesellschaft von außen her nötigt, politische Herrschaft zu ertragen." Die Experten erörterten "ein breites Feld von Ersatzmöglichkeiten". Keine konnte die Experten befriedigen. Man habe sich aber, so der Bericht, auf eine "zweitbeste Lösung" geeinigt und zwar wörtlich: "Möglicherweise könnte irgendwann schwere Umweltverschmutzung als scheinbare Hauptbedrohung für das Überleben der Gattung an die Stelle der Massenvernichtung durch Atomwaffen treten." Es müßten aber zwei bis drei Generationen ins Land ziehen, ehe diese Bedrohung glaubhafte Ausmaße erreichen würde. "Wenn sich aber vorhandene Umweltschutzprogramme hinreichend aufbauschen ließen, könnte man die Bedrohung viel früher glaubhaft machen". Genau das geschah dann auch.
Ob ein solches Treffen tatsächlich stattgefunden hat, ließ sich bisher nicht bestätigen. Es findet sich aber ein Hinweis darauf, daß derartige Diskussionen stattgefunden haben, und zwar im Bericht des 1967 gegründeten Club of Rome von 1991, in Alexander King, Bertrand Schneider "The First Global Revolution" (Die erste globale Revolution). Dort ist zu lesen (auf S. 115 der engl. Ausgabe bei Pantheon Books, New York): "Auf der Suche nach einem neuen Feind, der uns (die Gesellschaft) wieder zusammenbringen könnte, kam uns die Idee, daß Umweltverschmutzung, die drohende Klimaerwärmung, Wasserknappheit, Hunger und dergleichen das Gleiche leisten können."
Der 1967 veröffentlichte Iron Mountain Bericht ist wohl vor allem als Signal für die verdeckt arbeitenden, politischen Kader der Massenführung zu verstehen, ihre Linie entsprechend zu ändern. Unter vielen anderen ähnlichen Organisationen wurde zum Beispiel 1969 "Green Peace" gegründet. Anläßlich des 15-jährigen Bestehens dieser Organisation erschien in dem GP-Magazin ein Grundsatzartikel des Physikprofessors der "Wendezeit", Fritjof Capra, und des späteren Mitbegründers der ökoterroristischen Organisation Earth First, Randy Hayes, darin heißt es:
"Wir sehen den Aufstieg des ökologischen Bewußtseins als Teil eines grundlegenden Wandels der Weltsicht, die unsere Gesellschaft gegenwärtig umformt". Im Zentrum des angestrebten "Wertewandels" steht wörtlich, daß das "Kriegssystem", das dem alten Wertesystem zugrunde liege, durch ein neues ökologisches ersetzt werden solle. Im Jahr 1971, als der Organisationsname Green Peace offiziell ins Stiftungsregister eingetragen wurde, unternahm in Deutschland als erster Hans Magnus Enzensberger mit viel linker Rhetorik im Kursbuch den Versuch, die "Neue Linke" auf den neuen ökologischen Kurs zu bringen ("Zur Kritik der politischen Ökologie", Kursbuch 33 S. 1-42). Gleichzeitig setzte in Deutschland wie auf Kommando ein sogenannter "investigativer Umweltjournalismus" (insbesondere bei Der Stern, Der Spiegel und Die Zeit) ein. Das bedeutete: die Öffentlichkeit wurde 10 Jahre vor der dem ersten Auftreten einer Grünen Partei plötzlich mit Umweltschreckensmeldungen überschwemmt.
Eine der ersten spektakulären Umweltkampagnen des 1967 in den USA gegründeten Umweltschutzfonds (Environmental Defense Fund) war die bevölkerungspolitisch bedeutsame Kampagne gegen DDT, das 1972 verboten wurde. Damals hatte zwar eine Anhörung in den USA auf 6000 Seiten alle grünen Behauptungen gegen DDT, die noch heute bedenkenlos nachgeplapperten werden, widerlegt, trotzdem setzte der damalige US-Umweltminister William Ruckelshaus das Verbot mit folgender Begründung durch: "Letztlich handelt es sich um eine politische Entscheidung. Im Fall der Pestizide ist die Zuständigkeit, solche Entscheidungen zu treffen, in unserem Land dem Umweltministerium übertragen worden" (Ders.: Opinion of the Administrator in: Consolidated DDT Hearings. 2. Juni 1972, EPA Washington D.C.). DDT hatte sich nach dem 2. Weltkrieg in der Bekämpfung gefährlicher Seuchen wie z.B. Malaria außerordentlich bewährt und Millionen Menschenleben gerettet. Das gerade machte das Mittel, das wesentlich wirksamer und umweltverträglicher als alle späteren Ersatzprodukte war, plötzlich bekämpfenswert. Nach einer entsprechenden Medienkampagne nickte das Deutsche Parlament dem von Präsident Nixon geforderten Verbot am 8. Juni 1972 ohne viel Aufhebens "einstimmig" zu.
Die Weichenstellung zu dieser Einstellung war bereits 1967 gefällt worden und zwar in dem Militärbündnis NATO. Damals wurde der spätere Vorsitzende des Club of Rome, Aurelio Peccei von Fiat und Olivetti, zum Vorsitzenden des Internationalen Atlantik Instituts gewählt. In dieser Funktion unterrichtete er die politische Führungsspitze der NATO über Themen wie "Die Neuordnung der Welt und die Notwendigkeit globaler Planung". Zu eben diesem Thema richtete die NATO 1968 ein eigenes Komitee für "die Herausforderungen der modernen Gesellschaft" ein. Als Zweck gibt das Gründungdokument an: "Das Überleben der heutigen menschlichen Gesellschaft wird gegenwärtig von einem neuen Faktor bedroht: der schnellen Verschlechterung des Globus als ökologisches System. Die weltweite ökologische Krise hat drei Komponenten: Die Verstädterung, die Bevölkerungsexplosion und den zerstörerischen Eingriff der Technik des Menschen in seine physikalische und soziokulturelle Umgebung".
Zusätzlich wurde am 6. 11. 1969 noch der "Ausschuß zur Verbesserung der Umweltbedingungen" bei der NATO eingerichtet. Die Initiative dazu war von US-Präsident Nixon (Republikaner) und speziell dessen persönlichem Berater P. Moynihan (Demokrat) ausgegangen. Zur Begründung verwies Moynihan lange vor der wissenschaftlichen Erörterung dieses Themas auf die Klimakatastrophe als Folge fossiler Energienutzung. (Ausschuß zur Verbesserung der Umweltbedingungen A 431 ab 11/69 in: Handbuch der NATO Frankfurt 1969 S. 13).
Im Jahr des DDT-Verbots fand 1972 in Stockholm die erste Umweltkonferenz der Vereinten Nationen statt, auf der die Umweltpolitik der UNO institutionalisiert (UNEP) und festlegt wurde, ihr folgte zwei Jahre später die Bevölkerungskonferenz in Bukarest mit dem gleichen Ziel. Auch im Jahr 1972 brachte Peccei's Club of Rome seinen ersten Bericht heraus, die aufgrund eines "Computermodells" erstellte Studie "Grenzen des Wachstums", die trotz ihrer nur allzu offensichtlichen wissenschaftlichen Mängel millionenfach in der Welt als die neue politische Richtlinie verbreitet und von den Medien gefeiert wurde.
In Deutschland wurde in diesem Jahr mit den nur als Kredit gewährten Geldern des alten Marshallplans der "German Marshallfund of US (GMF)" gegründet. Seine erklärten Ziele waren die Propagierung eben dieser neuen politischen Richtlinie, also von Umweltschutz, postindustrieller Gesellschaft, Deurbanisierung und Übergang von der Industrie- zur Dienstleistungswirtschaft. Unter anderem gründete und finanzierte der GMF das Umweltinstitut in Freiburg. In den Führungsgremien saßen David Rockefeller, Armand Hammer und John McCloy. Damals begann die Regierung Brandt (auf Druck von Ehmke und Bahr) die Besteuerung von Investitionen Produktionsstätten einzuführen.
Die Ölkrise von 1974 brachte weitere Weichenstellungen. Im Rahmen der Weltbevölkerungskonferenz der UNO verfaßten Henry Kissinger und Brent Scowcroft im gleichen Jahr das National Study Memorandum 200 "Implications of worldwide Population Growth for US Security and Overseas Interests". Es gab der Politik der USA in den nächsten Jahren ihre Richtung vor. In dem zunächst streng vertraulichen Dokument, das inzwischen im Archiv zugänglich ist, wird festgestellt, daß das weltweite Bevölkerungswachstum dadurch zum Sicherheitsproblem der USA würde, daß es den Anspruch der USA auf ein Drittel der Weltrohstoffe vor allen in den Entwicklungsländern gefährde. Das Papier erklärt auch, daß die USA die Beschränkung oder Reduktion der Bevölkerung in den Entwicklungsländern - wie in Bukarest auf Initiative Nelson Rockefellers geschehen - nicht direkt fordern solle, da dies antiimperialistische Gefühle provoziere. Statt dessen solle man versuchen, nationale Führer zu ermutigen, sich für entsprechende Programme einzusetzen. "Vor allem müssen wir sicherstellen, daß internationale Organisationen wie IBRD, WHO, UNDP, UNICEF und UNFPA wie auch private freiwillige Organisationen eine aktive Rolle zur Unterstützung von Bevölkerungsprogrammen spielen". Insbesondere die Umweltschutz- und Frauenbewegungen würden zur Durchsetzung der US-Bevölkerungspolitik beitragen und verhindern, daß sich die Länder der Dritten Welt gegen den Westen und gegen den Kapitalismus zu Gunsten einer "Neuen Gerechten Wirtschaftsordnung" zusammentun.
Die US Umwelt- und Bevölkerungspolitik war nicht nur in Entwicklungsländern umstritten. 1974 gab es unter dem Eindruck der Ölkrise in Deutschland Bestrebungen der Industrie und der Politik (Helmut Schmidt), wieder vom Kurs der Umweltpolitik abzurücken. Dabei handelt es sich wohl gemerkt nicht mehr um den alten Umweltschutz, wie er seit dem Reichsumweltschutzgesetz von 1935 auch nach dem Krieg recht erfolgreich betrieben wurde, um Umweltbelastungen mit technischen Mitteln zu vermeiden oder abzumildern. Mit der "Umweltpolitischen Wende" von 1969 sollte vielmehr ein "weltökologisches Umweltdilemma als Schlüsselerlebnis der Grenze der gewohnten Lebens- und Wirtschaftsformen" anerkannt werden. Der seit 1970 gepredigte neue Umweltschutz dient als "Mittel, um grundlegende Änderungen in den Werten und Institutionen der Industriegesellschaft" und im Verhalten seiner Bürger durchzusetzen. Das jedenfalls betont Peter Menke-Glückert Staatssekretär im 1969 für Umweltpolitik zuständigen Innenministerium unter Genscher in mehreren Memoranden.
Sein gleichgestellter Mitkämpfer im gleichen Ministerium, Dr. Günter Hartkopf, erinnert in einer Rede, die er am 8.1.1986 vor höheren Beamten des DBB (Deutscher Beamten Bund) in Bad Kissingen hielt, an die Behinderungen dieser Politik. "Im Verlauf der Rezession 1974 fanden die üblichen Gegner eines verbesserten Umweltschutzes, also die Wirtschaftsverbände, Gelegenheit, den Spitzen der Bundesregierung durch lautes Beklagen des sogenannten überzogenen Umweltschutzes die Mär vom 50 Milliarden Investitionsstau glaubhaft zu machen. Die allerhöchsten Regierungsrepräsentanten schickten sich darum an, dem Umweltschutz sein Cannae zu bereiten. Am 3. Juli 1975 sollte auf Schloß Gymnich der Umweltschutz beerdigt werden. Hohe Beamten in wichtigen Ressorts, die das Buch über die Grenzen des Wachstums nicht nur gelesen, sondern auch (als Politikleitlinie, HB) verstanden hatten, organisierten daraufhin im Vorfeld des Treffens den Teilnehmerkreis so um, daß eine beachtliche Umweltstreitmacht den Wirtschaftsbossen gegenübergestellt wurde …"
In der gleichen Rede stellte Hartkopf fest, wie die Umweltbewegung in Deutschland überhaupt erst zustande kam. "Zur Organisation des Umweltschutzes und damit zur Unterstützung der Umweltverwaltung bedarf es einer Lobby, die außerhalb von Verwaltung und Parlament Forderungen für mehr Umweltschutz erhebt und damit in Politik und Medien gehört wird. Nachdem zu Beginn der eigentlichen bundesdeutschen Umweltpolitik eine solch potente Gegenseite nicht vorhanden war, mußte sie geschaffen werden. Es waren vorwiegend Beamte, die den Grundstein für die Arbeitsgemeinschaft für Umweltfragen legten und sie mit Leben und sachlichen Mitteln ausstattete … Weil ein umweltpolitischer Kampfverband fehlte, mußte er gebildet werden. Wieder waren es Beamte, die den Plan vorwärtstrieben, örtliche Bürgerinitiativen zu einem Dachverband zusammenzuschließen und die die Gründungsversammlung und einiges mehr finanzierten. Natürlich war allen Beteiligten klar, daß man einen ziemlich wilden Haufen ins Leben gerufen hatte, der auch der Umweltverwaltung durch seine Forderungen schwer zu schaffen machten würde. Doch das eigentliche Wadenbeißen des Verbandes fand immer in der richtigen Richtung statt."
Ähnlich sah es auch der damalige stellvertretende Generalsekretär der NATO Dr. W. Henily:
"Zu erst haben die europäischen Regierungen gezögert, sich darauf einzulassen. Doch dann haben die grünen Parteien und die Umweltschützer auf die Regierung Druck ausgeübt und sie dazu gezwungen, Ausschüsse einzurichten". Konsequenterweise ist seitdem die Produktion von Versorgungsgütern in absoluten Zahlen weltweit stetig rückläufig.
Das alles geschah vor der Gründung der Grünen Partei. 1980, in ihrem Gründungsjahr, stellte Horst Ehmke in seiner Rede vor der Sozialistischen Internationale in Washington fest: "Das Ruhrgebiet braucht keine Kernenergie, weil der östliche Teile ohnehin seine Schwerindustrie verlieren wird". Im gleichen Jahr verabschiedete die Carter-Regierung in den USA ihr Programm Global 2000 und die UNO ihre World Conservation Strategie. In dem Bericht Global 2000 wird nichts weniger als die Eliminierung von 2 Mrd. Menschen bis zum Jahr 2000 gefordert. Wollte man weitere derartige Initiativen aufzählen, würde man sich ins Uferlose verlieren. Wenden wir uns daher nun dem Konzept dahinter zu.
[Erg. KF: Die Geschichte der Ökoabzocke und des Klimaschwindels geht also im wesentlichen auf die US-amerikanischen Kräfte zurück, die 1968 Richard Nixon an die Macht brachten. Er startete dann die Legalisierung der Umweltparasiten, die seitdem die Bevölkerung in zunehmend brutaler Art und Weise ausplünderten (vgl. Gastkommentar des Politikwissenschaftlers Carl Leggewie in der WELT: Amerika ist grün ): National Environmental Policy Act NAPE 1969, Clean Air Act 1970, Clean Water Act 1972, Endangered Species Act von 1973. All diese "Umweltgesetze" geben vor, die Umwelt schützen zu wollen, eröffnen aber in Wirklichkeit dem großen Kapital und den Konzern ungeheuere gesetzlich geschützte Geschäftstätigkeiten, gegen die das Volk wehrlos ist, da ja die Welt gerettet werden muß. Mit NAPE wurde dafür das Environmental Impact Statement EIS eingeführt, auf Deutsch:
Umweltverträglichkeitsprüfung, mit dem jedes Projekt nach Lust und Laune der wahren Mächte extrem verteuert oder gar aus den Latschen gekippt werden kann. In Deutschland nahm sich der aus Ostdeutschland eingeschleuste FDP-Vorsitzende Hans-Dietrich Genscher der Sache an und entwickelte mit urdeutscher Gründlichkeit und perfider Rafinesse ein System der staatlich
gesteuerten Umweltaktivisten und -auflagen, mit dem die Industrieinteressen ausgehebelt und - noch besser - nach Belieben zu steuern und mit immer teureren Abgaben auch zu besteuern waren - zum Wohle der wirklich Allmächtigen in den Banken und Konzernen und ihrer Helfershelfer (Siehe hierzu auch den Spiegel: "Wie die Pilze" und Hanna Thiele: "Die umweltpolitische Wurzel der liberalen Identitätskrise". Daß es ausgerechnet die Millionärsparte FDP war, die die US-Kolonie BRD und das vertumbte deutsche Volk dem internationalen Raubtierkapitalismus endgültig auslieferte, braucht uns heute jedenfalls nicht mehr zu wundern. Zu diesem Komplex der korrupten FDP-Verräterei hat auch Dr. Peter Plichta Erhellendes beigetragen.]
Methan CH4, Lachgas N2O
Methangas hat eine folgenschwere Wirkung und nicht das CO2. CRISPR/Cas9 ist als absolut alternativlos anzusehen, wenn es darum geht, den permanent steigenden Fleischkonsum noch nachhaltig befriedigen zu können. Derzeit kostet ein Kilogramm Fleisch aus dem Labor noch ca. 50 € (2017). Labore sind jedoch sehr zuversichtlich, dass die Kosten der Produktionsverfahren in wenigen Jahren bedeutend gesenkt und somit wettbewerbsfähig sein werden.
Mikrobiologisch wie preislich wird es keinen Unterschied, zwischen Fleisch aus der Massentierhaltung und dem im Labor generierten, mehr geben. Methangas wird aber auch über die Weltmeere produziert.
Betrachtungen zu dem Phänomen des Treibhauseffektes
Die Sonnenenergie gelangt als Infrarotstrahlung, sichtbares Licht und UV-Strahlung auf die Erde. Etwa ein Drittel wird wieder in den Weltraum zurückgeworfen: von der Atmosphäre rund 25% und von der Erdoberfläche rund 5%. Die Atmosphäre und die Wolken schlucken rund 25%, so dass nur 45% die Erdoberfläche erreichen. Mit aufsteigender Luft und mitgeführtem Wasserdampf gibt die Erde Energie wieder ab. Ein Teil der Infrarotstrahlung, die von der Erde zurückgeworfen wird, verschwindet im Weltraum. Ein großer Teil wird aber von den Treibhausgasen abgefangen. Auch von der isolierenden Treibhausschicht gelangt Wärme in den Weltraum. Den größten Teil strahlt sie jedoch zur Erdoberfläche zurück, was zur Erwärmung der Troposphäre beiträgt.
Als Treibhausgase versteht man im Übrigen Gase, die bei der Nutzung fossiler Brennstoffe, wie Kohle und Erdöl, in die Umwelt abgegeben werden. Sie absorbieren die Sonnenenergie, die von der Erde in Form von Infrarotstrahlen reflektiert wird, und heizen so die Atmosphäre auf.
Man kennt 6 wichtige "Treibhausgase":
- Kohlenstoffdioxid CO2
- Distickstoffmonoxid N2O
- Methan CH4
- Fluorchlorkohlenwasserstoffe FCKW
- Ozon O3
- Wasserdampf H2O
Zu welchen Assoziationen zwingt uns allein das Wort "Treibhauseffekt"?
Ich stelle mir die Erde in einer Glashülle vor, die nur die Hitze der Sonne hineinlässt und fast nichts von der Wärme wieder heraus. Da diese "Glaskuppel" hauptsächlich durch CO2 verursacht sein soll, müsste es sozusagen eine CO2 –Hülle sein, die die Wärmestrahlung wieder auf die Erde reflektiert. Doch etwas stimmt an dieser Vorstellung nicht. CO2 ist schwerer als Luft und verbleibt deshalb am Erdboden. Besonders eindrucksvoll ist das an folgendem Ereignis zu erkennen:
In Kamerun im August 1986 starben über Nacht 1.700 Menschen an den Folgen einer Kohlendioxidvergiftung. Lange blieb unklar, woher das tödliche Gas kam. Dann war klar: Es stammte aus dem nahegelegenen Lake Nyos, ein tödlicher Killer-See. Der Vulkan unter dem See speiste über viele Jahrzehnte giftiges Kohlendioxid in das Wasser ein. Das Gas sammelte sich in 200 Meter Tiefe und setzte sich plötzlich explosionsartig frei.
In der verhängnisvollen Nacht im Jahr 1986 kam es nämlich zu einer Kettenreaktion. Ein Teil des Kraterrandes brach ab, stürzte in die Tiefe und wirbelte die hochkonzentrierte Kohlensäure am Seeboden auf. Die Druckentlastung führte zu einer schlagartigen Entgasung der im Wasser gelösten Kohlensäure. Über eine Millionen Kubikmeter Kohlendioxid wurden in wenigen Sekunden freigesetzt. Sie lösten bis zu 25 Meter hohe Flutwellen aus. Das geruchlose Gas schwappte über die Kraterränder. Da es schwerer ist als Luft, kroch es die Hänge hinab und legte sich lautlos wie ein unsichtbarer Teppich über die umliegenden Felder und Dörfer. Tiere und Menschen erstickten dadurch im Schlaf.
Dieses Ereignis ging damals um die Welt und wurde auch vom Spiegel - nicht gerade eine Bastion des wahren und redlichen Journalismus - in einem ausführlich Tatsachenbericht dargestellt. Hier noch der Bericht der BBC aus Grossbritannien und der Eintrag auf Wikipedia.
- https://news.bbc.co.uk/onthisday/hi/dates/stories/august/21/newsid_3380000/3380803.stm
- https://en.wikipedia.org/wiki/Lake_Nyos_disaster
[Anmerkung: CO2 / Kohlendioxid ist selber - im Unterschied zum Kohlenmonoxid CO - also kein Gift und nicht toxisch und beispielsweise in Mineralwasser, Bier, Sekt und unserer ausgeatmeten Luft enthalten. Im beschriebenen Fall verdrängte das gegenüber dem Luftgemisch schwerere CO2-Gas jedoch die Luft und damit den lebenswichtigen Sauerstoff. Resultat: Erstickung - nicht "Vergiftung".]
Wir sehen also, dass eine CO2-Hülle, die die Wärmestrahlung wieder auf die Erde reflektiert, so nicht existieren kann. Was also ist mit dem Treibhauseffekt wirklich gemeint?
Die weit verbreitete Erklärung für den Treibhauseffekt
Laut www.ilexikon.com: "Der Treibhauseffekt bewirkt, dass hinter Glasscheiben und dadurch im Innenraum eines verglasten Gewächshauses die Temperaturen ansteigen, solange die Sonne darauf scheint. Mithilfe dieser Wärme können Pflanzen vorzeitig austreiben, blühen und fruchten. Heute fasst man den Begriff jedoch viel weiter und bezeichnet davon abgeleitet den atmosphärischen Wärmestau der von der Sonne beschienenen Erde als atmosphärischen Treibhauseffekt, da die beiden Situationen physikalisch sehr ähnlich sind. Der Effekt im Gewächshaus wird auch spezifisch benannt durch den Begriff Glashauseffekt. Der durch menschliche Eingriffe vermutete Anteil am atmosphärischen Treibhauseffekt wird anthropogener Treibhauseffekt genannt.Zumeist tritt der Treibhauseffekt dann auf, wenn die Durchlässigkeits- und Absorptionskoeffizienten der Begrenzungen eines Volumens wellenlängenabhängig sind. Dazu muss der Hauptteil der inneren Strahlung im eingeschlossenen Volumen entsprechend den Temperaturen von den Begrenzungen reflektiert oder (hauptsächlich) absorbiert werden.
Zu dieser inneren Strahlung kommt eine weitere Strahlung (hauptsächlich von der Sonne), die einen Teil der Begrenzung (Glasscheiben beziehungsweise die Schicht der Treibhausgase) wegen der anderen Wellenlänge fast mühelos durchdringt und von einem anderen Teil der Begrenzungsfläche (beispielsweise Erdboden) absorbiert wird. Durch die Summe der beiden Strahlungen (innere Strahlung eines Hohlraums, die von allen Begrenzungsflächen ausgeht, plus der durchgelassenen Strahlung) werden die getroffenen Stellen stärker erwärmt und diese stärkere Erwärmung breitet sich über das ganze Volumen aus. Eine Gasfüllung des Volumens ist dazu nicht notwendig, stört aber auch nicht."
Gegendarstellung zum Treibhauseffekt
Zunächst geht man davon aus, dass die Vorgänge des echten Treibhauseffektes und die des atmosphärischen sich physikalisch sehr ähnlich sind. Dennoch wird in einem Bericht des United States Department of Energy ("Projecting the Climatic Effects of Increasing Carbon Dioxide, DOE/ER 0237, December 1985), auf den Seiten 27/28, in dem ausdrücklich darauf hingewiesen, dass die Bennennungen "greenhouse gas" und "greenhouse effect" irreführend sind.
Der echte Treibhauseffekt des Glashauses ist nämlich mit der unterdrückten Konvektion (Luftkühlung) zu erklären und nicht mit irgendwelchen Absorptionseigenschaften der Glasscheiben. Das ist auch der Grund, weshalb dieser Effekt in keinem ordentlichen Physikbuch vorkommt. Ein Treibhauseffekt kann also nicht existieren, weil ein Treibhaus ein geschlossenes System voraussetzt – im Gegensatz zur Erde, die gegenüber dem Weltall keine Systemgrenze aufweist.
Danach ist von einem vermuteten Anteil des Menschen am Treibhauseffekt die Rede. Von Klimatologen wird dann behauptet, dass die durch menschliche Aktivitäten freigesetzten Treibhausgase zum dominierenden Faktor im Klimageschehen geworden wären. Diese Aussage ist schon deshalb zweifelhaft, weil allein Wasserdampf etwa 62% der Infrarotstrahlen absorbiert, die die Sonne auf die Erde abstrahlt. Da der Wasserdampfgehalt der Atmosphäre stark schwankt, wird er in den IPCC-Klimamodellen nicht berücksichtigt.
Das bedeutet, dass zwei Drittel des Treibhauseffektes in den UNO-Prognosen unbeachtet bleiben, während dem verbleibenden Drittel, für das die Treibhausgase verantwortlich sind, hingegen eine ausschlaggebende Bedeutung zuerkannt wird, weil sich das Intergovernmental Panel on Climate Change (IPCC) als oberste wissenschaftliche Instanz in Fragen der Klimaforschung der Vereinten Nationen versteht. Alle Daten von dieser Organisation werden als gültig angesehen, ohne nach zu fragen. Deshalb bleibt es eben auch nur bei Vermutungen.
Tatsächlich gehen nur 3% des Kohlendioxids, dass jährlich in die Atmosphäre gelangt, auf menschliche Einflüsse zurück, die restlichen 97% stammen aus natürlichen Quellen, wie verdunstendes Meereswasser, verrottende organische Materie und der Atmung von Pflanzen und Tieren. Oder anders ausgedrückt: Eine Luftsäule über einem Quadratmeter Erdoberfläche wiegt 10 Tonnen. Darin können 400 kg Wasser und 3kg CO2 enthalten sein. Von diesen 3000g CO2 seien 90g vom Menschen verursacht und würden das globale Weltklima zum kippen bringen. Das ist schon aufgrund der Größenverhältnisse nicht möglich und außerdem fehlen die physikalischen Beweise.
Irrtümer der etablierten Klimatologie
Aus zum Teil fehlerhaften Messungen und daraus entstehenden Schätzungen und Spekulationen werden Computermodelle entworfen, die noch spekulativer sind weil sie weder die zyklischen Schwankungen der Temperatur und ihre Ursachen, noch den Einfluss des Wassers zureichend berücksichtigen.
Der derzeit offiziell beschriebene "Treibhauseffekt" kommt also nur durch Computermodelle zustande, die nur wenig von der tatsächlichen Realität zeigen, weil es für die Wetterparameter keine lösbaren Gleichungen gibt. Marc Lucotte von der Quebec-Universität, Montreal sagte am 3.Mai 2005 in "Luftverschmutzung zu verkaufen" auf arte: "Chemie, Physik und Biologie machen das Meer aus, die Meeresoberfläche, wie die Tiefsee. Aber diese drei wirken auch so zusammen, dass kein Mensch, kein auch noch so komplexes Modell und kein Computer im Stande ist ihr Zusammenspiel zu berechnen, es vollständig zu erfassen. Wir spekulieren hier mit ständig wachsenden Variablen. Je größer das System, desto größer die Unbekannte, und wir können einfach nicht wissen, wohin der Weg führt, wenn wir das Gefüge unseres Planeten manipulieren." Dasselbe gilt auch für Modelle über das Klima der Atmosphäre.
Der Treibhauseffekt ist also auch nur eine "geradezu idiotische Lüge", die keinerlei Überprüfung standhält, wie es Herr Konrad Fischer in seinem Interview so schön formuliert hat. Denn schließlich ist dieser "Effekt" bereits von mehreren Meteorologen und Physikern eindeutig widerlegt worden.
Es ist richtig, dass die Temperaturen seit 150 Jahren steigen. Von Klimaexperten wird aber behauptet, dass der Mensch an der Klimaerwärmung schuld sei, weil er durch die Produktion von CO2 und anderer Treibhausgase den anthropogenen Treibhauseffekt verursachen würde, der die Atmosphäre aufheizt. Infolge der Erhöhung der Treibhausgase würden die Gletscher und Polkappen abschmelzen. Dabei ist aber einiges nicht beachtet worden:
Dummerweise fiel der Beginn der Wetteraufzeichnungen gerade in eine Zeit, in der die Temperaturen gerade wieder stiegen und die Industrialisierung begann. Wie die Klimageschichte zeigt, gab es bis Mitte des 19. Jh. eine kleine Eiszeit und die Wetteraufzeichnungen begannen 1860. Ein idealer Anfangspunkt also für Klimatologen, die eine Temperaturerhöhung durch den Menschen verteufeln. Dabei hat sich das Klima der Erde schon in der Vergangenheit auch ohne menschlichen Einfluss zyklisch verändert, wie die Klimageschichte zeigt. Da die Experten aber trotzdem der Meinung sind, die vom Menschen produzierten Treibhausgase sind für klimatische Veränderungen verantwortlich, müssen sie reduziert werden.
Vor allem CO2 wird als Klimakiller schlechthin gehandelt. Tatsächlich erwärmt sich aber die Erde seit ca. 450.000 Jahren und mit ihr steigt die CO2- Konzentration in der Atmosphäre. Allerdings geschieht dies mit einigen Schwankungen mit der Periodendauer von ca.100.000 Jahren. Das zeigen allgemein anerkannte Bohrungen im antarktischen Eis und deren Analyse, z.B. Petit et al. 1999, die auch dem IPCC bekannt sind. Außerdem war die CO2- Konzentration in der Erdgeschichte meist wesentlich höher als heute. Davon zeugen die vielen fossilen Energiequellen. Weil damals die Konzentration höher war, konnten viele Pflanzen üppiger wachsen und auch verrotten, um dann schließlich durch den Inkohlungsprozess in Kohle umgewandelt zu werden. Heut verhält es sich genauso. Mit 0,037% CO2 in der Atmosphäre sind wir derzeit an der unteren Grenze dessen, was Pflanzen benötigen. Da sich der CO2- Gehalt etwas vergrößert hat, können nun auch einige Pflanzen üppiger wachsen.
Warum wird also das CO2 für die Erwärmung verantwortlich gemacht? Die vom Menschen fühlbare Wärme beruht im Wesentlichen auf der Steuerung der Wolkenbildung durch Feinstaub und wie seit einiger Zeit vermutet wird, durch kosmische Strahlung und Sonnenwind, der Strahlungsabsorption und Reflektion an der Erdoberfläche und dem in der Atmosphäre enthaltenem Wasser und in geringem Maße CO2 mit nachfolgender Thermalisierung, zyklischen Kondensationsprozessen in der feuchten Atmosphäre und der Wärmespeicherfähigkeit der Ozeane. "Treibhausgase" wie CO2, Ozon, Methan und FCKW strahlen ihre absorbierte Energie unterhalb von 10 km auch nur in geringem Maße ab, denn sie übertragen die Energie durch Kollision mit anderen Luftmolekülen, wie N2 und O2. Dies ist zweifelsfrei nachgewiesen und ergibt sich aus der Thermodynamik (Maxwell, Bolzmann, Physikbücher!).
CO2 und andere sogenannte "Treibhausgase" absorbieren zwar geringe Mengen Wärmestrahlung, sind jedoch in so geringer Konzentration vorhanden, dass sie an der Thermalisierung nur einen geringen Anteil haben. Weiterhin lösen sich die vom Menschen an die Atmosphäre abgegebenen Mengen CO2 relativ schnell (ca. 5 -38 Jahre im Meer bzw. werden von Pflanzen verstoffwechselt). Die Verbrennung fossiler Brennstoffe produziert etwa 3 % der gesamten Kohlenstoffmenge, die durch die Lösung im Wasser und die Photosynthese/Zellatmung bestimmt wird. (Die Grafik hierzu im Anhang). Dies ist zu wenig, um die Mengen-Verhältnisse zu kippen. Die Bodenausgasungen der gesamten Erdoberfläche sind weit größer als die anthropogenen Emissionen und bestimmen deshalb wesentlich die CO2-Konzentration der Atmosphäre (es gibt in der Natur keine Gleichgewichte!).
Schließlich ist Wasser mit max. 4% in der Atmosphäre vorhanden, absorbiert ca. 88% der Strahlungsenergie und bestimmt wesentlich das Wetter!
Außerdem hat die Existenz der sog. Treibhausgase, nichts mit dem Schmelzen von Eismassen zu tun. Die Menge des globalen Eises verändert sich zyklisch im Laufe der Erdgeschichte. (Arctic ocean Model; Milankovitch-Zyklen) Es gibt derzeit KEINEN globalen Trend der Gletscherschmelze (R.J. Braithwaite 2002" Glacier mass balance: the first 50 years of international monitoring" (Progress in Physical Geography 26: 76-95). Selbst wenn alle Gletscher abschmelzen, ist das wegen der minimalen Eismasse belanglos. An beiden Polen wird es kälter. Obendrein nimmt die Eismasse der Antarktis nicht ab.
Es gibt auch KEINEN globalen Trend zur Meersspiegelerhöhung, wie das IPCC behauptet. Ein umfassende Analyse aller verfügbaren Daten durch die INQUA Commission on Sea Level Changes and Coastal Evolution beweist dies. ("A History and Projection of Global Sea Level "von Moerner et al. 2004)
Weiterhin ist es auch theoretisch unmöglich die Eiskappen der Erde abzuschmelzen und damit den Meeresspiegel zu erhöhen, indem man die Wärme der Atmosphäre um ein paar Prozent erhöht (z.B. durch die Zugabe wärmeabsorbierendem anthropogenem CO2 in der Troposphäre).
Nachgewiesenermaßen steigen keine Meeresspiegel, sondern schwanken auf natürliche Weise.
Zusammenfassung Treibhauseffekt
Betrachtet man also das Klimageschehen mit sämtlichen Kenntnissen der Naturwissenschaften, so werden einem folgende Konsequenzen klar:
1. Der atmosphärische Wärmeeffekt beruht im wesentlichen nicht auf Strahlungsemission, sondern auf Wärmetransport durch H2O und Wolken, der durch Solar- und kosmische Strahlung gesteuert wird. Das heißt, Wasserdampf ist der wirksame Wärmetransporter in der Atmosphäre. Die Wirkungen der anderen Spurengase wie CO2, Methan, Ozon oder FCKW sind so gering, dass sie vernachlässigbar sind. Weiterhin spielt die Wärmespeicherfähigkeit der Ozeane eine wesentliche Rolle beim globalen Klima. Weil die solare Infrarotstrahlung seit 300 Jahren steigt, wird es also auch wärmer.
2. Die Temperaturvariabilität der Erdgeschichte ist ein natürlicher Prozess und beruht auf der solaren Variabilität samt kosmischer Strahlung. Der Mensch ist also nicht an der Erwärmung beteiligt! Die Kalt- und Warmzeiten der Erdgeschichte werden durch unterschiedlich starke Beeinflussung der Wolkenbildung, durch kosmische Strahlung und Sonnenwind hervorgerufen.
3. Die Ursachen der globalen Erwärmung sind nur in paläoklimatischen Zusammenhängen zu sehen und weitgehend solaren und astrophysikalischen Ursprungs.
4. Dadurch, dass sich die Ozeane erwärmen, können sie weniger CO2 lösen, das Kohlenstoffgleichgewicht wird verschoben und die CO2-Konzentration in der Atmosphäre steigt. Weil somit mehr CO2 für die Pflanzen zur Verfügung steht, hat das positive Auswirkungen auf die Natur.
Wie man schon aus der Klimageschichte erkennen konnte, befindet sich unser Planet in einem periodischen Wechsel von Kalt- und Warmzeiten, in denen es wiederum auch Temperaturschwankungen gibt. Vor 30 Jahren wurde noch eine Eiszeit propagiert, als diese dann auf sich warten ließ, kam die Theorie der Erderwärmung durch den vom Menschen verursachten Treibhauseffekt gerade recht, obwohl sie nachweislich falsch ist. "Lüge und Angst sind allezeit die bevorzugten Steuerungsinstrumente der Unterdrückung.", meint auch Konrad Fischer in seinem Interview. Nichts anderes wird derzeit in der Klimapolitik getrieben. Die Stimmen der Kritiker werden praktisch von den Experten für nichtig erklärt. Fragt man einen Vertreter der Treibhaustheorie nach Klimakritikern, so meint er, dass es gar nicht so viele sind und im Grunde die Wissenschaft mit einer Stimme spricht. Weiter geht auch der Experte Jean Jouzel, französischer Klimatologe, CNRS, in der Gesprächsrunde am 03.05.05 auf Arte nicht auf die Kritiker ein. Die Wissenschaftler sind sich nicht einig und es gibt in wissenschaftlichen Kreisen viele, die sich gegen die Behauptung, der Mensch wäre an der Klimaerwärmung schuld, stellen, es wird ihnen aber nicht gestattet zu sprechen.
Die Globale Erwärmung findet statt, sie ist aber nicht vom Menschen entfacht, sondern von der erhöhten Sonnenaktivität, dies lässt sich ganz leicht zeigen, da die Temperatur auf ALLEN Planeten des Sonnensystems ansteigt!
Wissenschaftler kritisieren Gores CO2-Schwindel
Gores Klimapropagandisten behaupten gerne, die Theorie des vom Menschen verursachten Klimawandels sei unbestritten. Das ist jedoch eine Lüge. Die Wahrheit ist, dass jeder, der diesem grünen Dogma widerspricht, zum Schweigen gebracht wird oder seine Argumente verdreht werden. Einige Beispiele:
- Prof. Paul Reiter vom Pasteur-Institut in Paris sagt, daß die Liste der Wissenschaftler, die angeblich den Bericht des Intergovernmental Panel on Climate Change (IPCC) unterstützen, ein „Schwindel“ sei, da sie Namen von Wissenschaftlern enthält, die mit den übertriebenen Klimavorhersagen gar nicht übereinstimmen. Reiter, ein Malariaexperte, sagte gegenüber der Londoner Daily Mail, sein Name sei erst aus der Liste entfernt worden, nachdem er mit gerichtlichen Schritten gedroht hatte. „So erzeugen sie den Eindruck, alle führenden Wissenschaftler würden zustimmen“, sagte Reiter. In einem Bericht, der in der Ausgabe von Emerging Infectious Diseases für Januar-Februar 2000 erschien, zeigte Reiter, daß die Behauptung, die Zunahme der Malariafälle hänge mit dem Klimawandel zusammen, absurd ist.
- Der angesehene französische Physiker und Pionier der Isotopenforschung Claude Allegre sprach sich im vergangenen September gegen die These der globalen Erwärmung aus, nachdem er sie zuvor 15 Jahre lang vertreten hatte. Damals gehörte Dr. Allegre zu den 1500 Wissenschaftlern, die in einem weitverbreiteten Offenen Brief gewarnt hatten, die „potentiellen Gefahren“ durch die globale Erwärmung seien „sehr groß“. Im vergangenen September schrieb Allegre jedoch in L’Express unter der Überschrift „Der Schnee des Kilimandscharo“, der Rückgang der Gletscher des Kilimandscharo habe nichts mit dem vom Menschen erzeugten Kohlendioxid zu tun, und wies auf das Wachsen der Gletscher in der Antarktis hin. Es gebe keinerlei Grundlage für die von manchen erhobene Behauptung, die „Wissenschaft sei geklärt“. Allegre, Mitglied der Akademien der Wissenschaft von Frankreich und den Vereinigten Staaten, ist Pionier der Isotopen-Geodynamik, einer Methode, die Ereignisse in der Vergangenheit, wie die Ausbildung der Atmosphäre, anhand von Isotopenspuren zu datieren. Er war am Apollo-Mondlandeprogramm beteiligt und half, das Alter des Mondes zu bestimmen, und als ehemaliger Bildungsminister ist er führendes Mitglied der Sozialistischen Partei Frankreichs.
- Dem Landesklimatologen des Bundesstaats Oregon, George Taylor, droht der Verlust seines Arbeitsplatzes, weil er argumentierte, der Klimawandel sei die Folge natürlicher Veränderungen und nicht des vom Menschen erzeugten Kohlendioxids. Trotz Drohungen des Gouverneurs und eines vom Landessenator Brad Avakian in den Landtag einbrachten Antrages, Taylor seines Amtes zu entheben, steht Taylor zu seinen Erklärungen: „Wenn sich die Fakten ändern, dann ändere ich auch meine Ansicht. Aber bisher ist das nicht der Fall“, erklärte er bei einer Konferenz über den Klimawandel an der Oregon State University (OSU). Taylor ist „Landesklimatologe“, seit der Landtag 1991 diesen Posten an der OSU geschaffen hatte.
- Chris Landsea, einer der führenden Hurrikanexperten, trat im Januar 2005 aus Protest gegen die falsche Klimapolitik aus dem IPCC aus. Kurz vor der Veröffentlichung des 4. Sachstandsberichtes des IPCC kritisierte er in einem Offenen Brief Dr. Kevin Trenberth, den Verfasser des Abschnitts des IPCC-Berichtes, der sich mit Hurrikanen befaßt. Trenberth hatte schon im August 2004 bei einer Pressekonferenz behauptet, die starke Hurrikansaison 2004 im Atlantik sei die Folge von Treibhausgasen. In seinem Brief schrieb Landsea: „Meines Wissens hat keiner der Teilnehmer dieser Pressekonferenz irgendwelche Forschungen zur Variabilität der Hurrikane durchgeführt, noch wurde über neue Forschungen auf diesem Gebiet berichtet. Alle bisherigen und gegenwärtigen Forschungen im Bereich der Hurrikanvariabilität zeigen keinen verläßlichen langfristigen Aufwärtstrend der Frequenz oder Intensität tropischer Wirbelstürme, weder im Atlantik noch in anderen Meeren.“
- Das dänische Raumfahrtzentrum verbreitete am 27. Februar eine Presseerklärung über die Forschungsarbeiten von Henrik Svensmark und seiner Gruppe, die gegen die These Front machen, CO2-Emissionen seien die Hauptursache des Klimawandels. Svensmark und Eigil Friis-Christensen, der Direktor des dänischen Raumfahrtzentrums, wollen die Lügen der Ökobewegung nicht länger hinnehmen.
Kurze Einleitung und Erklärung
Die Erde hat eine Atmosphäre, die aus Luft besteht. Und Gase, also auch Luft, sind so das Beweglichste und die mit geringstem Widerstand sich bewegende Materie, die wir kennen. Um Luft dazu zu veranlassen, sich durch Aufsteigen in Bewegung zu setzen, dies hat etwas mit Auftrieb zu tun, muß man einen Dichteunterschied hervorrufen, der dann die Auftriebskraft erzeugt.
Wie das für Luft aussieht, kann wie folgt berechnet werden: Bei 1 bar Druck und 10°C nimmt 1 kg trockene Luft das Volumen von 812,88 l ein; bei 20°C, 1 bar Druck hingegen 841,68 l. Der Unterschied sind 28,8 l. Der Energieinhalt des jeweiligen kg Luft beträgt 283,46 kJ (10°C) bzw. 293,53 kJ (20°C), die um 10°C wärmere Luft enthält also 10,07 kJ bzw 10.070 Wattsekunden (Ws) mehr als die kühlere. Wenn man unterstellt, daß Luft nicht noch leichter beweglich ist als Wasser, letzteres setzt sich bei einer Antriebskraft von 0,02 Promille des eigenen Gewichtes von selbst in Bewegung, dann müßte sich das das Volumen der zuvor 10 Grad warmen Luft um 0,02 Promille, also 0,00002 mal 812,88 l, also um 0,0163 l (= 16,3 cm³) ausdehnen, um sich von selbst durch Aufsteigen zu entfernen. 10 Grad Temperaturanstieg (von 10°C auf 20°C) verursachen eine Vergrößerung des Volumens um 35,4 Promille, also weit mehr als die notwendigen 0,02 Promille. Zur Ausdehnung des Volumens der Luft um 0,02 Promille reicht somit ein Temperaturanstieg um (0,02/35,4)* 10°C = 0,0056°C aus. Die hierfür notwendige Energiezufuhr beträgt (0,02/35,4)* 10.070 Ws = 5,7 Ws.
( Berechnung Biehler / Hab )
Daß auf Grund der höheren Beweglichkeit der Luft (im Vergleich zu Wasser) das selbsttätige In-Bewegung-Setzen bereits bei noch kleineren Temperaturdifferenzen eintritt, dürfte sehr wahrscheinlich sein. Mit anderen Worten: Der zum In-Bewegung-Setzen der Luft erforderliche Temperaturanstieg ist dermaßen minimal, daß dieser außerhalb des Empfindlichkeitsbereiches selbst von Präzisions-Temperatur-Meßgeräten liegt. Und die notwendige Energiezufuhr, um die Ausdehnung der Luft infolge von Temperaturanstieg zu erzeugen, ist ebenfalls verschwindend gering. Zur Temperaturerhöhung des 1kg trockene Luft von 10,0000°C auf 10,0056°C muß diesem kg Luft die Energiemenge von 5,7 Ws zugeführt werden. Dies sind lediglich 3,9% der während einer Sekunde (im globalen Mittel) an der Erdoberfläche je Quadratmeter über Sonneneinstrahlung eintreffenden Energie. Für feuchte Luft liegen die Verhältnisse sehr ähnlich.
Seien wir glücklich, daß es so ist, denn dadurch können wir überhaupt in dieser Atmosphäre leben, unsere Körper werden ventiliert, die Heizung (Konvektion) funktioniert, wir ersticken nicht in der von uns ausgeatmeten Luft (weil diese wegen der Dichteunterschiede sofort wegzieht) usw. usw.
Doch wie sehen Klima-Modellierer diesen Sachverhalt? Völlig anders, zumindest wenn man das Buch von von Storch et al. „Das Klimasystem und seine Modellierung“, Springer, 1999, liest und nicht für einen Aprilscherz hält.
Darin sieht man das so: "Wird beispielsweise eine Luftschicht an einem strahlungsreichen Sommertag vom Boden her erwärmt und damit leichter, so passiert erst einmal fast nichts: die darüberliegenden Schichten verhindern ein Aufsteigen der erwärmten Luft. Erst wenn die untere Schicht sehr viel leichter ist, kommt Bewegung ins Spiel. ...“.
JA, SO UNTERSCHIEDLICH SIND DIE PHYSIKKENNTNISSE VON INGENIEUREN UND KLIMAMODELLIERERN
An der Stelle wäre zu überlegen, welchen Einfluss wohl eine Änderung des Erdmagnetfeldes auf die Atmosphäre und deren Prozesse hätte. Es besteht hier Grund zur Annahme, dass die Klimaänderungen der letzten Jahre, zum Teil durch das sich ebenfalls ändernde Magnetfeld, induziert werden.
Auch im Mittelalter gab es starke klimatische Schwankungen. Der seinerzeit im 10. Jahrhundert durch die Mittelalterliche Warmzeit entsprungene Wohlstand in England , welchem seinerzeit die architektonische Blütezeit durch den Bau von Bischofssitzen in Form von Kathedralen folgte, war nur aufgrund der Tatsache möglich, dass sich dort der kommerzielle Anbau von Weintrauben, aufgrund mediterranem Klimas, als äußerst lukrative Einnahmequelle herauskristallisierte. Damals war England eines der größten Weinanbaugebiete. Und das wiederum war Jahrhunderte vor unserer Industrialisierung im 19. Jahrhundert. Es gibt keine globale Erwärmung (außer in den klima-unabhängigen El Niño Jahren).
Der Klimawandel (Geo - Engineering) ist der Vorwand für eine ganz andere Technologie.
Die Wirkungszusammenhänge, durch welche die sogenannten „Treibhausgase“ zur Temperatur in unserem Lebensbereich beitragen, sind immer noch nicht ausdiskutiert. Als Ergebnis der bisher unter anscheinender Nichtteilnahme unserer Klimatologen stattgefundenen Diskussion über grundlegende energetische Wirkungsmechanismen innerhalb von Atmosphären ist jedoch festzuhalten, daß seitens der Klimatologie offenbar das Eingeständnis des Total-Irrtums bezüglich der behaupteten Klimawirkungen vorbereitet wird.
Es geht bei den Aktivitäten der Klimatologen darum, die angenommenen Wirkungen des behaupteten „Treibhauseffektes“ durch Beschränkung der CO2-Emissionen einzugrenzen. Dabei wird mittlerweile eingeräumt, daß der „Treibhauseffekt”, d.h. die Wirksamkeit der sogenannten „Treibhausgase” bezüglich der Temperatur im Bodenbereich der Atmosphäre „...noch nicht unzweifelhaft nachgewiesen werden konnte” was im Klartext heißt:
Es existiert kein belastbarer Nachweis des behaupteten „Treibhauseffektes“, ein solcher Beweis ist trotz umfangreichster Bemühungen bislang nicht gelungen.
Daß dieser „Treibhauseffekt” bisher nicht nachgewiesen werden konnte und auch in der Zukunft nicht nachweisbar sein wird, ist eine Zwangsläufigkeit; es gibt diesen nämlich überhaupt nicht, es kann ihn nicht geben. Die Behauptung, daß sogenannte „Treibhausgase" wie z. B. CO2 zur Erwärmung am Boden der Erdatmosphäre beitragen, steht im krassen Widerspruch zu sämtlichen bekannten physikalischen Gesetzmäßigkeiten für Gase und Dämpfe sowie der Wärmelehre insgesamt.
Der Behauptung eines „Treibhauseffektes” liegt notwendigerweise die Vorstellung zugrunde, daß die von der Erdoberfläche in Richtung All abgehende Wärmestrahlung durch Gasanteile von CO2 (hauptsächlich) und daneben noch O3, N2O, CH4 irgendwie innerhalb der Atmosphäre wieder zur Erdoberfläche zurückgelenkt wird.
Im untersten Bereich der Atmosphäre, also dort wo wir leben, soll es dadurch zur Erwärmung kommen. Um den „Treibhauseffekt” glaubhaft zu machen, wurden schließlich Temperaturmeßreihen für die letzten 200 Jahre unterlegt, die einen gewissen Anstieg zeigen. Meßreihen zum CO2-Gehalt der Luft in den zurückliegenden 70 Jahren zeigen einen im Groben ungefähr ähnlichen Anstieg. Und wegen dieser gewissen Ähnlichkeit wird seitens der Klimatologie die Verknüpfung von CO2-Gehalt der Luft als Ursache und Temperatur als Folge behauptet. (Daß eine umgekehrte Verknüpfung, Temperatur als Ursache und CO2-Gehalt der Luft als Folge der Temperatur, einer gewissen Logik nicht entbehrt, darauf sei hier nur am Rande hingewiesen.)
Dabei hat die Verbindung des CO2-Gehaltes der Luft mit der Wärme bzw. Temperatur in der Atmosphäre noch eine besonders mißverstandene Ursache: Auf dem Planeten Venus, dessen Atmosphäre zu 95% aus CO2 besteht, beträgt die Temperatur am Boden dieser Atmosphäre ungefähr 460°C. Daß der Druck dort 90 bar beträgt, und dieser Druck die entscheidenden Temperaturwirkungen ausübt, ist seitens der Klimatologen offenbar übersehen oder aber bisher nicht verstanden worden.
Unter strikter Anwendung der Physik ist keine Möglichkeit zu erkennen, wie denn Gasbestandteile, wie z.B. die des CO2, zur Rückübertragung der von der Erde abgehenden Wärmestrahlung und damit zur Erwärmung der untersten Atmosphäre und der Erdoberfläche beitragen könnten:
1. In der Lufthülle der Erde sinkt auf Grund des mit der Höhe abnehmenden Druckes die Temperatur kontinuierlich, bei trockener Luft um 1°C je 100 m Höhe, unter üblichen atmosphärischen Bedingungen (feuchte Luft) um etwa 0,7°C je 100 m Höhe. Oben ist es also kälter als unten, und dies ist tags wie nachts so.
2. Eine Rückstrahlung der von der Erdoberfläche abgehenden Wärmeabstrahlung (zur Gewichtung der Wärmeabstrahlung innerhalb aller Wege des Wärmeabtransportes von der Erdoberfäche: siehe Anhang) wäre ausschließlich durch Reflexion möglich, ähnlich der Wirkung der Alu-Folie unter der Wärmeisolierung in unseren Dächern. Reflexion gibt es jedoch durch die gleichmäßig verteilten CO2-Moleküle in der Lufthülle nicht. Innerhalb von gleichförmigen Gasen und Gasgemischen treten keine Reflexionen auf. Reflexion, wie Brechung, dies ist aus der Strahlenoptik bekannt, gibt es nur an Grenzschichten von Stoffen unterschiedlicher optischer Dichte oder an Phasengrenzen eines Stoffes oder Stoffgemisches (fest-flüssig, flüssig-gasförmig, fest-gasförmig), so z.B. an Wassertropfen oder Eiskristallen in/an der feuchten Luft, an der Grenze Luft-Wasser, nicht aber innerhalb von homogenen Stoffen, wie z. B. Luft, Wasser, Glas.
3. Wenn innerhalb der Atmosphäre Wärmeabstrahlung der Erde absorbiert wird, erwärmt sich die absorbierende Materie. In diesem Fall erwärmen sich die absorbierenden Luftanteile. Der für einen Ruhezustand der Luftschichten notwendige und ggf. zuvor bestandene vertikale Verlauf von Temperatur, Dichte und Druck wird gestört. Bekanntlich dehnt sich Luft bei Erwärmung aus, wird bezogen auf die Volumeneinheit leichter als die umgebende, auch darüberliegende, kühlere Luft, und steigt deshalb auf. Die absorbierte Wärme wird durch Luftmassenaustausch abgeführt. Ebenso wie jene Wärme, die der Luft am Boden der Atmosphäre (Erdoberfläche, Bewuchs, Bebauung) durch Konvektion zugeführt wird. Aus demselben Grund werden z.B. beim Heizen im Winter die Fenster geschlossen gehalten, ansonsten entweicht die erwärmte Luft.
Dieser Sachverhalt wird offenbar langsam auch von den Klimatologen verstanden. So äußern Graßl u. a. (s.o.), daß (nur) dann „...eine Erwärmung der Troposphäre (durch Spurengase) eintreten muß, wenn vorausgesetzt wird, daß dadurch keine anderweitigen Änderungen bei physikalischen (insbesondere dynamischen) ... Prozessen im System Erde/Atmosphäre verursacht werden. Unter diesen idealisierten Bedingungen ist der ... Treibhauseffekt unvermeidlich.“
Zu diesen „idealisierten Bedingungen“ gehört offenbar die Annahme, daß die Luft unbeweglich ist. Der Vorgang des Aufsteigens von erwärmter Luft ist der bisher seitens der Klimatologie nicht zur Kenntnis genommene bzw. für absurd gehaltene „dynamische Prozeß“. Es kommt bei örtlicher Erwärmung der Luft zur Abfuhr der aufgenommenen Wärme durch Aufsteigen der erwärmten Luftmenge.
Bei diesem Aufsteigen sinkt gleichzeitig durch Ausdehnung der Luft infolge Druckabnahme deren Temperatur, so daß sich keine bleibende Erwärmung einstellt, wenngleich die aufsteigende Luft stets zu warm für die jeweilige Umgebung ist und theoretisch bis in Höhen aufsteigt, aus denen sie die Wärme mittels Strahlung in Richtung All abgibt. Die aufgenommene Wärme wird deshalb in Richtung obere Begrenzung der Lufthülle abgeführt, der „Treibhauseffekt“ tritt nicht ein.
Gleiches gilt auch, wenn nur einzelne CO2-Moleküle innerhalb der Lufthülle die von der Erdoberfläche oder tieferliegenden Luftschichten abgehenden Wärmestrahlung absorbieren. Diese einzelnen Moleküle bleiben auf einem einheitlichen Temperaturniveau mit der jeweiligen Umgebung. Auf Grund der hohen Teilchendichte in der Lufthülle findet über Konvektion ein unverzüglicher Austausch der gegebenenfalls absorbierten Strahlungsenergie mit den umgebenden anderen Teilchen der Luft statt. Die CO2-Moleküle in der Luft sind nicht isoliert und können deshalb keine andere Temperatur als die ihrer Umgebung annehmen. Gegebenenfalls werden dann kleinräumige Luftmengen erwärmt, wodurch die Luft dann in aufsteigende Bewegung kommt.
4. Voraussetzung für jede Art der Wärmeübertragung ist stets, daß der Absender wärmer ist und somit eine höhere Temperatur ausweist als der Empfänger. Dies ist die für die hier vorliegende Situation passend formulierte Aussage des 2. Hauptsatzes der Thermodynamik. Die durch Strahlung übertragbare Wärme ist zudem proportional der Differenz der jeweils vierten Potenzen der Temperaturen des aussendenden und des empfangenden Körpers. Wegen der einheitlichen Temperatur innerhalb kleinster Gasvolumina in der Luft und der mit der Höhe rückläufigen Temperatur ist es ausgeschlossen, daß es z. B. durch CO2-Anteile in der Luft zu einer Rückübertragung der von der Erde oder erdnäher liegenden Schichten abgehenden Wärmeabstrahlung kommt. Ebenso, wie es unmöglich ist, mit einem kalten Heizungsradiator zur Erwärmung eines wärmeren Raumes beizutragen.
5. Der Energieaustrag aus der Atmosphärenluft findet erst an deren oberer Grenzschicht, am Übergang vom Gas-Zustand zum vakuum-ähnlichen Zustand, statt. Das ist der Bereich, wo Gase anfangen, auch geringe Energiemengen über Strahlung abzugeben. Es sind dort die anderen, weitaus leistungsstärkeren Wege der Energieübertragung, die Wärmeleitung und die Konvektion, nicht mehr nutzbar. Hier unten, bis hinauf in ungefähr 10 bis 16 km Höhe, geben Gase geringe Energiemengen, wie gegebenenfalls durch Strahlungsabsorption zugeführt werden, über Leitung und Konvektion, nicht jedoch über Strahlung ab. (Bezüglich der Abgabe der sehr erheblichen Energiemengen der Kondensations- und Erstarrungswärme beim Kondensieren des Wasserdampfes in der Luft bzw. beim anschließenden Gefrieren der Wassertropfen sind die Verhältnisse anders. In der hier behandelten Thematik geht es um die Un-Wirksamkeit der CO2-Anteile in der Luft.)
Die Klimatologen haben ihre Erkenntnisse über den „Treibhauseffekt“ auf Grund von Strahlungsgleichgewichtsüberlegungen über den gesamten Gas-Bereich der Atmosphäre, bis hinunter zum Erdboden, gewonnen. Korrekterweise kann man Überlegungen zum Strahlungsgleichgewicht, der notwendigerweise energetisch gleichen Wertigkeit von Energieein- und -abstrahlung, erst ab dem Grenzbereich zum vakuum-ähnlichen Zustand der Atmosphäre anstellen. In tieferen Bereichen der Atmosphäre wird der Wärmehaushalt im wesentlichen durch das thermodynamische Gleichgewicht bestimmt, welches die thermodynamischen Eigenschaften der Atmosphärenbestandteile sowie deren Zustandsänderungen mit einschließt.
6. Beim Eindringen von oben in die Atmosphäre steigt mit der Erdnähe der Luftdruck kontinuierlich an. Ursächlich hierfür ist der Druck, den die jeweils oberhalb befindlichen Luftmassen ausüben. Und mit diesem Druckanstieg geht ein Temperaturanstieg einher. Diesen verursachen wiederum die thermodynamischen Eigenschaften der Gase. Jeder weiß, daß bei der Kompression von Gasen diese warm werden, sogar beim Aufpumpen der Fahrradreifen ist dieser Effekt spürbar. Anders ist es auch nicht in einer Atmosphäre.
Die rechenbaren Zusammenhänge zwischen Temperatur, Druck und Volumen im Gas-Bereich einer Atmosphäre geben im wesentlichen die folgenden Gleichungen wieder:
Allgemeine Gasgleichung p x v = R x T
Adiabate Zustandsänderung p x v k = const.
bzw. T x v k -1 = const.
Besonders bemerkenswert bei der Treibhaus-Hypothese und dem Blick auf die Venus ist, daß es auf der Venus mit der dortigen CO2-Atmosphäre noch vergleichsweise kühl ist. Bestünde die Atmosphäre der Venus bei gleichem Druck am Boden sowie gleicher planetarischer Rückstrahlung anstelle von CO2 aus Luft, dann wäre es dort noch um ca. 200°C wärmer. Ursache hierfür sind die etwas unterschiedlichen Stoffgrößen für 2- bzw. 3-atomige Gase. Dementsprechend wäre es auf der Erde etwas kälter, wenn unsere Atmosphäre aus CO2 und nicht aus Luft bestünde.
Eine Besonderheit stellt in unserer Atmosphäre jedoch der Wassergehalt dar. Wasser tritt in drei Aggregatzuständen auf. Die feste und die flüssige Form (Wolken) zeigen gravierend andere Strahlungseigenschaften als Gase: sie reflektieren. Damit hat ausschließlich Wasser Qualitäten, die eine einem Treibhausdach (reflektierende, allerdings örtlich fixierte und einigermaßen gasdichte Glasscheibe oder Folie) ähnliche Reflexionswirkung zeigt. Den vertikalen Luftaustausch verhindern Wolken natürlich nicht. Darüber hinaus werden bei Kondensation und Erstarrung des Wasseranteils der Luft erhebliche Wärmemengen abgegeben, die im wesentlichen Maße das Temperaturgeschehen in der unteren Atmosphäre bestimmen. Dagegen sind die Wärmetransport- und -speichermöglichkeiten der Spurengase völlig unbedeutend.
Obwohl das menschliche Leben und alle dazugehörigen Aktivitäten (Intensivierung und Extensivierung der Landwirtschaft, Staudämme und -seen, Bewässerungsprojekte (so ist nach Angaben in der FAO-Statistik in der Zeit von 1960 bis 2002 die weltweite Fläche der Bewässerungslandwirtschaft auf rd. 2.800.000 km² verdoppelt worden. Damit ist die weltweite mit künstlicher Bewässerung genutzte Landwirtschaftsfläche mittlerweile etwa so groß wie 90% der Fläche von Indien bzw. knapp 8 mal so groß wie Deutschland),
Entstehung von H2O bei der Verbrennung von fossilen Energieträgern, industrielle Prozesse, anderweitige Wassernutzung, menschliche und tierische Atmung) zur Befeuchtung der Atmosphäre beitragen und deshalb davon auszugehen ist, daß die Atmosphäre in den zurückliegenden 100 Jahren feuchter geworden ist, wird gerade der Einfuß des Wassergehaltes der Atmosphäre auf mögliche Temperaturänderungen seitens der Klimatologie negiert. Dabei würde eine Zunahme der nächtlichen Bewölkung zweifellos zu nennenswert höheren nächtlichen Temperaturen im Lebensraum der Menschen führen und genau die Temperaturveränderungen bewirken, welche die Klimatologie irrigerweise dem erhöhten CO2-Gehalt der Luft zuordnen.
Unter Würdigung der Grundlagen der Physik ist die behauptete Klimarelevanz von sogenannten Treibhausgasen - wie z. B.CO2 - völlig abwegig. Durch höhere Anteile von CO2 in der Atmosphäre, solange diese nicht die Größenordnung von 2% erreichen (das wäre ungefähr das 60-fache des aktuellen Niveaus) und damit gesundheitsschädlich werden, ist weder das Klima noch die Menschheit zu gefährden. Insofern ist der Denkansatz völlig unverständlich und ungerechtfertigt, daß man das Klima schützen müsse oder könne.
Anhang:
Von 100 % Sonneneinstrahlung auf die Erde werden bereits ungefähr 50% durch Reflexion oder Absorption an den/in den Wolken abgelenkt bzw. gebunden, die verbleibenden 50% gelangen bis zur Erd-/Wasseroberfläche, ungefähr 4% werden direkt von der Erd-/Wasseroberfläche wieder durch Reflexion abgeführt und über den Verbleib der restlichen rd. 45% besteht Unklarheit.
Diese an der Erd-/Wasseroberfläche verfügbaren 45% haben - geht man von stabilen Temperaturverhältnissen aus - vier Möglichkeiten, wieder abgeführt zu werden:
1. Verdunstung (von Wasser, hierfür werden mehr als 50% der an der Erd-/Wasseroberfläche noch ankommenden
Einstrahlung benötigt),
2. Abstrahlung (Wärmestrahlung auf Basis der Temperatur der Oberfläche),
3. Konvektion (Erwärmung der Luft und Abtransport über aufsteigende Luftmassen, Nebenwirkung: Wind),
4. Bindung durch biologische, endotherme Prozesse (Pflanzenwachstum).
Der fünften Möglichkeit, Leitung der Wärme durch theoretisch fixierte Luftmassen, ist keine Bedeutung beizumessen, weil Luftmassen bei unterschiedlicher Erwärmung aufgrund der eintretenden Dichteunterschiede stets in Bewegung geraten (siehe unten: Erklärung). Außerdem ist Luft ein schlechter Wärmeleiter.
Detailliertere Ausführungen zum Wärmeeintrag in die Atmosphäre, der Wärmespeicherung darin und zum Wärmeaustrag, mit abschließender Würdigung des "Treibhauseffektes" enthält: Die Erdatmosphäre - ein Wärmespeicher
(mit der Erklärung, daß in der irdischen Atmosphäre gerade die sogenannten Treibhausgase dafür sorgen, daß es auf unserem Planeten nicht lebensfeindlich heiß ist. Im Fall einer Atmosphäre ohne strahlungsaktive Substanzen wäre es auf der Erde jedoch wegen der fehlenden Wärmeabgabemöglichkeit aus der Atmosphäre unerträglich heiß)
Das Thema einer vermuteten, vom Menschen verursachten Beeinflussung des Klimas ist weiter aktuell: Als Folge der Verwendung fossiler Energieträger und des dadurch verstärkten Eintrags von Kohlendioxyd (CO2) in die Lufthülle der Erde bzw. einem steigenden CO2-Gehalt darin, soll es zu höheren Temperaturen auf der Erde kommen. Die Ursache der vermuteten Verknüpfung von CO2-Immissionsniveau und klimatischen Bedingungen sind Temperaturmeßreihen über den Zeitraum der vergangenen 200 Jahre. Es werden gegenwärtig bereits kostspielige Maßnahmen zur Verminderung der CO2-Emissionen getroffen, um dadurch auch das CO2-Immisionsniveau abzusenken.
Die angenommenen Wirkungszusammenhänge zwischen CO2-Gehalt der Luft und Temperaturen im untersten Bereich der Atmosphäre beruhen nicht auf wissenschaftlichen Erkenntnissen. Allein aus Temperaturverläufen können keine belastbaren Schlüsse über etwaige Klimaveränderungen gezogen werden. Im folgenden werden die Gegebenheiten und Verhältnisse des Energieein- und -austrags in das/aus dem System Erde/Atmosphäre und des Verbleibs der Energie in diesem System auf der Basis des heutigen Wissensstandes erläutert.
1. Die Lufthülle der Erde - ein Wärmespeicher
Auch wenn wir meinen, „auf“ der Erde zu leben, sollte bewußt sein, daß wir uns zugleich am Boden eines Ozeans aus Luft bewegen. Unter uns haben wir zumeist feste, gelegentlich auch flüssige Materie, um uns herum im Regelfall aber gasförmige Materie, die umgebende Luft. Wir befinden uns nicht im geringsten im materiefreien Raum, im Vakuum. Und wenn wir ganz genau sein wollen, dann müssen wir zugeben, daß die übliche Messung unseres Körpergewichtes mittels einer Waage auf Meereshöhen-Niveau einen minimal, um rd. 0,13 Prozent zu geringen Wert liefert: Den Auftrieb durch die Luft vernachlässigen wir bei diesem Wiegen.
Wir leben zudem in einem Energiespeicher. Luft, verstärkt im Zusammenwirken mit der darin enthaltenen Feuchtigkeit, speichert Wärme. Dies ist vor allem die über die Sonneneinstrahlung zugeführte Wärme. Gegenüber der Sonneneinstrahlung sind sämtliche anderen freigesetzten Wärmemengen, wie z.B. durch Verbrennen von Energieträgern, Erdwärme geologischen Ursprungs u.a.m. von vernachlässigbarem Einfluß.
Über die uns umgebende Luft nehmen wir den für unseren Stoffwechsel nötigen Sauerstoff auf (rd. 21% der trockenen Luft sind Sauerstoff), in diese Luft geben wir ein Endprodukt unseres zum Lebenserhalt erforderlichen Stoffwechsels, das CO2 ab, und zwar pro Kopf und Jahr ungefähr 350 kg. Die Luft nutzen wir auch zur Temperierung, d.h. Kühlung, ggf. auch Erwärmung sowie zur Ventilierung unseres Körpers, indem wir Wärme (als Produkt unseres Stoffwechsels) über Konvektion und Verdunstung von Wasser, zum geringen Teil auch durch Strahlung, an die Umgebung abgeben. Dabei ist die Eigenschaft der Luft, daß sie äußerst beweglich ist und schon bei kleinsten Dichteunterschieden von selbst in Bewegung gerät (siehe [1]), Voraussetzung für das menschliche Leben, für das tierische Leben nur insoweit, wie Lungenatmung vorliegt. Durch diese Eigenschaft der Luft ersticken wir nicht in der von uns ausgeatmeten Luft, stören uns nicht so an den Ausdünstungen unseres Körpers. Wenn es uns zu kalt ist, versuchen wir sowohl Konvektion als auch Verdunstung zu unterbinden, indem wir uns isolierende, die Zirkulation der uns umgebenden Luft in unmittelbarer Nähe unserer Haut unterbindende Materialien (Kleidung) umlegen. In unseren Wohnungen erwärmen wir gegebenenfalls die Luft, um uns auch mit leichter Kleidung bei unangenehm niedrigen Außentemperaturen wohlfühlen zu können.
Die Luft, in Verbindung mit dem auf unserem Planeten zumeist üppig vorhandenen Wasser und der jeweils darin enthaltenen Wärme ist die Ursache dafür, daß es Wetter und in längerfristiger Sicht Klima (den statistischen Mittelwert des Wetters über einen Zeitraum von 30 Jahren) gibt. Schon 1824 hatte dieses der Physiker Sidi Carnot erkannt: “Der Wärme sind die bedeutenden Bewegungen zuzuschreiben, die wir überall um uns auf der Erde beobachten. Wärme ist die Ursache der Strömungen in der Atmosphäre, der aufsteigenden Wolkenbewegungen, des Regens und anderer atmosphärischer Erscheinungen). Und damit ist schon auf die Minimalvoraussetzung zum Verstehen der Wettervorgänge, der physikalischen Gegebenheiten und Abläufe im untersten Bereich der Atmosphäre, hingewiesen, nämlich eine gewisse Kenntnis der Grundlagen der Wärmelehre.
2. Ein paar Grundlagen
Es müssen zunächst einige Begriffe geklärt werden. Was ist Wärme? Wir empfinden Wärme als Temperaturzustand der uns umgebenden Materie, als Wärme in der Luft oder gegebenenfalls als Wärme des Badewassers oder sonstiger Medien. Wärme ist eine Form von Energie, sie wird verknüpft mit der ungeordneten Bewegung der Atome bzw. Moleküle eines Stoffes bzw. von Stoffgemischen. Wärme ist also immer mit dem Vorhandensein von Materie, des Wärmeträgers, verbunden. Im materiefreien Raum gibt es keine Wärme.
In der Wärmelehre (Thermodynamik) wird Wärme als Energieform mit besonderen Übertragungseigenschaften definiert: „Wärme ist Energie, die allein auf Grund eines Temperaturunterschiedes zwischen einem System und seiner Umgebung (oder zwischen zwei Systemen) über die gemeinsame Systemgrenze übertragen wird“ [2]. Wir empfinden also Wärme auf Grund des Übergangs derselben vom uns umgebenden Medium auf uns oder umgekehrt. Eine ähnliche Definition „Wärme ist (...) die Energieform, die bei der Wechselwirkung eines Systems mit einem anderen auf Grund einer Temperaturdifferenz über die Systemgrenze fließt“ [3]. Wärme ist Energie, es gibt eine Gleichwertigkeit von Wärme und Arbeit. Physikalische Einheiten der Wärme bzw. Energie bzw. Arbeit sind u.a. Kalorien (cal), Joule (J), Wattsekunden (Ws) und die jeweils größeren Einheiten davon.
Dabei ist nun der Begriff der Temperatur aufgetaucht. Die Temperatur ist eine Größe, die über den Zustand der mittleren Bewegungsenergie der Atome und Moleküle der betrachteten Materie Auskunft gibt. Die Temperatur eines Körpers ist der mittleren Bewegungsenergie seiner Atome und Moleküle proportional. Die Temperatur wird anhand von Skalen festgelegt. Der absolute Nullpunkt liegt bei 0 K bzw. -273,15°C, tiefere Temperaturen gibt es nicht. Die Temperatur ist durch Vergleich der Zustände unterschiedlicher Körper feststellbar: „Systeme im thermischen Gleichgewicht haben die gleiche Temperatur, Systeme, die nicht im thermischen Gleichgewicht stehen, haben verschiedene Temperaturen“ [4].
Temperaturen werden mittels Thermometer im thermischen Gleichgewicht (in diesem Zustand gibt es keinen Wärmeübergang zwischen den beteiligten Materien) der zu messenden Materie und dem Thermometer gemessen. Dabei ist zu beachten: „Um die Temperatur eines beliebigen Systems zu messen, stellt man das thermische Gleichgewicht zwischen diesem System und dem Thermometer her. Das Thermometer hat dann dieselbe Temperatur wie das zu untersuchende System. Bei dieser Operation ist darauf zu achten, daß sich nur der Zustand des Thermometers ändert, der Zustand des untersuchten Systems praktisch konstant bleibt. Das Thermometer muß also „klein“ gegenüber dem System sein, damit sich bei der Einstellung des thermischen Gleichgewichtes allein seine Temperatur ändert, aber die des Systems nur im Rahmen der zulässigen Meßunsicherheit“ [5].
Um die Messung der Lufttemperatur für meteorologische Arbeiten korrekt vornehmen zu können, wird diese in Bodennähe (2 m über dem Erdboden) mittels Thermometer festgestellt, welche in Wetterhütten untergebracht sind. Diese Wetterhütten sind vollständig durchlüftet, das Thermometer wird vor jeglicher Sonnen- oder sonstiger Einstrahlung bewahrt. Unter solchen Bedingungen kann sich das thermische Gleichgewicht zwischen der Luft und dem Thermometer einstellen.
Der Wärmeinhalt der Luft hängt von drei Parametern ab: der Temperatur, dem Anteil der in der Luft enthaltenen Feuchtigkeit und der Dichte (bzw. dem Luftdruck). Dabei ist der Wärmeinhalt stets auf eine Bezugsgröße zu bemessen, üblicherweise auf 1 kg Masse. Die Kenntnis zumindest der zuerst genannten Parameter Temperatur und Luftfeuchtigkeit ist unabdingbare Voraussetzung zur Kenntnis des Energiegehaltes der Luft.
Wie kommt die Wärme in die Luft? Der Wärmeeintrag in das System Erde/Atmosphäre
Unser Planet bezieht die auf ihm spürbare Wärme von der Sonne. Die Sonne strahlt ständig Energie ab. Für die Position der Erde zur Sonne wird die Leistung der Sonneneinstrahlung in der Literatur mit 1360 bis 1380 W/m² genannt [6]. Mit dieser Leistung wird eine oberhalb der Atmosphäre senkrecht zur Sonneneinstrahlung befindliche Fläche beschienen. Es ist in der Literatur üblich, die Leistung der Sonneneinstrahlung bezogen pro Quadratmeter Erdoberfläche und weltweit vergleichmäßigt darzustellen. Damit wird die Leistung am oberen Atmosphärenrand auf ¼ des Wertes der Solarkonstante vermindert, also auf rd. 343 W/m². Von der eintreffenden Strahlung werden etwa 30% durch Reflexion, im wesentlichen durch Wolken, aber auch an der Erdoberfläche, sowie Partikel in der Luft und durch Streuung ins All zurückgeworfen. Ein weiterer Teil der Energie der Sonneneinstrahlung wird von den Bestandteilen Luft und auch darin befindlichen Schwebstoffen absorbiert, also in Wärme umgewandelt.
Wie kommt die Wärme in die Luft? Der Wärmeeintrag in das System Erde/Atmosphäre
Unser Planet bezieht die auf ihm spürbare Wärme von der Sonne. Die Sonne strahlt ständig Energie ab. Für die Position der Erde zur Sonne wird die Leistung der Sonneneinstrahlung in der Literatur mit 1360 bis 1380 W/m² genannt [6]. Mit dieser Leistung wird eine oberhalb der Atmosphäre senkrecht zur Sonneneinstrahlung befindliche Fläche beschienen. Es ist in der Literatur üblich, die Leistung der Sonneneinstrahlung bezogen pro Quadratmeter Erdoberfläche und weltweit vergleichmäßigt darzustellen. Damit wird die Leistung am oberen Atmosphärenrand auf ¼ des Wertes der Solarkonstante vermindert, also auf rd. 343 W/m². Von der eintreffenden Strahlung werden etwa 30% durch Reflexion, im wesentlichen durch Wolken, aber auch an der Erdoberfläche, sowie Partikel in der Luft und durch Streuung ins All zurückgeworfen. Ein weiterer Teil der Energie der Sonneneinstrahlung wird von den Bestandteilen Luft und auch darin befindlichen Schwebstoffen absorbiert, also in Wärme umgewandelt.
Alle Gase, und Luft ist ein Gemisch aus mehreren Gasen, haben die besondere Eigenschaft, komprimierbar zu sein. Bringt man Gas unter Druck, so wird es verdichtet. Dabei wird Arbeit (Kraft mal Weg) geleistet, diese Arbeit wirkt sich in einer Erhöhung des Arbeitsinhaltes (= Energieinhalt) der Luft aus, und wird, sofern sonst keine weiteren Änderungen eintreten und keine Wärmeabfuhr möglich ist, durch eine Temperaturerhöhung nachweisbar. Der grundlegende Zusammenhang ist durch die Allgemeine Gasgleichung p * v = R * T (Druck mal Volumen = Gaskonstante mal Temperatur) beschrieben. Die Wirkung dieser Eigenschaft der Gase in der Atmosphäre soll im folgenden Beispiel veranschaulicht werden:
Man stelle sich zwei nebeneinander aufrecht stehende, gegeneinander und gegen die Umgebung völlig isolierte (keine Wärmeleitung, keine Konvektion, keine Strahlung) Röhren vor, jede 10.000 m hoch. Die Röhren seien oben und unten durch ebenfalls von der Umgebung thermisch total isolierte Bögen verbunden. Die Röhren werden auf der Erdoberfläche, auf NN, plaziert, sie seien mit trockener Luft gefüllt. Auf NN wird eine Öffnung angebracht, so daß dort der gleiche Luftdruck innen wie außen herrscht. In den Verbindungsbogen auf NN wird noch ein Ventilator eingebracht, der für eine langsame Zirkulation der Luft in diesem System sorgt. In einer Röhre steigt die Luft auf, geht am oberen Bogen in die andere Röhre über und sinkt dann wieder bis zum unteren Ende ab. Drücke und Temperaturen der in den Röhren zwangsumlaufenden Luft haben nun je nach Höhenlage sehr unterschiedliche Werte. Am unteren Ende, auf NN, sollen die Temperatur +15°C und der Druck 1,0 bar betragen. Mit der Höhe sinkt die Temperatur beiden Röhren gleichmäßig um etwa 1°C pro 100 m ab, und der Luftdruck geht um unten zunächst rd. 1,1% je 100 m, nach oben hin stärker, am oberen Ende mit 2,0% je 100 m Höhenzuwachs zurück. Am oberen Ende beträgt die Temperatur der Luft noch rd. -85°C, der Luftdruck ist auf knapp 0,2 bar abgesunken, das Volumen eines kg Luft beträgt hier das rd. 3,2-fache dessen am unteren Ende der Röhre. Der Grund für den Temperaturrückgang mit steigender Höhe ist allein, daß der örtliche Luftdruck jeweils durch das Gewicht der darüberliegenden Luftsäule bestimmt ist. Und diese wird mit steigender Höhe immer geringer. Jedes Luftvolumenteil, das sich etwas höher befindet, ist also weniger komprimiert, etwas weniger dicht und damit etwas leichter als das darunterliegende und zudem noch wegen der eingetretenen Ausdehnung etwas kälter. Für die in den Röhren ohne irgendeine Energiezu- oder -abfuhr eintretenden Temperaturänderungen sind lediglich die physikalischen Eigenschaften der Luft und der mit der Höhe rückläufige Luftdruck ursächlich.
Die Röhren sollen so weite Durchmesser haben, daß auch Auf- und Abströmungen in jeder der beiden Röhren nebeneinander stattfinden können. Wenn jetzt in diesen Röhren durch wie auch immer geartete örtliche Energiezufuhr lokal Luftvolumenteilchen erwärmt werden, sich dabei ausdehnen und damit leichter als die umgebende Luft werden, dann steigen sie wegen des eingetretenen Auftriebs unverzüglich auf. Eine bleibende Erwärmung an dem Ort der örtlichen Energiezufuhr tritt nicht auf, es könnte sich lediglich die Zirkulation der Luft verändern. Jegliche irgendwie und irgendwo in dieses System eingespeiste Energie (Wärme) wirkt unverzüglich auf das gesamte System; es ist unmöglich, z.B. durch Wärmeeinspeisung am unteren Ende der Röhre mit der zwangsweise aufsteigenden Luft den Temperaturabfall (Temperaturgradienten) mit der Höhe irgendwie zu beeinflussen. Solange die Luft frei beweglich in diesem System ist, solange beträgt der Temperaturrückgang der hier vorhandenen trockenen Luft mit der Höhe rd. 1°C je 100 m. Und genau so ist es auch in der Lufthülle der Erde. Jede - in welcher Höhenlage auch immer - zugeführte Energiemenge verändert den Zustand der gesamten Lufthülle und führt keineswegs zu örtlicher Erwärmung.
In der Diskussion um einen vom Menschen verursachten Klimawandel wird aus der befürchteten Zunahme der Absorption der vom Erdboden direkt ins All gehenden Strahlung eine vermehrte Erwärmung der Atmosphäre befürchtet. Es wird angenommen, daß die in der Luft gespeicherte Wärmemenge und die Lufttemperatur ansteigen. Diese vermehrte Wärmezufuhr und -speicherung soll durch den Anstieg des CO2-Gehaltes der Luft hervorgerufen werden. Hierzu ist zu bemerken, daß Anteile des CO2 in der Luft im Bereich von mehreren Zehntel Promille keinerlei Wirkungen bezüglich der Wärmespeicherfähigkeit und der Dichte der Luft haben.
Bei der zusätzlich noch durch Absorption der thermischen Abstrahlung von der Erdoberfläche der Luft zuführbaren Wärme handelt sich lediglich um die restliche, nicht bereits absorbierte Strahlungsleistung aus den verbliebenen nur noch 17,5 W/m² (rd. 1/3 von 30% der etwa 175 W/m² ). Zur Wertung dieser Befürchtung muß einerseits betrachtet werden, ob denn eine Zunahme des CO2-Gehaltes der Luft die verbliebene direkte thermische Abstrahlung der Erdoberfläche ins All vollständig unterbinden kann.
Hug [11] hat hierzu festgestellt, daß eine solche zusätzliche Absorption von thermischer Strahlung durch einen erhöhten CO2-Gehalt der Luft allenfalls marginal, d.h. vernachlässigbar, sein kann, da das bereits vorhandene CO2 dessen spektrale Absorptionsmöglichkeiten schon nahezu erschöpfend erfüllt. Andererseits muß die Funktionsweise des Energieaustrags aus dem System Erde/Atmosphäre angesehen werden, um mögliche Wirkungen einer erhöhten Wärmezufuhr in die Atmosphäre beurteilen zu können. Ebenso wie der Lufthülle ständig Wärme zugeführt wird, gibt sie die in ihr enthaltene Wärme kontinuierlich über thermische Strahlung ins All ab.
Und wie gelangt die Wärme wieder hinaus? Der Wärmeaustrag aus dem System Erde/Atmosphäre
Mittels Satelliten sind die Emissionsspektren der Erde beobachtetet worden. Aus diesen weiß man, daß zum sehr erheblichen Teil Wärme aus der Atmosphäre und nur zum geringen Teil unmittelbar von der Erdoberfläche ins All gestrahlt wird.
Es muß noch auf prinzipielle Zusammenhänge bezüglich des Energieaustrags aus dem System Erde/Atmosphäre eingegangen werden, denn der Energieaustrag ist ebenso bedeutsam für den Energie- bzw. Wärmehaushalt der Atmosphäre wie der Energieeintrag. Sämtliche aus dem System Erde/Atmosphäre in das All abzugebende Energie kann nur über Strahlung abgegeben werden, da außerhalb der Atmosphäre wegen des Fehlens eines Trägermediums Leitung und Konvektion zur Wärmeübertragung ausscheiden. Bei der Wärmeübertragung mittels Strahlung gibt es eine Abhängigkeit von den 4. Potenzen der absoluten Temperaturen des abgebenden und des aufnehmenden Mediums. Die prinzipiellen Zusammenhänge beschreibt das Stefan-Boltzmannsche Gesetz, das da lautet:
Die von einem absolut schwarzen Körper abgegebene Strahlungsleistung P ist seiner Oberfläche F und der 4. Potenz seiner absoluten Temperatur T proportional.
Nun ist das System Erde/Atmosphäre zwar kein „Schwarzer Strahler“, aber die Temperaturabhängigkeit der Strahlungsleistung gemäß der 4. Potenz der Temperatur ist ebenso gegeben. Es ist aufschlußreich, die Zusammenhänge zwischen der Abstrahlungsleistung der ins All strahlenden Bereiche des Systems Erde/Atmosphäre und dem Wärmeinhalt der Lufthülle der Erde in Abhängigkeit der jeweiligen Temperaturen zu betrachten. Der Energieinhalt von Massen ist der absoluten Temperatur dieser Massen direkt proportional.
Bei einem Grad Celsius Temperaturanstieg steigt der Energieinhalt beispielsweise eines kg trockener Luft bei 0,5 bar Druck und einer Temperaturveränderung von -18°C auf -17°C um 256,15/255,15 bzw. rd.0,39%. Gleichzeitig steigt aber die Abstrahlungsleistung aus dieser Luftmasse um 256,154 / 255,154 bzw. 1,6% an, also um rd. das Vierfache.
Neuerdings wird die Erwärmungswirkung des zusätzlichen CO2 durch eine Verlagerung der Abstrahlung aus den CO2-Bereichen in noch größere Höhen begründet [13]; dies ist übrigens die erste überhaupt plausible Begründung, auf welche Weise der CO2-Gehalt der Luft insgesamt einen gewissen Beitrag zu den Temperaturen in der Lufthülle leisten könnte (zur Entwicklung der Erklärungen der Wirkungen des CO2 auf die thermischen Verhältnisse auf der Erde siehe [16]). Aber auch diese Wirkung durch Verlagerung der Abstrahlung aus den CO2-Bereichen in etwas größere Höhe wird durch den Anstieg der gesamten Abstrahlungsleistung des Systems Erde/Atmosphäre proportional der 4. Potenzen der Temperaturen mit steigenden Temperaturen überkompensiert.
Es sei an dieser Stelle nochmals darauf hingewiesen, daß das System Erde/Atmosphäre seine Wärmezufuhr so gut wie ausschließlich durch die Sonneneinstrahlung erhält. Schwankungen der im System Erde/Atmosphäre gespeicherten Wärmemenge können somit nur zu einer vorübergehenden Veränderung der Abstrahlungsleistung führen, bis Wärmeabfuhr und Wärmezufuhr wieder ausgeglichen sind. Der hier wirksame Regelmechanismus führt zu keiner Regelabweichung, da ein ggf. zu der erhöhten Abstrahlungsleistung führender erhöhter Wärmevorrat alsbald durch die vergrößerte Abstrahlung aufgebraucht, ins All abgeführt ist.
Eine dauerhafte Veränderung der Abstrahlungsleistung (und damit verknüpft höhere Temperaturen im System Erde/Atmosphäre) setzt hingegen eine ebensolche Veränderung bei der Einstrahlung voraus. Eine erhöhte Wärmezufuhr von der Sonne würde also zu höheren Temperaturen im System Erde/Atmosphäre führen, eine verminderte entsprechend zu niedrigeren.
Der Denkansatz, daß durch eine etwas erhöhte Absorption der von der Erdoberfläche abgehenden thermischen Strahlung bei ansteigendem CO2-Gehalt der Atmosphäre (z.B. bei Verdopplung von derzeit rd. 0,035% auf künftig eventuell 0,07%) Auswirkungen auf die Temperaturen in der Atmosphäre haben könnte, ist somit keineswegs begründbar, unter Anwendung der Naturgesetze der Physik ist dieser Denkansatz als absurd zu werten. Um eine Veränderung auf die thermischen Verhältnisse in dem System Erde/Atmosphäre durch veränderte Abstrahlung zu bewirken, müßten schon sehr wesentliche Veränderungen bezüglich jener Strahlungsebenen, welche übrigens bei der Beobachtung mittels Satelliten festzustellen sind (siehe Bild 3), eintreten.
Dies wäre beispielsweise dann der Fall, wenn die gesamte Abstrahlung nur noch aus der Emissionsebene des CO2 geschähe. Da aber die Strahlungsfrequenzen (und ebenso die Absorptionsfrequenzen) des CO2 begrenzt sind, fehlen für derartige Entwicklungen die physikalischen Gegebenheiten. Durch zunehmende Bewölkung, und dies ist ebenfalls in Bild 3 zu erkennen, ist jedoch eine erhebliche Verlagerung der Emissionsebenen von der Erdoberfläche in größere Höhen möglich, woraus sich Wirkungen in Richtung höherer Temperaturen ergäben. Gleichzeitig bewirken Wolken aber tagsüber eine verstärkte Reflexion der einfallenden Sonnenstrahlen, so dass sich daraus auch entgegengesetzte, in Richtung geringerer Temperaturen zielende Wirkungen ergeben. Diese Zusammenhänge lassen keine andere Schlussfolgerung zu, als dass es ohne ein exaktes Wissen der durch Wolken im zeitlichen Verlauf bestimmten Ein- und Abstrahlungsverhältnisse im System Erde/Atmosphäre keine theoretische einigermaßen zutreffende Bestimmung der energetischen Verhältnisse in diesem System geben kann.
Temperaturveränderungen: Zusammenhänge sind unklar, unbegründete Aktivitäten können keinen Nutzen bringen
Meßreihen über Lufttemperaturen der vergangenen 200 Jahre zeigen durchaus geringfügige Veränderungen, es überwiegen leichte Anstiege. Jedoch war im Zeitraum von etwa 1945 bis 1975 ein erheblicher Rückgang der gemessenen Temperaturen auf den Kontinenten nördlich des Äquators, und zwar um 0,4 bis 1,5°C [17] zu verzeichnen, und das trotz zeitgleich angestiegenem CO2-Gehalt der Luft. Mitte der 70er Jahre befürchtete man sogar den Beginn einer neuen Eiszeit. Es ist nicht geklärt, auf welche Ursachen die Veränderungen der in jüngster Zeit ermittelten Durchschnittswerte der gemessenen Temperaturen, die eher steigende Tendenzen zeigen sollen, zurückzuführen sind. Auch an dieser Stelle kann nicht geklärt werden ob und inwieweit dafür möglicherweise Veränderungen in der Meßweise (z.B. Standortänderungen der Meßgeräte) oder Randbedingungen der Messungen (Veränderungen in der Umgebung der Meßpunkte, z.B. durch dichtere Besiedlung) oder aber auch Änderungen des Feuchtigkeitsgehaltes der Luft (z.B. durch Intensivierung der Landwirtschaft, künstliche Bewässerung) von Einfluß sind.
Veränderungen der gemessenen Temperaturen und der daraus schließlich gebildeten Durchschnittstemperaturen sind allein kein ausreichendes Maß, um von Klimaveränderungen sprechen zu können. Die Atmosphäre in Verbindung mit dem Wasser ist und funktioniert prinzipiell ähnlich einer Wärmekraftmaschine. Um das Geschehen in einer solchen Maschine verstehen zu können, ist die Erfassung der jeweils an den einzelnen Orten verfügbaren (gespeicherten) Energie sowie deren Zu- und Abgänge eine Minimalvoraussetzung. Vor allem ist für die Erfassung der jeweiligen örtlich vorhandenen Energie neben der Temperatur auch die Kenntnis der Luftfeuchtigkeit sowie des Luftdrucks von Bedeutung. In den Meßreihen der Lufttemperaturen (2 m oberhalb der Erdoberfläche) wird über die Luftfeuchtigkeit und damit über den Energieinhalt der Luft jedoch nichts gesagt. Nicht ohne Grund unterscheidet die Meteorologie mehr als 30 Klimate in 5 Klimazonen, wobei die jeweilige Präsenz von Niederschlag wesentliche Bestimmungsgröße ist.
Zudem ist „Klima“ ohnehin keine stabile Größe, Änderungen hat es im erdgeschichtlichen Verlauf zur Genüge gegeben, auch ohne daß der Mensch dabei eine spürbare Rolle auf der Welt gespielt hätte (siehe [18]). Und solche Veränderungen können doch nicht etwa jetzt plötzlich aufgehört haben. Überdies ist der Aufsetzpunkt der Argumentation um eine vom Menschen verursachte Erwärmung mit der Mitte des 19. Jahrhunderts gerade zu einem solchen Zeitpunkt gewählt, der deutliche Zeichen einer gerade beendeten Kaltzeit trägt.
So zeigt beispielsweise die Gletscherausdehnung sowohl auf Spitzbergen [19] als auch in den Alpen [20] um 1850 Maße, die seit der letzten Eiszeit niemals größer waren. Der seither eingetretene Gletscherrückzug liegt zudem in einem Bereich, der schon in der Vergangenheit (seit der letzten Eiszeit) mit gleicher Geschwindigkeit und mehrfach mit erheblich weiterem Schwund stattgefunden hat. Eine Veränderung der Atmosphärenmasse, die nach Auffassung des Verfassers nicht völlig auszuschließen ist, hätte in jedem Fall spürbare Folgen für die thermischen und energetischen Verhältnisse auf unserer Erde. Die Frage nach der Stabilität der Atmosphärenmasse, nach eventuellen Einwirkungen der Menschen darauf, ist der Wissenschaft bislang überhaupt noch nicht bewußt geworden.
Das Energiesystem Erde/Atmosphäre (außerirdische Einflüsse und eine Veränderung der Atmosphärenmasse einmal ausgeschlossen) und die in diesem System herrschenden Temperaturen werden so gut wie ausschließlich durch das Wasser in der Atmosphäre (wie auch in den Ozeanen) bestimmt. Und solange das Verständnis des Wasserkreislaufs mit all seinen Wirkungen, besonders der Wolken, nicht ausreichend entwickelt ist - allein die völlig unzureichende Treffsicherheit schon lediglich mehrtägiger Wettervorhersagen beweist uns das täglich - sollte man mit Prognosen über Klimaveränderungen zurückhaltend sein. Denn Klima ist nun mal der statistische Mittelwert des Wetters über einen Zeitraum von 30 Jahren; es wird nicht etwa von den Vorstellungen mit der Wärmelehre nicht vertrauter Ökologisten gestaltet.
Die Zusammenhänge bezüglich der Wirksamkeit des Wassers, besonders in der Form der Wolken, in der Atmosphäre und der im Vergleich dazu verschwindend geringen Bedeutung eines erhöhten CO2-Gehaltes auf Wetter und Klima sowie die Unzulässigkeit, allein aus Messungen der Lufttemperatur auf Klimaänderungen schließen zu wollen, dürften vorstehend nachvollziehbar erklärt sein. Soll die Politik nun aber noch kostspielige Maßnahmen zur Vermeidung von CO2-Emissionen durchsetzen, nur weil die Politiker von nicht ausreichend Sachkundigen beraten worden sind? Dabei werden die Kosten der Minderung der CO2-Emissionen Dimensionen erreichen, die ohne jeden Zweifel zur weiteren Vernichtung von wertschöpfenden Industrie-Arbeitsplätzen und damit zur Wohlstandsminderung in allen an der CO2-Vermeidung beteiligten Industrienationen, allen voran: Deutschland, führen. Das Beherzigen einer alten chinesischen Weisheit kann in der aktuell verfahrenen politischen Situation weiterhelfen: Wer einen Fehler gemacht hat, und diesen nicht korrigiert, begeht einen zweiten.
Überlegungen zum sogenannten „Treibhauseffekt“, zur Wirkung der sogenannten "Treibhausgase"
Als Lehrmeinung gilt heute eine Auffassung, wie sie auch auf der Seite des MPI Met https://www.mpimet.mpg.de/presse/faqs/wie-funktioniert-der-treibhauseffekt.html [21] zu finden ist: „(1) Bei einer Erde ohne Atmosphäre wäre die Oberflächentemperatur ausschließlich durch die Bilanz zwischen eingestrahlter Sonnenenergie und der vom Boden abgestrahlten Wärmestrahlung festgelegt. (2) Bei gleicher Albedo des Planeten wie heute würde diese Oberflächentemperatur im globalen Mittel etwa -18°C betragen. (3) Selbst eine Atmosphäre aus reinem Sauerstoff und Stickstoff, die ja die Hauptkomponenten unserer Atmosphäre (zu ca. 99%) bilden, würde daran nichts wesentliches ändern, da diese Gase die beiden genannten Strahlungsarten nur unwesentlich beeinflussen."
Sehr ähnliche Darlegungen findet man im Grunde in zahlreichen einschlägigen Fachbüchern, soweit sich die Autoren der herrschenden Meinung angeschlossen haben, beispielsweise auch in J. Houghton, Globale Erwärmung [22]. Aus diesen Darlegungen ist zumindest das Grundgerüst der Denkweise der Anhänger der „Treibhauseffekt“-Hypothese zu erkennen.
Ein Teilnehmer der Diskussion, der US-Amerikaner John Shotsky, hat zur kritischen Würdigung der herrschenden Meinung ein Modell betrachtet, in dem drei Planeten verglichen werden, alle in gleicher Position zur Sonne und mit gleicher Albedo wie die Erde einschl. Atmosphäre:
Planet 1 soll keine Atmosphäre besitzen. Auf diesen Fall träfen Satz 1 und 2 der Erklärung des MPI Met zu, sofern man den Fehler, der sich aus der grundsätzlich falschen Mittelwertbildung der von der 4. Potenz der absoluten Oberflächentemperatur abhängigen emittierten Strahlungsleistung toleriert. (Da die Abstrahlungsleistung aus Regionen, wo die Planetenoberflächentemperatur bei hoher Sonneneinstrahlung die Bereiche von 80°C (353 K) erreicht, z.B. um 265% höher ist als dort, wo die Oberflächentemperatur die vielfach angesetzten „mittleren“ -18°C (255 K, siehe Satz 2) beträgt, geschieht die Abstrahlung vorwiegend aus den Gebieten mit hohen Oberflächentemperaturen. Als Konsequenz bleibt für die kälteren Gebiete nur noch sehr wenig abzustrahlende Wärme übrig. Eine globale, auf die Planetenoberfläche bezogene Mittelwertbildung der abgehenden Strahlung ist von daher systematisch falsch und führt zu wesentlich zu hohen mittleren Oberflächentemperaturen und damit unsinnigen Ergebnissen.)
Planet 2 soll die irdische Atmosphäre haben. Die Verhältnisse sind bekannt, wir erleben sie täglich. Die „globale“ Mitteltemperatur in 2 m über der Planetenoberfläche wird üblicherweise mit +15°C bzw. 288 K genannt.
Planet 3 soll nun eine modifizierte, nichtstrahlende Atmosphäre haben, und zwar wie nach Satz 3 der Erklärung des MPI Met (analog auch bei J. Houghton). Hier wird von der herrschenden Meinung behauptet, dass die Temperaturverhältnisse in der bodennahen Atmosphärenschicht (2 m über Planetenoberfläche) praktisch gleich wären der Oberflächentemperaturen des Planeten 1.
Shotsky weist darauf hin, daß der Wärmeeintrag in die nichtstrahlende Atmosphäre durch Konvektion auch beim Planeten 3 ungehindert stattfinden würde. Ein Wärmeaustrag aus einer solchen Atmosphäre wäre jedoch nicht durch Strahlung möglich, sondern nur durch Kontakt mit der Planetenoberfläche. Da aber infolge der Dichteunterschiede die kälteren Atmosphärenschichten stets unten, also an der Planetenoberfläche sind, wärmere Atmosphärenmassen werden unverzüglich in die Höhe abgeführt, kann lediglich die Wärmezufuhr von der Planetenoberfläche in die Atmosphäre stattfinden, es können aber keine nennenswerten Wärmemengen aus der Atmosphäre an die Planetenoberfläche abgeführt werden. Eine solche Atmosphäre heizt sich auf, bis sie etwa die höchste auftretende Oberflächentemperatur des Planeten angenommen hat. Eine weitere Wärmeaufnahme in die Atmosphäre wäre dann wegen des nicht mehr vorhandenen Temperaturgefälles zwischen Planetenoberfläche und Atmosphäre nicht mehr möglich. Damit würden nach Beobachtungen des Verfassers ca. 80°C bis 100°C Atmosphärentemperatur erreicht, nämlich jene Temperaturen, die bei starker Sonneneinstrahlung in der Sahara als Bodenoberflächentemperaturen anzutreffen sind. Die thermischen Bedingungen oberhalb der festen Planetenoberfläche werden also durch das Fehlen oder Vorhandensein einer Atmosphäre bestimmt. Ist keine Atmosphäre vorhanden, ist die Planetenoberfläche der äußerste Ort, für den Wärme nachweisbar ist. Oberhalb der Planetenoberfläche gibt es mangels Materie auch keine Wärme mehr. Bei Planeten mit Atmosphäre wird in diesen Atmosphären Wärme gespeichert. Und für die thermischen Verhältnisse in den Atmosphären ist auch maßgeblich, ob überhaupt und auf welche Weise Wärme wieder ausgetragen werden kann. Bei der Erdatmosphäre geschieht dieser Austrag durch die strahlungsaktiven Substanzen. Ohne diese strahlungsaktiven Substanzen würden global gleichmäßig in der Atmosphäre jene Temperaturen herrschen, die am heißestem Punkt der Erdoberfläche zum Wärmeeintrag in die Atmosphäre wirksam sind.
So ist zu schließen, dass in der Reihenfolge der Oberflächen- bzw. oberflächennahen Temperaturen die verglichenen Planeten folgende Ränge einnehmen:
Kältester Planet: Planet 1, Planet ohne Atmosphäre,
Heißester Planet: Planet 3, Planet mit nichtstrahlender Atmosphäre,
Dazwischen: Planet 2, Planet mit strahlender Atmosphäre, wie unsere Erde.
Diese Analyse der Wirkungen der Atmosphäre überhaupt und noch mit unterschiedlichen Atmosphäreneigenschaften führt zu dem Schluß, daß die strahlungsaktiven Substanzen in der Erdatmosphäre, das sind vor allem die sogenannten „ Treibhausgase “, die Atmosphäre kühlen, indem diese Wärme aus der Atmosphäre ins All abstrahlen (siehe auch [23]). Damit ist aber auch die Behauptung widerlegt, dass die „Treibhausgase“ zur Erwärmung der Atmosphäre beitragen. Grundsätzlich ist das Gegenteil der Fall: Ohne die sogenannten „Treibhausgase“ in unserer Atmosphäre wäre die Erde für die Menschheit ein unbewohnbarer Ort! Nicht weil es zu kalt wäre, nein, es wäre unerträglich heiß! Es ist also unzutreffend, daß der sogenannte „ Treibhauseffekt " der strahlungsaktiven Substanzen in der Erdatmosphäre, der nach [20] 33°C betragen soll (Temperatur im bodennahen Bereich +15°C an Stelle von -18°C), diese Wirkung hat. Vielmehr bewirken die strahlungsaktiven Bestandteile der Atmosphäre, daß die Temperaturen im Lebensbereich der Menschen nicht in der Größenordnung von +80°C (353 K) oder mehr liegen, sondern in einem Bereich, der uns das Leben ermöglicht; insgesamt kühlen also die sogenannten "Treibhausgase" die Erdatmosphäre.
Womit die Hypothese des sogenannten „Treibhauseffektes“, der temperaturerhöhenden Wirkung der „Treibhausgase", endgültig als Quatsch einzustufen ist. Da diese Hypothese jedoch den Befürchtungen um eine Klimagefährdung wie auch den Bemühungen um einen „ Klimaschutz “ als „Wissenschaftliche Grundlage“ dient, gibt es nur eine Konsequenz: Das gesamte Thema endlich durch unvoreingenommene und ausreichend qualifizierte Leute neu durchdenken zu lassen.
Eine Frage an die Leser
Abschließend eine Frage, verehrte Leser, wieso ist die Oberflächentemperatur des Mondes bei senkrechter Sonneneinstrahlung, sie wird in verschiedenen Quellen mit um 130°C genannt (the surface temperature at the equator during the day is 134°C (273° F) source:
https://lunar.gsfc.nasa.gov/moonfacts.html), höher als die (Boden-)Oberflächentemperatur in vergleichbaren Gegenden auf der Erde, z.B. in der Sahara bei ebenfalls vergleichbaren Bedingungen bezüglich der Sonneneinstrahlung?
Eigene Messungen bei nahezu senkrechtem Sonnenstand, klarem Himmel, ergaben für die nördliche Sahara um 80°C. Nach anderen, eher kümmerlichen, Quellen sollen nur um die 60° erreicht werden, obwohl eigene Messungen selbst im Raum des nördlichen Mittelmeers schon Ergebnisse von 65°C ergaben. Und das auch noch, wo lt. gegenwärtig noch herrschender Meinung die Erde einen aufheizenden Treibhauseffekt hat, der Mond mangels Atmosphäre aber ohne einen solchen auskommen muß. Am längeren Mondtag kann dies nicht liegen, denn in der Mittagssonne steigt die (Boden-)Oberflächentemperatur in der Sahara nicht weiter, wenn sie den höchsten Wert erreicht hat, also kurz vor Höchststand, noch vor dem Erreichen des Zenits. Nach weiteren 30 Minuten Einstrahlung der Mittagssonne hat sich der zuvor bereits gemessene Wert nicht weiter erhöht.
Quellen und Anmerkungen
[1] Eigene Recherchen
[2] Baehr, H. D., Thermodynamik, 10. Aufl. 2000, Springer, S.69
[3] Lucas, K., Thermodynamik, Springer, 2000, S. 153
[4] Baehr, H. D., a.a.O., S.32
[5] Baehr, H. D., a.a.O., S.33
[6] Kraus, H., Die Atmosphäre der Erde, Friedr. Vieweg & Sohn, 2000, S. 123
[7] Werte nach: Peixoto, J. P., Oort, A. H., Physics of Climate, American Institute of Physics, 1992, S. 94
[8] Bei zahlreichen der in Klimabetrachtungen angesetzten globalen Mittelwerte handelt es sich um mehr oder weniger geschätzte Größen. Da die meteorologischen Meßstationen sehr ungleichmäßig auf den Kontinenten verteilt sind und es auf den Ozeanen kein hinreichend dichtes Meßnetz gibt, sind sämtliche „Globalwerte“ mit Vorsicht zu verwerten.
[9] https://www.ssec.wisc.edu/gifts/navy/meetings/2003/PYang_MURI_2003.ppt
[10] https://www.guardian.co.uk/life/feature/story/0,13026,1108853,00.html
[11] Hug, H., Der CO2-Effekt oder die Spur einer Spur, Chemische Rundschau, Nr. 15/2002
[12] Diagrammgrundlage aus: Hanel, R. A. et al., Exploration of the solar system by infrared remote sensing, Cambridge University Press, 2003
[13] https://www.dmg-ev.de/gesellschaft/aktivitaeten/pdf/treibhauseffekt.pdf
[14] Calder, N., Die Launische Sonne, Dr. Böttiger Verlags-GmbH, 1997
[15] ausgenommen eine Veränderung der Atmosphärenmasse, wofür es aber zur Zeit keine ausreichend belastbaren Hinweise gibt, vgl. Fusion 3/2002, S.8-10
[16] Treibhauseffekt – ein forscher Irrtum eigene Recherchen
[17] Wieder am Beginn einer „Kleinen Eiszeit“?, FAZ, 25.02.1977
[18] Malberg, H., Bauernregeln, 4., erweiterte Auflage, Springer, 2003, S. 194 – 217
[19] Blümel, W. D., 2000 Jahre Klimawandel und Kulturgeschichte, https://www.uni-stuttgart.de-wechselwirkungen-ww2002-bluemel.pdf , S. 4-5
[20] Gletscher im ständigen Wandel, Jubiläums-Symposium der Schweizerischen Gletscherkommission, Hochschulverlag AG an der ETH Zürich, 1995
[21] https://www.mpimet.mpg.de/presse/faqs/wie-funktioniert-der-treibhauseffekt.html , dort unter „Treibhauseffekt"
[22] Houghton, J., Globale Erwärmung: Fakten, Gefahren, Lösungswege, Springer 1977, S. 13 ff.
[23] Diese Erkenntnis ist mittlerweile (2008, immerhin nur drei Jahre nach Bekanntmachen von Shotskys Argumentation) auch in der sich hauptamtlich mit "Klima" beschäftigenden Wissenschaft angekommen: https://www.atmosphere.mpg.de/enid/2__Ozon/-_Abkuehlung_1nh.html
Klärungsbedarf besteht – Vorsicht bei Entscheidungen auf wackligen Grundlagen
Die Klärung, ob und in welchem Umfang die Befeuchtung der Atmosphäre Wirkungen auf die klimatischen Verhältnisse im Lebensbereich der Menschheit haben könnte, wäre sicherlich die Aufgabe qualifizierter, sachverständiger und unvoreingenommener Wissenschaftler. Es gibt aber noch weitere Punkte, die einer Klärung bedürfen: Es könnten auch Eingriffe des Menschen in den Stickstoff- und möglicherweise auch in den Sauerstoff-Kreislauf von Bedeutung sein. Diese Eingriffe verüben wir sowohl durch Eintrag über biologische Prozesse (Landwirtschaft) und - für Stickstoff - auch durch Verbrennung. Und besonders diese Eingriffe müßten in ihren Wirkungen beurteilt werden, weil es hier möglicherweise zu Akkumulationen, d.h. Vermehrung der Atmosphärenmasse, kommen kann. Und es gibt wahrscheinlich kaum kurzfristig wirkende Prozesse, welche die der Atmosphäre zugeführten Gas-Mengen wieder in fester Form austragen könnten.
Die vielleicht wichtigsten Fragen für eine ernsthafte Forschung zur Klimaentwicklung und zum eventuellen Einfluß des Menschen hierauf sind damit zu stellen: Hat sich die Masse der Atmosphäre in erdgeschichtlichen Zeiträumen geändert? Wenn ja, durch welche Ereignisse? Hat die irdische Atmosphäre lediglich zufällig dieses aktuelle Ausmaß? Verändern wir durch unsere Aktivitäten gegenwärtig die Atmosphärenmasse? Gibt es Reaktionen, welche die Atmosphärenmasse im gegenwärtig vorhandenen Umfang stabilisieren? Wenn ja, welche sind dies? Welche Einflüsse hat die Befeuchtung der Atmosphäre?
Eine Politik der Daseinsvorsorge, zu der bei eventueller Gefährdung des Klimas auch Klimaschutz gehören muß, verlangt eine unzweifelhafte, wissenschaftlich gesicherte Grundlage. Die vorstehend aufgezeigten offenen Fragen der Atmosphärenkonstanz, die Hinweise auf die Befeuchtung der Atmosphäre verlangen eine Abschätzung der hieraus resultierenden Konsequenzen. Die Politik sollte zumindest nicht voreilig Produktionsweisen fördern (Energieerzeugung durch eigens hierfür angebaute Biomasse), die womöglich eine vermeidbare Beeinträchtigung der Troposphäre verursachen.
Das bisherige Nichterkennen bzw. Ignorieren der vorstehend gezeigten Zusammenhänge trotz erheblicher Forschungsaufwendungen weist darauf hin, daß für eine erfolgversprechendere Klimaforschung sowohl unvoreingenommene Meteorologen und Klimatologen als auch eine Verbreiterung der Basis durch Einbeziehen der einschlägig sachverständigen naturwissenschaftlichen Bereiche erforderlich sind; dies wären in erster Linie: Biologie, Chemie und Thermodynamik.
Hingegen ist alles das, was gegenwärtig als "Klimaschutzpolitik" betrieben wird, hierzu gehören beispielsweise Aktivitäten bezüglich der Förderung (=Subventionierung) der Nutzung erneuerbarer Energien (Erneuerbare-Energien-Gesetz, Biomasseverordnung), aber auch die beabsichtigte Einführung des Handels von CO2-Emissionsrechten (Verteuerung der Nutzung kohlenstoffhaltiger Primärenergieträger) sowie die seit Februar 2002 in Kraft befindliche Energieeinsparverordnung (EnEV), welche (im Verhältnis zu den einzusparenden Energiekosten) die Kosten der Erstellung neuer bzw. Erhaltung bestehender Gebäude durch zusätzlichen Errichtungsaufwand in unwirtschaftlichem Ausmaß erhöht, letztlich nicht durch wissenschaftliche Erkenntnisse begründet, geschweige denn abgesichert, ein überpropertional wachsender Markt. Und Forschungsgelder sind überall gern gern gesehen.
Nach heutigem Wissensstand der Physik gibt es keine Klimagefährdung durch einen erhöhten CO2-Gehalt der Atmosphäre. Deshalb sind sämtliche unter dem Gesichtspunkt der CO2-Vermeidung eingeleiteten Aktivitäten unsinnig. Alle diese Aktivitäten haben nur folgende Wirkungen: Minderung des Wohlstands, Minderung unserer Wettbewerbsfähigkeit, Schädigung unserer wirtschaftlichen Lebensgrundlage, nachhaltige Beeinträchtigung unserer wirtschaftlichen Prosperität, empfindliche Störung unseres Gesellschaftssystems, Verlangsamung der Verbesserung der Lebensverhältnisse in den sich entwickelnden Ländern, Lächerlichmachen des Wissenschafts- und Wirtschaftsstandortes Deutschland, aber auch der EU.
Investoren, die auf Grund der gegenwärtig politisch gewollten CO2-Vermeidung geschaffenen Förderungen/Subventionen in Wirtschaftsgüter investieren, welche erst unter längerdauernder Nutzung dieser Subventionen Gewinne erwarten lassen, sollten vorsichtig sein. Die Lebensdauer bzw. Wirksamkeitsdauer von Gesetzen und Gesetzesinhalten ist mitunter weitaus kürzer als die technisch-wirtschaftliche Lebensdauer der investierten Anlagen.
Insbesondere kann dann nicht mit dauerhaftem Bestand von gesetzlichen Regelungen und Verordnungen gerechnet werden, wenn Irreführung bzw. Irrtum der Parlamentarier und der Administration für den Beschluß von Gesetzen und den Erlaß von Verordnungen ursächlich war.
Es ist dem Verfasser schwer vorstellbar, daß es einen Bestandsschutz für Unsinn gibt.
Und daß unser Land/unser Volk nach Phasen beträchtlicher Verirrungen wieder auf einen zukunftsorientierten Pfad gelangt, ist eine Hoffnung, ja Zuversicht, die der Verfasser schon auf Grund unserer jüngsten Geschichte nicht verliert. Aber letztlich wäre das Zurückfinden auf den zukunftsorientierten Pfad ohnehin unvermeidbar, wenn man sich denn aus der Geschichte nicht endgültig verabschieden will. Auf ein mögliches längerfristiges Verirren der Menschheit z.B. durch den Verlust des Interesses an den Naturwissenschaften und deren Anwendung, verbunden mit dem Umschwenken auf andere Interessen, hatte Fucks als Risiko in seinen Analysen zur künftigen Machtentwicklung ( Fucks, W., Formeln zur Macht, 3. Auflage, DVA, Stuttgart, 1965, S. 158 f. ) hingewiesen.
Es scheint gegenwärtig, als wäre dieses Risiko inzwischen Realität geworden.
Die These des vom Anstieg des CO2 in der Atmosphäre induzierten Temperaturanstieges basiert ausschließlich und allein auf einer ungefähren Korrelation zwischen dem CO2-Gehalt der Luft und Temperatur in den Jahren von 1977 bis 1998. Für die Zeit vor 1957, dem Beginn der Messungen am Mouna Loa, werden fehlerhafte und ungenaue Angaben über den CO2-Gehalt aus Eisbohrkernen zugrunde gelegt. Zahlreiche Messungen des CO2-Gehaltes der Luft vor 1945 bis etwa 1820 zurück, die keinen einheitlichen „vorindustriellen Wert“, sondern erheblich Schwankungen bis über das heutige Niveau hinaus beweisen, werden ignoriert, statt dessen spricht man von einem „vorindustriellen“ Niveau von etwa 280 ppm.
In der Zeit von 1957 (eigentlich seit 1945) bis 1976 wurde weltweit eine Abkühlungsperiode beobachtet, bei gleichzeitig ansteigendem CO2-Gehalt, danach, von 1977 bis 1998 wurde es weltweit wärmer, bei weiter ansteigendem CO2-Gehalt, seit 1999 stagniert die Temperatur wieder bzw. ist leicht rückläufig, bei weiter steigendem CO2-Gehalt der Luft. Von einer ungefähren Korrelation zwischen Temperaturentwicklung und CO2-Gehalt der Luft kann man deshalb für den nunmehr einundfünfzigjährigen mit dem Mouna Loa-Messungen belegten Zeitraum seit 1957 nur für 21 Jahre (1977 bis 1998), also in 41% der betrachteten Zeit, sprechen. Also in nicht einmal der Hälfte des Betrachtungszeitraumes trifft die von der herrschenden Meinung behauptete Korrelation zu, weshalb das Urteil nur lauten kann:
Es ist keine Korrelation zwischen CO2-Gehalt der Luft (als Ursache) und Temperaturen der Luft (als Folge) nachgewiesen bzw. nachweisbar.
Und für erdgeschichtliche Zeiten werden vielfach Ergebnisse aus Eisbohrkernmessungen angeführt, ohne dabei zur Kenntnis zu geben, daß aus den Eisbohrkernen wegen der im Eis nicht unterbundenen Diffusion und der auch im Eis nicht zu vermeidenden chemischen Reaktionen, die überdies auch noch bei der Probenentnahme ablaufen, keinerlei belastbare Daten über historische CO2-Gehalte der Luft und deren Variationen gewonnen werden können.
Eine Frage an die Leser
Abschließend eine Frage, verehrte Leser, wieso ist die Oberflächentemperatur des Mondes bei senkrechter Sonneneinstrahlung, sie wird in verschiedenen Quellen mit um 130°C genannt (the surface temperature at the equator during the day is 134°C (273° F) source:
https://lunar.gsfc.nasa.gov/moonfacts.html
höher als die (Boden-)Oberflächentemperatur in vergleichbaren Gegenden auf der Erde, z.B. in der Sahara bei ebenfalls vergleichbaren Bedingungen bezüglich der Sonneneinstrahlung?
Eigene Messungen bei nahezu senkrechtem Sonnenstand, klarem Himmel, ergaben für die nördliche Sahara um 80°C. Nach anderen, eher kümmerlichen, Quellen sollen nur um die 60° erreicht werden, obwohl eigene Messungen selbst im Raum des nördlichen Mittelmeers schon Ergebnisse von 65°C ergaben.
Und das auch noch, wo lt. gegenwärtig noch herrschender Meinung die Erde einen aufheizenden Treibhauseffekt hat, der Mond mangels Atmosphäre aber ohne einen solchen auskommen muß.
Am längeren Mondtag kann dies nicht liegen, denn in der Mittagssonne steigt die (Boden-)Oberflächentemperatur in der Sahara nicht weiter, wenn sie den höchsten Wert erreicht hat, also kurz vor Höchststand, noch vor dem Erreichen des Zenits. Nach weiteren 30 Minuten Einstrahlung der Mittagssonne hat sich der zuvor bereits gemessene Wert nicht weiter erhöht.
„Menschengemachter Klimawandel“? Ein Symposion https://www.gkpn.de/Engel_Klimawandel.pdf, eine vorzügliche Erfassung und Darstellung der Auffassungen und der Akteure; man braucht aber Zeit, um diese längere Arbeit aufnehmen zu können.
_______________________________________________________________________________________________
Die Autoren:
Dr. B. Eastlund, Plasmaphysiker
(07.08.1938 - 12. 12.2007)
Dr. rer. agr. J. P. Biehler
Dr. rer. nat. R. Ebert
S. Hab Master of Science (M. Sc.)
BEITRAG ZUR KLIMADISKUSSION
"Wir konnten sehen, wie die Druckwelle auf uns zurollte"
Allein die Amerikaner ließen bis zum internationalen Abkommen, zum Verbot oberirdischer Atomtests im Jahr 1963, über 200 Atom- und Wasserstoffbomben in der Atmosphäre detonieren. Kameramänner und Fotografen eines geheimen Spezialkommandos hielten das Zerstörungswerk fest. Doch die meisten Aufnahmen gelangten nie an die Öffentlichkeit.
Die Arbeit dieser Leute war so geheim, dass lange niemand wusste, wer sie überhaupt waren. Bis heute sind die meisten dieser Aufnahmen unter Verschluss. Nur Militärphysiker durften die Bilder analysieren. Immer noch zögert die US-Regierung, die Aufnahmen komplett freizugeben.
Meist waren die Chronisten bei derlei Missionen im Zentrum der Zerstörung dem atomaren Feuer allerdings ungeschützt ausgesetzt. Viele trugen bei ihrer Arbeit nur Shorts und T-Shirt - und starben später an Krebs. P. Kuran blieb über Monate im Pazifik, um die Tests zu fotografieren.
Nevada 1957
In einem geheimen Filmstudio in den Hollywood Hills von Los Angeles, nur ein paar Kilometer von der glitzernden Lichterwelt des Sunset Boulevard entfernt, wurde das Material zwischen 1947 und 1969 zu mehr als 6500 Filmen zusammengeschnitten. Die Fotografen erprobten fast jedes seinerzeit verfügbare Kameramodell und testeten völlig neue Aufnahmetechniken. Automatische Kameras wurden wenige hundert Meter vom Explosionspunkt entfernt platziert. Dicke Bleimäntel schützten das Filmmaterial vor der Gammastrahlung. Die modernsten Filmkameras waren damals in der Lage, 15 Millionen Bilder pro Sekunde aufzuzeichnen. Selbst mit 3-D-Aufnahmen experimentierten die Filmemacher.
Kuran blickt bis heute mit den Augen des Fotografen auf die Bombentests. Zehnmal heller als die Sonne sei der Blitz einer Kernwaffe, sagt er. Stark getönte Spezialbrillen mussten die Fotografen aufsetzen, um sich nicht die Netzhaut zu verbrennen.
Er erinnert sich, wie leichtfertig das Militär damals operierte:
"Nach der Detonation flogen immer B-57-Bomber direkt durch den Atompilz, um Messungen durchzuführen. Nachdem die Maschinen wieder gelandet waren, wurden sie von Männern dekontaminiert, die als einzigen Schutz Gummistiefel an den Füßen trugen.
Bis auf etwa 30 Kilometer näherten sich die Kameraleute den künstlichen Sonnen in der Südsee. In der Wüste Nevadas rückten Yoshitake und Kuran sogar bis auf 8 Kilometer an die Feuerbälle heran. "Wir konnten sehen, wie die Druckwelle durch das Tal auf uns zurollte", sagt Yoshitake: "Um nicht umzufallen, hielten wir uns an unseren Kameras fest."
Meist waren die Chronisten bei derlei Missionen im Zentrum der Zerstörung dem atomaren Feuer allerdings ungeschützt ausgesetzt. Viele trugen bei ihrer Arbeit nur Shorts und T-Shirt - und starben später an Krebs.
Geradezu magisch anmutende Aufnahmen sind im Pazifik entstanden - darunter jene Bilder des sieben Kilometer messenden Feuerballs von "Shrimp", der stärksten Bombe, die von den USA jemals gezündet wurde.
Am 1. März 1954 detonierte die 15-Megatonnen-Waffe der Operation "Castle Bravo" über dem Bikini-Atoll. Die entfesselte Zerstörungskraft war mehr als doppelt so groß wie von Experten vorausberechnet und riss einen Krater mit über zwei Kilometer Durchmesser in die Insel. In wenigen Minuten wuchs der Atompilz über 40 Kilometer in die Höhe.
"Die Auswirkungen auf unsere Ozonschicht wurde seinerzeit komplett vernachlässigt. Wir machten einfach unseren Job und machten uns diesbezüglich keinerlei Gedanken darüber. Heute müssen wir uns mit den Auswirkungen der damaligen Tests und der zerstörten Ozonareale auseinandersetzen. Leider werden hier vielfach andere Faktoren als Ursachen genannt. Und weil die Tests unter extremer Geheimhaltung standen, ist auch der Großteil da draußen nicht über die Auswirkungen informiert, stattdessen hat sich eine Klimaindustrie (Medien & Wissenschaft) über diverse Rockefeller Organisationen (Club of Rome) formiert", so Kuran.
Denn als hochenergetische Form des Lichts (radioaktiv messbare) Röntgen- und Gammastrahlung, kann Gammastrahlung molekularen Stickstoff (N2) in seine Atome zerlegen, die mit molekularem Sauerstoff (O2) reagieren und Stickoxid (NO)-LINK erzeugen. Dieses zerstört das wichtige Ozon (O3) und produziert daraus Stickstoffdioxid (NO2). NO2 reagiert dann mit atomarem Sauerstoff und bildet wieder NO.
Mehr NO in der Atmosphäre bedeutet eine vermehrte Ozonvernichtung
Die Homepage des Filmemachers: https://www.atomcentral.com/
Der Filmemacher will vor der atomaren Versuchung, respektive der missbräuchlichen Verwendung derartiger Technologien, warnen. Doch auch eine überraschende Lehre zieht er aus seiner Arbeit. "Ich persönlich habe jetzt weniger Angst vor Kernwaffen als zuvor", so der Dokumentarfilmer. "Ich weiß nun: Wenn jemand 8 Kilometer von mir entfernt eine atmosphärische Wasserstoffbombe hochgehen lässt, besteht eine gute Chance, dass ich überlebe."
Im Jahr 1974 wurde der Treaty on the Limitation of Underground Nuclear Weapon Tests (kurz: Threshold Test Ban Treaty, TTBT) von den USA und der UdSSR unterzeichnet. Dieser Kontrakt sah vor, dass die nunmehr nur noch unterirdisch stattfindenden Kernexplosionen eine Stärke (Yield) von 150kt TNT Äquivalent nicht überschreiten sollten. Die Erdölindustrie nutzte Nukleare Kernexplosionen im Bereich Nuklearen Frackings. Und auch die Minenindustrie und im Bergbau (Nukleares Engineering) wurden die Techniken eingesetzt. Die UdSSR nutzte ebenso wie die USA eine Technik, bei der unterirdische Kernexplosionen große Erdgas - Reservoirs generierten. Aufgrund der Thermischen Verglasung eigente sich diese Technik perfekt als Storage für Erdgas.
Wir hoffen Sie beherrschen die englische Sprache im fortgeschrittenen Stadium oder haben ein
Oxford advanced learners dictionary of current english, bzw. LCCI Level 3, für die
- deklassifizierten Videos -
Enstehung und Ausbreitung von Schockwellen in Dünnschichten, nach Einschlag hochenergetischer Teilchengruppen
Integration der Technologie ins Modell:
Techniken des Nuklearen Landschaftsbaus - ( Nuclear - Engineering & NuClear Landscaping )
https://www.osti.gov/servlets/purl/4106908
+ * Trick * von Edward Teller: Dampfblasen als Neutronenschleuse
https://www.ga.com/triga/fuels
Operation_Plowshare_and_Project_Chariot_Civil_Nuclear_Excavation_For_Civil_Purposes_1957-1962
ZEIT DER AUFKLÄRUNG ÜBER NUKLEAREN TECHNOLOGIEN -
VON DER " SUPERWAFFE " - ZU ZIVILEN APPLIKATIONEN -
NUKLEARES ENGINEERING ( NUK. INGENIEURSWESEN)
Gammaspektroskopische Messung zweier Proben von Trinitit ca. 60 Jahre nach der Atomexplosion
Die glasartige Substanz, die durch die gewaltige Hitze der Explosion der Atombombe in New Mexico entstanden ist, wurde zu Schmuck verarbeitet. 1945 trug die Schauspielerin Merle Oberon Trinititschmuck, um die japanischen Behauptungen einer langlebigen A-Bomben-Radioaktivität zu widerlegen. https://de.wikipedia.org/wiki/Merle_Oberon
Bomben-Site-Schmuck vom geschmolzenen Untergrund (Sand - Siliziumdioxid = Quarz)
Im Kontext der 1940er Jahre möglicherweise weniger radioaktiv als einige typische Konsumgüter, d. H. Ra-226 Uhren zum Beispiel. Noch bis in die 30er Jahre waren Radiumbäder als Heilbäder angepriesen. Und heute ?! Der Besitz eines Radiumtrinkbechers bedarf nach heutigen Regelungen einer strahlenschutzrechtlichen Genehmigung. ...
Ein „starker“ Radiumtrinkbecher mit 2 Megabecquerel Radium verursacht in einem Meter Abstand eine Strahlungsintensität (Dosisleistung) von 0,5 Mikrosievert pro Stunde (zum Vergleich: die durchschnittliche natürliche Strahlungsintensität in Deutschland liegt bei etwa 0,1 Mikrosievert pro Stunde).
Bad Elster. Marienquelle u. Radiumbrunnen
- Um die Erkennbarkeit des Zifferblattes von Uhren auch bei Dunkelheit zu gewährleisten, werden lumineszierende Farben verwendet, die von einer radioaktiven Substanz zum Leuchten angeregt werden.
- Bis in die 1960er Jahre wurden Radium (Ra-226)- und Promethium (Pm-147)-haltige Leuchtfarben, bis Mitte der 1990er Jahre mit Tritium angereicherte Farben, verwendet.
- Seit einigen Jahren verwendet man in Uhren jetzt Tritium-Gaslichtquellen. Bei der bestimmungsgemäßen Benutzung der Uhren ist die individuelle effektive Dosis in der Regel deutlich geringer als 0,1 µSv pro Jahr.
Seit einigen Jahren verwendet man in Uhren jetzt Tritium-Gaslichtquellen. Das sind kleine, mit Tritiumgas gefüllte Glasröhrchen (englisch GTLS = "Gaseous Tritium Light Sources"), deren Innenseite mit einer speziellen phosphoreszierenden Farbe beschichtet ist, die von der Betastrahlung des Tritiums zum ständigen Leuchten angeregt wird. Erkennen kann man diese Uhren unter anderem durch die Kennzeichnung H3, T oder T25 auf dem Ziffernblatt
Das metallische Uhrgehäuse beziehungsweise Uhrglas wirkt zu dem Glas der Röhrchen zusätzlich als Abschirmung. Das Wandmaterial der Röhrchen ist wesentlich undurchlässiger für Tritium als das frühere Kunststoffgehäuse. Bei Annahme der Zerstörung einer Uhr mit circa 1 GBq, bei der alle Tritiumquellen zerbrechen, würde die Inhalation des Tritiums eine Dosis von etwa 20 µSv ergeben.
Zur Messung radioaktiver Strahlung gibt es eine Hand voll Einheiten, die unterschiedliche Fragen beantworten und deren Kenntnis wichtig ist, um Radioaktivität einschätzen und anwenden zu können.
Aktivität
Die Menge eines radioaktiven Stoffes und wie stark er strahlt, wird durch die Aktivität angegeben. Die Einheit für Aktivität ist das Becquerel. Die Aktivität in Bequerel gibt an, wie viele Atome eines radioaktiven Stoffes pro Sekunde zerfallen. Damit ist die Aktivität eine bestimmten Nuklids eine Einheit für die Menge dieser radioaktiven Stoffe. Wie wahrscheinlich es ist, dass ein einzelnes Atom innerhalb der nächsten Sekunde zerfällt, wird durch die Halbwertszeit dieses Nuklids angegeben. Für eine große Menge von Atomen ist die Anzahl der Zerfälle in einer Sekunde bestimmt durch die Zerfallswahrscheinlichkeit eines einzelnen Atoms multipliziert mit der Anzahl der Atome. Diese Rechnung ergibt die Aktivität.
Die Aktivität einer radioaktiven Probe wird in der Regel zusammen mit dem zerfallenen Nuklid und der Masse der Probe angegeben. Man sagt also zum Beispiel: Die Probe enthält 300 Becquerel Jod-131 pro Kilogramm. Oder in Formeln: 300 Bq/kg Jod-131. Die Angabe des Nuklids ist wichtig, weil sie Auskunft über die Art der Strahlung (Alpha, Beta oder Gamma), über die Energie der Strahlung und über die zu erwartende Abklingzeit gibt.
Dosisleistung
Möchte man die Schäden abschätzen, die durch radioaktive Strahlung in Materialien entstehen können, so reicht die Angabe der Aktivität nicht. Wichtiger ist, wie viel Energie durch die Strahlung in dem Material deponiert wird. Die Energie, die pro Zeiteinheit in einer bestimmten Stoffmenge deponiert wird, wird als Dosisleistung bezeichnet. Dosisleistung misst man in Joule pro Kilogramm und Sekunde. Es gibt keine eigene Einheit für die Dosisleistung, man behilft sich mit der Einheit für die Dosis und gibt die Dosisleistung in Gray pro Sekunde an.
Welche Dosisleistung ein Stoff mit einer bestimmten Aktivität in einem Material verursacht, hängt nicht nur von seiner Aktivität ab. Es geht außerdem ein, wie Wahrscheinlich es ist, dass ein einzelnes Strahlungsquant im Material absorbiert wird und wie groß die Energie solch eines Strahlungsquants ist.
In der medizinischen Strahlenphysik interessiert man sich nicht in erster Linie für die Energie, die im Körper deponiert wird, sondern für die angerichteten biologischen Schäden. Radioaktive Strahlung kann die Erbinformation schädigen und Krebs auslösen. Verschiedene Arten und Energiebereiche der Strahlung schaden dem Körper unterschiedlich stark. Deshalb muss man die Dosisleistung, wenn es um die Bestrahlung von Menschen geht, mit einem biologischen Faktor gewichten. Die gewichtete Dosisleistung wird als Äquivalentdosisleistung bezeichnet und in Sievert pro Sekunde gemessen. Die Äquivalentdosis gibt an, wie stark gewebeschädigend eine Strahlung ist und wird deshalb normalerweise im Strahlenschutz verwendet.
Da ein Sievert pro Sekunde schon eine sehr gefährliche Bestrahlung wäre und zum Glück kaum vorkommt, werden meistens Mikrosievert pro Sekunde (µSv/s) angegeben. Für praktische Zwecke sind längere Zeiträume interessant. Bei Aufenthalt in Gebieten mit höherer Strahlenbelastung wird man sich eher für die Zeiträume von Stunden interessieren und die Einheit Mikrosievert pro Stunde (µSv/h) verwenden.
Dosis
Die über die Zeit aufaddierte Dosisleistung an einem Körper ergibt die Dosis. Diese wird in Joule pro Kilogramm gemessen. Die Einheit dafür ist das Gray oder, wenn es sich um die Äquivalenzdosis für biologische Schäden handelt, das Sievert.
Veraltet sind die Einheiten rad und rem. Die Umrechnung ist einfach: Hundert rad sind ein Gray, hundert rem sind ein Sievert.
Die Dosis anzugeben ist bei einmaligen Vorgängen, wie Röntgenuntersuchungen und Flugreisen sinnvoll. So gibt das Bundesamt für Strahlenschutz an, dass eine Flugreise von Frankfurt nach San Francisco eine Dosis von 45 bis 110 Mikrosievert (µSv) ergibt. Die Dosis einer einzelnen Röntgenuntersuchung hängt stark von den Details der Untersuchung ab. Eine Röntgenuntersuchung des Brustkorbs entspricht etwa 50 Mikrosievert, ein Computertomogramm (CT) 8 Millivievert (8mSv=8000µSv). Durchschnittlich beträgt die effektive Dosis durch Röntgenuntersuchungen pro Bürger und Jahr 1,6 Millisievert (mSv).
Jahresdosis
Als Einheit für die Jahresdosis wird formal dieselbe Einheit benutzt, wie für die Dosisleistung: Millisievert pro Jahr (mSv/a). Allerdings ist die Umrechnung hier mit Vorsicht zu genießen, da die Bestrahlung nicht konstant ist und so nur eine durchschnittliche Dosisleistung herauskommt, die keine große Aussagekraft hat. Bei beruflicher Strahlenexposition geht man in der Regel nicht von täglich 25 Stunden Bestrahlung aus, sondern von 50 Arbeitswochen von je 40 Stunden.
Die natürliche Strahlenbelastung liegt etwa bei 2mSv/a, ist aber stark von Wohnort und Lebensgewohnheiten abhängig.
Für beruflich mit radioaktiver Strahlung arbeitende Personen gibt es eine maximale Dosis von 20 Millisievert pro Jahr, in den USA 50 Millisievert. Ab 100 Millisievert kann ein erhöhtes Krebsrisiko statistisch nachgewiesen werden, klinisch direkt nachweisbare Strahleneffekte gibt es ab 250 Millisievert, das ist ein viertel Sievert.
Für nicht beruflich strahlenexponierte Personen gibt es keinen Grenzwert für die zulässige Dosis. Bestrahlung ist grundsätzlich so gering wie möglich zu halten.
Hier noch eine kleine Umrechnungstabelle:
1 Gray (Gy) = 100 Rad
1 Rad = 10 Milligray (mGy)
1 Sievert (Sv) = 1.000 Millisievert (mSv) = 1.000.000 Microsievert (μSv)
1 Sievert = 100 Rem
1 Becquerel (Bq) = 1 count per second (cps)
1 Curie = 37.000.000.000 Becquerel = 37 Gigabecquerel (GBq)
Röntgenstrahlung (x-rays) und Gammastrahlung: 1 Rad = 1 Rem = 10 mSv
Neutronenstrahlung: 1 Rad = 5 bis 20 Rem (abhängig vom Energielevel) = 50-200 mSv
Alphastrahlung (Helium-4-Kerne): 1 Rad = 20 Rem = 200 mSv
Prepared by the U.S. Department of Energy,National Nuclear Security Administration Nevada Field Office Las Vegas, Nevada
DIE EFFEKTE BEI EINER THERMONUKLEAREN EXPLOSION SIND SEHR HÖHENABHÄNGIG
Über 30 Jahre Forschung für zivile Applikationen ( the peacefull item ) und entsprechende Sicherheitsstandards, was die mechanische Wirkung angeht, wurden entwickelt.
NUKLEARES INGENIEURSWESEN
Operation_Plowshare_and_Project_Chariot_Civil_Nuclear_Excavation_For_Civil_Purposes_1957-1962.pdf
" OPERRATION PLOWSHARE "
1962
Die ersten drei zerstörerischen Faktoren einer typischen Kernexplosion, existieren im unterirdischen Fall minimiert. Z. B. Eingebunden in Granit:
- The Thermal Radiation - die Thermische Strahlung
- The Air - blast wave - die Luftdruckwelle
- Ionizing radiation - die Ionisierende Strahlung
(Ionisierende Reststrahlung bleibt jedoch vorhanden und führte im Fall des 11. September 2001 dazu, dass sich viele beteiligte der Bergungstrupps und z. B. Detective John Wallcott, einer Knochenmarkstransplantation unterziehen mussten, aufgrund von einer Myeloischen Leukämie)
4.) Radioactive contamination - Geringe radioaktive Kontamination
(lagert sich substanziell minimal am tiefsten Punkt ab, bzw. entweicht als Dampf im gasförmigen Aggregatszustand oder wird vom verflüssigten Gestein absorbiert)
5.) Electro - magnetic pulse (EMP) - Elektromagnetische Impuls.Temperaturen von über 8000°C. Vulkanisches Glas setzt sich ab, geschmolzener und wieder erstarrte Granit. Es entsteht eine Versiegelung.
In den USA, aber auch in der ehemaligen UdSSR, wurde diese Technologie als (Storage) Erdgas Reservoirs genutzt.
Peaceful Nuclear Explosions Treaty (PNEs) / 100 times minimized radiation release for civilian purposes in 1962 Operation Plowshare.
"100-fache" Reduktion der Strahlungsfreisetzung für zivile Zwecke, war bereits 1962 realisiert.
Die mechanischen Effekte eine unterirdischen Thermonuklearen Explosion und deren Verwendung im Modul " Atomaren Aushubes " bedeutet Nukleare Zertrümmerung der Substanz bis in den Nanometerbereich ohne nennenswerten Nuklearen Fallout. Dabei ist es gleichgültig um welche Substanz es sich handelt. Alles wird pulverisiert.
DIESE VIDEOSEQUENZEN AUS KALIFORNIEN SIND DER BEWEIS, WELCHER NICHT TRANSPARENTER SEIN KÖNNTE
( OPERATION PLOWSHARE ) NUKLEARE EXPLOSIONEN FÜR ZIVILE APPLIKATIONEN ( A PRACTICAL EXCAVATION TOOL )
https://www.state.gov/t/isn/5182.htm
The Plowshare tests shown in the "Nuclear Excavation" portion of the video include: SEDAN, July 6, 1962, NTS, 104 kilotons (kt) TNT Äquivalent, SULKY, NTS, December 18, 1964, 92 tons CABRIOLET, NTS, January 26, 1968, 2.3 kt BUGGY-A, BUGGY-B, BUGGY-C, BUGGY-D, and BUGGY-E, March 12, 1968, NTS, five simultaneous (gleichzeitige) detonations, separate holes, 1.08 kt (each) SCHOONER, NTS, December 8, 1968, 30 kt.
Peter Kuran - declassified video - footage
DIE EFFEKTE BEI EINER THERMONUKLEAREN EXPLOSION SIND SEHR HÖHENABHÄNGIG
Über 20 Jahre Forschung für zivile Applikationen (the peacefull item) und entsprechende Sicherheitsstandards, was die mechanische Wirkung angeht, wurden entwickelt.
Allein die Amerikaner ließen bis zum internationalen Abkommen zum Verbot oberirdischer Atomtests im Jahr 1963 über 200 Atom- und Wasserstoffbomben (Thermonukleare Explosionen) in der Atmosphäre detonieren. Kameramänner und Fotografen eines eigens dafür etablierten geheimen Spezialkommandos zeichneten diese Atomtests auf.
Doch die meisten Aufnahmen gelangten nie an die Öffentlichkeit.
Die Arbeit dieser Leute war so geheim, dass lange niemand wusste, wer sie überhaupt waren. Bis heute sind die meisten dieser Aufnahmen unter Verschluss. Nur Militärphysiker durften die Bilder analysieren. Immer noch zögert die US-Regierung, die Aufnahmen komplett freizugeben.
Hier findet sich ein Zusammenschnitt der wichtigsten Sequenzen des Moduls Nuklearer Tests für zivile Applikationen.
Schaubild aus den 60er Jahren / Project Sedan - Operation - Plowshare 1962
Nuclear Excavation, Excavating with nuclear Explosives - "Operation "Plowshare" U.S. Department of Energy - Nevada Operations Office
OPERATION PLOWSHARE - SEDAN PROJECT 1962
MINING -> APPLICATION FOR NUCLEAR EXCAVATIONS
PRODUCTION OF USEFULL -> ISOTOPES & POWER
NEVADA 1957
1974-1976: The United States and the Soviet Union conclude the Threshold Test Ban and Peaceful Nuclear Explosions Treaties limiting military and non-military underground tests to explosive yields below 150 kilotons. However, they continue to design, develop and produce new weapons. It is not until 1990, after a stronger verification protocol is negotiated, that both treaties enter into force.
https://goo.gl/maps/Zh8c3U2rTnK2
Nach Plowshare / Sedan war ein Stadium erreicht, das den Weg für zivile Applikationen eröffnete. Nukleares Engineering für zivile Zwecke.
Gesteinsart | Spezifische Menge an Verdampftem Material (in Tonnen/kt Sprengkraft) | Spezifische Menge an geschmolzenem Material (in Tonnen/kt Sprengkraft) |
Trockener Granit | 69 | 300 (±100) |
Feuchter Tuff (H2O-Gehalt: 18-20%) | 72 | 500 (± 150) |
Trockener Tuff | 73 | 200 - 300 |
Schlick | 107 | 650 (±50) |
Steinsalz | 150 | 800 |
https://2009-2017.state.gov/t/isn/5182.htm#treaty
LAWRENCE LABORATORY RADIATION
Evidence which explains that controlled underground Nuclear explosions could be carried out with minimal radioactive fallout to the surrounding area for peaceful purposes. Sedan & Plowshare - Project.
Beweise, die erklären, dass kontrollierte unterirdische Atomexplosionen mit minimalem radioaktivem Niederschlag in die Umgebung für zivile Zwecke durchgeführt wurden. Strontium 90, 1962 ff.
Allein die Amerikaner ließen bis zum internationalen Abkommen zum Verbot oberirdischer Atomtests im Jahr 1963 über 200 Atom- und Wasserstoffbomben (Thermonukleare Explosionen) in der Atmosphäre detonieren. Und in der Californischen Wüste (Desert of California) 824 unterirdische Thermonukleare Explosionen. Nevada national security side:
https://goo.gl/maps/Zh8c3U2rTnK2
(Bitte den Zoom minimieren und herausscrollen, um ein größeres Areal einsehen zu können)
Die Gefahr radioaktiver Kontamination (höherer Strahlungswerte), bestand laut Wissenschaftler nicht mehr. Der grundsätzliche Unterschied zwischen beiden Bombentypen liegt in ihrer Funktionsweise. Während bei einer herkömmlichen Atombombe Atomkerne (235 Uran oder 239 Plutonium) gespalten werden (Fission), wodurch Energie und radioaktive Strahlung freigesetzt werden, werden bei Wasserstoffbomben Atomkerne (Deuterium, Tritiumm) miteinander Verschmolzen (Fusion) wodurch potenziell mehr Energie freigesetzt wird. Der radioaktive Fallout einer Wasserstoffbombe rührt lediglich vom verwendeten Zünder, einer meist kleinen Atombombe her. Je kleiner der Zünder, desto geringer die freigesetzte Strahlung.
Das Material, welches beim Operation Plowshare Test, Gnome, am 10.12.1961, New Mexico, eines 3.1 kt Thermonuklear Device --> Äquivalent: 3100 t TNT. Das durch die Sprenung zurück gebliebene lose Material, des so entstandenen unterirdischen "neuen Labors", unterschied sich rein äußerlich nicht vom anderen Material, obwohl es im Nanometer Bereich pulverisiert wurde.
Übte man jedoch leichten Druck auf die Materie aus, so zerfiel sie zudem, zu was sie eigentlich bereits reduziert wurde, jedoch augenscheinlich noch nicht war:--> STAUB / DUST
IM VIDEO AN STELLE 22:25 min. ff. _Nukleare Zertrümmerung ohne Nuklearen Fallout
By digging tunnels deep in the explosion region ... 22:25 min ff. (tests) various types of rock e.g. granit ... Tests mit diversen Gesteinsformationen ... Beim Graben von Tunnel tief in die Explosions - Region... Diese Explosionsregionen wurden später zu unterirdischen Laboren ausgebaut.
PEACEFULL NUCLEAR EXPLOSIONS DECLASSIFIED NUCLEAR TESTFILM #35
Dieser Umstand wurde auch im Modell von Dimitri Khalezov, der seinerzeit in der UdSSR tätig, war entsprechend erwähnt und deckt sich mit den damals erstellten Videos von ATOMCENTRAL/Californien
Color footage of soldiers being exposed to "high" levels of radiation
Peaceful Nuclear Explosions Treaty (PNEs) / minimize radiation release for civilian purposes
"100-fache" Reduktion der Strahlungsfreisetzung für zivile Zwecke, war bereits 1962 realisiert.
___________________________________________________________________________________________
Der Klimaschwindel als gezielte, gesteuerte Lüge
Die einflussreichsten Hintergrundorganisationen
Der Club of Rome (Rockefeller Organisation, eine mächtige NGO)
eine weitere Denkfabrik für die Weltregierung, steht hinter der Idee die Globale Erwärmung als Propagandamittel zu benutzen, um die Menschen weiter unter Kontrolle zu halten und einen weiteren "Grund" für die Einführung globaler Organisationen zu haben. Wir sagen es hier vorraus: Die Politiker werden sagen, dass die Globale Erwärmung ein globales Problem ist und deswegen auch eine globale Lösung braucht.
Außerem wird man eine Steuer auf CO2 einführen.
Der Club of Rome schrieb in einem Bericht mit dem Titel "The First Global Revolution" von 1991 folgendes:
"In unserem Streben nach einem neuen Feind, um uns zu vereinen, kamen wir auf die Idee, dass die Verschmutzung, die Bedrohung der globalen Erwärmung, Wasserknappheit, Hungersnöte und Ähnliches in der Rechnung passen würden, …. All diese Gefahren werden durch menschliche Intervention verursacht… Der wahre Feind ist somit die Menschheit an sich."