AG Umwelt/FAQs

Aus Piratenwiki Mirror
< AG Umwelt
Version vom 9. Februar 2013, 11:57 Uhr von imported>Wiskyhotel
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

== die AG Umwelt betreibt jetzt die Ressortseite ==

http://umweltpolitik.piratenpartei.de

Webseite des Ressorts Umwelt-, Energie-, Verkehrs- und Landwirtschaftspolitik der Piratenpartei Deutschland
mit.



zu den alten Inhalten:

Wikiseiten und thematische Aussagen sind in der Entstehung und ändern sich noch ständig. Wir bitten dies zu beachten.


Auf dieser Seite erarbeiten wir häufig gestellte Fragen zu Arbeiten der AG Umwelt

Begriffsverwendung regenerative, generative und endliche Ressourcen

Wir bezeichnen Energiequellen die sich durch Nutzung nicht abnutzen (Wind, Wasser, Solar, Geothermie) als "generativ" um diese von Quellen abzugrenzen die nachwachsen müssen (regenerativ).

endliche Ressourcen

  • Fossile Rohstoffe, Erze, Phosphate, Silizium, Lithium
    • Fossile Rohstoffe: Öl, Kohle, Gas
    • Erze: Ein Erz ist ein Mineral, das aufgrund seines Metallgehaltes bergmännisch abgebaut wird [13], wie bspw. Uran, Eisen

regenerative/erneuerbare Ressourcen

  • nachwachsende Rohstoffe: Biomasse (Pflanzen, Tiere)
  • erneuerbare Ressourcen: Trinkwasser, Papier
  • vorrangig auf erneuerbaren/regenerativen Ressourcen basierende Energien (Biomasse-Energie): Biokraftstoffe (Agrosprit) - Bioethanol (Zuckerrohr, Mais) oder Pflanzenöle (Raps, Ölpalmen), Biogas

generative Ressourcen

  • unendliche/generative Ressourcen: Wasser, digitale Daten
  • vorrangig auf unendlichen/generativen Ressourcen basierende Energien: Wind-, Wasser-, Solar-Energie, Energie aus Geothermie

rationale Ressourcenverwendung

  • endlich: extrem sparsam, geschlossene Kreisläufe
  • regenerativ: Regenerationszyklen einhalten
  • generativ: expansiv, verschwenderisch

Referenzen

  • wissenschaftliches Paper zur Ressourcentheorie [1]
  • Diskussionsteil zur Ressourcendefinition [2]
  • Diskussion im Piratenpad [3]

Frage: Sollten wir den Begriff regenerativ nicht so verwenden wie allgemein üblich?

Wiktionary kennt zwei Bedeutungen von "generativ": http://de.wiktionary.org/wiki/generativ
[1] auf das Fortpflanzungsverhalten bezogen
[2] Linguistik: auf die Erzeugung von Sätzen bezogen

Antwort: Die Verwendung des Begriffes über "Vermehrung" hinaus ist nicht gebräuchlich. Die Unterscheidung des Begriffes stammt aus einer akademischen Veröffentlichung der TU Chemnitz[1] zur Neueinführung von "generativ" als weitere Differenzierung von "endlich" und "regenerativ" in "endlich", "generativ" und "regenerativ".


Das eigtl. Problem, laut dieses Papers, ist das Wort "regenerativ", was dementsprechend "WiederFortpflanzung" oder etwas in der Art bedeuten müsste, was natürlich ohne viel Phantasie Unsinn wäre. Regenerativ bzw. regenerierbar steht auch nicht im wiktionary.


allgemeine Überlegung "Pro" Das Paper der TU Chemnitz betrachtet die Problematik in der Begrifflichkeit im Wort regenerieren. "Regenerieren", was der Ursprung des Wortes "regenerativ" ist, bedeutet "aus eigener Kraft wiederherstellen" (http://de.wiktionary.org/wiki/regenerieren"). Dies bedeutet also etwas wurde in irgendeiner Art beeinträchtigt und braucht nun einen Regenerationszyklus, um sich zu erholen/ wieder herzustellen. Dies angewandt auf die Betrachtung von Ressourcen, bedeutet, dass man zu regenerativen Ressourcen Dinge wie Wälder (Holz), Fischbestände, Trinkwasser, Biomasse (Palmöl) für Energieerzeugung usw. zählt.

"Generieren", was der Ursprung des Wortes "generativ" ist, bedeutet "automatisch erzeugen" (http://de.wiktionary.org/wiki/generieren). Dies bedeutet also etwas braucht keinen Regenerationszyklus, um sich zu erholen, sondern erzeugt sich auch so immer weiter automatisch selbst, völlig unabhängig davon, wie sehr man es nutzt, wie bspw. Sonnenenergie, Wasserkraft, Geothermie etc. oder auch einfach wie die wichtigste Ressource überhaupt: unser Wissen.

Die genaue Unterscheidung ist für die Verwendung der Ressourcen jedoch von großer Bedeutung, weshalb wir hier unbedingt als Partei auch nicht die übliche falsche Pauschalisierung von regenerativen Ressourcen, bei denen alles miteinander vermengt wird übernehmen und selbst die vermeintlich bessere Alternative weiterverbreiten sollten und somit auch jedem klar machen, dass regenerative Ressourcen nur unter bestimmten Bedingungen, die wir unbedingt einhalten müssen, auch unendlich nutzbar sind.

Die Unterscheidung in diese 3 Ressourcentypen entstammt der betriebswirtschaftlichen Betrachtung. Man könnte Ressourcen auch anders unterscheiden, für die betriebswirtschaftliche Betrachtung, also wie sollte man mit welchen Ressourcen wirtschaften, erscheint diese Unterscheidung bisher jedoch als zielführendste.


allgemeine Überlegung "Contra" Eine Bedeutungsbeschneidung eines sehr häufig genutzten Wortes (regenerativ) ist das Ziel dieser Abstimmung - und dazu dann die Einführung eines zweiten Begriffs, der diese beschnittene Teilbedeutungen übernimmt.

Das kaum zu lösende Problem in der Anwendung ist die Tatsache, dass heute alle erneuerbaren, regenerativen Energien nun mal regenerativ genannt werden. Einschließlich Sonne, Wind und Geothermie.

Wenn in Zukunft in Pressemeldungen der Piraten von 'regenerativen' Energien die Rede ist, müsste jedesmal die Erklärung angefügt werden, dass damit nun nicht mehr Sonne, Wind und Geothermie gemeint sind, sondern nur noch Biomasse.

Die Bedeutung des Begriffs "regenerative Energien" wird in der Bevölkerung bislang so verstanden, dass gerade Windkraft und Solarenergie darin eingeschlossen sind, wenn man von regenerativer Energie spricht.

Das zu ändern ist Ziel dieses Antrags - und das ist dazu nicht selbsterklärend.

Eine Abstimmung innerhalb der Piratenpartei wird dieses Verständnis in der breiten Bevölkerung ganz sicher nicht einfach drehen. Das bedeutet, dass bei jeder Verwendung erst einmal mehrere Sätze der Erklärung nötig werden. Und wer glaubt, dass das nach ein paar Interviews dann schon gelernt wird, der hat keine Ahnung von Aufmerksamkeit für solche akademischen Randdiskussionen in der Bevölkerung.

Die Problematik ist nicht die Einführung des Begriffes generativ - die Beschneidung der Bedeutung des Begriffs regenerativ ist das Problem. Die Problematik in der Verwendung dieses Begriffes ist die Fortsetzung der akademischen Diskussion zu dieser Unterscheidung im politischen Alltag. Das erscheint ziemlich problematisch.


Sinn von Wäldern/(Wieder)Aufforstung

Neben der Speicherung von Süßwasser und CO2 tragen Wälder zur Erhaltung der Wasserkreisläufe und zum Aufbau von Bodenstruktur/ Humus bei, welche der zunehmenden Wüstenbildung entgegenwirkt und dabei hilft Flächen für uns und alle anderen Bewohner dieses Planeten (wieder) nutzbar zu machen.

Der Wald ist zum Einen ein wesentlicher Wirtschaftsfaktor gerade für die lokale Bevölkerung, zum Anderen ist er die Heimat vieler Tier- und Pflanzenarten. Sollte die Artenvielfalt weiter im gleichen Tempo reduziert werden, sind die Schäden für uns Menschen kaum absehbar. [1][2]

Nach Schätzungen werden weltweit jährlich etwa 13 Millionen Hektar Wald vernichtet, was etwas mehr als einem Drittel der Fläche Deutschlands entspricht. [3]

[1] http://www.spiegel.de/wissenschaft/natur/0,1518,683672,00.html
[2] http://www.spiegel.de/wissenschaft/natur/0,1518,661068,00.html
[3] http://de.wikipedia.org/wiki/Tropischer_Regenwald#Ursachen_und_Ausmaß

Klima

Allgemeines

Das Klima beeinflusst unsere Umwelt in einem wesentlichen Maße. Wenn wir unsere Umwelt in unserem Sinne schützen möchten müssen wir versuchen, dass sich das Klima und damit unsere Umwelt in keine für uns gefährliche Richtung verändert.

Die Klimawissenschaftler weltweit haben zusammengetragen, dass ein Klimawandel stattfindet und wir diesen durch den hohen Eintrag von Treibhausgasen in die Atmosphäre vorantreiben. Die Ergebnisse finden sich in den Sachberichten der IPCC [1], wobei bereits bekannt wurde, dass verschiedene Regierungen, darunter die USA und China eine abschwächenden Einfluss auf den Inhalt des 4. und bisher letzten Sachstandsbericht genommen haben. [2]

Weiterhin wurden kleinere Fehler in den Berichten entdeckt. Da der Bericht jedoch eine Vielzahl voneinander unabhängiger Studien enthält, ändern "Schlampereien" in einzelnen Studien nicht die Gesamtaussage, welche sich zum Wesentlichen aus den Aussagen der vielen davon unabhängigen Studien ergibt.

Davon abgesehen gibt es eine Reihe von "Skeptikern", die eine Verschwörungstheorie hinter dem Klimawandel sehen. Auf den folgenden Seiten, wurden deshalb die von den "Skeptikern" aufgestellten Behauptungen, wie "es gibt keinen Klimawandel", "wenn es einen geben würde, dann ist er nicht so schlimm", "wenn es einen geben würde dann ist er nicht anthropogen, also vom Menschen verursacht", "wenn es einen geben würde und er wäre schlimm, dann können wir eh nichts tun", usw. im Einzelnen widerlegt:

Temperaturveränderungen

Temperaturanstieg ("Hockeystick")

Frage: Was sagt ihr zum sogenannten "Hockeystick"-Temperaturanstieg

Antwort: Es gibt mittlerweile einige andere Temperaturreproduktionen, welche die gleiche Aussage wie der Hockey-Stick treffen. Der IPCC Bericht von 2007 widmet sich explizit diesem Thema: Diagramm aus dem IPCC 2007.

Die von 2004 stammenden Behauptung von "von Storch" dass die Methodik von Mann (Hockeystick) nicht stimmt (http://www.sciencemag.org/content/306/5696/679.full, und zwei weitere Versuche), ist wiederlegt worden:

--VolkerJaenisch 20:56, 15. Dez. 2011 (CET)

Stagnation der Temperatur seit 10 Jahren

Frage: Die globalen Temperaturen stagnieren oder sinken seit zehn Jahren? Dies wurde vom IPCC nicht vorhergesehen, also ist der IPCC falsch!
Antwort: Die Stagnation oder der Zurückgang der Temperatur geht auf den 60 Jahreszyklus zurück. Dieser Zyklus ist in diesem Diagramm http://berkeleyearth.org/analysis/ als Rückgang der Temperatur 1820, 1880, 1940 und etwas verspätet kurz nach 2000 zu sehen.

Dieser Zyklus ist schon lange bekannt und er wird sich auch in der Zukunft wiederholen und zwar so lange wie es Sonne und Meer (und die aktuelle Landmassenverteilung) gibt. Einen Zyklus zeichnet aber aus, dass er wieder dort landet wo er angefangen hat. 1820 ging es für etwa 10-15 Jahre runter und dann wieder rauf, ohne dann aber einen weiteren Erwärmungstrend zu zeigen. 1860 ging es runter um dann bis 1940 um rund 0.5 Grad anzusteigen. Dann 1940 nach einem leichten Rückgang der Temperatur bis etwa 1980 stieg sie danach rapide an um beinahe 1 Grad bis 2000. Dem Zyklus ist also ein Trend überlagert. Ein Zyklus kann nicht für einen Trend verantwortlich gemacht werden, der länger ist als die Periodendauer. Dieser Trend beträgt etwa 1 Grad pro Jahrhundert und resultiert nicht aus einer natürlichen Ursache sondern aus dem anthropogenen Klimawandel. Der IPCC Bericht von 2007 hat im Übrigen diesen Abwärts-Trend vorhergesagt. Schon Anfang 2011 wurde ein aktueller Vergleich zwischen der IPCC-2007 Vorhersage und den aktuellen Messdaten (bis einschließlich 2010) gemacht. [1] Man sieht, dass im vom IPCC-2007 projizierten Ensemblemittel (schwarze Kurve) durchaus eine Stagnation (2008) und sogar ein gewisser Rückgang (2009) der Temperatur zu sehen sind. Weiterhin ist die Abweichung der Messwerte 2008 nach unten, etwa so groß wie die Abweichung der Messwerte 1998 nach oben. Alle Abweichungen der gemessenen Temperaturen vom Ensemblemittel der 2007er Projektion liegen innerhalb der 95% Percentile der Modellläufe, und sind damit in keinerlei Widerspruch zum Modell.

Ein aktuelles Paper zeigt sehr klar, dass die aktuelle Stagnation der Temperatur auf natürliche Ursachen (Multidekadische Oszillation, ENSO, Vulkane) zurückgeht. Rechnet man diese gut bekannten Faktoren aus der Globaltemperatur heraus sieht man, dass der anthropogene Klimawandel unvermindert seit 1979 voranschreitet. Eine Besprechung des Papers mit Grafiken gibt es hier [3] und hier [4]:

--VolkerJaenisch 19:25, 28. Dez. 2011 (CET)


Frage: Wieso ist der aktuelle Rückgang der Temperatur größer als der Ensemble-Mittelwert der IPCC 2007 Projektion. [1] Antwort: Zum einen haben wir in den letzten Jahren nach einer Zeit der Ruhe wieder eine nennenswerte Vulkanaktivität, welche vom IPCC nicht vorhersagbar war. [2] Der zweite Faktor der diese temporäre Abkühlung hervorruft ist die schwache solare Aktivität. Die Sonne ist im 24. Sonnenzyklus spät dran Gas zu geben, nimmt aber jetzt doch noch Fahrt auf. [3] Die Lücke zwischen Zyklus 23 und 24 dauerte 5 Jahre mit unter 30 Sonnenflecken. Im Vergleich dazu war die Lücke zwischen 22 und 23 mit nur 3 Jahren unter 30 Sonnenflecken deutlich kürzer. Zeitweilig gab es zwischen 23 und 24 überhaupt keine Sonnenflecken. Trotzdem stehen uns nun einige Jahre mit vielen Sonnenflecken ins Haus, wenn auch nicht so viele wie im Zyklus 21 und 22. Die Verzögerung mit der das Klima auf die erhöhte solare Aktivität reagiert ist 2,2 +-2 Jahre [4]. Also sollte es spätestens 2014 wieder stark nach oben gehen mit der Globaltemperatur. Wahrscheinlich wird aber der 25-zigste Sonnenzyklus wohl auch nicht so stark werden. Sonnenforscher gehen davon aus, dass sogar eine Stagnation des solaren Zyklus in den nächsten Jahrzehnten eintreten könnte [5]. Es könnte sein, dass erneut ein Maunder-Minimum, wie zur Zeit der kleinen-Eiszeit auftreten wird. Es ist nicht ganz klar, was die kleine Eiszeit ausgelöst hat. Nach der aktuellen Theorie, werden die Sonne (Maunder-Minimum), abkühlender antropogener Einfluss (Ausrotten der Indianer und Wiederbewaldung Amerikas, dadurch Binden von 5 Gigatonnen <math>CO_2</math>) und Vulkanausbrüche in gemeinsamer Wirkung angenommen. Selbst wenn jetzt ein Maunder-Minimum auftreten würde, so würde doch zumindest die aktuell aufheizende antropogene Komponente dazu führen, dass der Temperaturanstieg, wenn auch gebremst weitergehen würde. --VolkerJaenisch 19:25, 28. Dez. 2011 (CET)

Frage: Man kann hier http://www.klimanotizen.de/assets/images/2001._Glaser_Klimageschichte_Mitteleuropas_Temperaturen_Niederschlaege_2_1.jpg sehen, dass es heute (bis zum Jahre 2000) nicht viel anders ist, als im Mittelalter. Danach sinken sogar die Temperaturen in Deutschland.
Antwort: Diese Grafiken basiert auf überholtem Daten: Die Kurve geht nur bis 2000. Die Kurve ist noch dazu keine Primärquelle sondern ein Buch ohne eindeutige Angabe der Primärquelle.

Diese Kurven sind dagegen Primärquellen zum Temperaturverlauf:

Auf Seite 467 ist das braune Diagramm zu sehen. Dies ist die Überlagerung aller bekannten globalen Temperatur-Rekonstruktionen der letzten 1000 Jahre. Dort sieht man definitiv _nicht_ was einige Skeptiker in den lokalen Temperaturentwicklungen zu sehen glauben. Dort ist zu sehen, dass das Klima sich ganz gemächlich von etwa 1000 bis 1850 abkühlt mit etwa 0.2 Grad pro 800 Jahre, also etwa 0.025 Grad pro 100 Jahre. Danach steigt die Globaltemperatur binnen 100 Jahren um +1 Grad.

Ein Ansteigen (oder ein Abfallen) in dieser Größenordnung gibt es auf der gesamten Skala von 600 bis heute nicht. Es gibt um 1000, 1450, 1560, 1800 ähnlich schnelle Veränderungen, welche aber nur rund 0.3 Grad Veränderung bewirken. Diese sind gut erklärt über große Vulkanausbrüche (siehe Seite 477) --VolkerJaenisch 19:25, 28. Dez. 2011 (CET)

lokale “Gegenbeweise”

Frage: Die Temperatur ist aber im Gegensatz zu den Aussagen des IPCC am Ort X, oder im Land X in der letzten Zeit genauso/höher/niedriger/gesunken/gestiegen?
Antwort: Es gibt aber nur einen globalen Klimawandel: Es gibt sowohl globale Temperatur-Messungen als auch globale Temperatur-Rekonstruktionen der letzten rund 1000 Jahre. Veränderungen in diesen globalen Temperatur-Verläufen bedeuten nicht, dass an allen Stellen der Erde eine ebensolche Temperaturveränderung erfolgt (ist). Es gibt Stellen auf der Erde z.B. wahrscheinlich in der Antarktis, welche trotz der globalen Erwärmung kälter werden. Es ist auch so, dass sich die obere Atmosphäre (Stratosphäre und darüber) abkühlt, während sich die unteren Schichten Grenzschicht, Troposphäre durch den Klimawandel erwärmen.

  • Der Klimawandel ist nur auf globaler Skala erfassbar.
  • Er ist daher also auch nicht mit lokalen "Gegenbeweisen" weg zu diskutieren.

--VolkerJaenisch 19:25, 28. Dez. 2011 (CET)

Anteil <math>CO_2</math> in der Atmosphäre

Frage: Der <math>CO_2</math> Anteil in der Atmosphäre beträgt 0,038%. In den letzten 100 Jahren haben angeblich die Menschen den <math>CO_2</math> Anteil von 0,031% auf 0,038% erhöht. Vernachlässigt man, die ungenauen Messergebnisse von vor 100 Jahren, beträgt die Veränderung 0,006%.
Antwort: Hier wird absichtlich etwas klein gerechnet indem zwei kleine Zahlen voneinander abgezogen werden. Eine objektive Methode etwas zu vergleichen ist, es ins Verhältnis zu setzen. Die Änderung von 0.31 auf 0.38 ist ein prozentueller Anstieg um 22,6% also um etwa ein Fünftel. Das ist schon eine Menge, wenn man bedenkt, dass <math>CO_2</math> das Gas ist, welches die Temperatur der Erde maßgeblich bestimmt. Ohne <math>CO_2</math> wäre die Durchschnittstemperatur der Erde um rund 20 Grad geringer. Nehmen wir man an das Klima wäre linear dann würde eine <math>CO_2</math> Erhöhung um 20% eine Temperaturerhöhung von 4 Grad bewirken. --VolkerJaenisch 19:25, 28. Dez. 2011 (CET)

Frage: Das jonglieren mit 22,6% ist gerade typische Propaganda, du benutzt Werte die den Eindruck erwecken sollen dass <math>CO_2</math> Anteil in der Atmosphäre um über 20% angestiegen ist. Es stimmt nicht und ist irreführend! Genau solche Propagandamethode benutzt man um Angst über angebliche <math>CO_2</math> Schädlichkeit zu erzeugen.
Antwort:

  • Der Anteil von <math>CO_2</math> an der Gesamtatmosphäre ist um 0,009% gestiegen. Das interessiert aber niemanden, weil hierbei die Bezugsgröße alle Gase der Atmosphäre sind. Von allen Gasen der Atmosphäre ist <math>CO_2</math> das Treibhausgas mit dem größten Einfluss auf das Klima (Andere Treibhausspurengase wie <math>N_2O</math>, <math>CH_4</math> usw. vernachlässigt). Die Gase mit dem größten Anteil von rund 99% also Stickstoff und Sauerstoff üben keinen Treibhauseffekt aus.

Daher spielt das Verhältnis von <math>CO_2</math> zum Rest der Gase keine Rolle.

Ein Beispiel: Die Wirkung von Cyanid auf den Menschen. Man benötig eine winzige Menge (0.1 Gramm) davon, schluckt sie und ist mit hoher Wahrscheinlichkeit Tod. Es ist egal ob das Zyanid in Reinform eingenommen wird oder mit 5 Litern Wasser - am Ende ist man tot. Denn es geht um die absolute Anzahl von wirksamen Molekülen und nicht darum wie viele andere in diesem Zusammenhang nicht wirksame Moleküle vorhanden sind. Es hilft nun niemandem zu sagen: Die Menge Cyanid ist ja nur 0.1g/5000g = 0.002% des Wassers das Du trinkst. Entscheidend ist dass es 0.1 Gramm sind.

Die absolute Menge von <math>CO_2</math> ist um 22.6 % gestiegen. Das ist durchaus interessant, weil jedes einzelne Molekül <math>CO_2</math> eine Wirkung hat, welche es nahezu unabhängig von den anderen Gasen in der Atmosphäre ausübt. Jedes einzelne Molekül verändert somit den Strahlungshaushalt der Erde was man landläufig als den Treibhauseffekt bezeichnet. Wenn wir also 20% mehr <math>CO_2</math> in der Atmosphäre haben bekommen wir in erster Näherung auch 20% mehr Treibhauseffekt. Natürlich ist der Strahlungstransport in der Atmosphäre ziemlich kompliziert, aber es gibt Strahlungstransportmodelle, welche seit vielen Jahren exakt beschreiben können, welche Veränderungen Gase wie <math>CO_2</math> in welchem Spektralbereich ausüben. Die Modelle machen nichts anderes als die gradlinige Anwendung der Maxwellschen Gleichungen und Quantenmechanik, also rechnen nur physikalische Naturgesetze aus *das ist langweilige Mathematik, welche nahezu frei ist von Unsicherheiten. Das ist alles kalter Kaffee * schon vor 100 Jahren haben Wissenschaftler sich gefragt ob die starke Nutzung der Kohle nicht zu einem verstärkten Treibhauseffekt führen wird. Damals wussten sie zwar noch nichts von der Quantenmechanik, der Treibhauseffekt von <math>CO_2</math> als reines Phänomen welches im Labor gemessen werden konnte war aber schon längst bekannt. --VolkerJaenisch 19:25, 28. Dez. 2011 (CET)

Einwirkung der Sonne

Frage: Die ganze Klimaerwärmung kommt doch sowieso durch die Sonne?
Antwort: Da die Sonne die primäre Energiequelle darstellt fällt es leicht diese Idee zu entwicklen. Es gibt sogar mit "Die kalte Sonne" [0] ein populärwissenschaftliches Buch, welches diese These vertritt.

Die Sonne als treibender Faktor wurde schon lange untersucht [1]. Auch neuste Veröffentlichungen wie [2,3] versuchen mit unterschiedlichsten Methoden den Einfluss der Sonne auf das Klima zu quantifizieren.

Es fällt bei näherer Betrachtung aber schnell auf, dass die Ergebnisse dieser Veröffentlichungen sich gegenseitig widersprechen. So will z.B. [2] gezeigt haben, dass es einen unmittelbaren Zusammenhang zwischen dem Wärmefluss der Ozeane mit der solaren Aktivität gibt, während [3] zeigt, dass der Einfluss der Sonne auf die Globaltemperatur um einen Sonnenfleckenzyklus verspätet eintritt wenn man Mess-Stationen um den Atlantik betrachtet. Weiterhin zeigt [3] dass es einen solchen Zusammenhang zumindest für die globale Temperatur nicht gibt:

""" About 50% of the HadCRUT3N temperature variations since 1850 may be attributed solar activity. However, this conclusion is more uncertain because of the strong autocorrelations found in the residuals.

""".

Gerade die Studie von [2] bleibt einen Wirkungszusammenhang schuldig und verweist auf bis heute kontrovers diskutierte Svensmark-Hypothese der kosmishen Strahlung-Aerosol-Hypothese (s.u.). [3] Schliesst mit den Worten:

""" Our study has concentrated on an effect with lag once solar cycle in order to make a model for prediction. Since solar forcing on climate is present on many timescales, we do not claim that our result gives a complete picture of the Sun's forcing on our planet's climate. """

auf Deutsch:

""" Unsere Studie hat auf einen Effekt mit einem einem Sonnenzyklus später konzentriert um eine Vorhersagemodell zu konstruieren. Weil der solare Einfluß auf das Klima auf vielen Zeitskalen präsent ist, behaupten wir nicht das unsere Ergebnisse ein komplettes Bild des solaren Einflusses auf das globale Klima geben. """

Aus diesen Studien geht klar hervor, dass es eine direkte also z.B. Jahr-zu-Jahr-Korrelation nicht gibt und auch nicht geben kann, wegen der unterschiedlichen Zeitskalen, welche durch die Reaktonsträgheit unterschiedlicher Teile des Klimasystems bedingt ist.

Die bisher genannten Studien [0,2,3] teilen aber noch dazu den selben monokausalen Ansatz, also deren Methoden nehmen an, das es nur eine Einflussgröße gäbe. Nimmt man einmal an, dass die Sonne der maßgebliche Faktor für das Klima wäre, so gibt es Untersuchungen die zeigen, dass damit der starke Anstieg der globalen Temperaturen seit 1970 nicht erklärt werden kann:


""" Wir haben gezeigt, dass selbst in dem extremen Fall, dass die solare Variabilität alle globalen Klimaveränderungen vor 1970 hervorgerufen hätte, sie nicht für mehr als 30% (50% für die Vergleichskurve von Willson,1977) des starken globalen Temperaturanstieg seit 1970 verantwortlich sein kann. """

Weiterhin ist schon lange ein statistisches Phänomen bekannt, welches zu einer systematischen Überschätzung monokausaler Ansätze führt [5]:


""" Empirische Modell die natürliche und antropogene Einflüsse (mit den angemessenen Zeitverzögerungen) kombinieren beschreiben 76% der Variabilität der monatlichen globalen CRU Temperatur-Werte. Sie zeigen, dass viel der Variabilität von Prozessen stammt welche man identifizieren kann und das deren Einfluss auf die globale Temperatur quantifiziert werden kann durch direkte lineare Assoziation mit den Beobachtungen.

Natürliche Einflüsse erzeugen etwa 0.2 K Erwärmung währen großen ENSO Ereignissen und nahezu 0.3 K Abkühlung in Folge von Vulkanausbrüchen und 0.1 K Erwärmung in der Nähe des Maximums der solaren Zyklen. Um deren Stärke richtig zu quantifizieren müssen natürliche und antropogene Faktoren gleichzeitig betrachtet werden wenn man die Anomalien in der Globaltemperatur analysiert, denn das Vernachlässigen eines (dieser Faktoren) führt dazu den Einfluss der anderen zu überschätzen.

Aus diesem Grund gehen wir davon aus, dass die abgeschätzten Veränderungen durch die solare Aktivität von 0.2 K (Camp and Tung, 2007) und die Abkühlung durch den Pinatubo(-Vulkanausbruch) von 0.4 K (Santer et al., 2001) zu groß sind. Keiner der natürlichen Prozesse kann verantwortlich gemacht werden für den generellen Erwärmungstrend der Globaltemperatur. In den 100 Jahren von 1905 bis 2005 sind die Temperaturtrends welche durch alle drei natürlichen Einflüsse hervorgerufen wurden um mindestens eine Größenordnung geringer als der beobachtete globale Temperaturtrend wie im IPCC2007 berichtet.

Unser Analyse zeigt, das solare Aktivität vernachlässigbar zum langjährigen Erwärmungstrend der letzten 25 und für 10% zur Erwärmung der letzten 100 Jahre beitrug und nicht 69% wie behauptet von Scafetta und West [2008] (welche größere Veränderung in der solaren Irridinace und stärkere Wechselwirkungen auf längeren Zeitskalen annahmen). """

--VolkerJaenisch 23:12, 23. Mär. 2012 (CET)

Einwirkung kosmischer Strahlung

Frage: Die ganze Klimaerwärmung kommt doch sowieso durch kosmische Strahlung?
Antwort: Dazu empfehle ich wikiversity: Kosmische Strahlen und die links zu den entsprechenden realclimate-Artikeln zu verfolgen. --VolkerJaenisch 21:42, 15. Dez. 2011 (CET)

Auswirkungen des Klimawandels

Frage: Der neue IPCC-Report zu Extremereignissen zeigt doch gar keine Katastrophen

Antwort: Die aktuelle Zunahme von Extremereignissen wird im Bericht wie folgt dargestellt:

"""It is very likely that there has been an overall decrease in the number of cold days and nights [3], and an overall increase in the number of warm days and nights [3], on the global scale, i.e., for most land areas with sufficient data. It is likely that these changes have also occurred at the continental scale in North America, Europe, and Australia. There is medium confidence of a warming trend in daily temperature extremes in much of Asia. Confidence in observed trends in daily temperature extremes in Africa and South America generally varies from low to medium depending on the region. In many (but not all) regions over the globe with sufficient data there is medium confidence that the length or number of warm spells, or heat waves [3], has increased.

There have been statistically significant trends in the number of heavy precipitation events in some regions. It is likely that more of these regions have experienced increases than decreases, although there are strong regional and subregional variations in these trends. [3.3.2] There is low confidence in any observed long-term (i.e., 40 years or more) increases in tropical cyclone activity (i.e., intensity, frequency, duration), after accounting for past changes in observing capabilities. It is likely that there has been a poleward shift in the main Northern and Southern Hemisphere extra-tropical storm tracks. There is low confidence in observed trends in small spatial-scale phenomena such as tornadoes and hail because of data inhomogeneities and inadequacies in monitoring systems. [3.3.2, 3.3.3, 3.4.4, 3.4.5]

There is medium confidence that some regions of the world have experienced more intense and longer droughts, in particular in southern Europe and West Africa, but in some regions droughts have become less frequent, less intense, or shorter, e.g., in central North America and northwestern Australia. [3.5.1] here is limited to medium evidence available to assess climate-driven observed changes in the magnitude and frequency of floods at regional scales because the available instrumental records of floods at gauge stations are limited in space and time, and because of confounding effects of changes in land use and engineering. Furthermore, there is low agreement in this evidence, and thus overall low confidence at the global scale regarding even the sign of these changes. [3.5.2] It is likely that there has been an increase in extreme coastal high water related to increases in mean sea level. [3.5.3]"""

Dies wird unterstützt vom Jahresbericht der WMO (World Meteorological Organisation) für 2011. Die WMO geht davon aus, dass die Extremwetter-Ereignisse für 2011 (Dürre in den USA, Überschwemmungen Pakistan, Thailand, Australien) auf den Klimawandel zurückzuführen sind. (Siehe Wetter 2011.) --VolkerJaenisch 20:56, 15. Dez. 2011 (CET)

Vergrünung?

Frage: Eine Erhöhung der globalen Temperatur um ungefährliche ca. 1 Grad durch die direkte Treibhausgaswirkung bei <math>CO_2</math> Verdoppelung. Das macht die Erde schlimmstenfalls wahrscheinlich nur grüner.
Antwort: Wer sagt denn, dass eine ein Grad Erhöhung ungefährlich ist, oder zwei Grad? Es gibt keine wissenschaftliche Basis für eine Temperaturgrenze ab der es gefährlich wird. Das sogenannte 2 Grad-Ziel ist aus der politischen Diskussion entstanden, weil man sich einfach mal auf ein Temperatur-Ziel einigen musste.

Warum sollte die Erde durch die Erhöhung grüner werden? Es gibt sehr unterschiedliche Erkenntnisse dazu wie der Klimawandel sich auf die Vegetation auswirken wird. Klar benötigen Pflanzen <math>CO_2</math> und mehr <math>CO_2</math> kann Pflanzen unter günstigen Umständen schneller wachsen lassen. Wenn mehr <math>CO_2</math> da ist bedeutet das aber nicht automatisch dass mehr Pflanzen wachsen, denn diese benötigen dann auch mehr Wasser, die richtigen Nährstoffe und nicht zuletzt das richtige Klima, welches sich ja gerade massiv verändert. Das Problem mit dem Klimawandel ist, das unsere Vegetation sich zwar im Laufe der Evolution an Eiszeiten angepasst hat, welche mit 1 Grad in 1000 Jahren Klimazonen verschieben. Der aktuelle Klimawandel geht aber rund 10 Mal so schnell (1 Grad in 100 Jahren). Dies führt dazu, dass die Pflanzen nicht schnell genug durch Ihre Samen/Pollen-Ausbreitung den sich verschiebenden Klimazonen hinterher wachsen können. Dies wird zum Aussterben kompletter Ökosysteme führen. Der Amazonas-Regenwald z.B. hat nicht genug Humus um starke Wetterschwankungen abpuffern zu können. Der Klimawandel bringt aber vermehrt solche starken Wetterschwankungen. Weiterhin hat der Amazonas-Regenwald nicht genügend minerale Spurenelemente um sich selbst zu düngen. Die Düngung geschieht über den Transport von afrikanischem Wüstensand welcher mit den richtigen Mineralien versehen ist über den Atlantik hinweg unter anderem mit den Hurrikanen. Bricht dieser Ferntransport von Nährstoffen ab gehen dem Amazonas die Spurenelemente aus. Schon jetzt verlagern sich die Zugbahnen der Hurrikane durch den Klimawandel weiter nach Norden, die Hurrikane, welche noch den Amazonas Treffen werden weniger. Das entscheidende am Klimawandel ist also nicht die veränderte Temperatur. Sondern die kurze Zeit in der sich die neue Temperatur einstellt und die Schwierigkeit, die die Ökosysteme und auch wir Menschen haben uns daran anzupassen.

1 Grad bei der Verdopplung der <math>CO_2</math>-Konzentration ist ohne die Berücksichtigung aller bekannten Wechselwirkungen. Siehe dazu weiter unten. --VolkerJaenisch 21:34, 15. Dez. 2011 (CET)

Wasserdampfverstärkung (water vapor feedback)

Frage: Was ich nicht fand sind Beweise über den katastrophalen Teil der Theorie vom anthropogenen Klimawandel: der Wasserdampfverstärkung (water vapor feedback), der dann in den Modellen zur Temperaturerhöhung bis zu 10 Grad o.ä. führen soll.
Antwort: Das water vapor feedback ist kein Modell, sondern eine physikalische Tatsache, welche sich aus den thermodynamischen Eigenschaften von Wasser ergibt. Dieses Feedback wird nicht in die Modelle hineingesteckt. Hineingesteckt werden physikalische Gesetze und heraus kommt unter anderem das Feedback. Weiterhin ist dieser Effekt völlig unabhängig davon ob die primäre Erwärmung nun durch <math>CO_2</math> aus Vulkanen oder <math>CO_2</math> aus Fabrikschloten kommt, oder ob das Methan aus der Tiefsee ist. Die zusätzliche Erwärmung greift in den Niederschlags-Kreislauf, bringt mehr Wasserdampf in die Atmosphäre und dieser absorbiert wiederum Infrarotstrahlung von Boden und heizt die unteren Luftschichten auf Kosten der oberen an. Im Gegensatz zum <math>CO_2</math> ist aber die Halbwertszeit von Wasserdampf in der Atmosphäre in der Größenordnung von Tagen, passt sich also nahezu sofort einer Veränderung anderer Faktoren wie z.B. der Sonneneinstrahlung bei Tag-Nacht-Wechsel an. <math>CO_2</math> hat eine Halbwertszeit in der Atmosphäre von vielen 100 Jahren. Über diese ganze Zeit wirkt das <math>CO_2</math>, wenn auch nur etwa halb so stark wie der Wasserdampf, dafür aber umso länger. Weitere Details zum Water-Vapor-Feedback:

--VolkerJaenisch 21:34, 15. Dez. 2011 (CET)

Wärmeinseln?

Frage: Wichtig ist auch, wo diese Messstationen stehen? In der Regel an Flughäfen, wo die Abgase von Flugzeugen mit gemessen werden oder in den Städten mit urbanen Wärmeinseln.
Antwort: Falsch: Den sogenannten Wärmeinseleffekt gibt es nicht, wie unlängst eine unabhängige Studie zum wiederholten Male bestätigte.

""When we began our study, we felt that sceptics had raised legitimate issues, and we didn't know what we'd find. Our results turned out to be close to those published by prior groups. We think that means that those groups had truly been very careful in their work, despite their inability to convince some sceptics of that," Professor Muller said.

Professor Muller and his colleagues, including this year's physics Nobel winner, Saul Perlmutter, had suspected the previous work had been tainted by the "urban heat island effect", where increasing urbanisation around weather stations was causing the temperature increases recorded over the past half-century.

The Best [Berkeley Earth Surface Temperature] study has yet to be peer-reviewed but has been submitted to the journal Geophysical Research Letters."

Klimamodelle

Frage: Was sagt ihr dazu, dass die Klimamodelle nicht 100%ig genau sind?
Antwort: Niemandem wird geschadet, wenn wir den CO2-Ausstoß massiv reduzieren; sehr wohl aber gibt es Modelle, nach denen der bisherige Ausstoß Schaden anrichtet. Also gilt es den Ausstoß zu reduzieren. Wenn sich diese Modelle als falsch herausstellen - schön, macht auch nichts. Andersrum aber sehr wohl.

Frage: Ein Klima-Modell ist nichts anderes als ein Computerprogramm mit wählbaren Parametern?
Antwort: Falsch: Ein Modell ist eine Simulation von physikalischen Effekten. Die Parameter eines Modelles sind nicht frei wählbar. Noch dazu gibt es extrem unterschiedliche Arten von Computermodellen. Es gibt Modelle welche völlig frei von wählbaren Parametern sind. Es gibt Modelle, welche auf Szenarien aufbauen, weil man die Parameterwerte nicht kennt (z.B. weil sie erst in der Zukunft bekannt werden).

Frage: In der Praxis stellt man die Modell-Parameter so ein, dass man das gewünschte Ergebnis bekommt. Und das ist ganz einfach, aus unterschiedlichen Datensätzen nimmt man die jeweiligen wärmeren Werte und rechnet sie zusammen, damit erhält man schnell den gewünschten "Erwärmungseffekt."
Antwort: Falsch: In der Praxis muss ein Computermodell sich dadurch bewähren, dass es bei einem Satz von Anfangsbedingungen möglichst viele Szenarien möglichst gut beschreibt. Die Computermodelle wählen keine Temperaturdaten aus. Die Auswahl geschieht beim Preprocessing der Daten. Dort werden zusätzlich zu den Stationsdaten z.B. die WMO Metadaten berücksichtigt. Also z.B. ob Fehler mit den Messgeräten gemeldet wurden. Und es wird geschaut ob Fehler in den Messwerten durch z.B: Zeitreihenanlyse oder Vergleiche mit anderen Wetterdaten vorliegen. Diese externen Daten führen zu einer Gewichtung der Primärdaten oder sogar dem Ausschluss solcher. Es gibt immer wieder „Hobbyklimatologen“, welche die Stationsrohdaten verwenden, um daraus irgendetwas herleiten zu wollen. So wurde Headcrut unterstellt mutwillig Stationsdaten gelöscht zu haben. Nach einer kurzen Analyse der genannten WMO-Stationsdaten stellte sich heraus, dass in den Stationsprotokollen massive Probleme mit den Messinstrumenten gemeldet waren.

Dieses Preprozessing der Daten ist bei allen mir bekannten Messdaten nötig, es findet also nicht nur bei Temperaturdaten statt, sondern ist eine Standardprozedur um die Qualität der Daten zu bewerten. Es gibt z.B. 15 Unterschiedliche Verfahren im die Schichtdicken von atmosphärischen Schichten aus Höhenprofilen z.B. der Temperatur zu bestimmen. Daher werden in Modellen i.d.R. alle 15 Methoden gleichzeitig angewendet und die Ergebnisse verglichen. Da jedes Verfahren die Messwerte aus einem anderen Blickwinkel betrachtet kann man durch die Summe der Betrachtungen zu einem Erkenntnisgewinn gelangen.

Das Preprozessing der meteorologischen Messwerte ist im übrigen kein klimatologischer Selbstzweck. Der Grund dafür ist, dass das Messstationen-Netz ungleichmäßig über die Erde verteilt ist. Damit diese Daten in den Wettermodellen verwendet werden können müssen die Daten auf ein gleichförmiges Netz abgebildet werden. Die Wettervorhersage basiert also auf den in gleicher Form präprozessierten Daten wie die Globaltemperatur. Die Wettervorhersage ist in den letzten Jahrzehnten kontinuierlich besser geworden, was nicht zuletzt an dem verbesserten Preprozessing liegt. Wie soll es also sein, dass ein und das gleich Preprozessing eine Fälschung der Klimaforscher sein soll und die darauf aufbauende Wettervorhersage immer besser wird?


Frage: Wofür gibt es dann Parameter in den Modellen überhaupt?
Antwort: Sicher gibt es Parameter in Computermodellen, aber jeder einzelne Parameter an sich muss begründet sein. Der Wert des Parameters sollte physikalisch begründet sein. Ist ein Parameter-Wert nicht physikalisch zu begründen, wie z.B. der zukünftige Ausstoß von <math>CO_2</math> in Klimasimulationen, werden unterschiedliche Szenarien durchgerechnet. Diese Szenarien denkt sich in der Regel ein Konsortium von Wissenschaftlern aus, damit einheitliche Modellstandards verwendet werden.

Und nun eine ganz pragmatische Frage: Selbst wenn die Modelle unmotivierte Parameter hätten, die wir auf den Wert X stellen müssten, damit sie das Klima am besten reproduzieren, was wäre daran so schlimm? Sie wären dann immer noch die beste Vorhersage, die wir haben. Es gibt kein göttliches Modell, welches exakt ist. Es gibt auch keinen göttlichen Messwert der unendlich exakt ist. Da dies nun mal so ist, ist es kein Argument zu behaupten Modelle könnten, weil sie nicht göttlich sind, keine wahren Aussagen erzeugen.

Wie das Beispiel der Wettervorhersage eindrucksvoll zeigt: Die Modelle beschreiben die Realität zunehmend besser, auch wenn sie nie eine totale Simulation wie die Matrix sein werden.

Wetter

Wetter im Jahr 2011

Frage: Wie war denn das Wetter 2011 global?
Antwort: Die WMO hat gerade ihren Jahresbericht für 2011 veröffentlicht. "Global temperatures in 2011 are currently the tenth highest on record and are higher than any previous year with a La Niña event, which has a relative cooling influence. The 13 warmest years have all occurred in the 15 years since 1997. The extent of Arctic sea ice in 2011 was the second lowest on record, and its volume was the lowest."

Das übersetze ich mal zu "Die globalen Temperaturen von 2011 sind im Moment die zehnthöchsten jemals gemessenen und sind höher als in jedem vorangegangenen La Nina Ereignis, welches einen relativen kühlenden Einfluss auswirkt. Die 13 wärmsten Jahre fallen alle in die 15 Jahre nach 1997. Die Bedeckung des arktischen See-Eises 2011 war die geringste jemals gemessene wie auch deren Volumen am geringsten war."

einen weiteren Abschnitt hat Telepolis übersetzt.

"Unsere Wissenschaft ist solide und zeigt unmissverständlich, dass die Welt sich erwärmt, und zwar in Folge menschlicher Aktivitäten. Die Konzentration der Treibhausgase in der Atmosphäre hat neue Rekordwerte erreicht. Sie bewegt sich sehr schnell auf ein Niveau zu, das eine globale Erwärmung von zwei bis 2,4 Grad zur Folge haben wird. Das wiederum wird nach der Ansicht der Wissenschaftler zu weitreichenden und irreversiblen Veränderungen unserer Erde, der Biosphäre und der Ozeane führen." http://www.heise.de/tp/artikel/35/35969/1.html

"The WMO’s provisional statement estimated the global combined sea surface and land surface air temperature for 2011 (January–October) at 0.41°C ± 0.11°C (0.74°F ± 0.20°F) above the 1961–1990 annual average of 14.00°C/57.2°F, according to the provisional statement. This is the tenth equal warmest year since the start of records in 1850."

übersetze ich zu "Die vorläufige Aussage der WMO [2011 ist ja noch nicht zu Ende, Anm. d. Ü.] schätzt die globalen See- und Land-Oberflächen-Temperaturen für 2011 (Jan-Okt) zu 0.41°C ± 0.11°C (0.74°F ± 0.20°F) bezogen auf den jährlichen Mittelwert der Periode 1961–1990 von 14.00°C/57.2°F. Das ist das zehntwärmste Jahr seit der Wetteraufzeichnung von 1850."

"Global climate in 2011 was heavily influenced by the strong La Niña event which developed in the tropical Pacific in the second half of 2010 and continued until May 2011. It was one of the strongest of the last 60 years and was closely associated with the drought in east Africa, islands in the central equatorial Pacific and the southern United States, and flooding in southern Africa, eastern Australia and southern Asia."

übersetze ich zu "Das globale Klima war 2011 massiv beeinflusst durch eine starkes La Nina Ereignis welche sich im tropischen Pazifik in der zweiten Jahreshälfte 2010 entwickelte und bis Mai 2011 anhielt. Dieses Ereignis war das stärkste seit 60 Jahren und es war eng verbunden mit Dürre in Ost-Afrika, auf zentral äquatorialen Pazifikinseln und den südlichen USA, sowie Überflutungen im südlichen Afrika, Ostaustralien und Südasien."

"Strong La Niña years are typically 0.10 to 0.15°C cooler than the years preceding and following them. 2011’s global temperatures followed this pattern, being lower than those of 2010, but were still considerably warmer than the most recent moderate to strong La Niña years, 2008 (+0.36°C), 2000 (+0.27°C) and 1989 (+0.12°C). Weak La Niña conditions have redeveloped in recent weeks but have not yet approached the intensity of those in late 2010 and early 2011."

übersetzt zu "Starke La Nina Jahre sind typischerweise 0.1 bie 0.15°C kälter als die vorangehenden oder die folgenden Jahre. Die Globaltemperatur von 2011 folgte diesem Muster indem sie niedriger waren als 2010, aber trotzdem deutlich wärmer [0.41°C ± 0.11°C Amn. d. Übs.] als in den letzten mittleren bis starken LA Nina Jahren, 2008 (+0.36°C), 2000 (+0.27°C) and 1989 (+0.12°C). Schwache La Nina Bedingungen haben sich in den letzten Wochen zwar erneut entwickelt aber sie haben noch nicht die Intensität von Ende 2010 und Anfang 2011 erreicht." --VolkerJaenisch 20:56, 15. Dez. 2011 (CET)

wetterabhängige Extremereignisse

Frage: Der IPCC-Report zu Extremereignissen sieht in den kommenden 20-30 Jahren keinen anthropogenen Einfluss
Antwort: Gemeint ist sicher dieses Zitat: "Projected changes in climate extremes under different emissions scenarios generally do not strongly diverge in the coming two to three decades, but these signals are relatively small compared to natural climate variability over this time frame. Even the sign of projected changes in some climate extremes over this time frame is uncertain" http://www.ipcc.ch/pdf/special-reports/srex/SREX_FD_SPM_final.pdf Meine Übersetzung: "Die vorhergesagten Veränderungen von Klimaextremen für unterschiedliche Emissionsszenarien unterscheiden sich nicht stark in den kommenden 2 oder 3 Dekaden, aber diese Signale sind relativ klein verglichen zur natürlichen Variabilität über diesen Zeitraum. Selbst das Vorzeichen der vorhergesagten Änderungen von manchen dieser Extreme ist unklar."

Zunächst wird über die Abweichungen zwischen einzelnen Modell-Szenarien gesprochen. Es geht also nicht um die absolute Größe von Auswirkungen sondern es geht darum, wie stark wir durch das Verändern von Treibhausemissionen etwas an der zukünftigen Entwicklung von Extremereignissen verändern können. Das bedeutet nur, dass die Modelle konsistent über die ganzen Szenarien sind und nicht ob es mehr oder weniger Extreme geben wird. Würde man die Szenarien bspw. 1900 starten lassen um zu ermitteln welche Unterschiede wir in Extremwetter hätten, wenn wir keine Treibhausgase emittiert hätten und dies mit dem heutigen Werten vergleichen, würden wir sehen, was ich oben zitiert habe. Noch dazu kommt, dass das <math>CO_2</math> welches wir in die Atmosphäre einbringen eine sehr lange Halbwertszeit besitzt. Die anthropogene Klimaveränderung läuft schon und sie wird selbst dann erst einmal weiterlaufen, egal wie viel wir die Emissionen in den nächsten 20 oder 30 Jahren reduzieren. Das ist leider keine gute Aussage, denn dies belegt, dass die Bemühungen das Klima zu stabilisieren am Anfang als aussichtslos erscheinen werden. Das ist natürlich dann keine gute Motivation die <math>CO_2</math>-Reduktion fortzuführen.

Dort heißt es, dass die anthropogene Variabilität im Verhältnis zur natürlichen Variation klein ist. Aber was bedeutet das. Nun aufgrund von natürlichen Schwankungen wäre die Flut 6 Meter hoch - so hoch wie der Damm. Durch die zusätzliche anthropogene Variabilität (Deren Vorzeichen evtl. nicht genau bestimmt ist) kann die Flut nun 5,8 Meter oder auch 6,2 Meter betragen. Die +0,2 Meter können ausreichen den Damm zu zerstören. Auch wenn der natürliche Anteil 30 Mal so groß war, ist das den Menschen hinter dem Damm dann ziemlich egal.

Der zweite Satz ist der Tatsache geschuldet, dass es recht schwer ist in die Zukunft zu schauen. Gerade Extremwetter zu simulieren ist schwierig. Daher sind die Wissenschaftler sehr vorsichtig und sehr kritisch mit diesen Vorhersagen. Der ganze Bericht zeugt davon, dass man hier sehr vorsichtige Äußerungen trifft und sich dieser Unsicherheiten völlig bewusst ist.

Aber dass sich laut den Projektionen für die nächten 20-30 Jahre kein klarer Trend erkennen lässt bedeutet im Umkehrschluss jedoch nicht, dass die Wetterextreme im Moment nicht zunehmen würden (s.o.). --VolkerJaenisch 20:56, 15. Dez. 2011 (CET)

Antrag zum Thema Klimaschutz im Parteiprogramm

Frage: Warum steht im aktuellen Antrag kein Abschnitt zum Thema Klimaschutz, der, wie die Debatte der letzten Jahre, und die Konferenz in Kopenhagen zeigt, doch ein wirklich bedeutender Abschnitt der Umweltpolitik ist, der auch im Grundsatzprogramm beachtet werden sollte. --MarcelE 17:50, 30. Aug. 2010 (CEST)

Antwort: Die Umweltpräambel ist für das Grundsatzprogramm, sie enthält in Modul 2, die Aussage: "Wir wollen eine gesunde und natürliche Umwelt erhalten. Dies bedeutet die Reduktion des Eintrages von schädlichen Stoffen in unsere Umwelt und den Schutz und die Wiederherstellung von Naturräumen".

Dies ist absichtlich allgemein gehalten, weil es für das Grundsatzprogramm gedacht ist, was möglichst ewig gelten soll. Im Wahlprogramm, was man daraus ableitet könnte, würde dann stehen, dass der Eintrag von CO2, Lachgas, Methan usw. reduziert werden soll mit Maßnahme a,b,c und das Wald x,y,z wieder hergestellt werden soll, um den Klimawandel zu verlangsamen.

Es kann aber prinzipiell auch jetzt schon jeder einen konkreten Antrag zum Klimaschutz für das nächste Wahlprogramm erarbeiten. Wir haben nur bisher nicht die Kapaziäten gehabt Inhalte für Grundsatz- und Wahlprogramm gleichzeitig zu erarbeiten.

Frage: Aber es ist eine grundsätzliche Sache, das zwar abgeleitet werden kann, aber hier wirklich erwähnt werden sollte, da es alle Menschen betrifft. Die Reduktion von Treibhausgasen muss gefordert werden, auch in einem Grundsatzprogramm, denn sonst kann man m.E. auf dieses Modul verzichten--MarcelE 11:23, 4. Sep. 2010 (CEST)

Tierschutz

(art-/tiergerechte) Nutztierhaltung

Ethisch vertretbares Handeln bedeutet niemanden aus niederen Beweggründen absichtlich Leid zuzufügen. Das Leid in Massentierhaltungsanlagen ist bereits sehr gut dokumentiert.

  • Für die nicht artgerechte Massentierhaltung werden die Tiere häufig von der Geburt bis zur Ausstallung auf engstem Raum in ihren eigenen Exkrementen gehalten, so dass diese sich durch den massiven Kontakt mit den Ausscheidungen leicht von dort keimenden Erregern anstecken lassen und die Krankheiten auf dem engen Raum schnell an alle anderen Tiere übertragen. Aus diesem Grunde werden den Tieren große Mengen Antibiotika gegeben, was dazu führt, dass Bakterienstämme zu neuen resistenten Stämmen mutieren und das Antibiotikum für den Menschen nutzlos wird. [1]
  • Daneben werden Antibiotika bei gesunden Tieren gezielt eingesetzt, um die Darmflora so zu verändern, dass die Tiere zu besseren Futterverwertern werden, also bei der gleichen Menge Futter schneller Gewicht zulegen.
  • Die Massentierhaltung erzeugt einen hohen Anteil der Treibhausgase CO2, Methan und N2O welche massiv zum für den Menschen gefährlichen Klimawandel beitragen. [2]
  • Die Massentierhaltung trägt in großem Maße zu einer immer schneller voranschreitenden Verknappung und Verschmutzung des Trinkwassers bei. [3]

Artgerechte Haltung als die bessere Alternative:

Definitionen (artgerecht)

  • wikipedia (hier wird auch auf die desolate Haltung bei Tierversuchen hingewiesen)
  • Seiten von Zertifizierern mit einzuhaltenden Richtlinien:
  • Seite, die sich mit den unterschiedlichen Zertifizierungen hinsichtlich artgerechter Haltung auseinandersetzt: provieh
  • Seite für Tierfutter: bio-tierkost (besonders die Grafik ist sehr aufschlussreich)

einklagbare Rechte

Frage: Was bedeutet einklagbare Rechte?
Antwort: Wir möchten z.B. dass die artgerechte (Nutz)Tierhaltung auch im Tierschutzgesetz festgeschrieben wird und wir nicht nur eine Empfehlung geben, so dass Verstöße auch geahndet werden können. Weiterhin ist es bei (anderen) Tieren so, dass diese nicht selbst ihre Rechte einklagen können, genauso wie bei Kindern/Jugendlichen oder (geistig) behinderten Menschen. Deshalb muss hier das Verbandsklagerecht entsprechend greifen können. Dies ist derzeit (leider) nicht immer der Fall, weshalb es wichtig ist darauf zu achten Rechte so zu gestalten, dass sie auch einklagbar sind.

Tierversuche

Eine Diskussion des Themas gibt es hier im Forum: Diskussion Tierversuche

aktuelle Situation in Deutschland

Jedes Jahr werden in Deutschland ca. 1,5 Mio Tierversuche an Mäusen, Ratten, Nagetieren, Kaninchen, Katzen, Hunden, Pferden, Eseln, Schweinen, Rindern, Ziegen, Schafen, Affen, Vögeln und Fischen in Labors der chemischen und pharmazeutischen Industrie, der Hochschulen und anderen "Forschungs"-Einrichtungen durchgeführt. http://de.wikipedia.org/wiki/Tierversuche#Deutschland_2

Die Tiere werden vergiftet, verstrahlt, infiziert, verbrannt und verstümmelt, sie werden mit Viren, Bakterien und Parasiten infiziert, sie müssen hungern oder dursten, sie werden erstickt oder mit Elektroschocks traktiert, bei ihnen werden Infektionen, Entzündungen, Infarkte, Anfälle oder Krebs hervorgerufen, ihnen werden Elektroden in das Gehirn gesteckt, die Knochen gebrochen, die Augen vernäht, Organe entfernt und wieder eingepflanzt.

rechtliche Situation:
Nach § 1 des deutschen Tierschutzgesetzes werden Tiere als „Mitgeschöpfe“ anerkannt und das Zufügen von Schmerzen, Leiden oder Schäden ohne vernünftigen Grund ist verboten. Tierversuche werden in §§ 7–9 Tierschutzgesetz geregelt. Darin werden zunächst Grundsätze für Tierversuche festgelegt (Definition; Vermeidung von Schmerzen, Leiden oder Schäden; ethische Vertretbarkeit, Unerlässlichkeit für das wissenschaftliche Forschungsvorhaben). Laut § 7 dürfen Tieren Schmerzen, Leiden und Schäden zum Vorbeugen, Erkennen oder Behandeln von Krankheiten, zum Erkennen von Umweltgefährdungen, zur Prüfung von Stoffen oder Produkten auf ihre Unbedenklichkeit und im Rahmen der Grundlagenforschung zugefügt werden. http://de.wikipedia.org/wiki/Tierversuch#Rechtliche_Situation

So stehen die anderen Parteien zu einem "ausnahmslosen" Verbot von Tierversuchen (Wahlomat: BTW 2009, Frage 9): Positionsvergleich_Bundestagswahl_2009.pdf (CXU/FDP dagegen, SPD neutral, Grüne/ Linke: dafür)

aktuelle Situation in der EU

1986 trat die Richtlinie 86/609/EWG in Kraft, welche ab 2008 überarbeitet und die neue Version am 22. Sept. 2010 unterzeichnet wurde. Die Überarbeitung der Richtlinie soll den aktuellen Entwicklungen Rechnung tragen und sieht höhere Tierschutzstandards vor, als in der früheren Version. Die überarbeitete Richtlinie wird nun in nationales Recht überführt. Wesentliche Punkte sind die Förderung alternativer Verfahren, die keine lebenden Tiere verwenden und die Anwendung des 3R-Prinzips (Replacement, Reduction and Refinement – Ersatz, Begrenzung und Verbesserung) bei Tierversuchen.

Kritik an Tierversuchen

ethische Bewertung von Tierversuchen

  • Helmut F. Kaplan zu Tierversuchen:
„Deshalb ist auch die faktische Frage, ob Tierversuche für den Menschen nützlich sind, moralisch irrelevant: Tierversuche sind falsch, unabhängig davon, ob sie für den Menschen nützlich sind. Die legitime Frage ist nicht: ‚Wieviel Gesundheit können wir maximal erzeugen?‘, sondern: ‚Wieviel Gesundheit können wir auf ethisch zulässige Weise erzeugen?‘ Die – echte oder vermeintliche – Nützlichkeit von Tierversuchen ist überhaupt kein ethisches Argument: Es gibt viele Dinge, die nützlich wären, aber dennoch unmoralisch und verboten sind, zum Beispiel Menschenversuche.“
„Der einzige Grund, warum nicht auch Tierversuche schon längst verpönt und verboten sind, ist denn auch schlicht dieser: Tiere können sich nicht wehren. Sie sind uns hilflos ausgeliefert.“ [0]
  • Isaac Bashevis Singer (bisher einziger jiddischer Schriftsteller der den Nobelpreis für Literatur erhielt, 1978): "Für die Tiere ist jeden Tag Treblinka."
  • Prominente gegen Tierversuche (peta.de)

Übertragbarkeit der Ergebnisse auf den Menschen

  • Viele der menschlichen Krankheiten treten bei anderen Tieren nicht auf, weshalb man versucht künstlich Symptome zu erzeugen. Darauf aufbauende Medikamente lindern aber lediglich die Symptome (bei den Versuchstieren) bekämpfen aber nicht die Ursache der eigentlichen Krankheit.
    Um zum Beispiel Parkinson auszulösen, wird bei Affen, Ratten oder Mäusen ein Nervengift in das Gehirn injiziert, das Hirnzellen zerstört. Krebs wird durch Genmanipulation oder Injektion von Krebszellen bei Mäusen hervorgerufen. Schlaganfall wird durch das Einfädeln eines Fadens in eine Hirnarterie bei Mäusen erzeugt. Zuckerkrankheit ruft man durch Injektion eines Giftes in Ratten, das die Inselzellen in der Bauchspeicheldrüse zerstört, hervor. Ein Herzinfarkt wird bei Hunden durch Zuziehen einer Schlinge um ein Herzkranzgefäß simuliert.
  • 92% der potentiellen Arzneimittel, die sich im Tierversuch als wirksam und sicher erwiesen haben, kommen nicht durch die klinische Prüfung, entweder wegen mangelnder Wirkung oder wegen unerwünschter Nebenwirkungen. Von den 8% der Wirkstoffe, die eine Zulassung erhalten, wird die Hälfte später wieder vom Markt genommen, weil sich beim Menschen weitere schwerwiegende, oft sogar tödliche Nebenwirkungen herausstellen. [1][2]
  • Beispielsweise glaubte man mit der „Erfindung“ der Krebsmaus den Schlüssel zur Bekämpfung bösartiger Tumoren endlich in der Hand zu halten. Forschern der Harvard-Universität war es Mitte der 1980er Jahre gelungen, ein menschliches Krebsgen in das Erbgut von Mäusen einzuschleusen, so dass die Nager frühzeitig Tumore entwickelten. Diese genmanipulierte Maus wurde 1988 in den USA und 1992 in Europa als erstes Säugetier sogar patentiert. Seither wurden Zigtausende Krebsmäuse „geheilt“. Doch alle bei den Nagern „erfolgreichen“ Behandlungsmethoden versagten beim Menschen.
  • Stoffe, die für Tiere schädlich sind können dem Menschen helfen und Stoffe, die für Tiere unschädlich sind können Menschen schädigen (wobei dringend zu beachten ist, dass diese widersprüchlichen Ergebnisse auf sehr unterschiedlichen Dosen beruhen – siehe einzelne Anmerkungen). Beispiele sind:
    Asbest: Krebserregend für Menschen, verträglich für Ratten und Hamster (aber nicht für Mäuse[3][4])
    Arsen: giftig für Menschen, gut verträglich für Schafe
    Contergan: Missbildungen bei Menschen, keine Missbildungen bei Tieren (außer bei bestimmten Affenarten und Kaninchen, aber auch bei Hühnern und Zebrafischen[5], Mäusen, Ratten und Hamstern)
    Cortison: verträglich für Menschen, Missbildungen bei Mäusen
    Morphium: beruhigend für Menschen, stimulierend für Katzen, Rinder und Pferde (wirkt in hohen Dosen auch auf Menschen stimulierend)
    Penicillin: gut verträglich für Menschen, schädlich für Meerschweinchen und Hamster (Schädlichkeit bedingt durch Schädigung der Darmflora, was beim Menschen ebenfalls auftritt, gerade in hohen Dosen)
    Paracetamol: gut verträglich für Menschen, giftig für Katzen (wirkt beim Menschen Leberschädigend)
    Phenobarbital: gut verträglich für Menschen, Leberkrebs bei Ratten
    Saccharin: gut verträglich für Menschen, Blasenkrebs bei männlichen Ratten (Nicht Saccharin selbst, sondern das Kalium im Saccharin hat auf Grund der extrem hohen Dosen zu Nierensteinen geführt, welche den Krebs ausgelöst haben. Kaliumchlorid hat die gleiche Wirkung).
  • Die Korrelation zwischen Toxizitäten, die bei Menschen und Tieren festgestellt werden können, sind im Verdauungstrakt, im blutbildenden System und im Herz-Kreislauf-System am besten.[6]
  • Etwa 90% unerwartet toxischer Wirkungen für den Menschen können in zeitlich ausgedehnten Tiermodellen festgestellt werden.[6]

alternative Forschungsmethoden

  • in-vitro: lat. „im Reagenzglas“
Test-Systeme mit schmerzfreier Materie in Form von Zellen, Geweben, Organpräparaten, Mikroorganismen, usw.
Viele der heute existierenden Zellkultur-Methoden können zwar nicht vorhersagen, wie ein kompletter Organismus, ein ganzer Mensch, reagieren wird. Allerdings können Tierversuche dies genauso wenig. Bei Tieren handelt es sich zwar um einen ganzen Organismus, aber um den falschen. Tierversuchsfreie Methoden mit menschlichen Zellen und Geweben, kombiniert mit speziellen Computerprogrammen, liefern, im Gegensatz zum Tierversuch, genaue und aussagekräftige Ergebnisse.
Typische Kosten für toxikologische Tests: Tierversuch, In-vitro-Test [7]
Augenreizung: € 1.400, € 750
Hautkorrosivität (Hautätzung): € 1.400, € 115 - 650
Hautreizung unter Lichteinfluss (Phototoxizität): € 7.850, € 1.000
Schädigung des Erbguts (Mutation): € 23.900, € 15.900
Schädigung des Erbguts (Schwesterchromatidaustausch): € 17.500, € 6.400
Schädigung des Erbguts (ungeplante DNS-Synthese): € 25.500, € 8.800
Pyrogentest (fieberauslösende Substanzen): € 315, € 85
  • in-silico:
Technisch ausgefeilte Computermodelle können Informationen über Struktur, Wirkung und Giftigkeit von Substanzen, wie zum Beispiel von neuen Arzneimitteln oder Chemikalien, liefern. Computermodelle wie QSAR (Quantitative Structure Activity Relationship) basieren auf menschlichen Daten. Unter Einbeziehung der Molekularstruktur einer Substanz kann ihre wahrscheinliche Wirkung vorausgesagt werden. Andere Modelle, wie CADD (Computer-Assisted Drug Development) werden von der Pharmaindustrie eingesetzt, um potentiell unwirksame oder toxische Stoffe schon auf einer frühen Stufe der Arzneimittelentwicklung auszusondern.
Ein neu entwickelter Chip kombiniert Computer- und In-vitro-Methoden miteinander. In einem an der amerikanischen Cornell University erfundenen System aus winzigen Gängen und Kammern auf einem Mikrochip werden In-silico-Techniken menschliche Zellen von Magen, Darm, Leber, Blut, Niere usw. angesiedelt. Ein Wirkstoff zirkuliert in einer Nährflüssigkeit durch den künstlichen Mini-Menschen. Die Wirkung in den einzelnen Organen, seine Verstoffwechslung sowie die mögliche Entstehung giftiger Abbauprodukte kann so getestet werden. Sogar Krankheiten des Menschen können mit dem Mikrochip nachgeahmt werden. Das Team an der Cornell University arbeitet an der Simulation von Krebs. Kombinationen von Wirkstoffen können in den mit Krebszellen beschichteten „Organen“ des Chips auf ihre Wirksamkeit und Sicherheit geprüft werden. Tests, die am Tier Monate dauern, lassen sich mit Hilfe der Chips innerhalb von ein bis zwei Tagen durchführen. Das System ist inzwischen patentiert und wird von der amerikanischen Firma Hurel vertrieben. [8]
„Henry Markram baut das Gehirn im Computer nach und sagt das Ende von Tierversuchen und klassischer Laborarbeit voraus“: http://www.zeit.de/2009/21/PD-Markram

Lobbygruppen für Tierversuche

VBIO - Verband Biologie, Biowissenschaften und Biomedizin in Deutschland e.V. (Internetportal)

Ziel (siehe: hier): Beschäftigung mit den Fragen:

  • Was ist „Freiheit der Wissenschaft“ und was heißt das in aller Konsequenz?
  • Grundlagenforschung: Muss und darf die Wissenschaft ausschließlich auf ein zum Wohle der Menschen (oder Tieres) direkt umsetzbares Ziel hinarbeiten?
  • Was heißt „ethisch nicht vertretbar“ / wer ist Subjekt der Moral?
  • Wie stellt sich die Rechtslage zum Thema Tierversuche in Deutschland, Europa und international dar?

Kritik:

  1. Eine Aussage im Impressum lässt vermuten, dass es nicht zwingend um eine sachlich objektive Darstellung geht, sondern vielmehr um eine konkrete Interessensvertretung: "Werden Sie Teil der starken Gemeinschaft von Biowissenschaftlern, die Ihre Interessen vertritt!". Hierbei handelt es sich also vermutlich um einen Verein der prinzipiell für Tierversuche eintritt, um die Interessen von Biowissenschaftlern zu vertreten. Außerdem setzt sich der Verein gegen ein Verbandsklagerecht für Tierschutzorganisationen ein (siehe hier), wie es dieses bereits für anerkannte Umweltschutzverbände gibt, da die Umwelt (wie eben auch ein Versuchstier) nicht selbst klagen kann.
  2. es wird behauptet: "Versuchstiere müssen artgerecht gehalten werden" (Verharmlosung) - wie der Fall Kreiter in Bremen zeigt, wird sehr bewegungsintensiven Primaten täglich mehrere Stunden der Kopf fixiert und die Versuchstiere werden bewusst durstig gehalten (siehe hier)
  3. Das Portal zeigt keine Tiere denen schwere Krankheiten und Verstümmelungen zugefügt wurden, sondern auf allen Seiten fast ausschließlich gesunde Tiere (fehlende Objektivität)
  4. Es wird behauptet: "Da die wissenschaftlichen Sachverhalte immer komplexer werden, liegt die Verantwortung für ihre ethische Aufarbeitung schon aus der Sache heraus bei den Naturwissenschaftlern selbst." (Ausstellung eines ethischen "Persilschein")
  5. Es wird gesagt Tiere zu halten wäre finanziell teurer als Alternativen (siehe hier) - Dem entgegen steht: Die Anschaffung eines Tesla-3-Kernspintomografen kostet bspw. 1,7 Millionen Euro, siehe hier, ein Käfig und Tierfutter kosten Bruchteile dieser Summe und sind selbst für Heimtierhalter problemlos zu bezahlen.

UAR - Understand Animal Research (UK) (Internetportal)

Ziel (siehe hier): "The vision of Understanding Animal Research (UAR) is to achieve understanding and acceptance of the need for humane animal research in the UK. The mission is to maintain and build informed public support and a favourable policy climate for humane animal research in the UK."
-> verkürzt gesagt: Ziel ist es in Großbritannien ein günstiges politisches Klima für Tierversuche zu schaffen.
-> Die Mitglieder sind fast ausschließlich Pharmaunternehmen und betroffene Forschungseinrichtungen (siehe: hier)

Kritik:

  1. Darstellung von Erfolgen durch Tierversuche (siehe hier oder hier). - fehlende Objektivität, da Erfolge ohne Tierversuche gänzlich fehlen; es werden zukünftige Erfolge dargestellt, die unsicher sind und evtl. auf anderem Wege erreicht werden
  2. Das Portal zeigt keine Tiere denen schwere Krankheiten und Verstümmelungen zugefügt wurden, sondern auf allen Seiten fast ausschließlich gesunde Tiere (fehlende Objektivität)
  3. es wird behauptet Versuchstiere zu halten wäre teurer als Alternativen (siehe hier) - unrealistisch, siehe Argumentation bei VBIO
  4. es wird behauptet es läge im Interesse des Forschers das Tier so wenig wie möglich leiden zu lassen (siehe hier) - das ist jedoch nur der Fall, wenn nicht gerade das Leid des Tieres ein wesentlicher Faktor des (so geplanten) Experimentes ist (wie z.B.: hier)

Lobbygruppen gegen Tierversuche

Ärzte gegen Tierversuche e.V (Internetportal)

Ziel (siehe: hier): "»Medizinischer Fortschritt ist wichtig - Tierversuche sind der falsche Weg!« - Unter diesem Motto setzen sich die Ärzte gegen Tierversuche e. V. für eine tierversuchsfreie Medizin ein, bei der Ursachenforschung und Vorbeugung von Krankheiten im Vordergrund stehen."

  • Abschaffung aller Tierversuche.
  • Verstärkte Förderung der tierversuchsfreien Forschung.
  • Intensivierung der Erforschung der wirklichen Ursachen unserer Krankheiten durch klinische und epidemiologische Forschung sowie Aufklärung über präventive Möglichkeiten.
  • Verstärkte Erforschung und Förderung regulationsmedizinischer Verfahren wie z.B. Akupunktur, Phytotherapie, Homöopathie u.a.

Kritik:

  1. tritt für ein ausnahmsloses Verbot von Tierversuchen ein (keine Differenzierung)
  2. setzt sich für fragwürdige alternativmedizinische Behandlungsmethoden ein, wie Akupunktur und Homöopathie
  3. führt eine Datenbank, in welcher nach Namen von Personen, die Tierversuche durchführen/durchgeführt haben, gesucht werden kann (Führen eines Online-Prangers versus Schaffen von Transparenz) [10]
  4. zeigt Nähe zu antroposophischen Kreisen [11]

neutrale Portale zur objektiven Aufklärung

wikipedia: Tierversuch

Dokumentationen von Tierversuchen

  • 3Sat Reportage zu Tierversuchen für REACH und Alternative Verfahren:
Teil1 (youtube 8:03min), Teil2 (youtube 4:53min)
  • 3Sat Reportage zu Problemen von Tierversuchen und warum bereits vorhandene Alternativen nicht eingesetzt werden:
Unattraktive Alternative (youtube 7:30)
  • 3Sat Reportage zu den Problemen von Tierversuchen
Nano: Wie sinnvoll sind Tierversuche wirklich? (youtube 5:30)

Referenzen

Aerzte gegen Tierversuche:

http://www.aerzte-gegen-tierversuche.de/images/infomaterial/woran_soll_man_testen.pdf
http://www.aerzte-gegen-tierversuche-shop.de/epages/61901037.sf
Tabellen dazu im Review "First dose of potential new medicines to humans: how animals help":
FIGURE 4 | Percentage concordance between animal and human toxicities, grouped by organ.
FIGURE 5 | Time to first detection of animal toxicity.
  • [7] Technology Review, Juli 2004, S. 45-48
  • [8] McIvor E; Seidle T: Within REACH – Intelligent Testing Strategies for the Future EU Chemicals Regulation. Vier Pfoten (Hrsg.), Sept. 2006.
  • [9] Tierversuch: Wie drücken Mäuse Schmerzen im Gesicht aus? http://www.heise.de/tp/r4/artikel/32/32612/1.html (für diese "Forschung" werden den Mäusen absichtlich unterschiedlich starke Schmerzen zugefügt)
  • [10] Datenbank Tierversuche der Ärzte gegen Tierversuche e.V.: http://www.datenbank-tierversuche.de/
  • [11] Antroposophisch anmutende Statements auf der Seite der Ärzte gegen Tierversuche e.V.:
Aus der Grundsatzerklärung: "Tierexperimentelle Forschung führt zu einer unzulässigen Überbewertung der naturwissenschaftlichen Basis der Medizin. Der menschliche Körper wird als eine Art Biomaschine gesehen, Krankheiten als biochemische oder physiologische Entgleisungen, welche chemisch, biochemisch, operativ oder radiologisch wieder repariert werden könnten. Die Folge ist eine kaum mehr vertretbare Apparate-, Ersatzteil- und Retortenmedizin, die auf einem überholten mechanistischen Denkansatz beruht und einem inhumanen Machbarkeitswahnwitz huldigt. Soziale und psychische Faktoren, die für alle Erkrankungs- und Heilungsvorgänge von Bedeutung sind, bleiben ausgeklammert."
Der ehemalige 1. Vorsitzende Dr. med. Werner Hartinger: "Nun hat alles in unserer Welt zwar materielle Strukturen, auch die Lebewesen, doch an der Entstehung von Krankheit und Gesundheit eines Organismus haben sie den geringsten Anteil. Dessen artspezifische, zum großen Teil geistig-seelisch gesteuerte Funktionen und Reaktionen können auf physikalisch-chemischer Ebene nicht erfasst und noch weniger quantifiziert werden. Auf diese Weise können nur die eingetretenen funktionalen und strukturellen krankhaften Veränderungen analysiert werden, nicht aber die Vorgänge, die vor der erkennbaren Krankheitssymptomatik zu diesen Veränderungen geführt haben. Deshalb kann diese materiebezogene Erforschung der biomedizinischen Lebensvorgänge weder Erkenntnisse über die eigentlichen Erkrankungsursachen vermitteln noch die Symptombehandlung der Krankheiten zu einer Beseitigung ihrer Ursachen führen."

Atomkraft

aktuelle Situation

Deutschland steigt bis 2022 aus der Energiegewinnung durch Kernkraftwerke aus [1].

Sicherheit

Frage Ist Atomkraft sicher?
Antwort Bisher sind schon viele Unfälle [2] aufgetreten, mit den Höhepunkten 1986 in Tschernobyl [3] und 2011 in Fukushima [4]. Ob in Zukunft ähnliche oder größere Unglücke geschehen werden ist unbekannt, aber statistisch gesehen nicht ausgeschlossen [5]. Solange diese Technik genutzt wird, besteht zumindest immer eine unberechenbare Gefahr durch das Wirken höherer Mächte (z.B. Naturgewalten) oder durch Anschläge.

radioaktive Abfälle

Frage Wie sieht es mit der Lagerung der radioaktiven Abfälle aus?
Antwort Bisher gibt es weltweit noch keine Endlager. Die optimistischsten Schätzungen rechnen mit den ersten Endlagern 2025 [6], obwohl noch unklar ist ob es sich nicht auch wieder als eine neue Zwischenlagerungsmethode herausstellt. Bis dahin müssen die Abfälle immer wieder umgelagert werden. Beispielsweise kostet die Umlagerung des Abfalls vom Zwischenlager Asse 2 nach aktuellen Schätzungen ungefähr 2-4 Milliarden Euro [7].

Frage Kann man den Müll nicht einfach ins Weltall schießen?
Antwort Nein, denn ca. 4.000-5.000 m3 radioaktiven Mülls produziert allein Deutschland jährlich [8]. Bei der Überwindung der Erdgravitation achtet man bei Raketen/Spaceshuttles auf jedes überflüssige Kilo, eine Technologie mit der sich dies ändern könnte ist derzeit nicht absehbar. Diskussionsseite zum Weltraumlift

Frage Wer verdient an der Abfallbeseitigung?
Antwort

EURATOM

Referenzen

Kernfusion

Frage Warum findet sich in euren Anträgen nichts über Kernfusion?
Antwort Kernfusion ist nach wie vor Grundlagenforschung. Bisher hat noch nie ein Fusionsplasma über einen längeren Zeitraum gehalten, so dass bisher keine hinreichenden Informationen vorliegen, welche Anforderungen eine dauerhafte Nutzung an die Materialien stellt. Dieses Gebiet ist daher der Forschungs- nicht aber der Umweltpolitik zuzuordnen. Die Prognosen, wann wir Kernfusionsreaktoren haben werden verschieben sich kontinuierlich um ungefähr 20Jahres-Zeiträume, so dass wir diese nach den ersten Prognosen bereits mehrere Jahrzehnte nutzen müssten.

Weitere Gründe sind, dass wir generell ein dezentrales Netz an dem jeder Bürger auch partizipieren kann möchten und keine Großkraftwerke, wie sie bspw. bei dem ITER-Projekt herauskommen könnten. Diese Art der Energieerzeugung würde zu einer weiteren Abhängigkeit von den großen Energiekonzernen mit ihren Intransparenzen und Preisdiktaturen führen. Hinzu kommt, dass Großkraftwerke sich besonderen gut als militärisches Ziel eignen und die letzten großen Kriege nicht so weit zurück liegen, als dass man annehmen könnte, dass sich die Menschheit seitdem grundlegend verändert hätte.

Außerdem entsteht auch bei der Kernfusion radioaktiver Abfall: auch radioaktiver Abfall bei Kernfusion (Wikipedia)

CO2-Sequestrierung

Frage: CO2, dass aus unterirdischen Lagerstätten austreten kann, soll gefährlich sein, weil es sich auf Bodenniveau ablagern und Sauerstoff verdrängen soll, sodass man daran erstickt. Wieso passiert das nicht bei dem CO2, dass aus Schornsteinen, Auspuffen etc. kommt? Müsste sich das nicht auch am Boden ablagern und uns ersticken?

Antwort

Von Dr. Volker Jaenisch

"Die molare Masse von CO2 beträgt 44 und ein paar zerquetschte, die von Luft so rund 29 g/mol. Von daher ist CO2 tatsächlich schwerer als Luft. Es würde sich auch unten am Boden sammeln, wenn außer der Schwerkraft keine weiteren Kräfte auf die Moleküle der Atmosphäre wirken würden. Aber selbst auf dem Mond Titan welcher nur sehr wenige Sonnenstrahlung abbekommt, reicht diese aus um die Atmosphäre zu vermischen. Das Problem mit der molaren Masse des CO2 ist aber nicht unerheblich, wenn wir z.B. mal an die Diskussion um CCS denken. Dort Argumentieren wir ja, wie gefährlich CO2 ist, da es schwerer als Luft ist. Wir dürfen also nicht mit zweierlei Maß diskutieren sondern müssen schon schlüssig erklären, warum wir einerseits behaupten CCS ist gefährlich weil das CO2 zu Boden sinkt und gleichzeitig jemandem den Mund verbieten dürfen, der diese unsere Argumentation auf das Klima übertragen will. Der Grund warum das CO2 sich nicht aus der Atmosphäre entmischt ist, dass durch die atmosphärische Turbulenz ein stetes Rühren und durchquirlen der *unteren* Luftschichten erfolgt. Diese Luftschichten sind die Troposphäre in der sich das Wetter abspielt. Auch in der Troposphäre gibt es Schichten, diese bestehen aber *nicht* aus unterschiedlichen Gasen, sondern aus Luftschichten unterschiedlicher Temperatur und/oder Wasserdampfgehalt. Diese Schichten werden von großen (Z.B. Tiefdruckgebiete) bis winzigen (ein paar Milimeter, vgl. Kolmogoroffskala [1]) Wirbeln verquirlt. Mittelgroße Wirbel kann jeder beobachten der im Sommer (wenn es mal einer wird :-( ), auf einer Wiese liegt und über ihn ab und zu eine kleine Wolke hinüber streicht. Sobald die Wolkenkante beinahe über einem ist verspürt man einen Luftzug entgegen der Zugrichtung der Wolke. Ist die Wolke direkt über einem ist es Windstill. Verlässt einen die Wolke dann spürt man einen Luftzug in Zugrichtung. Eine solche Kumuluswolke ist wie ein Staubsauger, der Luft nach oben "ansaugt". All diese Mixer sorgen dafür, dass die Luft sich nicht entmischt.

Anderes liegt bei einer CCS-Katastrophe vor. Hier tritt innerhalb kurzer Zeit eine große Menge CO2 in die Atmosphäre. Natürlich beginnt die natürliche Durchmischung sofort und vermischt auch das CO2 mit der Atmosphäre. Allerdings beginnt diese Durchmischung nur am Rand der weitläufigen sich bildenden flachen CO2 Blase, da innerhalb der Blase ja keine Luft da ist, die sich mit dem CO2 vermischen könnte. Selbst wenn man Glück hat und es ist ordentlich Wind, so vermischt sich das CO2 am Boden trotzdem nicht so schnell wie man glauben möchte:

"Das Wetter war stürmisch und die Arbeiten wurden in freier Umgebung an frischer Luft durchgeführt. Der Ablass eines Kondensatabscheiders war einen Spalt breit geöffnet, um kontinuierlich CO2 abzublasen. Bei seiner Arbeit befand sich der Elektriker mit seinem Gesicht weniger als 0,5 m von der Ausblaseöffnung entfernt. Die nach dem Ereignis durchgeführten Messungen zeigten eine Sauerstoff-Konzentration von 15,8 % nahe am Austritt. Dieser Sauerstoffgehalt bedeutet, dass das CO2 mehr als 25% der Luft verdrängt hat – ein Wert, der tödliche Folgen haben kann. Im EIGA Dokument 66/99 ”CO2-Behälter mit Rückkühlung für die Anwendung beim Kunden“ werden in Anlage B Informationen zu gefährlichen Auswirkungen im Zusammenhang mit CO2 gegeben." [2]

Nehmen wir mal an, wir haben eine 2 Meter starke CO2-Schicht und wollen diese mit einer 98 Meter hohen Luftschicht auf 2% verdünnen. (Gefährlich wird es so ab 3%. 8% führen nach 30 bis 60 Minuten zum Tod). Dazu brauchen wir einen Wirbel von 100 Meter Durchmesser (in die Höhe). Bei einer Karmanzahl von 0.4 ist die charakteristischen turbulente Mischungslänge des Wirbels l(mix) = 0.4 * 100m = 40 m. Diese Mischungslänge besitzt nach Prandtl folgende Mischungszeit: T(mix)=l(mix)/(2 K) . Mit K der Prandtl-Zahl (liegt in der Atmosphäre so zwischen 1 und 10 m2/sec in Abhängigkeit von der Turbulenz (also maßgeblich von der Höhe!)) ergibt dies 80 Sekunden im Minimum (Also bei starken Bodennahen winden). Nehmen wir aber ein Prandtlzahl von 1 an (geringe Turbulenz) dauert es 800 Sekunden. Viel Spaß beim Luftanhalten.

Ist also kein Wind da, kann nur durch die Thermik eine Umwälzung der Atmosphäre erfolgen. Ist das CO2 noch dazu kalt (Was wohl die Regel sein wird, da es vorher unter Druck gestanden hat.) dann gibt es keine Thermik und damit keine Durchmischung. Erst wenn die Sonneneinstrahlung die Kälte des Bodens und der CO2-Schicht überwunden hat, beginnt durch die Thermik auch eine vertikale Durchmischung. Aber das kann bei Windstille Stunden oder Tage dauern."

Fazit: Wir alle wissen, dass CO2 aus Schornsteinen, Lagerfeuern, Auspuffen, Atmung etc. uns nicht ersticken, aber große Mengen CO2, die sehr schnell freigesetzt werden, schon. Siehe Die Katastrophe von Nyos

Meeresübersäuerung

Frage: Findet eine Übersäuerung der Ozeane statt?
Antwort: Offensichtlich ja, aktuelle Messungen zeigen einen Abfall der pH Werte der im Einklang mit den erwarteten Änderungen durch den gestiegenen CO2 Gehalt der Luft ist. [1]


Frage: Welche Auswirkung hat die Übersäuerung?
Antwort: Auch wenn der eigentliche Zahlenwert klein erscheint, so gibt es doch Auswirkungen. Die natürlichen Schwankungen und regionalen Unterschiede des pH Wertes sind zwar größer als die durch den steigenden CO2 Pegel verursachte Verschiebung, das Problem ist aber, dass der Mittelwert dadurch langfristig nach unten verschoben wird. Der vermeintlich kleine Zahlenwert ist auch irreführend, da pH eine logarithmische Skala ist (negativ dekadischer Logarithmus). Eine Änderung um einen pH Wert von 1 bedeutet einen Faktor 10 für die Wasserstoffionenkonzentration, also pH 6 ist zehnmal so sauer wie pH 7. Ein sinkender pH Wert reduziert die Fähigkeit der Meereslebewesen Kalkschalen aufzubauen. Obwohl dies nicht direkt zu einem großflächigen Absterben dieser Lebewesen führt, kann die resultierende verzögerte Entwicklung die Populationen schrumpfen lassen. Der Zusammenhang wurde in Laborversuchen bereits bestätigt und ist in der Natur durch den Rückgang von Korallen zu beobachten [2].


Eine detailliertere Erklärung und umfangreiche Quellenangaben finden sich bei Wikipedia: http://de.wikipedia.org/wiki/Versauerung_der_Meere

Ökoeffektivität

Im dritten oder zweiten Abschnitt sollte das Konzept der Ökoeffektivität und mehr Forschungsmittel hierfür gefordert werden. Dieses geht davon aus, das man die Produkte neu entwickelt, das sie entweder in technische oder in biologische Kreisläufe zurückgeführt werden können. Es grenzt sich damit von Ökoeffizienz ab, die nur den Eintrag verringern will. Viel wichtiger ist Forschung (natürlich ist beides wichtig) dafür Produkte zu entwickeln, die der Umwelt nicht schaden.

Einfluss von Außenpolitik auf unsere Umwelt

Frage Warum vermischt ihr Außen- und Umweltpolitik?
Antwort Da sich die Waffen mit denen wir uns gegenseitig töten von Stöcken, Speeren, Bögen, Mistgabeln, Messern, Schwertern und Schusswaffen hin zu Massenvernichtungswaffen (weapons of mass destruction - wmd) weiterentwickelt haben, sind die Gefahren für unsere Umwelt und somit auch für uns und nachfolgende Generationen drastisch gestiegen.

Die Gefahren sind z.B. eine dauerhafte Zerstörung für uns wesentlicher Ökosysteme oder die radioaktive Verseuchung (Kontamination) unsereres Trinkwassers und anderer Nahrungsquellen. Die Folgen für spätere Generationen wären ein Unbrauchbarmachen von Lebensraum, hausgemachte Krankheiten und hohe Raten von angeborenen Missbildungen durch Erbgutschädigungen.

Aus diesem Grunde ist es wichtig Konflikte zu verhindern und bestehende Konflikte gewaltfrei zu lösen oder zumindest die Mittel der Kriegsführung einzuschränken. Deshalb möchten wir, dass Deutschland atomwaffenfrei wird, also auch nicht weiter als Basis amerikanischer Atomwaffen dient, da diese Waffen nur abschreckend wirken, wenn man sie auch einsetzen will, wir dies aber strikt ablehnen. Außerdem setzen wir uns ein für eine atomwaffenfreie Welt und sehen die einzige Möglichkeit andere friedlich zum Abrüsten zu bewegen, selbst auf diese Waffen zu verzichten. Wir möchten, dass der Atomwaffensperrvertrag [1] von Allen eingehalten wird, anstatt nur andere Länder darauf aufbauend zu bedrohen, um von der eigenen Verantwortung abzulenken. [2]

[1] http://de.wikipedia.org/wiki/Atomwaffensperrvertrag
[2] http://www.spiegel.de/politik/ausland/0,1518,692801,00.html

Kritik

Grüne 2.0 ?

Wenn es dazu kommt, dass wir in einigen Punkten identische Konzepte mit den Grünen oder anderen Parteien entwickelt haben, dann ist das nicht ein Mangel an Eigenständigkeit, sondern dem Umstand geschuldet, dass gewisse Dinge durch die Realität vorgegeben sind. Menschen brauchen zum Leben Sauerstoff und keine Stickoxide. ;)

Nach Erarbeitung eines umfassenden Programmes werden die Unterschiede zu dem Programm der Grünen sicherlich deutlicher hervortreten, jedoch ist nach einer eingehenden Analyse der Umweltprogramme anderer Im BT vertretenen Parteien nicht abzustreiten, dass gerade diese Partei in vielen grundlegenden Fragen bisher verantwortungsvoller herangegangen ist als ihre Konkurrenten.




Die AG Umwelt ist eine Arbeitsgruppe der PIRATENPARTEI DEUTSCHLAND. Alle nicht speziell gekennzeichneten Aussagen und Meinungen sind bisher weder offizielle Aussagen der Partei noch von den Mitgliedern insgesamt legitimiert.