Dienstag, 20. September 2016

Books on Organosilicon Chemistry

Siliciumorganische Chemie


Das Standardwerk über siliciumorganische Chemie sind auf jeden Fall die Bände "The Chemistry of Organic Silicon Compounds" herausgegeben von Z. Rappoport und S. Patai. Hier muss der Leser bei der Suche in der Bibliothek aufpassen, dass er nichts übersieht. Denn es gibt mehrere Ausgaben, deren Inhalte sich nicht überscheniden sondern ergänzen.
Die erste Ausgabe stammt von 1989 und besteht aus zwei Bänden. Die zweite Ausgabe ist von 1998 und besteht aus drei Bänden. Also insgesamt sind 5 Bände zu durchsuchen. Angesichts des hohen Preises (siehe Link unten) ist das sicher nichts für den heimischen Bücherschrank, aber in einer guten Universitätsbibliothek sollten die Bände zu finden sein.


Voll konzentriert auf Anwendungen in der organischen Synthese ist das "Handbook of Reagents for Organic Synthesis: Reagents for Silicon-Mediated Organic Synthesis"
herausgegeben von P. L. Fuchs und A. J. Pearson von 2011. Der Leser wird überrascht sein, welch vielfältige Anwendungen siliciumorganische Verbindungen in der organischen Chemie besitzen. Auch einfach mal im Buch stöbern ist nützlich und liefert neue Anregungen.
Schließlich der Höhepunkt, der im Moment meine volle Begeisterung genießt, ist das von H. W. Roesky herausgegebene Buch "Efficient Methods for Preparing Silicon Compounds" von 2016. Hier spiegelt sich der neueste Forschungsstand wider. Alle siliciumorganischen Verbindungsklassen die in den letzten Jahren neu entdeckt und untersucht wurden sind hier versammelt: Silyl-Radikale, Silyl-Anionen, Silyl-Kationen, Silylene, Disilene, Silsesquioxane, Si(II)-Komplexe, und Silylen-Komplexe. Es gibt in jedem Abschnitt eine kurze Erklärung und Einführung in die Verbindungsklasse, danach folgen die Synthesevorschriften. Diese sind allerdings nicht für Anfänger geeignet, sondern sollten nur von fortgschrittenen Studenten oder Doktoranden nachgearbeitet werden. Weiterführende Literaturstellen runden jedes Kapitel ab.




Samstag, 4. Juni 2016

Raw Materials and Resources - Part 12

Ressourcen und Prognosen - Teil 12 und Schluss der Reihe

Die Rohstoffsituation in Deutschland war Ausgangspunkt dieser Artikelreihe. Darüber wurde in Teil 1 berichtet. Wie lange reichen die Energierohstoffe zur Versorgung der Weltbevölkerung? Dieser Frage gingen Teil 2, 3 und 4 dieser Artikelreihe nach. Die Teile 5 und 6 lieferten wesentliche Informationen über kritische oder strategische Rohstoffe. Wenn man sich mit diesen Themen beschäftigt, kommt man unweigerlich zu Fragen wie die natürlichen Ressourcen verteilt sind und ob es Methoden zur Abschätzung der noch verfügbaren Reserven gibt. Darüber wurde in Teil 7 und 8 berichtet. Weiter ging es über Ausflüge in die Welt der Statistik (Exkurs A) und Fraktale (Exkurs B) hin zu den Modellen, die Entwicklungen in Natur und Gesellschaft widerspiegeln sollen (Teil 9). In dem Zusammenhang sind wir auf das exponentielle Wachstum gestoßen und ich habe versucht, den Lesern die Angst davor zu nehmen (Exkurs C). Das thermodynamische „Thanatia“- und das „HANDY“-Modell sind hochaktuell, wagen sich weit in die Zukunft hinaus zu blicken und wurden in eigenen Kapiteln behandelt.
„Prognosen sind eine schwierige Sache. Vor allem, wenn sie die Zukunft betreffen“ stellte bereits Mark Twain fest. Wachstumsprognosen liegen oft daneben. Grenzen des Wachstums wurden vorhergesagt, treten dann aber gar nicht ein. Immer wieder gibt es völlig neue technische Erfindungen und alternative Entwicklungen, die zum Zeitpunkt als die Prognose gemacht wurde noch gar nicht vorhersehbar waren. Beispiele für falsche Prognosen ziehen sich durch die Geschichte wie eine Spur der menschlichen Unzulänglichkeit. Seien es nun die übertriebenen Hungerszenarien von Malthus oder die pessimistischen Prognosen des Club of Rome. Der saure Regen, das Waldsterben, das Ozonloch – diese Probleme wurden und werden durch gemeinsame Anstrengungen überwunden.

Nicht unterschätzt werden sollte der menschliche Erfindergeist. Dieser liefert immer wieder alternative Lösungen, die vorher undenkbar waren. So führte im 20. Jahrhundert die Erfindung des Automobils zur Ablösung der Pferde als Haupttransportmittel. Überliefert ist in dem Zusammenhang ein Zitat von Henry Ford: „Wenn ich die Menschen gefragt hätte, was sie wollen, hätten sie gesagt schnellere Pferde.“ Als sich das Automobil als Verkehrsmittel durchgesetzt hatte, war das Umweltproblem des Pferdemistes in den Straßen von New York erledigt. Dafür entstanden aber ganz neue Umweltprobleme.
Man könnte provokant fragen: Werden Ressourcen überhaupt je knapp? Oder einfach durch eine neue Technologie überflüssig und ersetzt? (siehe Abbildung) Diesen Fragen geht ein Artikel im Science Skeptical Blog nach. Es gibt verschiedene Ansätze, ungeahnte oder bisher nicht genutzte Ressourcen zu erschließen. Die unten stehenden Links bieten dafür zahlreiche Beispiele. Jede Krise setzt neue Kräfte frei. Jedes Problem gebiert neue Ideen und Erfindungen. Jede Preissteigerung eines Rohstoffes führt zu neuen Technologien, die uns von diesem Rohstoff unabhängiger machen. Mit jeder neuen Technologie werden wir stärker und mächtiger bei der Bewältigung der anstehenden Aufgaben. In diesem Sinne möchte ich mit dem Aufruf schließen: Bleiben Sie optimistisch!


Abbildung: Rohstoffpreise für einen Rohstoff (oben). Punkt A: Steigende Preise initiieren die Forschung nach alternativen Technologien. Punkt B – Break Even: Der Preis für die konventionelle Erzeugung des Rohstoffes ist gleich dem Preis für die Erzeugung durch die alternative Technologie. Die Produktionsmenge des Rohstoffes (unten) folgt zunächst einer logistischen Kurve. Bei Eintreten der Sättigung setzt sich die neue Technologie durch und führt zu einer erneuten Eskalation.



Beispiele für Ressourcengewinnung aus bisher nicht genutzten Quellen:



Bekanntmachung des Bundesministeriums für Bildung und Forschung: Richtlinien zur Fördermaßnahme „r4 – Innovative Technologien für Ressourceneffizienz – Forschung zur Bereitstellung wirtschaftsstrategischer Rohstoffe“ für Bildung und Forschung



Die besten Zitate zu Trend- und Zukunftsforschung von der Webseite von Matthias Horx

Samstag, 28. Mai 2016

Raw Materials and Ressources - Books

Bücher über Rohstoffe und Ressourcen

Geeignete Lektüre über kritische Metalle und strategische Rohstoffe bieten folgende Bücher:


Grundlegendes über Lagerstättenkunde und Exploration findet man in diesen Titeln:



"Mineral Resource Estimation" von M. E. Rossi und C. V. Deutsch, Springer, Dordrecht 2014. Die Abschätzung von Mineralvorkommen hat sich in den letzten 25 Jahren stark verändert. Geostatistische Methoden haben sich durchgesetzt und entwickeln sich weiter. Numerische Modellierungen sind mit der gegenwärtigen Computertechnik problemlos möglich. Die modernen Methoden zur Schätzung von Mineralvorkommen sind in diesem Buch zusammengefasst.

"Quantitative Mineral Resource Assessments: An Integrated Approach" von D. A. Singer und W. D. Menzie, Oxford University Press, Oxford 2010. Politiker, Explorationsexperten und Planungsbehörden entscheiden wie Gebiete, in denen sich unentdeckte Rohstoffe befinden können, genutzt werden sollen. Entscheidungen hinsichtlich der Nutzung von Mineralvorkommen werden nicht nur auf der Grundlage der vermuteten Mengen an Rohstoffen getroffen, sondern Politik, Umweltschutz und die regioniale Entwicklung spielen eine große Rolle bei allen Entscheidungen. Dieses Buch berücksichtigt explizit alle Faktoren, die bergbaubezogene Entscheidungen beeinflussen. Damit können Entscheidungsträger in Politik und Wirtschaft die möglichen Folgen ihrer Entscheidungen besser überblicken. Die Autoren nutzen das dreistufige Verfahrens des United States Geological Survey zur Beurteilung unbekannter Mineralvorkommen als Grundlage.



"Thanatia: the Destiny of the Earth's Mineral Resources" von A. V. Capilla und A. V. Delgado, World Scientific, New Jersey 2015. In diesem Buch wird eine streng thermodynamische Theorie zum Verständnis der Ressourcenausbeutung entwickelt. Die Autoren fragen sich, ob aus unserem Planeten ein ausgebeutetes "Thanatia" ohne Ressourcen werden könnte. Unter dem Begriff Thanatia versteht man einen Planeten, bei dem alle Ressourcen gleichmäßig über die Oberfläche verteilt sind. Es gibt keine Minerallagerstätten, sondern alle Elemente sind durch die Tätigkeit der Menschen mehr oder weniger gleichmäßig verstreut worden.
Wie lange kann unsere High-Tech-Gesellschaft noch aufrechterhalten werden, wenn die Erzgehalte der Minerallagerstätten immer niedriger werden; wenn wir von kritischen Metallen abhängig sind, die so gut wie gar nicht recycelt werden und wenn die Dispersion der Metalle immer schneller voranschreitet? Das Buch präsentiert einen Ansatz „cradle-to-cradle“ für die abiotischen Ressourcen der Erde. Dieser Begriff umschreibt das vollständige Recycling aller produzierten Güter. Der Ansatz der Autoren beruht auf dem zweiten Hauptsatz der Thermodynamik: Wärme verteilt sich gleichmäßig, Materialien zersetzen sich und werden verstreut. Durch das Postulat von Thanatia vermitteln uns die Autoren ein Gefühl für das Schicksal der Materialien und für die Notwendigkeit, die abiotischen Ressourcen der Erde weise zu nutzen. Das Buch behandelt wichtige Aspekte der Geologie, Geochemie, Bergbaukunde, Mineralogie, Metallurgie, Ökonomie, Ökologie und Thermodynamik. Darüber hinaus kann das Buch als Nachschlagewerk genutzt werden. Es enthält Stoffdaten von mehr als 300 Substanzen, Statistiken zu Bodenschätzen, Energieverbrauch, über den Umwelteinfluss des Bergbausektors und über weltweite Recyclingraten.


Samstag, 7. Mai 2016

The Crystalline Sponge Method Reloaded

Neues von den kristallinen Schwämmen

Über kristalline Schwämme als Werkzeug in der Strukturanalyse hatte ich im Blog bereits berichtet. Bei dieser Methode saugt man eine flüssige Verbindung oder die Lösung einer Verbindung auf, dabei entsteht ein Einschlusskomplex. Die Kristallstruktur dieses Komplexes aus Wirt und Gast wird gemessen und schon hat man eine Strukturanalyse der ursprünglich flüssigen Verbindung.  Diese neuartige Methode der Strukturbestimmung publizierten Fujita et al. 2013 unter der Überschrift "X-ray analysis on the nanogram to microgram scale using porous complexes" in Nature 495 (2013) 461-466 und Nature 501 (2013) 262.
Die Methode ermöglicht es auch, die Stereochemie von chiralen Verbindungen zu untersuchen. Verbindungen mit axialer oder planarer Chiralität finden vielfach Anwendung in katalytischen asymmetrischen Synthesen. Allerdings ist die Bestimmung der absoluten Konfiguration solcher Verbindungen oft schwierig. Die Autoren demonstrieren in einem aktuellen Artikel sehr anschaulich die praktische Anwendbarkeit ihrer Methode (S. Yoshioka et al. in Chem. Sci. 6 (2015) 3765-3768). So trennten sie z.B. racemische Mischungen ihrer chiralen Zielsubstanzen mit HPLC auf. Anschließend tauchten sie den kristallinen Schwamm in einen winzigen Tropfen der gewonnenen enantiomerenreinen Substanz. Das führt zu einem chiralen Wirt-Gast-Komplex. Die chirale Gastverbindung induziert dabei einen Übergang des achiralen Wirtsgitters in eine chirale Struktur.
Allerdings ist die Arbeitstechnik mit den kristallinen Schwämmen nicht ganz so einfach. Es gibt zahlreiche praktische und kristallographische Probleme die überwunden werden müssen. In einem Interview für Chemistry World erläutert Makoto Fujita, einer der Autoren, die Probleme mit dieser Methode. Sinngemäß sagte er: "Als wir unseren Artikel  2013 in Nature publizierten, waren wir unsicher über die Anwendbarkeit und die Grenzen dieser Technik. Wir haben inzwischen festgestellt, dass qualitativ hochwertige Daten nur erhalten werden, wenn die Gastmoleküle in sehr hohen Konzentrationen im Wirtsgitter vorliegen. Für jedes zu untersuchende Molekül müssen daher die Bedingungen zur Bildung des Wirt-Gast-Komplexes sorgfältig optimiert werden." Inzwischen haben die Autoren weiter an dieser Methode gearbeitet und präsentieren ihre neuesten Ergbnisse im IUCr Journal (IUCrJ 3, 2016, 139-151).

Nachfolgend zwei Beispielstrukturen aus der Veröffentlichung in Chemical Sciences von 2015: In Abbildung 1 sind alle Atome in der Struktur, also Wirt- und Gastmoleküle, mit van-der-Waals-Radien  wiedergegeben. Es ist deutlich zu erkennen, dass die Struktur immer noch große Hohlräume enthält. In diesen können sich z.B. Lösungsmittelmoleküle befinden. Wenn das Lösungsmittel keine definierten Positionen im Kristallgitter einnimmt, dann spricht man von "diffusen Lösungsmittelmolekülen". Solche Moleküle erschweren dann häufig eine exakte Strukturbestimmung.



Abb. 1: Struktur eines Einschlusskomplexes von [Tetrakis(2,4,6-tris(pyridin-4-yl)-1,3,5-triazin)-dodecakis(iodo)-hexazink (Wirt) mit (R)-5,5',6,6'-Tetramethylbiphenyl-2,2'-diol als Gast. Abbildung erzeugt mit den Strukturdaten WUDZEC aus der CSD. Originalveröffentlichung der Strukturdaten in Chem. Sci. 6 (2015) 3765-3768.

In der zweiten Abbildung sind die Moleküle des Wirtsgitters wiederum mit van-der-Waals-Radien dargestellt. Für die Gastmoleküle wurde eine Kugel-Stab-Darstellung gewählt. Man erkennt hier, dass die Gastmoleküle nur einen kleinen Anteil an der gesamten Struktur ausmachen. Die Experimentatoren müssen aber bei der Strukturanalyse alle Atome im Kristallgitter der Verfeinerung unterwerfen. Man schleppt bei dieser Methode also einen recht großen "Ballast" mit, nämlich die Atome des Wirtsgitters. Diese sind eigentlich nicht weiter interessant, da die Struktur des Wirtsgitters längst bekannt ist.


 Abb. 2: Struktur eines Einschlusskomplexes von [Tetrakis(2,4,6-tris(Pyridin-4-yl)-1,3,5-triazin)-dodecakis(iodo)-hexazink als Wirt mit (R)-4-(2-isopropyl-1-naphthyl)-2,3-dimethylthiophen als Gast. Abbildung erzeugt mit den Strukturdaten WUDZIC aus der CSD. Originalveröffentlichung der Strukturdaten in Chem. Sci. 6 (2015) 3765-3768.

 
Diese beiden Beispiele zeigen, dass diese Methode durchaus nicht ganz so einfach zu handhaben ist. Die Arbeitstechnik der "kristallinen Schwämme" ist mit handfesten kristallographischen Problemen verbunden. Diese können nur durch sorgfältiges Arbeiten von kristallographisch hoch qualifiziertem Personal gemeistert werden. 

Die kristallinen Schwämme stehen sicher noch am Anfang ihrer Entwicklung als Werkzeuge in der Strukturanalyse. Der nächste Schritt wäre das Design neuer "Schwämme". Dabei werden bisher vor allem Metal-Organic-Frameworks "MOF" verwendet. Diese kristallinen Metallsalze von organischen Säuren besitzen große Hohlräume, in denen die Gastverbindungen Unterschlupf finden. Arbeitsgruppen, die an MOFs arbeiten, könnten mit den kristallinen Schwämmen neue Anwendungsfelder für ihre Verbindungen erschließen. Eine Weiterentwicklung dieser Methode wurde bereits von einer anderen Arbeitsgruppe in Angriff genommen. So demonstrierten E. Sanna et al. kürzlich, dass ein makrocyclisches Tetraimin in Kombination mit Essigester ebenfalls als kristalliner Schwamm geeignet ist (Chem. Sci. 6 (2015) 5466-5472).

Weitere Links zum Thema:

Samstag, 30. April 2016

Raw Materials and Resources - Part 11

Von der Gaia-Theorie zu Thanatia – thermodynamische Modelle des Ressourcenverbrauchs

Nach der Gaia-Theorie ist die Erde und ihre Biosphäre ein großes Gesamtsystem, bei dem alle Lebewesen miteinander in Wechselwirkung stehen und voneinander abhängig sind. Es wird hierbei angenommen, dass die Organismen mit der anorganischen Umwelt der Erde in Wechselwirkung stehen und dadurch ein sich selbst regulierendes System entsteht. Dieses komplexe System sorgt dafür, dass die Bedingungen für das Leben auf der Erde aufrechterhalten werden. In diesem Zusammenhang wird diskutiert, wie die Biosphäre und die Evolution der Lebensformen die Stabilität der globalen Temperatur beeinflussen. Weitere Faktoren, welche die Bewohnbarkeit der Erde beeinflussen, sind u.a. der Salzgehalt der Ozeane, sowie der Sauerstoff- und der CO2-Gehalt in der Atmosphäre. (Quellen: Wikipedia in Deutsch oder besser der umfangreichere Artikel in Englisch)

Im Gegensatz zu Gaia ist Thanatia ein grauer toter Planet, bei dem alle Ressourcen gleichmäßig über die Erdoberfläche verteilt sind. Es gibt keine Minerallagerstätten mehr, sondern alle Elemente sind durch die Tätigkeit der Menschen mehr oder weniger gleichmäßig verstreut. Dieses Schreckensszenario ist der Ausgangspunkt des Buches "Thanatia - the Destiny of the Earth's Mineral Resources" (von A. V. Capilla und A. V. Delgado, erschienen bei World Scientific, New Jersey 2015). In diesem Buch wird eine streng thermodynamische Theorie zum Verständnis der Ressourcenausbeutung entwickelt.
Die Autoren fragen sich, ob aus unserem Planeten ein ausgebeutetes Thanatia ohne Ressourcen werden könnte. Wie lange kann unsere High-Tech-Gesellschaft noch aufrechterhalten werden, wenn die Erzgehalte der Minerallagerstätten immer niedriger werden; wenn wir von kritischen Metallen abhängig sind, die so gut wie gar nicht recycelt werden und wenn die Dispersion der Metalle immer schneller voranschreitet? Das sind alles Ursachen für zukünftige Problemfelder die heute schon bearbeitet werden sollten. Das Buch präsentiert einen Ansatz „cradle-to-cradle“ für die abiotischen Ressourcen der Erde. Dieser Begriff umschreibt das vollständige Recycling aller produzierten Güter. Der Ansatz der Autoren beruht auf dem zweiten Hauptsatz der Thermodynamik: Wärme verteilt sich gleichmäßig, Materialien zersetzen sich und werden verstreut. Durch das Postulat von Thanatia vermitteln uns die Autoren ein Gefühl für das Schicksal der Materialien und für die Notwendigkeit, die abiotischen Ressourcen der Erde weise zu nutzen. Über die rein thermodynamische Beschreibung der Materialverteilung hinaus kann das Buch als Nachschlagewerk genutzt werden. Es enthält Stoffdaten von mehr als 300 Substanzen, Statistiken zu Bodenschätzen, Energieverbrauch, über den Umwelteinfluss des Bergbausektors und über weltweite Recyclingraten.
Weiterführende Links:

Samstag, 23. April 2016

Raw Materials and Resources - Excursus D

Was nützen uns Modelle?

Im vorigen Post wurde das HANDY-Modell zur gesellschaftlichen Entwicklung und zum Ressourcenverbrauch vorgestellt. Nun könnte sich mancher Leser fragen: Was nützen uns überhaupt solche Modelle? Daher an dieser Stelle noch ein paar ergänzende Sätze zu „Modellen“ in der Wissenschaft: Modelle sind eine wichtige Methode, um komplexe Sachverhalte verständlich darzustellen. Kein Modell kann die Zukunft exakt vorhersagen, aber ein gutes Modell sollte uns eine Vorstellung davon vermitteln, was auf uns zukommen könnte. Auf dem Gebiet des Ressourcenverbrauchs sind Modelle eine wichtige Hilfe. Die weltweite Ökonomie beruht auf der Verfügbarkeit von mineralischen und biologischen Ressourcen. Aber mineralische Ressourcen sind nicht-erneuerbar und auch biologische Ressourcen können durch Raubbau erschöpft sein, wie es bereits vielfach in der Geschichte passierte. 
Quelle: U. Bardi, A. Lavacchi: A Simple Interpretation of Hubbert’s Model of Resource Exploitation, Energies 2009, 2, 646-661. 


Weiterführende Literatur:

Samstag, 16. April 2016

Raw Materials and Resources - Part 10

Gesellschaftliche Entwicklung und Ressourcenverbrauch – das HANDY-Modell

Das wohl jüngste Modell zur Beschreibung der gesellschaftlichen Entwicklung und des Ressourcenverbrauchs hat die griffige Abkürzung „HANDY“ erhalten. Diese Abkürzung wird in dem Artikel „Human and Nature Dynamics (HANDY): Modeling Inequality and Use of Resources in the Collapse or Sustainability of Societies” von S. Motesharrei, J. Rivas und E. Kalnay eingeführt (Ecological Economics, 101 (2014) 90–102). Die Autoren modellieren darin den Ressourcenverbrauch und das Bevölkerungswachstum. Sie zeigen unterschiedliche Entwicklungsszenarien auf. Je nach angesetzten Parametern für Bevölkerungswachstum, Ressourcenverbrauch und gesellschaftliche Verhältnisse kommt es zu einem Kollaps der Gesellschaft oder zu einer nachhaltigen Entwicklung, bei der sich ein Gleichgewicht einstellt (siehe Abbildung). 


Ausgangspunkt dieser Arbeiten ist die Sorge um den gegenwärtigen nicht nachhaltigen Ressourcenverbrauch. Zu Beginn werfen die Autoren einen Blick auf die Vergangenheit und zählen verschiedene Beispiele aus der Geschichte auf, in denen Zivilisationen zusammenbrachen. So wird z.B. der Zusammenbruch des römischen Imperiums genannt. Auf diesen folgten Jahrhunderte mit Bevölkerungsrückgang, ökonomischem Niedergang und dem Verlust von Wissen. Weitere Beispiele für untergegangene Hochkulturen sind Mesopotamien, Ägypten und die Maya-Zivilisation. In der Argumentation der Einleitung erinnert der Text ein wenig an Oswald Spenglers „Untergang des Abendlandes", geht aber im Weiteren deutlich über eine bloßes Beobachten von Erscheinungen hinaus. Verschiedene Umwelteinflüsse und soziale Verhältnisse wurden bisher zur Erklärung des Zusammenbruchs von Gesellschaftsordnungen herangezogen. Bislang gibt es kein allgemeines Modell zur Erklärung dieser Erscheinungen.
Die Autoren schlagen ein Modell der menschlichen Populationsdynamik vor und modellieren damit verschiedene Szenarien. Das Modell berücksichtigt die ökonomische Ungleichheit zwischen verschiedenen Bevölkerungsgruppen. Zur Vereinfachung wird zwischen „Commoners“ (gemeines Volk, Bürgerliche) und Eliten unterschieden. Die Bevölkerungsgruppen werden mit einem Raubtier-Beute-Modell kombiniert. Dabei werden die Menschen in vereinfachter Form als „Raubtier“ angesehen, die die Schätze der Natur ausbeuten („Beute“). Das Modell beruht auf einem Satz von vier Gleichungen, die voneinander abhängig sind. In der Mathematik wird das als lineares Gleichungssystem bezeichnet. Die HANDY-Gleichungen sind folgende:

für die gemeine Bevölkerung („Commoners“):         xC = βCxC – αCxC

für die Elite:   xE = βExE – αExE

für die Natur:  y = γy(λ-y) – δxcy

für den Wohlstand: w = δxCy – Cc – CE

Dabei ist „γy(λ-y)“ der Regenerations-Term und „δxcy“ der Abbau-Term. Der Regenerationsterm ist als logistische Funktion formuliert mit einem Regenerationsfaktor γ und einer Sättigung, wenn sich y an λ annähert. Dabei ist λ die maximale Kapazität der Natur. CC und CE sind die Konsumraten der Bevölkerung und der Eliten.
Das in dem Artikel vorgeschlagene Modell weist zahlreiche Vereinfachungen und Schwächen auf. Darauf weisen die Autoren auch hin und kündigen Weiterentwicklungen an. So werden z.B. die natürlichen Ressourcen grob vereinfachend in eine einzige Gleichung gepresst. In diese Gleichung gehen ein:
  • nichterneuerbare Ressourcen wie fossile Brennstoffe und Minerallagerstätten,
  • erneuerbare Ressourcen (Wälder, Böden, Tierherden, Fischbestände, Wildbestände, Grundwasser),
  • erneuerbare Ströme (Wind, Sonnenstrahlung, Niederschläge, Flüsse)
Zukünftige Versionen des Modellierungsprogramms sollen diese Formen der Ressourcen unterscheiden. Technologischer Fortschritt und sich ändernde Effizienz bei der Ressourcenausbeutung werden bisher nicht berücksichtigt. Der Unterschied im Einkommen zwischen Elite und Bevölkerung wird durch einen Faktor beschrieben. Dieser wird im bisherigen Modell konstant gehalten.

Die vier oben genannten Gleichungen reichen aus, um verschiedene gesellschaftliche Entwicklungsszenarien aufzuzeigen. Ökonomische Schichtenbildung oder übermäßige ökologische Beanspruchung können unabhängig voneinander zum Kollaps der Gesellschaft führen. Im Weiteren wird der Maßstab „Belastungsfähigkeit“ (Carrying Capacity) entwickelt. Dieser ist ein geeignetes Maß, um das Nahen eines Kollapses frühzeitig zu erkennen. Das Modell ist auch zur Beschreibung historischer Zusammenbrüche geeignet. Mit Hilfe des vorgeschlagenen Modells kann ein Kollaps der Gesellschaft vermieden werden. Dazu muss sich die Bevölkerungszahl auf ein stabiles Maß einpegeln, bei dem die maximale Belastungsfähigkeit der Natur nicht überschritten wird.



Links:
  • Zur Rezeption des "HANDY"-Modells in der Öffentlichkeit: "When a theoretical article is misinterpreted" Before a paper on the HANDY model was published, findings were taken out of context in some press accounts; here, the authors explain their research

Samstag, 2. April 2016

Raw Materials and Resources - Excursus C

Exponentielles Wachstum

Im letzten Post wurden exponentielle Wachstumsprozesse erwähnt. So vermehren sich z. B. Bakterien extrem schnell. „Bei günstigen Bedingungen teilen sie sich alle 20 - 30 Minuten. Bei ungehemmtem Wachstum könnten demnach innerhalb von wenigen Tagen so viele Bakterien entstehen, dass die ganze Erde von einer 30 Zentimeter hohen Schicht bedeckt wäre. Unter natürlichen Bedingungen aber wird diesem exponentiellen Wachstum durch Platz- oder Nährstoffmangel und durch Anreicherung toxischer Stoffwechselprodukte vorzeitig ein Ende gesetzt.“ (Quelle) Exponentielles Wachstum ist für den menschlichen Verstand schwierig zu verstehen. Daher führen solche rasanten Wachstumsprozesse häufig zu irrationalen Ängsten. Einige Beispiele aus der letzten Zeit sind unter der Überschrift „Exponentielles Wachstum ist nicht beherrschbar“ ein einem Artikel in der „Welt“ vom 15.09.14 zusammengefasst. Dort heißt es unter anderem: „Exponentielles Wachstum ist vom Menschen nicht zu stoppen. Beispiel Ebola: Die Zahl der Opfer verdoppelt sich alle drei Wochen. Und auch die CO2-Konzentration könnte plötzlich exponentiell zunehmen.“
Manfred Eigen erklärt die Zusammenhänge zwischen exponentiellen Wachstumsprozessen in der Biologie und deren Begrenzung durch Mangel sehr sachlich in seinem Buch: „Jenseits von Ideologien und Wunschdenken“. Darin heißt es unter anderem: „Lebewesen entstehen durch Reproduktion schon vorhandener. Im einfachsten Fall bedeutet Reproduktion eine geometrische Progression: 1, 2, 4, 8, 16, 32 … Allen derartigen Progressionen ist gemeinsam, dass die Mengen in gleichen Zeitabschnitten um den gleichen Faktor zunehmen, im Unterschied zu arithmetischen Progressionen, bei denen die Mengen in den gleichen Zeitabschnitten um den gleichen Betrag zunehmen.“ Mathematisch betrachtet handelt es sich bei einem exponentiellen Wachstum um eine e-Funktion: y=ex. Diese Funktion ist im Vergleich mit anderen Funktionen in Abbildung 1 dargestellt.
Abbildung 1: Grafische Darstellung von Wachstumsprozessen.

„Nichts kann in einer endlichen Welt unendlich werden.“ (Manfred Eigen) Daher werden exponentielle Wachstumsprozesse immer durch Mangel begrenzt und es kommt zu nicht vorhersehbaren Diskontinuitäten. Dabei geht das exponentielle Wachstum häufig in eine logistische Kurve über. Dabei ist es egal, ob es sich um das Wachstum der Weltbevölkerung, Bakterienpopulationen oder Ebola-Kranke handelt.
Abbildung 2: Allgemeine Form der logistischen Kurve.

Die logistische Kurve hat einen typischen S-förmigen Verlauf (siehe Abbildung 2) und wird durch folgende Funktion beschrieben:
a, b und c sind Konstanten, a und c sind größer als 0. Wenn b größer 0 ist, dann beschreibt die Funktion einen Wachstumsprozess, wenn b kleiner 0 ist, einen Zerfallsprozess. Es gibt zwei horizontale Asymptoten: eine bei y=0 und die andere bei y=c. Die Funktion hat ihren Wendepunkt bei 0,5c. (Quelle)

Die Idealform der logistischen Kurve (a in Abbildung 3) findet man bei verschiedenen biologischen Experimenten. Es kann sich dabei um das Wachstum von Stangenbohnen, das Wachstum einer Bakterienkultur oder die Anzahl von Fruchtfliegen in einer Flasche handeln. Voraussetzungen sind dabei ein konstantes Nahrungsangebot und eine abgeschlossene kontrollierte Umgebung mit gleichmäßigen Bedingungen für das jeweilige Experiment. Die logistische Kurve findet man auch in anderen Bereichen: die Streckenlänge von Eisenbahnlinien, der Lebenszyklus eines Produktes am Markt, die Entwicklung des Erwerbs der Muttersprache oder die Ausbreitung von ansteckenden Krankheiten sind weitere Beispiele.
Abbildung 3: Formen logistischer Kurven bei der Annäherung an den Sättigungswert nach de Solla Price.

In der Realität beobachtet man allerdings häufig Kurven, die vom idealen S-förmigen Verlauf deutlich abweichen (b bis d in Abbildung 3). Die verschiedenen Abweichungen hat Derek J. de Solla Price in seinem Buch „Little Science, Big Science“ beschrieben. In den Produktionszahlen von technischen Rohstoffen wie Kohle, Stahl oder Kupfer treten häufig Oszillationen auf. Diese können konvergent (b) oder divergent oszillieren (c). Allerdings weisen statistische Daten des U.S. Geological Survey darauf hin, dass bei zahlreichen Bodenschätzen immer noch ein exponentielles Wachstum der Produktionsziffern vorliegt (Quelle: Historical Statistics for Mineral and Material Commodities in the United States, U.S. Geological Survey Data Series 140).

Es gibt auch eskalierende Kurven (d), bei denen mehrfach ein scheinbarer Sättigungswert angesteuert wird. Durch Änderung der äußeren Bedingungen kann es aber zu erneutem Wachstum kommen. Beispiele für solche Eskalationen sind:
  • Die Zahl der Universitätsgründungen. Eine erste Stufe wurde ca. 1600 mit dem Einsetzen der Renaissance, die zweite Stufe während der industriellen Revolution überschritten.
  • Die Energie von Teilchenbeschleunigern. Jede neue technologische Enzwicklung auf diesem Gebiet führt zu einem erneuten Wachstumsschub (Quelle: M. S. Livingston und J. P. Blewett: “Particle Accelerators”, McGraw-Hill Book Company Inc., New York 1962, Seite 6, Abb. 1-1).
  • Die Zahl der bekannten chemischen Elemente über der Zeit (Abbildung 4). In der Antike waren nur zehn Elemente bekannt. Ab 1730 findet ein exponentielles Wachstum statt. Dieses erreicht den Wendepunkt etwa 1810 als Sir Humphry Davy mehrere Elemente entdeckt hatte. Als die ersten 60 Elemente entdeckt waren, kam es zu einer Abschwächung des Wachstums, die erste „Stufe“ war erreicht. Ende des 19. Jahrhunderts führten physikalische Methoden zur Entdeckung neuer Elemente (radioaktive Elemente, Edelgase, Lanthanoide). Dabei wurden mehrere Eskalationsstufen in der Statistik überwunden. Im zwanzigsten Jahrhundert wurden zahlreiche kurzlebige Elemente entdeckt. Gegenwärtig werden nur noch sehr wenige und sehr instabile Elemente nachgewiesen. Somit hat die Wachstumskurve hier (vorerst) eine Sättigungsgrenze erreicht.

Abbildung 4: Schematische Darstellung der Entdeckungsgeschichte der chemischen Elemente, nach de Solla Price.

Die Entdeckungsgeschichte der Elemente zeigt sehr gut, wie menschlicher Erfindergeist immer wieder vorgegebene Grenzen überwindet. Ob dies auch bei der Gewinnung und Nutzung natürlicher Ressourcen gelingt, bleibt noch abzuwarten.

Samstag, 26. März 2016

Raw Materials and Resources - Part 9

Ressourcen und Gesellschaft – Teil 9

Die Verfügbarkeit und der Verbrauch von natürlichen Ressourcen haben unzweifelhaft Auswirkungen auf die Entwicklung biologischer und gesellschaftlicher Systeme. Es gibt zahlreiche heuristische Modelle, die uns helfen diese Entwicklungen besser zu verstehen. Diese Modelle wirken dabei als Brücke zwischen dem reduktionistischen Charakter empirischer Beobachtungen und formalen Theorien. Sie erlauben uns, die Komplexität der Makroevolution zu vereinfachen und dabei trotzdem die Evolution biologischer und gesellschaftlicher Systeme (hoffentlich) angemessen widerzuspiegeln (Quelle). Einige dieser Modelle möchte ich hier vorstellen.




Daisyworld

In der Computersimulation Daisyworld gibt es auf einem simulierten erdähnlichen Planeten nur zwei Arten von Lebewesen: schwarze und weiße Gänseblümchen. Weiße Gänseblümchen reflektieren Licht und schwarze Gänseblümchen absorbieren Licht. Beide Arten wachsen gleich schnell, jedoch reflektieren schwarze Gänseblümchen weniger Sonnenlicht (25%) als weiße (75%) und die kahle Erde (50%). Ein Planet mit einem Übergewicht an weißen Gänseblümchen ist durch die größere Reflektion des Lichtes kühler als einer mit mehr schwarzen. Wird die Simulation ohne die Gänseblümchen durchlaufen, steigt der Temperaturverlauf synchron zur Strahlungsleistung der Sonne. Mit Gänseblümchen gibt es zu Beginn der Simulation verstärkte Erwärmung und zum Ende verstärkte Kühlung, was zu einer nahezu konstanten Gleichgewichtstemperatur während des größten Teils der Simulation führt. Auf diese Weise verändern die Gänseblümchen das Klima derart, dass die Bedingungen für sie lebensfreundlicher werden.

Spätere Erweiterungen des Daisyworldmodells schlossen Kaninchen, Füchse und andere Arten mit ein, welche Absorptionsraten zwischen den schwarzen und weißen Daisys haben. Eines der überraschenderen Ergebnisse dieser Simulationen war, dass die selbstregulierenden Kräfte des gesamten Planeten mit der Anzahl der Arten stiegen. Diese Beobachtung unterstützte die Ansicht, dass Biodiversität wertvoll ist, und löste die moderne Biodiversitätsdebatte aus.
Das stark vereinfachende Daisyworldmodell zog natürlich auch Kritik auf sich. Die Simulation weist kaum Ähnlichkeit mit der Erde auf; das System benötigt eine konstante Todesrate, um im Gleichgewicht zu bleiben, und das Modell verwischt die Unterschiede zwischen Phänomenen auf der Ebene der Arten und jener der Individuen. Jedoch zeigt Daisyworld unbestreitbar, dass ein biologisch reguliertes Gleichgewicht keine teleologische Erklärung benötigt. (Quellen: Wikipedia und B. Alicea, R. Gordon: „Toy models for macroevolutionary patterns and trends“, Biosystems 123 (2014) 54-66)

Die Daisyworld-Simulation ist auf der Webseite gingerbooth.com online verfügbar und kann dort getestet werden (siehe Abbildung).


Abbildung: Screenshot der Simulation DaisyBall von der Webseite gingerbooth.com.




Lotka-Volterra-Regeln

Die Lotka-Volterra-Regeln beschreiben die zahlenmäßige Entwicklung einer Raubtier- und einer Beutetierpopulation über große Zeiträume. Die Regeln gelten unter der Voraussetzung, dass nur zwischen diesen beiden Arten eine Räuber-Beute-Beziehung besteht und die sonstigen biotischen und abiotischen Umweltfaktoren konstant oder zu vernachlässigen sind. Die Regeln lauten folgendermaßen:
  • Erste Lotka-Volterra-Regel (Periodische Populationsschwankung): Die Populationsgrößen von Räuber und Beute schwanken periodisch. Dabei folgen die Schwankungen der Räuberpopulation phasenverzögert denen der Beutepopulation. Die Länge der Perioden hängt von den Anfangsbedingungen und von den Wachstumsraten der Populationen ab.
  • Zweite Lotka-Volterra-Regel (Konstanz der Mittelwerte): Die über genügend lange Zeiträume gemittelten Größen (Mittelwert) der Räuber- bzw. Beutepopulation sind konstant. Die Größe der Mittelwerte hängt nur von den Wachstums- und Rückgangsraten der Populationen, nicht aber von den Anfangsbedingungen ab.
  • Dritte Lotka-Volterra-Regel (Störung der Mittelwerte): Werden Räuber- und Beutepopulation gleichermaßen proportional zu ihrer Größe dezimiert, so vergrößert sich kurzfristig der Mittelwert der Beutepopulation, während der Mittelwert der Räuberpopulation kurzfristig sinkt.


Abbildung: Grafische Darstellung der ersten Lotka-Volterra-Regel.

Als Lehrbuchbeispiel für die Lottka-Volterra-Regeln gelten die Fangaufzeichnungen der Hudson’s Bay Company, die über 90 Jahre lang geführt wurden. Danach schwankte der Eingang von Fellen von Luchsen (Räuber) und Schneeschuhhasen (Beute) mit einer Periode von 9,6 Jahren. Allerdings wird dieses Beispiel strenggenommen durch einen zweiten Räuber beeinflusst, nämlich die Jäger. (Quelle: Wikipedia)

Die Lotka-Volterra-Regeln sind nur unter Beachtung ihrer selten erfüllten Voraussetzungen anwendbar. Trotzdem werden sie in der Ökologie häufig angewendet, da man annimmt, dass sie auch bei komplexeren Nahrungsbeziehungen und schwankenden Umweltfaktoren brauchbare Abschätzungen liefern können. Die Grenzen dieses Modells zeigt C. A. S. Hall in dem Artikel “An assessment of several of the historically most influential theoretical models used in ecology and of the data provided in their support. “ Ecological Modelling, 43 (1988) 5-31.


Abbildung: Simulation einfacher Raubtier-Beute-Beziehungen unter http://gingerbooth.com/portfolio/predatorprey



Abbildung: Zur Simulation von komplexerer Raubtier-Beute-Beziehungen gibt es ein online-Tool unter http://www.learner.org




Tragik des Allgemeingutes

Der Begriff „Tragedy of the Commons“ bezeichnet im Englischen ein sozialwissenschaftliches und evolutionstheoretisches Modell, nach dem frei verfügbare aber begrenzte Ressourcen durch übermäßige Ausbeutung bedroht sind. Die fortwährende Übernutzung dieser Ressourcen führt zu deren Versiegen, was schließlich auch die Existenz der Nutzer selbst bedroht. Die wörtliche Übersetzung „Tragik der Allmende“ ist etwas ungewohnt, da der Begriff Allmende im Deutschen kaum noch verwendet wird. Beispiele für die problematische Nutzung Allen zu Verfügung stehender natürlicher Ressourcen sind:
  • die Überfischung der Weltmeere,
  • der Raubbau an tropischen Regenwäldern in Entwicklungsländern,
  • die Nutzung der Atmosphäre als Mülleimer für Luftschadstoffe.
Der Mikrobiologe und Ökologe Garrett Hardin erweiterte den Begriff 1968 in einem Beitrag für die Zeitschrift Science. Die Tragik des Allgemeingutes ist nach Hardin ein unvermeidliches Schicksal der Menschheit, für das es keine technologische Lösung gebe. Er erweiterte den Begriff zur Metapher für Übervölkerung und forderte unter anderem eine globale Geburtenkontrolle. (G. Hardin: The Tragedy of the Commons, Science 162 (1968) 1243-1248)

Peter Roopnarine entwickelte in jüngster Zeit mathematische Modelle zur Tragik des Allgemeingutes analog zu den ökologischen Modellen des Ressourcenverbrauchs (siehe oben). Tragödien spielen sich immer wieder in Ökosystemen ab, wo viele Spezies miteinander in Wechselwirkung stehen. Die Anzahl der vom Menschen ausgebeuteten Ressourcen wachsen stetig. Dadurch vernetzen die vom Menschen benötigten Ressourcen zunehmend zu ökosystemartigen Systemen. Die Wahrscheinlichkeit von systemweiten Tragödien steigt dabei immer weiter. Als Beispiel werden in dem Artikel die massiven Emissionen von Treibhausgasen durch die beiden bevölkerungsreichen Nationen China und USA genannt. Die globale Erwärmung bedroht alle küstennahen Völker durch das Ansteigen der Meeresspiegel, die Fischerei durch Erwärmen und Versauerung des Wassers und die Existenz von Korallenriffen und Inseln. (Peter Roopnarine: Ecology and the Tragedy of the Commons, Sustainability 5 (2013) 749-773)





Malthus-Katastrophe 

Thomas Robert Malthus (1766-1834) war ein britischer Ökonom. Er stellte die These auf, dass die Bevölkerungszahl exponentiell wächst, die Nahrungsmittelproduktion aber nur linear. Das sollte zur Folge haben, dass Nahrungsmittelangebot langfristig nicht mit dem Bevölkerungswachstum Schritt halten könne. Daher müssten die Nahrungsmittelpreise steigen und die Reallöhne unter das Existenzminimum sinken. Malthus begründete damit Armut, Hunger, Krankheit, Slumbildung und die daraus sich ergebenden sozialen Unruhen in den englischen Großstädten seiner Zeit. Malthus hielt das für ein Naturgesetz. Im weiteren Verlauf erwartete er, dass die fortschreitende Verelendung der Bevölkerung durch Krankheit und Seuchen die Bevölkerung wieder reduziere. Danach sollte der Zyklus von neuem beginnen. Malthus unterschätzte die Geschwindigkeit des technischen Fortschritts, die vor allem in der Landwirtschaft die Produktivität erheblich erhöhte. (Quelle: Wikipedia)



Abbildung: Malthus-Katastrophe




Die Grenzen des Wachstums

An dieser Stelle sollte auch die Studie „Die Grenzen des Wachstums“ erwähnt werden. Die 1972 veröffentlichte Studie wurde im Auftrag des Club of Rome erstellt. Die Studie zeigt, dass das aktuelle individuelle lokale Handeln Aller globale Auswirkungen hat, die jedoch nicht dem Zeithorizont und Handlungsraum der Einzelnen entsprechen. Dazu wurde eine Systemanalyse und Computersimulationen verschiedener Szenarien durchgeführt. Das benutzte Weltmodell diente der Untersuchung von fünf Tendenzen mit globaler Wirkung:
  • Industrialisierung,
  • Bevölkerungswachstum,
  • Unterernährung,
  • Ausbeutung von Rohstoffreserven und
  • Zerstörung von Lebensraum.
So wurden Szenarien mit unterschiedlich hoch angesetzten Rohstoffvorräten der Erde berechnet, oder eine unterschiedliche Effizienz von landwirtschaftlicher Produktion, Geburtenkontrolle oder Umweltschutz angesetzt.(Quelle: Wikipedia) Die zentralen Schlussfolgerungen des Berichtes waren: „Wenn die gegenwärtige Zunahme der Weltbevölkerung, der Industrialisierung, der Umweltverschmutzung, der Nahrungsmittelproduktion und der Ausbeutung von natürlichen Rohstoffen unverändert anhält, werden die absoluten Wachstumsgrenzen auf der Erde im Laufe der nächsten hundert Jahre erreicht. Mit großer Wahrscheinlichkeit führt das zu einem ziemlich raschen und nicht aufhaltbaren Absinken der Bevölkerungszahl und der industriellen Kapazität“. (D. Meadows, D. Meadows, E. Zahn, P. Milling: Die Grenzen des Wachstums. Bericht des Club of Rome zur Lage der Menschheit, Deutsche Verlagsanstalt, Stuttgart 1972, S. 17)

Die Veröffentlichung des Berichtes führte zu äußerst kontroversen Diskussionen. Einige kritisierten ein Ausblenden des technischen Fortschritts in einer reinen Extrapolation von gegenwärtigen Trends. Andere bemängelten eine uneinheitliche Verwendung von Wachstumsfaktoren: Bevölkerung, Kapital und Umweltverschmutzung wuchsen im Modell exponentiell, während bei Technologien zu Ressourcennutzung und zum Umweltschutz nur ein lineares Wachstum angenommen wurde. In dieser Hinsicht erinnert die Studie an das Modell von Malthus (siehe oben). (Quelle und weitere Informationen: Wikipedia)

Links:

Mittwoch, 23. März 2016

Raw Materials and Resources - Excursus B

Fraktale –Exkurs B

Der Begriff Fraktal wurde von Benoît B. Mandelbrot geprägt. Er ist vom lateinischen Wort fractus „gebrochen“ abgeleitet. Ein Fraktal ist ein natürliches Phänomen oder ein Satz mathematischer Gleichungen, die ein sich wiederholendes Muster auf jeder Skale haben. Wenn die Replikation auf jeder Skale genau gleich ist, spricht man von einem selbstähnlichen Muster. Fraktale unterscheiden sich in der Art in der sie skalieren. Beim Verdoppeln der Kantenlänge eines Polygons vergrößert sich die Fläche des Polygons um den Faktor 4 (= 22). Beim Verdoppeln des Radius einer Kugel vergrößert sich das Volumen der Kugel um den Faktor 8 (=23). Wenn jedoch bei einem Fraktal alle eindimensionalen Längen verdoppelt werden, so skaliert der Rauminhalt des Fraktals nicht unbedingt geradzahlig. Dieser Exponent wird als die fraktale Dimension bezeichnet. (Quelle)

Für ein fraktales System reicht ein Exponent zur Beschreibung aus. Bei einem multifraktalen System reicht ein Exponent zur Beschreibung nicht aus, sondern es wird ein kontinuierliches Spektrum von Exponenten benötigt. Multifraktale Systeme treten in der Natur häufig auf. Sie werden zur Beschreibung der verschiedensten Erscheinungen genutzt, so z.B. für Turbulenzen in der Fluiddynamik, Internetverkehr, Finanzmärkte, Bilderzeugung, Meteorologie oder Geophysik. (Quelle)

Abbildung: Mandelbrot-Fraktal erzeugt mit dem Mandelbrot Set Generator.

Samstag, 19. März 2016

Raw Materials and Resources - Excursus A

Wahrscheinlichkeitsverteilungen

Im letzten Post wurden verschiedene Verteilungsfunktionen besprochen. Zur Klärung der Begriffe an dieser Stelle einige Erklärungen und bei Interesse weiterführende Links.

Die Normalverteilung (auch Gaußverteilung oder Glockenkurve) entsteht durch die Überlagerung einer großen Zahl von unabhängigen Einflüssen. Zufällige Abweichungen treten in vielen wissenschaftlichen Disziplinen und Lebensbereichen auf. So liegen z.B. bei folgenden Vorgängen Normalverteilungen vor:
  • zufällige Messfehler,
  • Abweichungen vom Sollmaß bei der Fertigung von Werkstücken,
  • bei der Brownschen Molekularbewegung,
  • Milchproduktion von Kühen,
  • Verteilung der Intelligenz bei Menschen.
Die Normalverteilung ist durch folgende Formel definiert:
 

Die dabei entstehende typische Glockenkurve (siehe Abbildung) wird durch zwei Parameter charakterisiert: den arithmetischen Mittelwert μ der Standardabweichung (Varianz) σ. Datensätze werden daher häufig mit μ±σ angegeben. (Quellen: Wikipedia, Mathepedia)
In der Natur zeigen allerdings viele Messdaten mehr oder weniger schiefe Verteilungen. Schiefe Verteilungen treten vor allem auf, wenn die Durchschnittswerte niedrig und die Standardabweichungen groß sind. Beispiele für solche schiefen Verteilungen sind die Häufigkeit von Species, die Länge von Latenzzeiten von Infektionskrankheiten und die Verteilung von Mineralen in der Erdkruste. Solche schiefen Verteilungen können häufig mit einer Log-Normalverteilung beschrieben werden. (Quelle)

Die Logarithmische Normalverteilung (abgekürzt: Log-Normalverteilung, engl.: log-normal distribution) ist eine kontinuierliche Wahrscheinlichkeitsverteilung. Sie beschreibt die Verteilung einer Zufallsvariablen x, wenn ln(x) normalverteilt ist.



Logarithmische Normalverteilungen treten z.B. auf bei:
  • Durchmesser von Bäumen
  • Breite von Hanfbastfasern
  • Durchmesser von Bakterien
  • Körpergröße des Menschen
  • Verteilung der Galaxien
  • Wachstumsgröße von Kristallen
Wie kommt es zu einer Log-Normalverteilung?

Normalverteilung und logarithmische Normalverteilung basieren auf einer Vielzahl von Kräften die unabhängig voneinander einwirken. Ein wichtiger Unterschied ist, dass diese Effekte additiv oder multiplikativ sein können. Die additive Anhäufung von Effekten führt zur Normalverteilung, die multiplikative zur Log-Normalverteilung. (Quelle)
Eine multiplikative Verknüpfung kann durch logarithmieren in eine additive Verknüpfung überführt werden: Die Logarithmierung des Produktes a.b führt gemäß Logarithmengesetzen zu ln(a.b) = ln(a) + ln(b).
Additive Effekte werden in der Mathematik durch eine arithmetische Folge (an=a0+n.d) oder auch dem arithmetischen Mittelwert beschrieben. Multiplikative Effekte werden durch eine geometrische Folge (an=a0.qn) oder den geometrischen Mittelwert beschrieben. Diese Zusammenhänge haben Gebelein und Heite in ihrem Artikel „Über die Unsymmetrie biologischer Häufigkeitsverteilungen“ (Klinische Wochenschrift 28 (1950) 41-45) sehr schön dargestellt. (siehe Abbildung). Bei einer grafischen Darstellung der arithmetischen Reihe liegen konstante Abstände zwischen den Gliedern der Reihe vor: d=x2-x1=x3-x2=…= konstant. Dieser Sachverhalt ist in der nachfolgenden Abbildung (links) durch Aneinanderreihen kongruenter Dreiecke zwischen parallelen Geraden visualisiert. Im Unterschied dazu ist bei einer geometrischen Reihe der Quotient zwischen den Gliedern der Reihe konstant:
Das wird in der unten stehenden Abbildung (rechts) durch Aneinanderfügen ähnlicher Dreiecke zwischen zwei sich schneidenden Geraden dargestellt. Für beide Folgen wird die Summe als Funktion dargestellt (Abbildung oben). Die Ableitung dieser beiden Funktionen führt zur Normalverteilung (unten links) bzw. zur logarithmischen Normalverteilung (unten rechts).


Abbildung: Zusammenhang zwischen arithmetischer Folge und Normalverteilung (links) und Zusammenhang zwischen geometrischer Folge und Logarithmischer Normalverteilung (rechts) nach Gebelein und Heite.

Links:




    Die Pareto-Verteilung wird durch ein Potenzgesetz definiert:



    Die Verteilung ist nach Vilfredo Pareto benannt. Er verwendete diese 1897 zur Beschreibung der Einkommensverhältnisse in Italien. Ein großer Anteil der Bevölkerung verdient wenig. Je höher die Einkommen werden, desto weniger Personen erhalten diese. Pareto-Verteilungen finden sich charakteristischerweise dann, wenn sich zufällige, positive Werte über mehrere Größenordnungen erstrecken und durch das Einwirken vieler unabhängiger Faktoren zustande kommen. Verteilungen mit ähnlichen Eigenschaften sind das Zipfsche-Gesetz und das Benfordsche Gesetz. (Quelle Wikipedia)

    Mit der Pareto-Verteilung kann man folgende Sachverhalte beschreiben:
    • Verteilung des Einkommens
    • Einwohnerzahlen von Städten
    • Schadenshöhen in der Versicherungsmathematik
    In Wirtschaft und Industrie wird häufig die 80/20-Regel („Pareto-Prinzip“) verwendet. Diese ist von der Pareto-Verteilung abgeleitet. Diese Regel besagt, dass 80 % der Ergebnisse mit 20 % des Gesamtaufwandes erreicht werden. Die verbleibenden 20 % der Ergebnisse benötigen mit 80 % Aufwand die meiste Arbeit. Im Projekt- und Zeitmanagement verwendet man diese Regel, um wichtige Arbeitspakete zu erkennen und schnelle Fortschritte bei relativ guten Ergebnissen zu erzielen. Beispiele für die Anwendung dieser Regel sind:
    • 80 % des Umsatzes von Firmen werden meist mit 20 % der Produkte erzielt.
    • 80 % der Stadtbewohner eines Landes leben in 20 % der Städte.
    • 80 % der Anrufe führt man im Allgemeinen mit 20 % seiner gespeicherten Kontakte.



    Logarithmische Darstellungen


    In Natur- und Ingenieurwissenschaften werden oft logarithmische Darstellungen verwendet. Der Log-Log- Plot ist eine zweidimensionale Darstellung von numerischen Daten mit logarithmischen Skalen auf der x- und y-Achse. Potenzfunktionen des Typs y = a xbx erscheinen in einer solchen Darstellung als gerade Linie. Diese Darstellung ist sehr nützlich, da daraus in einfacher Weise die Parameter des Potenzgesetzes bestimmt werden können: Die Steigung der Geraden ergibt den Parameter b der Potenzfunktion, der Schnittpunkt mit der y-Achse entspricht dem Logarithmus von a. Außerdem bietet eine solche Darstellungsweise weitere Vorteile, denn die lineare Regression hat am PC eine größere Genauigkeit als andere Regressionen. Dies hängt mit der verfügbaren Speichergröße von Fließkommazahlen am PC zusammen.

    Im Post „Verteilung von Ressourcen“ haben wir die Log-Log-Darstellung bereits genutzt, um den Unterschied zwischen der Pareto-Verteilung und der Log-Normalverteilung deutlich zu machen (siehe Abbildung).


    Abbildung: Log-Log-Darstellung der Lagerstättengröße über der Wahrscheinlichkeit für Mineralvorkommen.
    Links:




      Mein Dank gilt Marcus Herbig für Hinweise und Korrekturen in diesem Abschnitt.