Benutzer:Artikelstube/Naturwissenschaftliches Weltbild

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
  Entwurf für den Artikel Naturwissenschaftliches Weltbild.

Dieser Entwurf ist im Entstehen und noch nicht Bestandteil der freien Enzyklopädie Wikipedia. Bedenke, dass der Text Fehler oder ungeprüfte Aussagen enthalten kann.

Bitte hilf beim Fertigstellen mit! Mehr unter Wie schreibe ich gute Artikel.

Das naturwissenschaftliche Weltbild beruht auf den Ergebnissen und Erkenntnissen der Naturwissenschaften, welche vom Menschen vorgefundene Welt nach wissenschaftlicher Methodik beobachten, in ihr experimentieren und messen, und so Regelmäßigkeiten erfassen, Naturgesetze formulieren und Theorien aufstellen, die sinnvoll Wirklichkeit beschreiben, die Vorhersagen treffen können, und sich so als überprüfbar richtig und allgemeingültig, als in gegebenem Rahmen unter bestimmten Bedingungen gültig und nützlich oder als falsch, weil widerlegt herausstellen können.
Ein naturwissenschaftliches Weltbild umfasst Antworten auf diejenigen Grundfragen der Naturwissenschaften und sogar diejenigen Urfragen der Menschheit, die der wissenschaftlichen Methode zugänglich sind, z. B.:

  • Wie entstand das Universum? Was liegt ihm zugrunde? Wie groß ist es und wie lange dauert es? Welche ‚Form‘ (Topologie) hat es? Woraus besteht es? Bewegt es sich? Was macht es und wie funktioniert es?
  • Was sind die Elemente, Grundgrößen, Grundkräfte, Naturgesetze, die die Welt ausmachen und sie in Gang halten?
  • Wie erklären sich beobachtete Naturerscheinungen und -phänomene?
  • Wie entstand Leben und wie funktioniert es?

Es kann nur bedingt an manchen Schnittstellen Antworten auf Grundfragen der Menschheit geben, die nicht wissenschaftlicher Natur oder derart formuliert sind, sondern rein philosophischem, religiös, esoterisch oder emotional motiviertem Weltbild entspringen, wie:

  • Was ist Sein? Was ist der Ursprung einer seienden Welt?
  • Gibt es ein höheres Wesen? Existiert Gott?
  • Gibt es Yin und Yang? Fließt alles?
  • Hat Natur eine Seele? Ist der Planet Erde ein lebendiger Organismus, Gaia? Gibt es einen Weltgeist?
  • Was ist der Sinn des Lebens? Wer, was und wo bin ich hier?

An den Grenzen des menschlich Wissbaren verschwimmen Gewissheit, Theorie, Erahntes und noch Unentdecktes, aufgrund technischer Messgenauigkeit (z. B. Nachweis von Sonnenneutrinos oder Gravitationswellen), aufgrund von Unanschaulichkeit auch wohlbestätigter Erkenntnisse (z. B. Relativistische Effekte, Welle-Teilchen-Dualismus), aufgrund eines hohen Abstraktionsgrades (z. B. Stringtheorie mit n Dimensionen) oder aufgrund des Auftauchens neuer unerklärlicher oder unvereinbarer Beobachtungen (z. B. Dunkle Materie und Energie). Nicht erst durch die neuen Möglichkeiten digitaler Informationsverarbeitung, insbesondere den Werkzeugen Computersimulationen und komplexen Algorithmen, ist naturwissenschaftliches Weltbild ein dynamisches Gebilde, das sich ständig weiterentwickelt.
Ferner kommen eher ganze neue Wissenschaftszweige und Disziplinen, die neue Aspekte einer Gesamtsicht aufzeigen hinzu, als dass welche wegfallen, so dass die Menge an Informationen für ein Gesamtbild umfangreicher wird und ein zusammengefasster Überblick demnach umso verkürzender.


Voraussetzungen und Grundannahmen

[Bearbeiten | Quelltext bearbeiten]

In den Naturwissenschaften werden Objektivität, Exaktheit und Allgemeingültigkeit angestrebt. Sowohl schon bei der Problemstellung, als auch bei der logischen Erschließung oder Berechnung über Schlussfolgerungen bis hin zu den Ergebnissen. Eine herausragende Rolle dabei spielen Logik und Mathematik, deren Formelsystem wohldefinierter Elemente bedarf.

Zahl, Menge, Variable und Operatoren

[Bearbeiten | Quelltext bearbeiten]

Die Zahl als solche und im Allgemeinen wird von der Mathematik nicht näher definiert, sondern sie bedient sich bestimmter Mengen von Zahlen, die sie definiert (natürliche, Ordinal- und Kardinalzahlen, rationale, algebraische, (hyper)reelle, (hyper)komplexe). Eine Zahl im Besonderen ist somit bestimmtes Element einer definierten Menge von Zahlen. Allgemein ist sie Oberbegriff für alle Arten von Zahlen, die in Mengen vorkommen.
In Euklid´s Stoicheia, Die Elemente, fasst dieser im 3. Jhd. v. Chr. erstmals Arithmetik und Geometrie seiner Zeit in einer Sammlung von Axiomen, Postulaten und Definitionen zusammen, mit denen er Aussagen [[Beweis (Mathematik)|beweist]t. Für die Arithmetik bedeutet dies eine erste Zahlentheorie.
1889 formulierte Giuseppe Peano seine Peano-Postulate, eine Sammlung von Axiomen, die unter Anderem die Unendlichkeit der Menge der natürlichen Zahlen in der Mathematik formell handhabt (Stw. Abzählbarkeit, Vollständige Induktion, Rekursive Definition, wohldefiniert, Wissenschaftstheoretische Probleme von Definitionen).
1874-1897 ist in der Mengenlehre nach Georg Cantor die Zahl gleichbedeutend der Anzahl der Elemente einer (auch unendlichen) Menge. Er berechnet die verschiedene Mächtigkeit unendlicher Mengen und unterscheidet dazu Kardinal- und Ordinalzahlen.
Seit 1930 bildet die im Einklang mit damaliger Logik verfasste Zermelo-Fraenkel-Mengenlehre die Grundlage moderner Mengenlehre.
Die Null kam als Zahl nur nach und nach auf, etwa ab 200 v. Chr. Gab es anfangs nur die Fehlstelle für eine Ziffer (Abstand, leere Stelle in Ziffernfolgen, z. B. ``1 7´´, statt ``107´´), wurde diese Lücke später mit der Ziffer ``0´´ (für ``nichts, kein, leer´´) unmissverständlicher und lesbarer. Daraus entwickelte sie sich zur Zahl, auch als mögliches Ergebnis einer Rechnung. Mancherorts wurde bis ins späte Mittelalter ohne sie gerechnet. Ähnlich wurden auch negative Zahlen (zus. mit den natürlichen: ganze Zahlen) und Brüche (zus.: rationale Zahlen) und reelle Zahlen erst mit der Zeit benötigt bevor sie sich ganz durchsetzten.
In der Folge werden Konzepte von (Mengen von) Zahlen immer weiter differenziert. Die Zahl nimmt mehr an Komplexität zu ohne als Element greifbar definiert zu sein. Als (Zahl)Zeichen ist sie wohl Gegenstand des komplexen Feldes der Semiotik.
Siehe auch: Transzendente Zahlen, Pi, Zahlensystem

Axiome der Mathematik und Logik

[Bearbeiten | Quelltext bearbeiten]

Axiome sind sprachliche oder rein formale Grundaussagen, die nicht bewiesen werden können (und für den Gebrauch in Mathematik und Logik auch nicht müssen), sondern als vorausgesetzt angenommen werden (z. B.: ``Zahlen, Objekte, physikalische Körper existieren.´´ oder: ``Alle Schwäne sind weiß.´´ oder: ``A=A´´) oder gesetzt werden (z. B.: ``Es sei A = B´´). Kalküle sind logische Modelle, die mit einer Anzahl von oder einem System aus Axiomen Schlussfolgerungen oder Berechnungen ermöglichen (z. B. Kalkül: ``1. A, B und C seien Elemente der natürlichen Zahlen. 2. A=C. 3. C=B.´´ Schlussfolgerung: ``A=B´´). Siehe auch: Prämisse (Axiome in der Aristotelischen Syllogistik)
Das umfangreiche Feld der Logik beschäftigt sich abstrakt mit Arten von Aussagen, deren Wahrheitswert und den Grundlagen des Schlussfolgerns.
Zum Ende des 19. Jhd. entwickeln Gottlob Frege (Begriffsschrift 1879) und Charles Sanders Peirce unabhängig voneinander die Prädikatenlogik, die eine verallgemeinerte Formelsprache bereitstellt für Aussagen in natürlicher und in Formelsprache und deren Schlussfolgerungen, indem sie Relationen (``und, oder, wenn->dann´´), Variablen (Platzhalter), Begriffe und Eigenschaften abstrakt formuliert.
1929 beweist der Gödelsche Vollständigkeitssatz Korrektheit und Vollständigkeit des Hilbert-Kalküls, eines logischen Systems aus Aussagen, Sätzen, Vorausannahmen oder Axiomen, und darauf aufbauender Schlussfolgerungen.
1932 zeigt Gödel mit logischen Mitteln mit seinem Unvollständigkeitssatz Grenzen der wissenschaftlichen Grundlagen insofern auf, als dass ausreichend mächtige (ab einer bestimmten Anzahl und Art von Axiomen) formelle Systeme (also z. B. Logik, Mathematik, Peano-Arithmetik) widersprüchlich oder unvollständig sind. Und: Jedes hinreichend mächtige konsistente formale System kann die eigene Konsistenz nicht beweisen.
Siehe auch: Begriffslogik, Termlogik, Aussagenlogik, Aristotelische Syllogistik, Metalogik, Konvention T, Formale Sprache

Grundgrößen und Naturkonstanten

[Bearbeiten | Quelltext bearbeiten]
Größe Formelzeichen Dimension Einheit Einheitenzeichen
Länge , , L Meter
Masse,
Energie
,
M,
L2·M·T−2
Kilogramm,
Elektronenvolt
,
Zeit T Sekunde
Stromstärke I Ampere
Temperatur θ Kelvin
Stoffmenge N Mol
Lichtstärke J Candela

Aus nebenstehenden sieben Grundgrößen lassen sich alle anderen bekannten physikalischen Größen kombinieren (z. B. Geschwindigkeit = Weg pro Zeit).
Zusammen mit z. B. einer Richtung von (Zeit-)Punkt A nach (Zeit-)Punkt B, können physikalische Größen einen Vektor bilden. Genügten ab der Jungsteinzeit Wegmaße und Zeitmessung in Tagen und Jahren mit Kalendern (lange vor der Entwicklung früher Uhren), entdeckten fortschreitende Wissenschaft, Meß- und Experimentiertechnik im Laufe der Zeit neue Zusammenhänge. Deren beteiligte Größen wurden als grundlegend oder nicht weiter zu vereinfachen erkannt oder als sinnvoll oder nötig erachtet und definiert.
Durch Tensoren können sie in Beziehung z. B. zum umgebenden Raum gesetzt werden. Senkrecht zur Fahrtrichtung ist beispielsweise die Geschwindigkeit 0 oder sie äußert sich als Drift oder Slide. In der allgemeinen Relativitätstheorie werden Tensoren benötigt, um die Raumkrümmung formal zu beschreiben.
Die Äquivalenz von Masse und Energie erlaubt es, die Masse in einer Einheit der Energie (meist in Elektronenvolt, eV) zu messen und anzugeben. Von den zusammengesetzten Größen ist die Entropie (gemessen in Joule pro Kelvin) in der Thermodynamik von zentraler Bedeutung auch für eine naturwissenschaftliche Gesamtdarstellung.
Eine Naturkonstante ist eine Meßgröße mit naturgegebenem Meßwert, der immer gleich ist. Grundlegende Naturkonstanten sind Lichtgeschwindigkeit (gleichzeitig physikalisch höchstmögliche Geschwindigkeit), absoluter Nullpunkt der Temperatur, Gravitationskonstante, Boltzmann-Konstante, Elementarladung (des Elektrons) und Plancksches Wirkungsquantum. Letztere beiden sind gleichzeitig Elementarwerte ihrer Größen Ladung und Wirkung.
Ferner spielen Erhaltungsgrößen ein besondere Rolle z.B. Gesamtenergie eines Systems; Impuls (Vektor-Summe aller Impulse in einem bewegten System); die Summe aller Drehimpulse in einem rotierenden System; die elektrische Ladung von Atomen, Ionen, Molekülen oder Festkörpern bei der elektromagnetischen Wechselwirkung, die schwache Ladung subatomarer Kernteilchen, z.B. Elektronen, Protonen, Bosonen, Mesonen bei der schwachen Wechselwirkung, die Farbladung der 6 Quarks bei der starken Wechselwirkung; die Baryonen- und Leptonenzahl in einem symmetrischen Universum.

Für das naturwissenschaftliche Weltbild bedeutet all dies in etwa

Die Grundlagen der Wissenschaft sind nicht rein naturgegeben und nicht logisch unanfechtbar, sondern vom Menschen als sinnvoll erkannt oder als nützlich erachtet und als gegeben gesetzt. Unter Umständen auch ohne, dass sie einer (ontologischen) Wirklichkeit entsprechen müssen. Als selbstverständlich, offensichtlich, (natur)gegeben Angenommenes wird nach Regeln der Logik in Formeln mit der entsprechenden Bedeutung gefasst, um mit ihnen oder auf ihnen aufbauend logisch vergleichen, rechnen oder Schlussfolgern zu können. Die Logik selbst kann dabei ihr eigener Untersuchungsgegenstand sein. Der Anspruch der Wissenschaft auf Exaktheit, Objektivität (jenseits von Sinnestäuschungen, Auslegung, selektiver oder individueller Wahrnehmung) und Allgemeingültigkeit erfordert, dass ihre Grundlagen sich ebenso, wie die auf ihnen aufbauenden Wissenschaften, ständig neu beweisen müssen und mit ihr mit wachsen oder sich erneuern (z. B. durch die Entdeckung der Entsprechung von Masse und Energie; aus 3-dimensionalem cartesischen absolutem Raum und absoluter universeller Zeit wurden z. B. 4-dimensionale relativistische Raumzeit bzw ein abzählbar-dimensionaler Hilbert-Raum in der Quantenmechanik).
Innerhalb ihres eigenen logischen Systems ist die wissenschaftliche Methode unanfechtbar und ihr Erfolg bei der Beschreibung der Welt macht sie diesbezüglich zu einem mächtigen Instrument.

Vertiefend sind die Grundlagen behandelt in u. a. Grundlagen der Mathematik, Mathematische Logik, Grundlagen der Geometrie, Grundlagen der Arithmetik, Philosophie der Mathematik (Mathematiktheorie), Wissenschaftstheorie, Erkenntnistheorie, Modelltheorie (Beziehung zwischen Sprache, Formelsystem und jeweils Gemeintem)

Im kosmischen Maßstab

[Bearbeiten | Quelltext bearbeiten]

Die vorherrschende Urknalltheorie beruht auf der beobachtbaren Ausdehnung des Universums. Das Licht entferntester Objekte (hauptsächlich Galaxien, aber auch Quasare) ist, durch ein Prisma in ihre Regenbogenfarben zerlegt, insgesamt stark über das rotfarbige Ende hinaus verschoben. Das bedeutet, dass sich diese (fast alle) Objekte entsprechend schnell von uns entfernen. Die Andromeda Galaxie bewegt sich auf uns zu und ihr zerlegtes Licht ist leicht zum blauen Ende hin verschoben.

Die Kartierung der Rotverschiebung von 62.559 Galaxien im Ausschnitt eines Umkreises von 4 Mrd Lichtjahren gibt AufSchluss über die Struktur des Kosmos

Solche Blau- bzw. Rotverschiebung fliehender Galaxien funktioniert ganz ähnlich, wie bei der Verzerrung des Schalls durch den Dopplereffekt bei einem heranfliegenden und sich dann wieder entfernenden Flugzeuggeräusch.
Nimmt man an, dass diese Ausdehnung als eine Art Explosion begonnen hat, muss vor etwa 13,7 Mrd Jahren sämtliche im Universum enthaltene Materie bzw Energie in einem Punkt konzentriert gewesen sein, einer sogenannten Singularität, die auch im inneren massereicher schwarzer Löcher vermutet wird. Die Urknalltheorie ist die physiktheoretische Umsetzung dieses Konzepts anhand bestehender Naturgesetze, sowie durch die Einführung möglicher Konzepte einer frühen inflationären Ausdehnungsphase des ganz frühen, noch winzigen Universums (mit überlichtschneller Ausdehnung des Raumes selbst von etwa Protonengröße auf ca. 10cm im Durchmesser) unmittelbar nach dem Urknall, die nötig ist um verschiedene kosmologische Beobachtungen im Rahmen der Urknalltheorie zu erklären (die globale Homogenität auch füreinander unsichtbarer entfernter Bereiche; die geringe Krümmung des Raumes; das Fehlen magnetischer Monopole; die Verteilung von Galaxien und Galaxienhaufen). Das derart junge Universum ist jedoch noch weitgehend unverstanden zumal ein weiteres Problem ebenfalls der Erklärung bedarf, demzufolge es einen Grund für das Ungleichgewicht zwischen dem Vorherrschen von Materie gegenüber verschwindend geringer Antimaterie (Positronen, Antimyonen) geben müsste.
Da es bei einer Singularität, einem noch ausdehnungslosen, eindimensionalen, punktförmigen Universum, keinen Sinn ergibt, von Raum und Zeit zu sprechen, da es keinen Vergleich von Etwas mit irgendetwas Anderem gibt, sondern nur diesen einen unendlich energiegeladenen Punkt, geht man davon aus, dass es ein Dann und ein Dort nicht gab, auch kein Vorher und Drumherum, sondern Raum und Zeit als tatsächliche physikalische Grundgrößen erst zu existieren beginnen, mit der Differenzierung dieses Punktes zu einem größeren, erstmals Raum einnehmenden Etwas, in und an dem Zeit überhaupt vergehen kann.

Kartierung der kosmischen Hintergrundstrahlung in 2003
Kartierung der kosmischen Hintergrundstrahlung in 2003

Tatsächlich wurde eine nach der Urknalltheorie in den 1940ern vorausgesagte kosmische Hintergrundstrahlung im Mikrowellenbereich 1964 entdeckt und inzwischen kartographiert. Diese Strahlung stammt aus der Zeit des Universums etwa 380.000 Jahre nach dem Urknall (mit ebensovielen Lichjahren im Durchmesser). Dies ist die Grenze dessen, was in größter Ferne physikalisch überhaupt beobachtbar ist! Quasi der `Rand´ des sichtbaren Universums. Denn dort gelingt es Licht erstmals überhaupt, sich als Photonen auszubreiten, wo sie vorher im noch zu dichten Zustand des Universums mit freien Elektronen oder Protonen zusammenstießen, wie es z. B. auch im Inneren unserer Sonne geschieht.
Nur Röntgenstrahlung könnte diesen undurchdringlichen Bereich noch durchleuchten. Kosmologie ist seit jüngerer Zeit durch hochentwickelte Technologie der Teleskope ferner in der Lage, die großräumige Struktur des Kosmos zu beschreiben. Es offenbart sich auf größter Skala eine netz- oder schwammähnliche Verteilung der Materie in Filamente (Stränge) und Voids (Hohlräume).

Spezielle Relativitätstheorie, SRT

[Bearbeiten | Quelltext bearbeiten]

In der Speziellen Relativitätstheorie folgert Albert Einstein aufgrund der Messungen der Lichtgeschwindigkeit, die sich im Michelson-Morley-Experiment als konstant herausstellte, dass - wenn nichts schneller wechselwirken kann, als mit Lichtgeschwindigkeit - Raum und Zeit, in denen Wechselwirken stattfindet, eine Einheit sein müssen, die Raumzeit, mit der diverse Verzerrungen des bis dahin geläufigen dreidimensionalen Raumes und der eindimensionalen Zeit einhergehen. Eine Gleichzeitigkeit von beobachteten Ereignissen ist auf großen Skalen abhängig von einer entsprechenden Position eines Beobachters; für Beobachter in anderen Positionen finden die Ereignisse je nachdem vorher oder nachher statt. Objekte verkürzen sich desto mehr in ihrer Länge, je mehr sie sich beschleunigt fortbewegen. Für Dinge oder Beobachter verläuft die Zeit langsamer, je mehr sie beschleunigen. Beide Effekte wurden experimentell nachgewiesen.

Allgemeine Relativitätstheorie, ART

[Bearbeiten | Quelltext bearbeiten]

Zu Anfang der Allgemeinen Relativitätstheorie steht die Idee, dass Trägheit der Masse und ihr Gewicht ein- und dasselbe sind. So könne man, z. B. in einer gleichmäßig beschleunigten Aufzugskabine stehend, nicht unterscheiden, ob man Bodenhaftung hat, weil der Aufzug sich bewegt und beschleunigt oder weil man von der Schwerkraft des Planeten im stillstehenden Aufzug angezogen wird. Die Erkenntnisse der SRT würden so auch auf die Schwerkraft zutreffen.
Damit verzerren insbesondere Massen kosmischer Größenordnungen den sie umgebenden Raum zur Raumzeit der SRT. An der Oberfläche eines sehr dichten Himmelskörpers verläuft die Zeit etwas langsamer, als auf einem kleinen, leichten Mond. Bei Schwarzen Löchern und Singularität wird die Zeit in ihrer Nähe alleine durch deren Masse stark verlangsamt.
Die kürzeste Verbindung zwischen zwei Punkten im Einflussbereich größerer Massen verläuft entlang der zu dieser Masse hin gekrümmten Raumzeit, den sogenannten Geodäten.
Der Weg eines Objekts oder Beobachters durch die Raumzeit ist nun eine vierdimensionale Weltlinie, da auf dem dreidimensionalen Weg, außerdem verschieden schnell ablaufende Zeiten erfahren werden können.

Hubble-Aufnahme (sichtbares + infrarotes Licht) des Einstein-Ringes (Gravitationslinse) um LRG 3-757, Dez. 2011

Beobachtbar ist dies an Gravitationslinsen, bei denen gewaltige kosmische Massenansammlungen oder supermassereiche schwarze Löcher in der Lage sind sogar das sichtbare Licht weit dahinter strahlender Objekte auf solchen Geodäten um sie herum zu krümmen, was bei uns auf der Erde ein Bild, wie am Rand einer starken Lupe erzeugt.
Nachdem das Newtonsche Gravitationsgesetz nur die Massenanziehung im dreidimensionalen Raum kannte, beschreibt Albert Einstein mit den Einsteinschen Feldgleichungen nunmehr das Phänomen der Gravitation unter diesen Bedingungen der gekrümmten vierdimensionalen Raumzeit. Er führt diverse sogenannte Tensoren ein, unter anderem einen (Energie-Impuls-Tensor), der sicherstellt, dass der Impuls bewegter Objekte trotz scheinbarer Ablenkung (aus Newtonscher Sicht) erhalten bleibt, sowie einen geometrischen Tensor (Einsteintensor), der die Raumkrümmung zur Nähe großer Massen hin mit der Gravitation vereinbar macht. Weitere Feldgleichungsvarianten, die Vakuum-Feldgleichungen und die Einstein-Maxwell-Gleichungen, tragen ihrer Anwendbarkeit auf luftleeren interstellaren Raum bzw im Umfeld elektromagnetischer Einflüsse Rechnung.
Die Feldgleichungen kommen insbesondere immer dann ins Spiel, wenn ihre möglichen Lösungen die Vorgänge in und um besonders massereiche Objekte beschreiben, wie schwarze Löcher oder eben Singularitäten, deren eine zu Beginn des Universums im Urknall gestanden haben könnte.

Im atomaren und subatomaren Maßstab

[Bearbeiten | Quelltext bearbeiten]

Heisenbergsche Unschärferelation

[Bearbeiten | Quelltext bearbeiten]
  • Welle-Teilchen-Dualismus
  • Quantenmechanik
  • Kopenhagener Deutung

Standardmodell der Elementarteilchen

[Bearbeiten | Quelltext bearbeiten]

6 Quarks, 6 Leptonen (das Elektron und seine schwereren und instabilen Verwandten, Tauon und Myon, sowie aller deren je ein, also 12 Neutrinos) und 4 Eichbosonen (Lichtphoton, Quark-Gluon, sowie Z- und W-Boson der schwachen Wechselwirkung) bilden die Grundlage der Materie je nach vorherrschenden Energiebedingungen, welche für deren Möglichkeit zu entstehen und dann deren Stabilität verantwortlich ist.
Aus diesen bauen sich 36 mögliche Mesonen (Quark-Antiquark-Paar-Kombinationen), sowie diverse Baryonen (Proton, Neutron und Hyperonen, welche letzteren zu den sogenannten seltsamen Teilchen gehören). Mesonen und Seltsame Teilchen gibt es bereits nicht mehr als natürliche Bestandteile auf der Erde, sondern schon nur noch im Kosmos oder im Teilchenbeschleuniger, da sie extrem kurzlebig, also instabil sind. So konnte das K-Meson ``Kauon´´ in kosmischer Strahlung, die auf die Erde trifft, beobachtet werden und Mesonen können im Teilchenbeschleuniger erzeugt und als real existierend nachgewiesen werden. Die Seltsamen Teilchen kommen nach bisherigem Kenntnisstand höchstens instabil vor, nachdem sich die Vermutung, sie könnten unter Gravitationsdruck in hypothetischen Quarksternen existieren nicht bestätigte.
Die Zugehörigkeit zur Einteilung in Fermionen und Bosonen ergibt sich aus dem Spin, einer Art Eigendrehung der Teilchen mit Werten zwischen -1 und +1 in gedrittelten oder halbierten Abstufungen.
Zu fast allen Teilchen gibt es ein Antiteilchen mit entgegengesetzter Ladung, außer zu wenigen neutralen Bosonen, die als ihre eigenen Antiteilchen gelten.[1]
Die genannten Teilchen haben Massen von (quasi) masselos (Photon, Gluon) bis zu vergleichsweise extrem schwer (Z-Boson ~ 91 GeV/c² gegenüber Neutron mit ~ 940 MeV/c²). Sie sind positiv, negativ geladen oder elektrisch neutral.
So ist denn ihre Masse gemäß Einsteins berühmter Formel E=mc² als ihre Energie zu verstehen (gemessen in Joule pro Lichtgeschwindigkeit) und gemäß der Quantenmechanik werden Teilchen als Wellenfunktion beschrieben und eine Unterscheidung zwischen Teilchen oder Welle ist nicht mehr möglich.
Das jüngst (2012) von den Medien beachtete Higgs-Teilchen bezieht sein großes Interesse übrigens daher, dass es vom Standardmodell vorausgesagt wurde, insbesondere auch um die Masse von W- und Z-Boson zu erklären, von denen man sonst Masselosigkeit, wie bei Photon und Gluon erwarten müßte.

Die Kräfte und Wechselwirkungen betreffend

[Bearbeiten | Quelltext bearbeiten]
Um 1900 führen Max Planck´s Studien zur Strahlung von Schwarzkörpern ihn zu der Erkenntnis, dass Licht immer nur in bestimmten Portionen (eben den Quanten, ) Energie mit Materie austauschen konnte, weil in der Materie nur bestimmte Energieniveaus möglich seien. Albert Einstein schlug 1905 eine Quantisierung der Energie des Lichtes selbst vor, um den photoelektrischen Effekt zu erklären, bei dem Licht bestimmter Farben Elektronen aus Metall herausschlagen kann. 1913 erklärt Niels Bohr Spektrallinien des Wasserstoffs mit den gequantelten Energieniveaus. 1924 veröffentlicht Louis de Broglie seine Theorie der Materiewellen, wonach jegliche Materie einen Wellencharakter aufweisen kann und umgekehrt Wellen auch einen Teilchencharakter aufweisen können.
  • Quantenmechanik (die ausgereifte Quantentheorie): Nach früherem, klassischen Verständnis beobachtbare Größen (Observablen, wie z. B. Energie und Impuls bzw Welle und Teilchen) werden nun quantisiert und als Wellenfunktion dargestellt. In den berühmten Doppelspaltexperimenten liegen die Observablen vor einer Messung mit der Möglichkeit, als Teilchen oder als Welle gemessen zu werden vor, so dass erst der Zugriff darauf durch eine gewählte Messung entscheidet, ob es als Teilchen oder als Welle gemessen werden soll und wird. Vor der Messung ist es beides! Dies formuliert die Heisenbergsche Unschärferelation.
Die Quantenmechanik ist eine formell eigenständige Einbeziehung der Quanten in die Physik der Wellen und Teilchen. Sie ist also keine Erweiterung der klassischen Feldtheorien und noch keine Quantenfeldtheorie. Erst die Quantenfeldtheorien bringen sie mit den klassischen Feldtheorien in Einklang.
  • Quantenfeldtheorie: Erweitert die Quantenmechanik ganz allgemein und für jegliche Feldtheorien um die Quantisierung auch der wechselwirkenden Felder selbst (nicht nur die der wechselwirkenden observablen Welle-Teilchen). Unter Anderem erlaubt sie im Quantenschaum auch die spontane Teilchen-Antiteilchen-Paar Entstehung und Vernichtung (Annihilation).

Die Quantenfeldtheorien im Besonderen wenden die Quantenfeldtheorie auf die einzelnen Feldtheorien bzw Grundkräfte an:

  • die Quantenelektrodynamik auf die Elektrodynamik der elektromagnetischen Wechselwirkung,
  • die Quantenchromodynamik auf die starke Wechselwirkung zwischen Quarks im Atomkern, wobei hier nicht deren elektrische Ladung, die sie auch haben, beim Wechselwirken miteinander zur Geltung kommt, sondern deren sogenannte Farbe (up, down, strange, charm, bottom und top), einer Form von schwerer, elektrostarker Wechselwirkung. Gluonen sind die Überträger dieser Farbe bei der Farbänderung der Quarks. dass positiv geladene Protonen sich im Atomkern nicht abstoßen, erklärt die Quantenchromodynamik, indem sie die Ansammlung der Kernteilchen als Gefüge von Bindungen aus den 6 Quarks beschreibt, das `nach außen hin´ positive Ladung der Protonen und ladungsneutrale Neutronen offenbart.
  • Die Formulierung einer Quantengravitation aufbauend auf der ART ist bisher nicht gelungen.

Große Vereinheitlichte Theorie, Weltformel

[Bearbeiten | Quelltext bearbeiten]

(GUT, engl.: great unified theory; TOE, theory of everything, Theorie von Allem, Weltformel) Die Große vereinheitlichte Theorie ist eine angestrebte Formulierung der vier bekannten Grundkräfte schwacher und starker Wechselwirkung, Elektromagnetismus und Gravitation zu einer einzigen den Wechselwirkungen im Universum zugrundeliegenden Grundkraft.

Starke
Wechselwirkung
Elektrostatik Magnetostatik Schwache
Wechselwirkung
Gravitation
Elektromagnetische
Wechselwirkung
Quantenchromodynamik Maxwell´s Elektrodynamik Newton-Gravitation
Quantenelektrodynamik
Elektroschwache Wechselwirkung Allgemeine
Relativitätstheorie
Standardmodell der Elementarteilchen, Große vereinheitlichte Theorie Quantengravitation
mögliche Weltformeln: Stringtheorie, Quantengravitation, Relativistische_Quantenmechanik

Die starke Wechselwirkung tritt zwischen Quarks im Atomkern auf.
Die elektromagnetische Wechselwirkung macht sich jeder Elektromotor, jede Stromturbine und jeder Lautsprecher zunutze und wir erleben sie alltäglich als Licht. Licht im unsichtbaren Bereich gibt es u. a. als Mikrowellen, Röntgenstrahlung, UV- und Infrarot(Wärme)-Strahlung, Radiowellen und radioaktive Gammastrahlung.
Schwache Wechselwirkung ist am radioaktiven Beta-Zerfall (Aussendung von Elektronen oder Positronen) und bei den Kernfusions-Prozessen zwischen Wasserstoff (H) und Helium (He) zu schwereren Elementen im Inneren von Sonnen beteiligt.
Die Gravitation (Schwerkraft) ist die Eigenschaft von Massen, sich gegenseitig anzuziehen.

Das Lebendige betreffend

[Bearbeiten | Quelltext bearbeiten]

Evolutionstheorie

[Bearbeiten | Quelltext bearbeiten]

Während die Definition davon, was Leben eigentlich ist und was seine Kennzeichen sind, so dass man es ``Leben´´ nennen kann, eher Hauptanliegen der Ethik und der Philosophie sind, beschäftigt sich die Evolutionstheorie mit dessen Entstehung und Werdegang in biologischer und chemischer Evolution. Hauptmotor der Evolution ist das Zusammenspiel vom Zufall auftretender Mutationen oder plötzlicher Umwelteinflüsse mit der Notwendigkeit zu Überleben und Bestand zu haben. Entscheidend ist dabei für die weitere Entwicklung von Arten und Populationen weniger das Genom des Individuums, als vor allem der Genpool der ganzen Art.

Doppelhelix-Struktur des DNS-Stranges
Doppelhelix-Struktur des DNS-Stranges

Das Phänomen Genom, die DNA, und diese Lösung der Natur für die Weitergabe von Information an Nachkommen, ist der rote Faden, der dieses Phänomen der Entstehung, Evolution, Ausbreitung und Vielfalt des Lebens selbst Bestand haben ließ.
Alle zellulären Organismen haben einen gemeinsamen Urvorfahr. Gründe sind:

Mechanismen, nach denen sich Evolution abspielt (neben Mutation und Selektionsdruck durch die Umwelt) sind des Weiteren:

  • Rekombination: Die Gene der Eltern verschmelzen zu einem neuen Individuum mit Merkmalen beider.
  • Selektion: Individuuen und Populationen, die sich nicht mehr fortpflanzen, scheiden aus dem Genpool der Art oder der Möglichkeit zur Arterhaltung aus.
  • Gendrift, genetischer Flaschenhals: Populationen werden getrennt oder beträchtlich dezimiert, so dass ein nun eingeschränkter Genpool bei der neuen Gründerpopulation verbleibt.
  • Genfluss durch Migration: Einzelne Individuen wandern noch zwischen vorgenannten Populationen und bereichern den verringerten Genpool.
  • Isolation: Vorgenannte Populationen haben sich nach ihrem erneuten Aufeinandertreffen soweit auseinanderentwickelt, dass ihre Paarungen unfruchtbar bleiben. Es sind zwei neue Arten entstanden. Auch innerhalb einer Population können sich Arten abspalten z. B. durch Gruppenbildung, Nutzung verschiedener Ökonischen oder schierer Auseinanderentwicklung der Körpergröße oder anderer Merkmale, bis Unfruchtbarkeit zwischen den Gruppen zunimmt.
  • Hybridisierung: Kreuzung verschiedener Arten, gewöhnlich mit Verdopplung des Chromosomensatzes (tetraploid)
  • Horizontaler Gentransfer
  • Symbiose, insbes. Endocytobiose (Entstehung der Mitochondrien und Chloroplasten)

Das Zusammenspiel der Teile und des Ganzen betreffend

[Bearbeiten | Quelltext bearbeiten]

Die Chaostheorie beschert unserem naturwissenschaftlichen Weltbild Erkenntnisse über Entstehung von Komplexität aus einfachen Anfangsbedingungen, über die Selbstähnlichkeit von Fraktalen (z. B. sich wiederholenden, kleiner werdenden, aber gleichartigen Weiterverzweigungen bei Bäumen oder die Unmöglichkeit dem Foto einer bloßen Felskontur ihre tatsächliche Größe anzusehen, ob sie von einem Fels-Stein ist oder von einem ganzen Felsen-Gebirge), über seltsame Attraktoren, ungeahnt geformte dreidimensionale Grenzwerte zu denen sich besondere mathemathische Funktionen hinentwickeln können, und über eine Sicht von Ordnung, die als Inseln im Chaos zu erwarten ist.

Keine echte oder gebastelte Pflanze, sondern Lösung einer mathematischen Formel des Lindenmayer-Systems

Derartige Strukturen, die wie Schwämme, Blumenkohle, Ornamente, Muster, Bäume, Orient-Teppiche aus der Natur gegriffen aussehen, können rein mathematisch mit redundanten (selbstbezüglichen) Funktionen nach dem Schema z´ = z + c erzeugt werden deren Ergebnis (z´) wieder als Variable (z) eingesetzt im nächsten Schritt (Iteration) ein neues Ergebnis liefert, das wieder eingesetzt wird usw. (c ist dabei eine Konstante oder ein berechenbarer Ausdruck). Solches schrittweises Lösen einer redundanten Funktion ist ein Algoritmus.
Man kann durch diese Erkenntnis leicht geneigt sein, anzunehmen, dass die gesamte Natur, das ganze Universum, sich anhand reiner mathemathischer Formeln erzeugen ließe und es dementsprechend berechenbar und vorausbestimmt sei (Determinismus).

Zum einen sind viele Vorgänge in der Natur derart komplex, dass es nicht gelingt sie in mathematischen oder physikalischen Gesetzmäßigkeiten zu erfassen, z. B. plötzliche Phasenübergänge zwischen flüssig und fest, zwischen strömend fließen und turbulent strudeln, oder z. B. das Auftreten von Symmetriebrechung. Auch, aus welchem Anfangszustand sich der Ist-Zustand eines komplexen Systems entwickelt hat nachträglich zurückzuermitteln - was einfacher scheint, da das Ergebnis bekannt ist und tatsächlich bereits Geschehenes vorliegt - ist in vielen Fällen unmöglich, da unzählige ebenso komplexe Varianten zu demselben Ist-Zustand führen. Bei chaotischem Verhalten erzeugt eine noch so kleine Veränderung des Anfangszustandes irgendwann eine beliebig große Veränderung des (kausalen) Folgezustands. Da man den Anfangszustand aber nicht mit beliebiger Genauigkeit messen kann, bleibt späteres Geschehen trotz Kausalität unvorhersagbar.

Dazu tritt die Unbestimmtheit der Quantentheorie. Der kausalen Determiniertheit steht Bell’s Theorem (siehe auch Physik-Nobelpreis 2022, GHZ-Experiment) entgegen, das Vorhersagen nur im Rahmen von Wahrscheinlichkeiten erlaubt. Und das nicht, aufgrund mangelhafter Messtechnik, sondern aufgrund einer natürlichen Unbestimmtheit des Verhaltens und der Zustände subatomarer Teilchen.

Energie kann nicht verloren gehen, nicht `verbraucht´ werden, sondern sie kann nur umgewandelt werden in eine andere Erscheinungsform von Energie.
Zum zentralen Begriff der Entropie zunächst ein Beispiel: Schwimmt z. B. Eis in Wasser, herrscht eine Unausgeglichenheit zwischen den in der Kristallstruktur des Eises gebundenen, eher starren, kälteren, demnach energieärmeren Wassermolekülen und den freier beweglichen, schnelleren, energiereicheren Wassermolekülen im flüssigen Wasser, hervorgerufen durch die verschiedenen Temperaturen und Druck in Eis und Wasser. Im Sinne des Entropie-Begriffes herrscht im Eis eine geringere Bewegungsfreiheit, aber auch im gesamten System, verglichen mit der größeren Bewegungsfreiheit aller beteiligten Wassermoleküle, wenn das Eis ganz geschmolzen ist. Nicht nur solche Bewegungsfreiheit durch kinetische Energie, sondern die (thermodynamisch) beteiligten Größen Druck und Temperatur, erlauben entsprechend mehr mögliche Zustände (alle Wassermoleküle flüssig) oder weniger mögliche Zustände (Moleküle zum Teil in Eis gebunden) des gesamten Systems. Dieser Unterschied an möglichen Zuständen des Gesamtsystems bezeichnet geringere Entropie (weniger Bewegungsfreiheit, weniger mögliche Zustände) oder höhere Entropie (mehr Bewegungsfreiheit, mehr mögliche Zustände).
Entropie bezeichnet in der Thermodynamik ein Maß für die Anzahl sämtlicher möglicher mikroskopischer Zustände eines Systems. Dabei werden Änderungen des Systems miteinander verglichen und festgestellt, ob sich die Anzahl der möglichen mikroskopischen Zustände des Systems (also die Entropie) erhöht oder verringert. Entropie ist eine Vergleichsgröße.
(Siehe auch: Phasenraum, statistische Physik)
Für ein Weltbild bedeutet dies, wenn es vornehmlich nach der Thermodynamik ginge: Alles strebt nach Ausgleich der Energiezustände hin zu gleichförmiger Gasverteilung. Dem entgegen wirken Gravitation und Bindungskräfte. Das zwischenzeitliche Endszenario für den Kosmos wäre demnach eine Verteilung kalter Sterne.

Ähnlich, wie die Chemie die Wechselwirkungen zwischen den Stoffen und Elementen, wie die Physik die Wechselwirkungen der Teilchen, Wellen und Objekte miteinander, wie irgendeine Wissenschaft das Zusammenspiel ihrer Untersuchungsgegenstände erkundet und Gesetzmäßigkeiten sucht und allgemeingültig formuliert, so tut eben dies in verallgemeinerter Form die Systemtheorie für jegliche erdenkliche Art von nicht näher bestimmten Systemen aus agierenden, wechselwirkenden, zusammenspielenden oder kommunizierenden Agenten, Einheiten oder Gruppen. Sie abstrahiert bewußt, um höchstmöglich interdisziplinär anwendbar zu sein.
Ziel dabei ist, universale Gesetze, Formeln, Regelmäßigkeiten zu formulieren, deren jede einzelne auf Problemstellungen in Systemen grundverschiedenster Art gleichermaßen anwendbar ist.

Kybernetik beschäftigt sich mit den Phänomenen makroskopischer geregelter Prozesse, die sich zwischen Dingen, Substanzen und Lebewesen jeglicher Art abspielen, als da mit naturwissenschaftlichem Bezug sind:

  • Regelkreisläufe, Redundanzen und Rückkopplungen bei z. B. Thermostat und umgebender Temperatur; algorithmischen Schleifen und Verzweigungen; Fertigungsstrecken in Industrie und Logistik; Räuber-Beute-Populationsdynamik.
  • Selbstregulation, z. B. bei Stoffwechselprozessen, Herzschlag, Blutdruck, Atmung, Blutzucker.
  • Selbstorganisation, Homöostase, Autopoiesis, z. B. Ausbildung von Strukturen, Mustern, stabileren Zuständen, die sich selbst bedingen, erhalten oder verstärken; Inseln von Ordnung im umgebenden Chaos; in dem Zellautomaten Game of Life, sind Schiffe und Gleiter sich alleine aufgrund des Algorithmus eigenständig fortbewegende Strukturen.
  • Die Biokybernetik behandelt unter Anderem die komplexen Abläufe im System lebendige Zelle.

Der Mensch im naturwissenschaftlichen Weltbild

[Bearbeiten | Quelltext bearbeiten]
Der vitruvianische Mann, Zeichnung von Leonardo da Vinci um 1490
Der vitruvianische Mann, Zeichnung von Leonardo da Vinci um 1490

Zum Selbstverständnis des Menschen trägt Naturwissenschaft neben den Gesellschaftswissenschaften in der fachübergreifenden (interdisziplinären) Humanwissenschaft und in der naturwissenschaftlichen Anthropologie bei. Insbesondere zur Einordnung des Menschen als Organismus, biologisches Lebewesen und als Art läßt er sich naturwissenschaftlich beschreiben und in einen Gesamtzusammenhang mit der Umwelt, dem Werdegang und der Vielfalt der Arten und dem Kosmos einordnen; sowie seine physische, kybernetische, biologische und chemische Interaktion mit seiner unmittelbaren Umwelt erforschen.

  • Als thermodynamisches System und Organismus mit niedrigster Entropie (hoher und hochkomplexer Ordnung seiner physikalischen und chemischen Bestandteile zu einem Organismus), nimmt der Mensch Material und Energie aus seiner Umwelt auf, verarbeitet sie so, dass er sich selbst (am Leben) erhält, dass er Bestand hat. Es geschieht unbewußt und unwillentlich über seine vegetativen (nicht bewußt gesteuerten) Funktionen, wie Herzschlag, Blutdruck, Blutzucker-Regelung, Stoffwechsel, Darm-, Nierentätigkeit, vegetatives Nervensystem, Hormone, Botenstoffe, uvm.
  • Als Fötus durchläuft der Mensch diverse urzeitliche Entwicklungen die im Laufe der Evolution stattfanden immer noch durch. Bei den ersten Zellteilungen unterscheidet er sich bis auf die Information im Genom kaum von irgendeinem Mehrzeller. Frühe Föten verschiedenster Arten oder gar Gattungen sind auf Anhieb kaum voneinander zu unterscheiden: Man kann dem Augenschein nach kaum sagen, ob es ein Huhn, ein Krokodil oder ein Mensch wird. In jungem Stadium bildet er Kiemenbögen aus. Auch sogenannte Atavismen (ein Stück oder Ganzkörper-Fell oder Hühnerhaut; ein Schwanz) sind im Genpool mitgeschleppte Relikte aus früheren Zeit.
  • Der Mensch bringt als Individuum sein Genom als Grundanlagen und -eigenschaften mit und wird in seiner Jugend mehr oder weniger von Umwelt, Freunden, Familie, Erlebnissen mitgeprägt. Als Antrieb gibt Evolutionstheorie Selbsterhaltung, Produktion von Nachwuchs, Schutz der Familie und des Clans, der Sippe, und Arterhaltung vor. Triebe, Libido, Aggression, Instinkt, Zuneigung, Verhalten allgemein können ebenso der Evolution unterliegen, wie kulturelles und soziales Verhalten, da die Gene direkt oder indirekt vielseitig in ihrer Einflussnahme sind.
  • Als Menschheit unterliegt der Mensch den allerselben Gesetzen und Mechanismen, denen jede andere Population auch unterliegt. Vor einigen hunderttausend Jahren bis vor wenigen Millionen Jahren hatte der Stammbaum des Menschen unter den Menschenartigen, dann der Gattung Homo (Mensch), noch etliche Vertreter von denen viele ausgestorben sind (Sahelanthropus †, Orrorin †, Kenyanthropus †, Ardipithecus †, Australopithecus †, Paranthropus †; Homo antecessor †, H. erectus †, H. ergaster †, H. floresiensis †, H. luzonensis †, H. georgicus †, H. habilis †, H. heidelbergensis †, H. neanderthalensis †, H. rhodesiensis †, H. rudolfensis †, H. naledi †). Die Menschheit ist offenbar durch einen genetischen Flaschenhals gegangen.
Nach jüngeren Erkenntnissen hat sich ein Bruchteil des Genpools der Neanderthaler durch Vermischung mit dem modernen Menschen bis heute gehalten und auf die Menschheit verteilt.
Kaum eine Art hat sich derart flächendeckend über den Globus verbreitet, wie der Mensch. Der Mensch ist die erste und einzige Art, die großflächig künstlich ihre Umwelt selbst gestaltet (und verunstaltet) und künstlich in ihre eigene Artentwicklung eingreift, den Mond angeflogen und betreten hat und ferngesteuerte Erkundungssonden auf fremden Himmelskörpern abgesetzt hat. Dies beinhaltet aber auch, dass der nackte Mensch nichts besser kann als jedes andere Tier: Er ist kein Spezialist. Alleine sein Verstand gepaart mit handwerklich-technischer Begabung - von denen er aber auch abhängt - ist ihm einzig.

Somit hat der Mensch, als Individuum und als Gruppe Menschheit, aus allen Stationen seiner Evolution Eigenschaften bis heute weiterentwickelt, von der einzelnen Zelle über die Wirbellosen und die Wirbeltiere bis über die Säuger zum homo sapiens.
Ein höchst wichtiger Aspekt ist hier auch die Frage, wie gut wir als Menschen überhaupt in der Lage sind, die Welt zu erkennen und zu verstehen. Hier treffen Erkenntnistheorie auf Hirnforschung und die Physik (Optik), Chemie (Nervenreizübermittlung), Biologie (Sinnesorgane, nicht nur des Menschen) und Psychologie (Stw. Sinnestäuschungen) der Wahrnehmung und auf die Theorie komplexer Systeme. Evolutionäre Erkenntnistheorie wertet menschliche Erkenntnis schlicht an der Tatsache, dass der Mensch noch existiert und soweit überlebt hat. Mit einer mangelhaften Wahrnehmung der Welt wäre er wohl ausgestorben. Wie seine Ausbreitung als Art über den Globus zu bewerten ist, muß wohl diskutabel bleiben. Auch, ob die Beherrschung hochentwickelter Technik mit all ihren Möglichkeiten und Risiken dem weiteren Erfolg der menschlichen Art förderlich sein wird, kann letzlich nur die Zeit zeigen. Evolutionstheorie lehrt uns jedoch auch, dass es viele Arten gibt, die sich seit einigen hundert Millionen Jahren etabliert haben (Mensch etwa 2 mio), von Schachtelhalmen und Insekten über Pfeilschwanzkrebse und Quastenflosser bis hin zu Haien, Krokodilen, Schildkröten und vielen weiteren sogenannten lebenden Fossilien.
Aufschußreich dafür, was angeboren und was erlernt, geprägt ist, ist auch die Zwillingsforschung, eine Methode der Humangenetik und der Psychologie; dort besonders die Untersuchung getrennt aufgewachsener Zwillinge, die nichts voneinander wußten (und sich so nicht gegenseitig beinflussen konnten). So finden sich überraschend detailgetreue Übereinstimmungen bei Vorlieben und Abneigungen z. B. Partnerwahl, Kleidung, Frisur, Speisen und sogar etwa dem Tragen eines Gummibändchens ums Handgelenk und ähnlichen Marotten, die, da sie kaum zufällig sein können, auf genetische Steuerung zurückgeführt werden müssen, wo man gerne meint, man habe sich für solche Eigenheiten frei entschieden. Mindestens so zahlreich sind jedoch auch Gegenbeispiele von Nicht-Übereinstimmungen, so dass weiterhin Grund für die Annahme eines freien Willens besteht. Auch ist die Gefahr selektiver Wertung hier gegeben und kann solche Ergebnisse oder schon die Fragestellung solcher Untersuchungen relativieren.

Geschichte und Meilensteine

[Bearbeiten | Quelltext bearbeiten]
  • Euklid
Die geometrischen Axiome von Euklid sind bis heute unangefochten, auch wenn sie im letzten Jahrhundert durch die nicht-euklidische Geometrie zum Hilbert-Raum relativistisch erweitert wurde.
Auch schuf oder erweiterte er die Grundlagen von Zahlentheorie und Arithmetik.
Sein Aufbau eines wissenschaftlichen Gedankengebäudes auf Axiomen, mit der Möglichkeit darauf in sich schlüssige Beweise zu führen, war vielen Gelehrten Vorbild und wegweisend.
  • Babylonisches Weltbild
Auf einer babylonischen Tontafel 700-500 v. Chr. ist eine von Wasser umgebene Erdscheibe, durch die der Euphrat fließt zu sehen. Den Babyloniern waren das Obere und das Untere Meer bekannt, seit den assyrischen Feldzügen nach Urartu auch der Vansee/Urmiasee (Meer von Nairi) sowie nach der Eroberung Ägyptens das Rote Meer.
Obwohl Aristarchos von Samos im 3. Jhd. v. Chr. bereits die Sonne als im Zentrum befindlich vertrat, setzte sich das von Aristoteles vertretene Bild der sich im Zentrum befindenden Erde und um sie an Kristallspären haftend kreisende Sonne, Mond und Sterne durch.
Ein geozentrisches Weltbild, ab etwa dem 3. Jhd. v. Chr., das eine astronomisch beobachtbare rücklaufende Bahnbewegung der äußeren Planeten erklärt, indem es annimmt, diese kreisten zusätzlich noch um ihre Kreisbahn. Die Planetenbahnen konnten so zuverlässiger vorausgesagt werden.
Im Mittelalter bis in die Renaissance wurde die Idee von der Sonne im Mittelpunkt immer wieder aufgegriffen, doch in einer bewegten Erde sahen die Gelehrten unüberwindliche Hindernisse. Man würde schräg fallen oder sogar in den Weltraum hinausgetragen.
1543 veröffentlicht Nikolaus Kopernikus ``De Revolutionibus Orbium Coelestium´´ (Über die Neuordnung der Himmelsbahnen) mit um die Sonne kreisenden Planeten. Erst 1757, bereits zu Newton´s Zeit wird ein päpstlicher Bann gegen das heliozentrische Weltbild aufgehoben.
Mit den ``Philosophiae Naturalis Principia Mathematica´´ (Mathematische Prinzipien der Naturphilosophie) veröffentlicht Sir Isaac Newton 1687 das Fundament für die klassische Mechanik (lapidar auch Festkörperphysik genannt). Seine drei Bewegungsgesetze formulieren die Bewegung von Objekten und ihr Verhalten beim Aufeinandertreffen in elastischem Stoß, sowie das Konzept der Gegenkraft zu jeder Kraft. Gleichermaßen bedeutend war das in diesem Werk formulierte Gravitationsgesetz, für das er die Fernwirkung der Gravitation und die Gravitationskonstante einführte und den Wert der Letzteren berechnete.
Des Weiteren postulierte er Raum und Zeit als absolut, d. h. als gleichförmig im gesamten Kosmos, so dass die Naturgesetze überall im Kosmos gleichermaßen gültig seien, anders als es traditionelle Auffassung seit Aristoteles war, nach der überall die Naturgesetze unterschiedlich sein können sollten.
1785 wendet Charles Augustin de Coulomb die Formel des Gravitationsgesetzes auf Ladungen an und findet sie in Experimenten bestätigt. Einziger Unterschied analog zur Gravitation ist das Auftreten von Abstoßung. Damit ist Der Grundstein der Elektrostatik gelegt.
James Clerk Maxwell erkannte als Erster, dass Elektrizität, Magnetismus und Licht nur Teilaspekte des zugrundeliegenden Elektromagnetismus sind. 1864 veröffentlicht er seine Gleichungen der Elektrodynamik. Er sagt die Erzeugung von elektromagnetischen Wellen durch schwingende elektrische und magnetische Felder voraus, welche Heinrich Hertz 1886 mit dem hertzschen Oszillator experimentell bestätigt.
Maxwell berechnete erstmals die Lichtgeschwindigkeit.
Gilt die Maxwellsche Theorie und damit der Wert der Lichtgeschwindigkeit für alle (unbeschleunigten) Beobachter, dann folgt daraus die Spezielle Relativitätstheorie (SRT: Lorentz-Transformation bzw. Poincaré-Transformationen) inkl. Zwillingsparadoxon. Der Formalismus der Maxwellschen Theorie ist in der SRT am einfachsten darstellbar, im Vakuum lauten die Maxwellschen Gleichungen dF = 0.
  • Das Periodensystem sortiert chemische Elemente nach ihrer Kernladung in Gruppen ähnlicher Eigenschaften. 1869 erstellen es Dmitri Mendelejew und Lothar Meyer fast zeitgleich und unabhängig voneinander.
  • Thomsonsches, Rutherfordsches, Bohrsches Atommodell, Orbitalmodell
Bei Joseph John Thompson sind Elektronen wie in einem Rosinenbrot in einer das ganze Atom ausfüllenden positiv geladenen Masse verteilt. Rutherford fand durch die Streuung beim Beschuß hauchdünnster Goldfolie mit Alpha-Teilchen einen winzigen positiv geladenen Atomkern, der fast die gesamte Masse des Atoms hat.
Im Bohrschen Atommodell nehmen die Elektronen ganz bestimmte stätionäre Bahnen (oder: Zustände) in bestimmten Abständen um den Atomkern ein. Sie springen zwischen den Bahnen auf und ab, wenn bzw indem sie eine Lichtwelle aufnehmen bzw abgeben; dabei haben die Bahnen je nach Abstand vom Kern verschiedene Energien entsprechend dem Planckschen Wirkungsquantum, da gerade dessen Äquivalent - als Lichtwelle aufgenommen oder abgegeben - der Differenz des Energiezustandes zwischen den Bahnen entspricht.
Im Orbitalmodell der Quantenmechanik sind die Elektronen nicht mehr nur als Teilchen aufgefasst, sondern gleichermaßen als Welle, so dass sich für sie (anstelle von Bahnen) kugel-, keulen-, bohnen-, diabolo- oder ringförmige Bereiche für deren Aufenthaltswahrscheinlichkeit ergeben. Für die Verteilung mehrerer Elektronen in diesen Orbitalen, werden sie Schalen genannt.

Klärungsbedürftige offene Fragen

[Bearbeiten | Quelltext bearbeiten]
  • Woraus besteht Dunkle Materie?
  • Was verursacht die offenbar beschleunigte Ausdehnung des Universums? Was ist Dunkle Energie?
  • Ist Gravitation instantan? Wirkt sie unmittelbar als Struktur der Raumzeit oder per Gravitonen mit Lichtgeschwindigkeit übertragen als physikalische Grundkraft? Der Nachweis von Gravitationswellen steht für Übertragung.
  • Gibt es Leben oder theoretisch mögliche andersartige Lebensformen (z. B. auf Silizium- oder Arsenbasis) im Kosmos?

www2.aao.gov.au/~TDFgg/Public/Survey/Overview/index.htm - 2dF Galaxy Redshift Survey, Bilderstrecke (slide-show): Kartierung der Rotverschiebung im Umkreis von 4 Mrd Lichtjahren mit 62.559 Galaxien.
commons.wikimedia.org/wiki/File:2dfdtfe.gif - 2dF Galaxy Redshift Survey, 3d Darstellung.

Filamente und Voids
(Seitenlänge: 520 Mio Lichtjahre,
Tiefe: 100 Mio Lj.)


Uni Bonn, Physik 2000 - Welle-Teilchen-Dualismus am Doppelspaltexperiment interaktiv (java Applets) auf etwa Oberstufen-Niveau anschaulich im Format mit Avataren im Schüler-Lehrer-Dialog erklärt.
Uni Bonn, Physik 2000 - Interferenz einzelner Photonen mit sich selber.
Uni Erlangen, QuantumLab - Gleichzeitiges Auftreten von Interferenz, Unteilbarkeit und Quantenzufall bei der Untersuchung der Interferenz einzelner Photonen in Verfeinerungen des Doppelspaltexperiments mit u. a. Strahlteiler, Polfilter, Quantenradierer. Interaktiv (flash-Player). Von etwa Realschul-Niveau (Interferenz) bis Hochschul-Niveau (Kohärenz, Energiekorrelation) sich in sechs Kapiteln steigernd.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. www.allmystery.de/i/tPCStEU_standardmodell.jpg


[[Kategorie:Naturwissenschaft]] [[Kategorie:Weltanschauung]]