Was machen Experimentalphysiker am CERN? Weißrussisch über die Arbeit am Large Hadron Collider

[[K:Wikipedia:Artikel ohne Quellen (Land: Lua-Fehler: callParserFunction: Funktion „#property“ wurde nicht gefunden. )]][[K:Wikipedia:Artikel ohne Quellen (Land: Lua-Fehler: callParserFunction: Funktion „#property“ wurde nicht gefunden. )]]

Experimentelle Physik- eine Art der Naturerkenntnis, die darin besteht, Naturphänomene unter speziell vorbereiteten Bedingungen zu studieren. Im Gegensatz zur theoretischen Physik, die mathematische Modelle der Natur untersucht, ist die Experimentalphysik darauf ausgelegt, die Natur selbst zu untersuchen.

Die Uneinigkeit mit dem Ergebnis des Experiments ist das Kriterium für den Irrtum einer physikalischen Theorie, oder genauer gesagt, für die Unanwendbarkeit der Theorie auf unsere Welt. Die umgekehrte Aussage trifft nicht zu: Die Übereinstimmung mit dem Experiment kann kein Beweis für die Richtigkeit (Anwendbarkeit) der Theorie sein. Das heißt, das Hauptkriterium für die Durchführbarkeit einer physikalischen Theorie ist die experimentelle Überprüfung.

Diese mittlerweile offensichtliche Rolle des Experiments wurde erst Galileo und späteren Forschern bewusst, die auf der Grundlage von Beobachtungen des Verhaltens von Objekten unter besonderen Bedingungen Rückschlüsse auf die Eigenschaften der Welt zogen, d. h. sie führten Experimente durch. Beachten Sie, dass dies beispielsweise völlig im Gegensatz zum Ansatz der alten Griechen steht: Nur die Reflexion schien ihnen die Quelle wahren Wissens über die Struktur der Welt zu sein, und „Sinneserfahrung“ galt als Gegenstand zahlreicher Täuschungen und Unsicherheiten und konnte daher keinen Anspruch auf wahres Wissen erheben.

Idealerweise sollte die Experimentalphysik nur liefern Beschreibung Ergebnisse des Experiments, ohne welche Interpretationen. In der Praxis ist dies jedoch nicht erreichbar. Die Interpretation der Ergebnisse eines mehr oder weniger komplexen Experiments hängt zwangsläufig davon ab, dass wir verstehen, wie sich alle Elemente des Versuchsaufbaus verhalten. Ein solches Verständnis wiederum kann sich nur auf einige Theorien stützen. Experimente in der Beschleunigerphysik von Elementarteilchen – eines der komplexesten in der gesamten Experimentalphysik – können daher erst dann als echte Untersuchung der Eigenschaften von Elementarteilchen interpretiert werden, wenn die mechanischen und elastischen Eigenschaften aller Detektorelemente und ihre Reaktion auf elektrische und elektrische Einflüsse untersucht werden Magnetfelder, Eigenschaften von Restgasen in einer Vakuumkammer, Verteilung des elektrischen Feldes und Drift von Ionen in Proportionalkammern, Prozesse der Ionisierung von Materie usw.1

Schreiben Sie eine Rezension zum Artikel „Experimentalphysik“

Ein Auszug, der die Experimentalphysik charakterisiert

Damals wusste ich noch nichts über den klinischen Tod oder die leuchtenden Tunnel, die dabei entstanden. Aber was dann geschah, war all den Geschichten über klinische Todesfälle sehr ähnlich, die ich viel später, als ich bereits im fernen Amerika lebte, in verschiedenen Büchern lesen konnte ...
Ich hatte das Gefühl, wenn ich jetzt keine Luft mehr atmen würde, würden meine Lungen einfach platzen und ich würde wahrscheinlich sterben. Es wurde sehr beängstigend, meine Sicht wurde dunkel. Plötzlich blitzte ein heller Blitz in meinem Kopf auf und alle meine Gefühle verschwanden irgendwo ... Ein blendend heller, durchsichtiger blauer Tunnel erschien, als wäre er vollständig aus winzigen, sich bewegenden silbernen Sternen gewoben. Ich schwebte ruhig in ihm, spürte weder Erstickung noch Schmerz, sondern war nur geistig erstaunt über das außergewöhnliche Gefühl absoluten Glücks, als hätte ich endlich den Ort meines lang ersehnten Traums gefunden. Es war sehr ruhig und gut. Alle Geräusche verschwanden, ich wollte mich nicht bewegen. Der Körper wurde sehr leicht, fast schwerelos. Höchstwahrscheinlich war ich in diesem Moment einfach am Sterben ...
Ich sah einige sehr schöne, leuchtende, durchsichtige menschliche Gestalten, die langsam und sanft durch den Tunnel auf mich zukamen. Sie lächelten alle herzlich, als würden sie mich zu sich rufen... Ich streckte schon die Hand nach ihnen aus... als plötzlich von irgendwoher eine riesige leuchtende Palme auftauchte, mich von unten packte und wie ein Sandkorn begann um mich schnell an die Oberfläche zu heben. Mein Gehirn explodierte unter dem Ansturm scharfer Geräusche, als wäre plötzlich eine schützende Trennwand in meinem Kopf geplatzt ... Ich wurde wie ein Ball an die Oberfläche geschleudert ... und war taub von einem wahren Wasserfall aus Farben, Geräuschen und Empfindungen. die aus irgendeinem Grund von mir jetzt viel heller wahrgenommen wurden als gewöhnlich.
Am Ufer herrschte echte Panik ... Die Nachbarsjungen riefen etwas, wedelten ausdrucksvoll mit den Armen und zeigten in meine Richtung. Jemand hat versucht, mich an Land zu ziehen. Und dann schwebte alles, wirbelte in einer Art verrücktem Strudel, und mein armes, überanstrengtes Bewusstsein verschwand in völliger Stille... Als ich allmählich „zur Besinnung kam“, standen die Jungs mit vor Entsetzen großen Augen um mich herum und alle zusammen ähnelten irgendwie identischen verängstigten Eulen... Es war klar, dass sie sich die ganze Zeit über in einem echten Panikschock befanden und mich anscheinend bereits geistig „begraben“ hatten. Ich versuchte ein Lächeln vorzutäuschen und erstickte immer noch an der Wärme Flusswasser, brachte mit Mühe heraus, dass bei mir alles in Ordnung sei, obwohl ich in diesem Moment natürlich überhaupt nicht in Ordnung war.

Zu viele Bücher? Sie können Bücher auf Anfrage „Experimentelle Physik“ klären (die Anzahl der Bücher für diese Klarstellung ist in Klammern angegeben)

Anzeigestil wechseln:

Molekulare Theorie der Adsorption in porösen Körpern

Abwesend

Prozesse in porösen Körpern bilden die Grundlage vieler traditioneller und moderne Technologien: Katalytisch, Sorption, Membran, elektrochemisch, chromatographisch, Reinigung und Trennung von Flüssigkeits- und Gasgemischen, Kapillarkondensation und -desorption, Mehrphasenfiltration und -zerstäubung, Benetzung...

Abwesend

Die Monographie präsentiert verallgemeinerte Ergebnisse theoretischer und experimenteller Studien zur Wechselwirkung von Laserstrahlung mit Metallen beim Laserschneiden von Blechmaterialien. Besonderes Augenmerk liegt auf der Konstruktion physikalischer und mathematischer Modelle unter Berücksichtigung der Vielfalt thermophysikalischer Prozesse, der Haupt- und...

Abwesend

Es werden theoretische und angewandte Fragestellungen der Flugzeugaerodynamik vorgestellt. Es werden Informationen aus der Kinematik und Dynamik von Gasen präsentiert; Es werden die Grundgleichungen der Aerodynamik, analytische und numerische Methoden zur Berechnung von Wirbel-, Potential-, ebenen, räumlichen und viskosen Strömungen angegeben. Theorien mit...

Abwesend

Das Buch enthält Aufgaben und mögliche Lösungen für die II. Internationale Olympiade in Experimentalphysik, die vom 27. November bis 7. Dezember 2014 im Kindergesundheits- und Bildungszentrum „Team“ stattfand. Die Olympiade wurde für Schüler der Klassen 8–11 ausgetragen und umfasste jeweils drei Runden…

Abwesend

Die Monographie widmet sich einer systematischen Darstellung der Grundlagen der Physik fluktuierender elektromagnetischer Felder von Festkörpern und deren Zusammenhang mit grundlegenden Phänomenen in der Natur. Moderne theoretische Modelle thermischer Felder und verschiedene Methoden zur Beschreibung ihrer Korrelationseigenschaften werden aus einer einheitlichen Position präsentiert. N...

Abwesend

Das Buch widmet sich dem Problem der Phasenumwandlungen in Festkörpern bei hohem Druck (HP). Folgende Themen werden berücksichtigt: Phasengleichgewichte bei hohem Druck in Elementen (Kohlenstoff, Silizium, Germanium, Titan, Zirkonium, Eisen, Gallium, Cer), in Verbindungen I VII II VI III V Typ A B; A B ; A B, in Legierungen auf Basis von…

Abwesend

Die Monographie untersucht symmetrische und asymmetrische getrennte Strömungen und ihre Umstrukturierung um Körperpaare unterschiedlicher Form in einem weiten Bereich von Mach- und Reynolds-Zahlen. Es werden instationäre, getrennte Strömungen um verschiedene Körper (Kugel, Ende, Kegel) analysiert, vor denen ein nicht rotierender oder rotierender…

Abwesend

Die Monographie präsentiert die Ergebnisse experimenteller Studien zur Erzeugung gepulster Elektronen- und Ionenstrahlen mit Gigawattleistung in Dioden mit einer explosiven Emissionskathode unter Bedingungen einer schnellen Plasmabildung auf der gesamten Arbeitsfläche der Kathode. Die wichtigsten werden berücksichtigt physikalische Prozesse usw…

Abwesend

Es werden die Hauptmerkmale der gestreuten und intrinsischen radiothermischen Strahlung natürlicher Umgebungen betrachtet. Es wird eine Analyse elektrodynamischer Modelle verschiedener Erdoberflächen und der umgebenden Atmosphäre gegeben. Modelle von Funksignalen und deren statistischen Eigenschaften im Bereich der Funkaufzeichnung wurden entwickelt...

Das Buch enthält Beschreibungen pädagogischer experimenteller Studien zum Phänomen der Totalreflexion an der Grenze optisch homogener und geschichteter inhomogener Medien. Es werden einfache physikalische Geräte und Modelle vorgeschlagen. Es werden unterhaltsame und lehrreiche Experimente berücksichtigt. Alle Experimente sind verfügbar und können…

Abwesend

Die Arbeit fasst die Ergebnisse von Untersuchungen zum Elektretzustand anorganischer und organischer Oxidverbindungen zusammen und untersucht den Einfluss des Elektretzustands auf die Entwicklung der ferroelektrischen Polarisation und die elektrischen Eigenschaften von Ferroelektrika. Fragen des praktischen Nutzens…

Abwesend

Es werden die wichtigsten Methoden zur Berechnung der Verteilung der molekularen Flussdichte über die Oberflächen von Vakuumanlagen vorgestellt. Die wichtigsten Methoden zur Modellierung von Vakuumbedingungen mit einer gegebenen Dichte molekularer Flüsse wurden untersucht. Anhand von Beispielen betrachten wir die Berechnung der Verteilung der molekularen Flussdichte über...

Abwesend

Das Buch fasst die Ergebnisse einer theoretischen Untersuchung des Prozesses der Elektronenbeschleunigung in klassischen kreisförmigen und geschnittenen Mikrotrons, die Ergebnisse von Experimenten zur Überprüfung theoretischer Schlussfolgerungen und zur Untersuchung der Eigenschaften von in einem Mikrotron beschleunigten Elektronen zusammen. Möglichkeiten zur Verwendung von Mikrotrons werden in Betracht gezogen...

Abwesend

Es werden Ergebnisse experimenteller und theoretischer Untersuchungen gasdynamischer Prozesse in Kanälen vorgestellt. Die Untersuchung getrennter Strömungsprozesse ermöglichte es, die Hauptmuster zu identifizieren, Ähnlichkeitsparameter zu bestimmen und auf dieser Grundlage ungefähre theoretische Modelle dieser komplexesten...

Abwesend

Das Handbuch behandelt Fragen im Zusammenhang mit den Grundlagen der Quantentheorie, spezifischen Merkmalen von Quantenobjekten und Präzisionsmessungen bei Interferenz dritter Ordnung und Selbstwirkung von Licht in Medien mit kubischer Nichtlinearität. Parametrische Lichtstreuung in Quanten- und...

Abwesend

Es werden die Grundlagen der Kompressibilitätstheorie kondensierter Materie, der Aufbau und die Eigenschaften von Spreng- und Stoßbelastungstechniken sowie die Funktionsprinzipien von Mess- und Aufzeichnungsgeräten für gasdynamische Experimente mit kondensierter Materie erläutert. Algorithmen zur Merkmalsfindung...

Abwesend

Es werden verschiedene Klassen inverser Probleme der Mechanik eines verformbaren Festkörpers betrachtet – Retrospektiv-, Rand-, Koeffizienten- und geometrische Probleme, bei denen unter Verwendung einiger zusätzlicher experimenteller Informationen über die Lösung die Koeffizienten von Differentialoperatoren, Anfangsbedingungen, Gran...

Abwesend

Die Monographie fasst die Forschungsergebnisse des Autors auf dem Gebiet der Aerodynamik von Propellern und Propellerringen zusammen. Berücksichtigt werden die Eigenschaften von ein-, koaxialen, zweireihigen Propellern mit unterschiedlicher Blattzahl im Profilring und ohne Ring. Die Eigenschaften der Luft...

Abwesend

Berücksichtigt werden physikalische, mathematische und numerische Modelle der Wechselwirkung von kollisions- und kollisionsfreien Plasmaströmen mit in sie eingebrachten Körpern. Es wurden umfangreiche Computerexperimente durchgeführt, in deren Ergebnis die Verteilungsfunktionen geladener Teilchen im Frontal-, Lateral- und…

Abwesend

Das Hauptmerkmal des Lehrbuchs ist ein mehrstufiges Konzept zur Darstellung der wichtigsten experimentellen Fakten und der Grundlagen der Theorie physikalischer Phänomene unter Berücksichtigung moderner wissenschaftlicher Errungenschaften. Das Buch umfasst die folgenden Hauptabschnitte: elektromagnetische Theorie des Lichts, Lichtemission, Interferenz, Beugung, Streuung …

Abwesend

Das Buch ist Band II der Monographie „Aerogasdynamik von Strahldüsen“. Es widmet sich der Lösung eines so wichtigen Problems wie der Steuerung getrennter Strömungen in Domänenbereichen, um den Bodenwiderstand zu verringern. Es wurde eine Verallgemeinerung einer großen Menge hauptsächlich experimenteller Daten vorgenommen, p...

Abwesend

Diese Monographie widmet sich der Theorie optischer Mikrokavitäten mit hohem Q und ihrer Anwendung in der linearen, nichtlinearen, Quanten- und angewandten Optik. Optische Mikrokavitäten mit Flüstergalerie-Modi, die von russischen Wissenschaftlern entwickelt wurden, kombinieren auf einzigartige Weise Submillimetergröße mit ...

Abwesend

Behandelt werden die Themen Wärme- und Stoffübergang beim Züchten von Einkristallen aus einer Schmelze. Berücksichtigt werden physikalische und mathematische Modelle von Wärmeübertragungs- und Bildungsprozessen beim Wachstum von Kristallen aus einer Schmelze. Das Hauptaugenmerk liegt auf der experimentellen und theoretischen Untersuchung von Wärmeprozessen…

Abwesend

Die Monographie diskutiert methodische Grundlagen Schaffung komplexer technischer Systeme, die gegen destabilisierende Faktoren verschiedener physikalischer Natur resistent sind. Am Beispiel von Flugzeugen wird die Vorgehensweise zur rechnerischen und experimentellen Bewertung der Betriebsfestigkeit betrachtet. Es wird gezeigt, wie auf Basis der entwickelten...

Abwesend

Die Monographie widmet sich einer Vielzahl physikalischer Phänomene und Eigenschaften komprimierter und erhitzter Materie bei hohen Energiedichten. Berücksichtigt werden Methoden der Erzeugung, Diagnostik sowie theoretische Methoden zur Beschreibung des Verhaltens von Materie bei extrem hohen Drücken und Temperaturen, die in Laboratorien gewonnen werden...

Die vorliegende Monographie widmet sich dem Problem modellhafter und großmaßstäblicher experimenteller dynamischer Studien von Gebäudestrukturen von Kernkraftwerken. Der Zweck dieser Forschung bestand darin, dynamische Phänomene in den Gebäudestrukturen von Kernkraftwerken zu untersuchen, die mit vom Menschen verursachten Vibrationen verschiedener Art verbunden sind.

Abwesend

Die Ergebnisse überwiegend experimenteller Untersuchungen zu den Prozessen Verbrennung, Zündung/Selbstzündung, schnelle Deflagration und Detonation in wasserstoffhaltigen Brennsystemen werden zusammengefasst. Für die Analyse wurden Studien unter Ausgangsbedingungen ausgewählt, die für Wasserprobleme von praktischem Interesse sind...

Abwesend

Die Monographie fasst die Ergebnisse theoretischer und experimenteller Forschung auf dem Gebiet der Physik des Kontaktschmelzens fester Lösungen mit Metallen und der elektrischen Übertragung in Kontaktschichten zusammen. Der Mechanismus der Anfangsphase des Kontaktschmelzens auf Nanoebene wird betrachtet. Der Einfluss kleiner Verunreinigungen wird beschrieben...

Abwesend

Die Monographie enthält Beschreibungen von Patenten der Russischen Föderation für Erfindungen auf dem Gebiet der Detektormaterialien und -geräte, die in den letzten 10 Jahren der Entwicklung erzielt wurden und in der Abteilung für Experimentalphysik (EP) der USTU-UPI in Zusammenarbeit mit anderen Abteilungen und durchgeführt wurden Organisationen, auch ausländische. In Ehren...

Abwesend

Das Buch bespricht die Entwicklung von Methoden zur Reproduktion der Bedingungen des Orbitalflugs in Laborexperimenten auf der Grundlage der Geschwindigkeit der auf das Flugzeug einfallenden Ströme geladener und neutraler Teilchen, ihrer Konzentration und Temperatur sowie die Untersuchung der Eigenschaften von Geräten in solchen Strömen. Zum Beispiel...

Abwesend

Das Tutorial ist eine Anleitung zur Durchführung des notwendigen physikalischen Experiments und zur Verarbeitung von Messergebnissen. Enthält Beschreibungen von Laborarbeiten in den Abschnitten „Translationsbewegung“, „Rotationsbewegung“, „Mechanische Schwingungen“ und „Elastische Kräfte“. Diese Veröffentlichung ist…

Abwesend

Das Buch widmet sich der Darstellung langjähriger Erfahrungen in der Entwicklung, Erstellung und Nutzung kurzfristiger gasdynamischer Anlagen für aerodynamische Experimente. Gegeben detaillierte Beschreibung Vom Autor entwickelte Entwürfe gasdynamischer Anlagen für experimentelle Studien in ...

Abwesend

Berücksichtigt werden die einfachsten angewandten Versionen der Theorie der elastoplastischen Verformung unter proportionaler (einfacher) und disproportionaler (komplexer) Belastung. Methoden zur Identifizierung materieller Funktionen, die Varianten der Theorie nahe kommen, werden skizziert. Theoretische und experimentelle Ergebnisse werden analysiert...

Abwesend

Das Buch ist eine Einführung in die moderne Optik von Gaußschen Strahlen und befasst sich mit einer Vielzahl von Fragen im Zusammenhang mit der Bildung und Transformation paraxialer Lichtfelder und verallgemeinert die klassischen Hermite-Gaußschen und Laguerre-Gaußschen Strahlen. Die Theorie strukturell stabiler Lichtfelder wurde erstmals vorgestellt, in...

Abwesend

Die Monographie fasst und systematisiert die Ergebnisse von Studien zu Strahlsystemen zur Erhöhung des Auftriebs von Flügeln, die am TsAGI durchgeführt und in den letzten 30–40 Jahren in in- und ausländischen Publikationen veröffentlicht wurden. Grenzschicht- und Zirkulationskontrollsysteme durch ...

Abwesend

Das auf experimentellen Daten basierende Buch beschreibt eine Methode zur Untersuchung geschichteter Nanostrukturen basierend auf der Verwendung von Spiegelreflexion, Transmission, Brechung und Streuung polarisierter Neutronen. Anhand konkreter Beispiele werden die Elemente der Theorie des Neutronendurchgangs durch eine Schichtstruktur vorgestellt...

Abwesend

Das Buch untersucht Fragen des Wärmeaustauschs in Systemen, in denen aus verschiedenen Gründen Wärme freigesetzt wird (elektrische Maschinen und Geräte, Beschleuniger geladener Teilchen). Die Untersuchung von Wärmeübertragungsprozessen erfolgt auf Basis der erhaltenen exakten und näherungsweisen analytischen Lösungen. In oh...

Abwesend

Die Monographie widmet sich der Beschreibung der physikalischen Eigenschaften der Oberfläche, modernen experimentellen Methoden zu ihrer Untersuchung und theoretischen Methoden zur Berechnung der Oberflächen- und Haftungseigenschaften verschiedener Materialien. Es werden von den Autoren entwickelte Methoden vorgestellt, die in guter Übereinstimmung mit experimentellen…

Abwesend

Basierend auf den Grundprinzipien der Elektrodynamik wurde eine in sich konsistente Theorie der Anregung und Kopplung von Wellenleitermoden entwickelt, die auf alle (geschlossenen und offenen) Wellenleiterstrukturen anwendbar ist. Wellenleiterstrukturen, die Medien mit isotropen, anisotropen und bianisotropen Eigenschaften enthalten...

Abwesend

Vorgeführt moderne Techniken Es werden experimentelle Messungen, Daten zu den Grundlagen der Erstellung mathematischer Modelle vorgestellt, die den Zustand einer brennenden Gassuspension für verschiedene Anfangseigenschaften von Turbulenzen, Gassuspensionszusammensetzungen und Betriebsparameter beschreiben. Die Ergebnisse der Experimente werden berücksichtigt...

Abwesend

Der Artikel untersucht die Probleme der Diagnose von Inhomogenitäten in der aquatischen Umwelt mithilfe einer hydroakustischen parametrischen Antenne. In diesem Fall haben die Heterogenitäten der aquatischen Umwelt eine geometrisch regelmäßige Form: Kugeln, Zylinder und Sphäroide. Wellenprozesse werden theoretisch und experimentell untersucht, pro...

Abwesend

Die Monographie untersucht eine Reihe von Fragen im Zusammenhang mit den Problemen der Beschreibung und experimentellen Zertifizierung einzelner Grenzen und Ensembles von Korngrenzen in Polykristallen sowie Untersuchungen ihrer Rolle bei Prozessen wie Korngrenzendiffusion, -relaxation und Kornwachstum. Es wurde versucht, eine ausreichende...

Abwesend

Das Lehrbuch ist der erste Teil der Reihe „Universitätslehrgang Allgemeine Physik“, die sich an Studierende physikalischer Fachrichtungen an Universitäten richtet. Seine Besonderheit ist ein mehrstufiges Konzept zur Darstellung der wichtigsten experimentellen Fakten und Grundlagen der Theorie physikalischer Phänomene unter Berücksichtigung moderner...

Abwesend

Die Monographie untersucht die Probleme der Verbrennung von Kraftstoffen in Wärmekraftmaschinen für verschiedene Zwecke sowie die Auswirkungen ihrer Verbrennungsprodukte auf Mensch und Umwelt. Es werden die Mechanismen der Bildung toxischer Stoffe bei der Verbrennung und Möglichkeiten zur Reduzierung ihrer Emissionen beschrieben. Es wird eine Methode zur Berechnung der Gleichgewichtszusammensetzung von Produkten beschrieben...

Abwesend

Das Buch beschreibt in Bezug auf elektrische Maschinen eines neuen Typs die Ergebnisse der Forschung zu den grundlegenden Eigenschaften, der Struktur und der Dynamik von Zwischen- und Mischzuständen von Niedertemperatur- und Hochtemperatur-Supraleitern vom Typ I und II. Lokale Änderung des Phasenzustands eines Supraleiters...

Abwesend

Das Lehrbuch ist in Übereinstimmung mit den Inhalten der staatlichen Bildungsstandards, des Workshop-Programms (Abschnitt „Biochemische Analysemethoden“), des Disziplinprogramms „Chemische Grundlagen und Methoden der Analyse lebender Systeme“, des Disziplinprogramms „Biotechnologie und Organisation von“ verfasst analytisch...

Abwesend

Die Ergebnisse der Systematisierung von Studien zur konvektiven Wärmeübertragung von Flugzeugen in der atmosphärischen Flugphase werden vorgestellt, einschließlich der Berücksichtigung des Einflusses dreidimensionaler Strömungen, physikalisch-chemischer Nichtgleichgewichtsprozesse im Gas und auf der Oberfläche des Fahrzeugs, laminar-turbulent Übergang der Grenze...

Abwesend

Das Buch präsentiert die Ergebnisse experimenteller Studien zu den Mechanismen des Auftretens instabiler Verbrennungsmodi in Modellbrennkammern. Die Mechanismen der Emission von Schallschwingungen durch eine modulierte Ladung, Fragen der Diagnose und Kontrolle der Verbrennungsinstabilität mithilfe elektrischer...

Abwesend

Dieses Buch widmet sich der Entdeckung und Untersuchung eines neuen Effekts – der induzierten Drift, die durch die Einwirkung periodischer elektrischer und magnetischer Felder auf strukturierte Salzlösungen in flüssigen polaren Dielektrika verursacht wird. Es enthält Informationen sowohl experimenteller als auch theoretischer Natur ...

Abwesend

Beschrieben werden die Möglichkeiten und der aktuelle Stand der Erforschung von Niedertemperaturplasma mittels klassischer und Laserspektroskopie-Methoden. Die Fragen der physikalischen Interpretation der Ergebnisse der Anwendung der Methoden der Emission, Absorption, Brechung und Streuung von Licht auf ein thermisch nicht im Gleichgewicht befindliches Plasma sowie ihre Zusammenhänge werden betrachtet...

Abwesend

Ausgewählte Vorträge des herausragenden amerikanischen Physikers und Preisträgers Nobelpreis R. Feynman. Sie untersuchen die Entwicklungsstadien der modernen Physik und ihrer Konzepte, die Verbindung der Physik mit anderen Wissenschaften, die Theorie der Schwerkraft, die Quantenmechanik, die Symmetrie der Gesetze der Physik, die spezielle Relativitätstheorie...

Abwesend

Das Buch widmet sich einer experimentellen Untersuchung des Zusammenhangs zwischen der quasigeordneten Struktur einer turbulenten Grenzschicht und den traditionell gemessenen gemittelten Eigenschaften der Strömung in der Grenzschicht. Der Mechanismus der periodischen Erneuerung der Strömung in der viskosen Unterschicht einer turbulenten Grenzschicht wird betrachtet...

Abwesend

Berücksichtigt wird eine neue experimentelle Methode zur Messung der Temperatur erhitzter Objekte unter Verwendung eines kontinuierlichen Spektrums von Wärmestrahlung, das in einem weiten Wellenlängenbereich (z. B. von 200 bis 1000 nm) aufgezeichnet wird. Die Vorteile der Spektralpyrometrie gegenüber herkömmlichen Helligkeits- und Farbmethoden werden diskutiert...

Abwesend

Es werden moderne Begriffe und Konzepte aus dem Bereich der Druckverarbeitung vorgestellt. Das physikalische Wesen der gebräuchlichsten modernen Druckbehandlungsverfahren wird dargelegt, ihre technologischen Möglichkeiten betrachtet und Abhängigkeiten zur Berechnung der wichtigsten technologischen Parameter angegeben. Dargestellt werden Diagramme zu...

Experimentelle Profile von Stoßwellen in kondensierter Materie

Experimentelle Physik - Shutov V.I.., Suchow V.G., Podlesny D.V.. - 2005

Beschrieben wird die experimentelle Arbeit, die im Rahmen eines Physik-Workshops im Programm der Physik- und Mathematik-Lyzeen enthalten ist. Das Handbuch ist ein Versuch, einen einheitlichen Leitfaden für die Durchführung praktischer Unterrichtsstunden in Klassen und Schulen mit vertieftem Physikstudium sowie für die Vorbereitung auf experimentelle Runden hochrangiger Olympiaden zu schaffen.
Das Einführungsmaterial widmet sich traditionell den Methoden zur Verarbeitung experimenteller Daten. Die Beschreibung jeder experimentellen Arbeit beginnt mit einer theoretischen Einführung. Der experimentelle Teil enthält Beschreibungen von Versuchsaufbauten und Aufgabenstellungen, die den Arbeitsablauf der Studierenden bei der Durchführung von Messungen regeln. Es werden Musterarbeitsblätter zur Erfassung von Messergebnissen, Empfehlungen zu Methoden zur Verarbeitung und Darstellung der Ergebnisse sowie Anforderungen an die Berichterstattung bereitgestellt. Am Ende der Beschreibungen werden Testfragen angeboten, auf deren Antworten sich die Studierenden zur Verteidigung ihrer Arbeit vorbereiten müssen.
Für Schulen und Klassen mit vertieftem Physikstudium.

Einführung.

Fehler physikalischer Größen. Verarbeitung von Messergebnissen.

Praktische Arbeit 1. Messung des Volumens von Körpern regelmäßiger Form.
Praktische Arbeit 2. Untersuchung der geradlinigen Bewegung von Körpern im Bereich der Schwerkraft mit einer Atwood-Maschine.
Praktische Arbeit 3. Trockenreibung. Bestimmung des Gleitreibungskoeffizienten.
Theoretische Einführung in die Arbeit an Schwingungen.
Praktische Arbeit 4. Untersuchung der Schwingungen eines Federpendels.
Praktische Arbeit 5. Untersuchung der Schwingungen eines mathematischen Pendels. Bestimmung der Beschleunigung im freien Fall.
Praktische Arbeit 6. Untersuchung der Schwingungen eines physikalischen Pendels.
Praktische Arbeit 7. Bestimmung der Trägheitsmomente von Körpern regelmäßiger Form nach der Methode der Drehschwingungen.
Praktische Arbeit 8. Studium der Rotationsgesetze eines starren Körpers auf einem kreuzförmigen Oberbeck-Pendel.
Praktische Arbeit 9. Bestimmung des Verhältnisses der molaren Wärmekapazitäten von Luft.
Praktische Arbeit 10. Stehende Wellen. Messung der Wellengeschwindigkeit in einer elastischen Schnur.
Praktische Arbeit 11. Bestimmung des Verhältnisses ср/с ι? für Luft in einer stehenden Schallwelle.
Praktische Arbeit 12. Untersuchung der Funktionsweise eines elektronischen Oszilloskops.
Praktische Arbeit 13. Messung der Schwingungsfrequenz durch Untersuchung von Lissajous-Figuren.
Praktische Arbeit 14. Bestimmung des spezifischen Widerstands von Nichromdraht.
Praktische Arbeit 15. Bestimmung des Leiterwiderstands mit der Wheatstone-Kompensationsmethode.
Praktische Arbeit 16. Transiente Prozesse in einem Kondensator. Bestimmung der Kapazität.
Praktische Arbeit 17. Bestimmung der elektrischen Feldstärke in einem zylindrischen Leiter mit Strom.
Praktische Arbeit 18. Untersuchung des Betriebs einer Quelle in einem Gleichstromkreis.
Praktische Arbeit 19. Studium der Gesetze der Reflexion und Lichtbrechung.
Praktische Arbeit 20. Bestimmung der Brennweiten von Sammel- und Zerstreuungslinsen.
Praktische Arbeit 21. Das Phänomen der elektromagnetischen Induktion. Untersuchung des Magnetfeldes des Magneten.
Praktische Arbeit 22. Untersuchung gedämpfter Schwingungen.
Praktische Arbeit 23. Untersuchung des Resonanzphänomens in einem Wechselstromkreis.
Praktische Arbeit 24. Fraunhofer-Beugung am Spalt. Messung der Spaltbreite mit der „Wellenmethode“.
Praktische Arbeit 25. Fraunhofer-Beugung. Beugungsgitter als optisches Gerät.
Praktische Arbeit 26. Bestimmung des Brechungsindex von Glas nach der „Wellen“-Methode.
Praktische Arbeit 27. Bestimmung des Krümmungsradius einer Linse im Experiment mit Newtons Ringen.
Praktische Arbeit 28. Untersuchung von polarisiertem Licht.

Laden Sie das E-Book kostenlos in einem praktischen Format herunter, schauen Sie es sich an und lesen Sie:
Laden Sie das Buch Experimental Physics herunter - Shutov V.I., Sukhov V.G., Podlesny D.V. - 2005 - fileskachat.com, schneller und kostenloser Download.

Laden Sie djvu herunter
Sie können dieses Buch unten kaufen Bestpreis mit Rabatt bei Lieferung in ganz Russland.

I. Gegenstand und Struktur der Physik

Physik ist eine Wissenschaft, die die einfachsten und zugleich allgemeinsten Muster natürlicher Phänomene, die Eigenschaften und Struktur der Materie sowie die Gesetze ihrer Bewegung untersucht. Daher liegen der gesamten Naturwissenschaft die Konzepte der Physik und ihrer Gesetze zugrunde. Die Physik gehört zu den exakten Wissenschaften und untersucht die quantitativen Gesetze von Phänomenen.

Das Wort „F.“ kommt aus dem Griechischen. ph?sis – Natur. Im Zeitalter der antiken Kultur wurde die Wissenschaft zunächst nicht zerlegt und umfasste das gesamte Wissen über Naturphänomene. Mit der Differenzierung von Wissen und Forschungsmethoden entstanden aus der allgemeinen Naturwissenschaft, einschließlich der Naturwissenschaften, eigenständige Wissenschaften. Die Grenzen, die die Naturwissenschaften von anderen Naturwissenschaften trennen, sind weitgehend willkürlich und ändern sich im Laufe der Zeit.

Im Kern ist die Philosophie eine experimentelle Wissenschaft: Ihre Gesetze basieren auf experimentell ermittelten Tatsachen. Diese Gesetze stellen quantitative Zusammenhänge dar und sind in mathematischer Sprache formuliert. Man unterscheidet zwischen der experimentellen Physiologie – Experimenten, die durchgeführt werden, um neue Fakten zu entdecken und bekannte physikalische Gesetze zu überprüfen – und der theoretischen Physiologie, deren Zweck es ist, die Naturgesetze zu formulieren und bestimmte Phänomene auch auf der Grundlage dieser Gesetze zu erklären um neue Phänomene vorherzusagen. Bei der Untersuchung eines Phänomens sind Erfahrung und Theorie gleichermaßen notwendig und miteinander verbunden.

Entsprechend der Vielfalt der untersuchten Gegenstände und Bewegungsformen der physikalischen Materie wird die Philosophie in eine Reihe mehr oder weniger miteinander verwandter Disziplinen (Abschnitte) unterteilt. Die Einteilung der Physiologie in einzelne Disziplinen ist nicht eindeutig und kann orientiert erfolgen verschiedene Kriterien. Basierend auf den untersuchten Objekten wird die Physik in die Physik der Elementarteilchen, die Physik der Kerne, die Physik der Atome und Moleküle, die Physik der Gase und Flüssigkeiten, die Physik der Festkörper und die Physik des Plasmas unterteilt. DR. Kriterium - die Prozesse oder Bewegungsformen der untersuchten Materie. Es gibt: mechanische Bewegung, thermische Prozesse, elektromagnetische Phänomene, Gravitation, starke, schwache Wechselwirkungen; Dementsprechend umfasst die Physik die Mechanik materieller Punkte und fester Körper, die Mechanik kontinuierlicher Medien (einschließlich Akustik), die Thermodynamik und statistische Mechanik, die Elektrodynamik (einschließlich Optik), die Theorie der Schwerkraft, die Quantenmechanik und die Quantenfeldtheorie. Die angegebenen Unterteilungen von f. überschneiden sich teilweise aufgrund der tiefen inneren Beziehung zwischen den Objekten der materiellen Welt und den Prozessen, an denen sie beteiligt sind. Je nach Forschungszweck wird manchmal auch zwischen angewandter Optik unterschieden (z. B. Angewandte Optik).

Die Physik legt besonderen Wert auf die Lehre von Schwingungen und Wellen, was auf die gemeinsamen Muster von Schwingungsprozessen verschiedener physikalischer Natur und Methoden zu deren Untersuchung zurückzuführen ist. Es untersucht mechanische, akustische, elektrische und optische Schwingungen und Wellen aus einer einheitlichen Perspektive.

Die moderne Physiologie enthält eine kleine Anzahl grundlegender physikalischer Theorien, die alle Bereiche der Physiologie abdecken. Diese Theorien stellen die Quintessenz des Wissens über die Natur physikalischer Prozesse und Phänomene dar, eine ungefähre, aber vollständigste Widerspiegelung der verschiedenen Bewegungsformen der Materie in der Natur.

II. Hauptstadien in der Entwicklung der Physik

Die Entstehung der Physik (bis zum 17. Jahrhundert). Die physikalischen Phänomene der umgebenden Welt erregen seit langem die Aufmerksamkeit der Menschen. Versuche einer kausalen Erklärung dieser Phänomene gingen der Entstehung der Philosophie im modernen Sinne des Wortes voraus. In der griechisch-römischen Welt (6. Jahrhundert v. Chr. – 2. Jahrhundert n. Chr.) entstanden erstmals Vorstellungen über die atomare Struktur der Materie (Demokrit, Epikur, Lucretius), ein geozentrisches Weltsystem wurde entwickelt (Ptolemaios) und die einfachsten Gesetze Es wurden die etablierte Statik (die Regel der Hebelwirkung), das Gesetz der geradlinigen Ausbreitung und das Gesetz der Lichtreflexion entdeckt, die Prinzipien der Hydrostatik formuliert (Archimedes-Gesetz) und die einfachsten Erscheinungsformen von Elektrizität und Magnetismus beobachtet.

Das Ergebnis erworbener Erkenntnisse im 4. Jahrhundert. Chr e. wurde von Aristoteles enttäuscht. Die Physik des Aristoteles enthielt einige korrekte Bestimmungen, aber gleichzeitig fehlten ihr viele fortschrittliche Ideen ihrer Vorgänger, insbesondere die Atomhypothese. Aristoteles erkannte die Bedeutung der Erfahrung und betrachtete sie nicht als Hauptkriterium für die Verlässlichkeit von Wissen, sondern bevorzugte spekulative Ideen. Im Mittelalter bremsten die von der Kirche heiliggesprochenen Lehren des Aristoteles die Entwicklung der Wissenschaft für lange Zeit.

Die Wissenschaft wurde erst im 15. und 16. Jahrhundert wiederbelebt. im Kampf gegen die scholastischen Lehren des Aristoteles. Mitte des 16. Jahrhunderts. N. Kopernikus stellte ein heliozentrisches Weltsystem vor und markierte den Beginn der Befreiung der Naturwissenschaft von der Theologie. Die Bedürfnisse der Produktion, die Entwicklung des Handwerks, der Schifffahrt und der Artillerie stimulierten die auf Erfahrungen basierende wissenschaftliche Forschung. Allerdings im 15.–16. Jahrhundert. Experimentelle Studien waren größtenteils zufällig. Erst im 17. Jahrhundert. Die systematische Anwendung der experimentellen Methode in der Physik begann und führte zur Entstehung der ersten grundlegenden physikalischen Theorie – Newtons klassischer Mechanik.

Entstehung der Physik als Wissenschaft (Anfang 17. – Ende 18. Jahrhundert)

Die Entwicklung der Physiologie als Wissenschaft im modernen Sinne des Wortes geht auf die Werke von G. Galilei (erste Hälfte des 17. Jahrhunderts) zurück, der die Notwendigkeit einer mathematischen Beschreibung der Bewegung erkannte. Er zeigte, dass der Einfluss umgebender Körper auf einen bestimmten Körper nicht die Geschwindigkeit bestimmt, wie in der aristotelischen Mechanik angenommen wurde, sondern die Beschleunigung des Körpers. Diese Aussage stellte die erste Formulierung des Trägheitsgesetzes dar. Galilei entdeckte das Relativitätsprinzip in der Mechanik (siehe Galileis Relativitätsprinzip), bewies die Unabhängigkeit der Beschleunigung des freien Falls von Körpern von ihrer Dichte und Masse und begründete die kopernikanische Theorie. Auch auf anderen Gebieten der Physik erzielte er bedeutende Ergebnisse: Er baute ein Teleskop mit starker Vergrößerung und machte mit seiner Hilfe eine Reihe astronomischer Entdeckungen (Berge auf dem Mond, Satelliten des Jupiter usw.). Die quantitative Untersuchung thermischer Phänomene begann, nachdem Galilsem das erste Thermometer erfunden hatte.

In der 1. Hälfte des 17. Jahrhunderts. Die erfolgreiche Untersuchung von Gasen begann. Galileis Schüler E. Torricelli stellte die Existenz des Atmosphärendrucks fest und schuf das erste Barometer. R. Boyle und E. Marriott untersuchten die Elastizität von Gasen und formulierten das erste Gasgesetz, das ihren Namen trägt. W. Snell und R. Descartes entdeckten das Gesetz der Lichtbrechung. Gleichzeitig entstand das Mikroskop. Ein bedeutender Fortschritt in der Erforschung magnetischer Phänomene wurde gleich zu Beginn des 17. Jahrhunderts gemacht. W. Gilbert. Er bewies, dass die Erde ein großer Magnet ist, und unterschied als erster streng zwischen elektrischen und magnetischen Phänomenen.

Die wichtigste Errungenschaft von F. 17. Jahrhundert. war die Entstehung der klassischen Mechanik. I. Newton entwickelte die Ideen von Galileo, H. Huygens und anderen Vorgängern weiter und formulierte in seinem Werk „Mathematische Prinzipien der Naturphilosophie“ (1687) alle Grundgesetze dieser Wissenschaft (siehe Newtons Gesetze der Mechanik). Bei der Konstruktion der klassischen Mechanik wurde erstmals das bis heute bestehende Ideal einer wissenschaftlichen Theorie verkörpert. Mit dem Aufkommen der Newtonschen Mechanik wurde schließlich verstanden, dass die Aufgabe der Wissenschaft darin besteht, die allgemeinsten quantitativ formulierten Naturgesetze zu finden.

Den größten Erfolg erzielte die Newtonsche Mechanik bei der Erklärung der Bewegung von Himmelskörpern. Basierend auf den Gesetzen der Planetenbewegung, die von J. Kepler auf der Grundlage von Beobachtungen von T. Brahe aufgestellt wurden, entdeckte Newton das Gesetz der universellen Gravitation (siehe Newtons Gravitationsgesetz). Mit Hilfe dieses Gesetzes war es möglich, die Bewegung des Mondes, der Planeten und Kometen des Sonnensystems mit bemerkenswerter Genauigkeit zu berechnen und die Ebbe und Flut des Ozeans zu erklären. Newton hielt an dem Konzept der Fernwirkung fest, wonach die Wechselwirkung von Körpern (Teilchen) augenblicklich direkt durch den Hohlraum erfolgt; Wechselwirkungskräfte müssen experimentell ermittelt werden. Er war der erste, der die klassischen Konzepte des absoluten Raums als eines von seinen Eigenschaften und seiner Bewegung unabhängigen Behälters der Materie und der absoluten, gleichmäßig fließenden Zeit klar formulierte. Bis zur Entstehung der Relativitätstheorie erfuhren diese Ideen keine Änderungen.
Gleichzeitig formulierten Huygens und G. Leibniz das Gesetz der Impulserhaltung; Huygens entwickelte die Theorie eines physikalischen Pendels und baute eine Uhr mit Pendel.

Die Entwicklung der physikalischen Akustik begann. M. Mersenne maß die Anzahl der Eigenschwingungen einer klingenden Saite und bestimmte erstmals die Schallgeschwindigkeit in Luft. Newton hat theoretisch eine Formel für die Schallgeschwindigkeit abgeleitet.

In der 2. Hälfte des 17. Jahrhunderts. Die geometrische Optik begann sich im Zusammenhang mit der Konstruktion von Teleskopen und anderen optischen Instrumenten rasch zu entwickeln, und die Grundlagen der physikalischen Optik wurden gelegt. F. Grimaldi entdeckte die Lichtbeugung und Newton führte sie aus Grundlagenforschung Lichtstreuung. Die optische Spektroskopie geht auf diese Arbeiten Newtons zurück. Im Jahr 1676 maß O. C. Roemer erstmals die Lichtgeschwindigkeit. Fast gleichzeitig entstanden und begannen sich zwei verschiedene Theorien über die physikalische Natur des Lichts zu entwickeln – Korpuskular und Welle (siehe Optik). Nach Newtons Korpuskulartheorie ist Licht ein Teilchenstrom, der sich von einer Quelle in alle Richtungen bewegt. Huygens legte den Grundstein für die Wellentheorie des Lichts, nach der Licht ein Wellenstrom ist, der sich in einem speziellen hypothetischen Medium – dem Äther – ausbreitet, den gesamten Raum ausfüllt und in alle Körper eindringt.

So im 17. Jahrhundert. Im Wesentlichen wurde die klassische Mechanik aufgebaut und mit der Forschung in anderen Bereichen der Philosophie begonnen: in der Optik, dem Studium elektrischer und magnetischer Phänomene, Wärme und Akustik.

Im 18. Jahrhundert Die Entwicklung der klassischen Mechanik, insbesondere der Himmelsmechanik, wurde fortgesetzt. Basierend auf einer kleinen Anomalie in der Bewegung des Planeten Uranus war es möglich, die Existenz eines neuen Planeten vorherzusagen – Neptun (entdeckt 1846). Das Vertrauen in die Gültigkeit der Newtonschen Mechanik wurde allgemein. Auf der Grundlage der Mechanik wurde ein einheitliches mechanisches Weltbild geschaffen, nach dem der gesamte Reichtum, die gesamte qualitative Vielfalt der Welt das Ergebnis von Unterschieden in der Bewegung der Teilchen (Atome) ist, aus denen Körper bestehen, und der Bewegung, die gehorcht Newtons Gesetze. Dieses Bild hatte über viele Jahre hinweg starken Einfluss auf die Entwicklung der Physik. Eine Erklärung eines physikalischen Phänomens galt als wissenschaftlich und vollständig, wenn sie auf die Wirkung der Gesetze der Mechanik reduziert werden konnte.

Ein wichtiger Impuls für die Entwicklung der Mechanik waren die Anforderungen der sich entwickelnden Produktion. In den Werken von L. Euler und anderen wurde die Dynamik eines absolut starren Körpers entwickelt. Parallel zur Entwicklung der Mechanik von Teilchen und Festkörpern erfolgte eine Entwicklung der Mechanik von Flüssigkeiten und Gasen. Durch die Werke von D. Bernoulli, Euler, J. Lagrange und anderen in der 1. Hälfte des 18. Jahrhunderts. Der Grundstein für die Hydrodynamik einer idealen Flüssigkeit wurde gelegt – einer inkompressiblen Flüssigkeit ohne Viskosität und Wärmeleitfähigkeit. In Lagranges „Analytischer Mechanik“ (1788) werden die Gleichungen der Mechanik in einer so verallgemeinerten Form dargestellt, dass sie anschließend auf nichtmechanische, insbesondere elektromagnetische Prozesse angewendet werden konnten.
In anderen Bereichen der Physiologie wurden experimentelle Daten gesammelt und einfachste experimentelle Gesetze formuliert. S. F. Dufay entdeckte die Existenz zweier Arten von Elektrizität und stellte fest, dass sich gleich geladene Körper abstoßen und entgegengesetzt geladene Körper anziehen. B. Franklin stellte das Gesetz zur Erhaltung der elektrischen Ladung auf. G. Cavendish und unabhängig davon C. Coulomb entdeckten das Grundgesetz der Elektrostatik, das die Wechselwirkungskraft zwischen stationären elektrischen Ladungen bestimmt (Coulombsches Gesetz). Es entstand die Lehre von der atmosphärischen Elektrizität. Franklin, M. V. Lomonosov und G. V. Richman haben die elektrische Natur von Blitzen bewiesen. In der Optik wurde die Verbesserung der Teleskopobjektive fortgesetzt. Durch die Arbeiten von P. Bouguer und I. Lambert begann die Photometrie zu entstehen. Es wurden Infrarot- (W. Herschel, englischer Wissenschaftler W. Wollaston) und ultraviolette (deutscher Wissenschaftler N. Ritter, Wollaston) Strahlen entdeckt.

Bei der Untersuchung thermischer Phänomene wurden bemerkenswerte Fortschritte erzielt; Nach J. Blacks Entdeckung der latenten Fusionswärme und dem experimentellen Nachweis der Wärmeerhaltung begannen kalorimetrische Experimente, zwischen Temperatur und Wärmemenge zu unterscheiden. Das Konzept der Wärmekapazität wurde formuliert und mit der Erforschung der Wärmeleitfähigkeit und Wärmestrahlung begonnen. Gleichzeitig wurden falsche Ansichten über die Natur der Wärme etabliert: Wärme wurde als eine besondere Art unzerstörbarer schwereloser Flüssigkeit betrachtet – kalorisch, die in der Lage ist, von erhitzten Körpern zu kalten zu fließen. Die Wärmetheorie, nach der Wärme eine Art innere Bewegung von Teilchen ist, erlitt eine vorübergehende Niederlage, obwohl sie von so herausragenden Wissenschaftlern wie Newton, Hooke, Boyle, Bernoulli, Lomonosov und anderen unterstützt und weiterentwickelt wurde.

Klassische Physik (19. Jahrhundert)

Zu Beginn des 19. Jahrhunderts. Der langjährige Wettbewerb zwischen der Korpuskular- und der Wellentheorie des Lichts endete mit dem scheinbar endgültigen Sieg der Wellentheorie. Dies wurde durch die erfolgreiche Erklärung des Phänomens der Interferenz und Beugung von Licht mithilfe der Wellentheorie durch T. Jung und O. J. Fresnel erleichtert. Diese Phänomene sind ausschließlich der Wellenbewegung eigen und es schien unmöglich, sie mit der Korpuskulartheorie zu erklären. Gleichzeitig wurde der entscheidende Beweis für die transversale Natur von Lichtwellen erbracht (Fresnel, D. F. Arago, Jung), der bereits im 18. Jahrhundert entdeckt wurde. (Siehe Polarisation von Licht). Fresnel betrachtete Licht als Transversalwellen in einem elastischen Medium (Äther) und fand ein quantitatives Gesetz, das die Intensität gebrochener und reflektierter Lichtwellen beim Übergang von Licht von einem Medium in ein anderes bestimmt (siehe Fresnel-Formeln), und entwickelte außerdem die Theorie der Doppelbrechung .

Sehr wichtig Die Entdeckung des elektrischen Stroms durch L. Galvani und A. Volta trug zur Entwicklung der Physik bei. Die Schaffung leistungsstarker Gleichstromquellen – galvanische Batterien – ermöglichte es, die vielfältigen Auswirkungen von Strom zu erkennen und zu untersuchen. Die chemische Wirkung von Strom wurde untersucht (G. Davy, M. Faraday). V. V. Petrov erhielt einen Lichtbogen. Die Entdeckung der Wirkung von elektrischem Strom auf eine Magnetnadel durch H. K. Oersted (1820) bewies den Zusammenhang zwischen Elektrizität und Magnetismus. Basierend auf der Einheit elektrischer und magnetischer Phänomene kam A. Ampere zu dem Schluss, dass alle magnetischen Phänomene durch die Bewegung geladener Teilchen – elektrischen Strom – verursacht werden. Anschließend stellte Ampere experimentell ein Gesetz auf, das die Wechselwirkungskraft elektrischer Ströme bestimmt (Ampere-Gesetz).

1831 entdeckte Faraday das Phänomen der elektromagnetischen Induktion (siehe Elektromagnetische Induktion). Beim Versuch, dieses Phänomen mit dem Konzept der Fernwirkung zu erklären, stieß man auf erhebliche Schwierigkeiten. Faraday stellte (noch vor der Entdeckung der elektromagnetischen Induktion) eine Hypothese auf, nach der elektromagnetische Wechselwirkungen über einen Zwischenwirkstoff – ein elektromagnetisches Feld – erfolgen (das Konzept der Nahbereichswirkung). Dies markierte den Beginn der Entstehung einer neuen Wissenschaft über die Eigenschaften und Verhaltensgesetze einer besonderen Form der Materie – des elektromagnetischen Feldes.

Zu Beginn des 19. Jahrhunderts. J. Dalton führte in die Wissenschaft (1803) die Idee von Atomen als kleinsten (unteilbaren) Materieteilchen ein – Träger der chemischen Individualität der Elemente.

Bis zum 1. Viertel des 19. Jahrhunderts. Der Grundstein der Festkörperphysik war gelegt. Im gesamten 17.–18. und frühen 19. Jahrhundert. Es kam zu einer Anhäufung von Daten über die makroskopischen Eigenschaften von Festkörpern (Metalle, technische Materialien, Mineralien usw.) und zur Aufstellung empirischer Gesetze des Festkörperverhaltens unter dem Einfluss äußerer Einflüsse (mechanische Kräfte, Erwärmung, elektrische und magnetische Felder, Licht usw.). Die Untersuchung der elastischen Eigenschaften führte zur Entdeckung des Hookeschen Gesetzes (1660), die Untersuchung der elektrischen Leitfähigkeit von Metallen – zur Aufstellung des Ohmschen Gesetzes (1826), der thermischen Eigenschaften – das Gesetz der Wärmekapazitäten von Dulong und Petit (1819). (siehe Dulong- und Petit-Gesetz). Die grundlegenden magnetischen Eigenschaften von Festkörpern wurden entdeckt. Gleichzeitig wurde eine allgemeine Theorie der elastischen Eigenschaften von Festkörpern aufgestellt (L. M. A. Navier, 1819–26, O. L. Cauchy, 1830). Fast alle dieser Ergebnisse sind durch die Interpretation eines Festkörpers als kontinuierliches Medium gekennzeichnet, obwohl ein erheblicher Teil der Wissenschaftler bereits erkannt hat, dass Festkörper, bei denen es sich meist um Kristalle handelt, eine innere mikroskopische Struktur aufweisen.
Die Entdeckung des Energieerhaltungssatzes, der alle Naturphänomene miteinander verknüpft, war für die Physik und die gesamte Naturwissenschaft von größter Bedeutung. Mitte des 19. Jahrhunderts. Die Äquivalenz von Wärmemenge und Arbeit etc. wurde experimentell nachgewiesen. Es wurde festgestellt, dass Wärme keine hypothetische schwerelose Substanz – Kalorien – ist, sondern eine besondere Form von Energie. In den 40er Jahren 19. Jahrhundert Y. R. Mayer, J. Joule und G. Helmholtz entdeckten unabhängig voneinander das Gesetz der Energieerhaltung und -umwandlung. Der Energieerhaltungssatz wurde zum Grundgesetz der Theorie thermischer Phänomene (Thermodynamik) und erhielt den Namen erster Hauptsatz der Thermodynamik.

Noch vor der Entdeckung dieses Gesetzes gelangte S. Carnot in seinem Werk „Reflexionen über die treibende Kraft des Feuers und über Maschinen, die diese Kraft entwickeln können“ (1824) zu Ergebnissen, die als Grundlage für ein weiteres Grundgesetz der Theorie dienten der Wärme – der zweite Hauptsatz der Thermodynamik. Dieses Gesetz wurde in den Werken von R. Clausius (1850) und W. Thomson (1851) formuliert. Es handelt sich um eine Verallgemeinerung experimenteller Daten, die auf die Irreversibilität thermischer Prozesse in der Natur hinweisen und die Richtung des Möglichen bestimmen Energieprozesse. Eine bedeutende Rolle bei der Konstruktion der Thermodynamik spielten die Studien von J. L. Gay-Lussac, auf deren Grundlage B. Clapeyron die Zustandsgleichung eines idealen Gases fand, die später von D. I. Mendeleev verallgemeinert wurde.

Gleichzeitig mit der Entwicklung der Thermodynamik entwickelte sich die molekularkinetische Theorie thermischer Prozesse. Dies ermöglichte die Einbeziehung thermischer Prozesse in das mechanische Weltbild und führte zur Entdeckung einer neuen Art von Gesetzen – statistischer Gesetze, bei denen alle Zusammenhänge zwischen physikalischen Größen probabilistisch sind.

In der ersten Phase der Entwicklung der kinetischen Theorie des einfachsten Mediums – Gas – berechneten Joule, Clausius und andere die Durchschnittswerte verschiedener physikalischer Größen: die Geschwindigkeit der Moleküle, die Anzahl ihrer Kollisionen pro Sekunde, den Mittelwert frei Pfad usw. Es wurde die Abhängigkeit des Gasdrucks von der Anzahl der Moleküle pro Volumeneinheit und der durchschnittlichen kinetischen Energie der Translationsbewegung der Moleküle ermittelt. Dadurch war die Öffnung möglich physikalische Bedeutung Temperatur als Maß für die durchschnittliche kinetische Energie von Molekülen.

Die zweite Stufe in der Entwicklung der molekularkinetischen Theorie begann mit der Arbeit von J. C. Maxwell. Nachdem er 1859 erstmals das Konzept der Wahrscheinlichkeit in die Philosophie eingeführt hatte, fand er das Gesetz der Geschwindigkeitsverteilung von Molekülen (siehe Maxwell-Verteilung). Danach erweiterten sich die Möglichkeiten der molekularkinetischen Theorie enorm und führten in der Folge zur Entstehung der statistischen Mechanik. L. Boltzmann baute eine kinetische Gastheorie auf und lieferte eine statistische Begründung für die Gesetze der Thermodynamik. Das Hauptproblem, das Boltzmann weitgehend lösen konnte, bestand darin, die zeitliche Reversibilität der Bewegung einzelner Moleküle mit der offensichtlichen Irreversibilität makroskopischer Prozesse in Einklang zu bringen. Nach Boltzmann entspricht das thermodynamische Gleichgewicht eines Systems der maximalen Wahrscheinlichkeit eines gegebenen Zustands. Die Irreversibilität von Prozessen ist mit der Tendenz von Systemen zum wahrscheinlichsten Zustand verbunden. Von großer Bedeutung war der von ihm bewiesene Satz über die gleichmäßige Verteilung der mittleren kinetischen Energie über die Freiheitsgrade.

Die klassische statistische Mechanik wurde in den Arbeiten von J. W. Gibbs (1902) vervollständigt, der eine Methode zur Berechnung von Verteilungsfunktionen für jedes System (nicht nur Gase) im thermodynamischen Gleichgewichtszustand entwickelte. Die statistische Mechanik erlangte im 20. Jahrhundert allgemeine Anerkennung. nach der Schaffung durch A. Einstein und M. Smoluchowski (1905–06) auf der Grundlage der molekularkinetischen Theorie der quantitativen Theorie der Brownschen Bewegung, bestätigt in den Experimenten von J. B. Perrin.

In der 2. Hälfte des 19. Jahrhunderts. Der lange Prozess der Untersuchung elektromagnetischer Phänomene wurde von Maxwell abgeschlossen. In seinem Hauptwerk „Eine Abhandlung über Elektrizität und Magnetismus“ (1873) stellte er Gleichungen für das elektromagnetische Feld auf (die seinen Namen tragen), die alle damals bekannten Fakten aus einem Blickwinkel erklärten und Vorhersagen ermöglichten neue Phänomene. Maxwell interpretierte elektromagnetische Induktion als den Prozess der Erzeugung eines elektrischen Wirbelfeldes durch ein magnetisches Wechselfeld. Anschließend sagte er den gegenteiligen Effekt voraus – die Erzeugung eines magnetischen Feldes durch ein elektrisches Wechselfeld (siehe Verschiebungsstrom). Das wichtigste Ergebnis von Maxwells Theorie war die Schlussfolgerung, dass die Ausbreitungsgeschwindigkeit elektromagnetischer Wechselwirkungen endlich ist und der Lichtgeschwindigkeit entspricht. Die experimentelle Entdeckung elektromagnetischer Wellen durch G. R. Hertz (1886–89) bestätigte die Gültigkeit dieser Schlussfolgerung. Aus Maxwells Theorie folgte, dass Licht elektromagnetischer Natur ist. So wurde die Optik zu einem Zweig der Elektrodynamik. Ganz am Ende des 19. Jahrhunderts. P. N. Lebedev entdeckte und maß experimentell den von Maxwells Theorie vorhergesagten Lichtdruck, und A. S. Popov war der erste, der elektromagnetische Wellen für die drahtlose Kommunikation nutzte.

Im 19. Jahrhundert G. Kirchhoff und R. Bunsen legten den Grundstein für die Spektralanalyse (1859). Auch die Entwicklung der Kontinuumsmechanik wurde fortgesetzt. In der Akustik wurde die Theorie der elastischen Schwingungen und Wellen entwickelt (Helmholtz, J. W. Rayleigh usw.). Es entstand eine Technik zur Erzielung niedriger Temperaturen. Alle Gase außer Helium wurden in flüssigem Zustand und zu Beginn des 20. Jahrhunderts gewonnen. H. Kamerlingh-Onnes (1998) verflüssigte Helium.
Bis zum Ende des 19. Jahrhunderts. F. schien den Zeitgenossen fast vollständig zu sein. Es schien, dass alle physikalischen Phänomene auf die Mechanik von Molekülen (oder Atomen) und Äther reduziert werden könnten. Der Äther galt als mechanisches Medium, in dem elektromagnetische Phänomene stattfinden. Einer der größten Physiker des 19. Jahrhunderts. – W. Thomson achtete nur auf zwei unerklärliche Tatsachen: das negative Ergebnis von Michelsons Experiment zur Erfassung der Bewegung der Erde relativ zum Äther und die aus molekularkinetischer Sicht unverständliche Abhängigkeit der Wärmekapazität von Gasen von der Temperatur Theorie. Doch gerade diese Tatsachen waren der erste Hinweis auf die Notwendigkeit einer Revision der Grundgedanken der Philosophie des 19. Jahrhunderts. Um diese und viele andere später entdeckte Tatsachen zu erklären, war es notwendig, die Relativitätstheorie und die Quantenmechanik zu entwickeln.
Relativistische und Quantenphysik. Physik des Atomkerns und der Elementarteilchen (spätes 19.–20. Jahrhundert).

Der Beginn einer neuen Ära in der Physik wurde durch die Entdeckung des Elektrons durch J. Thomson im Jahr 1897 vorbereitet. Es stellte sich heraus, dass Atome nicht elementar, sondern komplexe Systeme sind, die Elektronen umfassen. Eine wichtige Rolle bei dieser Entdeckung spielte die Untersuchung elektrischer Entladungen in Gasen.

Ende des 19. – Anfang des 20. Jahrhunderts. H. Lorentz legte den Grundstein für die elektronische Theorie. Zu Beginn des 20. Jahrhunderts. Es wurde deutlich, dass die Elektrodynamik eine radikale Überarbeitung der Konzepte von Raum und Zeit erfordert, die Newtons klassischer Mechanik zugrunde liegen. 1905 schuf Einstein die private (spezielle) Relativitätstheorie – eine neue Lehre von Raum und Zeit. Diese Theorie wurde historisch durch die Arbeiten von Lorentz und A. Poincaré vorbereitet.

Die Erfahrung hat gezeigt, dass das von Galilei formulierte Relativitätsprinzip, wonach mechanische Phänomene in allen Inertialbezugssystemen identisch ablaufen, auch für elektromagnetische Phänomene gilt. Daher sollten die Maxwell-Gleichungen ihre Form nicht ändern (sie sollten invariant sein), wenn sie von einem Trägheitsbezugssystem zu einem anderen wechseln. Es stellte sich jedoch heraus, dass dies nur dann zutrifft, wenn sich die Koordinaten- und Zeittransformationen während eines solchen Übergangs von den in der Newtonschen Mechanik gültigen galiläischen Transformationen unterscheiden. Lorentz fand diese Transformationen (Lorentz-Transformationen), konnte ihnen aber nicht die richtige Interpretation geben. Dies hat Einstein in seiner Speziellen Relativitätstheorie getan.

Die Entdeckung der partiellen Relativitätstheorie zeigte die Grenzen des mechanischen Weltbildes auf. Versuche, elektromagnetische Prozesse auf mechanische Prozesse in einem hypothetischen Medium – dem Äther – zu reduzieren, erwiesen sich als unhaltbar. Es wurde deutlich, dass das elektromagnetische Feld eine besondere Form der Materie ist, deren Verhalten nicht den Gesetzen der Mechanik gehorcht.
1916 entwickelte Einstein die allgemeine Relativitätstheorie – die physikalische Theorie von Raum, Zeit und Schwerkraft. Diese Theorie markierte eine neue Etappe in der Entwicklung der Schwerkrafttheorie.

An der Wende vom 19. zum 20. Jahrhundert, noch vor der Entstehung der speziellen Relativitätstheorie, wurde der Beginn der größten Revolution auf dem Gebiet der Physik gelegt, die mit der Entstehung und Entwicklung der Quantentheorie verbunden war.

Ende des 19. Jahrhunderts. Es stellte sich heraus, dass die Verteilung der Wärmestrahlungsenergie über das Spektrum, abgeleitet aus dem Gesetz der klassischen statistischen Physik über die gleichmäßige Energieverteilung über Freiheitsgrade, der Erfahrung widerspricht. Daraus folgte die Theorie, dass Materie bei jeder Temperatur elektromagnetische Wellen aussendet, Energie verliert und auf den absoluten Nullpunkt abkühlt, d. h. dass ein thermisches Gleichgewicht zwischen Materie und Strahlung unmöglich ist. Allerdings widersprach die Alltagserfahrung dieser Schlussfolgerung. Die Lösung wurde 1900 von M. Planck gefunden, der zeigte, dass die Ergebnisse der Theorie mit der Erfahrung übereinstimmen, wenn wir im Widerspruch zur klassischen Elektrodynamik davon ausgehen, dass Atome elektromagnetische Energie nicht kontinuierlich, sondern in getrennten Portionen – Quanten – aussenden. Die Energie jedes dieser Quanten ist direkt proportional zur Frequenz, und der Proportionalitätskoeffizient ist das Wirkungsquantum h = 6,6?10-27 erg?sec, das später als Plancksches Wirkungsquantum bezeichnet wurde.

Im Jahr 1905 erweiterte Einstein Plancks Hypothese dahingehend, dass sich der emittierte Teil der elektromagnetischen Energie auch ausbreitet und nur als Ganzes, d. h. verhält sich wie ein Teilchen (später Photon genannt). Basierend auf dieser Hypothese erklärte Einstein die Gesetze des photoelektrischen Effekts, die nicht in den Rahmen der klassischen Elektrodynamik passen.

Damit wurde die Korpuskulartheorie des Lichts auf einem neuen qualitativen Niveau wiederbelebt. Licht verhält sich wie ein Strom aus Teilchen (Körperchen); Gleichzeitig weist es jedoch auch Welleneigenschaften auf, die sich insbesondere in der Beugung und Interferenz von Licht äußern. Folglich sind dem Licht gleichermaßen Wellen- und Korpuskulareigenschaften inhärent, die aus Sicht der klassischen Physik unvereinbar sind (Dualismus des Lichts). Die „Quantisierung“ der Strahlung führte zu dem Schluss, dass sich die Energie intraatomarer Bewegungen ebenfalls nur sprunghaft ändern kann. Diese Schlussfolgerung wurde 1913 von N. Bohr gezogen.

Zu diesem Zeitpunkt entdeckte E. Rutherford (1911) auf der Grundlage von Experimenten zur Streuung von Alphateilchen an Materie den Atomkern und baute ein Planetenmodell des Atoms. In einem Rutherford-Atom bewegen sich Elektronen um den Kern auf die gleiche Weise, wie sich Planeten um die Sonne bewegen. Nach Maxwells Elektrodynamik ist ein solches Atom jedoch instabil: Elektronen, die sich auf kreisförmigen (oder elliptischen) Bahnen bewegen, erfahren eine Beschleunigung und müssen daher kontinuierlich elektromagnetische Wellen aussenden, Energie verlieren und sich schließlich (wie Berechnungen) allmählich dem Kern nähern angezeigt, für eine Zeit von ca. 10-8 Sekunden) darauf fallen. So erwies sich die Stabilität der Atome und ihrer Linienspektren im Rahmen der Gesetze des klassischen F. als unerklärlich. Bohr fand einen Ausweg aus dieser Schwierigkeit. Er postulierte, dass Atome spezielle stationäre Zustände haben, in denen keine Elektronen emittieren. Strahlung entsteht beim Übergang von einem stationären Zustand in einen anderen. Die Diskretion der Atomenergie wurde durch die Experimente von J. Frank und G. Hertz (1913–14) zur Untersuchung von Kollisionen von durch ein elektrisches Feld beschleunigten Elektronen mit Atomen bestätigt. Für das einfachste Atom, das Wasserstoffatom, konstruierte Bohr eine quantitative Theorie des Emissionsspektrums, die mit dem Experiment übereinstimmt.

Im gleichen Zeitraum (Ende des 19. – Anfang des 20. Jahrhunderts) begann sich die Festkörperphysik in ihrem modernen Verständnis als Physik kondensierter Systeme zu bilden, die aus einer großen Anzahl von Teilchen (~ 1022 cm-3) bestehen. Bis 1925 verlief seine Entwicklung in zwei Richtungen: die Physik des Kristallgitters und die Physik der Elektronen in Kristallen, vor allem in Metallen. Anschließend konvergierten diese Richtungen auf der Grundlage der Quantentheorie.

Die Idee eines Kristalls als Ansammlung von Atomen, die im Raum geordnet angeordnet und durch Wechselwirkungskräfte in einer Gleichgewichtslage gehalten werden, durchlief einen langen Entwicklungsweg und entstand schließlich zu Beginn des 20. Jahrhunderts. Die Entwicklung dieses Modells begann mit der Arbeit von Newton (1686) zur Berechnung der Schallgeschwindigkeit in einer Kette elastisch gebundener Teilchen und wurde von anderen Wissenschaftlern fortgesetzt: D. und I. Bernoulli (1727), Cauchy (1830), W . Thomson (1881) usw.

Ende des 19. Jahrhunderts. E. S. Fedorov legte mit seiner Arbeit über die Struktur und Symmetrie von Kristallen den Grundstein für die theoretische Kristallographie; 1890–91 bewies er die Möglichkeit der Existenz von 230 raumsymmetrischen Kristallgruppen – Arten der geordneten Anordnung von Teilchen in einem Kristallgitter (die sogenannten Fedorov-Gruppen). Im Jahr 1912 entdeckten M. Laue und seine Kollegen die Beugung von Röntgenstrahlen an Kristallen und begründeten damit endgültig die Idee eines Kristalls als einer geordneten Atomstruktur. Basierend auf dieser Entdeckung wurde eine Methode zur experimentellen Bestimmung der Anordnung von Atomen in Kristallen und zur Messung interatomarer Abstände entwickelt, die den Beginn der Röntgenstrukturanalyse markierte [U. L. Bragg und W. G. Bragg (1913), G. W. Wolf (1913)]. In denselben Jahren (1907–1914) wurde die dynamische Theorie der Kristallgitter entwickelt, die Quantenkonzepte bereits maßgeblich berücksichtigte. Im Jahr 1907 erklärte Einstein anhand des Modells eines Kristalls als einer Reihe harmonischer Quantenoszillatoren gleicher Frequenz die beobachtete Abnahme der Wärmekapazität von Festkörpern mit abnehmender Temperatur – eine Tatsache, die in scharfem Widerspruch zum Gesetz von Dulong und steht Petit. Eine fortgeschrittenere dynamische Theorie eines Kristallgitters als eine Reihe gekoppelter Quantenoszillatoren unterschiedlicher Frequenz wurde von P. Debye (1912), M. Born und T. Karman (1913) sowie E. Schrödinger (1914) in einer ähnlichen Form konstruiert zum modernen. Seine neue wichtige Phase begann nach der Schaffung der Quantenmechanik.

Die zweite Richtung (Physik der Elektronensysteme in einem Kristall) begann sich unmittelbar nach der Entdeckung des Elektrons als elektronische Theorie von Metallen und anderen Festkörpern zu entwickeln. In dieser Theorie wurden Elektronen im Metall als Füllung betrachtet Kristallgitter ein Gas aus freien Elektronen, ähnlich einem gewöhnlichen verdünnten molekularen Gas, das dem klassischen entspricht. Boltzmann-Statistik. Die elektronische Theorie ermöglichte die Erklärung der Gesetze von Ohm und Wiedemann-Franz (P. Drude), legte den Grundstein für die Theorie der Lichtstreuung in Kristallen usw. Allerdings passen nicht alle Fakten in den Rahmen der klassischen elektronischen Theorie. Somit wurde die Abhängigkeit des spezifischen Widerstands von Metallen von der Temperatur nicht erklärt; es blieb unklar, warum das Elektronengas keinen nennenswerten Beitrag zur Wärmekapazität von Metallen usw. leistet. Ein Ausweg aus den entstandenen Schwierigkeiten wurde erst nach der Konstruktion der Quantenmechanik gefunden.

Die erste von Bohr geschaffene Version der Quantentheorie war in sich widersprüchlich: Bohr nutzte die Gesetze der Newtonschen Mechanik für die Bewegung von Elektronen und erlegte gleichzeitig künstlich Quantenbeschränkungen für die möglichen Bewegungen von Elektronen auf, die der klassischen Theorie fremd waren.
Die zuverlässig etablierte Diskretion der Wirkung und ihr quantitatives Maß – die Plancksche Konstante h – eine universelle Weltkonstante, die die Rolle der natürlichen Skala natürlicher Phänomene spielt, erforderte eine radikale Umstrukturierung sowohl der Gesetze der Mechanik als auch der Gesetze der Elektrodynamik. Klassische Gesetze gelten nur bei der Betrachtung der Bewegung von Objekten mit ausreichend großer Masse, wenn die Wirkungsdimensionen groß im Vergleich zu h sind und die Diskretion der Wirkung vernachlässigt werden kann.

In den 20er Jahren 20. Jahrhundert Es entstand die tiefgreifendste und umfassendste moderne physikalische Theorie – die Quanten- oder Wellenmechanik – eine konsistente, logisch vollständige nichtrelativistische Theorie der Bewegung von Mikroteilchen, die es auch ermöglichte, viele Eigenschaften makroskopischer Körper und die darin auftretenden Phänomene zu erklären ihnen. Die Quantenmechanik basiert auf der Idee der Quantisierung von Planck – Einstein – Bohr und der von L. de Broglie (1924) aufgestellten Hypothese, dass die duale Korpuskularwellennatur nicht nur für elektromagnetische Strahlung (Photonen), sondern auch charakteristisch ist von allen anderen Arten von Materie. Alle Mikroteilchen (Elektronen, Protonen, Atome usw.) haben neben Korpuskular- und Welleneigenschaften: Jedes von ihnen kann einer Welle zugeordnet werden (deren Länge gleich dem Verhältnis der Planckschen Konstante h zum Impuls des Teilchens ist). , und die Frequenz zum Verhältnis der Teilchenenergie zu h ). De-Broglie-Wellen beschreiben freie Teilchen. Im Jahr 1927 wurde erstmals die Beugung von Elektronen beobachtet, die das Vorhandensein ihrer Welleneigenschaften experimentell bestätigte. Später wurde die Beugung auch bei anderen Mikropartikeln, einschließlich Molekülen, beobachtet (siehe Partikelbeugung).

Im Jahr 1926 formulierte Schrödinger die nach ihm benannte Grundgleichung der Quantenmechanik, als er versuchte, diskrete Werte der Atomenergie aus einer Wellengleichung zu erhalten. W. Heisenberg und Born (1925) konstruierten die Quantenmechanik in einer anderen mathematischen Form – der sogenannten. Matrixmechanik.

Im Jahr 1925 entdeckten J. Yu. Uhlenbeck und S. A. Goudsmit auf der Grundlage experimenteller (spektroskopischer) Daten die Existenz eines Eigendrehimpulses eines Elektrons – Spin (und damit des damit verbundenen Eigen-, Spin- und magnetischen Moments) gleich 1/2 . (Der Spinwert wird normalerweise in der Einheit = h/2? ausgedrückt, die wie h Plancksche Konstante genannt wird; in diesen Einheiten ist der Elektronenspin gleich 1/2.) W. Pauli hat die Bewegungsgleichung von niedergeschrieben ein nichtrelativistisches Elektron in einem externen elektromagnetischen Feld unter Berücksichtigung der Wechselwirkung des magnetischen Spinmoments eines Elektrons mit einem Magnetfeld. 1925 formulierte er auch das sogenannte. Ausschlussprinzip, nach dem es in einem Quantenzustand nicht mehr als ein Elektron geben kann (Pauli-Prinzip). Dieses Prinzip spielte eine entscheidende Rolle bei der Konstruktion der Quantentheorie von Systemen aus vielen Teilchen und erklärte insbesondere die Muster der Füllung von Schalen und Schichten mit Elektronen in Mehrelektronenatomen usw. lieferte eine theoretische Grundlage für Mendelejews Periodensystem der Elemente.

Im Jahr 1928 erhielt P. A. M. Dirac eine quantenrelativistische Gleichung der Elektronenbewegung (siehe Dirac-Gleichung), aus der natürlich folgte, dass das Elektron einen Spin hatte. Basierend auf dieser Gleichung sagte Dirac 1931 die Existenz des Positrons (des ersten Antiteilchens) voraus, das 1932 von K. D. Anderson in der kosmischen Strahlung entdeckt wurde. [Antiteilchen anderer Struktureinheiten Substanzen (Proton und Neutron) – Antiproton und Antineutron wurden 1955 bzw. 1956 experimentell entdeckt.]

Parallel zur Entwicklung der Quantenmechanik erfolgte die Entwicklung der Quantenstatistik – der Quantentheorie des Verhaltens physikalischer Systeme (insbesondere makroskopischer Körper), die aus einer großen Anzahl von Mikropartikeln bestehen. Im Jahr 1924 leitete S. Bose durch Anwendung der Prinzipien der Quantenstatistik auf Photonen – Teilchen mit Spin 1 – die Plancksche Formel für die Energieverteilung im Spektrum der Gleichgewichtsstrahlung ab, und Einstein erhielt die Formel für die Energieverteilung für ein ideales Gas von Molekülen (Bose-Einstein-Statistik). Im Jahr 1926 zeigten P. A. M. Dirac und E. Fermi, dass die Menge der Elektronen (und anderer identischer Teilchen mit Spin 1/2), für die das Pauli-Prinzip gilt, einer anderen Statistik gehorcht – der Fermi-Dirac-Statistik. Im Jahr 1940 stellte Pauli den Zusammenhang zwischen Spin und Statistik her.

Die Quantenstatistik spielte eine wichtige Rolle bei der Entwicklung der Physik der kondensierten Materie und vor allem beim Aufbau der Festkörperphysik. In der Quantensprache können thermische Schwingungen von Kristallatomen als eine Ansammlung einer Art „Teilchen“ betrachtet werden, genauer gesagt als Quasiteilchen – Phononen (eingeführt von I. E. Tamm im Jahr 1929). Dieser Ansatz erklärte insbesondere die Abnahme der Wärmekapazität von Metallen (nach dem T3-Gesetz) mit einer Abnahme der Temperatur T im Tieftemperaturbereich und zeigte auch, dass der Grund für den elektrischen Widerstand von Metallen die Streuung von ist Elektronen nicht durch Ionen, sondern hauptsächlich durch Phononen. Später wurden weitere Quasiteilchen eingeführt. Die Quasiteilchenmethode hat sich als sehr effektiv für die Untersuchung der Eigenschaften komplexer makroskopischer Systeme im kondensierten Zustand erwiesen.

1928 nutzte A. Sommerfeld die Fermi-Dirac-Verteilungsfunktion zur Beschreibung von Transportvorgängen in Metallen. Dies löste eine Reihe von Schwierigkeiten der klassischen Theorie und schuf die Grundlage für die Weiterentwicklung der Quantentheorie kinetischer Phänomene (elektrische und thermische Leitfähigkeit, thermoelektrische, galvanomagnetische und andere Effekte) in Festkörpern, insbesondere in Metallen und Halbleitern.
Nach dem Pauli-Prinzip ist die Energie aller freien Elektronen in einem Metall, selbst beim absoluten Nullpunkt, ungleich Null. Im nicht angeregten Zustand sind alle Energieniveaus, beginnend bei Null und endend mit einem maximalen Niveau (Fermi-Niveau), mit Elektronen besetzt. Dieses Bild ermöglichte es Sommerfeld, den geringen Beitrag von Elektronen zur Wärmekapazität von Metallen zu erklären: Beim Erhitzen werden nur Elektronen in der Nähe des Fermi-Niveaus angeregt.

Die Arbeiten von F. Bloch, H. A. Bethe und L. Brillouin (1928–34) entwickelten eine Theorie der Bandenergiestruktur von Kristallen, die eine natürliche Erklärung für die Unterschiede in den elektrischen Eigenschaften von Dielektrika und Metallen lieferte. Der beschriebene Ansatz, Einzelelektronennäherung genannt, wurde weiterentwickelt und vor allem in der Halbleiterphysik weit verbreitet.

1928 zeigten Ya. I. Frenkel und Heisenberg, dass der Ferromagnetismus auf der Quantenaustauschwechselwirkung beruht (die von Heisenberg 1926 am Beispiel des Heliumatoms untersucht wurde); 1932–33 sagten L. Neel und unabhängig davon L. D. Landau den Antiferromagnetismus voraus.
Die Entdeckungen der Supraleitung durch Kamerlingh Onnes (1911) und der Supraflüssigkeit von flüssigem Helium durch P. L. Kapitsa (1938) stimulierten die Entwicklung neuer Methoden in der Quantenstatistik. Phänomenologie. die Theorie der Superfluidität wurde von Landau (1941) aufgestellt; Ein weiterer Schritt war die Phänomenologie, die Theorie der Supraleitung von Landau und V.L. Ginzburg (1950).

In den 50er Jahren In der statistischen Quantentheorie von Vielteilchensystemen wurden neue leistungsstarke Berechnungsmethoden entwickelt. Eine der bemerkenswertesten Errungenschaften war die Schaffung der mikroskopischen Theorie der Supraleitung durch J. Bardeen, L. Cooper und J. Schrieffer (USA). und N. N. Bogolyubov (UdSSR).

Versuche, eine konsistente Quantentheorie der Lichtemission von Atomen zu konstruieren, führten zu einer neuen Stufe in der Entwicklung der Quantentheorie – der Schaffung der Quantenelektrodynamik (Dirac, 1929).

Im 2. Viertel des 20. Jahrhunderts. Eine weitere revolutionäre Transformation der Physik fand statt, verbunden mit der Kenntnis des Aufbaus des Atomkerns und der darin ablaufenden Prozesse sowie mit der Entstehung der Physik der Elementarteilchen. Die oben erwähnte Entdeckung des Atomkerns durch Rutherford wurde durch die Entdeckung der Radioaktivität und radioaktiven Umwandlungen schwerer Atome bereits im späten 19. Jahrhundert vorbereitet. (A. Becquerel, P. und M. Curie). Zu Beginn des 20. Jahrhunderts. Isotope wurden entdeckt. Die ersten Versuche, die Struktur des Atomkerns direkt zu untersuchen, gehen auf das Jahr 1919 zurück, als Rutherford durch den Beschuss stabiler Stickstoffkerne mit ?-Partikeln deren künstliche Umwandlung in Sauerstoffkerne erreichte. Die Entdeckung des Neutrons im Jahr 1932 durch J. Chadwick führte zur Entwicklung des modernen Proton-Neutron-Modells des Kerns (D. D. Ivanenko, Heisenberg). 1934 entdeckten die Ehegatten I. und F. Joliot-Curie die künstliche Radioaktivität.

Die Entwicklung von Beschleunigern für geladene Teilchen ermöglichte die Untersuchung verschiedener Kernreaktionen. Das wichtigste Ergebnis dieser Phase der Physik war die Entdeckung der Spaltung des Atomkerns.

In den Jahren 1939–45 wurde erstmals Kernenergie mithilfe der 235U-Spaltungskettenreaktion freigesetzt und die Atombombe geschaffen. Das Verdienst, die kontrollierte Kernspaltungsreaktion von 235U für friedliche, industrielle Zwecke zu nutzen, gebührt der UdSSR. 1954 wurde in der UdSSR (Obninsk) das erste Kernkraftwerk gebaut. Später wurden in vielen Ländern kostengünstige Kernkraftwerke errichtet.

1952 wurde eine thermonukleare Fusionsreaktion durchgeführt (eine Atombombe wurde explodiert) und 1953 wurde eine Wasserstoffbombe hergestellt.
Gleichzeitig mit der Physik des Atomkerns im 20. Jahrhundert. Die Physik der Elementarteilchen begann sich rasant zu entwickeln. Erste großer Erfolg in diesem Bereich sind mit der Erforschung der kosmischen Strahlung verbunden. Myonen, Pi-Mesonen, K-Mesonen und die ersten Hyperonen wurden entdeckt. Nach der Entwicklung hochenergetischer Beschleuniger für geladene Teilchen begann eine systematische Untersuchung der Elementarteilchen, ihrer Eigenschaften und Wechselwirkungen; Die Existenz von zwei Arten von Neutrinos wurde experimentell nachgewiesen und viele neue Elementarteilchen entdeckt, darunter extrem instabile Teilchen – Resonanzen, deren durchschnittliche Lebensdauer nur 10-22–10-24 Sekunden beträgt. Die entdeckte universelle Interkonvertibilität von Elementarteilchen deutete darauf hin, dass diese Teilchen nicht im absoluten Sinne elementar sind, sondern eine komplexe innere Struktur haben, die noch entdeckt werden muss. Die Theorie der Elementarteilchen und ihrer Wechselwirkungen (starke, elektromagnetische und schwache) ist Gegenstand der Quantenfeldtheorie – eine Theorie, die noch lange nicht abgeschlossen ist.

III. Grundlegende Theorien der Physik

Klassische Newtonsche Mechanik

Newtons Einführung des Staatsbegriffs war für die gesamte Philosophie von grundlegender Bedeutung. Ursprünglich wurde es für das einfachste mechanische System formuliert – ein System materieller Punkte. Newtons Gesetze gelten direkt für materielle Punkte. In allen nachfolgenden physikalischen Theorien war der Zustandsbegriff einer der Haupttheorien. Der Zustand eines mechanischen Systems wird vollständig durch die Koordinaten und Impulse aller Körper bestimmt, aus denen das System besteht. Wenn die Wechselwirkungskräfte von Körpern bekannt sind, die ihre Beschleunigungen bestimmen, ermöglichen die Bewegungsgleichungen der Newtonschen Mechanik (Newtons zweites Gesetz) aus den Werten von Koordinaten und Impulsen im Anfangszeitpunkt eine eindeutige Feststellung der Werte von Koordinaten und Impulsen zu jedem späteren Zeitpunkt. Koordinaten und Impulse sind die Grundgrößen der klassischen Mechanik; Wenn man sie kennt, kann man den Wert jeder anderen mechanischen Größe berechnen: Energie, Drehimpuls usw. Obwohl später klar wurde, dass die Newtonsche Mechanik einen begrenzten Anwendungsbereich hat, war und bleibt sie die Grundlage, ohne die die Konstruktion der Das gesamte Gebäude der modernen Physiologie wäre unmöglich gewesen.

Kontinuumsmechanik

Gase, Flüssigkeiten und Feststoffe werden in der Kontinuumsmechanik als kontinuierliche homogene Medien betrachtet. Anstelle von Koordinaten und Impulsen von Teilchen wird der Zustand des Systems eindeutig durch die folgenden Funktionen von Koordinaten (x, y, z) und Zeit (t) charakterisiert: Dichte p (x, y, z, t), Druck P ( x, y, z, t) und hydrodynamische Geschwindigkeit v (x, y, z, t), mit der Masse übertragen wird. Die Gleichungen der Kontinuumsmechanik ermöglichen es, die Werte dieser Funktionen zu jedem späteren Zeitpunkt zu ermitteln, wenn ihre Werte im Anfangsmoment und die Randbedingungen bekannt sind.

Die Euler-Gleichung, die die Geschwindigkeit des Flüssigkeitsstroms mit dem Druck verbindet, ermöglicht zusammen mit der Kontinuitätsgleichung, die die Erhaltung der Materie ausdrückt, die Lösung jedes Problems in der Dynamik einer idealen Flüssigkeit. In der Hydrodynamik einer viskosen Flüssigkeit werden die Wirkung von Reibungskräften und der Einfluss der Wärmeleitfähigkeit berücksichtigt, die zur Dissipation mechanischer Energie führen, und die Kontinuumsmechanik ist keine „reine Mechanik“ mehr: thermische Prozesse gewinnen an Bedeutung. Erst mit der Entstehung der Thermodynamik wurde ein vollständiges Gleichungssystem formuliert, das mechanische Vorgänge in realen gasförmigen, flüssigen und festen Körpern beschreibt. Die Bewegung elektrisch leitender Flüssigkeiten und Gase wird in der Magnetohydrodynamik untersucht. In der Akustik werden Schwingungen eines elastischen Mediums und die Ausbreitung von Wellen darin untersucht.

Thermodynamik

Der gesamte Inhalt der Thermodynamik ist im Wesentlichen eine Folge von zwei Prinzipien: dem ersten Prinzip – dem Energieerhaltungssatz, und dem zweiten Prinzip, aus dem die Irreversibilität makroskopischer Prozesse folgt. Diese Prinzipien ermöglichen es uns, eindeutige Zustandsfunktionen einzuführen: innere Energie und Entropie. In geschlossenen Systemen bleibt die innere Energie unverändert und die Entropie bleibt nur während Gleichgewichtsprozessen (reversibel) erhalten. Bei irreversiblen Prozessen nimmt die Entropie zu und ihr Wachstum spiegelt am besten eine bestimmte Richtung makroskopischer Prozesse in der Natur wider. In der Thermodynamik sind die Hauptgrößen, die den Zustand eines Systems bestimmen – thermodynamische Parameter – im einfachsten Fall Druck, Volumen und Temperatur. Der Zusammenhang zwischen ihnen ist durch die thermische Zustandsgleichung gegeben (und die Abhängigkeit der Energie von Volumen und Temperatur ist durch die kalorische Zustandsgleichung gegeben). Die einfachste thermische Zustandsgleichung ist die Zustandsgleichung eines idealen Gases (Clapeyron-Gleichung).

In der klassischen Thermodynamik werden Zustände des thermischen Gleichgewichts und Gleichgewichtsprozesse (unendlich langsam) untersucht. Zeit ist kein Teil der Grundgleichungen. Anschließend (ab den 30er Jahren des 20. Jahrhunderts) wurde die Thermodynamik von Nichtgleichgewichtsprozessen geschaffen. In dieser Theorie wird der Zustand durch Dichte, Druck, Temperatur, Entropie und andere Größen (lokale thermodynamische Parameter) bestimmt, die als Funktionen von Koordinaten und Zeit betrachtet werden. Für sie werden die Gleichungen der Masse-, Energie- und Impulsübertragung geschrieben, die die Entwicklung des Zustands des Systems über die Zeit beschreiben (Diffusions- und Wärmeleitfähigkeitsgleichungen, Navier-Stokes-Gleichungen). Diese Gleichungen drücken lokale (d. h. für ein bestimmtes infinitesimales Volumenelement gültige) Erhaltungsgesetze des angegebenen physikalischen Elements aus. Mengen

Statistische Physik (Statistische Mechanik)

In der klassischen statistischen Mechanik wird anstelle der Angabe der Koordinaten ri und Impulse pi der Teilchen des Systems die Verteilungsfunktion der Teilchen über Koordinaten und Impulse f (ri, pi,..., rN, pN, t) angegeben , was die Wahrscheinlichkeitsdichte der Erkennung der beobachteten Koordinaten- und Impulswerte in bestimmten kleinen Intervallen zu einem bestimmten Zeitpunkt t bedeutet (N ist die Anzahl der Teilchen im System). Die Verteilungsfunktion f erfüllt die Bewegungsgleichung (Liouville-Gleichung), die im Raum aller r und pi (also im Phasenraum) die Form einer Kontinuitätsgleichung hat.

Die Liouville-Gleichung bestimmt eindeutig f zu jedem späteren Zeitpunkt basierend auf ihrem gegebenen Wert im Anfangsmoment, wenn die Wechselwirkungsenergie zwischen den Teilchen des Systems bekannt ist. Mit der Verteilungsfunktion können Sie die Durchschnittswerte der Dichten von Materie, Energie, Impuls und deren Flüsse sowie deren Abweichungen von den Durchschnittswerten – Schwankungen – berechnen. Die Gleichung, die die Entwicklung der Verteilungsfunktion für ein Gas beschreibt, wurde erstmals von Boltzmann (1872) ermittelt und als kinetische Boltzmann-Gleichung bezeichnet.

Gibbs erhielt einen Ausdruck für die Verteilungsfunktion eines beliebigen Systems im Gleichgewicht mit einem Thermostat (kanonische Gibbs-Verteilung). Diese Verteilungsfunktion ermöglicht berühmter Ausdruck Energie als Funktion der Koordinaten und Impulse von Teilchen (Hamilton-Funktion) berechnen alle thermodynamischen Potentiale, die Gegenstand der statistischen Thermodynamik sind.

Prozesse, die in Systemen entstehen, die aus einem thermodynamischen Gleichgewichtszustand entfernt sind, sind irreversibel und werden in der statistischen Theorie von Nichtgleichgewichtsprozessen untersucht (diese Theorie bildet zusammen mit der Thermodynamik von Nichtgleichgewichtsprozessen die physikalische Kinetik). Wenn die Verteilungsfunktion bekannt ist, ist es prinzipiell möglich, alle makroskopischen Größen zu bestimmen, die ein System in einem Nichtgleichgewichtszustand charakterisieren, und ihre räumlichen Veränderungen über die Zeit zu überwachen.

Zur Berechnung der das System charakterisierenden physikalischen Größen (mittlere Dichte der Teilchenzahl, Energie und Impuls) ist die Kenntnis der vollständigen Verteilungsfunktion nicht erforderlich. Einfachere Verteilungsfunktionen reichen aus: Einteilchen, das die durchschnittliche Anzahl von Teilchen mit gegebenen Koordinaten- und Impulswerten angibt, und Zweiteilchen, das die gegenseitige Beeinflussung (Korrelation) zweier Teilchen bestimmt. Die allgemeine Methode zum Erhalten von Gleichungen für solche Funktionen wurde (in den 40er Jahren des 20. Jahrhunderts) von Bogolyubov, Born, G. Green (englischer Physiker) und anderen entwickelt. Gleichungen für eine Einzelteilchenverteilungsfunktion, deren Konstruktion möglich ist für Gase geringer Dichte werden als kinetisch bezeichnet. Dazu gehört die kinetische Boltzmann-Gleichung. Varianten der Boltzmann-Gleichung für ionisiertes Gas (Plasma) – kinetische Gleichungen von Landau und A. A. Vlasov (30–40er Jahre des 20. Jahrhunderts).

In den letzten Jahrzehnten hat die Plasmaforschung immer mehr an Bedeutung gewonnen. In diesem Umfeld spielen elektromagnetische Wechselwirkungen geladener Teilchen die Hauptrolle, und nur die statistische Theorie ist in der Regel in der Lage, verschiedene Fragen im Zusammenhang mit dem Verhalten von Plasma zu beantworten. Insbesondere ermöglicht es die Untersuchung der Stabilität von Hochtemperaturplasma in einem externen elektromagnetischen Feld. Dieses Problem ist im Zusammenhang mit dem Problem der kontrollierten Kernfusion äußerst relevant.

Elektrodynamik

Der Zustand des elektromagnetischen Feldes wird in Maxwells Theorie durch zwei Hauptvektoren charakterisiert: die elektrische Feldstärke E und die magnetische Induktion B, die Funktionen von Koordinaten und Zeit sind. Die elektromagnetischen Eigenschaften eines Stoffes werden durch drei Größen angegeben: Dielektrizitätskonstante?, magnetische Permeabilität (und spezifische elektrische Leitfähigkeit?), die experimentell bestimmt werden müssen. Für die Vektoren E und B und die zugehörigen Hilfsvektoren der elektrischen Induktion D und der magnetischen Feldstärke H , ein System linearer Differentialgleichungen wird mit partiellen Ableitungen geschrieben – Maxwell-Gleichungen. Diese Gleichungen beschreiben die Entwicklung des elektromagnetischen Feldes. Aus den Werten der Feldeigenschaften zum Anfangszeitpunkt innerhalb eines bestimmten Volumens und aus den Randbedingungen Auf der Oberfläche dieses Volumens finden sich zu jedem späteren Zeitpunkt E und B. Diese Vektoren bestimmen die Kraft, die auf ein geladenes Teilchen wirkt, das sich mit einer bestimmten Geschwindigkeit in einem elektromagnetischen Feld bewegt (Lorentzkraft).
Der Begründer der elektronischen Theorie, Lorentz, formulierte Gleichungen, die elementare elektromagnetische Prozesse beschreiben. Diese Gleichungen, Lorentz-Maxwell-Gleichungen genannt, setzen die Bewegung einzelner geladener Teilchen auf das elektromagnetische Feld, das sie erzeugen.

Basierend auf Vorstellungen über die Diskretion elektrischer Ladungen und Gleichungen für elementare elektromagnetische Prozesse ist es möglich, die Methoden der statistischen Mechanik auf elektromagnetische Prozesse in der Materie auszudehnen. Die elektronische Theorie hat es ermöglicht, die physikalische Bedeutung der elektromagnetischen Eigenschaften der Materie aufzudecken?, ?, ? und ermöglichte die Berechnung der Werte dieser Größen in Abhängigkeit von Frequenz, Temperatur, Druck usw.

Besondere (spezielle) Relativitätstheorie. Relativistische Mechanik

Die partielle Relativitätstheorie – eine physikalische Theorie über Raum und Zeit in Abwesenheit von Gravitationsfeldern – basiert auf zwei Postulaten: dem Relativitätsprinzip und der Unabhängigkeit der Lichtgeschwindigkeit von der Bewegung der Quelle. Nach Einsteins Relativitätsprinzip sind alle physikalischen Phänomene – mechanische, optische, thermische usw. – in allen Inertialbezugssystemen unter gleichen Bedingungen verlaufen sie gleich. Dies bedeutet, dass die gleichmäßige und lineare Bewegung des Systems den Ablauf der Prozesse darin nicht beeinflusst. Alle inertialen Bezugssysteme sind gleich (es gibt kein einzelnes, „absolut ruhendes“ Bezugssystem, ebenso wie es keinen absoluten Raum und keine absolute Zeit gibt). Daher ist die Lichtgeschwindigkeit im Vakuum in allen Inertialsystemen gleich. Aus diesen beiden Postulaten ergeben sich Transformationen von Koordinaten und Zeit beim Übergang von einem Inertialsystem zu einem anderen – die Lorentz-Transformation. Aus den Lorentz-Transformationen werden die Haupteffekte der partiellen Relativitätstheorie gewonnen: die Existenz einer Grenzgeschwindigkeit, die mit der Lichtgeschwindigkeit im Vakuum c zusammenfällt (jeder Körper kann sich nicht mit einer Geschwindigkeit über c bewegen, und c ist das Maximum Übertragungsgeschwindigkeit etwaiger Interaktionen); Relativität der Gleichzeitigkeit (Ereignisse, die in einem Trägheitsbezugssystem gleichzeitig sind, sind im Allgemeinen nicht gleichzeitig in einem anderen); Verlangsamung des Zeitflusses und Verringerung der Längsabmessungen (in Bewegungsrichtung) des Körpers (alle physikalischen Prozesse in einem Körper, der sich mit der Geschwindigkeit v relativ zu einem Trägheitsbezugssystem bewegt, laufen um ein Vielfaches langsamer ab als die gleichen Prozesse in einem bestimmten Trägheitsrahmen und verringern sich um den gleichen Betrag Längsabmessungen des Körpers). Aus der Gleichheit aller Inertialbezugssysteme folgt, dass die Auswirkungen der Zeitdilatation und Verkleinerung von Körpern nicht absolut, sondern relativ, abhängig vom Bezugssystem, sind.

Bei hohen (mit der Lichtgeschwindigkeit vergleichbaren) Bewegungsgeschwindigkeiten verlieren die Newtonschen Gesetze der Mechanik ihre Gültigkeit. Unmittelbar nach der Entstehung der Relativitätstheorie wurden relativistische Bewegungsgleichungen gefunden, die die Bewegungsgleichungen der Newtonschen Mechanik verallgemeinerten. Diese Gleichungen eignen sich zur Beschreibung der Bewegung von Teilchen mit Geschwindigkeiten nahe der Lichtgeschwindigkeit. Ausschließlich wichtig Für die Physik ergaben sich aus der relativistischen Mechanik zwei Konsequenzen: die Abhängigkeit der Teilchenmasse von der Geschwindigkeit und der universelle Zusammenhang zwischen Energie und Masse (siehe Relativitätstheorie).

Bei hohen Bewegungsgeschwindigkeiten muss jede physikalische Theorie den Anforderungen der Relativitätstheorie genügen, also relativistisch invariant sein. Die Gesetze der Relativitätstheorie bestimmen die Transformationen beim Übergang von einem Inertialbezugssystem zu einem anderen, nicht nur von Koordinaten und Zeit, sondern auch von jeder physikalischen Größe. Diese Theorie folgt aus den Prinzipien der Invarianz oder Symmetrie in der Physik (siehe Symmetrie in der Physik).

Allgemeine Relativitätstheorie (Schwerkrafttheorie)

Von den vier Arten grundlegender Wechselwirkungen – Gravitation, elektromagnetische, starke und schwache – wurden Gravitationswechselwirkungen oder Gravitationskräfte als erste entdeckt. Mehr als zweihundert Jahre lang wurden an der von Newton formulierten Grundtheorie der Schwerkraft keine Änderungen vorgenommen. Fast alle Konsequenzen der Theorie stimmten völlig mit der Erfahrung überein.

Im 2. Jahrzehnt des 20. Jahrhunderts. Die klassische Gravitationstheorie wurde von Einstein revolutioniert. Einsteins Gravitationstheorie entstand im Gegensatz zu allen anderen Theorien ohne die anregende Rolle neuer Experimente durch die logische Entwicklung des Relativitätsprinzips in Bezug auf Gravitationswechselwirkungen und wurde als allgemeine Relativitätstheorie bezeichnet. Einstein interpretierte die von Galileo festgestellte Tatsache der Gleichheit von Gravitations- und Trägheitsmassen neu (siehe Masse). Diese Gleichheit bedeutet, dass die Schwerkraft die Bahnen aller Körper in gleicher Weise krümmt. Daher kann die Schwerkraft als eine Krümmung der Raumzeit selbst betrachtet werden. Einsteins Theorie offenbarte einen tiefen Zusammenhang zwischen der Geometrie der Raumzeit und der Verteilung und Bewegung von Massen. Bestandteile der sogenannten Die metrischen Tensoren, die die Metrik der Raumzeit charakterisieren, sind gleichzeitig Potentiale des Gravitationsfeldes, d. h. sie bestimmen den Zustand des Gravitationsfeldes. Das Gravitationsfeld wird durch Einsteins nichtlineare Gleichungen beschrieben. In der Schwachfeldnäherung implizieren sie die Existenz von Gravitationswellen, die experimentell noch nicht nachgewiesen wurden (siehe Gravitationsstrahlung).

Gravitationskräfte sind die schwächsten Grundkräfte der Natur. Bei Protonen sind sie etwa 1036-mal schwächer als elektromagnetische. In der modernen Elementarteilchentheorie werden Gravitationskräfte nicht berücksichtigt, weil Sie glauben, dass sie keine bedeutende Rolle spielen. Die Rolle der Gravitationskräfte wird bei den Wechselwirkungen kosmisch großer Körper entscheidend; Sie bestimmen auch die Struktur und Entwicklung des Universums.

Einsteins Gravitationstheorie führte zu neuen Ideen über die Entwicklung des Universums. Mitte 20. A. A. Friedman fand eine instationäre Lösung für die Gravitationsfeldgleichungen, die dem expandierenden Universum entsprechen. Diese Schlussfolgerung wurde durch die Beobachtungen von E. Hubble bestätigt, der das Gesetz der Rotverschiebung für Galaxien entdeckte (was bedeutet, dass die Abstände zwischen Galaxien mit der Zeit zunehmen). DR. Ein Beispiel für die Vorhersage der Theorie ist die Möglichkeit einer unbegrenzten Kompression von Sternen ausreichend großer Masse (mehr als 2–3 Sonnenmassen) unter Bildung der sogenannten. "Schwarze Löcher". Es gibt bestimmte Hinweise (Beobachtungen von Doppelsternen – diskreten Röntgenquellen) auf die Existenz solcher Objekte.

Die Allgemeine Relativitätstheorie gehört ebenso wie die Quantenmechanik zu den großen Theorien des 20. Jahrhunderts. Alle bisherigen Theorien, einschließlich der speziellen Relativitätstheorie, werden üblicherweise als klassische Physik klassifiziert (manchmal wird die klassische Physik auch als gesamte Nichtquantenphysik bezeichnet).

Quantenmechanik

Der Zustand eines Mikroobjekts wird in der Quantenmechanik durch eine Wellenfunktion charakterisiert. Die Wellenfunktion hat eine statistische Bedeutung (Born, 1926): Sie stellt die Wahrscheinlichkeitsamplitude dar, d. h. das Quadrat ihres Moduls, ???2, ist die Wahrscheinlichkeitsdichte, ein Teilchen in einem bestimmten Zustand zu finden. In Koordinatendarstellung? = ?(x, y, z, t) und der Wert ???2?x?y?z bestimmt die Wahrscheinlichkeit, dass die Koordinaten des Teilchens zum Zeitpunkt t in einem kleinen Volumen?x?y?z in der Nähe des Punktes liegen mit den Koordinaten x, y, z. Die Entwicklung des Zustands eines Quantensystems wird mithilfe der Schrödinger-Gleichung eindeutig bestimmt.
Die Wellenfunktion liefert eine vollständige Beschreibung des Zustands. Wissen?, kann man die Wahrscheinlichkeit eines bestimmten Wertes einer physikalischen Größe, die sich auf ein Teilchen (oder ein Teilchensystem) bezieht, und die Durchschnittswerte aller dieser physikalischen Größen berechnen. Statistische Koordinaten- und Impulsverteilungen sind nicht unabhängig, woraus folgt, dass die Koordinate und der Impuls eines Teilchens nicht gleichzeitig exakte Werte haben können (Heisenberg-Unsicherheitsprinzip); ihre Streuungen hängen durch die Unschärferelation zusammen. Die Unschärferelation gilt auch für Energie und Zeit.

In der Quantenmechanik können der Drehimpuls, seine Projektion sowie die Energie bei Bewegung in einem begrenzten Raumbereich nur eine Reihe diskreter Werte annehmen. Mögliche Werte physikalischer Größen sind die Eigenwerte von Operatoren, die in der Quantenmechanik jeder physikalischen Größe zugeordnet sind. Eine physikalische Größe nimmt mit einer Wahrscheinlichkeit von eins nur dann einen bestimmten Wert an, wenn sich das System in einem Zustand befindet, der durch die Eigenfunktion des entsprechenden Operators dargestellt wird.
Die Quantenmechanik von Schrödinger-Heisenberg erfüllt nicht die Anforderungen der Relativitätstheorie, d. h. sie ist nicht relativistisch. Es ist anwendbar, um die Bewegung von Elementarteilchen und den Systemen, aus denen sie bestehen, mit Geschwindigkeiten zu beschreiben, die viel niedriger als die Lichtgeschwindigkeit sind.
Mit Hilfe der Quantenmechanik wurde die Theorie der Atome konstruiert, die chemische Bindung erklärt, einschließlich der Natur der kovalenten chemischen Bindung; Gleichzeitig wurde die Existenz einer spezifischen Austauschwechselwirkung entdeckt – ein reiner Quanteneffekt, der in der klassischen Physik kein Analogon hat. Austauschenergie spielt eine wichtige Rolle bei der Bildung kovalenter Bindungen sowohl in Molekülen als auch in Kristallen sowie in die Phänomene des Ferromagnetismus und Antiferromagnetismus. Diese Energie ist bei intranuklearen Wechselwirkungen wichtig.
Kernprozesse wie der β-Zerfall könnten nur durch den Quanteneffekt von Teilchen erklärt werden, die eine Potentialbarriere passieren (siehe Tunneleffekt).

Es wurde eine Quantentheorie der Streuung entwickelt (siehe Streuung von Mikropartikeln), die zu deutlich anderen Ergebnissen führte als die klassische Streutheorie. Insbesondere stellte sich heraus, dass bei Kollisionen langsamer Neutronen mit Kernen der Wechselwirkungsquerschnitt hunderte Male größer ist als die Querabmessungen der kollidierenden Teilchen. Dies ist für die Kernenergie von größter Bedeutung.

Auf der Grundlage der Quantenmechanik wurde eine Bandentheorie von Festkörpern konstruiert.

Aus der Quantentheorie der stimulierten Emission, die Einstein bereits 1917, in den 50er Jahren, entwickelte. Es entstand ein neuer Zweig der Radiophysik: Die Erzeugung und Verstärkung elektromagnetischer Wellen mithilfe von Quantensystemen wurde durchgeführt. N. G. Basov, A. M. Prokhorov und unabhängig C. Townes entwickelten einen Mikrowellen-Quantengenerator (Maser), der die stimulierte Emission angeregter Moleküle nutzte. In den 60er Jahren Es entstand ein Laser – ein Quantengenerator elektromagnetischer Wellen im sichtbaren Wellenlängenbereich (siehe Quantenelektronik).

Quantenstatistik

So wie auf der Grundlage der klassischen Bewegungsgesetze einzelner Teilchen eine Theorie des Verhaltens einer großen Sammlung von ihnen erstellt wurde – die klassische Statistik, wurde die Quantenstatistik auf der Grundlage der Quantengesetze der Bewegung von Teilchen erstellt. Letzteres beschreibt das Verhalten makroskopischer Objekte für den Fall, dass die klassische Mechanik nicht zur Beschreibung der Bewegung der Teilchen, aus denen sie bestehen, anwendbar ist. In diesem Fall manifestieren sich die Quanteneigenschaften von Mikroobjekten deutlich in den Eigenschaften makroskopischer Körper.

Der mathematische Apparat der Quantenstatistik unterscheidet sich erheblich vom Apparat der klassischen Statistik, da, wie oben erwähnt, einige physikalische Größen in der Quantenmechanik diskrete Werte annehmen können. Der Inhalt der statistischen Theorie der Gleichgewichtszustände selbst hat jedoch keine tiefgreifenden Veränderungen erfahren. In der Quantenstatistik, wie allgemein in der Quantentheorie von Systemen aus vielen Teilchen, spielt das Prinzip der Identität identischer Teilchen eine wichtige Rolle (siehe Identitätsprinzip). In der klassischen Statistik wird angenommen, dass die Umlagerung zweier identischer (gleicher) Teilchen den Zustand verändert. In der Quantenstatistik ändert sich der Zustand des Systems durch eine solche Umordnung nicht. Wenn Teilchen (oder Quasiteilchen) einen ganzzahligen Spin haben (sie werden Bosonen genannt), können sich beliebig viele Teilchen im gleichen Quantenzustand befinden. Systeme solcher Teilchen werden durch die Bose-Einstein-Statistik beschrieben. Für alle Teilchen (Quasiteilchen) mit halbzahligem Spin (Fermionen) gilt das Pauli-Prinzip, und Systeme dieser Teilchen werden durch die Fermi-Dirac-Statistik beschrieben.

Die Quantenstatistik ermöglichte es, den Satz von Nernst (den dritten Hauptsatz der Thermodynamik) zu untermauern – die Tendenz der Entropie gegen Null bei der absoluten Temperatur T? 0.

Die quantenstatistische Theorie der Gleichgewichtsprozesse ist in der gleichen vollständigen Form aufgebaut wie die klassische. Außerdem wurden die Grundlagen der quantenstatistischen Theorie von Nichtgleichgewichtsprozessen gelegt. Die Gleichung, die Nichtgleichgewichtsprozesse in einem Quantensystem beschreibt und als kinetische Grundgleichung bezeichnet wird, ermöglicht es im Prinzip, die zeitliche Änderung der Wahrscheinlichkeitsverteilung über die Quantenzustände des Systems zu verfolgen.

Quantenfeldtheorie (QFT)

Die nächste Stufe in der Entwicklung der Quantentheorie ist die Ausweitung der Quantenprinzipien auf Systeme. eine unendliche Anzahl von Freiheitsgraden (physikalische Felder) und eine Beschreibung der Entstehungs- und Transformationsprozesse von Teilchen – führten zur QFT, die die grundlegende Eigenschaft der Natur – Welle-Teilchen-Dualität – am besten widerspiegelt.

In der QFT werden Teilchen mithilfe quantisierter Felder beschrieben, bei denen es sich um eine Reihe von Operatoren für die Erzeugung und Absorption von Teilchen in verschiedenen Quantenzuständen handelt. Die Wechselwirkung quantisierter Felder führt zu verschiedenen Prozessen der Emission, Absorption und Umwandlung von Teilchen. Jeder Prozess in der QFT wird als die Zerstörung einiger Teilchen in bestimmten Zuständen und das Erscheinen anderer in neuen Zuständen betrachtet.

Ursprünglich wurde QFT in Bezug auf die Wechselwirkung von Elektronen, Positronen und Photonen (Quantenelektrodynamik) konstruiert. Die Wechselwirkung zwischen geladenen Teilchen erfolgt gemäß der Quantenelektrodynamik durch den Austausch von Photonen, und die elektrische Ladung des Teilchens ist eine Konstante, die den Zusammenhang zwischen dem Feld geladener Teilchen und dem elektromagnetischen Feld (Photonenfeld) charakterisiert.

Die der Quantenelektrodynamik zugrunde liegenden Ideen wurden 1934 von E. Fermi genutzt, um die Prozesse des Betazerfalls radioaktiver Atomkerne mithilfe einer neuen Art von Wechselwirkung zu beschreiben (die, wie sich später herausstellte, ein Sonderfall der sogenannten schwachen Wechselwirkungen ist). ). Beim Elektronen-Beta-Zerfall wandelt sich eines der Neutronen des Kerns in ein Proton um und gleichzeitig werden ein Elektron und ein Elektron-Antineutrino emittiert. Laut QFT kann ein solcher Prozess als Ergebnis der Kontaktwechselwirkung (Wechselwirkung an einem Punkt) quantisierter Felder dargestellt werden, die vier Teilchen mit Spin 1/2 entsprechen: Proton, Neutron, Elektron und Antineutrino (d. h. Wechselwirkung mit vier Fermionen).

Eine weitere fruchtbare Anwendung der Ideen der QFT war die Hypothese von H. Yukawa (1935) über die Existenz einer Wechselwirkung zwischen dem Feld der Nukleonen (Protonen und Neutronen) und dem Feld der Mesonen (damals experimentell noch nicht entdeckt). Kernkräfte zwischen Nukleonen entstehen dieser Hypothese zufolge durch den Austausch von Nukleonen durch Mesonen, und die Kurzreichweite der Kernkräfte wird durch das Vorhandensein einer relativ großen Ruhemasse in Mesonen erklärt. Mesonen mit vorhergesagten Eigenschaften (Pi-Mesonen) wurden 1947 entdeckt und ihre Wechselwirkung mit Nukleonen erwies sich als besondere Manifestation starker Wechselwirkungen.

QFT ist daher die Grundlage zur Beschreibung der elementaren Wechselwirkungen, die in der Natur existieren: elektromagnetische, starke und schwache. Darüber hinaus haben QFT-Methoden breite Anwendung in der Theorie von Festkörpern, Plasma und Atomkernen gefunden, da viele Prozesse in diesen Medien mit der Emission und Absorption verschiedener Arten elementarer Anregungen – Quasiteilchen (Phononen, Spinwellen usw.) – verbunden sind .).

Aufgrund der unendlichen Freiheitsgrade des Feldes führt die Wechselwirkung von Teilchen – Feldquanten – zu mathematischen Schwierigkeiten, die noch nicht vollständig überwunden sind. In der Theorie der elektromagnetischen Wechselwirkungen kann jedoch jedes Problem näherungsweise gelöst werden, weil Wechselwirkung kann als kleine Störung des freien Zustands von Teilchen betrachtet werden (aufgrund der Kleinheit der dimensionslosen Konstante? 1/137, die die Intensität elektromagnetischer Wechselwirkungen charakterisiert). Die Theorie aller Effekte in der Quantenelektrodynamik stimmt vollständig mit dem Experiment überein. Dennoch kann die Situation in dieser Theorie nicht als günstig angesehen werden, weil Für einige physikalische Größen (Masse, elektrische Ladung) ergeben Berechnungen mit der Störungstheorie unendliche Ausdrücke (Divergenzen). Sie sind ausgeschlossen, weil Renormierungstechnik, die darin besteht, unendlich große Werte für die Masse und Ladung eines Teilchens durch ihre beobachteten Werte zu ersetzen. Einen wesentlichen Beitrag zur Entwicklung der Quantenelektrodynamik leisteten (Ende der 40er Jahre) S. Tomonaga, R. Feynman und J. Schwinger.

Später versuchten sie, die in der Quantenelektrodynamik entwickelten Methoden zur Berechnung der Prozesse schwacher und starker (Kern-)Wechselwirkungen anzuwenden, stießen dabei jedoch auf eine Reihe von Problemen.

Schwache Wechselwirkungen sind allen Elementarteilchen außer dem Photon inhärent. Sie manifestieren sich im Zerfall der meisten Elementarteilchen und in einigen ihrer anderen Umwandlungen. Die Konstante schwacher Wechselwirkungen, die die Intensität der durch sie verursachten Prozesse bestimmt, steigt mit zunehmender Teilchenenergie.

Nach der experimentell festgestellten Tatsache der Nichterhaltung der räumlichen Parität bei schwachen Wechselwirkungsprozessen (1956) wurde die sogenannte eine universelle Theorie schwacher Wechselwirkungen, nahe der Fermi-Theorie des β-Zerfalls. Im Gegensatz zur Quantenelektrodynamik erlaubte diese Theorie jedoch keine Berechnung von Korrekturen in höheren Ordnungen der Störungstheorie, d. h. die Theorie erwies sich als nicht renormierbar. Ende der 60er Jahre. Es wurden Versuche unternommen, eine renormierbare Theorie schwacher Wechselwirkungen zu konstruieren. Der Erfolg wurde auf der Grundlage der sogenannten erzielt. Eichtheorien. Es wurde ein einheitliches Modell schwacher und elektromagnetischer Wechselwirkungen erstellt. In diesem Modell sollte es neben dem Photon – dem Träger elektromagnetischer Wechselwirkungen zwischen geladenen Teilchen – auch Träger schwacher Wechselwirkungen geben – die sogenannten. Zwischenvektorbosonen. Es wird angenommen, dass die Intensität der Wechselwirkungen intermediärer Bosonen mit anderen Teilchen die gleiche ist wie die von Photonen. Da der Radius schwacher Wechselwirkungen sehr klein ist (weniger als 10-15 cm), sollte die Masse der Zwischenbosonen nach den Gesetzen der Quantentheorie sehr groß sein: mehrere Dutzend Protonenmassen. Diese Partikel wurden experimentell noch nicht nachgewiesen. Es müssen sowohl geladene (W- und W+) als auch neutrale (Z0) Vektorbosonen existieren. Im Jahr 1973 wurden experimentell Prozesse beobachtet, die offenbar durch die Existenz neutraler Zwischenbosonen erklärt werden können. Die Gültigkeit der neuen einheitlichen Theorie elektromagnetischer und schwacher Wechselwirkungen kann jedoch nicht als bewiesen angesehen werden.

Die Schwierigkeiten bei der Erstellung einer Theorie starker Wechselwirkungen liegen darin begründet, dass störungstheoretische Methoden aufgrund der großen Kopplungskonstante hier nicht anwendbar sind. Aus diesem Grund und auch aufgrund des Vorhandenseins von enormem experimentellem Material, das eine theoretische Verallgemeinerung erfordert, basieren Methoden auf allgemeine Grundsätze Quantenfeldtheorie – relativistische Invarianz, Lokalität der Wechselwirkung (d. h. die Erfüllung der Kausalitätsbedingung; siehe Kausalitätsprinzip) usw. Dazu gehören die Methode der Dispersionsrelationen und die axiomatische Methode (siehe Quantenfeldtheorie). Der axiomatische Ansatz ist der grundlegendste, liefert jedoch noch nicht genügend konkrete Ergebnisse, die eine experimentelle Überprüfung ermöglichen. Die größten praktischen Erfolge in der Theorie starker Wechselwirkungen wurden durch die Anwendung von Symmetrieprinzipien erzielt.
Es werden Versuche unternommen, eine einheitliche Theorie der schwachen, elektromagnetischen und starken Wechselwirkungen zu konstruieren (ähnlich den Eichtheorien).

Symmetrieprinzipien und Erhaltungsgesetze

Physikalische Theorien ermöglichen es, anhand des Ausgangszustands eines Objekts dessen zukünftiges Verhalten zu bestimmen. Die Prinzipien der Symmetrie (oder Invarianz) sind allgemeiner Natur; alle physikalischen Theorien sind ihnen untergeordnet. Die Symmetrie der Gesetze von F. bezüglich einer bestimmten Transformation bedeutet, dass sich diese Gesetze bei der Durchführung dieser Transformation nicht ändern. Daher können die Prinzipien der Symmetrie auf der Grundlage bekannter physikalischer Wissenschaften aufgestellt werden. Gesetze. Wenn andererseits noch keine Theorie für physikalische Phänomene erstellt wurde, spielen experimentell entdeckte Symmetrien eine heuristische Rolle bei der Konstruktion der Theorie. Daher die besondere Bedeutung der experimentell festgestellten Symmetrien stark wechselwirkender Elementarteilchen – Hadronen, deren Theorie, wie bereits erwähnt, nicht aufgestellt wurde.

Es gibt allgemeine Symmetrien, die für alle physikalischen Gesetze und für alle Arten von Wechselwirkungen gelten, und ungefähre Symmetrien, die nur für einen bestimmten Bereich von Wechselwirkungen oder sogar für eine Art von Wechselwirkung gelten. Es gibt also eine Hierarchie der Symmetrieprinzipien. Symmetrien werden in Raum-Zeit- oder geometrische Symmetrien und innere Symmetrien unterteilt, die die spezifischen Eigenschaften von Elementarteilchen beschreiben. Erhaltungsgesetze sind mit Symmetrien verbunden. Für kontinuierliche Transformationen wurde dieser Zusammenhang 1918 von E. Noether auf der Grundlage der allgemeinsten Annahmen über den mathematischen Apparat der Theorie festgestellt (siehe Satz von Noether, Erhaltungssätze).

Die Symmetrien physikalischer Gesetze bezüglich der folgenden kontinuierlichen Raum-Zeit-Transformationen gelten für alle Arten von Wechselwirkungen: Verschiebung und Rotation des physikalischen Gesamtsystems im Raum, Verschiebung in der Zeit (Änderungen im Ursprung der Zeit). Die Invarianz (Unveränderlichkeit) aller physikalischen Gesetze in Bezug auf diese Transformationen spiegelt die Homogenität und Isotropie des Raums bzw. die Homogenität der Zeit wider. Mit diesen Symmetrien sind jeweils die Gesetze der Impuls-, Drehimpuls- und Energieerhaltung verbunden. Zu den allgemeinen Symmetrien gehört auch die Invarianz gegenüber Lorentztransformationen und Eichtransformationen (1. Art) – Multiplikation der Wellenfunktion mit der sogenannten. ein Phasenfaktor, der das Quadrat seines Moduls nicht ändert (letztere Symmetrie ist mit den Gesetzen der Erhaltung elektrischer, Baryonen- und Leptonladungen verbunden) und einige andere.
Es gibt auch Symmetrien, die diskreten Transformationen entsprechen: Vorzeichenwechsel der Zeit (siehe Zeitumkehr), räumliche Umkehrung (die sogenannte Spiegelsymmetrie der Natur), Ladungskonjugation. Basierend auf der ungefähren SU ​​(3)-Symmetrie (siehe Starke Wechselwirkungen) erstellte M. Gell-Man (1962) eine Taxonomie von Hadronen, die es ermöglichte, die Existenz mehrerer Elementarteilchen vorherzusagen, die später experimentell entdeckt wurden.

Die Systematik der Hadronen lässt sich erklären, wenn wir annehmen, dass alle Hadronen aus einer kleinen Anzahl (in der gebräuchlichsten Version drei) fundamentalen Teilchen – Quarks – und entsprechenden Antiteilchen – Antiquarks – „aufgebaut“ sind. Es gibt verschiedene Quarkmodelle von Hadronen, freie Quarks wurden jedoch bisher nicht experimentell nachgewiesen. In den Jahren 1975–76 wurden zwei neue stark wechselwirkende Teilchen (?1 und?2) mit Massen von mehr als dem Dreifachen der Masse eines Protons und einer Lebensdauer von 10–20 bzw. 10–21 Sekunden entdeckt. Eine Erklärung der Besonderheiten der Geburt und des Zerfalls dieser Teilchen erfordert offenbar die Einführung eines zusätzlichen, vierten Quarks, dem die Quantenzahl „Charm“ zugeordnet wird. Darüber hinaus gibt es nach modernen Vorstellungen jedes Quark in drei Varianten, die sich durch ein besonderes Merkmal – „Farbe“ – auszeichnen.

Die Fortschritte bei der Klassifizierung von Hadronen auf der Grundlage von Symmetrieprinzipien waren sehr groß, obwohl die Gründe für die Entstehung dieser Symmetrien nicht völlig klar sind; vielleicht sind sie tatsächlich auf die Existenz und Eigenschaften von Quarks zurückzuführen.

IV. Moderne Experimentalphysik

Zurück zu Beginn des 20. Jahrhunderts. Epochemachende Entdeckungen wie Rutherfords Entdeckung des Atomkerns konnten mit relativ einfacher Ausrüstung gemacht werden. Doch später wurde das Experiment sehr schnell komplizierter und die Versuchsanlagen begannen einen industriellen Charakter anzunehmen. Die Bedeutung der Mess- und Rechentechnik hat enorm zugenommen. Moderne experimentelle Forschung auf dem Gebiet der Kerne und Elementarteilchen, der Radioastronomie, der Quantenelektronik und der Festkörperphysik erfordert einen beispiellosen Umfang und einen beispiellosen Aufwand an Mitteln, die oft nur großen Staaten oder sogar Staatengruppen mit entwickelten Volkswirtschaften zur Verfügung stehen.

Eine große Rolle bei der Entwicklung der Kernphysik und der Physik der Elementarteilchen spielte die Entwicklung von Methoden zur Beobachtung und Aufzeichnung einzelner Transformationsvorgänge von Elementarteilchen (verursacht durch deren Kollisionen untereinander und mit Atomkernen) und die Entstehung von Beschleuniger für geladene Teilchen, die den Grundstein für die Entwicklung der Hochenergiephysik legten. Die Entdeckung des Prinzips der Autophasierung durch V. I. Vekslr (1944) und unabhängig davon durch E. M. Macmillan (1945) erhöhte die Grenze der erreichbaren Teilchenenergien um das Tausendfache. Kollidierende Strahlbeschleuniger haben die effektive Energie von Teilchenkollisionen deutlich erhöht. Es wurden hocheffiziente Zähler für geladene Teilchen entwickelt, deren Funktionsweise auf basiert verschiedene Prinzipien: Gasentladung, Szintillation, Cherenkov usw. Photomultiplier ermöglichen die Aufzeichnung einzelner Photonen. Die vollständigsten und genauesten Informationen über das Geschehen in der Mikrowelt erhält man mithilfe von Blasen- und Funkenkammern sowie dickschichtigen Fotoemulsionen, in denen Spuren (Spuren) fliegender geladener Teilchen direkt beobachtet werden können. Es wurden Detektoren gebaut, die eine Aufzeichnung ermöglichen seltene Ereignisse– Kollisionen von Neutrinos mit Atomkernen.

Eine wahre Revolution in der experimentellen Untersuchung der Wechselwirkungen von Elementarteilchen ist mit der Verwendung von Computern zur Verarbeitung von Informationen verbunden, die von Aufzeichnungsgeräten empfangen werden. Um unwahrscheinliche Vorgänge zu erfassen, müssen Zehntausende Spurenfotos analysiert werden. Dies manuell durchzuführen würde so viel Zeit in Anspruch nehmen, dass es fast unmöglich wäre, die benötigten Informationen zu erhalten. Dazu werden Bilder der Spuren mit speziellen Geräten in eine Reihe elektrischer Impulse umgewandelt und die weitere Analyse der Spuren mit einem Computer durchgeführt. Dadurch wird die Zeit zwischen dem Experiment und dem Erhalt der verarbeiteten Informationen erheblich verkürzt. In Funkenkammern erfolgt die Registrierung und Analyse der Partikelspuren automatisch über einen Computer direkt im Versuchsaufbau.

Die Bedeutung von Beschleunigern für geladene Teilchen wird durch die folgenden Umstände bestimmt. Je größer die Energie (Impuls) des Teilchens ist, desto kleiner (nach dem Unschärfeprinzip) sind die Größen von Objekten oder deren Teilen, die unterschieden werden können, wenn ein Teilchen mit einem Objekt kollidiert. Bis 1977 betrugen diese Mindestabmessungen 10–15 cm. Durch die Untersuchung der Streuung hochenergetischer Elektronen an Nukleonen war es möglich, Elemente der inneren Struktur von Nukleonen zu entdecken – die Verteilung der elektrischen Ladung und des magnetischen Moments innerhalb dieser Teilchen (die). sogenannte Formfaktoren). Die Streuung ultrahochenergetischer Elektronen an Nukleonen weist auf die Existenz mehrerer einzelner Formationen von ultrakleiner Größe, sogenannter Partonen, innerhalb der Nukleonen hin. Vielleicht sind Partonen hypothetische Quarks.

Ein weiterer Grund für das Interesse an hochenergetischen Teilchen ist die Entstehung neuer Teilchen mit zunehmender Masse bei Kollisionen mit einem Ziel. Insgesamt sind 34 stabile und quasistabile (d. h. aufgrund starker Wechselwirkungen nicht zerfallende) Teilchen (mit Antiteilchen) und mehr als zweihundert Resonanzen bekannt, von denen die überwiegende Mehrheit an Beschleunigern entdeckt wurde. Die Untersuchung der Streuung ultrahochenergetischer Teilchen soll dabei helfen, die Natur starker und schwacher Wechselwirkungen aufzuklären.

Es wurden verschiedene Arten von Kernreaktionen untersucht. Die Kollision relativistischer Kerne wurde erstmals am Beschleuniger des Joint Institute for Nuclear Research in Dubna durchgeführt. Die Synthese schreitet erfolgreich voran transuranische Elemente. Es wurden Antideuterium-, Antitritium- und Antiheliumkerne erhalten. Am Beschleuniger in Serpukhov wurde ein neues Muster starker Wechselwirkungen entdeckt – eine Vergrößerung des Gesamtquerschnitts für die Wechselwirkung von Hadronen sehr hoher Energie während ihrer Kollision mit zunehmender Kollisionsenergie (der sogenannte Serpukhov-Effekt).

Eine neue Richtung erhielt die Entwicklung der Radiophysik nach der Errichtung von Radarstationen im 2. Weltkrieg 1939–45. Radare haben breite Anwendung in der Luftfahrt, im Seeverkehr und in der Raumfahrt gefunden. Die Ortung von Himmelskörpern wurde durchgeführt: Mond, Venus und andere Planeten sowie die Sonne. Es wurden riesige Radioteleskope gebaut, die Strahlung von kosmischen Körpern mit einer spektralen Energieflussdichte von 10-26 erg/cm2?s?Hz einfangen. Die Informationen über Weltraumobjekte haben ins Unermessliche zugenommen. Radiosterne und Radiogalaxien mit starker Strahlung im Radiowellenbereich wurden entdeckt, und 1963 wurden die am weitesten von uns entfernten quasi-stellaren Objekte, Quasare, entdeckt.

Die Leuchtkraft von Quasaren ist hundertmal größer als die Leuchtkraft der hellsten Galaxien. Die Auflösung moderner Radioteleskope mit computergesteuerten mobilen Antennen erreicht eine Winkelsekunde (für Strahlung mit einer Wellenlänge von mehreren cm). Wenn Antennen über große Entfernungen (ca. 10.000 km) verteilt sind, wird eine noch höhere Auflösung erreicht (Hundertstel einer Bogensekunde).

Die Untersuchung der Radioemission von Himmelskörpern trug dazu bei, die Quellen der primären kosmischen Strahlung (Protonen, schwerere Atomkerne, Elektronen) zu ermitteln. Es stellte sich heraus, dass es sich bei diesen Quellen um Supernova-Explosionen handelte. CMB-Strahlung wurde entdeckt – Wärmestrahlung, die einer Temperatur von 2,7 K entspricht. 1967 wurden Pulsare entdeckt. – schnell rotierende Neutronensterne. Pulsare erzeugen gerichtete Strahlung im Radio-, sichtbaren und Röntgenbereich, deren Intensität sich aufgrund der Rotation der Sterne periodisch ändert.
Starts von Raumstationen spielten eine wichtige Rolle bei der Erforschung des erdnahen Weltraums und des Weltraums: Die Strahlungsgürtel der Erde wurden entdeckt, kosmische Quellen von Röntgenstrahlung und Strahlungsausbrüche wurden entdeckt (diese Arten von Strahlung werden von der Erde absorbiert). Atmosphäre und erreichen nicht deren Oberfläche).

Moderne radiophysikalische Methoden ermöglichen die Durchführung von Weltraumkommunikation über Entfernungen von Dutzenden und Hunderten Millionen Kilometern. Transferbedarf großes Volumen Informationen stimulierten die Entwicklung grundlegend neuer optischer Kommunikationsleitungen unter Verwendung von Glasfasern.

Bei der Messung der Schwingungsamplitude makroskopischer Körper wurde höchste Präzision erreicht. Mithilfe von Funktechnik und optischen Sensoren ist es möglich, mechanische Schwingungen mit einer Amplitude in der Größenordnung von 10–15 cm aufzuzeichnen (diese Grenze kann auf 10–16–10–19 cm erhöht werden).
Zur Untersuchung der Struktur von Kristallen und organischen Molekülen werden hochpräzise automatische Röntgen- und Neutronendiffraktometer eingesetzt, die die Zeit für die Entschlüsselung von Strukturen um das Hunderttausendfache verkürzt haben. Auch in Strukturstudien werden hochauflösende Elektronenmikroskope eingesetzt. Mit der Neutronographie lässt sich auch die magnetische Struktur von Festkörpern untersuchen.

Zur Untersuchung der Struktur und Verteilung der Elektronendichte in Materie werden die paramagnetische Elektronenresonanz (entdeckt von E. K. Zavoisky im Jahr 1944), die Kernspinresonanz (entdeckt von E. Purcell und F. Bloch im Jahr 1946) und der Mössbauer-Effekt (entdeckt von R. L. Mössbauer) untersucht ) werden 1958 erfolgreich eingesetzt). Die Untersuchung der Struktur von Atomen und Molekülen organischer und anorganischer Substanzen anhand ihrer Emissions- und Absorptionsspektren in einem breiten Frequenzbereich wird verbessert (einschließlich der Verwendung von Laserstrahlung; siehe Laserspektroskopie).
In der Hydroakustik wurde das Phänomen der Schallausbreitung über große Entfernungen in Meeren und Ozeanen – über Entfernungen von Tausenden von Kilometern – entdeckt und untersucht (die amerikanischen Wissenschaftler M. Ewing, J. Worzel, 1944 und unabhängig davon die sowjetischen Physiker L. M. Brekhovskikh, L. D. Rosenberg und al., 1946).

Im letzten Jahrzehnt wurden akustische Methoden zur Untersuchung von Festkörpern entwickelt, die auf der Verwendung von Ultraschall- und Hyperschallwellen (siehe Ultraschall, Hyperschall) sowie akustischen Oberflächenwellen basieren.

Die rasante Entwicklung der Halbleiterphysik hat die Funktechnik und Elektronik revolutioniert. Halbleitergeräte haben Vakuumröhren ersetzt. Funktechnische Geräte und Computer sind stark kleiner geworden und zuverlässiger geworden, ihr Stromverbrauch ist deutlich gesunken. Es sind integrierte Schaltkreise aufgetaucht, die Tausende oder mehr elektronische Elemente in einem kleinen (mehrere zehn mm2) Kristall vereinen. Der Prozess der konsequenten Mikrominiaturisierung radioelektronischer Geräte und Geräte führte zur Entstehung der sogenannten Ein-Kristalle. Mikroprozessoren, die Computerbetriebsfunktionen ausführen. Kleine Computer werden auf einem einzigen Chip hergestellt.

Computer sind zu einem festen Bestandteil der physikalischen Forschung geworden und werden sowohl zur Verarbeitung experimenteller Daten als auch für theoretische Berechnungen eingesetzt, insbesondere für solche, die aufgrund ihres enormen Arbeitsaufwands bisher nicht durchführbar waren.

Von großer Bedeutung sowohl für die Wissenschaft selbst als auch für praktische Anwendungen beschäftigt sich mit der Untersuchung von Materie unter extremen Bedingungen: bei sehr niedrigen oder sehr hohen Temperaturen, ultrahohem Druck oder tiefem Vakuum, ultrastarken Magnetfeldern usw.
In elektronischen Geräten und Beschleunigern werden Hoch- und Ultrahochvakuum erzeugt, um Kollisionen beschleunigter Teilchen mit Gasmolekülen zu vermeiden. Die Untersuchung der Eigenschaften von Oberflächen und dünnen Materieschichten im Ultrahochvakuum eröffnete einen neuen Zweig der Festkörperphysik. Diese Studien sind insbesondere im Zusammenhang mit der Weltraumforschung von großer Bedeutung.

V. Einige ungelöste Probleme der Physik

Teilchenphysik

Das grundlegendste Problem der Physik war und ist die Erforschung der Materie auf der tiefsten Ebene – der Ebene der Elementarteilchen. Zu den Wechselwirkungen und Transformationen von Elementarteilchen wurde eine große Menge experimentellen Materials gesammelt, eine theoretische Verallgemeinerung dieses Materials aus einem einheitlichen Blickwinkel war jedoch noch nicht möglich. Entweder fehlen die notwendigen Fakten, oder es gibt eine Idee, die Licht auf das Problem der Struktur und Wechselwirkung von Elementarteilchen werfen kann. Das Problem der theoretischen Bestimmung des Massenspektrums von Elementarteilchen bleibt ungelöst. Um dieses Problem zu lösen und Unendlichkeiten in der Quantenfeldtheorie zu eliminieren, ist es möglicherweise notwendig, eine grundlegende Länge einzuführen, die die Anwendbarkeit der üblichen Konzepte der Raumzeit als kontinuierliche Einheit einschränken würde. Bis zu Entfernungen in der Größenordnung von 10–15 cm und dementsprechend Zeiten t ~ l/c ~ 10–25 Sekunden scheinen die üblichen Raum-Zeit-Beziehungen gültig zu sein, bei kleineren Entfernungen können sie jedoch verletzt werden. Es wird versucht, die fundamentale Länge in die einheitliche Feldtheorie (Heisenberg et al.) und in verschiedene Versionen der Raum-Zeit-Quantisierung einzuführen. Bisher führten diese Versuche jedoch nicht zu greifbaren Ergebnissen.

Das Problem der Konstruktion einer Quantentheorie der Schwerkraft ist nicht gelöst. Die Möglichkeit, die vier grundlegenden Interaktionen zusammenzuführen, zeichnet sich gerade erst ab.

Astrophysik. Die Entwicklung der Physik der Elementarteilchen und des Atomkerns hat es ermöglicht, dem Verständnis so komplexer Probleme wie der Entwicklung des Universums in den frühen Entwicklungsstadien, der Entwicklung von Sternen und der Entstehung näher zu kommen chemische Elemente. Doch trotz der enormen Erfolge steht die moderne Astrophysik auch vor ungelösten Problemen. Es bleibt unklar, wie der Zustand der Materie angesichts der enormen Dichten und Drücke im Inneren von Sternen und „Schwarzen Löchern“ ist. Die physikalische Natur von Quasaren und Radiogalaxien, die Ursachen von Supernova-Explosionen und das Auftreten von Strahlungsausbrüchen sind nicht geklärt. Es ist nicht klar, warum Versuche, solare Neutrinos nachzuweisen, die bei thermonuklearen Reaktionen in den Tiefen der Sonne entstehen sollten, nicht zum Erfolg führten (siehe Neutrino-Astronomie). Der Mechanismus der Beschleunigung geladener Teilchen (kosmische Strahlung) bei Supernova-Explosionen und der Mechanismus der Emission elektromagnetischer Wellen durch Pulsare usw. sind noch nicht vollständig geklärt. Schließlich wurde erst der Anfang gemacht, um das Problem der Entwicklung des Universums als Ganzes zu lösen. Was geschah in den frühen Stadien der Entwicklung des Universums und was war sein zukünftiges Schicksal?

Wird die beobachtete Expansion des Universums jemals durch seine Kontraktion ersetzt? Auf all diese Fragen gibt es noch keine Antworten.

Es besteht kein Zweifel, dass die grundlegendsten Probleme der modernen Philosophie mit Elementarteilchen und dem Problem der Struktur und Entwicklung des Universums zusammenhängen. Hier müssen wir neue Gesetze des Verhaltens von Materie unter ungewöhnlichen Bedingungen entdecken – bei ultrakleinen Raum-Zeit-Abständen im Mikrokosmos und ultrahohen Dichten zu Beginn der Expansion des Universums. Alle anderen Probleme sind spezifischerer Natur und hängen mit der Suche nach Wegen zusammen effektiver Einsatz Grundgesetze, um beobachtete Phänomene zu erklären und neue vorherzusagen.
Physik des Kerns. Nach der Erstellung des Protonen-Neutronen-Modells des Kerns wurden große Fortschritte beim Verständnis der Struktur von Atomkernen erzielt und verschiedene Näherungskernmodelle erstellt. Es gibt jedoch keine konsistente Theorie des Atomkerns (ähnlich der Theorie der Atomhüllen), die es erlaubt, insbesondere die Bindungsenergie der Nukleonen im Kern und die Kernenergieniveaus zu berechnen. Ein Erfolg in dieser Richtung kann nur nach der Aufstellung einer Theorie starker Wechselwirkungen erzielt werden.

Die experimentelle Untersuchung der Wechselwirkung von Nukleonen im Kern – Kernkräfte – ist aufgrund der extremen Bedingungen mit sehr großen Schwierigkeiten verbunden komplexer Natur diese Kräfte. Sie hängen vom Abstand zwischen den Nukleonen, von der Geschwindigkeit der Nukleonen und der Ausrichtung ihrer Spins ab.
Von besonderem Interesse ist die Möglichkeit des experimentellen Nachweises langlebiger Elemente mit Ordnungszahlen um 114 und 126 (sogenannte Stabilitätsinseln), die theoretisch vorhergesagt werden.

Eines der wichtigsten Probleme, die F. lösen muss, ist das Problem der kontrollierten Kernfusion. In großem Maßstab werden experimentelle und theoretische Arbeiten durchgeführt, um heißes Deuterium-Tritium-Plasma zu erzeugen, das für eine thermonukleare Reaktion erforderlich ist. Sov. Anlagen vom Typ Tokamak sind in dieser Hinsicht offenbar die vielversprechendsten. Es gibt noch andere Möglichkeiten. Insbesondere Laserstrahlung, Elektronen- oder Ionenstrahlen, die in leistungsstarken Pulsbeschleunigern erzeugt werden, können zum Erhitzen von Körnern aus einer Mischung aus Deuterium und Tritium verwendet werden.

Quantenelektronik. Quantengeneratoren erzeugen elektromagnetische Strahlung, die in ihren Eigenschaften einzigartig ist. Laserstrahlung ist kohärent und kann in einem engen Spektralbereich eine enorme Leistung erreichen: 1012–1013 W, und die Divergenz des Lichtstrahls beträgt nur etwa 10-4 rad. Die elektrische Feldstärke der Laserstrahlung kann die intraatomare Feldstärke übersteigen.

Die Entwicklung von Lasern führte zur Entstehung und schnellen Entwicklung eines neuen Zweigs der Optik – der nichtlinearen Optik. Bei starker Laserstrahlung kommt es zu nichtlinearen Wechselwirkungseffekten Elektromagnetische Welle mit der Umwelt. Diese Effekte – Abstimmung der Strahlungsfrequenz, Selbstfokussierung des Strahls usw. – sind von großem theoretischen und praktischen Interesse.

Die nahezu strikte Monochromatizität der Laserstrahlung ermöglichte es, mithilfe von Welleninterferenz ein dreidimensionales Bild von Objekten (Holographie) zu erhalten.

Laserstrahlung wird zur Isotopentrennung, insbesondere zur Anreicherung von Uran mit dem 235U-Isotop, zum Verdampfen und Schweißen von Metallen im Vakuum, in der Medizin usw. eingesetzt. Es erscheint vielversprechend, mit Lasern Materie auf Temperaturen zu erhitzen, bei denen thermonukleare Reaktionen ablaufen können. Die Aufgabe besteht darin, nach neuen Anwendungen der Laserstrahlung zu suchen, beispielsweise für die Kommunikation im Weltraum.
Die zu lösenden Hauptprobleme sind eine weitere Leistungssteigerung und Erweiterung des Wellenlängenbereichs des Laserstrahls bei gleichmäßiger Frequenzabstimmung. Derzeit wird an der Entwicklung von Röntgen- und Gammalasern geforscht.

Festkörperphysik. Die Festkörperphysik spielt eine führende Rolle bei der Erforschung der Möglichkeiten zur Herstellung von Materialien mit extremen Eigenschaften in Bezug auf mechanische Festigkeit, Hitzebeständigkeit sowie elektrische, magnetische und optische Eigenschaften.
Seit den 70er Jahren 20. Jahrhundert Derzeit wird aktiv nach Nicht-Phonon-Mechanismen der Supraleitung gesucht. Die Lösung dieses Problems könnte die Herstellung von Hochtemperatur-Supraleitern ermöglichen. Dies wäre von großer Bedeutung für die Experimentalphysik und -technik, unter anderem für die Lösung des Problems, elektrische Energie über große Entfernungen nahezu verlustfrei zu übertragen.

Ein sehr interessantes Problem ist die Untersuchung der physikalischen Eigenschaften von festem und flüssigem Helium-3 bei extrem niedrigen Temperaturen (unter 3?10-3 K). Festes Helium-3 dürfte offenbar der einzige austauschbare nukleare Antiferromagnet sein. Flüssiges Helium-3 ist die einfachste Fermi-Flüssigkeit, deren Theorie ein wesentlicher Gegenstand der Quantenstatistik ist.
Von großem wissenschaftlichen und praktischen Interesse ist die Herstellung von metallischem Wasserstoff und die Untersuchung seiner physikalischen Eigenschaften. Es muss ein einzigartiges physisches Objekt sein, denn sein Gitter besteht aus Protonen. Es wird angenommen, dass metallischer Wasserstoff eine Reihe ungewöhnlicher Eigenschaften haben wird, deren Untersuchung zu grundlegend neuen Entdeckungen in der Physik führen kann. Am Institut für Hochdruckphysik der Akademie der Wissenschaften der UdSSR wurden die ersten Schritte in diese Richtung unternommen – Bei einer Temperatur von 4,2 K und einem Druck von etwa 1 Mbar wurde ein Übergang in den metallischen Zustand dünner Filme aus festem Wasserstoff entdeckt.
Neue Richtungen zur Untersuchung von Festkörpern mit akustischen Methoden werden entwickelt: Akustoelektronik (Wechselwirkung akustischer Wellen mit Elektronen in Halbleitern, Metallen und Supraleitern), akustische Kern- und paramagnetische Resonanzen, Bestimmung des Phononenspektrums und Dispersionskurven.
Es ist zu beachten, dass die Entwicklung traditioneller Bereiche der Festkörperphysik oft zu unerwarteten Entdeckungen neuer physikalischer Phänomene oder Materialien mit deutlich neuen Eigenschaften führt, wie zum Beispiel dem Josephson-Effekt, Halbleitern mit Heteroübergängen, Typ-2-Supraleitern, Quantenkristallen, Whiskern usw . .

Trotz der erzielten Fortschritte ist es notwendig, grundlegend neue physikalische Methoden zu entwickeln, um zuverlässigere und Miniatur-Halbleiterbauelemente zu erhalten (siehe Mikroelektronik, Funktionselektronik), Methoden zur Erzielung höherer Drücke, extrem niedriger Temperaturen usw.

Von großer Bedeutung ist das Studium der Physik von Polymeren mit ihren außergewöhnlichen mechanischen und thermodynamischen Eigenschaften, insbesondere von Biopolymeren, zu denen alle Proteine ​​gehören.

Plasmaphysik

Die Bedeutung der Plasmauntersuchung hängt mit zwei Umständen zusammen. Erstens befindet sich die überwiegende Mehrheit der Materie im Universum im Plasmazustand: Sterne und ihre Atmosphären, das interstellare Medium, Strahlungsgürtel und die Ionosphäre der Erde usw. Zweitens besteht eine echte Möglichkeit im Hochtemperaturplasma der kontrollierten Kernfusion.
Die Grundgleichungen zur Beschreibung von Plasma sind allgemein bekannt. Allerdings sind die Prozesse im Plasma so komplex, dass es sehr schwierig ist, sein Verhalten unter verschiedenen Bedingungen vorherzusagen. Das Hauptproblem der Plasmaphysik besteht darin, wirksame Methoden zu entwickeln, um Plasma auf eine Temperatur in der Größenordnung von 1 Milliarde Grad zu erhitzen und es in diesem Zustand (trotz verschiedener Arten von Instabilitäten, die Hochtemperaturplasma innewohnen) über einen ausreichenden Zeitraum zu halten thermonukleare Reaktion in größerem Maßstab ablaufen. Teile des Arbeitsvolumens. Die Lösung des Problems der Plasmastabilität spielt auch eine wichtige Rolle bei der Sicherstellung des Betriebs von Beschleunigern mit kollidierenden Strahlen und bei der Entwicklung der sogenannten. kollektive Methoden der Teilchenbeschleunigung.
Die Untersuchung der elektromagnetischen und korpuskulären Plasmastrahlung ist von entscheidender Bedeutung für die Erklärung der Beschleunigung geladener Teilchen bei Supernova-Explosionen, der Strahlung von Pulsaren usw.
Natürlich lassen sich die Probleme der modernen Philosophie nicht auf die aufgeführten reduzieren; Alle Abschnitte von F. haben ihre eigenen Probleme, und ihre Gesamtzahl ist so groß, dass sie hier nicht aufgeführt werden können.

VI. Die Verbindung der Physik mit anderen Wissenschaften und Technologien

Physik und Philosophie

Aufgrund der Allgemeingültigkeit und Breite ihrer Gesetze hat die Philosophie stets die Entwicklung der Philosophie beeinflusst und wurde selbst von ihr beeinflusst. Mit jeder neuen Entdeckung in den Naturwissenschaften muss der Materialismus laut F. Engels zwangsläufig seine Form ändern.
In den Errungenschaften der modernen Philosophie wird die höchste Form des Materialismus – der dialektische Materialismus – zunehmend bestätigt und konkretisiert. Beim Übergang zum Studium der Mikrowelt kommt das Gesetz der Dialektik – die Einheit der Gegensätze – besonders deutlich zum Ausdruck. Die Einheit des Diskontinuierlichen und des Kontinuierlichen spiegelt sich in der Welle-Teilchen-Dualität der Mikropartikel wider. Das Notwendige und das Zufällige stehen in einem untrennbaren Zusammenhang, der sich in der probabilistischen, statistischen Natur der Bewegungsgesetze von Mikropartikeln ausdrückt. Die vom Materialismus proklamierte Einheit der materiellen Welt manifestiert sich deutlich in den gegenseitigen Transformationen von Elementarteilchen – möglichen Existenzformen der physikalischen Materie. Eine korrekte philosophische Analyse ist besonders wichtig in revolutionären Epochen der philosophischen Entwicklung, in denen alte Ideen einer radikalen Revision unterliegen. Ein klassisches Beispiel für eine solche Analyse lieferte W. I. Lenin in dem Buch „Materialismus und Empiriokritizismus“. Nur ein Verständnis des Zusammenhangs zwischen absoluten und relativen Wahrheiten ermöglicht es, das Wesen revolutionärer Transformationen in der Philosophie richtig einzuschätzen und darin eine Bereicherung und Vertiefung unserer Vorstellungen von der Materie und die Weiterentwicklung des Materialismus zu sehen.

Physik und Mathematik. Physik ist eine quantitative Wissenschaft. Seine Grundgesetze werden in mathematischer Sprache formuliert, hauptsächlich unter Verwendung von Differentialgleichungen. Andererseits entstanden unter dem Einfluss von F. oft neue Ideen und Methoden in der Mathematik. Die Analysis der Infinitesimalzahlen wurde von Newton (gleichzeitig mit G.V. Leibniz) bei der Formulierung der Grundgesetze der Mechanik geschaffen. Die Entstehung der Theorie des elektromagnetischen Feldes führte zur Entwicklung der Vektoranalyse. Die Entwicklung von Zweigen der Mathematik wie der Tensorrechnung, der Riemannschen Geometrie, der Gruppentheorie usw. wurde durch neue physikalische Theorien angeregt: die allgemeine Relativitätstheorie und die Quantenmechanik. Die Entwicklung der Quantenfeldtheorie wirft neue Probleme der Funktionsanalyse usw. auf.

Physik und andere Naturwissenschaften. Die enge Verbindung der Physik mit anderen Zweigen der Naturwissenschaften führte laut S. I. Vavilov dazu, dass die Physik ihre tiefsten Wurzeln in der Astronomie, Geologie, Chemie, Biologie und anderen Naturwissenschaften hat. Es bildeten sich eine Reihe von Grenzdisziplinen heraus: Astrophysik, Geophysik, Biophysik, physikalische Chemie usw. Physikalische Forschungsmethoden wurden für alle Naturwissenschaften von entscheidender Bedeutung. Elektronenmikroskop steigerte die Fähigkeit, die Details von Objekten um mehrere Größenordnungen zu unterscheiden, und ermöglichte die Beobachtung einzelner Moleküle. Mit der Röntgenbeugungsanalyse werden nicht nur Kristalle, sondern auch komplexe biologische Strukturen untersucht. Sein wahrer Triumph war die Aufklärung der Struktur von DNA-Molekülen, die Teil der Chromosomen der Zellkerne aller lebenden Organismen sind und Träger des Vererbungscodes sind. Die mit der Entstehung der Molekularbiologie und Genetik verbundene Revolution in der Biologie wäre ohne F. undenkbar gewesen.

Die sogenannte Methode markierte Atome spielen eine große Rolle bei der Erforschung des Stoffwechsels in lebenden Organismen; Viele Probleme der Biologie, Physiologie und Medizin wurden mit ihrer Hilfe gelöst. Ultraschall wird in der Medizin zur Diagnose und Therapie eingesetzt.
Wie oben erwähnt, liegen der Theorie der chemischen Bindung die Gesetze der Quantenmechanik zugrunde. Mithilfe markierter Atome können Sie die Kinetik chemischer Reaktionen verfolgen. Mit physikalischen Methoden, zum Beispiel mit Myonenstrahlen, die an Beschleunigern erzeugt werden, ist es möglich, chemische Reaktionen durchzuführen, die unter normalen Bedingungen nicht ablaufen. Es werden strukturelle Analoga des Wasserstoffatoms verwendet - Positronium und Myonium, deren Existenz und Eigenschaften von Physikern nachgewiesen wurden. Mit Hilfe von Myonium ist es insbesondere möglich, die Geschwindigkeit schneller chemischer Reaktionen zu messen. (Siehe Myonen.)

Die Entwicklung der Elektronik ermöglicht es, Prozesse zu beobachten, die in einer Zeit von weniger als 10-12 Sekunden ablaufen. Es führte auch zu einer Revolution in der Astronomie – der Entstehung der Radioastronomie.
Die Ergebnisse und Methoden der Kernphysik werden in der Geologie genutzt; Mit ihrer Hilfe messen sie insbesondere das absolute Alter von Gesteinen und der Erde als Ganzes (siehe Geochronologie).

Physik und Technik

Die Physik bildet die Grundlage für die wichtigsten Bereiche der Technik. Elektrotechnik und Energietechnik, Funktechnik und Elektronik, Lichttechnik, Bautechnik, Wasserbau und ein bedeutender Teil der Militärtechnik wuchsen auf der Grundlage von F. Dank der bewussten Nutzung physikalischer Gesetze verlagerte sich die Technik aus dem Bereich der Zufallsfunde auf den breiten Weg der zielgerichteten Entwicklung. Wenn im 19. Jahrhundert. Zwischen der physikalischen Entdeckung und der ersten technischen Anwendung vergingen Dutzende Jahre, mittlerweile ist dieser Zeitraum auf mehrere Jahre verkürzt.

В свою очередь, развитие техники оказывает не менее существенное влияние на совершенствование экспериментальной Ф. Без развития электротехники, электроники, технологии производства очень прочных и лишённых примесей материалов было бы невозможно создание таких устройств, как ускорители заряженных частиц, огромные пузырьковые и искровые камеры, полупроводниковые приборы usw.
Das Aufkommen der Kernenergie ist mit großen Errungenschaften in der Kerntechnik verbunden. Schnelle Neutronen-Kernreaktoren können natürliches Uran und Thorium nutzen, deren Reserven groß sind. Die Umsetzung der kontrollierten Kernfusion wird die Menschheit fast für immer vor der Gefahr einer Energiekrise bewahren.

Die Technologie der Zukunft wird nicht auf vorgefertigten Naturmaterialien basieren, sondern hauptsächlich auf vorab hergestellten synthetischen Materialien gegebene Eigenschaften. Bei der Lösung dieses Problems spielt die Entstehung und Erforschung der Struktur der Materie eine entscheidende Rolle.
Die Entwicklung der Elektronik und die Schaffung fortschrittlicher Computer, die auf den Errungenschaften der Festkörperphysik basieren, haben die kreativen Fähigkeiten des Menschen unermesslich erweitert und auch zur Konstruktion „denkender“ Automaten geführt, die in der Lage sind, in Situationen, die die Verarbeitung erfordern, schnell Entscheidungen zu treffen große Mengen an Informationen.

Durch den Einsatz von Computern (Automatisierung von Produktion und Verwaltung) wird eine enorme Steigerung der Arbeitsproduktivität erreicht. Je komplexer die Volkswirtschaft wird, desto größer wird die Menge der verarbeiteten Informationen. Daher ist es sehr wichtig, Computer weiter zu verbessern – ihre Geschwindigkeit und Speicherkapazität zu erhöhen, die Zuverlässigkeit zu erhöhen, Größe und Kosten zu reduzieren. Diese Verbesserungen sind nur auf der Grundlage neuer Errungenschaften von F. möglich.
Die moderne Philosophie steht am Ursprung revolutionärer Veränderungen in allen Bereichen der Technologie. Es leistet einen entscheidenden Beitrag zur wissenschaftlichen und technischen Revolution.

Literatur

Geschichte und Methodologie der Wissenschaft. Engels F., Dialektik der Natur, M., 1975; Lenin V.I., Materialismus und Empiriokritizismus, Gesamtwerksammlung, 5. Auflage, Bd. 18; sein, Philosophical Notebooks, ibid., Bd. 29; Dorfman Ya. G., Weltgeschichte der Physik von der Antike bis zum Ende des 18. Jahrhunderts, M., 1974; Kudryavtsev P.S., History of Physics, Bd. 1–3, M., 1956–71; Laue M., Geschichte der Physik, trans. aus Deutsch, M., 1956; Llozzi M., Geschichte der Physik, trans. aus Italienisch, M., 1970; Markov M. A., Über die Natur der Materie, M., 1976.
Allgemeine Physik. Khaikin S.E., Physikalische Grundlagen der Mechanik, 2. Aufl., M., 1971; Strelkov S.P., Mechanics, 3. Aufl., M., 1975; Landsberg G.S., Optics, 5. Auflage, M., 1976; Kikoin A.K., Kikoin I.K., Molecular Physics, 2. Aufl., M., 1976; Kalashnikov S.G., Electricity, 3. Aufl., M., 1970; Gorelik G.S., Schwingungen und Wellen. Einführung in die Akustik, Radiophysik und Optik, 2. Aufl., M., 1959; Born M., Atomphysik, trans. aus dem Englischen, 3. Aufl., M., 1970; Shpolsky E.V., Atomic Physics, Bd. 1, 6. Aufl., Bd. 2, 4. Aufl., M., 1974; Feynman R., Layton R., Sands M., Feynman Lectures on Physics, trans. aus dem Englischen, V. 1–9, M., 1965–67; Berkeley Course in Physics, Bd. 1–5, trans. aus dem Englischen, M., 1971–74.
Theoretische Physik. Kurs der theoretischen Physik: Landau L.D., Lifshits E.M., Bd. 1, Mechanics, 3. Aufl., M., 1973; Bd. 2, Field Theory, 6. Auflage, M., 1973; Bd. 3, Quantenmechanik. Nichtrelativistische Theorie, 3. Aufl., M., 1974; Berestetsky V.B., Lifshits E.M., Pitaevsky L.P., Bd. 4, Teil 1, Relativistische Quantentheorie, M., 1968; Lifshits E.M., Pitaevsky L.P., Bd. 4, Teil 2, Relativistische Quantentheorie, M., 1971; Landau L.D., Lifshits E.M., Bd. 5, Teil 1, Statistical Physics, 3. Aufl., M., 1976; sie, Mechanics of Continuous Media, 2. Aufl., M., 1954; ihre. Elektrodynamik kontinuierlicher Medien, M., 1959; Goldstein G., Klassische Mechanik, trans. aus dem Englischen, 2. Aufl., M., 1975; Leontovich M.A., Einführung in die Thermodynamik, 2. Aufl., M. - L., 1952; sein, Statistical Physics, M. - L., 1944; Kubo R., Thermodynamik, trans. aus Englisch, M., 1970; sein, Statistische Mechanik, trans. aus Englisch, M., 1967; Tamm I.E., Grundlagen der Elektrizitätstheorie, 9. Auflage, M., 1976; Born M., Wolf E., Grundlagen der Optik, trans. aus dem Englischen, 2. Aufl., M., 1973; Davydov A.S., Quantenmechanik, 2. Aufl., M., 1973; Blokhintsev D.I., Fundamentals of Quantum Mechanics, 5. Auflage, M., 1976; Dirac P. A. M., Prinzipien der Quantenmechanik, trans. aus dem Englischen, M., 1960. Monographien. Abrikosov A. A., Einführung in die Theorie normaler Metalle, M., 1972; Andronov A. A., Witt A. A., Khaikin S. E., Theory of Oscillations, 2. Aufl., M., 1959; Artsimovich L. A., Kontrollierte thermonukleare Reaktionen, 2. Aufl., M., 1963; Akhiezer A.I., Quantum Electrodynamics, 1969; Bethe G., Sommerfeld A., Elektronische Theorie der Metalle, trans. aus Deutsch, L. - M., 1938; Blokhin M. A., Physik der Röntgenstrahlen, 2. Aufl., M., 1957; Bogolyubov N.N., Probleme der dynamischen Theorie in der statistischen Physik, M. - L., 1946; Bogolyubov N.N., Shirkov D.V., Einführung in die Theorie quantisierter Felder, 3. Aufl., M., 1976; Brillouin L., Wissenschafts- und Informationstheorie, trans. aus dem Englischen, M., 1960; Vonsovsky S.V., Magnetism, M., 1971; Gibbs J. V., Thermodynamische Arbeiten, trans. aus dem Englischen, M. - L., 1950; ihn, Grundprinzipien der statistischen Mechanik, trans. aus dem Englischen, M. - L., 1946; Ginzburg V.L., On Physics and Astrophysics, 2. Aufl., M., 1974; Anselm A.I., Einführung in die Theorie der Halbleiter, M. - L., 1962; Elyashevich M. A., Atom- und Molekularspektroskopie, M., 1962; Zeldovich Ya. B., Novikov I. D., Theorie der Gravitation und Entwicklung von Sternen, M., 1971; Zeldovich Ya. B., Raiser Yu. P., Physik von Stoßwellen und hydrodynamischen Phänomenen bei hoher Temperatur, 2. Aufl., M., 1966; Sommerfeld A., Atomstruktur und Spektren, trans. aus dem Deutschen, Bd. 1–2, M. , 1956; Zubarev D.N., Nonequilibrium Statistical Thermodynamics, M., 1971; Kapitsa P. L., Experiment, Theorie, Praxis, M., 1974; Carslow G., Eger D., Wärmeleitfähigkeit von Feststoffen, trans. aus Englisch, M., 1964; Kittel Ch., Einführung in die Festkörperphysik, trans. aus dem Englischen, 2. Aufl., M., 1962; Lorentz G. A., Die Theorie der Elektronen und ihre Anwendung auf die Phänomene Licht und Wärmestrahlung, trans. aus dem Englischen, 2. Aufl., M., 1956; Lukyanov S. Yu., Heißes Plasma und kontrollierte Kernfusion, M., 1975; Neumann I., von, Mathematische Grundlagen der Quantenmechanik, trans. aus Deutsch, M., 1964; Okun L. B., Schwache Wechselwirkung von Elementarteilchen, M., 1963; Skuchik E., Grundlagen der Akustik, trans. aus dem Englischen, Bd. 1–2, M., 1976; Strett J. W. (Lord Rayleigh), Theory of Sound, Bd. 1–2, 2. Aufl., M., 1955; Fok V.A., Theorie von Raum, Zeit und Schwerkraft, 2. Aufl., M., 1961; Frenkel Ya. I., Einführung in die Theorie der Metalle, 3. Aufl., M., 1958; Einstein A., Infeld L., Evolution of Physics, trans. aus dem Englischen, 3. Aufl., M., 1965. Enzyklopädien und Nachschlagewerke: Physical encyclopedic dictionary, Bd. 1–5, M, 1960–66; Encyclopaedic Dictionary of Physics (Hrsg. J. Thewlis), v. 1–9, Oxf. – New York, 1961–64; Yavorsky B. M., Detlaf A. A., Handbuch der Physik für Ingenieure und Universitätsstudenten, 6. Auflage, M., 1974.

A. M. Prochorow. Physik // Große sowjetische Enzyklopädie

Dabei wurden Zehntausende und Hunderttausende physikalische Experimente durchgeführt tausendjährige Geschichte Wissenschaften. Es ist nicht einfach, einige der „Besten“ auszuwählen, über die man sprechen kann. Was sollte das Auswahlkriterium sein?

Vor vier Jahren veröffentlichte die New York Times einen Artikel von Robert Creese und Stoney Book. Darin wurden die Ergebnisse einer Umfrage unter Physikern beschrieben. Jeder Befragte musste die zehn schönsten physikalischen Experimente in der Geschichte der Physik nennen. Das Kriterium Schönheit steht unserer Meinung nach anderen Kriterien in nichts nach. Daher werden wir über die Experimente sprechen, die gemäß den Ergebnissen der Kreese- und Book-Umfrage in die Top Ten aufgenommen wurden.

1. Experiment des Eratosthenes von Kyrene

Eines der ältesten bekannten physikalischen Experimente, bei dem der Erdradius gemessen wurde, wurde im 3. Jahrhundert v. Chr. vom Bibliothekar der berühmten Bibliothek von Alexandria, Erastothenes von Kyrene, durchgeführt.

Der Versuchsaufbau ist einfach. Am Mittag, am Tag der Sommersonnenwende, stand die Sonne in der Stadt Siena (heute Assuan) im Zenit und Objekte warfen keine Schatten. Am selben Tag und zur gleichen Zeit wich die Sonne in der 800 Kilometer von Siena entfernten Stadt Alexandria um etwa 7° vom Zenit ab. Dies entspricht etwa 1/50 eines Vollkreises (360°), was bedeutet, dass der Erdumfang 40.000 Kilometer und der Radius 6.300 Kilometer beträgt.

Es scheint fast unglaublich, dass der mit einer so einfachen Methode gemessene Erdradius nur 5 % kleiner war als der mit den genauesten modernen Methoden ermittelte Wert.

2. Galileo Galileis Experiment

Im 17. Jahrhundert war der vorherrschende Standpunkt Aristoteles, der lehrte, dass die Geschwindigkeit, mit der ein Körper fällt, von seiner Masse abhängt. Je schwerer der Körper, desto schneller fällt er. Beobachtungen, die jeder von uns machen kann Alltagsleben, scheint dies zu bestätigen.

Versuchen Sie, es gleichzeitig loszulassen leichte Hände ein Zahnstocher und ein schwerer Stein. Der Stein berührt schneller den Boden. Solche Beobachtungen führten Aristoteles zu der Schlussfolgerung über die grundlegende Eigenschaft der Kraft, mit der die Erde andere Körper anzieht. Tatsächlich wird die Fallgeschwindigkeit nicht nur durch die Schwerkraft, sondern auch durch die Kraft des Luftwiderstands beeinflusst. Das Verhältnis dieser Kräfte ist bei leichten und schweren Objekten unterschiedlich, was zu dem beobachteten Effekt führt. Der Italiener Galileo Galilei bezweifelte die Richtigkeit der Schlussfolgerungen des Aristoteles und fand einen Weg, sie zu überprüfen. Dazu warf er gleichzeitig eine Kanonenkugel und eine viel leichtere Musketenkugel vom Schiefen Turm von Pisa ab. Beide Körper hatten ungefähr das gleiche stromlinienförmige Form Daher waren die Luftwiderstandskräfte sowohl für den Kern als auch für das Geschoss im Vergleich zu den Anziehungskräften vernachlässigbar.

Galileo fand heraus, dass beide Objekte im selben Moment den Boden erreichen, das heißt, dass ihre Fallgeschwindigkeit gleich ist. Ergebnisse von Galileo. - eine Folge des Gesetzes der universellen Gravitation und des Gesetzes, nach dem die Beschleunigung, die ein Körper erfährt, direkt proportional zur auf ihn wirkenden Kraft und umgekehrt proportional zur Masse ist.

3. Ein weiteres Experiment von Galileo Galilei

Galilei maß die Distanz, die Kugeln, die auf einem geneigten Brett rollten, in gleichen Zeitintervallen zurücklegten, gemessen vom Autor des Experiments mit einer Wasseruhr. Der Wissenschaftler fand heraus, dass die Kugeln bei einer Verdoppelung der Zeit viermal weiter rollen würden. Dieser quadratische Zusammenhang bedeutete, dass sich die Kugeln unter dem Einfluss der Schwerkraft mit beschleunigter Geschwindigkeit bewegten, was der seit 2000 Jahren gültigen Behauptung des Aristoteles widersprach, dass sich Körper, auf die eine Kraft einwirkt, mit konstanter Geschwindigkeit bewegen, wenn keine Kraft ausgeübt wird zum Körper, dann ist er in Ruhe.

Die Ergebnisse dieses Experiments von Galileo sowie die Ergebnisse seines Experiments mit dem Schiefen Turm von Pisa dienten später als Grundlage für die Formulierung der Gesetze der klassischen Mechanik.

4. Henry Cavendishs Experiment

Nachdem Isaac Newton das Gesetz der universellen Gravitation formuliert hatte: Die Anziehungskraft zwischen zwei Körpern mit der Masse Mit, die durch einen Abstand r voneinander getrennt sind, ist gleich F=G(mM/r2), blieb es, den Wert von zu bestimmen Gravitationskonstante G. Dazu war es notwendig, die Kraftanziehung zwischen zwei Körpern mit bekannten Massen zu messen. Dies ist nicht so einfach, da die Anziehungskraft sehr gering ist.

Wir spüren die Schwerkraft der Erde. Aber es ist unmöglich, die Anziehungskraft selbst eines sehr großen Berges in der Nähe zu spüren, da er sehr schwach ist. Es war eine sehr subtile und sensible Methode erforderlich. Es wurde 1798 von Newtons Landsmann Henry Cavendish erfunden und verwendet. Er benutzte eine Torsionswaage – eine Wippe mit zwei Kugeln, die an einer sehr dünnen Schnur aufgehängt waren. Cavendish maß die Verschiebung des Kipphebels (Rotation), wenn sich andere Kugeln mit größerer Masse der Waage näherten.

Um die Empfindlichkeit zu erhöhen, wurde die Verschiebung durch Lichtpunkte bestimmt, die von an den Kippkugeln montierten Spiegeln reflektiert wurden. Als Ergebnis dieses Experiments konnte Cavendish den Wert der Gravitationskonstante recht genau bestimmen und erstmals die Masse der Erde berechnen.

5. Das Experiment von Jean Bernard Foucault

Der französische Physiker Jean Bernard Leon Foucault bewies 1851 experimentell die Rotation der Erde um ihre Achse mit einem 67 Meter langen Pendel, das an der Spitze der Kuppel des Pariser Pantheons aufgehängt war. Die Schwingebene des Pendels bleibt im Verhältnis zu den Sternen unverändert. Ein Beobachter, der sich auf der Erde befindet und mit ihr rotiert, sieht, dass sich die Rotationsebene langsam entgegen der Rotationsrichtung der Erde dreht.

6. Isaac Newtons Experiment

Im Jahr 1672 führte Isaac Newton ein einfaches Experiment durch, das in allen Schulbüchern beschrieben ist. Nachdem er die Fensterläden geschlossen hatte, machte er ein kleines Loch hinein, durch das ein Sonnenstrahl fiel. Im Strahlengang wurde ein Prisma platziert und hinter dem Prisma ein Schirm angebracht.

Auf dem Bildschirm beobachtete Newton einen „Regenbogen“: Ein weißer Sonnenstrahl, der durch ein Prisma fiel, verwandelte sich in mehrere farbige Strahlen – von violett bis rot. Dieses Phänomen wird Lichtstreuung genannt. Sir Isaac war nicht der Erste, der dieses Phänomen beobachtete. Bereits zu Beginn unserer Zeitrechnung war bekannt, dass große Einkristalle natürlichen Ursprungs die Eigenschaft haben, Licht in Farben zu zerlegen. Die ersten Studien zur Lichtstreuung in Experimenten mit einem dreieckigen Glasprisma wurden bereits vor Newton von dem Engländer Hariot und dem tschechischen Naturforscher Marzi durchgeführt.

Allerdings wurden solche Beobachtungen vor Newton keiner ernsthaften Analyse unterzogen und die daraus gezogenen Schlussfolgerungen wurden nicht durch zusätzliche Experimente überprüft. Sowohl Hariot als auch Marzi blieben Anhänger von Aristoteles, der argumentierte, dass Farbunterschiede durch Unterschiede in der Menge der mit weißem Licht „gemischten“ Dunkelheit bestimmt werden. Laut Aristoteles entsteht violette Farbe, wenn der größten Lichtmenge Dunkelheit hinzugefügt wird, und rote Farbe, wenn der geringsten Menge Dunkelheit hinzugefügt wird. Newton führte zusätzliche Experimente mit gekreuzten Prismen durch, bei denen Licht, das durch ein Prisma gelangte, dann durch ein anderes gelangte. Basierend auf der Gesamtheit seiner Experimente kam er zu dem Schluss, dass „aus der Mischung von Weiß und Schwarz keine Farbe entsteht, außer den mitteldunklen; die Lichtmenge verändert das Erscheinungsbild der Farbe nicht.“ Er zeigte, dass weißes Licht als eine Verbindung betrachtet werden sollte. Die Hauptfarben reichen von Lila bis Rot. Dieses Newton-Experiment ist ein bemerkenswertes Beispiel dafür, wie verschiedene Menschen, die dasselbe Phänomen beobachten, es auf unterschiedliche Weise interpretieren und nur diejenigen, die ihre Interpretation in Frage stellen und zusätzliche Experimente durchführen, zu den richtigen Schlussfolgerungen kommen.

7. Thomas Youngs Experiment

Bis zum Beginn des 19. Jahrhunderts herrschten Vorstellungen über die Korpuskularität des Lichts vor. Man ging davon aus, dass Licht aus einzelnen Teilchen – Korpuskeln – besteht. Obwohl die Phänomene der Beugung und Interferenz des Lichts von Newton beobachtet wurden („Newtonsche Ringe“), blieb die allgemein akzeptierte Sichtweise korpuskular. Wenn man die Wellen auf der Wasseroberfläche zweier geworfener Steine ​​​​betrachtet, kann man sehen, wie sich die Wellen überlappen, also gegenseitig aufheben oder verstärken können. Darauf aufbauend führte der englische Physiker und Arzt Thomas Young 1801 Experimente mit einem Lichtstrahl durch, der durch zwei Löcher in einem undurchsichtigen Schirm ging und so zwei unabhängige Lichtquellen bildete, ähnlich wie zwei ins Wasser geworfene Steine. Als Ergebnis beobachtete er ein Interferenzmuster aus abwechselnd dunklen und weißen Streifen, das nicht entstehen könnte, wenn Licht aus Teilchen bestünde. Die dunklen Streifen entsprachen Bereichen, in denen sich die Lichtwellen der beiden Schlitze gegenseitig aufhoben. Lichtstreifen entstanden dort, wo sich Lichtwellen gegenseitig verstärkten. Damit wurde die Wellennatur des Lichts bewiesen.

8. Klaus Jonssons Experiment

Der deutsche Physiker Klaus Jonsson führte 1961 ein Experiment durch, das dem Experiment von Thomas Young zur Lichtinterferenz ähnelte. Der Unterschied bestand darin, dass Jonsson anstelle von Lichtstrahlen Elektronenstrahlen verwendete. Er erhielt ein Interferenzmuster, das dem ähnelte, was Young für Lichtwellen beobachtete. Dies bestätigte die Richtigkeit der Bestimmungen der Quantenmechanik über die gemischte Korpuskularwellennatur von Elementarteilchen.

9. Robert Millikans Experiment

Die Idee, dass die elektrische Ladung eines Körpers diskret ist (d. h. aus einer größeren oder kleineren Menge von Elementarladungen besteht, die keiner Fragmentierung mehr unterliegen), entstand zu Beginn des 19. Jahrhunderts und wurde von berühmten Physikern wie M . Faraday und G. Helmholtz. Der Begriff „Elektron“ wurde in die Theorie eingeführt und bezeichnet ein bestimmtes Teilchen – den Träger einer elementaren elektrischen Ladung. Allerdings war dieser Begriff damals rein formal, da weder das Teilchen selbst noch die damit verbundene elementare elektrische Ladung experimentell entdeckt worden waren.

Im Jahr 1895 entdeckte K. Röntgen bei Experimenten mit einer Entladungsröhre, dass ihre Anode unter dem Einfluss der von der Kathode ausgehenden Strahlen in der Lage war, eigene Röntgenstrahlen oder Röntgenstrahlen zu emittieren. Im selben Jahr bewies der französische Physiker J. Perrin experimentell, dass Kathodenstrahlen ein Strom negativ geladener Teilchen sind. Trotz des kolossalen experimentellen Materials blieb das Elektron ein hypothetisches Teilchen, da es kein einziges Experiment gab, an dem einzelne Elektronen beteiligt gewesen wären. Der amerikanische Physiker Robert Millikan entwickelte eine Methode, die zu einem klassischen Beispiel für ein elegantes physikalisches Experiment geworden ist.

Millikan gelang es, mehrere geladene Wassertröpfchen im Raum zwischen den Platten eines Kondensators zu isolieren. Durch die Beleuchtung mit Röntgenstrahlen gelang es, die Luft zwischen den Platten leicht zu ionisieren und die Ladung der Tröpfchen zu verändern. Wenn das Feld zwischen den Platten eingeschaltet wurde, bewegte sich das Tröpfchen unter dem Einfluss elektrischer Anziehung langsam nach oben. Als das Feld abgeschaltet wurde, fiel es unter dem Einfluss der Schwerkraft. Durch Ein- und Ausschalten des Feldes war es möglich, jeden der zwischen den Platten schwebenden Tröpfchen 45 Sekunden lang zu untersuchen, bevor sie verdampften. Bis 1909 konnte festgestellt werden, dass die Ladung jedes Tröpfchens immer ein ganzzahliges Vielfaches des Grundwertes e (Elektronenladung) war. Dies war ein überzeugender Beweis dafür, dass Elektronen Teilchen mit derselben Ladung und Masse waren. Indem er Wassertröpfchen durch Öltröpfchen ersetzte, konnte Millikan die Beobachtungsdauer auf 4,5 Stunden verlängern und veröffentlichte 1913, nachdem er mögliche Fehlerquellen nacheinander beseitigt hatte, den ersten gemessenen Wert der Elektronenladung: e = (4,774). ± 0,009) x 10-10 elektrostatische Einheiten.

10. Ernst Rutherfords Experiment

Zu Beginn des 20. Jahrhunderts wurde klar, dass Atome aus negativ geladenen Elektronen und dergleichen bestehen positive Ladung, wodurch das Atom im Allgemeinen neutral bleibt. Allerdings gab es zu viele Annahmen darüber, wie dieses „Positiv-Negativ“-System aussieht, während es offensichtlich an experimentellen Daten mangelte, die eine Entscheidung für das eine oder andere Modell ermöglichen würden.

Die meisten Physiker akzeptierten das Modell von J.J. Thomson: ein Atom als gleichmäßig geladene positive Kugel mit einem Durchmesser von etwa 10-8 cm, in der negative Elektronen schweben. Im Jahr 1909 führte Ernst Rutherford (unterstützt von Hans Geiger und Ernst Marsden) ein Experiment durch, um die tatsächliche Struktur des Atoms zu verstehen. In diesem Experiment passierten schwere positiv geladene Alphateilchen, die sich mit einer Geschwindigkeit von 20 km/s bewegten, eine dünne Goldfolie und wurden an Goldatomen gestreut, wobei sie von der ursprünglichen Bewegungsrichtung abwichen. Um den Grad der Abweichung zu bestimmen, mussten Geiger und Marsden mit einem Mikroskop die Blitze auf der Szintillatorplatte beobachten, die dort auftraten, wo das Alphateilchen auf die Platte traf. Im Laufe von zwei Jahren wurden etwa eine Million Flares gezählt und nachgewiesen, dass etwa eins von 8000 Teilchen durch Streuung seine Bewegungsrichtung um mehr als 90° ändert (also umkehrt). Dies könnte in Thomsons „losem“ Atom unmöglich passieren. Die Ergebnisse stützten eindeutig das sogenannte Planetenmodell des Atoms – ein massiver winziger Kern mit einer Größe von etwa 10–13 cm und Elektronen, die in einem Abstand von etwa 10–8 cm um diesen Kern rotieren.