Was Experimentalphysiker am CERN machen. Weißrussisch über die Arbeit am Large Hadron Collider

[[K: Wikipedia: Artikel ohne Quellen (Land: Lua-Fehler: callParserFunction: Funktion "#property" wurde nicht gefunden. )]] [[K: Wikipedia: Artikel ohne Quellen (Land: Lua-Fehler: callParserFunction: Funktion "#property" wurde nicht gefunden. )]]

Experimentelle Physik- eine Art, die Natur zu kennen, die im Studium von Naturphänomenen unter speziell vorbereiteten Bedingungen besteht. Im Gegensatz zur theoretischen Physik, die mathematische Modelle der Natur erforscht, ist die experimentelle Physik darauf ausgelegt, die Natur selbst zu untersuchen.

Die Nichtübereinstimmung mit dem Ergebnis des Experiments ist das Kriterium für den Irrtum der physikalischen Theorie, genauer gesagt für die Unanwendbarkeit der Theorie auf unsere Welt. Das Umgekehrte gilt nicht: Die Übereinstimmung mit dem Experiment kann kein Beweis für die Richtigkeit (Anwendbarkeit) einer Theorie sein. Das heißt, das Hauptkriterium für die Durchführbarkeit einer physikalischen Theorie ist die Verifikation durch Experimente.

Diese nun offensichtliche Rolle des Experiments wurde erst Galilei und späteren Forschern bewusst, die auf der Grundlage von Beobachtungen des Verhaltens von Objekten unter besonderen Bedingungen Rückschlüsse auf die Eigenschaften der Welt zogen, also Experimente anstellten. Beachten Sie, dass dies beispielsweise dem Ansatz der alten Griechen völlig entgegengesetzt ist: Die Quelle des wahren Wissens über den Aufbau der Welt schien ihnen nur das Denken, und die "sinnliche Erfahrung" wurde als Gegenstand zahlreicher Täuschungen und Unsicherheiten angesehen, und konnte daher nicht behaupten, wahres Wissen zu sein.

Idealerweise sollte die Experimentalphysik nur Bezeichnung Versuchsergebnisse, ohne irgendwelche Interpretationen... In der Praxis ist dies jedoch unerreichbar. Die Interpretation der Ergebnisse eines mehr oder weniger komplexen Experiments hängt unweigerlich davon ab, dass wir wissen, wie sich alle Elemente des Versuchsaufbaus verhalten. Dieses Verständnis wiederum kann sich auf keine Theorie stützen. Somit können Experimente in der Beschleunigerphysik von Elementarteilchen - einer der schwierigsten in der gesamten Experimentalphysik - als echte Untersuchung der Eigenschaften von Elementarteilchen erst nach den mechanischen und elastischen Eigenschaften aller Elemente des Detektors, ihrer Reaktion auf elektrische und magnetische Felder, Eigenschaften von Restgasen in einer Vakuumkammer, elektrische Feldverteilung und Ionendrift in Proportionalkammern, Prozesse der Materie-Ionisation, etc. 1

Schreiben Sie eine Rezension zum Artikel "Experimentelle Physik"

Auszug zur Charakterisierung der Experimentalphysik

Damals wusste ich noch nichts vom klinischen Tod oder von den leuchtenden Tunneln, die dabei auftauchten. Aber was als nächstes geschah, war all diesen Geschichten über klinische Todesfälle sehr ähnlich, die ich viel später in verschiedenen Büchern lesen konnte, die bereits im fernen Amerika lebten ...
Ich hatte das Gefühl, dass meine Lungen einfach platzen würden und ich wahrscheinlich sterben würde, wenn ich jetzt keine Luft einatme. Es wurde sehr beängstigend, es wurde dunkel in meinen Augen. Plötzlich blitzte ein heller Blitz in meinem Kopf auf, und alle Gefühle verschwanden irgendwo ... Ein blendend heller, transparenter blauer Tunnel erschien, als wäre alles aus den kleinsten sich bewegenden silbernen Sternen gewoben. Ich schwebte leise in ihm, fühlte weder Erstickung noch Schmerzen, wunderte mich nur innerlich über das außergewöhnliche Gefühl des absoluten Glücks, als hätte ich endlich den Ort meines lang ersehnten Traums gefunden. Es war sehr ruhig und gut. Alle Geräusche verschwanden, ich wollte mich nicht bewegen. Der Körper wurde sehr leicht, fast schwerelos. Höchstwahrscheinlich lag ich in diesem Moment nur im Sterben ...
Ich sah einige sehr schöne, leuchtende, durchsichtige menschliche Gestalten, die sich mir langsam und sanft durch den Tunnel näherten. Alle lächelten warm, als riefen sie zu ihnen ... ich griff schon nach ihnen ... als plötzlich von irgendwoher eine riesige leuchtende Hand auftauchte, die mich von unten packte und wie ein Sandkorn schnell anfing an die Oberfläche steigen. Das Gehirn explodierte von wogenden scharfen Geräuschen, als ob in meinem Kopf plötzlich eine schützende Trennwand geplatzt wäre ... Vernunft wurden von mir jetzt viel heller wahrgenommen, als es mir bekannt war.
Es gab eine echte Panik am Ufer ... Benachbarte Jungen, die etwas riefen, winkten ausdrucksvoll mit den Händen und zeigten in meine Richtung. Jemand hat versucht, mich an Land zu ziehen. Und dann schwamm alles, wirbelte in irgendeinem verrückten Strudel, und mein armes, überanstrengtes Bewusstsein schwebte in völliger Stille davon ... Als ich nach und nach "das Bewusstsein wiedererlangte", standen die Jungs mit weit aufgerissenen Augen vor Entsetzen um mich herum, und alle zusammen erinnerten irgendwie an die gleich erschrockene Eulen ... Es war offensichtlich, dass sie die ganze Zeit fast in einem richtigen Panikschock waren und anscheinend mental schon Zeit hatten, mich zu "begraben". Ich habe versucht, ein Lächeln vorzutäuschen und ersticke immer noch an einem warmen Flusswasser, erzwang mühsam heraus, dass bei mir alles in Ordnung sei, obwohl ich in diesem Moment natürlich nicht in Ordnung war.

Zu viele Bücher? Sie können Bücher auf Anfrage "Experimental Physics" klären (die Anzahl der Bücher für diese Spezifikation ist in Klammern angegeben)

Anzeigestil umschalten:

Molekulare Theorie der Adsorption in porösen Körpern

Abwesend

Prozesse in porösen Körpern bilden die Grundlage vieler traditioneller und moderne Technologien: katalytisch, Sorption, Membran, elektrochemisch, chromatographisch, Reinigung und Trennung von Flüssigkeits- und Gasgemischen, Kapillarkondensation und Desorption, Mehrphasenfiltration und Sprühen, Benetzung ...

Abwesend

Die Monographie präsentiert die verallgemeinerten Ergebnisse theoretischer und experimenteller Untersuchungen zur Wechselwirkung von Laserstrahlung mit Metallen beim Laserschneiden von Blechen. Auf die Konstruktion physikalischer und mathematischer Modelle wird unter Berücksichtigung der Vielfalt thermophysikalischer Prozesse, der Haupt- und ...

Abwesend

Theoretische und angewandte Fragen der Aerodynamik von Flugzeugen werden vorgestellt. Es werden Informationen aus der Kinematik und Dynamik von Gasen gegeben; die Grundgleichungen der Aerodynamik, analytische und numerische Methoden zur Berechnung von Wirbel-, Potential-, Flächen-, Raum- und viskosen Strömungen werden angegeben. Theorien mit ...

Abwesend

Das Buch enthält Aufgaben und Lösungsmöglichkeiten der II. Internationalen Olympiade in Experimentalphysik, die vom 27. November bis 7. Dezember 2014 auf der Grundlage des LaKindergesundheits- und Bildungszentrum "Team" stattfand. Die Olympiade wurde für Schüler der Klassen 8-11 ausgetragen, umfasste drei Runden, für jede ...

Abwesend

Die Monographie widmet sich einer systematischen Darstellung der Grundlagen der Physik fluktuierender elektromagnetischer Felder fester Festkörper und deren Zusammenhang mit fundamentalen Phänomenen in der Natur. Moderne theoretische Modelle thermischer Felder und verschiedene Arten der Beschreibung ihrer Korrelationseigenschaften werden aus einer einheitlichen Position präsentiert. H ...

Abwesend

Das Buch widmet sich dem Problem der Phasenumwandlungen in Festkörpern bei hohem Druck (HP). Folgende Aspekte werden berücksichtigt: Phasengleichgewichte bei hohem Druck in Elementen (Kohlenstoff, Silizium, Germanium, Titan, Zirkonium, Eisen, Gallium, Cer), in Verbindungen I VII II VI III V Typ A B; A B; A B, in Alu auf Achse ...

Abwesend

Die Monographie untersucht symmetrische und asymmetrische getrennte Strömungen und ihre Umlagerung in der Nähe von Körperpaaren unterschiedlicher Form in einem weiten Bereich von Mach- und Reynolds-Zahlen. Es wird eine Analyse von unstetigen getrennten Strömungen in der Nähe verschiedener Körper (Kugel, Stumpf, Kegel) gegeben, vor denen ein nicht rotierender oder rotierender Körper installiert ist ...

Abwesend

Die Monographie präsentiert die Ergebnisse experimenteller Untersuchungen zur Erzeugung von gepulsten Elektronen- und Ionenstrahlen mit Gigawatt-Leistung in Dioden mit einer explosionsfähigen Kathode unter Bedingungen einer schnellen Plasmabildung auf der gesamten Arbeitsfläche der Kathode. Das wichtigste physikalische Prozesse NS…

Abwesend

Die Hauptmerkmale der gestreuten und intrinsischen radiothermischen Strahlung natürlicher Umgebungen werden berücksichtigt. Die Analyse von elektrodynamischen Modellen verschiedener Oberflächen der Erde und der sie umgebenden Atmosphäre wird gegeben. Modelle funktechnischer Signale und deren statistische Eigenschaften im Bereich der Registrierung eines ...

Das Buch enthält Beschreibungen pädagogischer experimenteller Studien zum Phänomen der Totalreflexion an der Grenze optisch homogener und geschichteter inhomogener Medien. Es werden einfache physikalische Geräte und Modelle vorgeschlagen. Gilt als unterhaltsame und lehrreiche Erfahrungen. Alle Experimente sind verfügbar und können ...

Abwesend

Der Beitrag fasst die Ergebnisse von Studien zum Elektretzustand anorganischer und organischer Oxidverbindungen zusammen, betrachtet den Einfluss des Elektretzustands auf die Entwicklung der ferroelektrischen Polarisation und die elektrophysikalischen Eigenschaften von Ferroelektrika. Betrachtet die Fragen der praktischen Anwendung ...

Abwesend

Die wichtigsten Methoden zur Berechnung der Dichteverteilung von Molekularflüssen über die Oberflächen von Vakuumanlagen werden vorgestellt. Die wichtigsten Methoden zur Modellierung von Vakuumbedingungen mit einer gegebenen Dichte von molekularen Flüssen werden untersucht. Anhand von Beispielen wird die Berechnung der Verteilung der Dichte von Molekularflüssen nach p ...

Abwesend

Das Buch fasst die Ergebnisse einer theoretischen Untersuchung der Beschleunigung von Elektronen in den klassischen kreisförmigen und geteilten Mikrotronen, die Ergebnisse von Experimenten zur Überprüfung theoretischer Schlussfolgerungen und zur Untersuchung der Eigenschaften von im Mikrotron beschleunigten Elektronen zusammen. Möglichkeiten zur Verwendung von microtron werden in Betracht gezogen ...

Abwesend

Die Ergebnisse experimenteller und theoretischer Untersuchungen gasdynamischer Prozesse in Kanälen werden vorgestellt. Die Untersuchung der Prozesse getrennter Strömungen ermöglichte es, die wichtigsten Gesetzmäßigkeiten aufzudecken, die Ähnlichkeitsparameter zu bestimmen und auf dieser Grundlage ungefähre theoretische Modelle dieser komplexesten ...

Abwesend

Das Handbuch behandelt Fragen zu den Grundlagen der Quantentheorie, Besonderheiten von Quantenobjekten und Präzisionsmessungen bei Interferenz dritter Ordnung und Eigenwirkung von Licht in Medien mit kubischer Nichtlinearität. Parametrische Lichtstreuung in Quanten- und ...

Abwesend

Es werden die Grundlagen der Theorie der Kompressibilität kondensierter Medien, der Aufbau und die Charakteristiken der Explosiv- und Stoßbelastungstechnik, die Funktionsprinzipien von Mess- und Registriergeräten für gasdynamische Experimente mit kondensierten Stoffen vorgestellt. Algorithmen zum Finden von Merkmalen ...

Abwesend

Es werden verschiedene Klassen von inversen Problemen der Mechanik eines verformbaren Festkörpers betrachtet - retrospektiv, Rand, Koeffizient, geometrisch, in denen die Koeffizienten von Differentialoperatoren, Anfangsbedingungen, Gran ...

Abwesend

Die Monographie fasst die Forschungsergebnisse des Autors auf dem Gebiet der Aerodynamik von Propellern und Propellerpropellern zusammen. Berücksichtigt werden die Eigenschaften von einreihigen, koaxialen, zweireihigen Propellern mit unterschiedlichen Blattzahlen in einem profilierten Ring und ohne Ring. Die Eigenschaften der Luft ...

Abwesend

Es werden physikalische, mathematische und numerische Modelle der Wechselwirkung von Strömen aus kollisions- und kollisionsfreiem Plasma mit in sie eingebrachten Körpern betrachtet. Umfangreiche Rechenexperimente wurden durchgeführt, wodurch die Verteilungsfunktionen geladener Teilchen im frontalen, lateralen und ...

Abwesend

Das Hauptmerkmal des Lehrbuchs ist das mehrstufige Konzept, die wichtigsten experimentellen Fakten und Grundlagen der Theorie physikalischer Phänomene unter Berücksichtigung moderner wissenschaftlicher Errungenschaften darzustellen. Das Buch enthält folgende Hauptabschnitte: Elektromagnetische Theorie des Lichts, Lichtemission, Interferenz, Beugung, Disp ...

Abwesend

Das Buch ist Band II der Monographie "Aerogasdynamik von Strahldüsen". Es widmet sich der Lösung eines so wichtigen Problems wie der Kontrolle von getrennten Strömen in Domänenbereichen, um den Bodenwiderstand zu reduzieren. Eine Verallgemeinerung einer großen Menge, hauptsächlich experimenteller Daten, wurde vorgenommen ...

Abwesend

Diese Monographie widmet sich der Theorie optischer Mikrokavitäten mit hohem Q und ihrer Anwendung in der linearen, nichtlinearen, Quanten- und angewandten Optik. Optische Mikrokavitäten mit Flüstergalerie-Modi, die erstmals von russischen Wissenschaftlern vorgeschlagen wurden, kombinieren auf einzigartige Weise eine Submillimetergröße mit ...

Abwesend

Die Probleme des Wärme- und Stoffübergangs beim Züchten von Einkristallen aus einer Schmelze werden beleuchtet. Es werden physikalische und mathematische Modelle der Prozesse der Wärmeübertragung und Formbildung beim Wachstum von Kristallen aus einer Schmelze betrachtet. Das Hauptaugenmerk wird auf die experimentelle und theoretische Untersuchung der Wärmeprozesse gelegt ...

Abwesend

Die Monographie betrachtet methodische Grundlagen Schaffung komplexer technischer Systeme, die gegen die Auswirkungen destabilisierender Faktoren unterschiedlicher physikalischer Natur resistent sind. Am Beispiel von Flugzeugen wird das Verfahren der rechnerischen und experimentellen Bewertung der Dauerhaltbarkeit betrachtet. Es wird gezeigt, wie anhand der entwickelten ...

Abwesend

Die Monographie widmet sich einer Vielzahl physikalischer Phänomene und Eigenschaften komprimierter und erhitzter Materie bei hohen Energiedichten. Berücksichtigt werden Methoden der Erzeugung, Diagnostik sowie theoretische Methoden zur Beschreibung des Verhaltens eines Stoffes bei extrem hohen Drücken und Temperaturen, die im Labor gemessen werden.

Die vorliegende Monographie widmet sich dem Problem der modellhaften und umfassenden experimentellen dynamischen Erforschung von Bauwerken von Kernkraftwerken. Der Zweck solcher Studien bestand darin, die dynamischen Phänomene in den Gebäudestrukturen von Kernkraftwerken zu untersuchen, die mit technogenen Schwingungen verschiedener Art verbunden sind ...

Abwesend

Die Ergebnisse überwiegend experimenteller Untersuchungen zu Verbrennungsprozessen, Zündung/Selbstzündung, schneller Deflagration und Detonation in wasserstoffhaltigen brennbaren Systemen werden zusammengefasst. Für die Analyse haben wir Studien unter Anfangsbedingungen ausgewählt, die für die Wasserstoffproblematik von praktischem Interesse sind ...

Abwesend

Die Monographie fasst die Ergebnisse der theoretischen und experimentellen Forschung auf dem Gebiet der Physik des Kontaktschmelzens von Mischkristallen mit Metallen und der elektrischen Übertragung in Kontaktschichten zusammen. Der Mechanismus des Anfangsstadiums des Kontaktschmelzens auf der Nanoskala wird betrachtet. Die Wirkung von kleinen Verunreinigungen wird beschrieben ...

Abwesend

Die Monographie enthält Beschreibungen von HF-Patenten für Erfindungen auf dem Gebiet von Detektormaterialien und -geräten, die in den letzten 10 Jahren der Entwicklung erlangt wurden und die am Department of Experimental Physics (EF) USTU-UPI in Zusammenarbeit mit anderen Departments und Organisationen durchgeführt wurden, einschließlich ausländischer. In Verbindung ...

Abwesend

Das Buch befasst sich mit der Entwicklung von Methoden zur Reproduktion der Bedingungen des Orbitalflugs in Bezug auf die Geschwindigkeit der auf das Flugzeug einfallenden Ströme geladener und neutraler Teilchen, deren Konzentration und Temperatur in Laborexperimenten sowie die Erforschung der Eigenschaften von Geräten in solchen Strömen , zum Beispiel ...

Abwesend

Das Tutorial bietet eine Anleitung zur Durchführung des erforderlichen physikalischen Experiments und zur Verarbeitung der Messergebnisse. Enthält Beschreibungen von Laborarbeiten in den Abschnitten "Translationale Bewegung", "Rotationsbewegung", "Mechanische Schwingungen" und "Elastische Kräfte". Diese Veröffentlichung ist...

Abwesend

Das Buch widmet sich der Darstellung langjähriger Erfahrungen in der Entwicklung, Erstellung und Nutzung von gasdynamischen Kurzzeitanlagen für aerodynamische Versuche. Gegeben detaillierte Beschreibung vom Autor entwickelte Strukturen gasdynamischer Anlagen für die experimentelle Forschung in ...

Abwesend

Es werden die einfachsten angewandten Versionen der Theorie der elastoplastischen Verformung unter proportionaler (einfacher) und nicht proportionaler (komplexer) Belastung betrachtet. Es werden Methoden zur Identifizierung von Materialfunktionen vorgestellt, die die Varianten der Theorie schließen. Analysiert die Ergebnisse theoretischer und experimenteller ...

Abwesend

Das Buch ist eine Einführung in die moderne Optik von Gaußschen Strahlen und berührt ein breites Spektrum von Fragen im Zusammenhang mit der Bildung und Transformation von paraxialen Lichtfeldern, wobei die klassischen Strahlen von Hermite Gauss und Laguerre-Gauss verallgemeinert werden. Die Theorie strukturstabiler Lichtfelder wird erstmals in ...

Abwesend

Die Monographie fasst und systematisiert die Ergebnisse von Studien zu Strahlsystemen zur Erhöhung des Tragflächenauftriebs, die am TsAGI durchgeführt und in in- und ausländischen Publikationen der letzten 30–40 Jahre veröffentlicht wurden. Die Kontrollsysteme der Grenzschicht und Zirkulation von t ...

Abwesend

Basierend auf experimentellen Daten beschreibt das Buch eine Methode zur Untersuchung geschichteter Nanostrukturen basierend auf der Verwendung von Spiegelreflexion, Transmission, Brechung und Streuung von polarisierten Neutronen. Elemente der Theorie der Neutronenübertragung durch eine Schichtstruktur werden mit konkreten Beispielen vorgestellt ...

Abwesend

Das Buch beschäftigt sich mit der Frage der Wärmeübertragung in Systemen, in denen aus verschiedenen Gründen Wärme freigesetzt wird (elektrische Maschinen und Apparate, Beschleuniger für geladene Teilchen). Die Untersuchung von Wärmeübertragungsprozessen erfolgt auf der Grundlage der erhaltenen genauen und ungefähren analytischen Lösungen. In ungefähr ...

Abwesend

Die Monographie widmet sich der Beschreibung der physikalischen Eigenschaften der Oberfläche, modernen experimentellen Methoden ihrer Untersuchung und theoretischen Methoden zur Berechnung der Oberflächen- und Hafteigenschaften verschiedener Materialien. Es werden von den Autoren entwickelte Methoden vorgestellt, die in guter Übereinstimmung mit dem Experiment ...

Abwesend

Auf der Grundlage der grundlegenden Erkenntnisse der Elektrodynamik wurde eine in sich konsistente Theorie der Anregung und Kopplung von Wellenleitermoden entwickelt, die auf beliebige (geschlossene und offene) Wellenleiterstrukturen anwendbar ist. Wellenleiterstrukturen, die Medien mit isotropen, anisotropen und binisotropen ...

Abwesend

Präsentiert von moderne Techniken experimentelle Messungen, Daten zu den Grundlagen der Konstruktion mathematischer Modelle zur Beschreibung der Zustände einer brennenden Gassuspension bei verschiedenen Anfangsturbulenzcharakteristiken, Zusammensetzungen der Gassuspension und Betriebsparameter werden vorgestellt. Experimentelle Ergebnisse werden berücksichtigt.

Abwesend

Der Beitrag beschäftigt sich mit Fragen der Diagnostik von Inhomogenitäten der aquatischen Umwelt mit Hilfe einer hydroakustischen parametrischen Antenne. In diesem Fall haben die Inhomogenitäten des wässrigen Mediums eine geometrisch regelmäßige Form: eine Kugel, ein Zylinder und ein Sphäroid. Wellenprozesse werden theoretisch und experimentell untersucht, über ...

Abwesend

Die Monographie befasst sich mit einer Reihe von Fragen im Zusammenhang mit der Beschreibung und experimentellen Zertifizierung einzelner Grenzen und Ensembles von Korngrenzen in Polykristallen sowie Studien ihrer Rolle in Prozessen wie Korngrenzendiffusion, Relaxation und Kornwachstum. Es wurde versucht, eine ausreichende ...

Abwesend

Das Lehrbuch ist der erste Teil der Reihe "Universitätslehrgang Allgemeine Physik", die sich an Studierende physikalischer Fachrichtungen von Universitäten richtet. Seine Besonderheit ist das mehrstufige Konzept der Darstellung der wichtigsten experimentellen Fakten und Grundlagen der Theorie physikalischer Phänomene unter Berücksichtigung moderner ...

Abwesend

Die Monographie befasst sich mit der Frage der Kraftstoffverbrennung in Wärmekraftmaschinen für verschiedene Zwecke, den Auswirkungen ihrer Verbrennungsprodukte auf Mensch und Umwelt. Es werden die Mechanismen der Bildung giftiger Stoffe bei der Verbrennung und Möglichkeiten zur Reduzierung ihrer Emission beschrieben. Eine Methode zur Berechnung der Gleichgewichtszusammensetzung von Produkten ...

Abwesend

Das Buch beschreibt die Ergebnisse einer Untersuchung der grundlegenden Eigenschaften, Struktur und Dynamik der Zwischen- und Mischzustände von Tief- und Hochtemperatur-Supraleitern vom Typ I und II in Bezug auf elektrische Maschinen neuen Typs. Lokale Änderung des Phasenzustandes eines Supraleiters ...

Abwesend

Das Lehrbuch ist nach den Inhalten der staatlichen Bildungsstandards, dem Programm des Workshops (Abschnitt "Biochemische Analysemethoden"), dem Programm der Disziplin "Chemische Grundlagen und Methoden der Analyse lebender Systeme", dem Programm der die Disziplin "Biotechnologie und die Organisation analytischer ...

Abwesend

Die Ergebnisse der Systematisierung von Studien zum konvektiven Wärmeaustausch von Flugzeugen in der atmosphärischen Flugphase, einschließlich der Berücksichtigung des Einflusses der Dreidimensionalität der Strömung, der physikalisch-chemischen Prozesse des Nichtgleichgewichts im Gas und auf der Oberfläche des Fahrzeugs, laminar -turbulenter Übergang der Grenze ...

Abwesend

Das Buch präsentiert die Ergebnisse experimenteller Untersuchungen zu den Mechanismen des Auftretens eines instabilen Verbrennungsregimes in Modellbrennkammern. Die Mechanismen der Emission von Schallschwingungen durch eine modulierte Ladung, die Fragen der Diagnose und Kontrolle der Verbrennungsinstabilität mit Hilfe elektrischer ...

Abwesend

Dieses Buch ist der Entdeckung und Untersuchung eines neuen Effekts gewidmet - der induzierten Drift, die durch die Einwirkung periodischer elektrischer und magnetischer Felder auf strukturierte Salzlösungen in flüssigen polaren Dielektrika verursacht wird. Es enthält sowohl experimentelle als auch theoretische Informationen.

Abwesend

Die Möglichkeiten und der aktuelle Forschungsstand von Niedertemperaturplasma mit den Methoden der klassischen und Laserspektroskopie werden beschrieben. Die Fragen der physikalischen Interpretation der Ergebnisse der Anwendung der Methoden der Emission, Absorption, Brechung und Streuung von Licht auf thermisch ungleichgewichtiges Plasma, ihre ...

Abwesend

Ausgewählte Vorträge des herausragenden amerikanischen Physikers, Preisträger Nobelpreis R. Feynmann. Sie betrachten die Stadien der Entstehung der modernen Physik und ihrer Konzepte, die Beziehung der Physik zu anderen Wissenschaften, die Gravitationstheorie, die Quantenmechanik, die Symmetrie der physikalischen Gesetze, eine spezielle Theorie der rel ...

Abwesend

Das Buch widmet sich einer experimentellen Untersuchung des Zusammenhangs zwischen der quasi-geordneten Struktur einer turbulenten Grenzschicht und den traditionell gemessenen gemittelten Eigenschaften der Strömung in der Grenzschicht. Der Mechanismus der periodischen Strömungserneuerung in einer viskosen Unterschicht einer turbulenten Grenzschicht wird betrachtet.

Abwesend

Betrachtet wird eine neue experimentelle Methode zur Messung der Temperatur erhitzter Objekte aus einem kontinuierlichen Spektrum von Wärmestrahlung, die in einem breiten Wellenlängenbereich (zum Beispiel von 200 bis 1000 nm) aufgenommen wurde. Die Vorteile der Spektralpyrometrie gegenüber herkömmlichen Methoden der Helligkeits- und c ...

Abwesend

Die modernen Begriffe und Konzepte aus dem Bereich der Druckbehandlung werden vorgestellt. Das physikalische Wesen der gebräuchlichsten modernen Druckbehandlungsverfahren wird angegeben, ihre technologischen Fähigkeiten werden berücksichtigt, Abhängigkeiten für die Berechnung der wichtigsten technologischen Parameter werden angegeben. Schemata werden über ...

Experimentelle Profile von Stoßwellen in kondensierter Materie

Experimentelle Physik - Shutov V.I.., V. G. Suchow, D. V. Podlesny. - 2005

Beschrieben werden experimentelle Arbeiten aus dem Programm der Physik- und Mathematik-Lyzeen im Rahmen eines Physik-Workshops. Das Handbuch ist ein Versuch, ein einheitliches Handbuch für die Durchführung praktischer Übungen in Klassen und Schulen mit fortgeschrittenem Physikstudium sowie zur Vorbereitung auf experimentelle Runden von Olympiaden auf hohem Niveau zu schaffen.
Das einführende Material widmet sich traditionell Methoden der Verarbeitung experimenteller Daten. Die Beschreibung jeder experimentellen Arbeit beginnt mit einer theoretischen Einführung. Im experimentellen Teil werden Versuchsanlagen und Aufgaben beschrieben, die den Arbeitsablauf der Studierenden während der Messungen regeln. Bietet Beispielarbeitsblätter zum Aufzeichnen von Messergebnissen, Empfehlungen für Methoden der Verarbeitung und Präsentation von Ergebnissen und Anforderungen an die Berichterstattung. Am Ende der Beschreibungen werden Kontrollfragen vorgeschlagen, auf deren Antworten sich die Studierenden zur Verteidigung der Arbeit vorbereiten sollten.
Für Schulen und Klassen mit fortgeschrittenem Physikstudium.

Einführung.

Fehler physikalischer Größen. Verarbeitung von Messergebnissen.

Praktische Arbeit 1. Messen des Volumens von Körpern mit regelmäßiger Form.
Praktische Arbeit 2. Untersuchung der geradlinigen Bewegung von Körpern im Gravitationsfeld an der Atwood-Maschine.
Praktische Arbeit 3. Trockene Reibung. Bestimmung des Gleitreibungskoeffizienten.
Eine theoretische Einführung in die Arbeit an Schwingungen.
Praktische Arbeit 4. Untersuchung der Schwingungen eines Federpendels.
Praktische Arbeit 5. Untersuchung der Schwingungen eines mathematischen Pendels. Bestimmung der Erdbeschleunigung.
Praktische Arbeit 6. Untersuchung der Schwingungen eines physikalischen Pendels.
Praktische Arbeit 7. Bestimmung der Trägheitsmomente regelmäßig geformter Körper nach der Methode der Torsionsschwingungen.
Praktische Arbeit 8. Studium der Rotationsgesetze eines starren Körpers an einem Kreuzpendel von Oberbeck.
Praktische Arbeiten 9. Bestimmung des Verhältnisses der molaren Wärmekapazitäten von Luft.
Praktische Arbeit 10. Stehende Wellen. Messung der Geschwindigkeit einer Welle in einer elastischen Saite.
Praktische Arbeit 11. Bestimmung des Verhältnisses cp / c ι? für Luft in einer stehenden Schallwelle.
Praktische Arbeit 12. Studieren der Arbeit eines elektronischen Oszilloskops.
Praktische Arbeit 13. Messung der Schwingungsfrequenz durch Untersuchung von Lissajous-Figuren.
Praktische Arbeit 14. Bestimmung des spezifischen Widerstands von Nichromdraht.
Praktische Arbeit 15. Bestimmung des Widerstands von Leitern nach der Kompensationsmethode von Wheatstone.
Praktische Arbeit 16. Transiente Prozesse im Kondensator. Bestimmung der Kapazität.
Praktische Arbeit 17. Bestimmung der elektrischen Feldstärke in einem zylindrischen Leiter mit Strom.
Praktische Arbeit 18. Untersuchung der Arbeit der Quelle im Gleichstromkreis.
Praktische Arbeit 19. Studium der Gesetze der Reflexion und Brechung des Lichts.
Praktische Arbeit 20. Bestimmung der Brennweiten der Sammel- und Streulinsen.
Praktische Arbeit 21. Das Phänomen der elektromagnetischen Induktion. Untersuchung des Magnetfeldes des Solenoids.
Praktische Arbeit 22. Untersuchung gedämpfter Schwingungen.
Praktische Arbeit 23. Studium des Resonanzphänomens in einem Wechselstromkreis.
Praktische Arbeiten 24. Fraunhofer-Beugung am Spalt. Messung der Spaltbreite nach der "Wellenmethode".
Praktische Arbeit 25. Fraunhofer-Beugung. Beugungsgitter als optisches Gerät.
Praktische Arbeit 26. Bestimmung des Brechungsindex von Glas nach der "Wellen"-Methode.
Praktische Arbeit 27. Bestimmung des Krümmungsradius der Linse im Experiment mit Newtonschen Ringen.
Praktische Arbeit 28. Forschung zu polarisiertem Licht.

Laden Sie kostenlos ein E-Book in einem praktischen Format herunter, sehen und lesen Sie:
Laden Sie das Buch Experimentalphysik - Shutov V.I., Sukhov V.G., Podlesny D.V. - 2005 - fileskachat.com, schnell und kostenlos herunterladen.

djvu . herunterladen
Unten können Sie dieses Buch kaufen auf Bestpreis mit Rabatt bei Lieferung in ganz Russland.

I. Gegenstand und Struktur der Physik

Physik ist eine Wissenschaft, die die einfachsten und zugleich allgemeinsten Gesetze der Naturphänomene erforscht, die Eigenschaften und Struktur der Materie und die Gesetze ihrer Bewegung. Daher sind die Konzepte der Physik und ihre Gesetze die Grundlage aller Naturwissenschaften. Physik gehört zu den exakten Wissenschaften und erforscht die quantitativen Gesetze von Phänomenen.

Das Wort "F." kommt aus dem Griechischen. Ph?sis - Natur. Anfangs, in der Ära der antiken Kultur, war die Wissenschaft nicht gespalten und umfasste das gesamte Wissen über Naturphänomene. Durch die Differenzierung von Erkenntnis- und Forschungsmethoden entstanden aus der allgemeinen Naturwissenschaft einzelne Wissenschaften, darunter auch F. Die Grenzen, die F. von anderen Naturwissenschaften trennen, sind weitgehend willkürlich und verändern sich im Laufe der Zeit.

Im Kern ist die Physik eine experimentelle Wissenschaft: Ihre Gesetze beruhen auf empirisch gesicherten Tatsachen. Diese Gesetze sind quantitative Beziehungen und werden in mathematischer Sprache formuliert. Man unterscheidet zwischen der Experimentalphysik – Experimente zur Entdeckung neuer Tatsachen und zur Überprüfung bekannter physikalischer Gesetze und der theoretischen Physik, deren Zweck es ist, die Naturgesetze zu formulieren und auf der Grundlage dieser Gesetze auch bestimmte Phänomene zu erklären um neue Phänomene vorherzusagen. Beim Studium jedes Phänomens sind Erfahrung und Theorie gleichermaßen notwendig und miteinander verbunden.

Entsprechend der Vielfalt der untersuchten Objekte und Bewegungsformen der physikalischen Materie wird die Physik in mehrere Disziplinen (Sektionen) unterteilt, die mehr oder weniger miteinander verwandt sind. Die Einteilung von F. in einzelne Disziplinen ist nicht eindeutig und kann unter Anleitung durchgeführt werden verschiedene Kriterien... Entsprechend den Untersuchungsobjekten wird die Physik in die Phase der Elementarteilchen, die Phase des Kerns, die Phase der Atome und Moleküle, die Phase der Gase und Flüssigkeiten, die Phase der Festkörper und die Phase des Plasmas unterteilt. DR. Kriterium - die untersuchten Prozesse oder Bewegungsformen der Materie. Unterscheiden: mechanische Bewegung, thermische Prozesse, elektromagnetische Phänomene, Gravitation, starke, schwache Wechselwirkungen; Dementsprechend umfasst die Physik die Mechanik von materiellen Punkten und Festkörpern, die Mechanik kontinuierlicher Medien (einschließlich Akustik), Thermodynamik und statistische Mechanik, Elektrodynamik (einschließlich Optik), Gravitationstheorie, Quantenmechanik und Quantenfeldtheorie. Die angegebenen Teilbereiche der Physik überschneiden sich teilweise aufgrund einer tiefen inneren Beziehung zwischen Objekten der materiellen Welt und den Prozessen, an denen sie beteiligt sind. Angewandte Physik (zB Angewandte Optik) wird manchmal auch für Forschungszwecke unterschieden.

Die Lehre von Schwingungen und Wellen ist in der Physik besonders ausgeprägt, was auf die Allgemeinheit der Gesetze zurückzuführen ist, die oszillatorische Prozesse verschiedener physikalischer Natur und Methoden ihrer Untersuchung regeln. Es behandelt mechanische, akustische, elektrische und optische Schwingungen und Wellen aus einem Blickwinkel.

Die moderne Physik enthält eine kleine Anzahl grundlegender physikalischer Theorien, die alle Bereiche der Physik abdecken.Diese Theorien stellen die Quintessenz des Wissens über die Natur physikalischer Prozesse und Phänomene dar.

II. Die Hauptstadien der Entwicklung der Physik

Entstehung der Physik (bis 17. Jahrhundert). Die physikalischen Phänomene der umgebenden Welt haben seit langem die Aufmerksamkeit der Menschen auf sich gezogen. Versuche einer kausalen Erklärung dieser Phänomene gingen der Entstehung von F. im modernen Sinne des Wortes voraus. In der griechisch-römischen Welt (6. Jahrhundert v. Chr. - 2c) wurden die Statik (die Regel des Hebels), das Gesetz der geradlinigen Ausbreitung und das Gesetz der Lichtreflexion entdeckt, die Prinzipien der Hydrostatik (Archimedisches Gesetz) formuliert, die einfachsten Erscheinungsformen von Elektrizität und Magnetismus wurden beobachtet.

Das Ergebnis der erworbenen Kenntnisse im 4. Jahrhundert. BC NS. wurde von Aristoteles im Stich gelassen. Die Physik des Aristoteles enthielt einige richtige Bestimmungen, aber gleichzeitig fehlten ihr viele fortschrittliche Ideen ihrer Vorgänger, insbesondere die Atomhypothese. Aristoteles erkannte die Bedeutung der Erfahrung an und betrachtete sie nicht als Hauptkriterium für die Zuverlässigkeit des Wissens und bevorzugte spekulative Darstellungen. Im Mittelalter bremsten die von der Kirche heiliggesprochenen Lehren des Aristoteles lange Zeit die Entwicklung der Wissenschaft.

Die Wissenschaft wurde erst im 15. und 16. Jahrhundert wiederbelebt. im Kampf gegen die scholastische Lehre des Aristoteles. Mitte des 16. Jahrhunderts. N. Copernicus stellte das heliozentrische Weltsystem vor und legte den Grundstein für die Befreiung der Naturwissenschaft von der Theologie. Die Bedürfnisse der Produktion, der Entwicklung des Handwerks, der Schifffahrt und der Artillerie stimulierten die wissenschaftliche Forschung auf der Grundlage der Erfahrung. Allerdings in den 15-16 Jahrhunderten. experimentelle Forschung war meist zufällig. Erst im 17. Jahrhundert. Die systematische Anwendung der experimentellen Methode begann in der Physik und führte zur Entstehung der ersten grundlegenden physikalischen Theorie, der klassischen Mechanik Newtons.

Entstehung der Physik als Wissenschaft (frühes 17. - spätes 18. Jahrhundert)

Die Entwicklung der Physik als Wissenschaft im modernen Sinne geht auf die Arbeiten von G. Galileo (erste Hälfte des 17. Jahrhunderts) zurück, der die Notwendigkeit einer mathematischen Beschreibung der Bewegung erkannte. Er zeigte, dass der Aufprall umgebender Körper auf einen bestimmten Körper nicht die Geschwindigkeit bestimmt, wie in der Mechanik des Aristoteles angenommen, sondern die Beschleunigung des Körpers. Diese Aussage war die erste Formulierung des Trägheitsgesetzes. Galilei entdeckte das Relativitätsprinzip in der Mechanik (siehe Galileis Relativitätsprinzip), bewies die Unabhängigkeit der Gravitationsbeschleunigung von Körpern von ihrer Dichte und Masse und begründete die Theorie des Kopernikus. Von ihm und in anderen Gebieten von F wurden bedeutende Ergebnisse erzielt. Er baute ein Teleskop mit hoher Vergrößerung und machte mit seiner Hilfe eine Reihe astronomischer Entdeckungen (Mondberge, Jupiter-Satelliten usw.). Die quantitative Erforschung thermischer Phänomene begann nach der Erfindung des ersten Thermometers durch Galilsem.

In der ersten Hälfte des 17. Jahrhunderts. die erfolgreiche Erforschung von Gasen begann. Galileos Schüler E. Torricelli stellte die Existenz des atmosphärischen Drucks fest und schuf das erste Barometer. R. Boyle und E. Marriott untersuchten die Elastizität von Gasen und formulierten das erste Gasgesetz, das ihren Namen trägt. W. Snellius und R. Descartes entdeckten das Gesetz der Lichtbrechung. Gleichzeitig wurde ein Mikroskop geschaffen. Ein bedeutender Fortschritt in der Erforschung magnetischer Phänomene wurde zu Beginn des 17. Jahrhunderts gemacht. W. Hilbert. Er bewies, dass die Erde ein großer Magnet ist und der erste, der streng zwischen elektrischen und magnetischen Phänomenen unterscheidet.

Die wichtigste Errungenschaft des 17. Jahrhunderts F. war die Erschaffung der klassischen Mechanik. Ausgehend von den Ideen von Galileo, H. Huygens und anderen Vorgängern formulierte I. Newton in seinem Werk "Mathematical Principles of Natural Philosophy" (1687) alle Grundgesetze dieser Wissenschaft (siehe Newtons Gesetze der Mechanik). In der Konstruktion der klassischen Mechanik wurde erstmals das bis heute bestehende Ideal der wissenschaftlichen Theorie verkörpert. Mit dem Aufkommen der Newtonschen Mechanik wurde endlich verstanden, dass es die Aufgabe der Wissenschaft ist, die allgemeinsten quantitativ formulierten Naturgesetze zu finden.

Den größten Erfolg hat die Newtonsche Mechanik bei der Erklärung der Bewegung von Himmelskörpern. Ausgehend von den Gesetzen der Planetenbewegung, die von I. Kepler auf der Grundlage der Beobachtungen von T. Brahe aufgestellt wurden, entdeckte Newton das Gesetz der universellen Gravitation (siehe Newtons Gravitationsgesetz). Mit Hilfe dieses Gesetzes war es mit bemerkenswerter Genauigkeit möglich, die Bewegung von Mond, Planeten und Kometen des Sonnensystems zu berechnen, Ebbe und Flut im Ozean zu erklären. Newton hielt an dem Konzept der Fernwirkung fest, wonach die Wechselwirkung von Körpern (Teilchen) unmittelbar durch die Leere erfolgt; die Wechselwirkungskräfte müssen experimentell bestimmt werden. Er war der erste, der die klassischen Begriffe des absoluten Raumes als Behälter der Materie, unabhängig von seinen Eigenschaften und Bewegung, und der absolut gleichmäßig fließenden Zeit klar formulierte. Bis zur Entstehung der Relativitätstheorie haben sich diese Konzepte nicht verändert.
Gleichzeitig formulierten Huygens und G. Leibniz den Impulserhaltungssatz; Huygens entwickelte die Theorie eines physikalischen Pendels, baute eine Uhr mit einem Pendel.

Die Entwicklung der physikalischen Akustik begann. M. Mersenne hat die Anzahl der Eigenschwingungen einer klingenden Saite gemessen und erstmals die Schallgeschwindigkeit in Luft bestimmt. Newton hat theoretisch eine Formel für die Schallgeschwindigkeit abgeleitet.

In der zweiten Hälfte des 17. Jahrhunderts. Die geometrische Optik begann sich schnell zu entwickeln und wurde auf den Entwurf von Teleskopen und anderen optischen Instrumenten angewendet, und auch die Grundlagen der physikalischen Optik wurden gelegt. F. Grimaldi entdeckte die Lichtbeugung und Newton führte Grundlagenforschung Streuung des Lichts. Mit diesen Arbeiten von Newton begann die optische Spektroskopie. 1676 maß O. K. Roemer erstmals die Lichtgeschwindigkeit. Fast gleichzeitig entstanden und entwickelten sich zwei verschiedene Theorien über die physikalische Natur des Lichts - Korpuskular und Welle (siehe Optik). Nach Newtons Korpuskulartheorie ist Licht ein Strom von Teilchen, der sich von einer Quelle in alle Richtungen bewegt. Huygens legte die Grundlagen der Wellentheorie des Lichts, nach der Licht ein Wellenstrom ist, der sich in einem speziellen hypothetischen Medium ausbreitet - dem Äther, der den ganzen Raum ausfüllt und in alle Körper eindringt.

So im 17. Jahrhundert. Im Wesentlichen wurde die klassische Mechanik gebaut und die Forschung auf anderen Gebieten der Physik begann: Optik, Studium elektrischer und magnetischer Phänomene, Wärme und Akustik.

Im 18. Jahrhundert. die Entwicklung der klassischen Mechanik, insbesondere der Himmelsmechanik, wurde fortgesetzt. Durch eine kleine Anomalie in der Bewegung des Planeten Uranus war es möglich, die Existenz eines neuen Planeten - Neptun (entdeckt 1846) - vorherzusagen. Das Vertrauen in die Gültigkeit der Newtonschen Mechanik wurde universell. Auf der Grundlage der Mechanik wurde ein einziges mechanisches Weltbild geschaffen, nach dem der ganze Reichtum, die ganze qualitative Vielfalt der Welt das Ergebnis von Unterschieden in der Bewegung der Teilchen (Atome) ist, aus denen der Körper besteht, Bewegung das gehorcht Newtons Gesetzen. Dieses Bild übte viele Jahre einen starken Einfluss auf die Entwicklung der Physik aus: Eine Erklärung eines physikalischen Phänomens galt als wissenschaftlich und vollständig, wenn man sie auf die Wirkung der Gesetze der Mechanik zurückführen konnte.

Ein wichtiger Impuls für die Entwicklung der Mechanik waren die Anforderungen an die Entwicklung der Produktion. In den Arbeiten von L. Euler und anderen wurde die Dynamik eines absolut starren Körpers entwickelt. Parallel zur Entwicklung der Mechanik von Teilchen und Festkörpern schritt die Entwicklung der Mechanik von Flüssigkeiten und Gasen voran. Die Werke von D. Bernoulli, Euler, J. Lagrange und anderen in der ersten Hälfte des 18. Jahrhunderts. die Grundlagen der Hydrodynamik eines idealen Fluids wurden gelegt - eines inkompressiblen Fluids ohne Viskosität und Wärmeleitfähigkeit. In Lagranges "Analytical Mechanics" (1788) werden die Gleichungen der Mechanik so verallgemeinert dargestellt, dass sie später auf nichtmechanische, insbesondere elektromagnetische Prozesse übertragen werden konnten.
In anderen Bereichen der Physik wurden experimentelle Daten gesammelt und einfachste experimentelle Gesetze formuliert. C. F. Dufay entdeckte die Existenz von zwei Arten von Elektrizität und stellte fest, dass sich Körper gleichen Namens abstoßen und entgegengesetzt geladene Körper anziehen. B. Franklin hat das Gesetz der Erhaltung der elektrischen Ladung aufgestellt. G. Cavendish und unabhängig davon S. Coulomb entdeckten das Grundgesetz der Elektrostatik, das die Wechselwirkungskraft stationärer elektrischer Ladungen bestimmt (Coulombsches Gesetz). Die Lehre von der atmosphärischen Elektrizität entstand. Franklin, M. V. Lomonosov und G. V. Rikhman bewiesen die elektrische Natur des Blitzes. In der Optik wurde die Verbesserung der Teleskoplinsen fortgesetzt. Die Arbeiten von P. Bouguer und I. Lambert begannen mit der Photometrie. Infrarot- (W. Herschel, englischer Wissenschaftler W. Wollaston) und ultraviolette (deutscher Wissenschaftler N. Ritter, Wollaston) wurden entdeckt.

Bemerkenswerte Fortschritte wurden bei der Untersuchung thermischer Phänomene erzielt; nach der Entdeckung der latenten Schmelzwärme durch J. Black und dem experimentellen Nachweis der Wärmeerhaltung in kalorimetrischen Experimenten begannen sie, zwischen Temperatur und Wärmemenge zu unterscheiden. Das Konzept der Wärmekapazität wurde formuliert und die Untersuchung der Wärmeleitfähigkeit und Wärmestrahlung begann. Gleichzeitig wurden falsche Ansichten über die Natur der Wärme aufgestellt: Wärme wurde als eine besondere Art unzerstörbarer schwereloser Flüssigkeit betrachtet - kalorisch, die von erhitzten Körpern in kalte fließen kann. Die Wärmetheorie, nach der Wärme eine Art innerer Bewegung von Teilchen ist, erlitt eine vorübergehende Niederlage, obwohl sie von so hervorragenden Wissenschaftlern wie Newton, Hooke, Boyle, Bernoulli, Lomonosov und anderen unterstützt und entwickelt wurde.

Klassische Physik (19. Jahrhundert)

Anfang des 19. Jahrhunderts. der langfristige Wettbewerb zwischen Korpuskular- und Wellentheorie des Lichts endete mit dem scheinbar endgültigen Sieg der Wellentheorie. Dies wurde durch die erfolgreiche Erklärung des Phänomens der Interferenz und Beugung von Licht durch T. Jung und O. Zh. Fresnel mit Hilfe der Wellentheorie erleichtert. Diese Phänomene sind ausschließlich der Wellenbewegung inhärent und es schien unmöglich, sie mit Hilfe der Korpuskulartheorie zu erklären. Gleichzeitig wurde der entscheidende Beweis für die Transversalität von Lichtwellen erbracht (Fresnel, D.F. Arago, Jung), die bereits im 18. Jahrhundert entdeckt wurde. (siehe Polarisation des Lichts). Betrachtet man Licht als Transversalwellen in einem elastischen Medium (Äther), fand Fresnel ein quantitatives Gesetz, das die Intensität gebrochener und reflektierter Lichtwellen bestimmt, wenn Licht von einem Medium in ein anderes übergeht (siehe Fresnelsche Formel) und schuf auch die Theorie der Doppelbrechung.

Sehr wichtig für die Entwicklung von F. war die Entdeckung des elektrischen Stroms durch L. Galvani und A. Volta. Die Schaffung leistungsstarker Gleichstromquellen - galvanische Batterien - ermöglichte es, die verschiedenen Stromwirkungen zu erkennen und zu untersuchen. Die chemische Wirkung des Stroms wurde untersucht (G. Davy, M. Faraday). V. V. Petrov erhielt einen Lichtbogen. Die Entdeckung der Wirkung eines elektrischen Stroms auf eine Magnetnadel durch H. K. Oersted (1820) bewies den Zusammenhang zwischen Elektrizität und Magnetismus. Basierend auf der Einheit elektrischer und magnetischer Phänomene kam A. Ampere zu dem Schluss, dass alle magnetischen Phänomene durch bewegte geladene Teilchen - elektrischen Strom - verursacht werden. Im Anschluss daran hat Ampere experimentell ein Gesetz aufgestellt, das die Stärke der Wechselwirkung von elektrischen Strömen bestimmt (Amperes Gesetz).

Im Jahr 1831 entdeckte Faraday das Phänomen der elektromagnetischen Induktion (siehe Elektromagnetische Induktion). Versuche, dieses Phänomen mit dem Konzept der Fernwirkung zu erklären, stießen auf erhebliche Schwierigkeiten. Faraday stellte (noch vor der Entdeckung der elektromagnetischen Induktion) eine Hypothese auf, nach der elektromagnetische Wechselwirkungen durch ein Zwischenmittel - ein elektromagnetisches Feld (das Konzept der Kurzstreckenwirkung) - erfolgen. Dies war der Beginn der Entstehung einer neuen Wissenschaft über die Eigenschaften und Verhaltensgesetze einer besonderen Form von Materie - des elektromagnetischen Feldes.

Anfang des 19. Jahrhunderts. J. Dalton führte in die Wissenschaft (1803) das Konzept der Atome als kleinste (unteilbare) Teilchen der Materie ein - Träger der chemischen Individualität der Elemente.

Bis zum 1. Viertel des 19. Jahrhunderts. der Grundstein für die Festkörperphysik wurde gelegt. Während des 17.-18. und frühen 19. Jahrhunderts. es gab eine Ansammlung von Daten über die makroskopischen Eigenschaften von Festkörpern (Metalle, technische Materialien, Mineralien usw.) und die Aufstellung empirischer Gesetzmäßigkeiten des Verhaltens eines Festkörpers unter dem Einfluss äußerer Einflüsse (mechanische Kräfte, Erwärmung, elektrische und magnetische) Felder, Licht usw.) ... Das Studium der elastischen Eigenschaften führte zur Entdeckung des Hookeschen Gesetzes (1660), das Studium der elektrischen Leitfähigkeit von Metallen - zur Aufstellung des Ohmschen Gesetzes (1826), thermische Eigenschaften - das Gesetz der Wärmekapazitäten von Dulong und Petit (1819) (Siehe das Gesetz von Dulong und Petit). Die wichtigsten magnetischen Eigenschaften von Festkörpern wurden entdeckt. Gleichzeitig wurde eine allgemeine Theorie der elastischen Eigenschaften von Festkörpern aufgestellt (L. MA Navier, 1819–26, OL Cauchy, 1830). Fast alle dieser Ergebnisse sind durch die Interpretation eines Festkörpers als kontinuierliches Medium gekennzeichnet, obwohl bereits von einem erheblichen Teil der Wissenschaftler erkannt wurde, dass Festkörper, bei denen es sich meist um Kristalle handelt, eine innere mikroskopische Struktur aufweisen.
Die Entdeckung des Energieerhaltungssatzes, der alle Naturerscheinungen verband, war für die Physik und die gesamte Naturwissenschaft von überragender Bedeutung. Mitte des 19. Jahrhunderts. empirisch wurde die Äquivalenz von Wärme- und Arbeitsmenge etc. bewiesen. Es wurde festgestellt, dass Wärme keine hypothetische schwerelose Substanz ist - kalorisch, sondern eine besondere Form von Energie. In den 40er Jahren. 19. Jahrhundert Yu. R. Mayer, J. Joule und G. Helmholtz haben unabhängig voneinander den Energieerhaltungs- und Energieumwandlungssatz entdeckt. Der Energieerhaltungssatz wurde zum Grundgesetz der Theorie der thermischen Phänomene (Thermodynamik) und erhielt den Namen des ersten Hauptsatzes der Thermodynamik.

Schon vor der Entdeckung dieses Gesetzes gelangte S. Carnot in seinem Werk "Reflexionen über die Triebkraft des Feuers und über Maschinen, die diese Kraft entwickeln können" (1824) zu Ergebnissen, die als Grundlage für ein weiteres Grundgesetz der Wärmetheorie dienten - der zweite Hauptsatz der Thermodynamik. Dieses Gesetz wurde in den Werken von R. Clausius (1850) und W. Thomson (1851) formuliert. Es ist eine Verallgemeinerung experimenteller Daten, die die Irreversibilität thermischer Prozesse in der Natur anzeigen und die Richtung möglicher Energieprozesse... Eine bedeutende Rolle bei der Konstruktion der Thermodynamik spielten die Studien von J.L. Gay-Lussac, auf deren Grundlage B. Clapeyron die Zustandsgleichung für ein ideales Gas fand, die später von D.I.Mendeleev verallgemeinert wurde.

Gleichzeitig mit der Entwicklung der Thermodynamik entwickelte sich die molekularkinetische Theorie thermischer Prozesse. Dies ermöglichte es, thermische Prozesse in den Rahmen des mechanischen Weltbildes einzubeziehen und führte zur Entdeckung einer neuen Art von Gesetzen – statistischer Natur, bei der alle Zusammenhänge zwischen physikalischen Größen probabilistischer Natur sind.

In der ersten Phase der Entwicklung der kinetischen Theorie des einfachsten Mediums - Gas - berechneten Joule, Clausius und andere die Durchschnittswerte verschiedener physikalischer Größen: die Geschwindigkeit der Moleküle, die Anzahl ihrer Kollisionen pro Sekunde, der Mittelwert frei Weg usw. Die Abhängigkeit des Gasdrucks von der Anzahl der Moleküle pro Volumeneinheit und der durchschnittlichen kinetischen Energie der Translationsbewegung der Moleküle wurde erhalten. Dadurch konnte geöffnet werden physikalische Bedeutung Temperatur als Maß für die durchschnittliche kinetische Energie von Molekülen.

Die zweite Stufe in der Entwicklung der molekularkinetischen Theorie begann mit der Arbeit von J.C. Maxwell. Als er 1859 den Wahrscheinlichkeitsbegriff erstmals in die Physik einführte, fand er das Gesetz der Geschwindigkeitsverteilung von Molekülen (siehe Maxwellsche Verteilung). Danach erweiterten sich die Möglichkeiten der molekularkinetischen Theorie enorm und führten in der Folge zur Entwicklung der statistischen Mechanik. L. Boltzmann konstruierte eine kinetische Gastheorie und lieferte eine statistische Grundlage für die Gesetze der Thermodynamik. Das Hauptproblem, das Boltzmann weitgehend gelöst hat, bestand darin, die zeitliche Reversibilität der Bewegung einzelner Moleküle mit der offensichtlichen Irreversibilität makroskopischer Prozesse in Einklang zu bringen. Das thermodynamische Gleichgewicht des Systems entspricht nach Boltzmann der maximalen Wahrscheinlichkeit eines gegebenen Zustands. Die Irreversibilität von Prozessen ist mit der Tendenz von Systemen in den wahrscheinlichsten Zustand verbunden. Von großer Bedeutung war sein Theorem über die gleichmäßige Verteilung der mittleren kinetischen Energie über die Freiheitsgrade.

Die klassische statistische Mechanik wurde in den Werken von J. W. Gibbs (1902) vervollständigt, der eine Methode zur Berechnung von Verteilungsfunktionen für beliebige Systeme (nicht nur für Gase) im thermodynamischen Gleichgewicht entwickelte. Die statistische Mechanik wurde im 20. Jahrhundert allgemein anerkannt. nach der Schaffung von A. Einstein und M. Smoluchowski (1905–06) auf der Grundlage der molekularkinetischen Theorie der quantitativen Theorie der Brownschen Bewegung, bestätigt in den Experimenten von J. B. Perrin.

In der zweiten Hälfte des 19. Jahrhunderts. der lange Prozess der Erforschung elektromagnetischer Phänomene wurde von Maxwell abgeschlossen. In seinem Hauptwerk "A Treatise on Electricity and Magnetism" (1873) stellte er die Gleichungen für das nach ihm benannte elektromagnetische Feld auf, die alle damals bekannten Tatsachen aus einer einzigen Perspektive erklärten und es ermöglichten, neue Phänomene vorhersagen. Maxwell interpretierte elektromagnetische Induktion als den Prozess der Erzeugung eines elektrischen Wirbelfeldes durch ein magnetisches Wechselfeld. Anschließend prognostizierte er den gegenteiligen Effekt – die Erzeugung eines magnetischen Feldes durch ein elektrisches Wechselfeld (siehe Verschiebungsstrom). Das wichtigste Ergebnis der Maxwellschen Theorie war die Schlussfolgerung, dass die Ausbreitungsgeschwindigkeit elektromagnetischer Wechselwirkungen endlich ist, gleich der Lichtgeschwindigkeit. Der experimentelle Nachweis elektromagnetischer Wellen durch GR Hertz (1886–89) bestätigte die Gültigkeit dieser Schlussfolgerung. Aus Maxwells Theorie folgte, dass Licht elektromagnetischer Natur ist. So wurde die Optik zu einem der Zweige der Elektrodynamik. Ganz am Ende des 19. Jahrhunderts. PN Lebedev entdeckte und maß experimentell den Lichtdruck, der von Maxwells Theorie vorhergesagt wurde, und AS Popov war der erste, der elektromagnetische Wellen für die drahtlose Kommunikation nutzte.

Im 19. Jahrhundert. G. Kirchhoff und R. Bunsen legten den Grundstein für die Spektralanalyse (1859). Auch die Entwicklung der Kontinuumsmechanik ging weiter. In der Akustik wurde die Theorie der elastischen Schwingungen und Wellen entwickelt (Helmholtz, J. W. Rayleigh und andere). Es ist eine Technik zum Erhalten niedriger Temperaturen entstanden. Alle Gase, außer Helium, wurden in flüssigem Zustand gewonnen, und zwar zu Beginn des 20. Jahrhunderts. H. Kamerling-Onnes (1998) verflüssigtes Helium.
Bis zum Ende des 19. Jahrhunderts. F. erschien seinen Zeitgenossen fast vollständig. Es schien, dass alle physikalischen Phänomene auf die Mechanik von Molekülen (oder Atomen) und Äther reduziert werden können. Äther galt als mechanisches Medium, in dem sich elektromagnetische Phänomene abspielen. Einer der größten Physiker des 19. Jahrhunderts. - W. Thomson achtete nur auf zwei unerklärliche Tatsachen: das negative Ergebnis von Michelsons Experiment zum Nachweis der Bewegung der Erde relativ zum Äther und die aus der Sicht von unverständliche Abhängigkeit der Wärmekapazität von Gasen von der Temperatur die molekularkinetische Theorie. Diese Tatsachen waren jedoch der erste Hinweis auf die Notwendigkeit, die Grundkonzepte der Philosophie des 19. Jahrhunderts zu überarbeiten. Um diese und viele andere später entdeckte Tatsachen zu erklären, war die Schaffung der Relativitätstheorie und der Quantenmechanik erforderlich.
Relativistische und Quantenphysik. Physik des Atomkerns und der Elementarteilchen (spätes 19. - 20. Jahrhundert).

Der Beginn einer neuen Ära in der Physik wurde durch die Entdeckung des Elektrons durch J. Thomson im Jahr 1897 vorbereitet. Es zeigte sich, dass Atome keine elementaren, sondern komplexe Systeme sind, die Elektronen beinhalten. Eine wichtige Rolle bei dieser Entdeckung spielte die Untersuchung elektrischer Entladungen in Gasen.

Im späten 19. - frühen 20. Jahrhundert. H. Lorentz legte die Grundlagen der elektronischen Theorie. Zu Beginn des 20. Jahrhunderts. Es wurde deutlich, dass die Elektrodynamik eine radikale Überarbeitung der Raum- und Zeitkonzepte erfordert, die der klassischen Newtonschen Mechanik zugrunde liegen. 1905 schuf Einstein eine spezielle (spezielle) Relativitätstheorie - eine neue Raum- und Zeittheorie. Diese Theorie wurde historisch durch die Werke von Lorentz und A. Poincaré vorbereitet.

Die Erfahrung hat gezeigt, dass das von Galileo formulierte Relativitätsprinzip, nach dem mechanische Phänomene in allen Inertialsystemen gleich ablaufen, auch für elektromagnetische Phänomene gilt. Daher sollten die Maxwell-Gleichungen ihre Form nicht ändern (sollten invariant sein), wenn sie von einem Trägheitsbezugssystem zu einem anderen wechseln. Es stellte sich jedoch heraus, dass dies nur dann zutrifft, wenn sich die Transformationen von Koordinaten und Zeit während eines solchen Übergangs von Galileis Transformationen unterscheiden, die in der Newtonschen Mechanik gültig sind. Lorentz fand diese Transformationen (Lorentz-Transformationen), konnte sie aber nicht richtig interpretieren. Dies hat Einstein in seiner speziellen Relativitätstheorie getan.

Die Entdeckung der speziellen Relativitätstheorie zeigte die Grenzen des mechanischen Weltbildes auf. Versuche, elektromagnetische Prozesse auf mechanische Prozesse in einem hypothetischen Medium – dem Äther – zu reduzieren, erwiesen sich als unhaltbar. Es wurde deutlich, dass das elektromagnetische Feld eine besondere Form der Materie ist, deren Verhalten nicht den Gesetzen der Mechanik gehorcht.
1916 baute Einstein die Allgemeine Relativitätstheorie – die physikalische Theorie von Raum, Zeit und Gravitation. Diese Theorie markierte eine neue Stufe in der Entwicklung der Gravitationstheorie.

An der Wende vom 19. zum 20. Jahrhundert, noch vor der Entstehung der speziellen Relativitätstheorie, wurde die größte Revolution in der Physik eingeleitet, verbunden mit der Entstehung und Entwicklung der Quantentheorie.

Ende des 19. Jahrhunderts. es stellte sich heraus, dass die aus dem Gesetz der klassischen statistischen Physik über die Gleichverteilung der Energie über die Freiheitsgrade abgeleitete Verteilung der Energie der Wärmestrahlung über das Spektrum dem Experiment widerspricht. Daraus folgte die Theorie, dass Materie bei jeder Temperatur elektromagnetische Wellen aussenden, Energie verlieren und auf den absoluten Nullpunkt abkühlen sollte, d. h. dass ein thermisches Gleichgewicht zwischen Materie und Strahlung unmöglich ist. Die Alltagserfahrung widersprach dieser Schlussfolgerung jedoch. Ein Ausweg wurde 1900 von M. Planck gefunden, der zeigte, dass die Ergebnisse der Theorie mit dem Experiment übereinstimmen, wenn wir entgegen der klassischen Elektrodynamik annehmen, dass Atome elektromagnetische Energie nicht kontinuierlich, sondern in getrennten Anteilen - Quanten - emittieren. Die Energie jedes dieser Quanten ist der Frequenz direkt proportional, und der Proportionalitätskoeffizient ist das Wirkungsquantum h = 6,6·10-27 erg·sec, später Plancksche Konstante genannt.

1905 erweiterte Einstein Plancks Hypothese, indem er vorschlug, dass sich der abgestrahlte Teil der elektromagnetischen Energie ausbreitet und auch nur als Ganzes absorbiert wird, d.h. verhält sich wie ein Teilchen (es wurde später Photon genannt). Auf der Grundlage dieser Hypothese erklärte Einstein die Gesetzmäßigkeiten des photoelektrischen Effekts, die nicht in den Rahmen der klassischen Elektrodynamik passen.

Damit wurde die Korpuskulartheorie des Lichts auf einer neuen qualitativen Ebene wiederbelebt. Licht verhält sich wie ein Strom von Teilchen (Korpuskeln); gleichzeitig weist es aber auch Welleneigenschaften auf, die sich insbesondere in Beugung und Interferenz von Licht äußern. Folglich sind dem Licht Wellen- und Korpuskulareigenschaften, die aus Sicht der klassischen Physik unvereinbar sind, gleichermaßen inhärent (Dualismus des Lichts). Die „Quantisierung“ der Strahlung führte zu dem Schluss, dass sich auch die Energie intraatomarer Bewegungen nur sprunghaft ändern kann. Diese Schlussfolgerung wurde 1913 von N. Bohr gezogen.

Zu dieser Zeit entdeckte E. Rutherford (1911) auf der Grundlage von Experimenten zur Streuung von Alphateilchen durch Materie den Atomkern und baute ein planetarisches Modell des Atoms. Im Rutherford-Atom bewegen sich Elektronen um den Kern auf die gleiche Weise wie Planeten um die Sonne. Nach Maxwells Elektrodynamik ist ein solches Atom jedoch instabil: Elektronen, die sich auf kreisförmigen (oder elliptischen) Bahnen bewegen, erfahren eine Beschleunigung und müssen daher ständig elektromagnetische Wellen aussenden, Energie verlieren und sich am Ende allmählich dem Kern nähern (wie Berechnungen gezeigt, für eine Zeit von etwa 10-8 Sekunden) darauf fallen. So erwies sich die Stabilität der Atome und ihrer Linienspektren im Rahmen der Gesetze des klassischen F. Bohr als unerklärlich aus dieser Schwierigkeit. Er postulierte, dass Atome spezielle stationäre Zustände haben, in denen Elektronen nicht emittieren. Strahlung tritt beim Übergang von einem stationären Zustand in einen anderen auf. Die Diskretion der Energie des Atoms wurde durch die Experimente von J. Frank und H. Hertz (1913–14) zur Untersuchung von Stößen mit durch ein elektrisches Feld beschleunigten Elektronenatomen bestätigt. Für das einfachste Atom - das Wasserstoffatom - konstruierte Bohr eine quantitative Theorie des Strahlungsspektrums, die mit dem Experiment übereinstimmt.

Im gleichen Zeitraum (spätes 19. - frühes 20. Jahrhundert) begann sich die Festkörperphysik in ihrem modernen Verständnis als Photonik kondensierter Systeme einer riesigen Anzahl von Teilchen (~ 1022 cm - 3) zu formen. Bis 1925 erfolgte seine Entwicklung in zwei Richtungen: Physik des Kristallgitters und Physik der Elektronen in Kristallen, vor allem in Metallen. Anschließend wurden diese Richtungen auf der Grundlage der Quantentheorie geschlossen.

Das Konzept eines Kristalls als einer im Raum geordneten und durch die Wechselwirkungskräfte im Gleichgewicht gehaltenen Atommenge hat eine lange Entwicklung hinter sich und wurde zu Beginn des 20. Die Entwicklung dieses Modells begann mit den Arbeiten von Newton (1686) zur Berechnung der Schallgeschwindigkeit in einer Kette elastisch gebundener Teilchen und wurde von anderen Wissenschaftlern fortgesetzt: D. und I. Bernoulli (1727), Cauchy (1830), W Thomson (1881) und andere.

Ende des 19. Jahrhunderts. ES Fedorov legte mit seinen Arbeiten zur Struktur und Symmetrie von Kristallen den Grundstein für die theoretische Kristallographie; In den Jahren 1890-91 bewies er die Möglichkeit der Existenz von 230 Raumsymmetriegruppen von Kristallen – Arten geordneter Anordnung von Teilchen in einem Kristallgitter (die sogenannten Fedorov-Gruppen). 1912 entdeckten M. Laue und seine Mitarbeiter die Röntgenbeugung an Kristallen und bestätigten damit endgültig das Konzept eines Kristalls als geordnete Atomstruktur. Basierend auf dieser Entdeckung wurde eine Methode zur experimentellen Bestimmung der Anordnung von Atomen in Kristallen und zur Messung interatomarer Abstände entwickelt, die den Beginn der Röntgenstrukturanalyse markiert [W. L. Bragg und W. G. Bragg (1913), G. W. Wolfe (1913)]. In den gleichen Jahren (1907–1914) wurde eine dynamische Theorie der Kristallgitter entwickelt, die bereits Quantenkonzepte berücksichtigt. 1907 erklärte Einstein anhand eines Kristallmodells als Satz von quantenharmonischen Oszillatoren gleicher Frequenz den beobachteten Abfall der Wärmekapazität von Festkörpern mit abnehmender Temperatur - eine Tatsache, die in scharfem Widerspruch zum Dulong- und Petit-Gesetz steht . Eine perfektere dynamische Theorie des Kristallgitters als eine Menge gekoppelter Quantenoszillatoren verschiedener Frequenzen wurde von P. Debye (1912), M. Born und T. Karman (1913) und E. Schrödinger (1914) in einer Form konstruiert nah am modernen. Seine neue wichtige Phase begann nach der Erschaffung der Quantenmechanik.

Die zweite Richtung (Physik des Elektronensystems im Kristall) begann sich unmittelbar nach der Entdeckung des Elektrons als elektronische Theorie der Metalle und anderer Festkörper zu entwickeln. In dieser Theorie wurden Elektronen in einem Metall als Füllung betrachtet Kristallgitter ein Gas aus freien Elektronen, ähnlich einem gewöhnlichen verdünnten molekularen Gas, das dem klassischen gehorcht. Boltzmann-Statistik. Die Elektroniktheorie ermöglichte die Erklärung der Gesetze von Ohm und Wiedemann-Franz (P. Drude), legte die Grundlagen für die Theorie der Lichtstreuung in Kristallen usw. Allerdings passen nicht alle Fakten in den Rahmen der klassischen Elektronik Theorie. So wurde die Abhängigkeit des spezifischen Widerstands von Metallen von der Temperatur nicht erklärt, es blieb unklar, warum das Elektronengas keinen nennenswerten Beitrag zur Wärmekapazität von Metallen leistet usw. Ein Ausweg aus diesen Schwierigkeiten wurde erst nach der Konstruktion der Quantenmechanik gefunden.

Die erste von Bohr geschaffene Version der Quantentheorie war innerlich widersprüchlich: Mit den Gesetzen der Newtonschen Mechanik für die Bewegung von Elektronen legte Bohr gleichzeitig der möglichen Bewegung von Elektronen künstlich Quantenbeschränkungen auf, die der klassischen Physik fremd waren.
Die zuverlässig nachgewiesene Diskretion der Wirkung und ihr quantitatives Maß - die Plancksche Konstante h - eine universelle Weltkonstante, die die Rolle der natürlichen Skala von Naturphänomenen spielt, erforderte eine radikale Umgestaltung sowohl der Gesetze der Mechanik als auch der Gesetze der Elektrodynamik. Die klassischen Gesetze gelten nur bei Betrachtung der Bewegung von Objekten mit ausreichend großer Masse, wenn die Werte der Dimension der Aktion im Vergleich zu h groß sind und die Diskretheit der Aktion vernachlässigt werden kann.

In den 20er Jahren. 20. Jahrhundert die tiefste und umfassendste moderne physikalische Theorie wurde geschaffen - die Quanten- oder Wellenmechanik - eine konsistente, logisch vollständige nichtrelativistische Theorie der Bewegung von Mikropartikeln, die es auch ermöglichte, viele Eigenschaften makroskopischer Körper und die in ihnen auftretenden Phänomene zu erklären . Die Quantenmechanik basiert auf der Idee der Quantisierung von Planck-Einstein-Bohr und der Hypothese von L. de Broglie (1924), dass die duale Welle-Teilchen-Natur nicht nur elektromagnetischer Strahlung (Photonen) inhärent ist, sondern auch alle anderen Arten von Materie. Alle Mikroteilchen (Elektronen, Protonen, Atome usw.) haben neben Korpuskular- und Welleneigenschaften: jedes von ihnen kann einer Welle zugeordnet werden (deren Länge gleich dem Verhältnis der Planck-Konstanten h zum Teilchenimpuls ist, und die Frequenz zum Verhältnis der Teilchenenergie zu h). De Broglie-Wellen beschreiben freie Teilchen. 1927 wurde erstmals Elektronenbeugung beobachtet, die ihre Welleneigenschaften experimentell bestätigte. Später wurde Beugung auch in anderen Mikropartikeln, einschließlich Molekülen, beobachtet (vgl. Partikelbeugung).

1926 formulierte Schrödinger, der versuchte, aus einer Wellengleichung diskrete Werte der Energie eines Atoms zu erhalten, die nach ihm benannte Grundgleichung der Quantenmechanik. W. Heisenberg und Born (1925) konstruierten die Quantenmechanik in einer anderen mathematischen Form - der sogenannten. Matrix Mechanik.

Im Jahr 1925 entdeckten J. Yu. Uhlenbeck und S. A. Goudsmit auf der Grundlage experimenteller (spektroskopischer) Daten die Existenz eines eigenen Drehimpulses eines Elektrons - Spin (und damit das zugehörige intrinsische Spin, magnetisches Moment), gleich 1/2 ... (Die Größe des Spins wird normalerweise in Einheiten = h / 2? ein nichtrelativistisches Elektron in einem äußeren elektromagnetischen Feld unter Berücksichtigung der Wechselwirkung des magnetischen Moments eines Elektrons mit einem Magnetfeld. 1925 formulierte er auch die sog. das Ausschlussprinzip, wonach in einem Quantenzustand nicht mehr als ein Elektron sein kann (Pauli-Prinzip). Dieses Prinzip spielte eine wichtige Rolle bei der Konstruktion der Quantentheorie von Systemen vieler Teilchen, insbesondere erklärte es die Gesetze der Füllung von Schalen und Schichten in Vielelektronenatomen mit Elektronen usw. gab eine theoretische Grundlage für das Periodensystem der Elemente von Mendelejew.

1928 erhielt PA Dirac die quantenrelativistische Bewegungsgleichung für ein Elektron (siehe Dirac-Gleichung), woraus natürlich folgte, dass das Elektron einen Spin hat. Auf der Grundlage dieser Gleichung sagte Dirac 1931 die Existenz eines Positrons (des ersten Antiteilchens) voraus, das 1932 von KD Anderson in der kosmischen Strahlung entdeckt wurde. [Antiteilchen von anderen Struktureinheiten Substanzen (Proton und Neutron) - Antiproton und Antineutron wurden 1955 bzw. 1956 experimentell entdeckt.]

Parallel zur Entwicklung der Quantenmechanik gab es die Entwicklung der Quantenstatistik - der Quantentheorie des Verhaltens physikalischer Systeme (insbesondere makroskopischer Körper), die aus einer großen Anzahl von Mikropartikeln besteht. 1924 leitete S. Bose unter Anwendung der Prinzipien der Quantenstatistik auf Photonen - Teilchen mit Spin 1 - die Plancksche Formel für die Energieverteilung im Spektrum der Gleichgewichtsstrahlung ab und Einstein erhielt die Formel für die Energieverteilung für ein ideales Gas aus Molekülen (Bose - Einstein-Statistik). 1926 zeigten P. A. M. Dirac und E. Fermi, dass die Menge der Elektronen (und anderer identischer Teilchen mit Spin 1/2), für die das Pauli-Prinzip gilt, einer anderen Statistik gehorcht – der Fermi-Dirac-Statistik. 1940 stellte Pauli eine Verbindung zwischen Spin und Statistik her.

Die Quantenstatistik hat bei der Entwicklung der Phasenphysik in kondensierten Medien und vor allem bei der Konstruktion der Phasenphysik in Festkörpern eine wichtige Rolle gespielt. In der Quantensprache können die thermischen Schwingungen der Atome eines Kristalls als ein Aggregat einer Art von "Teilchen" oder besser Quasiteilchen, - Phononen (eingeführt von IE Tamm 1929), betrachtet werden. Dieser Ansatz erklärt insbesondere die Abnahme der Wärmekapazität von Metallen (nach dem T3-Gesetz) mit sinkender Temperatur T im Tieftemperaturbereich und zeigte auch, dass die Ursache des elektrischen Widerstands von Metallen die Streuung von Elektronen ist nicht durch Ionen, sondern hauptsächlich durch Phononen. Später wurden andere Quasiteilchen eingeführt. Die Quasiteilchenmethode hat sich als sehr effektiv erwiesen, um die Eigenschaften komplexer makroskopischer Systeme im kondensierten Zustand zu untersuchen.

1928 wandte A. Sommerfeld die Fermi-Dirac-Verteilungsfunktion an, um Transportvorgänge in Metallen zu beschreiben. Dies löste eine Reihe von Schwierigkeiten der klassischen Theorie und schuf die Grundlage für die Weiterentwicklung der Quantentheorie kinetischer Phänomene (elektrische und thermische Leitfähigkeit, thermoelektrische, galvanomagnetische und andere Effekte) in Festkörpern, insbesondere in Metallen und Halbleitern.
Nach dem Pauli-Prinzip ist die Energie des gesamten Satzes freier Elektronen in einem Metall selbst beim absoluten Nullpunkt ungleich Null. Im nicht angeregten Zustand sind alle Energieniveaus von Null bis zu einem bestimmten Maximalniveau (Fermi-Niveau) von Elektronen besetzt. Mit diesem Bild konnte Sommerfeld den geringen Beitrag von Elektronen zur Wärmekapazität von Metallen erklären: Beim Erhitzen werden nur Elektronen nahe dem Fermi-Niveau angeregt.

In den Arbeiten von F. Bloch, H. A. Bethe und L. Brillouin (1928–34) wurde die Theorie der Energiebandstruktur von Kristallen entwickelt, die eine natürliche Erklärung für die Unterschiede in den elektrischen Eigenschaften von Dielektrika und Metallen lieferte. Der beschriebene Ansatz, der den Namen der Ein-Elektronen-Näherung erhalten hat, wurde weiterentwickelt und vor allem in der Halbleiterphysik weit verbreitet.

1928 zeigten Ya. I. Frenkel und Heisenberg, dass der Ferromagnetismus auf der Quantenaustauschwechselwirkung beruht (die 1926 von Heisenberg am Beispiel des Heliumatoms betrachtet wurde); 1932–33 sagten L. Neel und unabhängig voneinander L. D. Landau den Antiferromagnetismus voraus.
Die Entdeckungen der Supraleitung von Kamerling-Onnes (1911) und der Suprafluidität von flüssigem Helium von PL Kapitza (1938) regten die Entwicklung neuer Methoden in der Quantenstatistik an. Phänomenologie. die Theorie der Suprafluidität wurde von Landau (1941) konstruiert; der nächste Schritt war die Phänomenologie, die Theorie der Supraleitung von Landau und V. L. Ginzburg (1950).

In den 50er Jahren. Neue leistungsfähige Berechnungsmethoden wurden in der statistischen Quantentheorie von Vielteilchensystemen entwickelt, zu deren bemerkenswertesten Errungenschaften die Entwicklung der mikroskopischen Theorie der Supraleitung durch J. Bardeen, L. Cooper, J. Schrieffer (USA) und NNBogolyubov (UdSSR).

Versuche, eine konsistente Quantentheorie der Lichtemission von Atomen zu konstruieren, führten zu einer neuen Stufe in der Entwicklung der Quantentheorie – der Schaffung der Quantenelektrodynamik (Dirac, 1929).

Im zweiten Viertel des 20. Jahrhunderts. eine weitere revolutionäre Transformation der Physik fand statt, verbunden mit der Kenntnis des Aufbaus des Atomkerns und der darin ablaufenden Prozesse, und mit der Erzeugung von Elementarteilchen durch die Physik. Die oben erwähnte Entdeckung des Atomkerns durch Rutherford wurde durch die Entdeckung der Radioaktivität und radioaktiven Umwandlungen von Schweratomen Ende des 19. Jahrhunderts vorbereitet. (A. Becquerel, P. und M. Curie). Zu Beginn des 20. Jahrhunderts. Isotope wurden entdeckt. Die ersten Versuche, die Struktur des Atomkerns direkt zu studieren, gehen auf das Jahr 1919 zurück, als Rutherford durch Beschuss stabiler Stickstoffkerne mit γ-Teilchen deren künstliche Umwandlung in Sauerstoffkerne erreichte. Die Entdeckung des Neutrons im Jahr 1932 durch J. Chadwick führte zur Schaffung des modernen Proton-Neutronen-Modells des Kerns (D. D. Ivanenko, Heisenberg). 1934 entdeckten die Eheleute I. und F. Joliot-Curie die künstliche Radioaktivität.

Die Entwicklung von Beschleunigern für geladene Teilchen hat die Untersuchung verschiedener Kernreaktionen ermöglicht. Das wichtigste Ergebnis dieser Phase der Physik war die Entdeckung der Atomspaltung.

In den Jahren 1939-45 wurde erstmals Kernenergie mithilfe der 235U-Kettenreaktion der Spaltung freigesetzt und eine Atombombe geschaffen. Das Verdienst, die kontrollierte Kernspaltungsreaktion von 235U für friedliche, industrielle Zwecke zu nutzen, gehört der UdSSR. 1954 wurde das erste Atomkraftwerk in der UdSSR (Obninsk) gebaut. Später wurden in vielen Ländern kostengünstige Kernkraftwerke errichtet.

1952 wurde eine thermonukleare Fusionsreaktion durchgeführt (eine Atombombe wurde gezündet) und 1953 wurde eine Wasserstoffbombe hergestellt.
Gleichzeitig mit der Physik des Atomkerns im 20. Jahrhundert. Die Physik der Elementarteilchen begann sich rasch zu entwickeln. Der erste großer Erfolg in diesem Bereich sind mit dem Studium der kosmischen Strahlung verbunden. Myonen, Pi-Mesonen, K-Mesonen, die ersten Hyperonen wurden entdeckt. Nach der Entwicklung hochenergetischer Beschleuniger für geladene Teilchen begann eine systematische Untersuchung der Elementarteilchen, ihrer Eigenschaften und Wechselwirkungen; die Existenz von zwei Arten von Neutrinos wurde experimentell nachgewiesen und viele neue Elementarteilchen wurden entdeckt, darunter extrem instabile Teilchen - Resonanzen, deren durchschnittliche Lebensdauer nur 10-22-10-24 Sekunden beträgt. Die entdeckte universelle Umwandlung von Elementarteilchen zeigte, dass diese Teilchen nicht im absoluten Sinne des Wortes elementar sind, sondern eine komplexe innere Struktur haben, die noch entdeckt werden muss. Die Theorie der Elementarteilchen und ihrer Wechselwirkungen (stark, elektromagnetisch und schwach) ist Gegenstand der Quantenfeldtheorie – eine Theorie, die noch lange nicht abgeschlossen ist.

III. Grundlegende Theorien der Physik

Klassische Newtonsche Mechanik

Newtons Einführung des Zustandsbegriffs war von grundlegender Bedeutung für die gesamte Physik. Ursprünglich wurde es für das einfachste mechanische System formuliert - ein System von materiellen Punkten. In wesentlichen Punkten gelten die Newtonschen Gesetze direkt. In allen nachfolgenden physikalischen Theorien war der Staatsbegriff einer der wichtigsten. Der Zustand eines mechanischen Systems wird vollständig durch die Koordinaten und Impulse aller das System bildenden Körper bestimmt. Wenn die Wechselwirkungskräfte von Körpern, die ihre Beschleunigungen bestimmen, bekannt sind, ermöglichen die Bewegungsgleichungen der Newtonschen Mechanik (Newtons zweites Gesetz) basierend auf den Werten von Koordinaten und Impulsen zum Anfangszeitpunkt eindeutig die Werte von Koordinaten und Impulsen zu jedem späteren Zeitpunkt ermitteln. Koordinaten und Impulse sind Grundgrößen der klassischen Mechanik; Wenn man sie kennt, kann man den Wert jeder anderen mechanischen Größe berechnen: Energie, Drehimpuls usw. Obwohl sich später herausstellte, dass die Newtonsche Mechanik einen begrenzten Anwendungsbereich hat, war und ist sie die Grundlage, ohne die der Bau des gesamten Gebäudes der modernen Physik wäre unmöglich gewesen. ...

Kontinuumsmechanik

Gase, Flüssigkeiten und Feststoffe gelten in der Kontinuumsmechanik als kontinuierliche homogene Medien. Anstelle von Koordinaten und Impulsen von Teilchen wird der Zustand des Systems eindeutig durch folgende Funktionen von Koordinaten (x, y, z) und Zeit (t) charakterisiert: Dichte p (x, y, z, t), Druck P ( x, y, z, t) und hydrodynamisch die Geschwindigkeit v (x, y, z, t), mit der die Masse übertragen wird. Die Gleichungen der Kontinuumsmechanik ermöglichen es, die Werte dieser Funktionen zu jedem späteren Zeitpunkt zu ermitteln, wenn ihre Werte im Anfangsmoment und die Randbedingungen bekannt sind.

Die Euler-Gleichung, die den Flüssigkeitsdurchfluss mit dem Druck verbindet, zusammen mit der Kontinuitätsgleichung, die die Erhaltung der Materie ausdrückt, ermöglichen die Lösung aller Probleme der Dynamik einer idealen Flüssigkeit. In der Hydrodynamik eines viskosen Fluids wird die Wirkung von Reibungskräften und der Einfluss der Wärmeleitfähigkeit, die zum Abbau mechanischer Energie führen, berücksichtigt und die Mechanik kontinuierlicher Medien hört auf, "reine Mechanik" zu sein: thermische Prozesse unentbehrlich werden. Erst mit der Entstehung der Thermodynamik wurde ein vollständiges Gleichungssystem formuliert, das mechanische Vorgänge in realen gasförmigen, flüssigen und festen Körpern beschreibt. Die Bewegung von elektrisch leitfähigen Flüssigkeiten und Gasen wird in der Magnetohydrodynamik untersucht. Schwingungen eines elastischen Mediums und die Ausbreitung von Wellen darin werden in der Akustik untersucht.

Thermodynamik

Der gesamte Inhalt der Thermodynamik ist hauptsächlich eine Folge von zwei Prinzipien: dem ersten Prinzip - dem Energieerhaltungssatz und dem zweiten Prinzip, aus dem die Irreversibilität makroskopischer Prozesse folgt. Diese Prinzipien ermöglichen es, eindeutige Zustandsfunktionen einzuführen: innere Energie und Entropie. In geschlossenen Systemen bleibt die innere Energie unverändert und die Entropie bleibt nur bei Gleichgewichtsprozessen (reversibel) erhalten. Bei irreversiblen Prozessen nimmt die Entropie zu, und ihr Wachstum spiegelt am besten eine bestimmte Richtung makroskopischer Prozesse in der Natur wider. In der Thermodynamik sind die wichtigsten Größen, die den Zustand eines Systems bestimmen – thermodynamische Parameter – im einfachsten Fall Druck, Volumen und Temperatur. Der Zusammenhang zwischen ihnen ist durch die thermische Zustandsgleichung (und die Abhängigkeit der Energie von Volumen und Temperatur durch die kalorische Zustandsgleichung) gegeben. Die einfachste thermische Zustandsgleichung ist die ideale Gaszustandsgleichung (Clapeyron-Gleichung).

In der klassischen Thermodynamik werden thermische Gleichgewichtszustände und Gleichgewichtsprozesse (unendlich langsame) untersucht. Zeit ist nicht Teil der Grundgleichungen. Anschließend (ab den 1930er Jahren) wurde die Thermodynamik von Nichtgleichgewichtsprozessen erstellt. In dieser Theorie wird der Zustand durch Dichte, Druck, Temperatur, Entropie und andere Größen (lokale thermodynamische Parameter) definiert, die als Funktionen von Koordinaten und Zeit betrachtet werden. Für sie werden die Gleichungen der Übertragung von Masse, Energie, Impuls geschrieben, die die Entwicklung des Zustands des Systems über die Zeit beschreiben (Gleichungen der Diffusion und Wärmeleitung, Navier-Stokes-Gleichungen). Diese Gleichungen drücken lokale (d. h. gültig für ein gegebenes infinitesimales Volumenelement gültige) Erhaltungsgesetze des angegebenen Physikalischen aus. Mengen.

Statistische Physik (Statistische Mechanik)

In der klassischen statistischen Mechanik wird anstelle der Koordinaten ri und der Impulse pi der Teilchen des Systems die Verteilungsfunktion der Teilchen in Koordinaten und Impulsen f (ri, pi, ..., rN, pN, t) angegeben, was die Wahrscheinlichkeitsdichte für die Erkennung der beobachteten Werte von Koordinaten und Impulsen in bestimmten kleinen Abständen zu einem bestimmten Zeitpunkt t (N ist die Anzahl der Teilchen im System) bedeutet. Die Verteilungsfunktion f erfüllt die Bewegungsgleichung (Liouville-Gleichung), die die Form einer Kontinuitätsgleichung im Raum aller r und pi (d. h. im Phasenraum) hat.

Die Liouville-Gleichung bestimmt f zu jedem nachfolgenden Zeitpunkt eindeutig durch seinen gegebenen Wert im Anfangsmoment, wenn die Wechselwirkungsenergie zwischen den Teilchen des Systems bekannt ist. Mit der Verteilungsfunktion können Sie die Durchschnittswerte der Dichten von Materie, Energie, Impuls und ihrer Flüsse sowie deren Abweichungen von den Durchschnittswerten - Fluktuationen - berechnen. Die Gleichung, die die Entwicklung der Verteilungsfunktion für ein Gas beschreibt, wurde zuerst von Boltzmann (1872) erhalten und wurde die kinetische Boltzmann-Gleichung genannt.

Gibbs erhielt einen Ausdruck für die Verteilungsfunktion eines beliebigen Systems im Gleichgewicht mit einem Thermostat (kanonische Gibbs-Verteilung). Diese Verteilungsfunktion ermöglicht berühmter Ausdruck Energie als Funktion von Koordinaten und Impulsen von Teilchen (Hamilton-Funktion) berechnen alle thermodynamischen Potentiale, die Gegenstand der statistischen Thermodynamik sind.

Die Prozesse, die in aus dem thermodynamischen Gleichgewicht gebrachten Systemen auftreten, sind irreversibel und werden in der statistischen Theorie der Nichtgleichgewichtsprozesse untersucht (diese Theorie bildet zusammen mit der Thermodynamik der Nichtgleichgewichtsprozesse die physikalische Kinetik). Grundsätzlich ist es bei bekannter Verteilungsfunktion möglich, beliebige makroskopische Größen, die das System im Nichtgleichgewichtszustand charakterisieren, zu bestimmen und deren zeitliche Veränderung im Raum zu verfolgen.

Zur Berechnung der das System charakterisierenden physikalischen Größen (mittlere Dichten von Teilchenzahl, Energie und Impuls) ist die Kenntnis der vollständigen Verteilungsfunktion nicht erforderlich. Ganz einfachere Verteilungsfunktionen: Einzelteilchen, die die durchschnittliche Anzahl der Teilchen mit gegebenen Koordinaten- und Impulswerten angeben, und Zweiteilchen, die die gegenseitige Beeinflussung (Korrelation) zweier Teilchen bestimmen. Eine allgemeine Methode zum Erhalten von Gleichungen für solche Funktionen wurde (in den 40er Jahren des 20. Jahrhunderts) von Bogolyubov, Born, G. Green (englischer Physiker) ua entwickelt Gleichungen für eine Ein-Teilchen-Verteilungsfunktion, deren Konstruktion ist für Gase geringer Dichte möglich sind, werden als kinetisch bezeichnet. Dazu gehört die kinetische Boltzmann-Gleichung. Varianten der Boltzmann-Gleichung für ein ionisiertes Gas (Plasma) sind die kinetischen Gleichungen von Landau und AA Vlasov (30–40er Jahre des 20. Jahrhunderts).

In den letzten Jahrzehnten hat die Plasmaforschung immer mehr an Bedeutung gewonnen. In dieser Umgebung spielen die elektromagnetischen Wechselwirkungen geladener Teilchen die Hauptrolle, und nur eine statistische Theorie kann in der Regel verschiedene Fragen zum Verhalten von Plasma beantworten. Insbesondere ermöglicht es die Untersuchung der Stabilität eines Hochtemperaturplasmas in einem externen elektromagnetischen Feld. Dieses Problem ist im Zusammenhang mit dem Problem der kontrollierten thermonuklearen Fusion äußerst dringlich.

Elektrodynamik

Der Zustand des elektromagnetischen Feldes in der Maxwellschen Theorie wird durch zwei Hauptvektoren charakterisiert: die Stärke des elektrischen Feldes E und die magnetische Induktion B, die Funktionen von Koordinaten und Zeit sind. Die elektromagnetischen Eigenschaften eines Stoffes werden durch drei Größen bestimmt: Dielektrizitätskonstante?, Magnetische Permeabilität (und elektrische Leitfähigkeit?, die experimentell bestimmt werden muss. Für die Vektoren E und B und die zugehörigen Hilfsvektoren der elektrischen Induktion D und der magnetischen Feldstärke H, a System linearer Differentialgleichungen wird mit partiellen Ableitungen geschrieben - Maxwell-Gleichungen. Diese Gleichungen beschreiben die Entwicklung des elektromagnetischen Feldes. Aus den Werten der Feldeigenschaften zum Anfangszeitpunkt innerhalb eines bestimmten Volumens und aus den Randbedingungen auf der Oberfläche dieses Volumens finden sich zu jedem späteren Zeitpunkt E und B. Diese Vektoren bestimmen die Kraft, die auf ein geladenes Teilchen einwirkt, das sich in einem elektromagnetischen Feld mit einer bestimmten Geschwindigkeit bewegt (Lorentzkraft).
Der Begründer der elektronischen Theorie, Lorentz, formulierte Gleichungen, die elementare elektromagnetische Prozesse beschreiben. Diese Gleichungen, die Lorentz-Maxwell-Gleichungen genannt werden, beziehen die Bewegung einzelner geladener Teilchen mit dem von ihnen erzeugten elektromagnetischen Feld in Beziehung.

Basierend auf dem Konzept der Diskretheit elektrischer Ladungen und Gleichungen für elementare elektromagnetische Prozesse ist es möglich, die Methoden der statistischen Mechanik auf elektromagnetische Prozesse in Materie auszudehnen. Die elektronische Theorie ermöglichte es, die physikalische Bedeutung der elektromagnetischen Eigenschaften einer Substanz aufzudecken ?,?,? und ermöglichte es, die Werte dieser Größen in Abhängigkeit von Frequenz, Temperatur, Druck usw.

Private (spezielle) Relativitätstheorie. Relativistische Mechanik

Die spezielle Relativitätstheorie – die physikalische Theorie von Raum und Zeit ohne Gravitationsfelder – basiert auf zwei Postulaten: dem Relativitätsprinzip und der Unabhängigkeit der Lichtgeschwindigkeit von der Bewegung der Quelle. Nach dem Einsteinschen Relativitätsprinzip sind alle physikalischen Phänomene - mechanisch, optisch, thermisch usw. - in allen Inertialbezugssystemen unter den gleichen Bedingungen gleich verfahren. Dies bedeutet, dass die gleichmäßige und geradlinige Bewegung des Systems den Ablauf der Prozesse darin nicht beeinflusst. Alle Trägheitsbezugssysteme sind gleich (es gibt kein eigenes, „absolut ruhendes“ Bezugssystem, ebenso wie es keinen absoluten Raum und keine absolute Zeit gibt). Daher ist die Lichtgeschwindigkeit im Vakuum in allen Inertialsystemen gleich. Aus diesen beiden Postulaten folgen beim Übergang von einem Inertialsystem zum anderen Koordinaten- und Zeittransformationen - die Lorentztransformation. Aus den Lorentz-Transformationen werden die Haupteffekte der speziellen Relativitätstheorie gewonnen: die Existenz einer Grenzgeschwindigkeit, die mit der Lichtgeschwindigkeit im Vakuum c zusammenfällt (kein Körper kann sich mit einer Geschwindigkeit über c bewegen, und c ist das Maximum Übertragungsgeschwindigkeit von Interaktionen); die Relativität der Gleichzeitigkeit (Ereignisse, die in einem Trägheitsbezugssystem gleichzeitig auftreten, sind in einem anderen im Allgemeinen nicht gleichzeitig); Verlangsamung des Zeitflusses und Reduzierung der longitudinalen - in Bewegungsrichtung - Körpermaße (alle physikalischen Prozesse in einem Körper, der sich mit der Geschwindigkeit v relativ zu einem bestimmten Inertialsystem bewegt, laufen um ein Vielfaches langsamer ab als die gleichen Prozesse in einem gegebenen Inertialsystem Rahmen, und Abnahme um den gleichen Betrag Längsabmessungen des Körpers). Aus der Gleichheit aller Trägheitsbezugssysteme folgt, dass die Auswirkungen der Zeitdilatation und Verkleinerung von Körpern nicht absolut, sondern abhängig vom Bezugssystem relativ sind.

Die Newtonschen Gesetze der Mechanik verlieren ihre Gültigkeit bei hohen (mit Lichtgeschwindigkeit vergleichbaren) Bewegungsgeschwindigkeiten. Unmittelbar nach der Erstellung der Relativitätstheorie wurden relativistische Bewegungsgleichungen gefunden, die die Bewegungsgleichungen der Newtonschen Mechanik verallgemeinern. Diese Gleichungen eignen sich, um die Bewegung von Teilchen mit Geschwindigkeiten nahe der Lichtgeschwindigkeit zu beschreiben. Ausschließlich notwendig für die Physik zwei Konsequenzen der relativistischen Mechanik: die Abhängigkeit der Masse eines Teilchens von der Geschwindigkeit und den universellen Zusammenhang zwischen Energie und Masse (siehe Relativitätstheorie).

Bei hohen Bewegungsgeschwindigkeiten muss jede physikalische Theorie den Anforderungen der Relativitätstheorie genügen, dh sie muss relativistisch invariant sein. Die Gesetze der Relativitätstheorie bestimmen Transformationen beim Übergang von einem Inertialbezugssystem in ein anderes nicht nur Koordinaten und Zeit, sondern auch jede physikalische Größe. Diese Theorie folgt aus den Prinzipien der Invarianz oder Symmetrie in der Physik (siehe Symmetrie in der Physik).

Allgemeine Relativitätstheorie (Gravitationstheorie)

Von den vier Arten fundamentaler Wechselwirkungen – Gravitation, elektromagnetische, starke und schwache – wurden zuerst Gravitationswechselwirkungen oder Gravitationskräfte entdeckt. Seit mehr als zweihundert Jahren hat sich an den Grundlagen der Newtonschen Gravitationstheorie nichts geändert. Fast alle Konsequenzen der Theorie stimmten vollständig mit dem Experiment überein.

Im 2. Jahrzehnt des 20. Jahrhunderts. die klassische Gravitationstheorie wurde von Einstein revolutioniert. Einsteins Gravitationstheorie wurde im Gegensatz zu allen anderen Theorien ohne die stimulierende Rolle neuer Experimente durch die logische Weiterentwicklung des Relativitätsprinzips in Bezug auf gravitative Wechselwirkungen geschaffen und wurde als allgemeine Relativitätstheorie bezeichnet. Einstein interpretierte die von Galileo festgestellte Tatsache der Gleichheit von Gravitations- und Trägheitsmassen neu (siehe Masse). Diese Gleichheit bedeutet, dass die Schwerkraft die Bahnen aller Körper gleich verbiegt. Daher kann die Gravitation als eine Krümmung der Raumzeit selbst angesehen werden. Einsteins Theorie zeigte eine tiefe Verbindung zwischen der Geometrie der Raumzeit und der Verteilung und Bewegung von Massen. Bestandteile der sog. metrische Tensoren, die die Raum-Zeit-Metrik charakterisieren, sind gleichzeitig die Potentiale des Gravitationsfeldes, dh sie bestimmen den Zustand des Gravitationsfeldes. Das Gravitationsfeld wird durch Einsteins nichtlineare Gleichungen beschrieben. In der Näherung schwacher Felder folgt daraus die Existenz von Gravitationswellen, die noch nicht experimentell entdeckt wurden (vgl. Gravitationsstrahlung).

Gravitationskräfte sind die schwächsten der fundamentalen Kräfte in der Natur. Für Protonen sind sie etwa 1036 mal schwächer als elektromagnetische. In der modernen Elementarteilchentheorie werden Gravitationskräfte nicht berücksichtigt, weil glauben, dass sie keine herausragende Rolle spielen. Die Rolle der Gravitationskräfte wird bei den Wechselwirkungen von Körpern kosmischer Dimensionen entscheidend; sie bestimmen auch die Struktur und Entwicklung des Universums.

Einsteins Gravitationstheorie führte zu neuen Ideen über die Entwicklung des Universums. Mitte 20. A. A. Fridman hat eine instationäre Lösung der Gravitationsfeldgleichungen gefunden, die dem expandierenden Universum entspricht. Diese Schlussfolgerung wurde durch die Beobachtungen von E. Hubble bestätigt, der das Gesetz der Rotverschiebung für Galaxien entdeckte (was bedeutet, dass die Abstände zwischen Galaxien mit der Zeit zunehmen). DR. Ein Beispiel für eine Theorievorhersage ist die Möglichkeit der unbegrenzten Kompression von Sternen ausreichend großer Massen (mehr als 2–3 Sonnenmassen) mit der Bildung der sogenannten. "Schwarze Löcher". Es gibt bestimmte Hinweise (Beobachtungen von Doppelsternen - diskrete Röntgenquellen) auf die Existenz solcher Objekte.

Die Allgemeine Relativitätstheorie ist wie die Quantenmechanik die großen Theorien des 20. Jahrhunderts. Alle bisherigen Theorien, einschließlich der speziellen Relativitätstheorie, werden normalerweise als klassische Physik bezeichnet (manchmal wird die gesamte Nicht-Quantenphysik als klassische Physik bezeichnet).

Quantenmechanik

Der Zustand eines Mikroobjekts wird in der Quantenmechanik durch eine Wellenfunktion charakterisiert?. Die Wellenfunktion hat eine statistische Bedeutung (Born, 1926): Sie stellt die Wahrscheinlichkeitsamplitude dar, dh das Quadrat ihres Moduls, 2 ist die Wahrscheinlichkeitsdichte, ein Teilchen in einem bestimmten Zustand zu finden. Koordinatendarstellung? =? (x, y, z, t) und der Wert 2? x? y? z bestimmt die Wahrscheinlichkeit, dass die Teilchenkoordinaten zum Zeitpunkt t in einem kleinen Volumen liegen? x? y? z in der Nähe des Punktes mit Koordinaten? x y, z. Die Zustandsentwicklung eines Quantensystems wird eindeutig mit der Schrödinger-Gleichung bestimmt.
Die Wellenfunktion liefert eine vollständige Charakterisierung des Zustands. Wissen?, Man kann die Wahrscheinlichkeit eines bestimmten Wertes aller physikalischen Größen, die sich auf ein Teilchen (oder ein Teilchensystem) beziehen, und die Durchschnittswerte all dieser physikalischen Größen berechnen. Statistische Verteilungen in Koordinaten und Impulsen sind nicht unabhängig, woraus folgt, dass die Koordinate und der Impuls eines Teilchens nicht gleichzeitig genaue Werte haben können (Heisenbergsche Unschärferelation); ihre Streuung hängt mit Unsicherheiten durch das Verhältnis zusammen. Die Unschärferelation gilt auch für Energie und Zeit.

In der Quantenmechanik können der Drehimpuls, seine Projektion sowie die Energie bei der Bewegung in einem begrenzten Raumbereich nur eine Reihe von diskreten Werten annehmen. Mögliche Werte physikalischer Größen sind die Eigenwerte von Operatoren, die in der Quantenmechanik jeder physikalischen Größe zugeordnet werden. Eine physikalische Größe nimmt nur dann einen bestimmten Wert mit einer Wahrscheinlichkeit gleich eins an, wenn sich das System in einem Zustand befindet, der durch die Eigenfunktion des entsprechenden Operators repräsentiert wird.
Die Quantenmechanik von Schrödinger - Heisenberg genügt nicht den Anforderungen der Relativitätstheorie, ist also nichtrelativistisch. Es ist anwendbar, um die Bewegung von Elementarteilchen und ihren Bestandteilssystemen mit Geschwindigkeiten zu beschreiben, die viel kleiner als die Lichtgeschwindigkeit sind.
Mit Hilfe der Quantenmechanik wurde die Theorie der Atome aufgebaut, die chemische Bindung erklärt, einschließlich der Natur der kovalenten chemischen Bindung; die Existenz einer spezifischen Austauschwechselwirkung wurde entdeckt, ein reiner Quanteneffekt, der im klassischen Ferrum kein Analogon hat: Austauschenergie spielt eine große Rolle bei der Bildung einer kovalenten Bindung sowohl in Molekülen als auch in Kristallen, sowie bei den Phänomenen des Ferromagnetismus und Antiferromagnetismus. Diese Energie ist bei intranuklearen Wechselwirkungen essentiell.
Solche Kernprozesse wie ?-Zerfall könnten nur mit Hilfe des Quanteneffekts des Durchgangs von Teilchen durch eine Potentialbarriere erklärt werden (siehe Tunneleffekt).

Es wurde eine Quantentheorie der Streuung aufgestellt (siehe Streuung von Mikropartikeln), die zu wesentlich anderen Ergebnissen führt als die klassische Streutheorie. Insbesondere stellte sich heraus, dass bei Kollisionen langsamer Neutronen mit Kernen der Wirkungsquerschnitt der Wechselwirkung hundertmal größer ist als die Querabmessungen der kollidierenden Teilchen. Dies ist für die Kernenergie von enormer Bedeutung.

Die Bandtheorie eines Festkörpers wurde auf der Grundlage der Quantenmechanik aufgebaut.

Aus der Quantentheorie der stimulierten Emission, die Einstein bereits 1917 in den 50er Jahren entwickelt hat. ein neuer Zweig der Radiophysik entstand: Die Erzeugung und Verstärkung elektromagnetischer Wellen erfolgte mit Hilfe von Quantensystemen. NG Basov, AM Prokhorov und unabhängig davon Ch. Townes haben einen Mikrowellen-Quantengenerator (Maser) entwickelt, bei dem die stimulierte Emission angeregter Moleküle genutzt wird. In den 60er Jahren. ein Laser wurde geschaffen - ein Quantengenerator elektromagnetischer Wellen im sichtbaren Wellenlängenbereich (vgl. Quantenelektronik).

Quantenstatistik

So wie auf der Grundlage der klassischen Bewegungsgesetze einzelner Teilchen die Theorie des Verhaltens einer großen Menge von ihnen - klassische Statistik - aufgebaut wurde, wurde die Quantenstatistik auf der Grundlage der Quantenbewegungsgesetze von Teilchen aufgebaut. Letzteres beschreibt das Verhalten makroskopischer Objekte für den Fall, dass die klassische Mechanik zur Beschreibung der Bewegung ihrer konstituierenden Teilchen nicht anwendbar ist. In diesem Fall manifestieren sich die Quanteneigenschaften von Mikroobjekten deutlich in den Eigenschaften makroskopischer Körper.

Der mathematische Apparat der Quantenstatistik unterscheidet sich deutlich vom Apparat der klassischen Statistik, da, wie oben erwähnt, einige physikalische Größen in der Quantenmechanik diskrete Werte annehmen können. Aber der Inhalt der statistischen Theorie der Gleichgewichtszustände selbst hat keine tiefgreifenden Veränderungen erfahren. In der Quantenstatistik, wie auch in der Quantentheorie von Vielteilchensystemen allgemein, spielt das Prinzip der Identität identischer Teilchen eine wichtige Rolle (siehe Identitätsprinzip). In der klassischen Statistik wird davon ausgegangen, dass die Permutation zweier identischer (identischer) Teilchen den Zustand ändert. In der Quantenstatistik ändert sich der Zustand des Systems bei einer solchen Permutation nicht. Wenn Teilchen (oder Quasiteilchen) ganzzahligen Spin haben (sie werden Bosonen genannt), können sich beliebig viele Teilchen im gleichen Quantenzustand befinden. Systeme solcher Teilchen werden durch die Bose-Einstein-Statistik beschrieben. Für alle Teilchen (Quasiteilchen) mit halbzahligem Spin (Fermionen) gilt das Pauli-Prinzip, und die Systeme dieser Teilchen werden durch die Fermi-Dirac-Statistik beschrieben.

Die Quantenstatistik ermöglichte es, das Nernst-Theorem (der dritte Hauptsatz der Thermodynamik) zu untermauern - die Tendenz der Entropie gegen Null bei einer absoluten Temperatur T? 0.

Die quantenstatistische Theorie der Gleichgewichtsprozesse ist in der gleichen vollständigen Form aufgebaut wie die klassische. Auch die Grundlagen der quantenstatistischen Theorie der Nichtgleichgewichtsprozesse wurden gelegt. Die Gleichung, die Nichtgleichgewichtsprozesse in einem Quantensystem beschreibt und als kinetische Grundgleichung bezeichnet wird, erlaubt im Prinzip, den zeitlichen Verlauf der Wahrscheinlichkeit der Verteilung über die Quantenzustände des Systems zu verfolgen.

Quantenfeldtheorie (QFT)

Die nächste Stufe in der Entwicklung der Quantentheorie ist die Erweiterung der Quantenprinzipien auf Systeme mit. unendlich viele Freiheitsgrade (physikalische Felder) und eine Beschreibung der Entstehungs- und Transformationsprozesse von Teilchen - führten zur QFT, die die fundamentale Eigenschaft der Natur - Welle-Korpuskular-Dualismus - am besten widerspiegelt.

In der QFT werden Teilchen mit quantisierten Feldern beschrieben, die eine Reihe von Erzeugungs- und Absorptionsoperatoren für Teilchen in verschiedenen Quantenzuständen sind. Die Wechselwirkung quantisierter Felder führt zu verschiedenen Prozessen der Emission, Absorption und Umwandlung von Partikeln. Jeder Prozess in der QFT wird als die Zerstörung einiger Teilchen in bestimmten Zuständen und das Erscheinen anderer in neuen Zuständen betrachtet.

Ursprünglich wurde die QFT in Bezug auf die Wechselwirkung von Elektronen, Positronen und Photonen (Quantenelektrodynamik) konstruiert. Die Wechselwirkung zwischen geladenen Teilchen erfolgt gemäß der Quantenelektrodynamik durch den Austausch von Photonen, und die elektrische Ladung e des Teilchens ist eine Konstante, die die Beziehung zwischen dem Feld geladener Teilchen und dem elektromagnetischen Feld (dem Feld der Photonen ).

Die der Quantenelektrodynamik zugrunde liegenden Ideen wurden 1934 von E. Fermi verwendet, um die Prozesse des Betazerfalls radioaktiver Atomkerne mit einer neuen Art von Wechselwirkung zu beschreiben (die, wie sich später herausstellte, ein Sonderfall der sogenannten schwachen Wechselwirkungen ist ). Bei den Prozessen des elektronischen Betazerfalls wird eines der Neutronen des Kerns in ein Proton umgewandelt und gleichzeitig erfolgt die Emission eines Elektrons und eines Elektron-Antineutrinos. Laut QFT kann ein solcher Prozess als Ergebnis der Kontaktwechselwirkung (Wechselwirkung an einem Punkt) von quantisierten Feldern dargestellt werden, die vier Teilchen mit Spin 1/2 entsprechen: Proton, Neutron, Elektron und Antineutrino (dh Vier-Fermion-Wechselwirkung ).

Eine weitere fruchtbare Anwendung der QFT-Ideen war die Hypothese von H. Yukawa (1935) über die Existenz einer Wechselwirkung zwischen dem Feld der Nukleonen (Protonen und Neutronen) und dem Feld der Mesonen (damals noch nicht experimentell entdeckt). Die Kernkräfte zwischen Nukleonen entstehen nach dieser Hypothese durch den Austausch von Nukleonen durch Mesonen, und die Kurzstreckennatur der Kernkräfte wird durch das Vorhandensein einer relativ großen Ruhemasse in Mesonen erklärt. Mesonen mit vorhergesagten Eigenschaften (pi-Mesonen) wurden 1947 entdeckt, und ihre Wechselwirkung mit Nukleonen erwies sich als besondere Manifestation starker Wechselwirkungen.

QFT ist somit die Grundlage für die Beschreibung elementarer Wechselwirkungen, die in der Natur vorkommen: elektromagnetisch, stark und schwach. Daneben haben QFT-Methoden breite Anwendung in der Theorie von Festkörpern, Plasma und Atomkernen gefunden, da viele Prozesse in diesen Medien mit der Emission und Absorption verschiedener Arten von Elementaranregungen - Quasiteilchen (Phononen, Spinwellen usw.) .).

Aufgrund der unendlich vielen Freiheitsgrade des Feldes führt die Wechselwirkung von Teilchen - Quanten des Feldes - zu mathematischen Schwierigkeiten, die noch nicht vollständig überwunden sind. In der Theorie der elektromagnetischen Wechselwirkungen kann jedoch jedes Problem näherungsweise gelöst werden, da die Wechselwirkung kann als kleine Störung des freien Zustands von Teilchen angesehen werden (aufgrund der Kleinheit der dimensionslosen Konstanten ν1 / 137, die die Intensität der elektromagnetischen Wechselwirkungen charakterisiert). Die Theorie aller Effekte in der Quantenelektrodynamik stimmt vollkommen mit der Erfahrung überein. Dennoch kann die Situation in dieser Theorie nicht als günstig angesehen werden, da für einige physikalische Größen (Masse, elektrische Ladung) erhält man bei der Berechnung nach der Störungstheorie unendliche Ausdrücke (Divergenzen). Sie werden durch die Verwendung ausgeschlossen, weil die Renormierungstechnik, bei der unendlich große Mengen für Masse und Ladung eines Teilchens durch ihre beobachtbaren Werte ersetzt werden. Einen großen Beitrag zur Entwicklung der Quantenelektrodynamik leisteten (in den späten 1940er Jahren) S. Tomonaga, R. Feynman und J. Schwinger.

Die in der Quantenelektrodynamik entwickelten Methoden wurden anschließend versucht, die Prozesse schwacher und starker (nuklearer) Wechselwirkungen zu berechnen, wobei hier jedoch eine Reihe von Problemen auftraten.

Schwache Wechselwirkungen sind allen Elementarteilchen inhärent, mit Ausnahme des Photons. Sie manifestieren sich im Zerfall der meisten Elementarteilchen und in einigen ihrer anderen Transformationen. Die Konstante der schwachen Wechselwirkungen, die die Intensität der durch sie verursachten Prozesse bestimmt, nimmt mit steigender Teilchenenergie zu.

Nach der experimentell festgestellten Tatsache der Nichterhaltung der räumlichen Parität in Prozessen der schwachen Wechselwirkung (1956) wird die sog. die universelle Theorie der schwachen Wechselwirkungen, nahe der Fermi-Theorie des ?-Zerfalls. Im Gegensatz zur Quantenelektrodynamik erlaubte diese Theorie jedoch keine Berechnung von Korrekturen in höheren Ordnungen der Störungstheorie, d. h. die Theorie erwies sich als nicht renormierbar. In den späten 60er Jahren. Es wurden Versuche unternommen, eine renormierbare Theorie schwacher Wechselwirkungen zu konstruieren. Der Erfolg wurde auf der Grundlage der sog. Theorien zu messen. Ein einheitliches Modell schwacher und elektromagnetischer Wechselwirkungen wurde erstellt. In diesem Modell muss es neben dem Photon - dem Träger elektromagnetischer Wechselwirkungen zwischen geladenen Teilchen - auch Träger schwacher Wechselwirkungen geben - die sogenannten. Zwischenvektorbosonen. Es wird angenommen, dass die Intensität der Wechselwirkungen von Zwischenbosonen mit anderen Teilchen der von Photonen entspricht. Da der Radius schwacher Wechselwirkungen sehr klein ist (weniger als 10-15 cm), sollte nach den Gesetzen der Quantentheorie die Masse der Zwischenbosonen sehr groß sein: mehrere Dutzend Protonenmassen. Experimentell wurden diese Partikel noch nicht gefunden. Es müssen sowohl geladene (W- und W +) als auch neutrale (Z0) Vektorbosonen existieren. 1973 wurden experimentell Prozesse beobachtet, die offenbar durch die Existenz neutraler Zwischenbosonen erklärt werden können. Die Gültigkeit der neuen vereinheitlichten Theorie der elektromagnetischen und schwachen Wechselwirkungen kann jedoch nicht als erwiesen angesehen werden.

Schwierigkeiten bei der Erstellung einer Theorie der starken Wechselwirkungen hängen damit zusammen, dass aufgrund der großen Kopplungskonstanten die Methoden der Störungstheorie hier nicht anwendbar sind. Infolgedessen und auch in Verbindung mit dem Vorliegen eines riesigen experimentellen Materials, das einer theoretischen Verallgemeinerung bedarf, werden Methoden auf der Grundlage von allgemeine Grundsätze Quantenfeldtheorie - Relativistische Invarianz, lokale Wechselwirkung (d.h. die Erfüllung der Kausalitätsbedingung; siehe Kausalitätsprinzip) usw. Dazu gehören die Methode der Dispersionsrelationen und die axiomatische Methode (siehe Quantenfeldtheorie). Der axiomatische Ansatz ist der grundlegendste, liefert aber bisher noch nicht genügend spezifische Ergebnisse, die experimentell verifiziert werden können. Die größten praktischen Fortschritte in der Theorie der starken Wechselwirkungen wurden durch die Anwendung der Symmetrieprinzipien erzielt.
Es werden Versuche unternommen, eine einheitliche Theorie der schwachen, elektromagnetischen und starken Wechselwirkungen (ähnlich den Eichtheorien) zu konstruieren.

Symmetrieprinzipien und Erhaltungssätze

Physikalische Theorien ermöglichen es, dass der Anfangszustand eines Objekts sein zukünftiges Verhalten bestimmt. Die Prinzipien der Symmetrie (oder Invarianz) sind allgemeiner Natur, alle physikalischen Theorien sind ihnen untergeordnet. Die Symmetrie der physikalischen Gesetze in Bezug auf eine Transformation bedeutet, dass sich diese Gesetze nicht ändern, wenn diese Transformation durchgeführt wird. Daher können die Symmetrieprinzipien auf der Grundlage der bekannten physikalischen Grundlagen aufgestellt werden. Gesetze. Auf der anderen Seite spielen die experimentell entdeckten Symmetrien eine heuristische Rolle bei der Konstruktion der Theorie, wenn die Theorie physikalischer Phänomene noch nicht erstellt wurde. Daher die besondere Bedeutung der experimentell festgestellten Symmetrien stark wechselwirkender Elementarteilchen - Hadronen, deren Theorie, wie bereits erwähnt, nicht konstruiert wurde.

Es gibt allgemeine Symmetrien, die für alle physikalischen Gesetze, für alle Arten von Wechselwirkungen gelten, und ungefähre Symmetrien, die nur für einen bestimmten Bereich von Wechselwirkungen oder sogar eine Art von Wechselwirkung gelten. Somit wird eine Hierarchie von Symmetrieprinzipien beobachtet. Symmetrien werden in Raum-Zeit- oder geometrische und innere Symmetrien unterteilt, die die spezifischen Eigenschaften von Elementarteilchen beschreiben. Erhaltungssätze sind mit Symmetrien verbunden. Für kontinuierliche Transformationen wurde dieser Zusammenhang 1918 von E. Noether auf der Grundlage allgemeinster Annahmen über den mathematischen Apparat der Theorie hergestellt (siehe Noethers Theorem, Erhaltungssätze).

Die Symmetrien der physikalischen Gesetze bezüglich der folgenden kontinuierlichen Raum-Zeit-Transformationen gelten für alle Arten von Wechselwirkungen: die Verschiebung und Rotation eines physikalischen Systems als Ganzes im Raum und eine Verschiebung in der Zeit (Änderungen des Ursprungs von Zeit). Die Invarianz (Invarianz) aller physikalischen Gesetze bezüglich dieser Transformationen spiegelt die Homogenität und Isotropie des Raumes bzw. die Homogenität der Zeit wider. Diese Symmetrien sind (bzw.) mit den Erhaltungssätzen von Impuls, Drehimpuls und Energie verbunden. Allgemeine Symmetrien umfassen auch die Invarianz gegenüber den Lorentz-Transformationen und Eichtransformationen (erster Art) - die Multiplikation der Wellenfunktion mit der sogenannten. ein Phasenfaktor, der das Quadrat seines Moduls nicht ändert (die letzte Symmetrie ist mit den Gesetzen der Erhaltung der elektrischen, Baryonen- und Leptonenladungen verbunden) und einige andere.
Es gibt auch Symmetrien, die diskreten Transformationen entsprechen: Umkehr des Vorzeichens der Zeit (siehe Umkehrung der Zeit), räumliche Inversion (die sogenannte Spiegelsymmetrie der Natur), Ladungskonjugation. Auf der Grundlage der angenäherten SU(3)-Symmetrie (siehe Starke Wechselwirkungen) erstellte M. Gell-Mann (1962) eine Systematik der Hadronen, die es ermöglichte, die Existenz mehrerer später experimentell entdeckter Elementarteilchen vorherzusagen.

Die Systematik der Hadronen lässt sich erklären, wenn wir davon ausgehen, dass alle Hadronen aus einer kleinen Anzahl (in der am weitesten verbreiteten Version - aus drei) Fundamentalteilchen - Quarks und den entsprechenden Antiteilchen - Antiquarks "gebaut" sind. Es gibt verschiedene Quark-Modelle von Hadronen, aber freie Quarks konnten noch nicht experimentell nachgewiesen werden. 1975–76 wurden zwei neue stark wechselwirkende Teilchen (? 1 und? 2) entdeckt, deren Massen das Dreifache der Protonenmasse überstiegen und Lebensdauern von 10–20 und 10–21 sek. Eine Erklärung der Besonderheiten der Entstehung und des Zerfalls dieser Teilchen erfordert offenbar die Einführung eines zusätzlichen vierten Quarks, dem die Quantenzahl „Charme“ zugeschrieben wird. Darüber hinaus existiert nach modernen Konzepten jedes Quark in drei Sorten, die sich in einer besonderen Eigenschaft - "Farbe" - unterscheiden.

Der Erfolg bei der Klassifizierung von Hadronen auf der Grundlage der Symmetrieprinzipien ist sehr groß, obwohl die Gründe für das Auftreten dieser Symmetrien nicht ganz klar sind; vielleicht liegen sie wirklich an der Existenz und den Eigenschaften von Quarks.

NS. Moderne Experimentalphysik

Auch zu Beginn des 20. Jahrhunderts. so bahnbrechende Entdeckungen wie die Entdeckung des Atomkerns durch Rutherford konnten mit relativ einfachen Geräten gemacht werden. Aber in der Zukunft wurde das Experiment sehr kompliziert und die experimentellen Installationen begannen einen industriellen Charakter zu bekommen. Die Rolle der Mess- und Rechentechnik ist ins Unermessliche gewachsen. Die moderne experimentelle Forschung auf dem Gebiet des Kerns und der Elementarteilchen, der Radioastronomie, der Quantenelektronik und der Festkörperphysik erfordert einen noch nie dagewesenen Umfang und Aufwand an Mitteln, die oft nur großen Staaten oder sogar Staatengruppen mit entwickelten Volkswirtschaften zur Verfügung stehen.

Die Entwicklung von Methoden zur Beobachtung und Registrierung einzelner Umwandlungsvorgänge von Elementarteilchen (verursacht durch deren Kollisionen untereinander und mit Atomkernen) und die Schaffung von Beschleunigern für geladene Teilchen, die den Grundstein für die Entwicklung der Hochenergiephysik legten, spielten eine enorme Rolle in der Entwicklung der Kern- und Elementarteilchenphysik. Die Entdeckung des Prinzips der Autophasierung durch V. I. Vekslsrom (1944) und unabhängig davon durch E. M. Macmillan (1945) erhöhte die Grenze der erreichbaren Teilchenenergien um einen Faktor von Tausenden. Kollisionsstrahlbeschleuniger haben die effektive Kollisionsenergie von Teilchen deutlich erhöht. Es wurden hocheffiziente Zähler geladener Teilchen geschaffen, deren Wirkung auf verschiedene Prinzipien: Gasentladung, Szintillation, Cherenkov, etc. Photomultiplier ermöglichen die Registrierung einzelner Photonen. Die umfassendsten und genauesten Informationen über das Geschehen der Mikrowelt erhält man mit Hilfe von Blasen- und Funkenkammern und dickschichtigen fotografischen Emulsionen, in denen Spuren (Spuren) vorbeifliegender geladener Teilchen direkt beobachtet werden können. Detektoren wurden gebaut, um aufzuzeichnen seltene Ereignisse- Kollisionen von Neutrinos mit Atomkernen.

Eine wahre Revolution in der experimentellen Untersuchung der Wechselwirkungen von Elementarteilchen ist die Verwendung von Computern zur Verarbeitung von Informationen, die von Aufzeichnungsgeräten empfangen werden. Um unwahrscheinliche Prozesse zu beheben, müssen Zehntausende Fotografien von Spuren analysiert werden. Es würde so viel Zeit manuell in Anspruch nehmen, dass es fast unmöglich wäre, die benötigten Informationen zu erhalten. Dazu werden die Bilder der Gleise mit Hilfe spezieller Geräte in eine Reihe von elektrischen Impulsen umgewandelt und die weitere Analyse der Gleise mit einem Computer durchgeführt. Dies verkürzt die Zeit zwischen dem Experiment und dem Erhalt der verarbeiteten Informationen drastisch. In Funkenkammern erfolgt die Registrierung und Analyse von Partikelspuren automatisch mit einem Computer direkt im Versuchsaufbau.

Die Bedeutung von Beschleunigern für geladene Teilchen wird durch die folgenden Umstände bestimmt. Je größer die Energie (Impuls) des Teilchens, desto kleiner (nach dem Unschärfeprinzip) sind die Größen von Objekten bzw. deren Details, die bei Kollisionen eines Teilchens mit einem Objekt unterschieden werden können. Bis 1977 betragen diese Mindestabmessungen 10-15 cm.Durch die Untersuchung der Streuung hochenergetischer Elektronen durch Nukleonen war es möglich, die Elemente der inneren Struktur von Nukleonen zu entdecken - die Verteilung der elektrischen Ladung und des magnetischen Moments in diesen Teilchen ( die sogenannten Formfaktoren). Die Streuung ultrahochenergetischer Elektronen durch Nukleonen weist auf die Existenz mehrerer separater Formationen von ultrakleinen Größen, sogenannten Partonen, innerhalb der Nukleonen hin. Vielleicht sind Partonen hypothetische Quarks.

Ein weiterer Grund für das Interesse an hochenergetischen Teilchen ist die Entstehung neuer Teilchen mit zunehmender Masse bei deren Kollisionen mit dem Target. Insgesamt sind 34 stabile und quasistabile (d.h. nicht durch starke Wechselwirkungen zerfallende) Teilchen (mit Antiteilchen) und mehr als zweihundert Resonanzen bekannt, die überwiegende Mehrheit davon an Beschleunigern entdeckt. Die Untersuchung der Streuung ultrahochenergetischer Teilchen soll helfen, die Natur starker und schwacher Wechselwirkungen aufzuklären.

Es wurden verschiedene Arten von Kernreaktionen untersucht. Am Beschleuniger des Joint Institute for Nuclear Research in Dubna wurde erstmals eine Kollision relativistischer Kerne durchgeführt. Synthese schreitet erfolgreich voran transuranische Elemente... Es wurden die Kerne von Antideuterium, Antithritium und Anthelium erhalten. Am Beschleuniger in Serpukhov wurde ein neues Muster starker Wechselwirkungen entdeckt - eine Vergrößerung des Gesamtquerschnitts für die Wechselwirkung sehr hochenergetischer Hadronen bei ihrer Kollision mit einer Erhöhung der Kollisionsenergie (der sogenannte Serpukhov-Effekt).

Die Entwicklung der Radiophysik nahm nach der Errichtung von Radarstationen während des Zweiten Weltkriegs (1939–45) eine neue Richtung. Radare sind in der Luft- und Seefahrt sowie in der Raumfahrt weit verbreitet. Die Ortung von Himmelskörpern wurde durchgeführt: Mond, Venus und andere Planeten sowie die Sonne. Es wurden riesige Radioteleskope gebaut, die die Strahlung kosmischer Körper mit einer spektralen Energieflussdichte von 10-26 erg / cm2·Sec·Hz einfangen. Die Informationen über Weltraumobjekte sind ins Unermessliche gewachsen. Radiosterne und Radiogalaxien mit starker Strahlung im Radiowellenbereich wurden entdeckt, und 1963 - die uns am weitesten entfernten quasistellaren Objekte - Quasare.

Die Leuchtkraft von Quasaren ist hundertmal höher als die Leuchtkraft der hellsten Galaxien. Das Auflösungsvermögen moderner Radioteleskope mit computergesteuerten mobilen Antennen erreicht eine Bogensekunde (für Strahlung mit einer Wellenlänge von mehreren cm). Wenn die Antennen über große Entfernungen (ca. 10.000 km) verteilt sind, wird eine noch höhere Auflösung (in Hundertstel einer Bogensekunde) erreicht.

Das Studium der Radioemission von Himmelskörpern half, die Quellen der primären kosmischen Strahlung (Protonen, schwerere Atomkerne, Elektronen) zu ermitteln. Es stellte sich heraus, dass es sich bei diesen Quellen um Supernova-Explosionen handelte. Reliktstrahlung wurde entdeckt – Wärmestrahlung, die einer Temperatur von 2,7 K entspricht. 1967 wurden Pulsare entdeckt. - schnell rotierende Neutronensterne. Pulsare erzeugen gerichtete Strahlung im Radio-, Sicht- und Röntgenbereich, deren Intensität sich durch die Rotation der Sterne periodisch ändert.
Eine wichtige Rolle bei der Erforschung des erdnahen Weltraums und des Weltraums spielten die Starts von Raumstationen: Die Strahlungsgürtel der Erde wurden entdeckt, Weltraumquellen für Röntgenstrahlung und Ausbrüche von γ-Strahlung entdeckt (diese Strahlungsarten werden von der Erdatmosphäre absorbiert und erreichen ihre Oberfläche nicht).

Moderne radiophysikalische Methoden ermöglichen es, Weltraumkommunikation über Entfernungen von mehreren zehn und mehreren hundert Millionen Kilometern durchzuführen. Notwendigkeit der Überweisung großes Volumen Informationen stimulierten die Entwicklung grundlegend neuer optischer Kommunikationsleitungen unter Verwendung von Faserlichtleitern.

Die höchste Genauigkeit wurde durch die Messung der Schwingungsamplitude makroskopischer Körper erreicht. Mit Hilfe von funktechnischen und optischen Sensoren ist es möglich, mechanische Schwingungen mit einer Amplitude in der Größenordnung von 10-15 cm zu registrieren (diese Grenze kann auf 10-16-10-19 cm erhöht werden).
Um die Struktur von Kristallen und organischen Molekülen zu untersuchen, werden hochpräzise automatische Röntgen- und Neutronen-Diffraktometer verwendet, die die Decodierungszeit von Strukturen um das Hunderttausendfache verkürzt haben. Auch in Strukturstudien werden hochauflösende Elektronenmikroskope eingesetzt. Die Neutronenbeugung ermöglicht auch die Untersuchung der magnetischen Struktur von Festkörpern.

Paramagnetische Elektronenresonanz (entdeckt von E. K. Zavoisky 1944), Kernspinresonanz (entdeckt von E. Purcell und F. Bloch 1946), der Mößbauer-Effekt (entdeckt von R. L. 1958). Die Untersuchung der Struktur von Atomen und Molekülen organischer und anorganischer Stoffe wird durch deren Emissions- und Absorptionsspektren in einem weiten Frequenzbereich (auch unter Einsatz von Laserstrahlung; siehe Laserspektroskopie) verbessert.
In der Hydroakustik wurde das Phänomen der ultralangen Schallausbreitung in Meeren und Ozeanen über Entfernungen von Tausenden von Kilometern entdeckt und untersucht (amerikanische Wissenschaftler M. Ewing, J. Worzel, 1944, und unabhängig von der sowjetischen Physik LM Brekhovskikh , LD Rosenberg und andere, 1946).

Im letzten Jahrzehnt wurden akustische Methoden zur Untersuchung von Festkörpern entwickelt, die auf der Verwendung von Ultraschall- und Hyperschallwellen (siehe Ultraschall, Hyperschall) sowie akustischen Oberflächenwellen basieren.

Die rasante Entwicklung der Halbleiterphysik hat die Funktechnik und -elektronik revolutioniert. Halbleiterbauelemente haben Vakuumröhren ersetzt. Funktechnische Geräte und Computer haben stark abgenommen und sind zuverlässiger geworden, ihr Stromverbrauch ist erheblich gesunken. Integrierte Schaltungen sind aufgetaucht, die Tausende oder mehr elektronische Elemente auf einem kleinen (zehn mm²) großen Kristall kombinieren. Der Prozess der sequentiellen Mikrominiaturisierung von elektronischen Geräten und Geräten führte zur Schaffung der sogenannten. Mikroprozessoren, die die Betriebsfunktionen eines Computers ausführen. Kleine Computer werden auf einem einzigen Chip hergestellt.

Computer sind aus der physikalischen Forschung nicht mehr wegzudenken und werden sowohl für die Verarbeitung experimenteller Daten als auch für theoretische Berechnungen eingesetzt, insbesondere solche, die aufgrund ihres enormen Arbeitsaufwands bisher nicht praktikabel waren.

Von großer Bedeutung sowohl für die Wissenschaft selbst als auch für praktische Anwendungen hat das Studium der Materie unter extremen Bedingungen: bei sehr niedrigen oder sehr hohen Temperaturen, Ultrahochdruck oder Tiefvakuum, superstarken Magnetfeldern usw.
In elektronischen Geräten und Beschleunigern wird Hoch- und Ultrahochvakuum erzeugt, um Kollisionen beschleunigter Teilchen mit Gasmolekülen zu vermeiden. Die Untersuchung der Eigenschaften von Oberflächen und dünnen Materieschichten im Ultrahochvakuum eröffnete einen neuen Zweig der Festkörperphysik. Diese Studien sind insbesondere im Zusammenhang mit der Erforschung des Weltraums von großer Bedeutung.

V. Einige ungelöste Probleme der Physik

Teilchenphysik

Das grundlegendste Problem der Physik war und ist das Studium der Materie auf der tiefsten Ebene – der Ebene der Elementarteilchen. Zu den Wechselwirkungen und Umwandlungen von Elementarteilchen wurde eine große Menge an experimentellem Material angesammelt, aber es war noch nicht möglich, dieses Material aus einer einheitlichen Sicht theoretisch zu verallgemeinern. Entweder fehlen die notwendigen Fakten, oder - eine Idee, die Licht in das Problem der Struktur und Wechselwirkung von Elementarteilchen bringen kann. Das Problem der theoretischen Bestimmung des Massenspektrums von Elementarteilchen bleibt ungelöst. Um dieses Problem zu lösen und Unendlichkeiten in der Quantenfeldtheorie zu eliminieren, ist es vielleicht notwendig, eine grundlegende Länge einzuführen, die die Anwendbarkeit der üblichen Konzepte der Raumzeit als kontinuierliche Einheit einschränken würde. Bis zu Entfernungen in der Größenordnung von 10-15 cm und dementsprechend Zeiten t ~ l / s ~ 10-25 sec gelten die üblichen Raum-Zeit-Beziehungen anscheinend, bei kürzeren Entfernungen können sie jedoch verletzt werden. Es wird versucht, die Fundamentallänge in die einheitliche Feldtheorie (Heisenberg et al.) und in verschiedene Varianten der Quantisierung der Raumzeit einzuführen. Allerdings haben diese Versuche bisher nicht zu greifbaren Ergebnissen geführt.

Das Problem der Konstruktion einer Quantentheorie der Gravitation ist nicht gelöst. Nur die Möglichkeit, die vier grundlegenden Wechselwirkungen zusammenzuführen, wird skizziert.

Astrophysik. Die Entwicklung der Physik der Elementarteilchen und des Atomkerns hat es ermöglicht, so komplexe Probleme wie die Entwicklung des Universums in den frühen Entwicklungsstadien, die Entwicklung von Sternen und die Entstehung von chemische Elemente... Trotz enormer Errungenschaften steht die moderne Astrophysik aber auch vor ungelösten Problemen. Es bleibt unklar, wie sich die Materie bei enormen Dichten und Drücken innerhalb von Sternen und "Schwarzen Löchern" befindet. Die physikalische Natur von Quasaren und Radiogalaxien, die Ursachen von Supernova-Explosionen und das Auftreten von Gammastrahlenausbrüchen sind nicht geklärt. Es ist nicht klar, warum Versuche, solare Neutrinos, die bei thermonuklearen Reaktionen im Inneren der Sonne geboren werden sollten, nachzuweisen, nicht erfolgreich waren (siehe Neutrinoastronomie). Der Mechanismus der Beschleunigung geladener Teilchen (kosmischer Strahlung) während Supernova-Explosionen und der Mechanismus der Emission elektromagnetischer Wellen durch Pulsare usw. sind noch nicht vollständig aufgeklärt. Schließlich ist nur der Anfang gemacht, um das Problem der Entwicklung des Universums als Ganzes zu lösen. Was geschah in den frühen Stadien der Evolution des Universums und was ist sein Schicksal in der Zukunft?

Wird sich die beobachtete Expansion des Universums jemals durch seine Kontraktion ändern? Auf all diese Fragen gibt es noch keine Antworten.

Es besteht kein Zweifel, dass die grundlegendsten Probleme der modernen Physik mit den Elementarteilchen und dem Problem des Aufbaus und der Entwicklung des Universums verbunden sind. Hier gilt es, neue Gesetzmäßigkeiten des Verhaltens von Materie unter ungewöhnlichen Bedingungen zu entdecken – bei ultrakleinen Raum-Zeit-Abständen im Mikrokosmos und ultrahohen Dichten zu Beginn der Expansion des Universums. Alle anderen Probleme sind spezifischer Natur und mit der Suche nach Wegen verbunden effektiver Einsatz Grundgesetze, um die beobachteten Phänomene zu erklären und neue vorherzusagen.
Kernphysik. Nach der Erstellung des Proton-Neutronen-Modells des Kerns wurden große Fortschritte beim Verständnis der Struktur von Atomkernen gemacht, verschiedene ungefähre Kernmodelle wurden gebaut. Es gibt jedoch noch keine konsistenten Theorien des Atomkerns (ähnlich der Theorie der Atomhüllen), die es ermöglichen, insbesondere die Bindungsenergie von Nukleonen im Kern und die Energieniveaus des Kerns zu berechnen. Ein Erfolg in dieser Richtung kann erst nach der Konstruktion der Theorie der starken Wechselwirkungen erreicht werden.

Die experimentelle Untersuchung der Wechselwirkung von Nukleonen im Kern - Kernkräfte - ist aufgrund der extremen komplexe Natur diese Kräfte. Sie hängen vom Abstand zwischen den Nukleonen, von den Geschwindigkeiten der Nukleonen und der Orientierung ihrer Spins ab.
Von großem Interesse ist die Möglichkeit, langlebige Elemente mit Ordnungszahlen um 114 und 126 (die sogenannten Stabilitätsinseln), die von der Theorie vorhergesagt werden, experimentell nachzuweisen.

Eines der wichtigsten von F. zu lösenden Probleme ist das Problem der kontrollierten Kernfusion. Experimentelle und theoretische Arbeiten werden im großen Maßstab durchgeführt, um heißes Deuterium-Tritium-Plasma zu erzeugen, das für eine thermonukleare Reaktion notwendig ist. Sov. Anlagen vom Typ "Tokamak" sind in dieser Hinsicht offenbar am vielversprechendsten. Es gibt andere Möglichkeiten. Insbesondere zum Erhitzen von Körnern aus einer Mischung von Deuterium mit Tritium kann man Laserstrahlung, Elektronen- oder Ionenstrahlen verwenden, die in gepulsten Hochleistungsbeschleunigern erhalten werden.

Quantenelektronik. Quantengeneratoren erzeugen elektromagnetische Strahlung, die in ihren Eigenschaften einzigartig ist. Laserstrahlung ist kohärent und kann in einem schmalen Spektralbereich eine enorme Leistung erreichen: 1012-1013 W, und die Divergenz des Lichtstrahls beträgt nur etwa 10-4 rad. Die Intensität des elektrischen Feldes der Laserstrahlung kann die Intensität des intraatomaren Feldes übersteigen.

Die Entwicklung von Lasern führte zur Entstehung und schnellen Entwicklung eines neuen Zweiges der Optik - der nichtlinearen Optik. Bei starker Laserstrahlung werden nichtlineare Wechselwirkungseffekte signifikant Elektromagnetische Welle mit der Umwelt. Diese Effekte – Abstimmung der Strahlungsfrequenz, Selbstfokussierung des Strahls usw. – sind von großem theoretischen und praktischen Interesse.

Die nahezu strikte Monochromatizität der Laserstrahlung ermöglichte es, mittels Welleninterferenz ein dreidimensionales Bild von Objekten (Holographie) zu erhalten.

Laserstrahlung wird zur Isotopentrennung, insbesondere zur Anreicherung von Uran mit dem Isotop 235U, zum Aufdampfen und Schweißen von Metallen im Vakuum, in der Medizin etc. verwendet. Offenbar ist der Einsatz von Lasern zur Erwärmung von Materie auf Temperaturen vielversprechend, bei denen thermonukleare Reaktionen möglich sind. Die Aufgabe besteht darin, nach neuen Anwendungen der Laserstrahlung zu suchen, beispielsweise für die Kommunikation im Weltraum.
Die zu lösenden Hauptprobleme sind eine weitere Erhöhung der Leistung und eine Erweiterung des Wellenlängenbereichs eines Laserstrahls bei gleichmäßiger Frequenzabstimmung. Die Suche nach Röntgen- und Gammalasern ist im Gange.

Festkörperphysik. Die Festkörperphysik spielt eine führende Rolle bei der Untersuchung der Möglichkeiten, Materialien mit extremen Eigenschaften in Bezug auf mechanische Festigkeit, Hitzebeständigkeit sowie elektrische, magnetische und optische Eigenschaften herzustellen.
Seit den 70er Jahren. 20. Jahrhundert aktive Suche nach nicht-phononischen Mechanismen der Supraleitung ist im Gange. Die Lösung dieses Problems würde möglicherweise die Herstellung von Hochtemperatur-Supraleitern ermöglichen. Dies wäre von großer Bedeutung für die Experimentalphysik und -technik und würde auch das Problem der praktisch verlustfreien Übertragung elektrischer Energie über große Distanzen lösen.

Ein sehr interessantes Problem ist die Untersuchung der physikalischen Eigenschaften von festem und flüssigem Helium-3 bei ultraniedrigen (unter 3 × 10-3 K) Temperaturen. Festes Helium-3 sollte anscheinend der einzige austauschbare nukleare Antiferromagnet sein. Flüssiges Helium-3 ist die einfachste Fermi-Flüssigkeit, deren Theorie ein wesentlicher Gegenstand der Quantenstatistik ist.
Die Herstellung von metallischem Wasserstoff und die Untersuchung seiner physikalischen Eigenschaften sind von großem wissenschaftlichen und praktischen Interesse. Es muss ein einzigartiges physisches Objekt sein, da sein Gitter besteht aus Protonen. Es wird angenommen, dass metallischer Wasserstoff eine Reihe ungewöhnlicher Eigenschaften besitzt, deren Untersuchung zu grundlegend neuen Entdeckungen in F. K und einem Druck von etwa 1 Mbar führen könnte.
Neue Richtungen der Erforschung von Festkörpern mit akustischen Methoden werden entwickelt: Akustoelektronik (Wechselwirkung akustischer Wellen mit Elektronen in Halbleitern, Metallen und Supraleitern), akustische Kern- und paramagnetische Resonanzen, Bestimmung des Phononenspektrums und Dispersionskurven.
Es sei darauf hingewiesen, dass die Entwicklung traditioneller Richtungen in der Festkörperphysik oft zu unerwarteten Entdeckungen neuer physikalischer Phänomene oder Materialien mit wesentlich neuen Eigenschaften führt, wie dem Josephson-Effekt, Halbleiter mit Heteroübergang, Typ-II-Supraleiter, Quantenkristalle, Whiskers usw ... ...

Trotz der erzielten Erfolge ist es notwendig, grundlegend neue physikalische Verfahren zu entwickeln, um zuverlässigere und Miniatur-Halbleiterbauelemente zu erhalten (siehe Mikroelektronik, Funktionselektronik), Verfahren zum Erhalten höherer Drücke, ultraniedriger Temperaturen usw.

Von großer Bedeutung ist die Untersuchung der Phosphorzusammensetzung von Polymeren mit ihren ungewöhnlichen mechanischen und thermodynamischen Eigenschaften, insbesondere von Biopolymeren, zu denen alle Proteine ​​gehören.

Plasmaphysik

Die Bedeutung von Plasmastudien hängt mit zwei Umständen zusammen. Erstens befindet sich der überwiegende Teil der Materie des Universums im Plasmazustand: Sterne und ihre Atmosphären, das interstellare Medium, Strahlungsgürtel und die Ionosphäre der Erde usw kontrollierte thermonukleare Fusion.
Die grundlegenden Gleichungen, die Plasma beschreiben, sind gut bekannt. Die Prozesse im Plasma sind jedoch so komplex, dass es sehr schwierig ist, sein Verhalten unter verschiedenen Bedingungen vorherzusagen. Das Hauptproblem der Plasmaphysik ist die Entwicklung effektiver Methoden, um Plasma auf eine Temperatur in der Größenordnung von 1 Mrd thermonukleare Reaktion in größeren Teilen des Arbeitsvolumens auftritt. Die Lösung des Problems der Plasmastabilität spielt auch eine wichtige Rolle bei der Sicherstellung des Betriebs von Beschleunigern mit kollidierenden Strahlen und bei der Entwicklung der sog. kollektive Methoden der Teilchenbeschleunigung.
Die Untersuchung elektromagnetischer und korpuskularer Plasmastrahlung ist von entscheidender Bedeutung, um die Beschleunigung geladener Teilchen bei Supernova-Explosionen, Pulsarstrahlung etc.
Natürlich sind die Probleme der modernen Physik nicht auf die oben aufgeführten beschränkt; alle Sektionen von F. haben ihre eigenen Probleme, und ihre Gesamtzahl ist so groß, dass sie hier nicht zitiert werden kann.

Vi. Die Verbindung der Physik mit anderen Wissenschaften und Technologien

Physik und Philosophie

Aufgrund der Allgemeinheit und Breite ihrer Gesetze hat die Philosophie immer die Entwicklung der Philosophie beeinflusst und stand selbst unter ihrem Einfluss. Mit jeder neuen Entdeckung in den Naturwissenschaften muss der Materialismus nach F. Engels unweigerlich seine Form ändern.
In den Errungenschaften der modernen Philosophie findet die höchste Form des Materialismus, der dialektische Materialismus, immer mehr Bestätigung und Konkretisierung. Im Übergang zum Studium der Mikrowelt tritt das Gesetz der Dialektik – die Einheit der Gegensätze – besonders deutlich hervor. Die Einheit von Diskontinuierlichem und Kontinuierlichem spiegelt sich im Teilchen-Wellen-Dualismus der Mikroteilchen wider. Das Notwendige und das Zufällige sind untrennbar miteinander verbunden, was sich in der probabilistischen, statistischen Natur der Bewegungsgesetze von Mikropartikeln ausdrückt. Die vom Materialismus proklamierte Einheit der materiellen Welt manifestiert sich deutlich in den gegenseitigen Transformationen von Elementarteilchen - möglichen Formen der Existenz physischer Materie. Eine korrekte philosophische Analyse ist besonders wichtig in den revolutionären Epochen der philosophischen Entwicklung, in denen alte Ideen einer radikalen Revision unterzogen werden. Ein klassisches Beispiel für eine solche Analyse lieferte V. I. Lenin in seinem Buch Materialism and Empirio-Criticism. Nur das Verständnis des Verhältnisses zwischen absoluten und relativen Wahrheiten ermöglicht es, das Wesen revolutionärer Wandlungen in der Physik richtig einzuschätzen, in ihnen die Bereicherung und Vertiefung unserer Vorstellungen von Materie und die Weiterentwicklung des Materialismus zu sehen.

Physik und Mathematik. F. ist eine quantitative Wissenschaft. Seine Grundgesetze werden in mathematischer Sprache formuliert, hauptsächlich mit Hilfe von Differentialgleichungen. Andererseits entstanden unter dem Einfluss von F oft neue Ideen und Methoden in der Mathematik. Die Analysis der infinitesimalen wurde von Newton (gleichzeitig mit G. V. Leibniz) bei der Formulierung der Grundgesetze der Mechanik geschaffen. Die Entstehung der Theorie des elektromagnetischen Feldes führte zur Entwicklung der Vektoranalyse. Die Entwicklung solcher Zweige der Mathematik wie Tensorrechnung, Riemannsche Geometrie, Gruppentheorie usw. wurde durch neue physikalische Theorien angeregt: Allgemeine Relativitätstheorie und Quantenmechanik. Die Entwicklung der Quantenfeldtheorie wirft neue Probleme in der Funktionsanalyse usw. auf.

Physik und andere Naturwissenschaften. Die enge Verwandtschaft von F. mit anderen naturwissenschaftlichen Zweigen führte laut S. I. Vavilov dazu, dass F. tief in der Astronomie, Geologie, Chemie, Biologie und anderen Naturwissenschaften verwurzelt war. Es entstanden eine Reihe von Grenzdisziplinen: Astrophysik, Geophysik, Biophysik, Physikalische Chemie ua Physikalische Forschungsmethoden haben für alle Naturwissenschaften eine entscheidende Bedeutung erlangt. Elektronenmikroskop erhöhte die Fähigkeit, die Details von Objekten um mehrere Größenordnungen zu unterscheiden, wodurch es möglich wurde, einzelne Moleküle zu beobachten. Mit der Röntgenstrukturanalyse werden nicht nur Kristalle, sondern auch die komplexesten biologischen Strukturen untersucht. Sein wahrer Triumph war die Etablierung der Struktur von DNA-Molekülen, die die Chromosomen der Zellkerne aller lebenden Organismen bilden und Träger des Erbguts, des Codes, sind. Die Revolution in der Biologie, verbunden mit dem Aufkommen der Molekularbiologie und Genetik, wäre ohne F.

Die sogenannte Methode. markierte Atome spielen eine große Rolle bei der Untersuchung des Stoffwechsels in lebenden Organismen; viele Probleme in Biologie, Physiologie und Medizin wurden mit ihrer Hilfe gelöst. Ultraschall wird in der Medizin zur Diagnose und Therapie eingesetzt.
Wie oben erwähnt, liegen der Theorie der chemischen Bindung die Gesetze der Quantenmechanik zugrunde. Nachverfolgte Atome können verwendet werden, um die Kinetik chemischer Reaktionen zu verfolgen. Physikalische Methoden, zum Beispiel mit Hilfe von Myonenstrahlen, die an Beschleunigern gewonnen werden, ermöglichen chemische Reaktionen, die unter normalen Bedingungen nicht ablaufen. Es werden strukturelle Analoga des Wasserstoffatoms verwendet - Positronium und Myonium, deren Existenz und Eigenschaften von Physikern festgestellt wurden. Insbesondere mit Hilfe von Myonium ist es möglich, die Geschwindigkeit schneller chemischer Reaktionen zu messen. (Siehe Myonen.)

Die Entwicklung der Elektronik ermöglicht es, die ablaufenden Prozesse in einer Zeit von weniger als 10-12 Sekunden zu beobachten. Es führte auch zu einer Revolution in der Astronomie – der Entstehung der Radioastronomie.
Die Ergebnisse und Methoden der Kernphysik werden in der Geologie angewendet; mit ihrer Hilfe insbesondere das absolute Alter von Gesteinen und der Erde als Ganzes messen (siehe Geochronologie).

Physik und Technik

Die Philosophie bildet das Fundament der wichtigsten Bereiche der Technik. Elektro- und Energietechnik, Funktechnik und Elektronik, Lichttechnik, Baumaschinen, Wasserbau und ein bedeutender Teil der militärischen Ausrüstung wuchsen auf der Grundlage der Physik. Durch den bewussten Umgang mit physikalischen Gesetzen findet Technik aus dem Bereich des Zufalls den breiten Weg der zielgerichteten Entwicklung eingeschlagen hat. Wenn im 19. Jahrhundert. Zwischen der physikalischen Entdeckung und der ersten technischen Anwendung vergingen zig Jahre, doch nun ist dieser Zeitraum auf mehrere Jahre verkürzt worden.

В свою очередь, развитие техники оказывает не менее существенное влияние на совершенствование экспериментальной Ф. Без развития электротехники, электроники, технологии производства очень прочных и лишённых примесей материалов было бы невозможно создание таких устройств, как ускорители заряженных частиц, огромные пузырьковые и искровые камеры, полупроводниковые приборы usw.
Das Aufkommen der Kernkraft ist mit großen Fortschritten in der Kernphysik verbunden: Brüter mit schnellen Neutronen können natürliches Uran und Thorium nutzen, deren Reserven groß sind. Die Umsetzung der kontrollierten Kernfusion wird die Menschheit fast für immer vor einer drohenden Energiekrise bewahren.

Die Technologie der Zukunft wird nicht auf vorgefertigten Naturmaterialien basieren, sondern vor allem auf synthetischen Materialien im Voraus gegebene Eigenschaften... Die Erschaffung und das Studium der Struktur der Materie spielen eine entscheidende Rolle bei der Lösung dieses Problems.
Die Entwicklung der Elektronik und die Entwicklung fortschrittlicher Computer auf der Grundlage der Errungenschaften der Festkörperphysik haben das kreative Potenzial des Menschen ins Unermessliche erweitert und auch zur Konstruktion "denkender" Automaten geführt, die in einer Umgebung, die eine große Verarbeitung erfordert, schnelle Entscheidungen treffen können Menge an Informationen.

Durch den Einsatz von Computern (Automatisierung von Produktion und Verwaltung) wird eine enorme Steigerung der Arbeitsproduktivität erreicht. Wenn die Volkswirtschaft komplexer wird, wird die Menge der verarbeiteten Informationen extrem groß. Daher ist es sehr wichtig, Computer weiter zu verbessern – ihre Geschwindigkeit und Speicherkapazität zu erhöhen, die Zuverlässigkeit zu erhöhen, Größe und Kosten zu reduzieren. Diese Verbesserungen sind nur auf Basis der neuen Errungenschaften von F.
Die moderne Physik steht am Ursprung revolutionärer Transformationen in allen Bereichen der Technik. Sie leistet einen entscheidenden Beitrag zur wissenschaftlich-technischen Revolution.

Literatur

Geschichte und Methodologie der Wissenschaft. Engels F., Dialektik der Natur, M., 1975; Lenin V. I., Materialism and Empirio-Criticism, Vollständige Sammlung von Werken, 5. Aufl., V. 18; seine Philosophical Notebooks, ebd., V. 29; Dorfman Ya. G., Weltgeschichte der Physik von der Antike bis zum Ende des 18. Jahrhunderts, M., 1974; Kudryavtsev PS, Geschichte der Physik, Bd. 1–3, Moskau, 1956–71; Laue M., Geschichte der Physik, hg. daraus., M., 1956; Llozzi M., Geschichte der Physik, trans. mit ital., M., 1970; Markov M. A., Über die Natur der Materie, M., 1976.
Allgemeine Physik. Khaikin S.E., Physikalische Grundlagen der Mechanik, 2. Aufl., M., 1971; Strelkov S. P., Mechanics, 3. Aufl., M., 1975; Landsberg G. S., Optics, 5. Aufl., M., 1976; Kikoin A. K., Kikoin I. K., Molecular Physics, 2. Aufl., M., 1976; Kalashnikov S. G., Electricity, 3. Aufl., M., 1970; Gorelik G.S., Schwingungen und Wellen. Einführung in Akustik, Radiophysik und Optik, 2. Aufl., M., 1959; Born M., Atomphysik, trans. aus dem Englischen, 3. Aufl., M., 1970; Shpolsky E. V., Atomic Physics, Bd. 1, 6. Aufl., Bd. 2, 4. Aufl., Moskau, 1974; Feynman R., Leighton R., Sands M., Feynman Vorlesungen in Physik, trans. aus dem Englischen, in. 1-9, M., 1965-67; Berkeley Physics Course, Bd. 1-5, trans. aus dem Englischen, M., 1971–74.
Theoretische Physik. Theoretische Physik: Landau L. D., Lifshits E. M., Bd. 1, Mechanik, 3. Aufl., M., 1973; Bd. 2, Feldtheorie, 6. Aufl., Moskau, 1973; Bd. 3, Quantenmechanik. Nichtrelativistische Theorie, 3. Aufl., M., 1974; Berestetskiy VB, Lifshits EM, Pitaevskiy LP, T. 4, S. 1, Relativistische Quantentheorie, M., 1968; Lifshits E. M., Pitaevsky L. P., Bd. 4, Teil 2, Relativistische Quantentheorie, M., 1971; Landau L. D., Lifshits E. M., T. 5, Teil 1, Statistische Physik, 3. Aufl., M., 1976; ihnen, Continuum Mechanics, 2. Aufl., Moskau, 1954; ihre. Elektrodynamik kontinuierlicher Medien, M., 1959; G. Goldstein, Klassische Mechanik, übers. aus Englisch, 2. Aufl., M., 1975; Leontovich M. A., Einführung in die Thermodynamik, 2. Aufl., M. - L., 1952; his, Statistische Physik, M. - L., 1944; R. Kubo, Thermodynamik, übers. aus Englisch., M., 1970; ihn, Statistische Mechanik, trans. aus Englisch., M., 1967; Tamm I. E., Fundamentals of the Theory of Electricity, 9. Aufl., M., 1976; Born M., Wolf E., Grundlagen der Optik, trans. aus dem Englischen, 2. Aufl., M., 1973; Davydov A.S., Quantenmechanik, 2. Aufl., M., 1973; Blokhintsev D. I., Fundamentals of Quantum Mechanics, 5. Aufl., M., 1976; Dirac P.A.M., Prinzipien der Quantenmechanik, trans. aus dem Englischen, M., 1960. Monographien. Abrikosov AA, Einführung in die Theorie der Normalmetalle, M., 1972; Andronov A. A., Vitt A. A., Khaikin S. E., Theory of Oszillations, 2. Aufl., Moskau, 1959; Artsimovich L.A., Controlled thermonuclear responses, 2. Aufl., M., 1963; Akhiezer A. I., Quantum Electrodynamics, 1969; Bethe G., Sommerfeld A., Elektronische Theorie der Metalle, trans. daraus., L. - M., 1938; Blokhin M. A., Physics of X-rays, 2. Aufl., M., 1957; Bogolyubov N. N., Probleme der dynamischen Theorie in der statistischen Physik, M. - L., 1946; Bogolyubov N. N., Shirkov D. V., Einführung in die Theorie der quantisierten Felder, 3. Aufl., M., 1976; L. Brillouin, Wissenschafts- und Informationstheorie, trans. aus dem Englischen, M., 1960; Vonsovsky S. V., Magnetism, M., 1971; Gibbs J. V., Thermodynamische Arbeiten, übers. aus dem Englischen., M. - L., 1950; ihm, Grundlagen der statistischen Mechanik, trans. aus dem Englischen., M. - L., 1946; Ginzburg V. L., On Physics and Astrophysics, 2. Aufl., M., 1974; Anselm AI, Einführung in die Halbleitertheorie, M. - L., 1962; Elyashevich MA, Atom- und Molekülspektroskopie, M., 1962; Zel'dovich Ya. B., Novikov ID, The Theory of Gravitation and Evolution of Stars, M., 1971; Zel'dovich Ya. B., Raizer Yu. P., Physik der Stoßwellen und hydrodynamischen Hochtemperaturphänomene, 2. Aufl., Moskau, 1966; A. Sommerfeld, Die Struktur des Atoms und der Spektren, trans. damit., V. 1-2, M. , 1956; Zubarev DN, Statistische Thermodynamik des Nichtgleichgewichts, M., 1971; Kapitsa P. L., Experiment, Theorie, Praxis, M., 1974; G. Carslow, D. Jaeger, Wärmeleitfähigkeit von Feststoffen, trans. aus Englisch., M., 1964; Kittel Ch., Einführung in die Festkörperphysik, trans. aus dem Englischen, 2. Aufl., M., 1962; Lorentz GA, Theorie der Elektronen und ihre Anwendung auf die Phänomene Licht und Wärmestrahlung, trans. aus dem Englischen, 2. Aufl., M., 1956; Lukyanov S. Yu., Heißes Plasma und kontrollierte Kernfusion, M., 1975; I. Neiman, von, Mathematische Grundlagen der Quantenmechanik, trans. daraus., M, 1964; Okun LB, Schwache Wechselwirkung von Elementarteilchen, M., 1963; Skuchik E., Grundlagen der Akustik, trans. aus dem Englischen, T. 1–2, M., 1976; Strett JV (Lord Rayleigh), Theory of Sound, Bd. 1–2, 2. Aufl., Moskau, 1955; Fock V.A., Theory of space, time and gravitation, 2. Aufl., Moskau, 1961; Frenkel Ya. I., Einführung in die Theorie der Metalle, 3. Aufl., M., 1958; Einstein A., Infeld L., Evolution of Physics, trans. aus Englisch, 3. Aufl., M., 1965. Enzyklopädien und Nachschlagewerke: Physikalisches Enzyklopädisches Wörterbuch, V. 1–5, Moskau, 1960–66; Enzyklopädisches Wörterbuch der Physik (Hrsg. J. Thewlis), v. 1-9, Oxf. - N.Y., 1961–64; Yavorskiy B.M., Detlaf A.A., Handbuch der Physik für Ingenieure und Studenten, 6. Aufl., Moskau, 1974.

A. M. Prochorow. Physik // Große sowjetische Enzyklopädie

Zehn- und Hunderttausende von physikalischen Experimenten wurden für tausendjährige Geschichte Wissenschaft. Es ist nicht einfach, ein paar "die Besten" auszuwählen, um über sie zu berichten. Was sollten die Auswahlkriterien sein?

Vor vier Jahren veröffentlichte die New York Times einen Artikel von Robert Crees und Stony Beech. Darin wurden die Ergebnisse einer Umfrage unter Physikern beschrieben. Jeder Befragte musste die zehn schönsten in der Geschichte der Physikexperimente benennen. Das Schönheitskriterium steht unserer Meinung nach anderen Kriterien in nichts nach. Daher informieren wir Sie über die Experimente, die laut den Ergebnissen der Umfrage von Kriez und Buk in den Top Ten enthalten sind.

1. Experiment des Eratosthenes von Kyrene

Eines der ältesten bekannten physikalischen Experimente, bei dem der Erdradius gemessen wurde, wurde im 3. Jahrhundert v. Chr. vom Bibliothekar der berühmten Bibliothek von Alexandria, Erastophenes von Kyrene, durchgeführt.

Das experimentelle Design ist einfach. Am Mittag, am Tag der Sommersonnenwende, stand in der Stadt Siena (heute Assuan) die Sonne im Zenit und Objekte warfen keinen Schatten. Am selben Tag und zur gleichen Zeit in der 800 Kilometer von Siena entfernten Stadt Alexandria wich die Sonne um etwa 7 ° vom Zenit ab. Dies ist etwa 1/50 eines Vollkreises (360 °), woraus sich ergibt, dass der Erdumfang 40.000 Kilometer und der Radius 6.300 Kilometer beträgt.

Es scheint fast unglaublich, dass der mit einer so einfachen Methode gemessene Erdradius nur 5 % kleiner ist als der mit den genauesten modernen Methoden erhaltene Wert.

2. Galileo Galileis Experiment

Im 17. Jahrhundert der vorherrschende Standpunkt von Aristoteles, der lehrte, dass die Fallgeschwindigkeit eines Körpers von seiner Masse abhängt. Je schwerer der Körper, desto schneller fällt er. Beobachtungen, die jeder von uns machen kann Alltagsleben scheint dies zu bestätigen.

Versuchen Sie, gleichzeitig von freizugeben Hände leicht ein Zahnstocher und ein schwerer Stein. Der Stein berührt den Boden schneller. Solche Beobachtungen führten Aristoteles zu dem Schluss auf die grundlegende Eigenschaft der Kraft, mit der die Erde andere Körper anzieht. Tatsächlich wird die Fallgeschwindigkeit nicht nur durch die Schwerkraft, sondern auch durch den Luftwiderstand beeinflusst. Das Verhältnis dieser Kräfte für leichte Gegenstände und für schwere Gegenstände ist unterschiedlich, was zu dem beobachteten Effekt führt. Der Italiener Galileo Galilei stellte die Richtigkeit der Schlussfolgerungen des Aristoteles in Frage und fand einen Weg, sie zu überprüfen. Dazu ließ er im selben Moment eine Kanonenkugel und eine viel leichtere Musketenkugel vom Schiefen Turm von Pisa fallen. Beide Körper hatten ungefähr das gleiche stromlinienförmige Form, daher waren sowohl für den Kern als auch für das Geschoss die Luftwiderstandskräfte im Vergleich zu den Anziehungskräften vernachlässigbar.

Galileo fand heraus, dass beide Objekte gleichzeitig den Boden erreichen, d. h. die Fallgeschwindigkeit ist gleich. Die Ergebnisse von Galileo. - eine Folge des universellen Gravitationsgesetzes und des Gesetzes, nach dem die vom Körper erfahrene Beschleunigung direkt proportional zur auf ihn wirkenden Kraft und umgekehrt proportional zur Masse ist.

3. Ein weiteres Experiment von Galileo Galilei

Galileo maß die Strecke, die die Kugeln, die auf einem geneigten Brett rollten, in gleichen Zeitintervallen zurücklegten, gemessen vom Autor des Experiments an einer Wasseruhr. Der Wissenschaftler fand heraus, dass die Kugeln viermal weiter rollen, wenn die Zeit verdoppelt wird. Diese quadratische Beziehung führte dazu, dass sich die Kugeln unter Einwirkung der Schwerkraft beschleunigt bewegen, was der seit 2000 Jahren geglaubten Behauptung des Aristoteles widersprach, dass sich Körper, auf die eine Kraft einwirkt, mit konstanter Geschwindigkeit bewegen, während bei einer Kraft nicht auf den Körper aufgetragen, dann ruht er.

Die Ergebnisse dieses Experiments von Galileo dienten später ebenso wie die Ergebnisse seines Experiments mit dem schiefen Turm von Pisa als Grundlage für die Formulierung der Gesetze der klassischen Mechanik.

4. Henry Cavendishs Experiment

Nachdem Isaac Newton das Gesetz der universellen Gravitation formuliert hatte: Die Anziehungskraft zwischen zwei Körpern mit Massen von Meath, die sich im Abstand r voneinander befinden, ist gleich F = G (mM / r2), es blieb noch der Wert von zu bestimmen die Gravitationskonstante G. Dazu war es notwendig, die Kraftanziehung zwischen zwei Körpern mit bekannter Masse zu messen. Dies ist nicht so einfach zu bewerkstelligen, da die Schwerkraft sehr klein ist.

Wir spüren die Anziehungskraft der Erde. Aber es ist unmöglich, die Anziehungskraft eines sehr großen nahen Berges zu spüren, da er sehr schwach ist. Eine sehr subtile und sensible Methode war erforderlich. Es wurde 1798 von Newtons Landsmann Henry Cavendish erfunden und angewendet. Er benutzte eine Torsionswaage - einen Rocker mit zwei Kugeln, die an einer sehr dünnen Schnur aufgehängt waren. Cavendish maß die Verschiebung des Kipphebels (Rotation) bei Annäherung an die Kugeln der Unruh von anderen Kugeln mit größerer Masse.

Um die Empfindlichkeit zu erhöhen, wurde die Verschiebung durch die von den an den Kugeln des Kipphebels montierten Spiegeln reflektierten Lichtstrahlen bestimmt. Als Ergebnis dieses Experiments gelang es Cavendish, den Wert der Gravitationskonstante ziemlich genau zu bestimmen und zum ersten Mal die Masse der Erde zu berechnen.

5. Das Experiment von Jean Bernard Foucault

Der französische Physiker Jean Bernard Leon Foucault bewies 1851 experimentell die Rotation der Erde um ihre Achse mit einem 67 Meter langen Pendel, das an der Spitze der Kuppel des Pariser Pantheons aufgehängt war. Die Schwingebene des Pendels bleibt gegenüber den Sternen unverändert. Der Beobachter, der sich auf der Erde befindet und mit ihr rotiert, sieht, dass sich die Rotationsebene langsam entgegen der Erdrotationsrichtung dreht.

6. Isaac Newtons Experiment

1672 führte Isaac Newton ein einfaches Experiment durch, das in allen Schulbüchern beschrieben wird. Nachdem er die Fensterläden geschlossen hatte, machte er ein kleines Loch hinein, durch das der Sonnenstrahl fiel. Im Strahlengang wurde ein Prisma und hinter dem Prisma ein Schirm angebracht.

Auf dem Bildschirm beobachtete Newton einen "Regenbogen": Ein weißer Sonnenstrahl, der durch ein Prisma ging, verwandelte sich in mehrere farbige Strahlen - von Violett bis Rot. Dieses Phänomen wird als Lichtstreuung bezeichnet. Sir Isaac war nicht der Erste, der dieses Phänomen beobachtete. Schon zu Beginn unserer Zeitrechnung war bekannt, dass große Einkristalle natürlichen Ursprungs die Eigenschaft haben, Licht in Farben zu zerlegen. Die ersten Studien zur Lichtstreuung in Experimenten mit einem dreieckigen Glasprisma noch vor Newton wurden von dem Engländer Chariot und dem tschechischen Naturforscher Marci durchgeführt.

Vor Newton wurden solche Beobachtungen jedoch keiner ernsthaften Analyse unterzogen und die daraus gezogenen Schlussfolgerungen wurden nicht durch zusätzliche Experimente überprüft. Sowohl Chariot als auch Marzi blieben Anhänger von Aristoteles, der argumentierte, dass der Farbunterschied durch den Unterschied in der Menge an Dunkelheit bestimmt wird, die mit weißem Licht "gemischt" wird. Violett tritt nach Aristoteles mit der größten Zugabe von Dunkelheit zum Licht auf und Rot - mit der geringsten. Auf der anderen Seite führte Newton zusätzliche Experimente mit gekreuzten Prismen durch, bei denen Licht, das durch ein Prisma durchgelassen wurde, dann durch ein anderes hindurchgeht. Basierend auf der Gesamtheit seiner Experimente kam er zu dem Schluss, dass "keine Farbe aus Weiß und Schwärze zusammengemischt entsteht, außer für mittlere dunkle; die Lichtmenge ändert nicht die Art der Farbe." Er zeigte, dass weißes Licht als Komposit behandelt werden sollte. Die Hauptfarben reichen von Lila bis Rot. Dieses Experiment von Newton ist ein wunderbares Beispiel dafür, wie verschiedene Menschen, die dasselbe Phänomen beobachten, es auf unterschiedliche Weise interpretieren und nur diejenigen, die ihre Interpretation hinterfragen und zusätzliche Experimente anstellen, zu den richtigen Schlussfolgerungen kommen.

7. Thomas Youngs Experiment

Bis Anfang des 19. Jahrhunderts herrschten Vorstellungen über die Korpuskularität des Lichts vor. Licht wurde als aus einzelnen Teilchen zusammengesetzt - Korpuskeln - betrachtet. Obwohl die Phänomene der Beugung und Interferenz des Lichts von Newton ("Newtons Ringe") beobachtet wurden, blieb der allgemein akzeptierte Standpunkt korpuskular. Betrachtet man die Wellen auf der Wasseroberfläche von zwei geworfenen Steinen, so kann man sehen, wie sich die Wellen überlagernd gegenseitig stören, sich also gegenseitig unterdrücken oder verstärken können. Darauf aufbauend machte der englische Physiker und Arzt Thomas Jung 1801 Experimente mit einem Lichtstrahl, der durch zwei Löcher in einem undurchsichtigen Schirm ging und so zwei unabhängige Lichtquellen bildete, ähnlich wie zwei ins Wasser geworfene Steine. Als Ergebnis beobachtete er ein Interferenzmuster aus abwechselnd dunklen und weißen Streifen, das sich nicht hätte bilden können, wenn das Licht aus Korpuskeln bestünde. Die dunklen Streifen entsprachen den Bereichen, in denen sich die Lichtwellen der beiden Schlitze gegenseitig auslöschten. Dort, wo sich die Lichtwellen verstärkten, traten Lichtstreifen auf. Damit wurde die Wellennatur des Lichts bewiesen.

8. Klaus Jonssons Experiment

Der deutsche Physiker Klaus Jonsson führte 1961 ein ähnliches Experiment wie Thomas Jungs Experiment zur Interferenz von Licht durch. Der Unterschied bestand darin, dass Jonsson anstelle von Lichtstrahlen Elektronenstrahlen verwendete. Er erhielt ein ähnliches Interferenzmuster wie Jung für Lichtwellen beobachtete. Dies bestätigte die Richtigkeit der Bestimmungen der Quantenmechanik über die gemischte Welle-Teilchen-Natur von Elementarteilchen.

9. Experiment von Robert Millikan

Die Idee, dass die elektrische Ladung eines jeden Körpers diskret ist (d. h. aus einer größeren oder kleineren Menge von Elementarladungen besteht, die nicht mehr zersplittert werden), entstand zu Beginn des 19. Jahrhunderts und wurde von so berühmten Physikern wie M. Faraday und G. Helmholtz. Der Begriff "Elektron" wurde in die Theorie eingeführt und bezeichnet ein bestimmtes Teilchen - den Träger einer elementaren elektrischen Ladung. Dieser Begriff war jedoch damals rein formal, da weder das Teilchen selbst noch die damit verbundene elementare elektrische Ladung experimentell entdeckt wurde.

Im Jahr 1895 entdeckte K. Röntgen bei Experimenten mit einer Entladungsröhre, dass ihre Anode unter der Einwirkung von Strahlen, die von der Kathode fliegen, ihre eigenen Röntgenstrahlen oder Röntgenstrahlen emittieren kann. Im selben Jahr wies der französische Physiker J. Perrin experimentell nach, dass Kathodenstrahlen ein Strom negativ geladener Teilchen sind. Doch trotz des kolossalen Versuchsmaterials blieb das Elektron ein hypothetisches Teilchen, da es kein einziges Experiment gab, an dem einzelne Elektronen teilnehmen würden. Der amerikanische Physiker Robert Millikan entwickelte eine Methode, die zu einem klassischen Beispiel für ein elegantes physikalisches Experiment wurde.

Millikan gelang es, mehrere geladene Wassertröpfchen zwischen den Kondensatorplatten im Weltraum zu isolieren. Durch das Beleuchten mit Röntgenstrahlen konnte die Luft zwischen den Platten leicht ionisiert und die Ladung der Tröpfchen verändert werden. Beim Einschalten des Feldes zwischen den Platten bewegte sich das Tröpfchen unter der Wirkung der elektrischen Anziehung langsam nach oben. Bei ausgeschaltetem Feld sank es unter dem Einfluss der Schwerkraft ab. Durch Ein- und Ausschalten des Feldes war es möglich, jedes der zwischen den Platten schwebenden Tröpfchen 45 Sekunden lang zu untersuchen, wonach sie verdampften. 1909 konnte festgestellt werden, dass die Ladung jedes Tröpfchens immer ein ganzzahliges Vielfaches des Grundwertes e (Elektronenladung) war. Dies war ein zwingender Beweis dafür, dass Elektronen Teilchen mit der gleichen Ladung und Masse waren. Durch das Ersetzen von Wassertröpfchen durch Öltröpfchen konnte Millikan die Beobachtungsdauer auf 4,5 Stunden erhöhen und veröffentlichte 1913 unter Ausschaltung möglicher Fehlerquellen nacheinander den ersten Messwert der Elektronenladung: e = (4,774 ± 0,009) x 10-10 elektrostatische Einheiten.

10. Ernst Rutherfords Experiment

Zu Beginn des 20. Jahrhunderts wurde klar, dass Atome aus negativ geladenen Elektronen und einigen positive Ladung, dank der das Atom im Allgemeinen neutral bleibt. Es gab jedoch zu viele Annahmen darüber, wie dieses "Positiv-Negativ"-System aussieht, während die experimentellen Daten, die eine Entscheidung für das eine oder andere Modell ermöglichen würden, eindeutig fehlten.

Die meisten Physiker haben das Modell von J.J. Thomson übernommen: ein Atom als gleichmäßig geladene positive Kugel mit einem Durchmesser von etwa 10-8 cm, in der negative Elektronen schweben. 1909 führte Ernst Rutherford (unterstützt von Hans Geiger und Ernst Marsden) ein Experiment durch, um die tatsächliche Struktur des Atoms zu verstehen. In diesem Experiment passierten schwere positiv geladene a-Teilchen, die sich mit einer Geschwindigkeit von 20 km / s bewegten, eine dünne Goldfolie und wurden von Goldatomen abweichend von der ursprünglichen Bewegungsrichtung gestreut. Um den Grad der Ablenkung zu bestimmen, mussten Geiger und Marsden mit einem Mikroskop die Blitze auf der Szintillatorplatte beobachten, die dort auftraten, wo das a-Teilchen in die Platte eintrat. Über zwei Jahre wurden etwa eine Million Flares gezählt und es wurde nachgewiesen, dass etwa ein Teilchen von 8000 durch Streuung die Richtung um mehr als 90 ° ändert (dh umkehrt). Dies konnte in Thomsons "losem" Atom nicht geschehen. Die Ergebnisse unterstützten eindeutig das sogenannte Planetenmodell des Atoms - ein massiver winziger Kern von etwa 10-13 cm Größe und Elektronen, die diesen Kern in einer Entfernung von etwa 10-8 cm umkreisen.