O que os físicos experimentais fazem no CERN. Bielorrusso sobre o trabalho no Grande Colisor de Hádrons

[[K:Wikipedia:Artigos sem fontes (país: Erro Lua: callParserFunction: a função "#property" não foi encontrada. )]][[K:Wikipedia:Artigos sem fontes (país: Erro Lua: callParserFunction: a função "#property" não foi encontrada. )]]

Física experimental- uma forma de conhecer a natureza, que consiste em estudar os fenómenos naturais em condições especialmente preparadas. Ao contrário da física teórica, que estuda modelos matemáticos da natureza, a física experimental é projetada para estudar a própria natureza.

É a discordância com o resultado do experimento que é o critério para a falácia de uma teoria física, ou mais precisamente, a inaplicabilidade da teoria ao nosso mundo. A afirmação inversa não é verdadeira: a concordância com a experiência não pode ser prova da correção (aplicabilidade) de uma teoria. Ou seja, o principal critério para a viabilidade de uma teoria física é a verificação experimental.

Este papel agora óbvio do experimento foi realizado apenas por Galileu e por pesquisadores posteriores, que tiraram conclusões sobre as propriedades do mundo com base em observações do comportamento de objetos sob condições especiais, ou seja, conduziram experimentos. Observe que isso é completamente oposto, por exemplo, à abordagem dos antigos gregos: apenas a reflexão lhes parecia ser a fonte do verdadeiro conhecimento sobre a estrutura do mundo, e a “experiência sensorial” era considerada sujeita a numerosos enganos e incertezas. e, portanto, não poderia reivindicar o conhecimento verdadeiro.

Idealmente, a física experimental deveria fornecer apenas descrição resultados do experimento, sem qualquer interpretações. Contudo, na prática isto não é alcançável. A interpretação dos resultados de uma experiência mais ou menos complexa depende inevitavelmente do facto de termos uma compreensão de como se comportam todos os elementos da configuração experimental. Tal compreensão, por sua vez, não pode deixar de se apoiar em algumas teorias. Assim, experimentos em física de aceleradores de partículas elementares - um dos mais complexos de toda a física experimental - podem ser interpretados como um estudo real das propriedades das partículas elementares somente após as propriedades mecânicas e elásticas de todos os elementos detectores e sua resposta à ação elétrica e campos magnéticos, propriedades de gases residuais em uma câmara de vácuo, distribuição de campo elétrico e deriva de íons em câmaras proporcionais, processos de ionização da matéria, etc.1

Escreva uma resenha sobre o artigo "Física Experimental"

Um trecho caracterizando a Física Experimental

Naquela época, eu ainda não sabia nada sobre a morte clínica ou sobre os túneis luminosos que surgiram durante ela. Mas o que aconteceu a seguir foi muito parecido com todas aquelas histórias de mortes clínicas que muito mais tarde consegui ler em vários livros, já morando na distante América...
Senti que se não respirasse agora, meus pulmões simplesmente explodiriam e eu provavelmente morreria. Ficou muito assustador, minha visão escureceu. De repente, um flash brilhante passou pela minha cabeça e todos os meus sentimentos desapareceram em algum lugar... Um túnel azul transparente e ofuscantemente brilhante apareceu, como se fosse inteiramente tecido de pequenas estrelas prateadas em movimento. Flutuei silenciosamente dentro dele, sem sentir nem sufocamento nem dor, apenas surpreso mentalmente com a extraordinária sensação de felicidade absoluta, como se finalmente tivesse encontrado o lugar do meu tão esperado sonho. Foi muito calmo e bom. Todos os sons desapareceram, eu não queria me mover. O corpo ficou muito leve, quase sem peso. Muito provavelmente, naquele momento eu estava simplesmente morrendo...
Vi algumas figuras humanas muito bonitas, luminosas e transparentes aproximando-se lenta e suavemente de mim através do túnel. Todos sorriram calorosamente, como se me chamassem para me juntar a eles... Eu já estava estendendo a mão para eles... quando de repente uma enorme palma luminosa apareceu de algum lugar, me agarrou por baixo e, como um grão de areia, começou para me levar rapidamente à superfície. Meu cérebro explodiu com a onda de sons agudos, como se uma divisória protetora tivesse estourado de repente em minha cabeça... Fui jogado à superfície como uma bola... e ensurdecido por uma verdadeira cachoeira de cores, sons e sensações, que por alguma razão agora eram percebidos por mim com muito mais brilho do que habitualmente.
Houve um verdadeiro pânico na praia... Os meninos vizinhos, gritando alguma coisa, agitaram os braços expressivamente, apontando em minha direção. Alguém tentou me puxar para terra firme. E então tudo flutuou, girou em uma espécie de redemoinho maluco, e minha pobre e sobrecarregada consciência flutuou em completo silêncio... Quando eu gradualmente “recuperei o juízo”, os caras ficaram ao meu redor com os olhos arregalados de horror, e todos juntos pareciam de alguma forma corujas assustadas idênticas... Ficou claro que durante todo esse tempo eles estavam quase em verdadeiro choque de pânico e, aparentemente, já haviam me “enterrado” mentalmente. Tentei fingir um sorriso e, ainda engasgado com o calor água do rio, com dificuldade disse que estava tudo bem comigo, embora naturalmente eu não estivesse em ordem naquele momento.

Muitos livros? Você pode esclarecer livros solicitando “Física Experimental” (a quantidade de livros para este esclarecimento está indicada entre colchetes)

Mudar estilo de exibição:

Teoria molecular da adsorção em corpos porosos

Ausente

Os processos em corpos porosos formam a base de muitas técnicas tradicionais e tecnologias modernas: catalítica, sorção, membrana, eletroquímica, cromatográfica, purificação e separação de misturas líquidas e gasosas, condensação e dessorção capilar, filtração e pulverização multifásica, umectação...

Ausente

A monografia apresenta resultados generalizados de estudos teóricos e experimentais da interação da radiação laser com metais durante o corte a laser de materiais em chapa. É dada atenção à construção de modelos físicos e matemáticos tendo em conta a variedade de processos termofísicos, os principais e...

Ausente

São apresentadas questões teóricas e aplicadas de aerodinâmica de aeronaves. São apresentadas informações da cinemática e dinâmica dos gases; são fornecidas as equações básicas da aerodinâmica, métodos analíticos e numéricos para cálculo de fluxos de vórtice, potencial, plano, espacial e viscoso. Teorias com...

Ausente

O livro contém tarefas e possíveis soluções para a II Olimpíada Internacional de Física Experimental, que decorreu de 27 de novembro a 7 de dezembro de 2014 no Centro Educacional e de Saúde Infantil da Instituição Orçamental do Estado “Equipa”. A Olimpíada foi realizada para alunos do 8º ao 11º ano e incluiu três rodadas, cada uma…

Ausente

A monografia é dedicada a uma apresentação sistemática dos fundamentos da física da flutuação dos campos eletromagnéticos dos sólidos e sua conexão com os fenômenos fundamentais da natureza. Modelos teóricos modernos de campos térmicos e vários métodos para descrever suas propriedades de correlação são apresentados a partir de uma posição unificada. N...

Ausente

O livro é dedicado ao problema das transformações de fase em sólidos em alta pressão (HP). São consideradas as seguintes questões: equilíbrio de fases durante altas pressões em elementos (carbono, silício, germânio, titânio, zircônio, ferro, gálio, cério), em compostos I VII II VI III V tipo A B; AB; A B, em ligas à base de…

Ausente

A monografia examina fluxos separados simétricos e assimétricos e sua reestruturação em torno de pares de corpos de diversas formas em uma ampla gama de números de Mach e Reynolds. É feita uma análise de fluxos separados e instáveis ​​​​em torno de vários corpos (esfera, extremidade, cone), na frente dos quais um fluxo não giratório ou giratório…

Ausente

A monografia apresenta os resultados de estudos experimentais de geração de feixes pulsados ​​​​de elétrons e íons de potência de gigawatts em diodos com cátodo de emissão explosiva sob condições de rápida formação de plasma em toda a superfície de trabalho do cátodo. Os mais importantes são considerados processos físicos pr…

Ausente

São consideradas as principais características da radiação radiotérmica espalhada e intrínseca dos ambientes naturais. É fornecida uma análise de modelos eletrodinâmicos de várias superfícies da Terra e da atmosfera circundante. Modelos de sinais de rádio e suas características estatísticas na área de gravação de rádio foram desenvolvidos...

O livro contém descrições de estudos experimentais educacionais do fenômeno da reflexão interna total a partir da fronteira de meios opticamente homogêneos e não homogêneos em camadas. São propostos dispositivos e modelos físicos simples. Experimentos divertidos e instrutivos são considerados. Todos os experimentos estão disponíveis e podem ser…

Ausente

O trabalho resume os resultados de estudos do estado eletreto de compostos de óxidos inorgânicos e orgânicos e examina a influência do estado eletreto no desenvolvimento da polarização ferroelétrica e nas propriedades elétricas dos ferroelétricos. Questões de uso prático…

Ausente

São apresentados os principais métodos de cálculo da distribuição da densidade de fluxo molecular nas superfícies de instalações de vácuo. Os principais métodos para modelar condições de vácuo com uma determinada densidade de fluxos moleculares foram estudados. Usando exemplos, consideramos o cálculo da distribuição da densidade de fluxo molecular sobre...

Ausente

O livro resume os resultados de um estudo teórico do processo de aceleração de elétrons em mícrons circulares e cortados clássicos, os resultados de experimentos para testar conclusões teóricas e para estudar as propriedades dos elétrons acelerados em um mícron. Maneiras de usar microtrons são consideradas...

Ausente

São apresentados os resultados de estudos experimentais e teóricos de processos gasodinâmicos em canais. O estudo dos processos de escoamento separados permitiu identificar os principais padrões, determinar parâmetros de similaridade e construir com base modelos teóricos aproximados deste mais complexo...

Ausente

O manual aborda questões relacionadas aos fundamentos da teoria quântica, características específicas de objetos quânticos e medições de precisão no caso de interferência de terceira ordem e autoação da luz em meios com não linearidade cúbica. Dispersão paramétrica de luz em sistemas quânticos e...

Ausente

São descritos os fundamentos da teoria da compressibilidade da matéria condensada, o projeto e as características das técnicas de carga explosiva e de choque e os princípios de operação de dispositivos de medição e registro para experimentos de dinâmica de gases com matéria condensada. Algoritmos para encontrar características...

Ausente

São consideradas diversas classes de problemas inversos da mecânica de um sólido deformável - retrospectivos, de contorno, de coeficiente, geométricos, nos quais, utilizando algumas informações experimentais adicionais sobre a solução, são obtidos os coeficientes dos operadores diferenciais, condições iniciais, gran...

Ausente

A monografia resume os resultados das pesquisas realizadas pelo autor na área de aerodinâmica de hélices e anéis de hélice. São consideradas as características de hélices simples, coaxiais e de duas carreiras com diferentes números de pás em anel perfilado e sem anel. As características do ar...

Ausente

São considerados modelos físicos, matemáticos e numéricos da interação de fluxos de plasma colisionais e sem colisão com corpos neles introduzidos. Extensos experimentos computacionais foram realizados, como resultado das funções de distribuição de partículas carregadas nas regiões frontal, lateral e…

Ausente

A principal característica do livro didático é um conceito multinível de apresentação dos fatos experimentais mais importantes e dos fundamentos da teoria dos fenômenos físicos, levando em consideração as conquistas científicas modernas. O livro inclui as seguintes seções principais: teoria eletromagnética da luz, emissão de luz, interferência, difração, dispersão…

Ausente

O livro é o volume II da monografia “Aerogasdinâmica de bicos de jato”. É dedicado a resolver um problema tão importante como o controle de fluxos separados em regiões de domínio, a fim de reduzir a resistência do fundo. Foi feita uma generalização de uma vasta quantidade de dados principalmente experimentais, p...

Ausente

Esta monografia é dedicada à teoria das microcavidades ópticas de alto Q e sua aplicação em óptica linear, não linear, quântica e aplicada. Microcavidades ópticas com modos de galeria sussurrante, desenvolvidas por cientistas russos, combinam de forma única o tamanho submilimétrico com...

Ausente

As questões de transferência de calor e massa durante o crescimento de monocristais a partir de um fundido são abordadas. São considerados modelos físicos e matemáticos de transferência de calor e processos de formação durante o crescimento de cristais a partir de um fundido. A principal atenção é dada ao estudo experimental e teórico dos processos térmicos…

Ausente

A monografia discute fundamentos metodológicos criar sistemas técnicos complexos que sejam resistentes a fatores desestabilizadores de diversas naturezas físicas. Usando o exemplo da aeronave, é considerado o procedimento de avaliação computacional e experimental da durabilidade. É mostrado como, com base no desenvolvido...

Ausente

A monografia é dedicada a uma variedade de fenômenos físicos e propriedades de matéria comprimida e aquecida em altas densidades de energia. São considerados métodos de geração, diagnóstico, bem como métodos teóricos para descrição do comportamento da matéria a pressões e temperaturas extremamente elevadas obtidos em laboratórios...

A monografia apresentada é dedicada ao problema de modelos e estudos dinâmicos experimentais em escala real de estruturas de edifícios de usinas nucleares. O objetivo de tal pesquisa era estudar fenômenos dinâmicos nas estruturas de construção de usinas nucleares associados a vibrações de vários tipos provocadas pelo homem…

Ausente

Os resultados de estudos principalmente experimentais dos processos de combustão, ignição/autoignição, deflagração rápida e detonação em sistemas combustíveis contendo hidrogênio são resumidos. Para análise foram selecionados estudos em condições iniciais de interesse prático para problemas hídricos...

Ausente

A monografia resume os resultados de pesquisas teóricas e experimentais no campo da física da fusão por contato de soluções sólidas com metais e transferência elétrica em camadas de contato. O mecanismo do estágio inicial de fusão por contato em nanonível é considerado. A influência de pequenas impurezas é descrita...

Ausente

A monografia contém descrições de patentes da Federação Russa para invenções na área de materiais e dispositivos detectores obtidas nos últimos 10 anos de desenvolvimento, que foram realizadas no Departamento de Física Experimental (EP) da USTU-UPI em colaboração com outros departamentos e organizações, inclusive estrangeiras. Em homenagem...

Ausente

O livro discute o desenvolvimento de métodos para reproduzir em experimentos de laboratório as condições de vôo orbital com base na velocidade dos fluxos de partículas carregadas e neutras incidentes na aeronave, sua concentração e temperatura, e o estudo das características dos dispositivos em tais fluxos, por exemplo...

Ausente

O tutorial é um guia para realizar o experimento físico necessário e processar os resultados da medição. Contém descrições de trabalhos laboratoriais nas seções “Movimento translacional”, “Movimento rotacional”, “Vibrações mecânicas” e “Forças elásticas”. Esta publicação é…

Ausente

O livro é dedicado à apresentação de muitos anos de experiência no desenvolvimento, criação e uso de instalações gasodinâmicas de curto prazo para experimentos aerodinâmicos. Dado descrição detalhada projetos de instalações gasodinâmicas desenvolvidos pelo autor para estudos experimentais em ...

Ausente

São consideradas as versões aplicadas mais simples da teoria da deformação elastoplástica sob carregamento proporcional (simples) e desproporcional (complexo). Métodos para identificar funções materiais que são variantes próximas da teoria são delineados. Resultados teóricos e experimentais são analisados...

Ausente

O livro é uma introdução à óptica moderna de feixes gaussianos e aborda uma ampla gama de questões relacionadas à formação e transformação de campos de luz paraxiais, generalizando os feixes clássicos de Hermite-Gauss e Laguerre-Gauss. A teoria dos campos de luz estruturalmente estáveis ​​foi apresentada pela primeira vez, em...

Ausente

A monografia resume e sistematiza os resultados de estudos de sistemas a jato para aumentar a sustentação das asas, realizados no TsAGI, bem como publicados em publicações nacionais e estrangeiras nos últimos 30-40 anos. Camada limite e sistemas de controle de circulação...

Ausente

O livro, baseado em dados experimentais, descreve um método para estudar nanoestruturas em camadas com base no uso de reflexo no espelho, transmissão, refração e espalhamento de nêutrons polarizados. Usando exemplos específicos, são apresentados os elementos da teoria da passagem de nêutrons através de uma estrutura em camadas...

Ausente

O livro examina questões de troca de calor em sistemas nos quais o calor é liberado por vários motivos (máquinas e dispositivos elétricos, aceleradores de partículas carregadas). O estudo dos processos de transferência de calor é realizado com base nas soluções analíticas exatas e aproximadas obtidas. Em ah...

Ausente

A monografia é dedicada à descrição das propriedades físicas da superfície, métodos experimentais modernos para o seu estudo e métodos teóricos para calcular as características superficiais e de adesão de vários materiais. São apresentados métodos desenvolvidos pelos autores que permitem, em boa concordância com…

Ausente

Com base nos princípios básicos da eletrodinâmica, foi desenvolvida uma teoria autoconsistente de excitação e acoplamento de modos de guias de ondas, aplicável a quaisquer estruturas de guias de ondas (fechadas e abertas). Estruturas de guias de ondas contendo meios com características isotrópicas, anisotrópicas e bianisotrópicas...

Ausente

Apresentado técnicas modernas medições experimentais, são apresentados dados sobre os fundamentos da construção de modelos matemáticos que descrevem o estado de uma suspensão de gás em combustão para várias características iniciais de turbulência, composições de suspensão de gás e parâmetros operacionais. Os resultados dos experimentos são considerados...

Ausente

O artigo discute as questões de diagnóstico de heterogeneidades no ambiente aquático usando uma antena paramétrica hidroacústica. Neste caso, as heterogeneidades do ambiente aquático apresentam formato geometricamente regular: esferas, cilindros e esferóides. Os processos ondulatórios são estudados teórica e experimentalmente, pro…

Ausente

A monografia examina uma série de questões relacionadas aos problemas de descrição e certificação experimental de contornos individuais e conjuntos de contornos de grãos em policristais, bem como estudos de seu papel em processos como difusão de contornos de grãos, relaxamento e crescimento de grãos. Foi feita uma tentativa de construir um número suficiente...

Ausente

O livro didático é a primeira parte da série “Curso Universitário de Física Geral”, destinada a estudantes de especialidades de física em universidades. Sua característica distintiva é um conceito multinível de apresentação dos fatos experimentais mais importantes e fundamentos da teoria dos fenômenos físicos, levando em consideração...

Ausente

A monografia examina as questões da combustão de combustíveis em motores térmicos para diversos fins, o impacto de seus produtos de combustão nos seres humanos e no meio ambiente. São descritos os mecanismos de formação de substâncias tóxicas durante a combustão e as formas de reduzir suas emissões. Um método para calcular a composição de equilíbrio dos produtos é descrito...

Ausente

O livro, em relação às máquinas elétricas de um novo tipo, descreve os resultados da pesquisa sobre as propriedades fundamentais, estrutura e dinâmica de estados intermediários e mistos de supercondutores tipo I e II de baixa e alta temperatura. Mudança local no estado de fase de um supercondutor...

Ausente

O livro didático é escrito de acordo com o conteúdo das normas educacionais estaduais, o programa do workshop (seção “Métodos bioquímicos de análise”), o programa da disciplina “Fundamentos químicos e métodos de análise de sistemas vivos”, o programa da disciplina “Biotecnologia e organização de analítico...

Ausente

São apresentados os resultados da sistematização de estudos de transferência de calor convectiva de aeronaves na fase atmosférica de voo, inclusive levando em consideração a influência do fluxo tridimensional, processos físico-químicos de desequilíbrio no gás e na superfície do veículo, laminar-turbulento transição da fronteira...

Ausente

O livro apresenta os resultados de estudos experimentais dos mecanismos de ocorrência de modos de combustão instáveis ​​​​em modelos de câmaras de combustão. Os mecanismos de emissão de vibrações sonoras por uma carga modulada, questões de diagnóstico e controle da instabilidade da combustão utilizando equipamentos elétricos...

Ausente

Este livro é dedicado à descoberta e estudo de um novo efeito - a deriva induzida, causada pela ação de campos elétricos e magnéticos periódicos em soluções estruturadas de sais em dielétricos polares líquidos. Contém informações de natureza experimental e teórica...

Ausente

São descritas as possibilidades e o estado atual da pesquisa em plasma de baixa temperatura usando métodos clássicos e de espectroscopia a laser. As questões de interpretação física dos resultados da aplicação dos métodos de emissão, absorção, refração e espalhamento da luz a um plasma termicamente fora de equilíbrio, suas conexões são consideradas...

Ausente

Palestras selecionadas do notável físico americano, laureado Prêmio Nobel R.Feynman. Eles examinam os estágios de desenvolvimento da física moderna e seus conceitos, a conexão da física com outras ciências, a teoria da gravidade, a mecânica quântica, a simetria das leis da física, a teoria especial da relativa...

Ausente

O livro é dedicado a um estudo experimental da conexão entre a estrutura quase ordenada de uma camada limite turbulenta e as características médias tradicionalmente medidas do fluxo na camada limite. O mecanismo de renovação periódica do fluxo na subcamada viscosa de uma camada limite turbulenta é considerado...

Ausente

É considerado um novo método experimental para medir a temperatura de objetos aquecidos usando um espectro contínuo de radiação térmica registrada em uma ampla faixa de comprimentos de onda (por exemplo, de 200 a 1000 nm). As vantagens da pirometria espectral sobre os métodos tradicionais de brilho e cor são discutidas...

Ausente

São apresentados termos e conceitos modernos da área de processamento de pressão. É delineada a essência física das operações modernas de tratamento de pressão mais comuns, são consideradas suas capacidades tecnológicas e são fornecidas as dependências para o cálculo dos principais parâmetros tecnológicos. Os diagramas são apresentados sobre...

Perfis experimentais de ondas de choque em matéria condensada

Física experimental - Shutov V.I.., Sukhov V.G., Podlesny D.V.. - 2005

É descrito o trabalho experimental incluído no programa dos liceus de física e matemática no âmbito de uma oficina de física. O manual é uma tentativa de criar um guia unificado para a realização de aulas práticas em turmas e escolas com estudo aprofundado de física, bem como para a preparação para rodadas experimentais de Olimpíadas de alto nível.
O material introdutório é tradicionalmente dedicado a métodos de processamento de dados experimentais. A descrição de cada trabalho experimental inicia-se com uma introdução teórica. A parte experimental contém descrições de montagens experimentais e tarefas que regulam a sequência de trabalho dos alunos durante a realização de medições. São fornecidos exemplos de planilhas para registro de resultados de medição, recomendações sobre métodos de processamento e apresentação de resultados e requisitos para relatórios. Ao final das descrições são oferecidas questões de prova, cujas respostas os alunos devem preparar para defender seu trabalho.
Para escolas e turmas com estudo aprofundado de física.

Introdução.

Erros de grandezas físicas. Processamento de resultados de medição.

Trabalho prático 1. Medição do volume de corpos de forma regular.
Trabalho prático 2. Estudo do movimento retilíneo de corpos no campo de gravidade utilizando uma máquina Atwood.
Trabalho prático 3. Fricção a seco. Determinação do coeficiente de atrito de deslizamento.
Introdução teórica ao trabalho com oscilações.
Trabalho prático 4. Estudo das oscilações de um pêndulo de mola.
Trabalho prático 5. Estudo das oscilações de um pêndulo matemático. Determinação da aceleração de queda livre.
Trabalho prático 6. Estudo das oscilações de um pêndulo físico.
Trabalho prático 7. Determinação dos momentos de inércia de corpos de forma regular pelo método das vibrações torcionais.
Trabalho prático 8. Estudo das leis de rotação de um corpo rígido sobre um pêndulo cruciforme de Oberbeck.
Trabalho prático 9. Determinação da relação entre as capacidades térmicas molares do ar.
Trabalho prático 10. Ondas estacionárias. Medindo a velocidade da onda em uma corda elástica.
Trabalho prático 11. Determinação da relação ср/с ι? para o ar em uma onda sonora estacionária.
Trabalho prático 12. Estudo do funcionamento de um osciloscópio electrónico.
Trabalho prático 13. Medição da frequência das oscilações através do estudo das figuras de Lissajous.
Trabalho prático 14. Determinação da resistividade do fio de nicromo.
Trabalho prático 15. Determinação da resistência do condutor pelo método de compensação de Wheatstone.
Trabalho prático 16. Processos transitórios num condensador. Determinação da capacidade.
Trabalho prático 17. Determinação da intensidade do campo eléctrico num condutor cilíndrico com corrente.
Trabalho prático 18. Estudo do funcionamento de uma fonte num circuito de corrente contínua.
Trabalho prático 19. Estudo das leis de reflexão e refração da luz.
Trabalho prático 20. Determinação das distâncias focais de lentes convergentes e divergentes.
Trabalho prático 21. O fenómeno da indução electromagnética. Estudo do campo magnético do solenóide.
Trabalho prático 22. Estudo de oscilações amortecidas.
Trabalho prático 23. Estudo do fenómeno de ressonância num circuito de corrente alternada.
Trabalho prático 24. Difracção de Fraunhofer por fenda. Medição da largura da fenda usando o “método de onda”.
Trabalho prático 25. Difracção de Fraunhofer. Rede de difração como dispositivo óptico.
Trabalho prático 26. Determinação do índice de refração do vidro pelo método “onda”.
Trabalho prático 27. Determinação do raio de curvatura de uma lente numa experiência com anéis de Newton.
Trabalho prático 28. Estudo da luz polarizada.

Baixe o e-book gratuitamente em um formato conveniente, assista e leia:
Baixe o livro Física Experimental - Shutov V.I., Sukhov V.G., Podlesny D.V. - 2005 - fileskachat.com, download rápido e gratuito.

Baixar djvu
Você pode comprar este livro abaixo melhor preço com desconto com entrega em toda a Rússia.

I. Assunto e estrutura da física

A física é uma ciência que estuda as leis mais simples e ao mesmo tempo mais gerais dos fenômenos naturais, as propriedades e estrutura da matéria e as leis de seu movimento. Portanto, os conceitos da física e suas leis fundamentam todas as ciências naturais. A física pertence às ciências exatas e estuda as leis quantitativas dos fenômenos.

A palavra "F." vem do grego. ph?sis – natureza. Inicialmente, na era da cultura antiga, a ciência não era dissecada e abrangia todo o corpo de conhecimento sobre os fenômenos naturais. À medida que o conhecimento e os métodos de investigação se diferenciaram, surgiram ciências separadas da ciência geral da natureza, incluindo a ciência física. As fronteiras que separam a ciência física de outras ciências naturais são em grande parte arbitrárias e mudam ao longo do tempo.

Na sua essência, a filosofia é uma ciência experimental: as suas leis baseiam-se em factos estabelecidos experimentalmente. Essas leis representam relações quantitativas e são formuladas em linguagem matemática. É feita uma distinção entre a fisiologia experimental – experiências conduzidas para descobrir novos factos e testar leis físicas conhecidas – e a fisiologia teórica, cujo objectivo é formular as leis da natureza e explicar fenómenos específicos com base nessas leis, bem como como prever novos fenômenos. Ao estudar qualquer fenômeno, a experiência e a teoria são igualmente necessárias e inter-relacionadas.

De acordo com a variedade de objetos estudados e as formas de movimento da matéria física, a filosofia é dividida em uma série de disciplinas (seções) mais ou menos relacionadas entre si. A divisão da fisiologia em disciplinas individuais não é inequívoca e pode ser realizada orientada por vários critérios. Com base nos objetos estudados, a física é dividida em física das partículas elementares, física dos núcleos, física dos átomos e moléculas, física dos gases e líquidos, física dos sólidos e física do plasma. Dr. critério - os processos ou formas de movimento da matéria em estudo. São eles: movimento mecânico, processos térmicos, fenômenos eletromagnéticos, interações gravitacionais, fortes, fracas; Conseqüentemente, a física inclui a mecânica dos pontos materiais e dos corpos sólidos, a mecânica dos meios contínuos (incluindo a acústica), a termodinâmica e a mecânica estatística, a eletrodinâmica (incluindo a óptica), a teoria da gravidade, a mecânica quântica e a teoria quântica de campos. As divisões indicadas de f. se sobrepõem parcialmente devido à profunda relação interna entre os objetos do mundo material e os processos dos quais participam. Dependendo do objetivo da pesquisa, às vezes também se distingue a óptica aplicada (por exemplo, óptica aplicada).

A física enfatiza especialmente a doutrina das oscilações e ondas, que se deve aos padrões comuns de processos oscilatórios de várias naturezas físicas e aos métodos de estudá-los. Ele examina vibrações e ondas mecânicas, acústicas, elétricas e ópticas de uma perspectiva unificada.

A fisiologia moderna contém um pequeno número de teorias físicas fundamentais, cobrindo todas as seções da fisiologia. Essas teorias representam a quintessência do conhecimento sobre a natureza dos processos e fenômenos físicos, um reflexo aproximado, mas mais completo, das várias formas de movimento da matéria na natureza.

II. Principais etapas do desenvolvimento da física

A formação da física (até o século XVII). Os fenômenos físicos do mundo circundante há muito atraem a atenção das pessoas. As tentativas de uma explicação causal desses fenômenos precederam a criação da filosofia no sentido moderno da palavra. No mundo greco-romano (século VI aC - século II dC), surgiram pela primeira vez ideias sobre a estrutura atômica da matéria (Demócrito, Epicuro, Lucrécio), um sistema geocêntrico do mundo foi desenvolvido (Ptolomeu), e as leis mais simples foram a estática estabelecida (a regra da alavancagem), a lei da propagação retilínea e a lei da reflexão da luz foram descobertas, os princípios da hidrostática foram formulados (lei de Arquimedes), foram observadas as manifestações mais simples da eletricidade e do magnetismo.

O resultado do conhecimento adquirido no século IV. AC e. foi decepcionado por Aristóteles. A física de Aristóteles incluía certas disposições corretas, mas ao mesmo tempo faltavam-lhe muitas das ideias progressistas dos seus antecessores, em particular a hipótese atómica. Reconhecendo a importância da experiência, Aristóteles não a considerou o principal critério para a confiabilidade do conhecimento, preferindo ideias especulativas. Na Idade Média, os ensinamentos de Aristóteles, canonizados pela Igreja, retardaram por muito tempo o desenvolvimento da ciência.

A ciência foi revivida apenas nos séculos XV e XVI. na luta contra os ensinamentos escolásticos de Aristóteles. Em meados do século XVI. N. Copérnico apresentou um sistema heliocêntrico do mundo e marcou o início da libertação das ciências naturais da teologia. As necessidades de produção, o desenvolvimento do artesanato, da navegação e da artilharia estimularam a pesquisa científica baseada na experiência. No entanto, nos séculos XV-XVI. os estudos experimentais foram em sua maioria aleatórios. Somente no século XVII. Começou a aplicação sistemática do método experimental na Física, o que levou à criação da primeira teoria física fundamental - a mecânica clássica de Newton.

Formação da física como ciência (início do século XVII – final do século XVIII)

O desenvolvimento da fisiologia como ciência no sentido moderno da palavra tem origem nas obras de G. Galileu (primeira metade do século XVII), que compreendeu a necessidade de uma descrição matemática do movimento. Ele mostrou que a influência dos corpos circundantes sobre um determinado corpo não determina a velocidade, como se acreditava na mecânica aristotélica, mas a aceleração do corpo. Esta afirmação representou a primeira formulação da lei da inércia. Galileu descobriu o princípio da relatividade na mecânica (ver o princípio da relatividade de Galileu), provou a independência da aceleração da queda livre dos corpos de sua densidade e massa e fundamentou a teoria copernicana. Também obteve resultados significativos em outras áreas da Física. Construiu um telescópio de grande ampliação e com sua ajuda fez diversas descobertas astronômicas (montanhas na Lua, satélites de Júpiter, etc.). O estudo quantitativo dos fenômenos térmicos começou depois que Galilsem inventou o primeiro termômetro.

Na 1ª metade do século XVII. o estudo bem-sucedido dos gases começou. O aluno de Galileu, E. Torricelli, estabeleceu a existência da pressão atmosférica e criou o primeiro barômetro. R. Boyle e E. Marriott estudaram a elasticidade dos gases e formularam a primeira lei dos gases, que leva seu nome. W. Snell e R. Descartes descobriram a lei da refração da luz. Ao mesmo tempo, foi criado o microscópio. Um avanço significativo no estudo dos fenômenos magnéticos foi dado no início do século XVII. W. Gilberto. Ele provou que a Terra é um grande ímã e foi o primeiro a distinguir estritamente entre fenômenos elétricos e magnéticos.

A principal conquista de F. século XVII. foi a criação da mecânica clássica. Desenvolvendo as idéias de Galileu, H. Huygens e outros predecessores, I. Newton em sua obra “Princípios Matemáticos da Filosofia Natural” (1687) formulou todas as leis básicas desta ciência (ver as leis da mecânica de Newton). Durante a construção da mecânica clássica, o ideal de uma teoria científica, que ainda existe hoje, foi concretizado pela primeira vez. Com o advento da mecânica newtoniana, foi finalmente entendido que a tarefa da ciência é encontrar as leis da natureza mais gerais formuladas quantitativamente.

A mecânica newtoniana alcançou seu maior sucesso na explicação do movimento dos corpos celestes. Com base nas leis do movimento planetário estabelecidas por J. Kepler com base nas observações de T. Brahe, Newton descobriu a lei da gravitação universal (ver a lei da gravitação de Newton). Usando esta lei, foi possível calcular com notável precisão o movimento da Lua, dos planetas e dos cometas do Sistema Solar, e explicar a vazante e o fluxo do oceano. Newton aderiu ao conceito de ação de longo alcance, segundo o qual a interação dos corpos (partículas) ocorre instantaneamente diretamente através do vazio; as forças de interação devem ser determinadas experimentalmente. Ele foi o primeiro a formular claramente os conceitos clássicos de espaço absoluto como um recipiente de matéria, independente de suas propriedades e movimento, e de tempo absoluto que flui uniformemente. Até a criação da teoria da relatividade, essas ideias não sofreram alterações.
Ao mesmo tempo, Huygens e G. Leibniz formularam a lei da conservação do momento; Huygens criou a teoria do pêndulo físico e construiu um relógio com pêndulo.

O desenvolvimento da acústica física começou. M. Mersenne mediu o número de vibrações naturais de uma corda sonora e pela primeira vez determinou a velocidade do som no ar. Newton teoricamente derivou uma fórmula para a velocidade do som.

Na 2ª metade do século XVII. A óptica geométrica começou a desenvolver-se rapidamente em relação ao design de telescópios e outros instrumentos ópticos, e as bases da óptica física foram lançadas. F. Grimaldi descobriu a difração da luz e Newton realizou pesquisa básica dispersão de luz. A espectroscopia óptica origina-se desses trabalhos de Newton. Em 1676, O. C. Roemer mediu pela primeira vez a velocidade da luz. Quase simultaneamente, duas teorias diferentes sobre a natureza física da luz surgiram e começaram a se desenvolver - corpuscular e ondulatória (ver Óptica). De acordo com a teoria corpuscular de Newton, a luz é um fluxo de partículas que se move de uma fonte em todas as direções. Huygens lançou as bases da teoria ondulatória da luz, segundo a qual a luz é um fluxo de ondas que se propaga em um meio hipotético especial - o éter, preenchendo todo o espaço e penetrando em todos os corpos.

Assim, no século XVII. Basicamente, construiu-se a mecânica clássica e iniciaram-se pesquisas em outras áreas da filosofia: na óptica, no estudo dos fenômenos elétricos e magnéticos, no calor e na acústica.

No século 18 O desenvolvimento da mecânica clássica, em particular da mecânica celeste, continuou. Com base em uma pequena anomalia no movimento do planeta Urano, foi possível prever a existência de um novo planeta - Netuno (descoberto em 1846). A confiança na validade da mecânica newtoniana tornou-se universal. Com base na mecânica, foi criada uma imagem mecânica unificada do mundo, segundo a qual toda a riqueza, toda a diversidade qualitativa do mundo é o resultado de diferenças no movimento das partículas (átomos) que compõem os corpos, movimento que obedece Leis de Newton. Este quadro teve forte influência no desenvolvimento da Física durante muitos anos. Uma explicação de um fenômeno físico era considerada científica e completa se pudesse ser reduzida à ação das leis da mecânica.

Um estímulo importante para o desenvolvimento da mecânica foram as demandas do desenvolvimento da produção. Nas obras de L. Euler e outros, foi desenvolvida a dinâmica de um corpo absolutamente rígido. Paralelamente ao desenvolvimento da mecânica das partículas e dos sólidos, ocorreu o desenvolvimento da mecânica dos líquidos e gases. Através das obras de D. Bernoulli, Euler, J. Lagrange e outros da 1ª metade do século XVIII. Foram lançadas as bases da hidrodinâmica de um fluido ideal - um fluido incompressível, desprovido de viscosidade e condutividade térmica. Na “Mecânica Analítica” de Lagrange (1788), as equações da mecânica são apresentadas de forma tão generalizada que mais tarde puderam ser aplicadas a processos não mecânicos, em particular eletromagnéticos.
Em outras áreas da fisiologia, foram acumulados dados experimentais e formuladas as leis experimentais mais simples. S. F. Dufay descobriu a existência de dois tipos de eletricidade e determinou que corpos com cargas semelhantes se repelem e corpos com cargas opostas se atraem. B. Franklin estabeleceu a lei da conservação da carga elétrica. G. Cavendish e independentemente C. Coulomb descobriram a lei fundamental da eletrostática, que determina a força de interação de cargas elétricas estacionárias (lei de Coulomb). A doutrina da eletricidade atmosférica surgiu. Franklin, M.V. Lomonosov e G.V. Richman provaram a natureza elétrica dos relâmpagos. Na óptica, o aprimoramento das lentes dos telescópios continuou. Através dos trabalhos de P. Bouguer e I. Lambert, a fotometria começou a ser criada. Foram descobertos raios infravermelhos (W. Herschel, cientista inglês W. Wollaston) e ultravioleta (cientista alemão N. Ritter, Wollaston).

Ocorreu um progresso notável no estudo dos fenômenos térmicos; Após a descoberta do calor latente de fusão por J. Black e a prova experimental da conservação do calor, os experimentos calorimétricos começaram a distinguir entre temperatura e quantidade de calor. O conceito de capacidade térmica foi formulado e começaram as pesquisas sobre condutividade térmica e radiação térmica. Ao mesmo tempo, foram estabelecidas visões incorretas sobre a natureza do calor: o calor passou a ser visto como um tipo especial de líquido indestrutível e sem peso - calórico, capaz de fluir de corpos aquecidos para corpos frios. A teoria do calor, segundo a qual o calor é um tipo de movimento interno das partículas, sofreu uma derrota temporária, apesar de ter sido apoiada e desenvolvida por cientistas destacados como Newton, Hooke, Boyle, Bernoulli, Lomonosov e outros.

Física clássica (século 19)

No início do século XIX. a competição de longo prazo entre as teorias corpuscular e ondulatória da luz terminou com a vitória final, ao que parece, da teoria ondulatória. Isso foi facilitado pela explicação bem-sucedida de T. Jung e O. J. Fresnel do fenômeno de interferência e difração da luz usando a teoria das ondas. Esses fenômenos são inerentes exclusivamente ao movimento ondulatório e parecia impossível explicá-los usando a teoria corpuscular. Ao mesmo tempo, foi obtida uma prova decisiva da natureza transversal das ondas de luz (Fresnel, D. F. Arago, Jung), descoberta no século XVIII. (Veja Polarização da Luz). Considerando a luz como ondas transversais em um meio elástico (éter), Fresnel encontrou uma lei quantitativa que determina a intensidade das ondas de luz refratadas e refletidas quando a luz passa de um meio para outro (ver fórmulas de Fresnel), e também criou a teoria da dupla refração .

Ótimo valor A descoberta da corrente elétrica por L. Galvani e A. Volta contribuiu para o desenvolvimento da Física. A criação de poderosas fontes de corrente contínua - baterias galvânicas - permitiu detectar e estudar os diversos efeitos da corrente. O efeito químico da corrente foi investigado (G. Davy, M. Faraday). V.V. Petrov recebeu um arco elétrico. A descoberta por H. K. Oersted (1820) da ação da corrente elétrica sobre uma agulha magnética provou a conexão entre eletricidade e magnetismo. Com base na unidade dos fenômenos elétricos e magnéticos, A. Ampere chegou à conclusão de que todos os fenômenos magnéticos são causados ​​​​pelo movimento de partículas carregadas - corrente elétrica. Em seguida, Ampere estabeleceu experimentalmente uma lei que determina a força de interação das correntes elétricas (lei de Ampere).

Em 1831, Faraday descobriu o fenômeno da indução eletromagnética (ver Indução eletromagnética). Ao tentar explicar este fenômeno utilizando o conceito de ação de longo alcance, foram encontradas dificuldades significativas. Faraday apresentou uma hipótese (mesmo antes da descoberta da indução eletromagnética) segundo a qual as interações eletromagnéticas são realizadas através de um agente intermediário - um campo eletromagnético (o conceito de ação de curto alcance). Isso marcou o início da formação de uma nova ciência sobre as propriedades e leis de comportamento de uma forma especial de matéria - o campo eletromagnético.

No início do século XIX. J. Dalton introduziu na ciência (1803) a ideia dos átomos como as menores partículas (indivisíveis) da matéria - portadoras da individualidade química dos elementos.

No primeiro quartel do século XIX. A base da física dos corpos sólidos foi lançada. Ao longo dos séculos XVII-XVIII e início do século XIX. houve um acúmulo de dados sobre as propriedades macroscópicas dos sólidos (metais, materiais técnicos, minerais, etc.) e o estabelecimento de leis empíricas do comportamento de um corpo sólido sob a influência de influências externas (forças mecânicas, aquecimento, campos elétricos e magnéticos, luz, etc.). O estudo das propriedades elásticas levou à descoberta da lei de Hooke (1660), o estudo da condutividade elétrica dos metais - ao estabelecimento da lei de Ohm (1826), propriedades térmicas - a lei das capacidades térmicas de Dulong e Petit (1819) (ver lei Dulong e Petit). As propriedades magnéticas básicas dos sólidos foram descobertas. Ao mesmo tempo, foi construída uma teoria geral das propriedades elásticas dos sólidos (L. M. A. Navier, 1819–26, OL Cauchy, 1830). Quase todos esses resultados são caracterizados pela interpretação de um sólido como um meio contínuo, embora uma parte significativa dos cientistas já tenha reconhecido que os sólidos, que são em sua maioria cristais, possuem uma estrutura microscópica interna.
A descoberta da lei da conservação da energia, que ligava todos os fenômenos naturais, foi da maior importância para a Física e para todas as ciências naturais. Em meados do século XIX. A equivalência da quantidade de calor e trabalho, etc., foi comprovada experimentalmente. Foi estabelecido que o calor não é uma substância hipotética sem peso - calórica, mas uma forma especial de energia. Na década de 40 século 19 Y. R. Mayer, J. Joule e G. Helmholtz descobriram independentemente a lei da conservação e transformação da energia. A lei da conservação da energia tornou-se a lei básica da teoria dos fenômenos térmicos (termodinâmica), recebendo o nome de primeira lei da termodinâmica.

Ainda antes da descoberta desta lei, S. Carnot, na sua obra “Reflexões sobre a força motriz do fogo e sobre as máquinas capazes de desenvolver esta força” (1824), obteve resultados que serviram de base a outra lei fundamental da teoria do calor - a segunda lei da termodinâmica. Esta lei foi formulada nas obras de R. Clausius (1850) e W. Thomson (1851). É uma generalização de dados experimentais que indicam a irreversibilidade dos processos térmicos na natureza, e determina a direção de possíveis processos energéticos. Um papel significativo na construção da termodinâmica foi desempenhado pelos estudos de J. L. Gay-Lussac, com base nos quais B. Clapeyron encontrou a equação de estado de um gás ideal, posteriormente generalizada por D. I. Mendeleev.

Simultaneamente com o desenvolvimento da termodinâmica, desenvolveu-se a teoria cinética molecular dos processos térmicos. Isto permitiu incluir os processos térmicos no quadro da imagem mecânica do mundo e levou à descoberta de um novo tipo de leis - as estatísticas, em que todas as ligações entre grandezas físicas são probabilísticas.

Na primeira fase do desenvolvimento da teoria cinética do meio mais simples - o gás - Joule, Clausius e outros calcularam os valores médios de várias grandezas físicas: a velocidade das moléculas, o número de suas colisões por segundo, a média livre caminho, etc Foi obtida a dependência da pressão do gás no número de moléculas por unidade de volume e na energia cinética média do movimento translacional das moléculas. Isso possibilitou a abertura significado físico temperatura como uma medida da energia cinética média das moléculas.

A segunda etapa no desenvolvimento da teoria cinética molecular começou com o trabalho de J. C. Maxwell. Em 1859, tendo introduzido pela primeira vez o conceito de probabilidade na filosofia, ele encontrou a lei da distribuição das moléculas por velocidade (ver distribuição de Maxwell). Depois disso, as possibilidades da teoria cinética molecular expandiram-se enormemente e posteriormente levaram à criação da mecânica estatística. L. Boltzmann construiu uma teoria cinética dos gases e deu uma fundamentação estatística das leis da termodinâmica. O principal problema, que Boltzmann conseguiu resolver em grande parte, foi conciliar a natureza reversível no tempo do movimento das moléculas individuais com a óbvia irreversibilidade dos processos macroscópicos. Segundo Boltzmann, o equilíbrio termodinâmico de um sistema corresponde à probabilidade máxima de um determinado estado. A irreversibilidade dos processos está associada à tendência dos sistemas ao estado mais provável. O teorema que ele provou sobre a distribuição uniforme da energia cinética média ao longo dos graus de liberdade foi de grande importância.

A mecânica estatística clássica foi concluída nos trabalhos de J. W. Gibbs (1902), que criou um método para calcular funções de distribuição para qualquer sistema (não apenas gases) em estado de equilíbrio termodinâmico. A mecânica estatística recebeu reconhecimento geral no século XX. após a criação por A. Einstein e M. Smoluchowski (1905–06) com base na teoria cinética molecular da teoria quantitativa do movimento browniano, confirmada nos experimentos de J. B. Perrin.

Na 2ª metade do século XIX. O longo processo de estudo dos fenômenos eletromagnéticos foi concluído por Maxwell. Em sua obra principal, Tratado sobre Eletricidade e Magnetismo (1873), estabeleceu equações para o campo eletromagnético (que levam seu nome), que explicavam todos os fatos conhecidos na época sob um único ponto de vista e permitiam prever novos fenômenos. Maxwell interpretou a indução eletromagnética como o processo de geração de um campo elétrico de vórtice por um campo magnético alternado. Depois disso, ele previu o efeito oposto - a geração de um campo magnético por um campo elétrico alternado (ver Corrente de deslocamento). O resultado mais importante da teoria de Maxwell foi a conclusão de que a velocidade de propagação das interações eletromagnéticas é finita, igual à velocidade da luz. A descoberta experimental de ondas eletromagnéticas por G. R. Hertz (1886-89) confirmou a validade desta conclusão. Resultou da teoria de Maxwell que a luz tem uma natureza eletromagnética. Assim, a óptica tornou-se um dos ramos da eletrodinâmica. No final do século XIX. P. N. Lebedev descobriu e mediu experimentalmente a pressão da luz prevista pela teoria de Maxwell, e A. S. Popov foi o primeiro a usar ondas eletromagnéticas para comunicação sem fio.

No século 19 G. Kirchhoff e R. Bunsen lançaram as bases da análise espectral (1859). O desenvolvimento da mecânica contínua também continuou. Na acústica, foi desenvolvida a teoria das oscilações e ondas elásticas (Helmholtz, J. W. Rayleigh, etc.). Surgiu uma técnica para obtenção de baixas temperaturas. Todos os gases, exceto o hélio, foram obtidos no estado líquido e no início do século XX. H. Kamerlingh-Onnes (1998) liquefez hélio.
No final do século XIX. F. parecia quase completo para os contemporâneos. Parecia que todos os fenômenos físicos poderiam ser reduzidos à mecânica das moléculas (ou átomos) e do éter. O éter era considerado um meio mecânico no qual ocorrem fenômenos eletromagnéticos. Um dos maiores físicos do século XIX. – W. Thomson prestou atenção a apenas dois fatos inexplicáveis: o resultado negativo do experimento de Michelson sobre a detecção do movimento da Terra em relação ao éter e a dependência da capacidade calorífica dos gases com a temperatura, incompreensível do ponto de vista da cinética molecular teoria. No entanto, foram precisamente estes factos que deram a primeira indicação da necessidade de revisão das ideias básicas da filosofia do século XIX. Para explicar esses e muitos outros fatos descobertos posteriormente, foi necessária a criação da teoria da relatividade e da mecânica quântica.
Física relativística e quântica. Física do núcleo atômico e das partículas elementares (final do século XIX – século XX).

O advento de uma nova era na Física foi preparado pela descoberta do elétron por J. Thomson em 1897. Descobriu-se que os átomos não são elementares, mas são sistemas complexos que incluem elétrons. Um papel importante nesta descoberta foi desempenhado pelo estudo de descargas elétricas em gases.

No final do século XIX - início do século XX. H. Lorentz lançou as bases da teoria eletrônica. No início do século XX. Tornou-se claro que a eletrodinâmica requer uma revisão radical dos conceitos de espaço e tempo que fundamentam a mecânica clássica de Newton. Em 1905, Einstein criou a teoria privada (especial) da relatividade - uma nova doutrina do espaço e do tempo. Esta teoria foi historicamente preparada pelas obras de Lorentz e A. Poincaré.

A experiência tem mostrado que o princípio da relatividade formulado por Galileu, segundo o qual os fenómenos mecânicos ocorrem de forma idêntica em todos os referenciais inerciais, também é válido para os fenómenos electromagnéticos. Portanto, as equações de Maxwell não devem mudar de forma (devem ser invariantes) ao passar de um sistema de referência inercial para outro. No entanto, descobriu-se que isso só é verdade se as transformações de coordenadas e de tempo durante tal transição forem diferentes das transformações galileanas que são válidas na mecânica newtoniana. Lorentz encontrou essas transformações (transformações de Lorentz), mas não conseguiu dar-lhes a interpretação correta. Isso foi feito por Einstein em sua teoria da relatividade especial.

A descoberta da teoria parcial da relatividade mostrou as limitações da imagem mecânica do mundo. As tentativas de reduzir os processos eletromagnéticos a processos mecânicos em um meio hipotético - o éter - revelaram-se insustentáveis. Ficou claro que o campo eletromagnético é uma forma especial de matéria cujo comportamento não obedece às leis da mecânica.
Em 1916, Einstein desenvolveu a teoria geral da relatividade - a teoria física do espaço, tempo e gravidade. Esta teoria marcou uma nova etapa no desenvolvimento da teoria da gravidade.

Na virada dos séculos XIX e XX, antes mesmo da criação da teoria da relatividade especial, estava marcado o início da maior revolução no campo da física, associada ao surgimento e desenvolvimento da teoria quântica.

No final do século XIX. Descobriu-se que a distribuição da energia da radiação térmica ao longo do espectro, derivada da lei da física estatística clássica sobre a distribuição uniforme da energia ao longo dos graus de liberdade, contradiz a experiência. Decorreu da teoria de que a matéria deveria emitir ondas eletromagnéticas a qualquer temperatura, perder energia e esfriar até o zero absoluto, ou seja, que o equilíbrio térmico entre matéria e radiação é impossível. No entanto, a experiência cotidiana contradiz esta conclusão. A solução foi encontrada em 1900 por M. Planck, que mostrou que os resultados da teoria são consistentes com a experiência, se assumirmos, em contradição com a eletrodinâmica clássica, que os átomos emitem energia eletromagnética não continuamente, mas em porções separadas - quanta. A energia de cada um desses quantum é diretamente proporcional à frequência, e o coeficiente de proporcionalidade é o quantum de ação h = 6,6×10-27 erg?sec, que mais tarde foi chamado de constante de Planck.

Em 1905, Einstein ampliou a hipótese de Planck, sugerindo que a porção emitida da energia eletromagnética também se espalha e é absorvida apenas como um todo, ou seja, comporta-se como uma partícula (mais tarde chamada de fóton). Com base nesta hipótese, Einstein explicou as leis do efeito fotoelétrico que não se enquadram no quadro da eletrodinâmica clássica.

Assim, a teoria corpuscular da luz foi revivida num novo nível qualitativo. A luz se comporta como um fluxo de partículas (corpúsculos); porém, ao mesmo tempo, também possui propriedades ondulatórias, que se manifestam, em particular, na difração e na interferência da luz. Consequentemente, as propriedades ondulatórias e corpusculares, incompatíveis do ponto de vista da Física clássica, são inerentes à luz em igual medida (dualismo da luz). A “quantização” da radiação levou à conclusão de que a energia dos movimentos intra-atômicos também só pode mudar abruptamente. Esta conclusão foi feita por N. Bohr em 1913.

Nessa época, E. Rutherford (1911), com base em experimentos sobre o espalhamento de partículas alfa pela matéria, descobriu o núcleo atômico e construiu um modelo planetário do átomo. Num átomo de Rutherford, os eletrões movem-se em torno do núcleo da mesma forma que os planetas se movem em torno do Sol. Porém, de acordo com a eletrodinâmica de Maxwell, tal átomo é instável: os elétrons, movendo-se em órbitas circulares (ou elípticas), experimentam aceleração e, portanto, devem emitir continuamente ondas eletromagnéticas, perder energia e, aproximando-se gradativamente do núcleo, no final (como cálculos mostrou, por um tempo de cerca de 10-8 segundos) caia sobre ele. Assim, a estabilidade dos átomos e seus espectros lineares revelaram-se inexplicáveis ​​​​no quadro das leis do clássico F. Bohr encontrou uma saída para esta dificuldade. Ele postulou que os átomos têm estados estacionários especiais nos quais os elétrons não emitem. A radiação ocorre durante a transição de um estado estacionário para outro. A discrição da energia atômica foi confirmada pelos experimentos de J. Frank e G. Hertz (1913–14) no estudo de colisões de elétrons acelerados por um campo elétrico com átomos. Para o átomo mais simples, o átomo de hidrogénio, Bohr construiu uma teoria quantitativa do espectro de emissão, consistente com a experiência.

Durante o mesmo período (final do século 19 – início do século 20), a física do estado sólido começou a se formar em seu entendimento moderno como a física de sistemas condensados ​​de um grande número de partículas (~ 1022 cm-3). Até 1925, seu desenvolvimento ocorreu em duas direções: a física da rede cristalina e a física dos elétrons nos cristais, principalmente nos metais. Posteriormente, essas direções convergiram com base na teoria quântica.

A ideia de um cristal como um conjunto de átomos, ordenados no espaço e mantidos em posição de equilíbrio por forças de interação, percorreu um longo caminho de desenvolvimento e foi finalmente formado no início do século XX. O desenvolvimento deste modelo começou com o trabalho de Newton (1686) no cálculo da velocidade do som em uma cadeia de partículas elasticamente ligadas e foi continuado por outros cientistas: D. e I. Bernoulli (1727), Cauchy (1830), W Thomson (1881), etc.

No final do século XIX. E. S. Fedorov lançou as bases da cristalografia teórica com seu trabalho sobre a estrutura e simetria dos cristais; em 1890-91, ele provou a possibilidade da existência de 230 grupos de cristais de simetria espacial - tipos de arranjo ordenado de partículas em uma rede cristalina (os chamados grupos de Fedorov). Em 1912, M. Laue e seus colegas descobriram a difração de raios X por cristais, estabelecendo finalmente a ideia de um cristal como uma estrutura atômica ordenada. Com base nesta descoberta, foi desenvolvido um método para determinar experimentalmente o arranjo dos átomos em cristais e medir distâncias interatômicas, o que marcou o início da análise estrutural de raios X [U. L. Bragg n WG Bragg (1913), GW Wolf (1913)]. Durante esses mesmos anos (1907-1914), foi desenvolvida a teoria dinâmica das redes cristalinas, que já levava em consideração conceitos quânticos. Em 1907, Einstein, usando o modelo de cristal como um conjunto de osciladores harmônicos quânticos de mesma frequência, explicou a diminuição observada na capacidade calorífica dos sólidos com a diminuição da temperatura - fato que está em forte contradição com a lei de Dulong e Pequeno. Uma teoria dinâmica mais avançada de uma rede cristalina como um conjunto de osciladores quânticos acoplados de diferentes frequências foi construída por P. Debye (1912), M. Born e T. Karman (1913), E. Schrödinger (1914) em uma forma próxima ao moderno. Sua nova etapa importante começou após a criação da mecânica quântica.

A segunda direção (física dos sistemas eletrônicos em um cristal) começou a se desenvolver imediatamente após a descoberta do elétron como a teoria eletrônica dos metais e outros sólidos. Nesta teoria, os elétrons no metal eram considerados como elementos de preenchimento. estrutura de cristal um gás de elétrons livres, semelhante a um gás molecular rarefeito comum, obedecendo ao clássico. Estatísticas de Boltzmann. A teoria eletrônica permitiu explicar as leis de Ohm e Wiedemann-Franz (P. Drude), lançou as bases para a teoria da dispersão da luz nos cristais, etc. Assim, a dependência da resistividade dos metais com a temperatura não foi explicada, não ficou claro por que o gás de elétrons não contribui de forma perceptível para a capacidade térmica dos metais, etc. A saída para as dificuldades criadas só foi encontrada após a construção da mecânica quântica.

A primeira versão da teoria quântica criada por Bohr era internamente contraditória: usando as leis da mecânica newtoniana para o movimento dos elétrons, Bohr ao mesmo tempo impôs artificialmente restrições quânticas aos possíveis movimentos dos elétrons que eram estranhos à teoria clássica.
A discrição de ação estabelecida de forma confiável e sua medida quantitativa - a constante h de Planck - uma constante mundial universal, desempenhando o papel da escala natural dos fenômenos naturais, exigiu uma reestruturação radical tanto das leis da mecânica quanto das leis da eletrodinâmica. As leis clássicas são válidas apenas quando se considera o movimento de objetos de massa suficientemente grande, quando as dimensões da ação são grandes em comparação com he a discrição da ação pode ser desprezada.

Na década de 20 século 20 foi criada a mais profunda e abrangente das teorias físicas modernas - a mecânica quântica, ou ondulatória - uma teoria não relativística consistente e logicamente completa do movimento das micropartículas, que também tornou possível explicar muitas propriedades dos corpos macroscópicos e dos fenômenos que ocorrem em eles. A mecânica quântica é baseada na ideia de quantização de Planck – Einstein – Bohr e na hipótese apresentada por L. de Broglie (1924) de que a natureza da onda corpuscular dupla é característica não apenas da radiação eletromagnética (fótons), mas também de qualquer outro tipo de matéria. Todas as micropartículas (elétrons, prótons, átomos, etc.) possuem, junto com propriedades corpusculares e ondulatórias: cada uma delas pode ser associada a uma onda (cujo comprimento é igual à razão entre a constante de Planck h e o momento da partícula , e a frequência com a razão entre a energia da partícula e h ). As ondas de De Broglie descrevem partículas livres. Em 1927, foi observada pela primeira vez a difração de elétrons, o que confirmou experimentalmente a presença de suas propriedades ondulatórias. Mais tarde, a difração foi observada em outras micropartículas, incluindo moléculas (ver Difração de partículas).

Em 1926, Schrödinger, tentando obter valores discretos de energia atômica a partir de uma equação do tipo onda, formulou a equação fundamental da mecânica quântica, que leva seu nome. W. Heisenberg e Born (1925) construíram a mecânica quântica em outra forma matemática - a chamada. mecânica matricial.

Em 1925, J. Yu. Uhlenbeck e S. A. Goudsmit, com base em dados experimentais (espectroscópicos), descobriram a existência do próprio momento angular de um elétron - spin (e, portanto, o momento magnético intrínseco associado) igual a 1/2. . (O valor do spin é geralmente expresso em unidades = h/2?, que, como h, é chamada de constante de Planck; nessas unidades, o spin do elétron é igual a 1/2.) W. Pauli escreveu a equação do movimento de um elétron não relativístico em um campo eletromagnético externo, levando em consideração a interação do momento magnético de spin de um elétron com um campo magnético. Em 1925 ele também formulou o chamado. princípio de exclusão, segundo o qual não pode haver mais de um elétron em um estado quântico (princípio de Pauli). Este princípio desempenhou um papel crucial na construção da teoria quântica de sistemas de muitas partículas, em particular, explicou os padrões de preenchimento de camadas e camadas com elétrons em átomos multieletrônicos, etc. deu uma base teórica para o sistema periódico de elementos de Mendeleev.

Em 1928, PAM Dirac obteve uma equação relativística quântica do movimento do elétron (ver equação de Dirac), da qual se seguiu naturalmente que o elétron tinha um spin. Com base nesta equação, Dirac em 1931 previu a existência do pósitron (a primeira antipartícula), descoberto em 1932 por K. D. Anderson nos raios cósmicos. [Antipartículas de outros unidades estruturais substâncias (próton e nêutron) - antipróton e antinêutron foram descobertas experimentalmente em 1955 e 1956, respectivamente.]

Paralelamente ao desenvolvimento da mecânica quântica, ocorreu o desenvolvimento da estatística quântica - a teoria quântica do comportamento de sistemas físicos (em particular, corpos macroscópicos) constituídos por um grande número de micropartículas. Em 1924, S. Bose, aplicando os princípios da estatística quântica aos fótons - partículas com spin 1, derivou a fórmula de Planck para a distribuição de energia no espectro de radiação de equilíbrio, e Einstein obteve a fórmula para a distribuição de energia para um gás ideal de moléculas (estatísticas de Bose - Einstein). Em 1926, P. A. M. Dirac e E. Fermi mostraram que o conjunto de elétrons (e outras partículas idênticas com spin 1/2), para o qual o princípio de Pauli é válido, obedece a outras estatísticas - estatísticas de Fermi - Dirac. Em 1940, Pauli estabeleceu a conexão entre spin e estatística.

A estatística quântica desempenhou um papel importante no desenvolvimento da física da matéria condensada e, em primeiro lugar, na construção da física do estado sólido. Na linguagem quântica, as vibrações térmicas dos átomos do cristal podem ser consideradas como um conjunto de uma espécie de “partículas”, mais precisamente quasipartículas - fônons (introduzidos por I. E. Tamm em 1929). Esta abordagem explicou, em particular, a diminuição da capacidade calorífica dos metais (de acordo com a lei T3) com a diminuição da temperatura T na região de baixa temperatura, e também mostrou que a razão da resistência elétrica dos metais é o espalhamento de elétrons não por íons, mas principalmente por fônons. Mais tarde, outras quasipartículas foram introduzidas. O método das quasipartículas provou ser muito eficaz para estudar as propriedades de sistemas macroscópicos complexos em estado condensado.

Em 1928, A. Sommerfeld usou a função de distribuição Fermi-Dirac para descrever processos de transporte em metais. Isto resolveu uma série de dificuldades da teoria clássica e criou a base para o desenvolvimento da teoria quântica dos fenômenos cinéticos (condutividade elétrica e térmica, efeitos termoelétricos, galvanomagnéticos e outros) em sólidos, especialmente em metais e semicondutores.
De acordo com o princípio de Pauli, a energia de todo o conjunto de elétrons livres em um metal, mesmo no zero absoluto, é diferente de zero. Em um estado não excitado, todos os níveis de energia, começando em zero e terminando em algum nível máximo (nível de Fermi), são ocupados por elétrons. Esta imagem permitiu a Sommerfeld explicar a pequena contribuição dos elétrons para a capacidade térmica dos metais: quando aquecidos, apenas os elétrons próximos ao nível de Fermi são excitados.

O trabalho de F. Bloch, HA Bethe e L. Brillouin (1928–34) desenvolveu uma teoria da estrutura de energia de banda dos cristais, que forneceu uma explicação natural para as diferenças nas propriedades elétricas de dielétricos e metais. A abordagem descrita, chamada aproximação de um elétron, foi desenvolvida e amplamente utilizada, especialmente na física de semicondutores.

Em 1928, Ya. I. Frenkel e Heisenberg mostraram que o ferromagnetismo é baseado na interação de troca quântica (que foi examinada por Heisenberg em 1926 usando o exemplo do átomo de hélio); em 1932–33 L. Neel e independentemente L. D. Landau previram o antiferromagnetismo.
As descobertas da supercondutividade por Kamerlingh Onnes (1911) e da superfluidez do hélio líquido por PL Kapitsa (1938) estimularam o desenvolvimento de novos métodos em estatística quântica. Fenomenologia. a teoria da superfluidez foi construída por Landau (1941); um passo adicional foi a fenomenologia, a teoria da supercondutividade de Landau e V.L. Ginzburg (1950).

Nos anos 50 novos métodos poderosos de cálculo foram desenvolvidos na teoria quântica estatística de sistemas de muitas partículas, uma das conquistas mais marcantes foi a criação da teoria microscópica da supercondutividade por J. Bardeen, L. Cooper, J. Schrieffer (EUA) e N. N. Bogolyubov (URSS).

As tentativas de construir uma teoria quântica consistente da emissão de luz pelos átomos levaram a uma nova etapa no desenvolvimento da teoria quântica - a criação da eletrodinâmica quântica (Dirac, 1929).

No 2º quartel do século XX. Ocorreu mais uma transformação revolucionária da física, associada ao conhecimento da estrutura do núcleo atômico e dos processos que nele ocorrem e à criação da física das partículas elementares. A descoberta do núcleo atômico acima mencionada por Rutherford foi preparada pela descoberta da radioatividade e das transformações radioativas de átomos pesados ​​​​no final do século XIX. (A. Becquerel, P. e M. Curie). No início do século XX. isótopos foram descobertos. As primeiras tentativas de estudar diretamente a estrutura do núcleo atômico datam de 1919, quando Rutherford, ao bombardear núcleos de nitrogênio estáveis ​​​​com partículas ?, conseguiu sua transformação artificial em núcleos de oxigênio. A descoberta do nêutron em 1932 por J. Chadwick levou à criação do moderno modelo próton-nêutron do núcleo (D. D. Ivanenko, Heisenberg). Em 1934, os cônjuges I. e F. Joliot-Curie descobriram a radioatividade artificial.

A criação de aceleradores de partículas carregadas possibilitou o estudo de diversas reações nucleares. O resultado mais importante desta etapa da Física foi a descoberta da fissão do núcleo atômico.

Em 1939-45, a energia nuclear foi liberada pela primeira vez usando a reação em cadeia de fissão 235U e a bomba atômica foi criada. O crédito pela utilização da reação de fissão nuclear controlada do 235U para fins industriais pacíficos pertence à URSS. Em 1954, foi construída a primeira usina nuclear na URSS (Obninsk). Mais tarde, foram estabelecidas centrais nucleares económicas em muitos países.

Em 1952, foi realizada uma reação de fusão termonuclear (um dispositivo nuclear explodiu) e em 1953 foi criada uma bomba de hidrogênio.
Simultaneamente com a física do núcleo atômico no século XX. A física das partículas elementares começou a se desenvolver rapidamente. Primeiro grande sucesso nesta área estão associados ao estudo dos raios cósmicos. Múons, mésons pi, mésons K e os primeiros hiperons foram descobertos. Após a criação dos aceleradores de partículas carregadas de alta energia, iniciou-se um estudo sistemático das partículas elementares, suas propriedades e interações; A existência de dois tipos de neutrinos foi comprovada experimentalmente e muitas novas partículas elementares foram descobertas, incluindo partículas extremamente instáveis ​​- ressonâncias, cuja vida média é de apenas 10-22-10-24 segundos. A interconversibilidade universal descoberta de partículas elementares indicou que essas partículas não são elementares no sentido absoluto da palavra, mas possuem uma estrutura interna complexa que ainda não foi descoberta. A teoria das partículas elementares e suas interações (fortes, eletromagnéticas e fracas) é o tema da teoria quântica de campos - uma teoria que ainda está longe de ser completa.

III. Teorias fundamentais da física

Mecânica Newtoniana Clássica

A introdução do conceito de estado por Newton foi de fundamental importância para toda a filosofia. Inicialmente foi formulado para o sistema mecânico mais simples - um sistema de pontos materiais. As leis de Newton são diretamente válidas para pontos materiais. Em todas as teorias físicas subsequentes, o conceito de estado foi um dos principais. O estado de um sistema mecânico é completamente determinado pelas coordenadas e momentos de todos os corpos que formam o sistema. Se as forças de interação dos corpos que determinam suas acelerações são conhecidas, então a partir dos valores das coordenadas e dos impulsos no momento inicial do tempo, as equações de movimento da mecânica de Newton (segunda lei de Newton) permitem estabelecer de forma inequívoca o valores de coordenadas e impulsos em qualquer momento subsequente. Coordenadas e impulsos são as quantidades básicas da mecânica clássica; conhecendo-os, pode-se calcular o valor de qualquer outra quantidade mecânica: energia, momento angular, etc. Embora mais tarde tenha ficado claro que a mecânica newtoniana tem uma área de aplicação limitada, ela foi e continua sendo a base sem a qual a construção do todo o edifício da fisiologia moderna teria sido impossível.

Mecânica contínua

Gases, líquidos e sólidos na mecânica do contínuo são considerados meios homogêneos contínuos. Em vez de coordenadas e momentos de partículas, o estado do sistema é caracterizado exclusivamente pelas seguintes funções de coordenadas (x, y, z) e tempo (t): densidade p (x, y, z, t), pressão P ( x, y, z, t) e velocidade hidrodinâmica v (x, y, z, t) com a qual a massa é transferida. As equações da mecânica do contínuo permitem estabelecer os valores destas funções em qualquer momento subsequente, desde que sejam conhecidos os seus valores no momento inicial e as condições de contorno.

A equação de Euler que relaciona a velocidade do fluxo do fluido com a pressão, juntamente com a equação da continuidade que expressa a conservação da matéria, permite resolver qualquer problema na dinâmica de um fluido ideal. Na hidrodinâmica de um fluido viscoso, leva-se em consideração a ação das forças de atrito e a influência da condutividade térmica, que levam à dissipação da energia mecânica, e a mecânica contínua deixa de ser “mecânica pura”: os processos térmicos tornam-se significativos. Somente após a criação da termodinâmica foi formulado um sistema completo de equações que descreve processos mecânicos em corpos reais gasosos, líquidos e sólidos. O movimento de líquidos e gases eletricamente condutores é estudado em magnetohidrodinâmica. As oscilações de um meio elástico e a propagação de ondas nele são estudadas em acústica.

Termodinâmica

Todo o conteúdo da termodinâmica é principalmente consequência de dois princípios: o primeiro princípio - a lei da conservação da energia, e o segundo princípio, do qual decorre a irreversibilidade dos processos macroscópicos. Estes princípios permitem-nos introduzir funções de estado inequívocas: energia interna e entropia. Em sistemas fechados, a energia interna permanece inalterada e a entropia é preservada apenas durante processos de equilíbrio (reversíveis). Durante processos irreversíveis, a entropia aumenta e seu crescimento reflete mais plenamente a direção específica dos processos macroscópicos na natureza. Na termodinâmica, as principais grandezas que determinam o estado de um sistema - parâmetros termodinâmicos - são, no caso mais simples, pressão, volume e temperatura. A conexão entre eles é dada pela equação de estado térmica (e a dependência da energia do volume e da temperatura é dada pela equação de estado calórica). A equação de estado térmica mais simples é a equação de estado de um gás ideal (equação de Clapeyron).

Na termodinâmica clássica, são estudados estados de equilíbrio térmico e processos de equilíbrio (infinitamente lentos). O tempo não faz parte das equações básicas. Posteriormente (a partir da década de 30 do século XX) foi criada a termodinâmica dos processos de desequilíbrio. Nesta teoria, o estado é determinado através da densidade, pressão, temperatura, entropia e outras grandezas (parâmetros termodinâmicos locais), consideradas como funções de coordenadas e do tempo. Para eles, são escritas as equações de transferência de massa, energia e momento, descrevendo a evolução do estado do sistema ao longo do tempo (equações de difusão e condutividade térmica, equações de Navier-Stokes). Essas equações expressam leis de conservação locais (ou seja, válidas para um determinado elemento de volume infinitesimal) do físico indicado. quantidades

Física estatística (mecânica estatística)

Na mecânica estatística clássica, em vez de especificar as coordenadas ri e momentos pi das partículas do sistema, a função de distribuição das partículas sobre coordenadas e momentos, f (ri, pi,..., rN, pN, t), é especificada , que tem o significado da densidade de probabilidade de detectar os valores observados de coordenadas e momentos em certos pequenos intervalos em um determinado momento t (N é o número de partículas no sistema). A função de distribuição f satisfaz a equação de movimento (equação de Liouville), que tem a forma de uma equação de continuidade no espaço de todos r e pi (ou seja, no espaço de fase).

A equação de Liouville determina f exclusivamente em qualquer momento subsequente com base em seu valor dado no momento inicial, se a energia de interação entre as partículas do sistema for conhecida. A função de distribuição permite calcular os valores médios das densidades da matéria, energia, momento e seus fluxos, bem como seus desvios dos valores médios - flutuações. A equação que descreve a evolução da função de distribuição de um gás foi obtida pela primeira vez por Boltzmann (1872) e foi chamada de equação cinética de Boltzmann.

Gibbs obteve uma expressão para a função de distribuição de um sistema arbitrário em equilíbrio com um termostato (distribuição canônica de Gibbs). Esta função de distribuição permite expressão famosa a energia em função das coordenadas e momentos das partículas (função de Hamilton) calcula todos os potenciais termodinâmicos, que é objeto da termodinâmica estatística.

Os processos que surgem em sistemas removidos de um estado de equilíbrio termodinâmico são irreversíveis e são estudados na teoria estatística dos processos de desequilíbrio (esta teoria, juntamente com a termodinâmica dos processos de desequilíbrio, forma a cinética física). Em princípio, se a função de distribuição for conhecida, é possível determinar quaisquer quantidades macroscópicas que caracterizem um sistema em estado de não-equilíbrio e monitorar suas mudanças no espaço ao longo do tempo.

Para calcular as grandezas físicas que caracterizam o sistema (densidades médias do número de partículas, energia e momento), não é necessário o conhecimento da função de distribuição completa. Funções de distribuição mais simples são suficientes: partícula única, fornecendo o número médio de partículas com determinados valores de coordenadas e momentos, e duas partículas, determinando a influência mútua (correlação) de duas partículas. O método geral de obtenção de equações para tais funções foi desenvolvido (na década de 40 do século XX) por Bogolyubov, Born, G. Green (físico inglês) e outros. Equações para uma função de distribuição de partícula única, cuja construção é possível. para gases de baixa densidade, são chamados de cinéticos. Isso inclui a equação cinética de Boltzmann. Variedades da equação de Boltzmann para gás ionizado (plasma) - equações cinéticas de Landau e A. A. Vlasov (anos 30-40 do século XX).

Nas últimas décadas, a pesquisa sobre plasma tornou-se cada vez mais importante. Nesse ambiente, o papel principal é desempenhado pelas interações eletromagnéticas de partículas carregadas, e somente a teoria estatística, via de regra, é capaz de responder diversas questões relacionadas ao comportamento do plasma. Em particular, permite estudar a estabilidade do plasma de alta temperatura em um campo eletromagnético externo. Este problema é extremamente relevante em conexão com o problema da fusão termonuclear controlada.

Eletrodinâmica

O estado do campo eletromagnético na teoria de Maxwell é caracterizado por dois vetores principais: intensidade do campo elétrico E e indução magnética B, que são funções de coordenadas e do tempo. As propriedades eletromagnéticas de uma substância são especificadas por três grandezas: constante dielétrica?, permeabilidade magnética (e condutividade elétrica específica?), que devem ser determinadas experimentalmente para os vetores E e B e vetores auxiliares associados de indução elétrica D e intensidade do campo magnético H. , um sistema de equações diferenciais lineares é escrito com derivadas parciais - equações de Maxwell. Essas equações descrevem a evolução do campo eletromagnético a partir dos valores das características do campo no momento inicial dentro de um determinado volume e das condições de contorno. na superfície deste volume, E e B podem ser encontrados em qualquer momento subsequente. Esses vetores determinam a força que atua sobre uma partícula carregada movendo-se a uma certa velocidade em um campo eletromagnético (força de Lorentz).
O fundador da teoria eletrônica, Lorentz, formulou equações que descrevem processos eletromagnéticos elementares. Essas equações, chamadas equações de Lorentz-Maxwell, relacionam o movimento de partículas carregadas individuais ao campo eletromagnético que elas criam.

Com base em ideias sobre a discrição das cargas elétricas e nas equações para processos eletromagnéticos elementares, é possível estender os métodos da mecânica estatística aos processos eletromagnéticos da matéria. A teoria eletrônica permitiu revelar o significado físico das características eletromagnéticas da matéria?, ?, ? e possibilitou calcular os valores dessas grandezas em função da frequência, temperatura, pressão, etc.

Teoria particular (especial) da relatividade. Mecânica relativística

A teoria da relatividade parcial - uma teoria física sobre o espaço e o tempo na ausência de campos gravitacionais - baseia-se em dois postulados: o princípio da relatividade e a independência da velocidade da luz em relação ao movimento da fonte. De acordo com o princípio da relatividade de Einstein, quaisquer fenômenos físicos - mecânicos, ópticos, térmicos, etc. – em todos os sistemas de referência inerciais, nas mesmas condições, eles procedem da mesma maneira. Isso significa que o movimento uniforme e linear do sistema não afeta o curso dos processos nele. Todos os sistemas de referência inerciais são iguais (não existe um sistema de referência único, “absolutamente em repouso”, assim como não existe espaço e tempo absolutos). Portanto, a velocidade da luz no vácuo é a mesma em todos os referenciais inerciais. Destes dois postulados seguem-se as transformações de coordenadas e de tempo ao passar de um sistema inercial para outro - a transformação de Lorentz. A partir das transformações de Lorentz obtêm-se os principais efeitos da teoria da relatividade parcial: a existência de uma velocidade limite que coincide com a velocidade da luz no vácuo c (qualquer corpo não pode se mover a uma velocidade superior a c, e c é o máximo velocidade de transmissão de quaisquer interações); relatividade da simultaneidade (eventos que são simultâneos em um referencial inercial não são, em geral, simultâneos em outro); desacelerando o fluxo do tempo e reduzindo as dimensões longitudinais - na direção do movimento - do corpo (todos os processos físicos em um corpo movendo-se com velocidade v em relação a algum referencial inercial ocorrem várias vezes mais devagar do que os mesmos processos em um determinado quadro inercial e diminuir na mesma quantidade dimensões longitudinais do corpo). Da igualdade de todos os sistemas de referência inerciais segue-se que os efeitos da dilatação do tempo e da redução do tamanho dos corpos não são absolutos, mas relativos, dependendo do sistema de referência.

As leis da mecânica de Newton deixam de ser válidas em altas velocidades de movimento (comparáveis ​​à velocidade da luz). Imediatamente após a criação da teoria da relatividade, foram encontradas equações de movimento relativísticas que generalizaram as equações de movimento da mecânica newtoniana. Estas equações são adequadas para descrever o movimento de partículas com velocidades próximas à velocidade da luz. Exclusivamente importante Para a física, foram obtidas duas consequências da mecânica relativística: a dependência da massa das partículas com a velocidade e a conexão universal entre energia e massa (ver teoria da relatividade).

Em altas velocidades de movimento, qualquer teoria física deve satisfazer os requisitos da teoria da relatividade, ou seja, ser relativisticamente invariante. As leis da teoria da relatividade determinam as transformações durante a transição de um sistema de referência inercial para outro, não apenas de coordenadas e de tempo, mas também de qualquer quantidade física. Esta teoria segue os princípios da invariância, ou simetria na física (ver Simetria na física).

Teoria geral da relatividade (teoria da gravidade)

Dos quatro tipos de interações fundamentais - gravitacional, eletromagnética, forte e fraca - as interações gravitacionais, ou forças gravitacionais, foram as primeiras a serem descobertas. Por mais de duzentos anos, nenhuma mudança foi feita na teoria básica da gravidade formulada por Newton. Quase todas as consequências da teoria estavam em total concordância com a experiência.

Na 2ª década do século XX. A teoria clássica da gravidade foi revolucionada por Einstein. A teoria da gravidade de Einstein, ao contrário de todas as outras teorias, foi criada sem o papel estimulante de novos experimentos, através do desenvolvimento lógico do princípio da relatividade em relação às interações gravitacionais, e foi chamada de teoria geral da relatividade. Einstein reinterpretou o fato da igualdade das massas gravitacional e inercial, estabelecida por Galileu (ver Massa). Esta igualdade significa que a gravidade curva as trajetórias de todos os corpos da mesma maneira. Portanto, a gravidade pode ser considerada como uma curvatura do próprio espaço-tempo. A teoria de Einstein revelou uma profunda ligação entre a geometria do espaço-tempo e a distribuição e movimento das massas. Componentes do chamado Os tensores métricos, que caracterizam a métrica do espaço-tempo, são simultaneamente potenciais do campo gravitacional, ou seja, determinam o estado do campo gravitacional. O campo gravitacional é descrito pelas equações não lineares de Einstein. Na aproximação de campo fraco, implicam a existência de ondas gravitacionais, que ainda não foram detectadas experimentalmente (ver Radiação gravitacional).

As forças gravitacionais são as mais fracas das forças fundamentais da natureza. Para os prótons, eles são aproximadamente 1.036 vezes mais fracos que os eletromagnéticos. Na teoria moderna das partículas elementares, as forças gravitacionais não são levadas em consideração, porque eles acreditam que não desempenham um papel significativo. O papel das forças gravitacionais torna-se decisivo nas interações de corpos de tamanho cósmico; eles também determinam a estrutura e a evolução do Universo.

A teoria da gravidade de Einstein levou a novas ideias sobre a evolução do Universo. Em meados dos anos 20. A. A. Friedman encontrou uma solução não estacionária para as equações do campo gravitacional correspondentes ao Universo em expansão. Esta conclusão foi confirmada pelas observações de E. Hubble, que descobriu a lei do desvio para o vermelho das galáxias (o que significa que as distâncias entre quaisquer galáxias aumentam com o tempo). Dr. Um exemplo da previsão da teoria é a possibilidade de compressão ilimitada de estrelas de massa suficientemente grande (mais de 2–3 massas solares) com a formação das chamadas. “buracos negros”. Existem certas indicações (observações de estrelas duplas - fontes discretas de raios X) da existência de tais objetos.

A teoria geral da relatividade, assim como a mecânica quântica, são as grandes teorias do século XX. Todas as teorias anteriores, incluindo a teoria da relatividade especial, são geralmente classificadas como física clássica (às vezes a física clássica é chamada de física não quântica).

Mecânica Quântica

O estado de um microobjeto na mecânica quântica é caracterizado por uma função de onda?. A função de onda tem significado estatístico (Born, 1926): representa a amplitude de probabilidade, ou seja, o quadrado de seu módulo, ???2, é a densidade de probabilidade de encontrar uma partícula em um determinado estado. Na representação de coordenadas? = ?(x, y, z, t) e o valor ???2?x?y?z determina a probabilidade de que as coordenadas da partícula no tempo t estejam dentro de um pequeno volume?x?y?z próximo ao ponto com coordenadas x, y, z. A evolução do estado de um sistema quântico é determinada exclusivamente pela equação de Schrödinger.
A função de onda fornece uma descrição completa do estado. Sabendo?, pode-se calcular a probabilidade de um determinado valor de qualquer grandeza física relacionada a uma partícula (ou sistema de partículas) e os valores médios de todas essas grandezas físicas. As distribuições estatísticas de coordenadas e momento não são independentes, daí se segue que a coordenada e o momento de uma partícula não podem ter valores exatos simultaneamente (princípio da incerteza de Heisenberg); suas dispersões estão relacionadas pela relação de incerteza. A relação de incerteza também vale para energia e tempo.

Na mecânica quântica, o momento angular, sua projeção, bem como a energia ao se mover em uma região limitada do espaço, podem assumir apenas uma série de valores discretos. Os valores possíveis das grandezas físicas são os autovalores dos operadores, que na mecânica quântica estão associados a cada grandeza física. Uma quantidade física assume um determinado valor com probabilidade igual a um somente se o sistema estiver em um estado representado pela função própria do operador correspondente.
A mecânica quântica de Schrödinger-Heisenberg não satisfaz os requisitos da teoria da relatividade, ou seja, é não relativística. É aplicável para descrever o movimento das partículas elementares e dos sistemas que as compõem a velocidades muito inferiores à velocidade da luz.
Com a ajuda da mecânica quântica, a teoria dos átomos foi construída, a ligação química foi explicada, incluindo a natureza da ligação química covalente; ao mesmo tempo, foi descoberta a existência de uma interação de troca específica - um efeito puramente quântico que não tem análogo na física clássica. A energia de troca desempenha um papel importante na formação de ligações covalentes tanto em moléculas quanto em cristais, bem como em. os fenômenos do ferromagnetismo e do antiferromagnetismo. Essa energia é importante nas interações intranucleares.
Processos nucleares como o decaimento β só poderiam ser explicados usando o efeito quântico das partículas que passam através de uma barreira potencial (ver efeito túnel).

Uma teoria quântica de espalhamento foi construída (ver Dispersão de micropartículas), levando a resultados significativamente diferentes da teoria clássica de espalhamento. Em particular, descobriu-se que nas colisões de nêutrons lentos com núcleos, a seção transversal de interação é centenas de vezes maior que as dimensões transversais das partículas em colisão. Isto é de extrema importância para a energia nuclear.

Com base na mecânica quântica, foi construída uma teoria de bandas de sólidos.

Da teoria quântica da emissão estimulada, criada por Einstein em 1917, na década de 50. Surgiu um novo ramo da radiofísica: foi realizada a geração e amplificação de ondas eletromagnéticas por meio de sistemas quânticos. N. G. Basov, A. M. Prokhorov e independentemente C. Townes criaram um gerador quântico de microondas (maser), que usava emissão estimulada de moléculas excitadas. Nos anos 60 um laser foi criado - um gerador quântico de ondas eletromagnéticas na faixa de comprimento de onda visível (ver Eletrônica quântica).

Estatísticas quânticas

Assim como, com base nas leis clássicas do movimento das partículas individuais, foi construída uma teoria do comportamento de uma grande coleção delas - estatística clássica, a estatística quântica foi construída com base nas leis quânticas do movimento das partículas. Este último descreve o comportamento de objetos macroscópicos no caso em que a mecânica clássica não é aplicável para descrever o movimento das partículas que os compõem. Ao mesmo tempo, as propriedades quânticas dos microobjetos se manifestam claramente nas propriedades dos corpos macroscópicos.

O aparato matemático da estatística quântica difere significativamente do aparato da estatística clássica, uma vez que, como mencionado acima, algumas quantidades físicas na mecânica quântica podem assumir valores discretos. Mas o próprio conteúdo da teoria estatística dos estados de equilíbrio não sofreu mudanças profundas. Na estatística quântica, como em geral na teoria quântica de sistemas de muitas partículas, o princípio da identidade de partículas idênticas desempenha um papel importante (ver Princípio da identidade). Na estatística clássica, aceita-se que o rearranjo de duas partículas idênticas (idênticas) altera o estado. Na estatística quântica, o estado do sistema não muda com tal rearranjo. Se as partículas (ou quasipartículas) têm spin inteiro (são chamadas de bósons), então qualquer número de partículas pode estar no mesmo estado quântico. Sistemas de tais partículas são descritos pelas estatísticas de Bose-Einstein. Para quaisquer partículas (quasipartículas) com spin meio inteiro (férmions), o princípio de Pauli é válido, e os sistemas dessas partículas são descritos pelas estatísticas de Fermi-Dirac.

A estatística quântica permitiu fundamentar o teorema de Nernst (a terceira lei da termodinâmica) - a tendência da entropia a zero na temperatura absoluta T? 0.

A teoria estatística quântica dos processos de equilíbrio é construída da mesma forma completa que a clássica. As bases da teoria estatística quântica dos processos de não-equilíbrio também foram lançadas. A equação que descreve processos de desequilíbrio em um sistema quântico e é chamada de equação cinética básica permite, em princípio, rastrear a mudança no tempo da distribuição de probabilidade sobre os estados quânticos do sistema.

Teoria quântica de campos (QFT)

O próximo estágio no desenvolvimento da teoria quântica é a extensão dos princípios quânticos aos sistemas. um número infinito de graus de liberdade (campos físicos) e uma descrição dos processos de nascimento e transformação das partículas - levaram ao QFT, que reflete mais plenamente a propriedade fundamental da natureza - a dualidade onda-partícula.

No QFT, as partículas são descritas por meio de campos quantizados, que são um conjunto de operadores para a criação e absorção de partículas em vários estados quânticos. A interação de campos quantizados leva a diversos processos de emissão, absorção e transformação de partículas. Qualquer processo em QFT é considerado como a destruição de algumas partículas em certos estados e o aparecimento de outras em novos estados.

Inicialmente, o QFT foi construído em relação à interação de elétrons, pósitrons e fótons (eletrodinâmica quântica). A interação entre partículas carregadas, segundo a eletrodinâmica quântica, é realizada por meio da troca de fótons, e a carga elétrica da partícula é uma constante que caracteriza a ligação entre o campo das partículas carregadas e o campo eletromagnético (campo dos fótons).

As ideias subjacentes à eletrodinâmica quântica foram usadas em 1934 por E. Fermi para descrever os processos de decaimento beta de núcleos atômicos radioativos usando um novo tipo de interação (que, como se viu mais tarde, é um caso especial das chamadas interações fracas ). Nos processos de decaimento beta do elétron, um dos nêutrons do núcleo se transforma em um próton e ao mesmo tempo são emitidos um elétron e um antineutrino do elétron. De acordo com o QFT, tal processo pode ser representado como o resultado da interação de contato (interação em um ponto) de campos quantizados correspondentes a quatro partículas com spin 1/2: próton, nêutron, elétron e antineutrino (ou seja, interação de quatro férmions).

Outra aplicação frutífera das ideias do QFT foi a hipótese de H. Yukawa (1935) sobre a existência de uma interação entre o campo dos núcleons (prótons e nêutrons) e o campo dos mésons (ainda não descoberto experimentalmente naquela época). As forças nucleares entre os núcleons, de acordo com esta hipótese, surgem como resultado da troca de núcleons pelos mésons, e a natureza de curto alcance das forças nucleares é explicada pela presença de uma massa de repouso relativamente grande nos mésons. Mésons com propriedades previstas (mésons pi) foram descobertos em 1947, e sua interação com núcleons acabou sendo uma manifestação particular de interações fortes.

O QFT é, portanto, a base para descrever as interações elementares que existem na natureza: eletromagnéticas, fortes e fracas. Junto com isso, os métodos QFT encontraram ampla aplicação na teoria de sólidos, plasma e núcleos atômicos, uma vez que muitos processos nesses meios estão associados à emissão e absorção de vários tipos de excitações elementares - quasipartículas (fônons, ondas de spin, etc. .).

Devido ao número infinito de graus de liberdade do campo, a interação das partículas - quanta de campo - leva a dificuldades matemáticas que ainda não foram totalmente superadas. Porém, na teoria das interações eletromagnéticas, qualquer problema pode ser resolvido aproximadamente, porque a interação pode ser considerada como uma pequena perturbação do estado livre das partículas (devido à pequenez da constante adimensional? 1/137, que caracteriza a intensidade das interações eletromagnéticas). A teoria de todos os efeitos na eletrodinâmica quântica está em total concordância com a experiência. No entanto, a situação nesta teoria não pode ser considerada favorável, porque Para algumas quantidades físicas (massa, carga elétrica), os cálculos usando a teoria das perturbações produzem expressões infinitas (divergências). Eles são excluídos usando porque técnica de renormalização, que consiste em substituir valores infinitamente grandes de massa e carga de uma partícula pelos seus valores observados. Uma grande contribuição para o desenvolvimento da eletrodinâmica quântica foi feita (no final dos anos 40) por S. Tomonaga, R. Feynman e J. Schwinger.

Mais tarde, eles tentaram aplicar os métodos desenvolvidos na eletrodinâmica quântica para calcular os processos de interações fracas e fortes (nucleares), mas vários problemas foram encontrados aqui.

Interações fracas são inerentes a todas as partículas elementares, exceto o fóton. Eles se manifestam nos decaimentos da maioria das partículas elementares e em algumas de suas outras transformações. A constante de interações fracas, que determina a intensidade dos processos por elas causados, aumenta com o aumento da energia das partículas.

Após o fato experimentalmente estabelecido de não conservação da paridade espacial em processos de interação fraca (1956), o chamado uma teoria universal de interações fracas, próxima à teoria de Fermi do decaimento β. No entanto, ao contrário da eletrodinâmica quântica, esta teoria não permitia calcular correções em ordens superiores da teoria de perturbação, ou seja, a teoria revelou-se não renormalizável. No final dos anos 60. Foram feitas tentativas para construir uma teoria renormalizável de interações fracas. O sucesso foi alcançado com base no chamado. teorias de medição. Foi criado um modelo unificado de interações fracas e eletromagnéticas. Nesse modelo, junto com o fóton - portador das interações eletromagnéticas entre partículas carregadas, deveriam existir portadores de interações fracas - as chamadas. bósons vetoriais intermediários. Supõe-se que a intensidade das interações dos bósons intermediários com outras partículas é a mesma dos fótons. Como o raio das interações fracas é muito pequeno (menos de 10-15 cm), então, de acordo com as leis da teoria quântica, a massa dos bósons intermediários deveria ser muito grande: várias dezenas de massas de prótons. Essas partículas ainda não foram detectadas experimentalmente. Devem existir bósons vetoriais carregados (W- e W+) e neutros (Z0). Em 1973, foram observados experimentalmente processos que aparentemente podem ser explicados pela existência de bósons intermediários neutros. No entanto, a validade da nova teoria unificada de interações eletromagnéticas e fracas não pode ser considerada comprovada.

As dificuldades em criar uma teoria de interações fortes se devem ao fato de que, devido à grande constante de acoplamento, os métodos da teoria de perturbação são inaplicáveis ​​aqui. Como resultado disso, e também devido à presença de enorme material experimental que requer generalização teórica, métodos baseados em princípios gerais teoria quântica de campos - invariância relativística, localidade de interação (significando o cumprimento da condição de causalidade; ver Princípio de causalidade), etc. Estes incluem o método das relações de dispersão e o método axiomático (ver teoria quântica de campos). A abordagem axiomática é a mais fundamental, mas ainda não fornece um número suficiente de resultados concretos que permitam a verificação experimental. Os maiores sucessos práticos na teoria das interações fortes foram alcançados através da aplicação de princípios de simetria.
Estão sendo feitas tentativas para construir uma teoria unificada de interações fracas, eletromagnéticas e fortes (semelhantes às teorias de calibre).

Princípios de simetria e leis de conservação

As teorias físicas permitem determinar seu comportamento no futuro com base no estado inicial de um objeto. Os princípios de simetria (ou invariância) são de natureza geral; todas as teorias físicas estão subordinadas a eles. A simetria das leis de F. em relação a uma determinada transformação significa que essas leis não mudam ao realizar esta transformação. Portanto, os princípios da simetria podem ser estabelecidos com base nas ciências físicas conhecidas. leis. Por outro lado, se uma teoria de qualquer fenômeno físico ainda não foi criada, as simetrias descobertas experimentalmente desempenham um papel heurístico na construção da teoria. Daí a importância especial das simetrias estabelecidas experimentalmente de partículas elementares de forte interação - hádrons, cuja teoria, como já mencionado, não foi construída.

Existem simetrias gerais que são válidas para todas as leis físicas, para todos os tipos de interações, e simetrias aproximadas que são válidas apenas para uma determinada gama de interações ou mesmo um tipo de interação. Assim, existe uma hierarquia de princípios de simetria. As simetrias são divididas em espaço-tempo, ou geométricas, e simetrias internas, que descrevem as propriedades específicas das partículas elementares. As leis de conservação estão associadas a simetrias. Para transformações contínuas, esta conexão foi estabelecida em 1918 por E. Noether com base nas suposições mais gerais sobre o aparato matemático da teoria (ver teorema de Noether, Leis de Conservação).

As simetrias das leis físicas em relação às seguintes transformações espaço-temporais contínuas são válidas para todos os tipos de interações: mudança e rotação do sistema físico como um todo no espaço, mudança no tempo (mudanças na origem do tempo). A invariância (imutabilidade) de todas as leis físicas em relação a estas transformações reflete, respectivamente, a homogeneidade e isotropia do espaço e a homogeneidade do tempo. Associadas a essas simetrias estão (respectivamente) as leis de conservação do momento, momento angular e energia. As simetrias gerais também incluem invariância em relação às transformações de Lorentz e transformações de calibre (do 1º tipo) - multiplicação da função de onda pela chamada. um fator de fase que não altera o quadrado de seu módulo (esta última simetria está associada às leis de conservação das cargas elétricas, bariônicas e leptônicas), e algumas outras.
Existem também simetrias que correspondem a transformações discretas: reversão do sinal do tempo (ver Reversão do tempo), inversão espacial (a chamada simetria espelhada da natureza), conjugação de cargas. Com base na simetria aproximada SU (3) (ver Interações fortes), M. Gell-Man (1962) criou uma taxonomia de hádrons, que permitiu prever a existência de diversas partículas elementares que posteriormente foram descobertas experimentalmente.

A sistemática dos hádrons pode ser explicada se assumirmos que todos os hádrons são “construídos” a partir de um pequeno número (na versão mais comum, três) partículas fundamentais - quarks e antipartículas correspondentes - antiquarks. Existem vários modelos de quarks de hádrons, mas os quarks livres ainda não foram detectados experimentalmente. Em 1975-76, duas novas partículas de forte interação (?1 e?2) foram descobertas com massas superiores ao triplo da massa de um próton e tempos de vida de 10-20 e 10-21 segundos. Uma explicação das peculiaridades do nascimento e decaimento dessas partículas aparentemente requer a introdução de um quarto quark adicional, ao qual o número quântico “encanto” é atribuído. Além disso, de acordo com os conceitos modernos, cada quark existe em três variedades, que se distinguem por uma característica especial - “cor”.

O progresso na classificação dos hádrons com base nos princípios de simetria tem sido muito grande, embora as razões para o surgimento dessas simetrias não sejam completamente claras; talvez sejam realmente devidos à existência e às propriedades dos quarks.

4. Física experimental moderna

No início do século XX. Descobertas que marcaram época, como a descoberta do núcleo atômico por Rutherford, poderiam ser feitas usando equipamento relativamente simples. Mais tarde, porém, a experiência começou a complicar-se muito rapidamente e as instalações experimentais começaram a adquirir um carácter industrial. O papel da tecnologia de medição e computação aumentou imensamente. A investigação experimental moderna no domínio dos núcleos e partículas elementares, da radioastronomia, da electrónica quântica e da física do estado sólido requer uma escala e dispêndio de fundos sem precedentes, que muitas vezes são acessíveis apenas a grandes estados ou mesmo a grupos de estados com economias desenvolvidas.

Um grande papel no desenvolvimento da física nuclear e da física das partículas elementares foi desempenhado pelo desenvolvimento de métodos para observar e registrar atos individuais de transformação de partículas elementares (causadas por suas colisões entre si e com núcleos atômicos) e pela criação de aceleradores de partículas carregadas, que lançaram as bases para o desenvolvimento da física de altas energias. A descoberta do princípio da autofase por VI Vekslr (1944) e independentemente por EM Macmillan (1945) aumentou o limite de energias de partículas alcançáveis ​​em milhares de vezes. Os aceleradores de feixe de colisão aumentaram significativamente a energia efetiva das colisões de partículas. Foram criados contadores de partículas carregadas altamente eficientes, cuja operação é baseada em princípios diferentes: descarga de gás, cintilação, Cherenkov, etc. Fotomultiplicadores permitem registrar fótons únicos. As informações mais completas e precisas sobre os eventos do micromundo são obtidas por meio de câmaras de bolhas e faíscas e emulsões fotográficas de camada espessa, nas quais traços (rastros) de partículas carregadas voadoras podem ser observados diretamente. Foram construídos detectores que permitem registrar eventos raros– colisões de neutrinos com núcleos atômicos.

Uma verdadeira revolução no estudo experimental das interações de partículas elementares está associada ao uso de computadores para processamento de informações recebidas de dispositivos de gravação. Para capturar processos improváveis, dezenas de milhares de fotografias de rastros devem ser analisadas. Fazer isso manualmente levaria tanto tempo que seria quase impossível obter as informações necessárias. Portanto, as imagens das trilhas são convertidas em uma série de impulsos elétricos por meio de dispositivos especiais, e a análise posterior das trilhas é realizada por meio de um computador. Isso reduz bastante o tempo entre o experimento e o recebimento das informações processadas. Nas câmaras de faísca, o registro e a análise dos rastros de partículas são realizados automaticamente por meio de um computador diretamente na configuração experimental.

A importância dos aceleradores de partículas carregadas é determinada pelas seguintes circunstâncias. Quanto maior a energia (momento) da partícula, menores (de acordo com o princípio da incerteza) serão os tamanhos dos objetos ou de suas partes que podem ser distinguidos quando uma partícula colide com um objeto. Em 1977, essas dimensões mínimas eram de 10 a 15 cm. Ao estudar o espalhamento de elétrons de alta energia nos núcleons, foi possível descobrir elementos da estrutura interna dos núcleons - a distribuição da carga elétrica e do momento magnético dentro dessas partículas (o os chamados fatores de forma). A dispersão de elétrons de energia ultra-alta nos núcleons indica a existência dentro dos núcleons de várias formações individuais de tamanhos ultrapequenos, chamadas pártons. Talvez os partons sejam quarks hipotéticos.

Outra razão para o interesse em partículas de alta energia é a criação de novas partículas de massa crescente durante as suas colisões com um alvo. No total, são conhecidas 34 partículas estáveis ​​​​e quase estáveis ​​​​(ou seja, não decaindo devido a fortes interações) (com antipartículas) e mais de duzentas ressonâncias, e a grande maioria delas foi descoberta em aceleradores. O estudo do espalhamento de partículas de energia ultra-alta deve ajudar a esclarecer a natureza das interações fortes e fracas.

Uma variedade de tipos de reações nucleares foram estudadas. A colisão de núcleos relativísticos foi realizada pela primeira vez no acelerador do Instituto Conjunto de Pesquisa Nuclear em Dubna. A síntese está progredindo com sucesso elementos transurânicos. Foram obtidos núcleos de antideutério, antitrítio e antihélio. No acelerador de Serpukhov, um novo padrão de interações fortes foi descoberto - um aumento na seção transversal total para a interação de hádrons de energias muito altas durante sua colisão com o aumento da energia de colisão (o chamado efeito Serpukhov).

O desenvolvimento da radiofísica recebeu um novo rumo após a criação de estações de radar durante a 2ª Guerra Mundial (1939-45). Os radares encontraram ampla aplicação na aviação, no transporte marítimo e na astronáutica. Foi realizada a localização dos corpos celestes: a Lua, Vênus e outros planetas, além do Sol. Foram construídos radiotelescópios gigantes que capturam radiação de corpos cósmicos com uma densidade de fluxo de energia espectral de 10-26 erg/cm2?seg?Hz. As informações sobre objetos espaciais aumentaram imensamente. Estrelas de rádio e galáxias de rádio com radiação poderosa na faixa de ondas de rádio foram descobertas e, em 1963, os objetos quase estelares mais distantes de nós, os quasares, foram descobertos.

A luminosidade dos quasares é centenas de vezes maior que a luminosidade das galáxias mais brilhantes. A resolução dos radiotelescópios modernos que utilizam antenas móveis controladas por um computador atinge um segundo angular (para radiação com comprimento de onda de vários cm). Quando as antenas são espaçadas por longas distâncias (cerca de 10 mil km), obtém-se uma resolução ainda maior (centésimos de segundo de arco).

O estudo da emissão de rádio dos corpos celestes ajudou a estabelecer as fontes dos raios cósmicos primários (prótons, núcleos atômicos mais pesados, elétrons). Essas fontes acabaram sendo explosões de supernovas. Foi descoberta a radiação relíquia - radiação térmica correspondente a uma temperatura de 2,7 K. Em 1967, os pulsares foram descobertos. – estrelas de nêutrons em rotação rápida. Os pulsares produzem radiação direcionada nas faixas de rádio, visível e raios X, cuja intensidade muda periodicamente devido à rotação das estrelas.
Os lançamentos de estações espaciais desempenharam um papel importante no estudo do espaço próximo à Terra e do espaço profundo: os cinturões de radiação da Terra foram descobertos, fontes cósmicas de radiação de raios X e explosões de radiação foram descobertas (esses tipos de radiação são absorvidos pela Terra atmosfera e não atingem sua superfície).

Os métodos radiofísicos modernos permitem realizar comunicações espaciais em distâncias de dezenas e centenas de milhões de quilômetros. Necessidade de transferência grande volume a informação estimulou o desenvolvimento de linhas de comunicação óptica fundamentalmente novas usando fibras ópticas.

A mais alta precisão foi alcançada na medição da amplitude das vibrações de corpos macroscópicos. Utilizando engenharia de rádio e sensores ópticos, é possível registrar vibrações mecânicas com amplitude da ordem de 10-15 cm (é possível aumentar este limite para 10-16–10-19 cm).
Para estudar a estrutura de cristais e moléculas orgânicas, são utilizados difratômetros automáticos de raios X e nêutrons de alta precisão, que reduziram o tempo de decifração de estruturas em centenas de milhares de vezes. Microscópios eletrônicos de alta resolução também são usados ​​em estudos estruturais. A neutronografia também permite estudar a estrutura magnética dos sólidos.

Para estudar a estrutura e distribuição da densidade eletrônica na matéria, ressonância paramagnética eletrônica (descoberta por E. K. Zavoisky em 1944), ressonância magnética nuclear (descoberta por E. Purcell e F. Bloch em 1946) e o efeito Mössbauer (descoberto por RL Mössbauer ) são usados ​​com sucesso em 1958). O estudo da estrutura de átomos e moléculas de substâncias orgânicas e inorgânicas por meio de seus espectros de emissão e absorção em uma ampla faixa de frequência está sendo aprimorado (inclusive com o uso de radiação laser; ver espectroscopia laser).
Na hidroacústica, o fenômeno da propagação do som de ultralongo alcance nos mares e oceanos - em distâncias de milhares de quilômetros - foi descoberto e estudado (cientistas americanos M. Ewing, J. Worzel, 1944, e físicos soviéticos independentes L. M. Brekhovskikh, LD Rosenberg e al., 1946).

Na última década, vêm se desenvolvendo métodos acústicos para estudo de sólidos, baseados no uso de ondas ultrassônicas e hipersônicas (ver Ultrassom, Hipersom), bem como ondas acústicas de superfície.

O rápido desenvolvimento da física dos semicondutores revolucionou a engenharia de rádio e a eletrônica. Dispositivos semicondutores substituíram os tubos de vácuo. Os dispositivos de engenharia de rádio e os computadores diminuíram drasticamente de tamanho e se tornaram mais confiáveis, e seu consumo de energia diminuiu significativamente. Surgiram circuitos integrados que combinam milhares ou mais elementos eletrônicos em um pequeno cristal (dezenas de mm2). O processo de microminiaturização sequencial de dispositivos e dispositivos radioeletrônicos levou à criação dos chamados cristais diversos. microprocessadores que executam funções operacionais de computador. Pequenos computadores são fabricados em um único chip.

Os computadores tornaram-se parte integrante da pesquisa física e são utilizados tanto para processamento de dados experimentais quanto em cálculos teóricos, especialmente aqueles que antes eram inviáveis ​​devido à sua enorme intensidade de trabalho.

De grande importância tanto para a própria ciência como para aplicações práticas tem o estudo da matéria sob condições extremas: em temperaturas muito baixas ou muito altas, pressão ultra-alta ou vácuo profundo, campos magnéticos ultrafortes, etc.
Altos e ultra-altos vácuos são criados em dispositivos eletrônicos e aceleradores para evitar colisões de partículas aceleradas com moléculas de gás. O estudo das propriedades de superfícies e finas camadas de matéria em ultra-alto vácuo abriu um novo ramo da física do estado sólido. Estes estudos são muito importantes, especialmente no que diz respeito à exploração espacial.

V. Alguns problemas não resolvidos da física

Física de partículas

O problema mais fundamental da Física foi e continua sendo o estudo da matéria no nível mais profundo – o nível das partículas elementares. Uma enorme quantidade de material experimental foi acumulada sobre as interações e transformações de partículas elementares, mas ainda não foi possível fazer uma generalização teórica deste material de um ponto de vista unificado. Ou faltam os fatos necessários ou existe uma ideia que pode esclarecer o problema da estrutura e interação das partículas elementares. O problema de determinar teoricamente o espectro de massa das partículas elementares permanece sem solução. Talvez para resolver este problema e eliminar infinitos na teoria quântica de campos, seja necessário introduzir algum comprimento fundamental que limitaria a aplicabilidade dos conceitos usuais de espaço-tempo como uma entidade contínua. Até distâncias da ordem de 10-15 cm e, consequentemente, tempos t ~ l/c ~ 10-25 seg, as relações espaço-temporais usuais parecem ser válidas, mas em distâncias menores elas podem ser violadas. Estão sendo feitas tentativas de introduzir o comprimento fundamental na teoria do campo unificado (Heisenberg et al.) e em várias versões da quantização do espaço-tempo. No entanto, até agora estas tentativas não conduziram a resultados tangíveis.

O problema de construir uma teoria quântica da gravidade não foi resolvido. A possibilidade de reunir as quatro interações fundamentais está apenas começando a surgir.

Astrofísica. O desenvolvimento da física das partículas elementares e do núcleo atômico permitiu aproximar-se da compreensão de problemas tão complexos como a evolução do Universo nos estágios iniciais de desenvolvimento, a evolução das estrelas e a formação elementos químicos. No entanto, apesar das enormes conquistas, a astrofísica moderna também enfrenta problemas não resolvidos. Ainda não está claro qual é o estado da matéria nas enormes densidades e pressões dentro das estrelas e dos “buracos negros”. A natureza física dos quasares e das rádio-galáxias, as causas das explosões de supernovas e o aparecimento de explosões de radiação não foram esclarecidas. Não está claro por que as tentativas de detectar neutrinos solares, que deveriam nascer nas profundezas do Sol durante reações termonucleares, não levaram ao sucesso (ver astronomia de neutrinos). O mecanismo de aceleração de partículas carregadas (raios cósmicos) durante explosões de supernovas e o mecanismo de emissão de ondas eletromagnéticas por pulsares, etc., não foram totalmente identificados. Finalmente, apenas o começo foi feito para resolver o problema da evolução do Universo como um todo. O que aconteceu nos primeiros estágios da evolução do Universo e qual foi o seu destino no futuro?

Será que a expansão observada do Universo será algum dia substituída pela sua contracção? Ainda não há respostas para todas essas perguntas.

Não há dúvida de que os problemas mais fundamentais da filosofia moderna estão relacionados com as partículas elementares e com o problema da estrutura e do desenvolvimento do Universo. Aqui temos que descobrir novas leis do comportamento da matéria em condições incomuns - em distâncias espaço-temporais ultrapequenas no microcosmo e em densidades ultra-altas no início da expansão do Universo. Todos os outros problemas são de natureza mais específica e estão relacionados com a procura de formas uso eficaz leis básicas para explicar fenômenos observados e prever novos.
Física do núcleo. Após a criação do modelo próton-nêutron do núcleo, grande progresso foi feito na compreensão da estrutura dos núcleos atômicos, e vários modelos nucleares aproximados foram construídos. No entanto, não existe uma teoria consistente do núcleo atômico (semelhante à teoria das conchas atômicas), que permita calcular, em particular, a energia de ligação dos núcleons no núcleo e os níveis de energia nuclear. O sucesso nesta direção só pode ser alcançado após a construção de uma teoria de interações fortes.

O estudo experimental da interação de núcleons no núcleo - forças nucleares - está associado a grandes dificuldades devido à extrema natureza complexa essas forças. Eles dependem da distância entre os núcleons, das velocidades dos núcleons e das orientações de seus spins.
De interesse significativo é a possibilidade de detecção experimental de elementos de vida longa com números atômicos em torno de 114 e 126 (as chamadas ilhas de estabilidade), que são previstos pela teoria.

Um dos problemas mais importantes que F. tem de resolver é o problema da fusão termonuclear controlada. Trabalhos experimentais e teóricos estão sendo realizados em larga escala para criar plasma quente de deutério-trítio necessário para uma reação termonuclear. Sov. As instalações do tipo Tokamak são aparentemente as mais promissoras neste aspecto. Existem outras possibilidades. Em particular, radiação laser, feixes de elétrons ou íons produzidos em poderosos aceleradores pulsados ​​podem ser usados ​​para aquecer grãos de uma mistura de deutério e trítio.

Eletrônica quântica. Os geradores quânticos produzem radiação eletromagnética que é única em suas propriedades. A radiação laser é coerente e pode atingir uma potência enorme em uma faixa espectral estreita: 1012–1013 W, e a divergência do feixe de luz é de apenas cerca de 10-4 rad. A intensidade do campo elétrico da radiação laser pode exceder a intensidade do campo intraatômico.

A criação dos lasers causou o surgimento e o rápido desenvolvimento de um novo ramo da óptica - a óptica não linear. Na forte radiação laser, os efeitos de interação não linear tornam-se significativos. onda eletromagnética com o meio ambiente. Esses efeitos – ajuste da frequência da radiação, autofocalização do feixe, etc. – são de grande interesse teórico e prático.

A quase estrita monocromaticidade da radiação laser possibilitou a obtenção de uma imagem tridimensional de objetos (holografia) por meio de interferência de ondas.

A radiação laser é usada para separar isótopos, em particular para enriquecer urânio com o isótopo 235U, para evaporar e soldar metais no vácuo, na medicina, etc. Parece promissor usar lasers para aquecer matéria a temperaturas nas quais possam ocorrer reações termonucleares. A tarefa é buscar novas aplicações da radiação laser, por exemplo, para comunicação no espaço.
Os principais problemas a serem resolvidos são um aumento adicional na potência e expansão da faixa de comprimento de onda do feixe de laser com ajuste suave de frequência. Estão em andamento trabalhos de pesquisa para criar lasers de raios X e gama.

Física do estado sólido. A física do estado sólido desempenha um papel importante no estudo das possibilidades de produção de materiais com propriedades extremas em termos de resistência mecânica, resistência ao calor e características elétricas, magnéticas e ópticas.
Desde os anos 70 século 20 Pesquisas ativas estão em andamento por mecanismos não fônons de supercondutividade. A solução deste problema pode tornar possível a criação de supercondutores de alta temperatura. Isto seria de grande importância para a física experimental e a tecnologia, incluindo a solução do problema de transmissão de energia elétrica a longas distâncias praticamente sem perdas.

Um problema muito interessante é o estudo das propriedades físicas do hélio-3 sólido e líquido em temperaturas ultrabaixas (abaixo de 3–10-3 K). O hélio-3 sólido aparentemente deveria ser o único antiferromagneto nuclear trocável. O hélio-3 líquido é o líquido de Fermi mais simples, cuja teoria é um assunto essencial da estatística quântica.
De grande interesse científico e prático é a produção de hidrogênio metálico e o estudo de suas propriedades físicas. Deve ser um objeto físico único, porque sua rede consiste em prótons. Acredita-se que o hidrogênio metálico terá uma série de propriedades incomuns, cujo estudo pode levar a descobertas fundamentalmente novas em Física. No Instituto de Física de Alta Pressão da Academia de Ciências da URSS, foram dados os primeiros passos nessa direção -. uma transição para o estado metálico de filmes finos de hidrogênio sólido foi descoberta a uma temperatura de 4,2 K e uma pressão de cerca de 1 Mbar.
Novas direções para o estudo de sólidos usando métodos acústicos estão sendo desenvolvidas: acustoeletrônica (interação de ondas acústicas com elétrons em semicondutores, metais e supercondutores), ressonâncias nucleares acústicas e paramagnéticas, determinação do espectro de fônons e curvas de dispersão.
Deve-se notar que o desenvolvimento de áreas tradicionais da física do estado sólido muitas vezes leva a descobertas inesperadas de novos fenômenos físicos ou materiais com propriedades significativamente novas, como o efeito Josephson, semicondutores com heterojunções, supercondutores tipo 2, cristais quânticos, bigodes, etc. .

Apesar dos progressos alcançados, é necessário desenvolver métodos físicos fundamentalmente novos para obter dispositivos semicondutores mais confiáveis ​​​​e em miniatura (ver Microeletrônica, Eletrônica funcional), métodos para obter pressões mais altas, temperaturas ultrabaixas, etc.

De grande importância é o estudo da física dos polímeros com suas propriedades mecânicas e termodinâmicas incomuns, em particular os biopolímeros, que incluem todas as proteínas.

Física do plasma

A importância do estudo do plasma está associada a duas circunstâncias. Em primeiro lugar, a grande maioria da matéria do Universo está no estado de plasma: estrelas e suas atmosferas, o meio interestelar, cinturões de radiação e a ionosfera da Terra, etc. de implementar a fusão termonuclear controlada.
As equações básicas que descrevem o plasma são bem conhecidas. No entanto, os processos no plasma são tão complexos que é muito difícil prever o seu comportamento sob diferentes condições. O principal problema enfrentado pela física dos plasmas é o desenvolvimento de métodos eficazes para aquecer o plasma a uma temperatura da ordem de 1 bilhão de graus e mantê-lo neste estado (apesar dos vários tipos de instabilidades inerentes ao plasma de alta temperatura) por um tempo suficiente para um reação termonuclear ocorra em uma escala maior do volume de trabalho. A resolução do problema da estabilidade do plasma também desempenha um papel importante na garantia do funcionamento dos aceleradores por meio de feixes de colisão e no desenvolvimento dos chamados. métodos coletivos de aceleração de partículas.
O estudo da radiação plasmática eletromagnética e corpuscular é crucial para explicar a aceleração de partículas carregadas durante explosões de supernovas, radiação de pulsares, etc.
É claro que os problemas da filosofia moderna não podem ser reduzidos aos listados; Todas as seções de F. têm seus próprios problemas, e seu número total é tão grande que não podem ser fornecidos aqui.

VI. A conexão da física com outras ciências e tecnologia

Física e filosofia

Devido à generalidade e amplitude de suas leis, a filosofia sempre influenciou o desenvolvimento da filosofia e foi ela mesma influenciada por ela. A cada nova descoberta nas ciências naturais, segundo F. Engels, o materialismo deve inevitavelmente mudar de forma.
Nas realizações da filosofia moderna, a forma mais elevada de materialismo – o materialismo dialético – é cada vez mais confirmada e concretizada. Ao passar para o estudo do micromundo, a lei da dialética - a unidade dos opostos - se manifesta de maneira especialmente clara. A unidade do descontínuo e do contínuo se reflete no dualismo onda-corpúsculo das micropartículas. O necessário e o aleatório aparecem em uma conexão inextricável, que se expressa na natureza probabilística e estatística das leis do movimento das micropartículas. A unidade do mundo material proclamada pelo materialismo manifesta-se claramente nas transformações mútuas das partículas elementares - possíveis formas de existência da matéria física. A análise filosófica correta é especialmente importante em eras revolucionárias do desenvolvimento da filosofia, quando velhas ideias estão sujeitas a uma revisão radical. Um exemplo clássico de tal análise foi dado por V.I. Lenin no livro “Materialismo e Empiriocrítica”. Só uma compreensão da relação entre verdades absolutas e relativas nos permite avaliar corretamente a essência das transformações revolucionárias na filosofia, para ver nelas o enriquecimento e o aprofundamento das nossas ideias sobre a matéria, o maior desenvolvimento do materialismo.

Física e matemática. A física é uma ciência quantitativa. Suas leis básicas são formuladas em linguagem matemática, principalmente por meio de equações diferenciais. Por outro lado, novas ideias e métodos em matemática surgiram frequentemente sob a influência de F. A análise de infinitesimais foi criada por Newton (simultaneamente com G.V. Leibniz) na formulação das leis fundamentais da mecânica. A criação da teoria do campo eletromagnético levou ao desenvolvimento da análise vetorial. O desenvolvimento de ramos da matemática como cálculo tensorial, geometria Riemanniana, teoria de grupos, etc., foi estimulado por novas teorias físicas: relatividade geral e mecânica quântica. O desenvolvimento da teoria quântica de campos coloca novos problemas de análise funcional, etc.

Física e outras ciências naturais. A estreita ligação da Física com outros ramos das ciências naturais levou, segundo S. I. Vavilov, ao facto de a Física ter as suas raízes mais profundas na astronomia, geologia, química, biologia e outras ciências naturais. Várias disciplinas fronteiriças foram formadas: astrofísica, geofísica, biofísica, físico-química, etc. Os métodos de pesquisa física tornaram-se de importância decisiva para todas as ciências naturais. Microscópio eletrônico aumentou a capacidade de distinguir os detalhes dos objetos em várias ordens de grandeza, tornando possível observar moléculas individuais. A análise de difração de raios X é usada para estudar não apenas cristais, mas também estruturas biológicas complexas. Seu verdadeiro triunfo foi o estabelecimento da estrutura das moléculas de DNA que fazem parte dos cromossomos dos núcleos das células de todos os organismos vivos e são portadoras do código de herança. A revolução na biologia associada ao surgimento da biologia molecular e da genética teria sido impossível sem F.

O chamado método os átomos marcados desempenham um papel importante no estudo do metabolismo dos organismos vivos; muitos problemas em biologia, fisiologia e medicina foram resolvidos com a ajuda deles. O ultrassom é usado na medicina para diagnóstico e terapia.
Como mencionado acima, as leis da mecânica quântica fundamentam a teoria da ligação química. Usando átomos rotulados, você pode rastrear a cinética das reações químicas. Por métodos físicos, por exemplo, utilizando feixes de múons obtidos em aceleradores, é possível realizar reações químicas que não ocorrem em condições normais. São utilizados análogos estruturais do átomo de hidrogênio - positrônio e muônio, cuja existência e propriedades foram estabelecidas por físicos. Em particular, com a ajuda do muônio é possível medir a taxa de reações químicas rápidas. (Veja múons.)

O desenvolvimento da eletrônica permite observar processos que ocorrem em menos de 10 a 12 segundos. Também levou a uma revolução na astronomia - a criação da radioastronomia.
Os resultados e métodos da física nuclear são utilizados em geologia; com a ajuda deles, em particular, eles medem a idade absoluta das rochas e da Terra como um todo (ver Geocronologia).

Física e tecnologia

A física constitui a base das áreas mais importantes da tecnologia. Engenharia elétrica e energia, engenharia de rádio e eletrônica, engenharia de iluminação, tecnologia de construção, engenharia hidráulica e uma parte significativa da tecnologia militar cresceram com base em F. Graças ao uso consciente das leis físicas, a tecnologia saiu do campo de descobertas aleatórias no amplo caminho do desenvolvimento proposital. Se no século XIX. Dezenas de anos se passaram entre a descoberta física e sua primeira aplicação técnica, mas agora esse período foi reduzido para vários anos.

Por sua vez, o desenvolvimento da tecnologia tem um impacto igualmente significativo no aprimoramento da física experimental. Sem o desenvolvimento da engenharia elétrica, da eletrônica e da tecnologia para a produção de materiais muito duráveis ​​e livres de impurezas, seria impossível criar tais dispositivos. como aceleradores de partículas carregadas, enormes câmaras de bolhas e faíscas e dispositivos semicondutores, etc.
O surgimento da energia nuclear está associado a grandes conquistas na tecnologia nuclear. Os reatores reprodutores nucleares de nêutrons rápidos podem usar urânio e tório naturais, cujas reservas são grandes. A implementação da fusão termonuclear controlada salvará quase para sempre a humanidade da ameaça de uma crise energética.

A tecnologia do futuro não será baseada em materiais naturais prontos, mas principalmente em materiais sintéticos antecipadamente dadas propriedades. A criação e o estudo da estrutura da matéria desempenham um papel decisivo na resolução deste problema.
O desenvolvimento da eletrônica e a criação de computadores avançados, baseados nas conquistas da física do estado sólido, expandiram imensamente as capacidades criativas dos humanos e também levaram à construção de autômatos “pensantes” capazes de tomar decisões rapidamente em situações que exigem o processamento de grandes quantidades de informações.

Um enorme aumento na produtividade do trabalho é alcançado através do uso de computadores (automação da produção e gestão). À medida que a economia nacional se torna mais complexa, o volume de informação processada torna-se extremamente grande. Portanto, é muito importante melhorar ainda mais os computadores – aumentando sua velocidade e capacidade de memória, aumentando a confiabilidade, reduzindo tamanho e custo. Estas melhorias só são possíveis com base nas novas conquistas de F.
A filosofia moderna está na origem de mudanças revolucionárias em todas as áreas da tecnologia. Dá uma contribuição decisiva para a revolução científica e tecnológica.

Literatura

História e metodologia da ciência. Engels F., Dialética da Natureza, M., 1975; Lenin V.I., Materialismo e empiriocrítica, Coleção completa de obras, 5ª ed., vol. seu, Cadernos Filosóficos, ibid., vol. Dorfman Ya. G., História mundial da física desde os tempos antigos até o final do século 18, M., 1974; Kudryavtsev PS, História da Física, vol. Laue M., História da Física, trad. do alemão, M., 1956; Llozzi M., História da Física, trad. do italiano, M., 1970; Markov M. A., Sobre a natureza da matéria, M., 1976.
Física geral. Khaikin S.E., Fundamentos físicos da mecânica, 2ª ed., M., 1971; Strelkov S.P., Mecânica, 3ª ed., M., 1975; Landsberg G.S., Óptica, 5ª ed., M., 1976; Kikoin AK, Kikoin IK, Física Molecular, 2ª ed., M., 1976; Kalashnikov S.G., Eletricidade, 3ª ed., M., 1970; Gorelik G.S., Oscilações e ondas. Introdução à acústica, radiofísica e óptica, 2ª ed., M., 1959; Born M., Física Atômica, trad. do inglês, 3ª ed., M., 1970; Shpolsky E.V., Física atômica, vol. 1, 6ª ed., vol. 2, 4ª ed., M., 1974; Feynman R., Layton R., Sands M., Feynman Lectures on Physics, trad. do inglês, V. 1–9, M., 1965–67; Curso de Física de Berkeley, vol. do inglês, M., 1971–74.
Física teórica. Curso de física teórica: Landau L.D., Lifshits E.M., vol. 1, Mecânica, 3ª ed., M., 1973; vol. 2, Teoria de Campo, 6ª ed., M., 1973; vol.3, Mecânica Quântica. Teoria não relativística, 3ª ed., M., 1974; Berestetsky V.B., Lifshits E.M., Pitaevsky L.P., vol. 4, parte 1, Teoria quântica relativística, M., 1968; Lifshits E.M., Pitaevsky L.P., vol. 4, parte 2, Teoria quântica relativística, M., 1971; Landau LD, Lifshits EM, vol. 5, parte 1, Física Estatística, 3ª ed., M., 1976; eles, Mecânica de mídia contínua, 2ª ed., M., 1954; deles. Eletrodinâmica de meios contínuos, M., 1959; Goldstein G., Mecânica Clássica, trad. do inglês, 2ª ed., M., 1975; Leontovich M.A., Introdução à Termodinâmica, 2ª ed., M. - L., 1952; seu, Física Estatística, M. - L., 1944; Kubo R., Termodinâmica, trad. do inglês, M., 1970; seu, Mecânica Estatística, trad. do inglês, M., 1967; Tamm I.E., Fundamentos da teoria da eletricidade, 9ª ed., M., 1976; Born M., Wolf E., Fundamentos de Óptica, trad. do inglês, 2ª ed., M., 1973; Davydov A.S., Mecânica Quântica, 2ª ed., M., 1973; Blokhintsev D.I., Fundamentos da Mecânica Quântica, 5ª ed., M., 1976; Dirac P. A. M., Princípios da mecânica quântica, trad. do inglês, M., 1960. Monografias. Abrikosov A. A., Introdução à teoria dos metais normais, M., 1972; Andronov A. A., Witt A. A., Khaikin S. E., Teoria das Oscilações, 2ª ed., M., 1959; Artsimovich L. A., Reações termonucleares controladas, 2ª ed., M., 1963; Akhiezer AI, Eletrodinâmica Quântica, 1969; Bethe G., Sommerfeld A., Teoria eletrônica dos metais, trad. do alemão, L. - M., 1938; Blokhin M. A., Física dos Raios X, 2ª ed., M., 1957; Bogolyubov N.N., Problemas de teoria dinâmica em física estatística, M. - L., 1946; Bogolyubov N.N., Shirkov D.V., Introdução à teoria dos campos quantizados, 3ª ed., M., 1976; Brillouin L., Ciência e Teoria da Informação, trad. do inglês, M., 1960; Vonsovsky S.V., Magnetismo, M., 1971; Gibbs J. V., Trabalhos termodinâmicos, trad. do inglês, M. - L., 1950; ele, Princípios básicos da mecânica estatística, trad. do inglês, M. - L., 1946; Ginzburg V.L., Sobre física e astrofísica, 2ª ed., M., 1974; Anselm A.I., Introdução à teoria dos semicondutores, M. - L., 1962; Elyashevich M. A., espectroscopia atômica e molecular, M., 1962; Zeldovich Ya. B., Novikov I. D., Teoria da gravitação e evolução das estrelas, M., 1971; Zeldovich Ya. B., Raiser Yu. P., Física de ondas de choque e fenômenos hidrodinâmicos de alta temperatura, 2ª ed., M., 1966; Sommerfeld A., Estrutura atômica e espectros, trad. do alemão, vol. , 1956; Zubarev D.N., Termodinâmica estatística de não equilíbrio, M., 1971; Kapitsa P. L., Experimento, teoria, prática, M., 1974; Carslow G., Jaeger D., Condutividade térmica de sólidos, trad. do inglês, M., 1964; Kittel Ch., Introdução à Física do Estado Sólido, trad. do inglês, 2ª ed., M., 1962; Lorentz G. A., A teoria dos elétrons e sua aplicação aos fenômenos da luz e da radiação térmica, trad. do inglês, 2ª ed., M., 1956; Lukyanov S. Yu., Plasma quente e fusão nuclear controlada, M., 1975; Neumann I., von, Fundamentos matemáticos da mecânica quântica, trad. do alemão, M., 1964; Okun L. B., interação fraca de partículas elementares, M., 1963; Skuchik E., Fundamentos de Acústica, trad. do inglês, vol. 1–2, M., 1976; Strett JW (Lord Rayleigh), Teoria do Som, vol. 1–2, 2ª ed., M., 1955; Fok V.A., Teoria do espaço, tempo e gravidade, 2ª ed., M., 1961; Frenkel Ya. I., Introdução à teoria dos metais, 3ª ed., M., 1958; Einstein A., Infeld L., Evolução da Física, trad. do inglês, 3ª ed., M., 1965. Enciclopédias e livros de referência: Dicionário enciclopédico físico, vol. Dicionário Enciclopédico de Física (ed. J. Thewlis), v. 1–9, Oxf. – NY, 1961–64; Yavorsky B. M., Detlaf A. A., Manual de física para engenheiros e estudantes universitários, 6ª ed., M., 1974.

A. M. Prokhorov. Física // Grande Enciclopédia Soviética

Dezenas e centenas de milhares de experimentos físicos foram realizados durante história de mil anos ciência. Não é fácil selecionar alguns dos “melhores” para falar. Qual deve ser o critério de seleção?

Quatro anos atrás, o The New York Times publicou um artigo de Robert Creese e Stoney Book. Descreveu os resultados de uma pesquisa realizada entre físicos. Cada entrevistado teve que nomear os dez experimentos físicos mais bonitos da história da física. Em nossa opinião, o critério da beleza não é de forma alguma inferior a outros critérios. Portanto, falaremos sobre os experimentos que ficaram entre os dez primeiros de acordo com os resultados da pesquisa Kreese and Book.

1. Experiência de Eratóstenes de Cirene

Um dos mais antigos experimentos físicos conhecidos, a partir do qual foi medido o raio da Terra, foi realizado no século III aC pelo bibliotecário da famosa Biblioteca de Alexandria, Erastótenes de Cirene.

O desenho experimental é simples. Ao meio-dia, no dia do solstício de verão, na cidade de Siena (atual Assuã), o Sol estava no zênite e os objetos não projetavam sombras. No mesmo dia e à mesma hora, na cidade de Alexandria, localizada a 800 quilômetros de Siena, o Sol desviou-se do zênite em aproximadamente 7°. Isto é aproximadamente 1/50 de um círculo completo (360°), o que significa que a circunferência da Terra é de 40.000 quilômetros e o raio é de 6.300 quilômetros.

Parece quase incrível que o raio da Terra medido por um método tão simples tenha sido apenas 5% menor que o valor obtido pelos métodos modernos mais precisos.

2. Experiência de Galileu Galilei

No século XVII, o ponto de vista dominante era Aristóteles, que ensinava que a velocidade com que um corpo cai depende da sua massa. Quanto mais pesado o corpo, mais rápido ele cai. Observações que cada um de nós pode fazer em vida cotidiana, parece confirmar isso.

Tente liberá-lo ao mesmo tempo mãos leves um palito e uma pedra pesada. A pedra tocará o solo mais rapidamente. Tais observações levaram Aristóteles à conclusão sobre a propriedade fundamental da força com a qual a Terra atrai outros corpos. Na verdade, a velocidade da queda é afetada não apenas pela força da gravidade, mas também pela força da resistência do ar. A proporção dessas forças para objetos leves e pesados ​​​​é diferente, o que leva ao efeito observado. O italiano Galileu Galilei duvidou da exatidão das conclusões de Aristóteles e encontrou uma forma de testá-las. Para fazer isso, ele lançou uma bala de canhão e uma bala de mosquete muito mais leve da Torre Inclinada de Pisa ao mesmo tempo. Ambos os corpos tinham aproximadamente o mesmo forma simplificada, portanto, tanto para o núcleo quanto para a bala, as forças de resistência do ar eram insignificantes em comparação com as forças de atração.

Galileu descobriu que os dois objetos atingem o solo ao mesmo tempo, ou seja, a velocidade de queda é a mesma. Resultados obtidos por Galileu. - uma consequência da lei da gravitação universal e da lei segundo a qual a aceleração experimentada por um corpo é diretamente proporcional à força que atua sobre ele e inversamente proporcional à massa.

3. Outra experiência de Galileu Galilei

Galileu mediu a distância que as bolas rolando em uma prancha inclinada percorreram em intervalos iguais de tempo, medida pelo autor do experimento por meio de um relógio de água. O cientista descobriu que se o tempo fosse duplicado, as bolas rolariam quatro vezes mais. Esta relação quadrática significava que as bolas se moviam a uma taxa acelerada sob a influência da gravidade, o que contradizia a afirmação de Aristóteles, que tinha sido aceite durante 2.000 anos, de que os corpos sobre os quais actua uma força movem-se a uma velocidade constante, ao passo que se nenhuma força for aplicada para o corpo, então ele está em repouso.

Os resultados desta experiência de Galileu, tal como os resultados da sua experiência com a Torre Inclinada de Pisa, serviram mais tarde de base para a formulação das leis da mecânica clássica.

4. Experiência de Henry Cavendish

Depois que Isaac Newton formulou a lei da gravitação universal: a força de atração entre dois corpos de massa Mit, separados um do outro por uma distância r, é igual a F=G(mM/r2), restou determinar o valor do constante gravitacional G. Para isso, foi necessário medir a força de atração entre dois corpos com massas conhecidas. Isso não é tão fácil de fazer porque a força de atração é muito pequena.

Sentimos a força da gravidade da Terra. Mas é impossível sentir a atração mesmo de uma montanha muito grande próxima, pois ela é muito fraca. Era necessário um método muito sutil e sensível. Foi inventado e usado em 1798 pelo compatriota de Newton, Henry Cavendish. Ele usou uma escala de torção - um balancim com duas bolas suspensas por uma corda muito fina. Cavendish mediu o deslocamento do balancim (rotação) à medida que outras bolas de maior massa se aproximavam da balança.

Para aumentar a sensibilidade, o deslocamento foi determinado por pontos de luz refletidos em espelhos montados nas esferas oscilantes. Como resultado deste experimento, Cavendish foi capaz de determinar com bastante precisão o valor da constante gravitacional e calcular a massa da Terra pela primeira vez.

5. Experiência de Jean Bernard Foucault

O físico francês Jean Bernard Leon Foucault provou experimentalmente a rotação da Terra em torno de seu eixo em 1851 usando um pêndulo de 67 metros suspenso no topo da cúpula do Panteão parisiense. O plano de oscilação do pêndulo permanece inalterado em relação às estrelas. Um observador localizado na Terra e girando com ela vê que o plano de rotação está girando lentamente na direção oposta à direção de rotação da Terra.

6. Experiência de Isaac Newton

Em 1672, Isaac Newton realizou um experimento simples que está descrito em todos os livros escolares. Depois de fechar as venezianas, fez nelas um pequeno buraco por onde passava um raio de sol. Um prisma foi colocado no caminho do feixe e uma tela foi colocada atrás do prisma.

Na tela, Newton observou um “arco-íris”: um raio branco de luz solar, passando por um prisma, transformou-se em vários raios coloridos - do violeta ao vermelho. Este fenômeno é chamado de dispersão da luz. Sir Isaac não foi o primeiro a observar este fenômeno. Já no início de nossa era se sabia que grandes monocristais de origem natural têm a propriedade de decompor a luz em cores. Os primeiros estudos de dispersão de luz em experimentos com prisma triangular de vidro, ainda antes de Newton, foram realizados pelo inglês Hariot e pelo naturalista tcheco Marzi.

No entanto, antes de Newton, tais observações não foram submetidas a análises sérias, e as conclusões tiradas com base nelas não foram verificadas por experimentos adicionais. Tanto Hariot quanto Marzi permaneceram seguidores de Aristóteles, que argumentava que as diferenças de cor são determinadas pelas diferenças na quantidade de escuridão “misturada” com a luz branca. A cor violeta, segundo Aristóteles, ocorre quando a escuridão é adicionada à maior quantidade de luz, e o vermelho - quando a escuridão é adicionada à menor quantidade. Newton realizou experimentos adicionais com prismas cruzados, quando a luz passava por um prisma e depois passava por outro. Com base na totalidade de seus experimentos, ele concluiu que “nenhuma cor surge da mistura de branco e preto, exceto as escuras intermediárias, a quantidade de luz não altera a aparência da cor”. Ele mostrou que a luz branca deveria ser considerada um composto. As cores principais vão do roxo ao vermelho. Esta experiência de Newton serve como um exemplo notável de como diferentes pessoas, observando o mesmo fenómeno, interpretam-no de forma diferente, e apenas aqueles que questionam a sua interpretação e conduzem experiências adicionais chegam às conclusões corretas.

7. Experiência de Thomas Young

Até o início do século XIX prevaleciam as ideias sobre a natureza corpuscular da luz. A luz era considerada composta por partículas individuais - corpúsculos. Embora os fenômenos de difração e interferência da luz tenham sido observados por Newton (“anéis de Newton”), o ponto de vista geralmente aceito permaneceu corpuscular. Olhando as ondas na superfície da água a partir de duas pedras atiradas, você pode perceber como, sobrepostas, as ondas podem interferir, ou seja, anular-se ou reforçar-se mutuamente. Com base nisso, o físico e médico inglês Thomas Young realizou experimentos em 1801 com um feixe de luz que passava por dois orifícios de uma tela opaca, formando assim duas fontes de luz independentes, semelhantes a duas pedras atiradas na água. Como resultado, ele observou um padrão de interferência que consistia em franjas alternadas de escuro e branco, que não poderia ser formado se a luz consistisse em corpúsculos. As listras escuras correspondiam a áreas onde as ondas de luz das duas fendas se anulavam. Listras claras apareceram onde as ondas de luz se reforçavam mutuamente. Assim, a natureza ondulatória da luz foi comprovada.

8. Experiência de Klaus Jonsson

O físico alemão Klaus Jonsson conduziu um experimento em 1961 semelhante ao experimento de Thomas Young sobre a interferência da luz. A diferença era que em vez de raios de luz, Jonsson usava feixes de elétrons. Ele obteve um padrão de interferência semelhante ao que Young observou para as ondas de luz. Isso confirmou a correção das disposições da mecânica quântica sobre a natureza mista das ondas corpusculares das partículas elementares.

9. Experiência de Robert Millikan

A ideia de que a carga elétrica de qualquer corpo é discreta (isto é, consiste em um conjunto maior ou menor de cargas elementares que não estão mais sujeitas à fragmentação) surgiu no início do século XIX e foi apoiada por físicos famosos como M Faraday e G. Helmholtz. O termo “elétron” foi introduzido na teoria, denotando uma determinada partícula - portadora de uma carga elétrica elementar. Este termo, entretanto, era puramente formal naquela época, uma vez que nem a partícula em si nem a carga elétrica elementar a ela associada haviam sido descobertas experimentalmente.

Em 1895, K. Roentgen, durante experimentos com um tubo de descarga, descobriu que seu ânodo, sob a influência dos raios que voam do cátodo, era capaz de emitir seus próprios raios X, ou raios Roentgen. No mesmo ano, o físico francês J. Perrin provou experimentalmente que os raios catódicos são um fluxo de partículas carregadas negativamente. Mas, apesar do colossal material experimental, o elétron permaneceu uma partícula hipotética, uma vez que não houve um único experimento em que os elétrons individuais participassem. O físico americano Robert Millikan desenvolveu um método que se tornou um exemplo clássico de experimento físico elegante.

Millikan conseguiu isolar várias gotas carregadas de água no espaço entre as placas de um capacitor. Ao iluminar com raios X, foi possível ionizar levemente o ar entre as placas e alterar a carga das gotículas. Quando o campo entre as placas foi ativado, a gota subiu lentamente sob a influência da atração elétrica. Quando o campo foi desligado, ficou sob a influência da gravidade. Ao ligar e desligar o campo, foi possível estudar cada uma das gotas suspensas entre as placas por 45 segundos, após os quais evaporaram. Em 1909, foi possível determinar que a carga de qualquer gota era sempre um múltiplo inteiro do valor fundamental e (carga do elétron). Esta foi uma evidência convincente de que os elétrons eram partículas com a mesma carga e massa. Ao substituir gotas de água por gotas de óleo, Millikan conseguiu aumentar a duração das observações para 4,5 horas e em 1913, eliminando uma a uma possíveis fontes de erro, publicou o primeiro valor medido da carga do elétron: e = (4,774 ± 0,009 ) x 10-10 unidades eletrostáticas.

10. Experiência de Ernst Rutherford

No início do século 20, ficou claro que os átomos consistem em elétrons carregados negativamente e algum tipo de carga positiva, devido ao qual o átomo permanece geralmente neutro. No entanto, havia demasiadas suposições sobre o aspecto deste sistema “positivo-negativo”, ao mesmo tempo que faltavam claramente dados experimentais que permitissem fazer uma escolha a favor de um ou outro modelo.

A maioria dos físicos aceitou o modelo de J.J. Thomson: um átomo como uma bola positiva uniformemente carregada com um diâmetro de aproximadamente 10-8 cm com elétrons negativos flutuando em seu interior. Em 1909, Ernst Rutherford (assistido por Hans Geiger e Ernst Marsden) conduziu um experimento para compreender a estrutura real do átomo. Neste experimento, partículas alfa pesadas com carga positiva movendo-se a uma velocidade de 20 km/s passaram por uma fina folha de ouro e foram espalhadas em átomos de ouro, desviando-se da direção original do movimento. Para determinar o grau de desvio, Geiger e Marsden tiveram que usar um microscópio para observar os flashes na placa cintiladora que ocorreram onde a partícula alfa atingiu a placa. Ao longo de dois anos, cerca de um milhão de explosões foram contadas e foi comprovado que aproximadamente uma partícula em 8.000, como resultado do espalhamento, muda sua direção de movimento em mais de 90° (ou seja, volta). Isto não poderia acontecer no átomo “solto” de Thomson. Os resultados apoiaram claramente o chamado modelo planetário do átomo - um núcleo minúsculo e massivo medindo cerca de 10-13 cm e elétrons girando em torno deste núcleo a uma distância de cerca de 10-8 cm.