O que os físicos experimentais fazem no CERN. Bielo-russo sobre o trabalho no Grande Colisor de Hádrons

[[K: Wikipedia: Artigos sem fontes (país: Erro de Lua: callParserFunction: a função "#property" não foi encontrada. )]] [[K: Wikipedia: Artigos sem fontes (país: Erro de Lua: callParserFunction: a função "#property" não foi encontrada. )]]

Física Experimental- uma forma de conhecer a natureza, que consiste no estudo dos fenômenos naturais em condições especialmente preparadas. Ao contrário da física teórica, que explora modelos matemáticos da natureza, a física experimental é projetada para investigar a própria natureza.

É o desacordo com o resultado do experimento que é o critério da falácia da teoria física, ou mais precisamente, da inaplicabilidade da teoria ao nosso mundo. O inverso não é verdadeiro: a concordância com o experimento não pode ser prova da correção (aplicabilidade) de uma teoria. Ou seja, o principal critério para a viabilidade de uma teoria física é a verificação por experimento.

Esse papel agora óbvio do experimento foi realizado apenas por Galileu e pesquisadores posteriores, que tiraram conclusões sobre as propriedades do mundo com base em observações do comportamento de objetos em condições especiais, ou seja, eles montaram experimentos. Observe que isso é completamente oposto, por exemplo, à abordagem dos antigos gregos: a fonte do verdadeiro conhecimento sobre a estrutura do mundo parecia-lhes apenas pensamento, e a "experiência sensorial" era considerada sujeita a numerosos enganos e incertezas, e portanto, não poderia reivindicar ser conhecimento verdadeiro.

Idealmente, a física experimental deve apenas dar Descrição resultados experimentais, sem qualquer interpretações... Na prática, entretanto, isso é inatingível. A interpretação dos resultados de um experimento mais ou menos complexo inevitavelmente depende do fato de que temos uma compreensão de como todos os elementos da configuração experimental se comportam. Esse entendimento, por sua vez, não pode deixar de se apoiar em qualquer teoria. Assim, experimentos em física de acelerador de partículas elementares - um dos mais difíceis em toda a física experimental - podem ser interpretados como um estudo real das propriedades das partículas elementares somente após as propriedades mecânicas e elásticas de todos os elementos do detector, sua resposta a campos elétricos e magnéticos, propriedades de gases residuais em uma câmara de vácuo, distribuição de campo elétrico e deriva de íons em câmaras proporcionais, processos de ionização de matéria, etc. 1

Escreva uma resenha sobre o artigo "Física Experimental"

Trecho Caracterizando Física Experimental

Então eu ainda não sabia nada sobre a morte clínica, nem sobre os túneis luminosos que surgiram durante ela. Mas o que aconteceu a seguir foi muito parecido com todas aquelas histórias de mortes clínicas que muito depois consegui ler em diferentes livros, já morando na longínqua América ...
Senti que, se não respirasse agora, meus pulmões simplesmente explodiriam e provavelmente morreria. Ficou muito assustador, estava ficando escuro nos meus olhos. De repente, um flash brilhante passou pela minha cabeça, e todos os sentimentos desapareceram em algum lugar ... Um túnel azul transparente e incrivelmente brilhante apareceu, como se tudo fosse tecido a partir das menores estrelas prateadas em movimento. Eu pairava calmamente dentro dele, sem sentir sufocação nem dor, apenas pensando mentalmente na extraordinária sensação de felicidade absoluta, como se finalmente tivesse encontrado o lugar do meu sonho tão esperado. Foi muito calmo e bom. Todos os sons desapareceram, eu não queria me mover. O corpo ficou muito leve, quase sem peso. Provavelmente, naquele momento eu estava morrendo ...
Eu vi algumas figuras humanas muito bonitas, luminosas e transparentes se aproximando de mim lenta e suavemente ao longo do túnel. Todos sorriram afetuosamente, como se convocassem para juntar-se a eles ... Já estava estendendo a mão para eles ... quando de repente uma enorme mão luminosa apareceu de algum lugar, que me agarrou por baixo e, como um grão de areia, começou rapidamente a subir à superfície. O cérebro explodiu com o surgimento de sons agudos, como se uma partição protetora tivesse repentinamente estourado em minha cabeça ... Fui lançado à superfície como uma bola ... e ensurdecido por uma verdadeira cachoeira de cores, sons e sensações, que para alguns a razão foi percebida por mim agora muito mais brilhante do que era familiar.
Houve um verdadeiro pânico na praia ... Os meninos vizinhos, gritando alguma coisa, acenaram expressivamente com as mãos, apontando na minha direção. Alguém estava tentando me puxar para a margem. E então tudo nadou, girou em algum redemoinho louco, e minha pobre e sobrecarregada consciência flutuou em completo silêncio ... Quando eu gradualmente "recuperei a consciência", os caras ficaram ao meu redor com os olhos arregalados de horror, e todos juntos de alguma forma pareciam o mesmas corujas assustadas ... Era evidente que todo esse tempo eles estavam quase em um verdadeiro choque de pânico, e aparentemente mentalmente já tiveram tempo de me "enterrar". Eu tentei fingir um sorriso e, ainda engasgando com um caloroso água do rio, com dificuldade forçado a fora que tudo estava bem comigo, embora eu naturalmente não estava em qualquer ordem naquele momento.

Muitos livros? Você pode esclarecer livros solicitando "Física Experimental" (o número de livros para esta especificação é mostrado entre colchetes)

Alternar estilo de exibição:

Teoria molecular de adsorção em corpos porosos

Ausente

Processos em corpos porosos formam a base de muitos processos tradicionais e tecnologias modernas: catalítico, sorção, membrana, eletroquímica, cromatográfica, purificação e separação de misturas líquidas e gasosas, condensação e dessorção capilar, filtração multifásica e pulverização, umedecimento ...

Ausente

A monografia apresenta os resultados generalizados de estudos teóricos e experimentais da interação da radiação laser com metais durante o corte a laser de materiais em folha. É dada atenção à construção de modelos físicos e matemáticos, tendo em conta a variedade de processos termofísicos, os principais e ...

Ausente

São apresentadas questões teóricas e aplicadas de aerodinâmica de aeronaves. São fornecidas informações sobre a cinemática e a dinâmica dos gases; são fornecidas as equações básicas da aerodinâmica, métodos analíticos e numéricos para o cálculo de vórtices, potenciais, planos, escoamentos espaciais e viscosos. Teorias com ...

Ausente

O livro contém tarefas e possíveis soluções da II Olimpíada Internacional de Física Experimental, que decorreu de 27 de novembro a 7 de dezembro de 2014 com base na equipa do Centro de Educação e Saúde Infantil da Instituição de Ensino Orçamental do Estado. A Olimpíada foi realizada para alunos do 8º ao 11º ano, incluindo três rodadas, para cada ...

Ausente

A monografia é dedicada a uma apresentação sistemática dos fundamentos da física dos campos eletromagnéticos flutuantes de sólidos e sua conexão com fenômenos fundamentais na natureza. Modelos teóricos modernos de campos térmicos e várias maneiras de descrever suas propriedades de correlação são apresentados a partir de uma posição unificada. H ...

Ausente

O livro é dedicado ao problema das transformações de fase em sólidos em alta pressão (HP). São considerados os seguintes aspectos: equilíbrio de fases a alta pressão em elementos (carbono, silício, germânio, titânio, zircônio, ferro, gálio, cério), em compostos I VII II VI III V tipo A B; A B; A B, em ligas no eixo ...

Ausente

A monografia investiga fluxos separados simétricos e assimétricos e seu rearranjo próximo a pares de corpos de várias formas em uma ampla gama de números de Mach e Reynolds. É feita uma análise de fluxos separados instáveis ​​próximos a vários corpos (esfera, topo, cone), na frente dos quais um corpo rotativo ou não rotativo é instalado ...

Ausente

A monografia apresenta os resultados de estudos experimentais de geração de elétrons pulsados ​​e feixes de íons de potência gigawatt em diodos com cátodo de emissão explosiva sob condições de rápida formação de plasma em toda a superfície de trabalho do cátodo. O mais importante processos físicos NS…

Ausente

São consideradas as principais características da radiação radiotérmica difusa e intrínseca de ambientes naturais. A análise de modelos eletrodinâmicos de várias superfícies da Terra e da atmosfera circundante é dada. Modelos de sinais de rádio de engenharia e suas características estatísticas no campo do registro de um ...

O livro contém descrições de estudos experimentais educacionais do fenômeno de reflexão interna total da fronteira de mídia opticamente homogênea e em camadas não homogênea. Dispositivos físicos simples e modelos são propostos. Consideradas experiências divertidas e instrutivas. Todos os experimentos estão disponíveis e podem ser ...

Ausente

O artigo resume os resultados dos estudos do estado do eletreto de compostos óxidos inorgânicos e orgânicos, considera a influência do estado do eletreto no desenvolvimento da polarização ferroelétrica e nas propriedades eletrofísicas dos ferroelétricos. Consideradas as questões de uso prático ...

Ausente

São apresentados os principais métodos de cálculo da distribuição da densidade de fluxos moleculares nas superfícies de instalações a vácuo. Os principais métodos de modelagem de condições de vácuo com uma dada densidade de fluxos moleculares são investigados. Por exemplos, o cálculo da distribuição da densidade de fluxos moleculares de acordo com p ...

Ausente

O livro resume os resultados de um estudo teórico da aceleração dos elétrons nos microtrons circulares e divididos clássicos, os resultados de experimentos para verificar conclusões teóricas e estudar as propriedades dos elétrons acelerados no microtron. Formas de usar microtron são consideradas ...

Ausente

São apresentados os resultados de estudos experimentais e teóricos de processos gasodinâmicos em canais. O estudo dos processos de fluxos separados permitiu revelar as principais regularidades, determinar os parâmetros de semelhança e construir sobre esta base modelos teóricos aproximados deste mais complexo ...

Ausente

O manual cobre questões relacionadas aos fundamentos da teoria quântica, características específicas de objetos quânticos e medições de precisão no caso de interferência de terceira ordem e auto-ação da luz em meios com não linearidade cúbica. Espalhamento paramétrico de luz em quantum e ...

Ausente

São apresentados os fundamentos da teoria da compressibilidade de meios condensados, o desenho e as características da técnica de carga explosiva e de choque, os princípios de operação de dispositivos de medição e registro para experimentos gasodinâmicos com substâncias condensadas. Algoritmos para encontrar características ...

Ausente

São consideradas várias classes de problemas inversos da mecânica de um sólido deformável - retrospectiva, contorno, coeficiente, geométrica, em que os coeficientes de operadores diferenciais, condições iniciais, gran ...

Ausente

A monografia resume os resultados de pesquisas realizadas pelo autor no campo da aerodinâmica de hélices e hélices movidas a hélice. São consideradas as características das hélices simples, coaxiais e de duas carreiras com diferentes números de pás em um anel perfilado e sem anel. As características do ar ...

Ausente

Modelos físicos, matemáticos e numéricos de interação de fluxos de plasma colisional e sem colisão com corpos introduzidos neles são considerados. Extensos experimentos computacionais foram realizados, como resultado dos quais as funções de distribuição de partículas carregadas no frontal, lateral e aqueles ...

Ausente

A principal característica do livro é o conceito multinível de apresentar os fatos experimentais mais importantes e os fundamentos da teoria dos fenômenos físicos, levando em consideração as conquistas científicas modernas. O livro inclui as seguintes seções principais: teoria eletromagnética da luz, emissão de luz, interferência, difração, disp ...

Ausente

O livro é o volume II da monografia "Aerogasdynamics of jet nozzles". É dedicado a resolver um problema tão importante como o controle de correntes separadas em áreas de domínio para reduzir o arrasto de fundo. Uma generalização de uma vasta quantidade, principalmente de dados experimentais, foi feita ...

Ausente

Esta monografia é dedicada à teoria de microcavidades ópticas de alto Q e sua aplicação em óptica linear, não linear, quântica e aplicada. Microcavidades ópticas com modos de galeria silenciosa, propostas pela primeira vez por cientistas russos, combinam exclusivamente um tamanho submilímetro com ...

Ausente

As questões de transferência de calor e massa durante o crescimento de monocristais de um fundido são destacadas. Modelos físicos e matemáticos dos processos de transferência de calor e formação de forma durante o crescimento de cristais de uma fusão são considerados. A principal atenção é dada ao estudo experimental e teórico dos processos de calor ...

Ausente

A monografia considera fundamentos metodológicos criação de sistemas técnicos complexos, resistentes aos efeitos de fatores desestabilizadores de várias naturezas físicas. No exemplo das aeronaves, é considerado o procedimento de avaliação computacional e experimental da durabilidade. É mostrado como, com base no desenvolvido ...

Ausente

A monografia é dedicada a uma variedade de fenômenos físicos e propriedades da matéria comprimida e aquecida em altas densidades de energia. São considerados métodos de geração, diagnóstico, bem como métodos teóricos para descrever o comportamento de uma substância a pressões e temperaturas extremamente altas obtidas em laboratório.

A monografia apresentada é dedicada ao problema do modelo e da pesquisa dinâmica experimental em escala real de estruturas de construção de usinas nucleares. O objetivo de tais estudos foi estudar os fenômenos dinâmicos nas estruturas de edifícios de usinas nucleares associados a vibrações tecnogênicas de vários tipos ...

Ausente

Os resultados de estudos predominantemente experimentais de processos de combustão, ignição / autoignição, deflagração rápida e detonação em sistemas combustíveis contendo hidrogênio são resumidos. Para a análise, selecionamos estudos em condições iniciais que são de interesse prático para os problemas de hidrogênio ...

Ausente

A monografia resume os resultados de pesquisas teóricas e experimentais no campo da física da fusão por contato de soluções sólidas com metais e transferência elétrica em camadas de contato. O mecanismo do estágio inicial de fusão por contato em nanoescala é considerado. O efeito de pequenas impurezas é descrito ...

Ausente

A monografia contém descrições de patentes de RF para invenções no campo de materiais e dispositivos detectores obtidas nos últimos 10 anos de desenvolvimento, que foram realizadas no Departamento de Física Experimental (EF) USTU-UPI em colaboração com outros departamentos e organizações, incluindo estrangeiros. Em conexão ...

Ausente

O livro trata do desenvolvimento de métodos para reproduzir em experimentos de laboratório as condições de voo orbital em termos da velocidade dos fluxos de partículas carregadas e neutras incidentes na aeronave, sua concentração e temperatura, e pesquisa em tais fluxos das características dos dispositivos , por exemplo ...

Ausente

O tutorial fornece um guia para realizar o experimento físico necessário e processar os resultados da medição. Contém descrições de trabalhos de laboratório nas seções "Movimento translacional", "Movimento rotacional", "Vibrações mecânicas" e "Forças elásticas". Esta publicação é ...

Ausente

O livro é dedicado à apresentação de muitos anos de experiência no desenvolvimento, criação e uso de instalações dinâmicas de gás de curto prazo para experimentos aerodinâmicos. Dado descrição detalhada estruturas de instalações gasodinâmicas desenvolvidas pelo autor para pesquisa experimental em ...

Ausente

São consideradas as versões mais simples aplicadas da teoria da deformação elastoplástica sob carregamento proporcional (simples) e não proporcional (complexo). Métodos para identificar funções materiais que fecham as variantes da teoria são apresentados. Analisou os resultados teóricos e experimentais ...

Ausente

O livro é uma introdução à ótica moderna de feixes gaussianos e aborda uma ampla gama de questões relacionadas à formação e transformação de campos de luz paraxiais, generalizando os feixes clássicos de Hermite Gauss e Laguerre-Gauss. A teoria de campos de luz estruturalmente estáveis ​​é apresentada pela primeira vez, em ...

Ausente

A monografia resume e sistematiza os resultados dos estudos de sistemas a jato para aumentar a elevação das asas, realizados na TsAGI, bem como publicados em publicações nacionais e estrangeiras nos últimos 30–40 anos. Os sistemas de controle da camada limite e circulação por t ...

Ausente

Com base em dados experimentais, o livro descreve um método para estudar nanoestruturas em camadas com base no uso de reflexo de espelho, transmissão, refração e espalhamento de nêutrons polarizados. Elementos da teoria da transmissão de nêutrons através de uma estrutura em camadas são apresentados com exemplos específicos ...

Ausente

O livro trata das questões de transferência de calor em sistemas nos quais, por diversos motivos, o calor é liberado (máquinas e aparelhos elétricos, aceleradores de partículas carregadas). O estudo dos processos de transferência de calor é realizado com base nas soluções analíticas exatas e aproximadas obtidas. Em cerca de ...

Ausente

A monografia é dedicada à descrição das propriedades físicas da superfície, métodos experimentais modernos de seu estudo e métodos teóricos para calcular a superfície e as características adesivas de vários materiais. São apresentados métodos desenvolvidos pelos autores que permitem, em boa concordância com o experimento ...

Ausente

Com base nas disposições básicas da eletrodinâmica, uma teoria autoconsistente de excitação e acoplamento de modos de guia de onda foi desenvolvida, aplicável a qualquer estrutura de guia de onda (fechada e aberta). Estruturas de guia de ondas contendo meios com meios isotrópicos, anisotrópicos e bianisotrópicos ...

Ausente

Apresentado por técnicas modernas São apresentadas medidas experimentais, dados sobre os fundamentos da construção de modelos matemáticos que descrevem os estados de uma suspensão de gás em combustão em várias características iniciais de turbulência, composições da suspensão de gás e parâmetros operacionais. Resultados experimentais são considerados.

Ausente

O artigo trata da questão do diagnóstico de inomogeneidades do ambiente aquático utilizando uma antena paramétrica hidroacústica. Neste caso, as não homogeneidades do meio aquoso têm uma forma geometricamente regular: uma esfera, um cilindro e um esferóide. Os processos ondulatórios são estudados teórica e experimentalmente, sobre ...

Ausente

A monografia considera uma série de questões relacionadas aos problemas de descrição e certificação experimental de limites individuais e conjuntos de contornos de grão em policristais, bem como estudos de seu papel em processos como difusão de contorno de grão, relaxamento e crescimento de grão. Foi feita uma tentativa de construir um ...

Ausente

O livro didático é a primeira parte da série “Curso Universitário de Física Geral”, destinada a alunos de especialidades físicas de universidades. Sua característica distintiva é o conceito multinível de apresentação dos fatos experimentais mais importantes e fundamentos da teoria dos fenômenos físicos, levando em conta ...

Ausente

A monografia considera as questões da combustão de combustível em motores térmicos para diversos fins, o impacto de seus produtos de combustão nos seres humanos e no meio ambiente. São descritos os mecanismos de formação de substâncias tóxicas durante a combustão e as formas de redução de sua emissão. Um método para calcular a composição de equilíbrio dos produtos ...

Ausente

O livro descreve os resultados de um estudo das propriedades fundamentais, estrutura e dinâmica dos estados intermediários e mistos de supercondutores de tipo I e II de baixa e alta temperatura em relação a máquinas elétricas de um novo tipo. Mudança local no estado de fase de um supercondutor ...

Ausente

O livro didático é escrito de acordo com o conteúdo das Normas Estaduais de Educação, o programa do workshop (seção "Métodos bioquímicos de análise"), o programa da disciplina "Fundamentos químicos e métodos de análise de sistemas vivos", o programa de a disciplina "Biotecnologia e a organização de atividades analíticas ...

Ausente

Os resultados da sistematização de estudos de trocas convectivas de calor de aeronaves na fase atmosférica de voo, inclusive levando em consideração a influência da tridimensionalidade do escoamento, processos físico-químicos de desequilíbrio no gás e na superfície do veículo, laminar - transição turbulenta da fronteira ...

Ausente

O livro apresenta os resultados de estudos experimentais dos mecanismos de ocorrência de um regime de combustão instável em câmaras de combustão modelo. Os mecanismos de emissão de vibrações sonoras por carga modulada, as questões de diagnóstico e controlo da instabilidade de combustão por meio eléctrico ...

Ausente

Este livro é dedicado à descoberta e ao estudo de um novo efeito - deriva induzida, causada pela ação de campos elétricos e magnéticos periódicos em soluções salinas estruturadas em dielétricos polares líquidos. Ele contém informações de natureza experimental e teórica.

Ausente

As possibilidades e o estado atual da pesquisa de plasma de baixa temperatura pelos métodos de espectroscopia clássica e a laser são descritos. As questões de interpretação física dos resultados da aplicação dos métodos de emissão, absorção, refração e espalhamento de luz a plasma termicamente sem equilíbrio, seus ...

Ausente

Palestras selecionadas do notável físico americano, laureado premio Nobel R. Feynman. Eles consideram as etapas da formação da física moderna e seus conceitos, a relação da física com outras ciências, a teoria da gravitação, a mecânica quântica, a simetria das leis da física, uma teoria especial de rel ...

Ausente

O livro é dedicado a um estudo experimental da relação entre a estrutura quase ordenada de uma camada limite turbulenta e as características médias tradicionalmente medidas do fluxo na camada limite. O mecanismo de renovação de fluxo periódico em uma subcamada viscosa de uma camada limite turbulenta é considerado.

Ausente

Um novo método experimental para medir a temperatura de objetos aquecidos a partir de um espectro contínuo de radiação térmica registrado em uma ampla faixa de comprimentos de onda (por exemplo, de 200 a 1000 nm) é considerado. As vantagens da pirometria espectral sobre os métodos tradicionais de brilho e c ...

Ausente

Os termos e conceitos modernos da área de tratamento de pressão são apresentados. A essência física das operações modernas mais comuns de tratamento de pressão é exposta, suas capacidades tecnológicas são consideradas, as dependências para o cálculo dos principais parâmetros tecnológicos são fornecidas. Esquemas são apresentados sobre ...

Perfis experimentais de ondas de choque em matéria condensada

Física experimental - Shutov V.I.., V.G. Sukhov, D.V. Podlesny. - 2005

São descritos os trabalhos experimentais incluídos no programa de liceus de física e matemática no âmbito de um workshop de física. O manual é uma tentativa de criar um manual unificado para a realização de exercícios práticos em aulas e escolas com estudos avançados de física, bem como para a preparação de rodadas experimentais de olimpíadas de alto nível.
O material introdutório é tradicionalmente dedicado a métodos de processamento de dados experimentais. A descrição de cada trabalho experimental começa com uma introdução teórica. Na parte experimental, são fornecidas descrições de instalações e tarefas experimentais que regulam a sequência dos trabalhos dos alunos durante as medições. Fornece planilhas de amostra para registrar resultados de medição, recomendações para métodos de processamento e apresentação de resultados e requisitos para relatórios. No final das descrições, são propostas questões de controlo, cujas respostas os alunos deverão preparar para a defesa do trabalho.
Para escolas e turmas com estudos avançados de física.

Introdução.

Erros de quantidades físicas. Processamento de resultados de medição.

Trabalho prático 1. Medir o volume de corpos de forma regular.
Trabalho prático 2. Investigação do movimento retilíneo de corpos no campo gravitacional na máquina de Atwood.
Trabalho prático 3. Fricção a seco. Determinação do coeficiente de atrito de deslizamento.
Uma introdução teórica para trabalhar as oscilações.
Trabalho prático 4. Estudo das oscilações de uma mola de pêndulo.
Trabalho prático 5. Estudo das oscilações de um pêndulo matemático. Determinação da aceleração da gravidade.
Trabalho prático 6. Estudo das oscilações de um pêndulo físico.
Trabalho prático 7. Determinação dos momentos de inércia de corpos de forma regular pelo método das vibrações de torção.
Trabalho prático 8. Estudo das leis de rotação de um corpo rígido sobre um pêndulo cruciforme de Oberbeck.
Trabalho prático 9. Determinação da razão das capacidades térmicas molares do ar.
Trabalho prático 10. Ondas estacionárias. Medida da velocidade de uma onda em uma corda elástica.
Trabalho prático 11. Determinação da relação cp / c ι? para o ar em uma onda sonora estacionária.
Trabalho prático 12. Estudo do trabalho de um osciloscópio eletrónico.
Trabalho prático 13. Medição da frequência de vibração através do exame das figuras de Lissajous.
Trabalho prático 14. Determinação da resistividade de fio de nicrómio.
Trabalho prático 15. Determinação da resistência de condutores pelo método de compensação de Wheatstone.
Trabalho prático 16. Processos transitórios no condensador. Determinação da capacidade.
Trabalho prático 17. Determinação da intensidade do campo elétrico em um condutor cilíndrico com corrente.
Trabalho prático 18. Investigação do trabalho da fonte no circuito DC.
Trabalho prático 19. Estudo das leis de reflexão e refração da luz.
Trabalho prático 20. Determinação das distâncias focais das lentes convergentes e difusas.
Trabalho prático 21. O fenômeno da indução eletromagnética. Estudo do campo magnético do solenóide.
Trabalho prático 22. Investigação de oscilações amortecidas.
Trabalho prático 23. Estudo do fenómeno da ressonância em circuito de corrente alternada.
Trabalho prático 24. Difração de Fraunhofer na fenda. Medição da largura da fenda pelo "método da onda".
Trabalho prático 25. Difração de Fraunhofer. Rede de difração como dispositivo óptico.
Trabalho prático 26. Determinação do índice de refração do vidro pelo método das "ondas".
Trabalho prático 27. Determinação do raio de curvatura da lente na experiência com anéis de Newton.
Trabalho prático 28. Pesquisa de luz polarizada.

Baixe gratuitamente um e-book em um formato conveniente, assista e leia:
Baixe o livro Física Experimental - Shutov V.I., Sukhov V.G., Podlesny D.V. - 2005 - fileskachat.com, download rápido e gratuito.

Baixar djvu
Abaixo, você pode comprar este livro em melhor preço com desconto com entrega em toda a Rússia.

I. Assunto e estrutura da física

A física é uma ciência que estuda as leis mais simples e, ao mesmo tempo, as mais gerais dos fenômenos naturais, as propriedades e a estrutura da matéria e as leis de seu movimento. Portanto, os conceitos da física e suas leis são a base de todas as ciências naturais. A física pertence às ciências exatas e estuda as leis quantitativas dos fenômenos.

A palavra "F." vem do grego. ph? sis - natureza. Inicialmente, na era da cultura antiga, a ciência não estava dividida e abrangia todo o corpo de conhecimento sobre os fenômenos naturais. À medida que o conhecimento e os métodos de pesquisa se diferenciavam, as ciências individuais, incluindo F., emergiram da ciência geral da natureza. As fronteiras que separam F. de outras ciências naturais são amplamente arbitrárias e mudam com o tempo.

Em sua essência, a física é uma ciência experimental: suas leis são baseadas em fatos empiricamente estabelecidos. Essas leis são relações quantitativas e são formuladas em linguagem matemática. É feita uma distinção entre física experimental - experimentos conduzidos para descobrir novos fatos e testar leis físicas conhecidas, e física teórica, cujo propósito é formular as leis da natureza e explicar fenômenos específicos com base nessas leis, também quanto a prever novos fenômenos. No estudo de qualquer fenômeno, experiência e teoria são igualmente necessárias e inter-relacionadas.

De acordo com a variedade de objetos em estudo e formas de movimento da matéria física, a física é subdividida em várias disciplinas (seções) que estão mais ou menos relacionadas entre si. A divisão de F. em disciplinas separadas não é inequívoca e pode ser realizada, orientada por critérios diferentes... De acordo com os objetos em estudo, a física é dividida em fase das partículas elementares, fase do núcleo, fase dos átomos e moléculas, fase dos gases e líquidos, fase dos sólidos e fase do plasma. Dr. critério - os processos estudados ou formas de movimento da matéria. Distinguir: movimento mecânico, processos térmicos, fenômenos eletromagnéticos, interações gravitacionais, fortes, fracas; Consequentemente, a física inclui a mecânica dos pontos materiais e sólidos, a mecânica dos meios contínuos (incluindo a acústica), a termodinâmica e a mecânica estatística, a eletrodinâmica (incluindo a óptica), a teoria da gravitação, a mecânica quântica e a teoria do campo quântico. As subdivisões da física indicadas se sobrepõem parcialmente devido a uma profunda relação interna entre os objetos do mundo material e os processos dos quais eles participam. A física aplicada (por exemplo, óptica aplicada) às vezes também é distinguida para fins de pesquisa.

A doutrina das oscilações e ondas distingue-se especialmente na física, o que se deve à generalidade das leis que regem os processos oscilatórios de várias naturezas físicas e métodos de seu estudo. Lida com vibrações e ondas mecânicas, acústicas, elétricas e ópticas de um único ponto de vista.

A física moderna contém um pequeno número de teorias físicas fundamentais que abrangem todas as seções da física. Essas teorias representam a quintessência do conhecimento sobre a natureza dos processos e fenômenos físicos, um reflexo aproximado, mas mais completo, de várias formas de movimento da matéria na natureza.

II. As principais etapas do desenvolvimento da física

Formação da física (até ao século XVII). Os fenômenos físicos do mundo circundante há muito atraem a atenção das pessoas. As tentativas de uma explicação causal desses fenômenos precederam a criação de F. no sentido moderno da palavra. No mundo greco-romano (século VI aC - estática 2c (a regra da alavanca), a lei da propagação retilínea e a lei da reflexão da luz foram descobertas, os princípios da hidrostática (lei de Arquimedes) foram formulados, as manifestações mais simples de eletricidade e magnetismo foram observados.

Resultado dos conhecimentos adquiridos no século IV. AC NS. foi decepcionado por Aristóteles. A física de Aristóteles incluía certas disposições corretas, mas ao mesmo tempo carecia de muitas das idéias progressistas de seus predecessores, em particular a hipótese atômica. Reconhecendo a importância da experiência, Aristóteles não a considerou o principal critério para a confiabilidade do conhecimento, dando preferência às representações especulativas. Na Idade Média, os ensinamentos de Aristóteles, canonizados pela Igreja, retardaram por muito tempo o desenvolvimento da ciência.

A ciência reviveu apenas nos séculos 15 e 16. na luta contra os ensinamentos escolásticos de Aristóteles. Em meados do século XVI. N. Copérnico apresentou o sistema heliocêntrico do mundo e lançou as bases para a libertação das ciências naturais da teologia. As necessidades de produção, o desenvolvimento do artesanato, a navegação e a artilharia estimularam a pesquisa científica baseada na experiência. No entanto, nos séculos 15-16. a pesquisa experimental era principalmente aleatória. Somente no século XVII. a aplicação sistemática do método experimental começou na física, e isso levou à criação da primeira teoria física fundamental, a mecânica clássica de Newton.

Formação da física como ciência (início do século 17 ao final do século 18)

O desenvolvimento da física como ciência no sentido moderno da palavra remonta aos trabalhos de G. Galileo (primeira metade do século 17), que entendeu a necessidade de uma descrição matemática do movimento. Ele mostrou que o impacto dos corpos circundantes em um determinado corpo determina não a velocidade, como se acreditava na mecânica de Aristóteles, mas a aceleração do corpo. Essa afirmação foi a primeira formulação da lei da inércia. Galileu descobriu o princípio da relatividade na mecânica (ver o princípio da relatividade de Galileu), provou a independência da aceleração da gravidade dos corpos de sua densidade e massa e fundamentou a teoria de Copérnico. Resultados significativos foram obtidos por ele e em outras áreas de F. Ele construiu um telescópio com grande ampliação e fez com sua ajuda uma série de descobertas astronômicas (montanhas na lua, satélites de Júpiter, etc.). O estudo quantitativo dos fenômenos térmicos começou após a invenção do primeiro termômetro por Galilsem.

Na primeira metade do século XVII. o estudo bem-sucedido dos gases começou. O aluno de Galileu, E. Torricelli, estabeleceu a existência da pressão atmosférica e criou o primeiro barômetro. R. Boyle e E. Marriott investigaram a elasticidade dos gases e formularam a primeira lei dos gases com seu nome. W. Snellius e R. Descartes descobriram a lei da refração da luz. Ao mesmo tempo, um microscópio foi criado. Um avanço significativo no estudo dos fenômenos magnéticos foi dado no início do século XVII. W. Hilbert. Ele provou que a Terra é um grande ímã, e o primeiro estritamente distinguido entre fenômenos elétricos e magnéticos.

A principal conquista do século 17 F. foi a criação da mecânica clássica. Desenvolvendo as idéias de Galileu, H. Huygens e outros predecessores, I. Newton em seu trabalho "Mathematical Principles of Natural Philosophy" (1687) formulou todas as leis básicas desta ciência (ver as leis da mecânica de Newton). Na construção da mecânica clássica, o ideal da teoria científica, que ainda existe hoje, foi incorporado pela primeira vez. Com o advento da mecânica newtoniana, foi finalmente compreendido que a tarefa da ciência é encontrar as leis da natureza formuladas quantitativamente mais gerais.

A mecânica newtoniana obteve o maior sucesso ao explicar o movimento dos corpos celestes. Partindo das leis do movimento planetário, estabelecidas por I. Kepler com base nas observações de T. Brahe, Newton descobriu a lei da gravitação universal (ver a lei da gravitação de Newton). Com a ajuda dessa lei, foi possível com notável precisão calcular o movimento da lua, planetas e cometas do sistema solar, para explicar a vazante e o fluxo no oceano. Newton aderiu ao conceito de ação de longo alcance, segundo o qual a interação dos corpos (partículas) ocorre instantaneamente, diretamente através do vazio; as forças de interação devem ser determinadas experimentalmente. Ele foi o primeiro a formular claramente os conceitos clássicos de espaço absoluto como um receptáculo de matéria, independente de suas propriedades e movimento, e tempo absoluto de fluxo uniforme. Até a criação da teoria da relatividade, esses conceitos não sofreram alterações.
Ao mesmo tempo, Huygens e G. Leibniz formularam a lei da conservação do momento; Huygens criou a teoria de um pêndulo físico, construiu um relógio com um pêndulo.

O desenvolvimento da acústica física começou. M. Mersenne mediu o número de vibrações naturais de uma corda que soava e pela primeira vez determinou a velocidade do som no ar. Newton teoricamente derivou uma fórmula para a velocidade do som.

Na segunda metade do século XVII. A ótica geométrica começou a se desenvolver rapidamente quando aplicada ao projeto de telescópios e outros instrumentos óticos, e as bases da ótica física também foram estabelecidas. F. Grimaldi descobriu a difração da luz, e Newton realizou pesquisa básica dispersão de luz. A espectroscopia óptica começou com esses trabalhos de Newton. Em 1676, O. K. Roemer mediu a velocidade da luz pela primeira vez. Quase simultaneamente, duas teorias diferentes sobre a natureza física da luz surgiram e começaram a se desenvolver - corpuscular e ondulatória (veja Óptica). De acordo com a teoria corpuscular de Newton, a luz é um fluxo de partículas que se move de uma fonte em todas as direções. Huygens lançou as bases da teoria ondulatória da luz, segundo a qual a luz é um fluxo de ondas que se propagam em um meio hipotético especial - o éter, que preenche todo o espaço e penetra em todos os corpos.

Assim, no século XVII. Em geral, a mecânica clássica foi construída e as pesquisas começaram em outros campos da física: óptica, o estudo de fenômenos elétricos e magnéticos, calor e acústica.

No século XVIII. o desenvolvimento da mecânica clássica, em particular da mecânica celeste, continuou. Por uma pequena anomalia no movimento do planeta Urano, foi possível prever a existência de um novo planeta - Netuno (descoberto em 1846). A confiança na validade da mecânica newtoniana tornou-se universal. Com base na mecânica, foi criada uma imagem mecânica unificada do mundo, segundo a qual toda a riqueza, toda a diversidade qualitativa do mundo é o resultado das diferenças no movimento das partículas (átomos) que constituem o corpo, movimento que obedece às leis de Newton. Por muitos anos esse quadro exerceu forte influência no desenvolvimento da física, uma explicação de um fenômeno físico era considerada científica e completa se pudesse ser reduzida à ação das leis da mecânica.

Um estímulo importante para o desenvolvimento da mecânica foram as demandas de desenvolvimento da produção. Nas obras de L. Euler e outros, foi desenvolvida a dinâmica de um corpo absolutamente rígido. Paralelamente ao desenvolvimento da mecânica das partículas e sólidos, procedeu-se ao desenvolvimento da mecânica dos líquidos e gases. As obras de D. Bernoulli, Euler, J. Lagrange e outros na primeira metade do século XVIII. foram estabelecidas as bases da hidrodinâmica de um fluido ideal - um fluido incompressível desprovido de viscosidade e condutividade térmica. Na Mecânica Analítica de Lagrange (1788), as equações da mecânica são apresentadas de uma forma tão generalizada que posteriormente foi possível aplicá-las a processos não mecânicos, em particular eletromagnéticos.
Em outras áreas da física, os dados experimentais foram acumulados e as leis experimentais mais simples foram formuladas. C. F. Dufay descobriu a existência de dois tipos de eletricidade e determinou que corpos com o mesmo nome se repelem e corpos com cargas opostas se atraem. B. Franklin estabeleceu a lei de conservação de carga elétrica. G. Cavendish e, independentemente, S. Coulomb descobriram a lei básica da eletrostática, que determina a força de interação das cargas elétricas estacionárias (lei de Coulomb). A doutrina da eletricidade atmosférica surgiu. Franklin, M.V. Lomonosov e G.V. Rikhman provaram a natureza elétrica dos raios. Na óptica, o aprimoramento das lentes telescópicas continuou. Os trabalhos de P. Bouguer e I. Lambert começaram a criar fotometria. Raios infravermelhos (W. Herschel, cientista inglês W. Wollaston) e ultravioleta (cientista alemão N. Ritter, Wollaston) foram descobertos.

Progresso notável foi feito no estudo dos fenômenos térmicos; após a descoberta por J. Black do calor latente de fusão e prova experimental da conservação do calor em experimentos calorimétricos, eles começaram a distinguir entre temperatura e quantidade de calor. O conceito de capacidade térmica foi formulado e o estudo da condutividade térmica e da radiação térmica foi iniciado. Ao mesmo tempo, foram estabelecidas concepções incorretas sobre a natureza do calor: o calor passou a ser considerado um tipo especial de líquido indestrutível e sem peso - o calórico, capaz de fluir de corpos aquecidos para corpos frios. A teoria do calor, segundo a qual o calor é um tipo de movimento interno das partículas, sofreu uma derrota temporária, apesar de ter sido apoiada e desenvolvida por cientistas notáveis ​​como Newton, Hooke, Boyle, Bernoulli, Lomonosov e outros.

Física clássica (século 19)

No início do século XIX. a competição de longo prazo entre as teorias corpuscular e ondulatória da luz terminou na vitória aparentemente final da teoria ondulatória. Isso foi facilitado pela explicação bem-sucedida de T. Jung e O. Zh. Fresnel do fenômeno de interferência e difração de luz usando a teoria das ondas. Esses fenômenos são inerentes exclusivamente ao movimento das ondas, e parecia impossível explicá-los com a ajuda da teoria corpuscular. Ao mesmo tempo, obteve-se a prova decisiva da transversalidade das ondas de luz (Fresnel, D.F. Arago, Jung), descoberta já no século XVIII. (veja Polarização da luz). Considerando a luz como ondas transversais em um meio elástico (éter), Fresnel encontrou uma lei quantitativa que determina a intensidade das ondas de luz refratadas e refletidas quando a luz passa de um meio para outro (veja a fórmula de Fresnel), e também criou a teoria da birrefringência.

Grande importancia para o desenvolvimento de F. foi a descoberta de L. Galvani e A. Volta da corrente elétrica. A criação de poderosas fontes de corrente contínua - baterias galvânicas - possibilitou detectar e estudar as diversas ações da corrente. A ação química da corrente foi investigada (G. Davy, M. Faraday). V.V. Petrov recebeu um arco elétrico. A descoberta por H. K. Oersted (1820) da ação de uma corrente elétrica em uma agulha magnética comprovou a conexão entre eletricidade e magnetismo. Com base na unidade dos fenômenos elétricos e magnéticos, A. Ampere chegou à conclusão de que todos os fenômenos magnéticos são causados ​​pelo movimento de partículas carregadas - corrente elétrica. Em seguida, Ampère estabeleceu experimentalmente uma lei que determina a intensidade da interação das correntes elétricas (lei de Ampère).

Em 1831, Faraday descobriu o fenômeno da indução eletromagnética (ver. Indução eletromagnética). As tentativas de explicar esse fenômeno usando o conceito de ação de longo alcance encontraram dificuldades significativas. Faraday apresentou uma hipótese (antes mesmo da descoberta da indução eletromagnética), segundo a qual as interações eletromagnéticas são realizadas por meio de um agente intermediário - um campo eletromagnético (o conceito de ação de curto alcance). Este foi o início da formação de uma nova ciência sobre as propriedades e leis de comportamento de uma forma especial de matéria - o campo eletromagnético.

No início do século XIX. J. Dalton introduziu na ciência (1803) o conceito de átomos como as menores (indivisíveis) partículas de matéria - portadoras da individualidade química dos elementos.

No primeiro quarto do século XIX. a fundação foi lançada para a física do estado sólido. Durante os séculos 17-18 e início do 19o. houve um acúmulo de dados sobre as propriedades macroscópicas dos sólidos (metais, materiais técnicos, minerais, etc.) e o estabelecimento de leis empíricas do comportamento de um sólido sob a influência de influências externas (forças mecânicas, aquecimento, elétricas e magnéticas campos, luz, etc.) ... O estudo das propriedades elásticas levou à descoberta da lei de Hooke (1660), o estudo da condutividade elétrica dos metais - ao estabelecimento da lei de Ohm (1826), propriedades térmicas - a lei das capacidades térmicas de Dulong e Petit (1819) (ver a lei de Dulong e Petit). As principais propriedades magnéticas dos sólidos foram descobertas. Ao mesmo tempo, uma teoria geral das propriedades elásticas dos sólidos foi construída (L. MA Navier, 1819–26, OL Cauchy, 1830). Quase todos esses resultados são caracterizados pela interpretação de um sólido como um meio contínuo, embora já fosse reconhecido por uma parte significativa dos cientistas que os sólidos, em sua maioria cristais, possuem uma estrutura microscópica interna.
A descoberta da lei da conservação da energia, que vinculava todos os fenômenos naturais, foi de suma importância para a física e para todas as ciências naturais. Em meados do século XIX. empiricamente, a equivalência da quantidade de calor e trabalho, etc., foi provada. foi estabelecido que o calor não é uma substância hipotética sem peso - calórica, mas uma forma especial de energia. Na década de 40. século 19 Yu. R. Mayer, J. Joule e G. Helmholtz descobriram independentemente a lei da conservação e transformação da energia. A lei da conservação da energia passou a ser a lei básica da teoria dos fenômenos térmicos (termodinâmica), recebendo o nome de primeira lei da termodinâmica.

Mesmo antes da descoberta desta lei, S. Carnot em sua obra "Reflexões sobre a força motriz do fogo e sobre as máquinas capazes de desenvolver essa força" (1824) obteve resultados que serviram de base para outra lei fundamental da teoria do calor. - a segunda lei da termodinâmica. Esta lei foi formulada nas obras de R. Clausius (1850) e W. Thomson (1851). É uma generalização de dados experimentais que indicam a irreversibilidade dos processos térmicos na natureza, e determina a direção do possível processos de energia... Um papel significativo na construção da termodinâmica foi desempenhado pelos estudos de J.L. Gay-Lussac, com base nos quais B. Clapeyron encontrou a equação de estado para um gás ideal, que foi posteriormente generalizada por D.I.Mendeleev.

Simultaneamente com o desenvolvimento da termodinâmica, desenvolveu-se a teoria cinética molecular dos processos térmicos. Isso permitiu incluir os processos térmicos no quadro do quadro mecânico do mundo e levou à descoberta de um novo tipo de leis - as estatísticas, nas quais todas as conexões entre grandezas físicas são de natureza probabilística.

No primeiro estágio de desenvolvimento da teoria cinética do meio mais simples - gás - Joule, Clausius e outros calcularam os valores médios de várias quantidades físicas: a velocidade das moléculas, o número de suas colisões por segundo, a média livre caminho, etc. Foi obtida a dependência da pressão do gás com o número de moléculas por unidade de volume e a energia cinética média do movimento translacional das moléculas. Isso tornou possível abrir significado físico temperatura como uma medida da energia cinética média das moléculas.

O segundo estágio no desenvolvimento da teoria cinética molecular começou com o trabalho de J.C. Maxwell. Em 1859, quando introduziu pela primeira vez o conceito de probabilidade na física, ele encontrou a lei da distribuição de velocidade das moléculas (ver a distribuição de Maxwell). Depois disso, as possibilidades da teoria cinética molecular se expandiram enormemente e, posteriormente, levaram à criação da mecânica estatística. L. Boltzmann construiu uma teoria cinética dos gases e forneceu uma base estatística para as leis da termodinâmica. O principal problema, que Boltzmann conseguiu resolver em grande medida, era conciliar a natureza reversível no tempo do movimento das moléculas individuais com a irreversibilidade óbvia dos processos macroscópicos. Segundo Boltzmann, o equilíbrio termodinâmico do sistema corresponde à probabilidade máxima de um determinado estado. A irreversibilidade dos processos está associada à tendência dos sistemas ao estado mais provável. De grande importância foi seu teorema sobre a distribuição uniforme da energia cinética média ao longo dos graus de liberdade.

A mecânica estatística clássica foi completada nos trabalhos de J.W. Gibbs (1902), que criou um método para calcular funções de distribuição para quaisquer sistemas (não apenas gases) em um estado de equilíbrio termodinâmico. A mecânica estatística recebeu reconhecimento universal no século XX. após a criação por A. Einstein e M. Smoluchowski (1905–06) com base na teoria cinética molecular da teoria quantitativa do movimento browniano, confirmada nos experimentos de J. B. Perrin.

Na segunda metade do século XIX. o longo processo de estudar fenômenos eletromagnéticos foi concluído por Maxwell. Em sua obra principal "Um Tratado sobre Eletricidade e Magnetismo" (1873), ele estabeleceu as equações para o campo eletromagnético (que leva seu nome), que explicavam todos os fatos conhecidos na época de um único ponto de vista e tornavam possível prever novos fenômenos. Maxwell interpretou a indução eletromagnética como o processo de geração de um campo elétrico de vórtice por um campo magnético alternado. Em seguida, ele previu o efeito oposto - a geração de um campo magnético por um campo elétrico alternado (veja Corrente de deslocamento). O resultado mais importante da teoria de Maxwell foi a conclusão de que a velocidade de propagação das interações eletromagnéticas é finita, igual à velocidade da luz. A detecção experimental de ondas eletromagnéticas por GR Hertz (1886-1889) confirmou a validade desta conclusão. Decorreu da teoria de Maxwell que a luz é de natureza eletromagnética. Assim, a óptica tornou-se um dos ramos da eletrodinâmica. No final do século XIX. PN Lebedev descobriu e mediu experimentalmente a pressão da luz prevista pela teoria de Maxwell, e AS Popov foi o primeiro a usar ondas eletromagnéticas para comunicação sem fio.

No século 19. G. Kirchhoff e R. Bunsen lançaram as bases para a análise espectral (1859). O desenvolvimento da mecânica contínua também continuou. Na acústica, a teoria das vibrações e ondas elásticas foi desenvolvida (Helmholtz, J. W. Rayleigh e outros). Surgiu uma técnica para obtenção de baixas temperaturas. Todos os gases, exceto o hélio, foram obtidos no estado líquido, e no início do século XX. H. Kamerling-Onnes (1998) hélio liquefeito.
No final do século XIX. F. parecia quase completo para seus contemporâneos. Parecia que todos os fenômenos físicos podem ser reduzidos à mecânica das moléculas (ou átomos) e do éter. O éter era considerado um meio mecânico no qual fenômenos eletromagnéticos aconteciam. Um dos maiores físicos do século XIX. - W. Thomson prestou atenção a apenas dois fatos inexplicáveis: o resultado negativo da experiência de Michelson em detectar o movimento da Terra em relação ao éter e a dependência da capacidade calorífica dos gases com a temperatura, o que é incompreensível do ponto de vista de a teoria cinética molecular. No entanto, foram esses fatos que foram a primeira indicação da necessidade de revisão dos conceitos básicos da filosofia do século XIX. Para explicar esses e muitos outros fatos descobertos posteriormente, foi necessária a criação da teoria da relatividade e da mecânica quântica.
Física Relativística e Quântica. Física do núcleo atômico e das partículas elementares (finais do século 19 ao 20).

O início de uma nova era na física foi preparado com a descoberta do elétron por J. Thomson em 1897. Verificou-se que os átomos não são elementares, mas são sistemas complexos, que incluem elétrons. Um papel importante nesta descoberta foi desempenhado pelo estudo de descargas elétricas em gases.

No final do século 19 - início do século 20. H. Lorentz lançou as bases da teoria eletrônica. No início do século XX. ficou claro que a eletrodinâmica requer uma revisão radical dos conceitos de espaço e tempo, que são a base da mecânica newtoniana clássica. Em 1905, Einstein criou uma teoria da relatividade especial (especial) - uma nova teoria do espaço e do tempo. Esta teoria foi elaborada historicamente pelos trabalhos de Lorentz e A. Poincaré.

A experiência tem mostrado que o princípio da relatividade formulado por Galileu, segundo o qual os fenômenos mecânicos procedem da mesma forma em todos os referenciais inerciais, também é válido para os fenômenos eletromagnéticos. Portanto, as equações de Maxwell não devem mudar de forma (devem ser invariantes) ao passar de um referencial inercial para outro. No entanto, descobriu-se que isso só é verdade se as transformações das coordenadas e do tempo durante essa transição forem diferentes das transformações de Galileu, que são válidas na mecânica newtoniana. Lorentz encontrou essas transformações (transformações de Lorentz), mas não conseguiu dar-lhes a interpretação correta. Isso foi feito por Einstein em sua teoria da relatividade especial.

A descoberta da teoria da relatividade especial mostrou as limitações da imagem mecânica do mundo. As tentativas de reduzir os processos eletromagnéticos a processos mecânicos em um meio hipotético - o éter - se mostraram insustentáveis. Ficou claro que o campo eletromagnético é uma forma especial de matéria, cujo comportamento não obedece às leis da mecânica.
Em 1916, Einstein construiu a teoria geral da relatividade - a teoria física do espaço, tempo e gravitação. Essa teoria marcou uma nova etapa no desenvolvimento da teoria da gravitação.

Na virada dos séculos 19 e 20, antes mesmo da criação da teoria da relatividade especial, a maior revolução da física foi iniciada, ligada ao surgimento e desenvolvimento da teoria quântica.

No final do século XIX. descobriu-se que a distribuição da energia da radiação térmica ao longo do espectro, deduzida da lei da física estatística clássica sobre a distribuição uniforme da energia ao longo dos graus de liberdade, contradiz o experimento. Partiu-se da teoria de que a matéria deveria emitir ondas eletromagnéticas em qualquer temperatura, perder energia e resfriar até o zero absoluto, ou seja, que o equilíbrio térmico entre matéria e radiação é impossível. No entanto, a experiência cotidiana contradiz essa conclusão. Uma saída foi encontrada em 1900 por M. Planck, que mostrou que os resultados da teoria concordam com o experimento, se assumirmos, em contradição com a eletrodinâmica clássica, que os átomos emitem energia eletromagnética não continuamente, mas em porções separadas - quanta. A energia de cada quantum é diretamente proporcional à frequência, e o coeficiente de proporcionalidade é o quantum de ação h = 6,6? 10-27 erg? Sec, mais tarde chamado de constante de Planck.

Em 1905, Einstein expandiu a hipótese de Planck, sugerindo que a porção irradiada da energia eletromagnética se propaga e também é absorvida apenas como um todo, ou seja, se comporta como uma partícula (mais tarde foi chamada de fóton). Com base nessa hipótese, Einstein explicou as regularidades do efeito fotoelétrico, que não se enquadram no quadro da eletrodinâmica clássica.

Assim, a teoria corpuscular da luz foi revivida em um novo nível qualitativo. A luz se comporta como um fluxo de partículas (corpúsculos); porém, ao mesmo tempo, também possui propriedades de onda, que se manifestam, em particular, na difração e na interferência da luz. Conseqüentemente, as propriedades ondulatórias e corpusculares, incompatíveis do ponto de vista da física clássica, são igualmente inerentes à luz (dualismo da luz). A "quantização" da radiação levou à conclusão de que a energia dos movimentos intra-atômicos também pode mudar apenas em um salto. Esta conclusão foi feita por N. Bohr em 1913.

Nessa época, E. Rutherford (1911), com base em experimentos de espalhamento de partículas alfa pela matéria, descobriu o núcleo atômico e construiu um modelo planetário do átomo. No átomo de Rutherford, os elétrons se movem ao redor do núcleo da mesma forma que os planetas se movem ao redor do sol. No entanto, de acordo com a eletrodinâmica de Maxwell, tal átomo é instável: elétrons, movendo-se em órbitas circulares (ou elípticas), experimentam aceleração e, portanto, devem emitir continuamente ondas eletromagnéticas, perder energia e, gradualmente, aproximar-se do núcleo, no final (como cálculos mostrou, por um tempo de cerca de 10-8 segundos) cair sobre ele. Assim, a estabilidade dos átomos e seus espectros de linha se revelou inexplicável dentro da estrutura das leis clássicas de F. Bohr encontrou uma saída para essa dificuldade. Ele postulou que os átomos têm estados estacionários especiais nos quais os elétrons não são emitidos. A radiação ocorre durante a transição de um estado estacionário para outro. A discrição da energia do átomo foi confirmada pelos experimentos de J. Frank e H. Hertz (1913–14) no estudo de colisões com átomos de elétrons acelerados por um campo elétrico. Para o átomo mais simples - o átomo de hidrogênio - Bohr construiu uma teoria quantitativa do espectro de radiação, consistente com o experimento.

No mesmo período (final do século 19 - início do século 20), a física do estado sólido em seu entendimento moderno começou a se formar como a fotônica de sistemas condensados ​​de um grande número de partículas (~ 1022 cm - 3). Até 1925, seu desenvolvimento ocorria em duas direções: física da rede cristalina e física dos elétrons nos cristais, principalmente nos metais. Posteriormente, essas direções foram fechadas com base na teoria quântica.

O conceito de cristal como um conjunto de átomos ordenados no espaço e mantidos em equilíbrio pelas forças de interação passou por um longo caminho de desenvolvimento e foi finalmente formado no início do século XX. O desenvolvimento deste modelo começou com o trabalho de Newton (1686) no cálculo da velocidade do som em uma cadeia de partículas elasticamente ligadas e foi continuado por outros cientistas: D. e I. Bernoulli (1727), Cauchy (1830), W Thomson (1881) e outros.

No final do século XIX. ES Fedorov lançou as bases para a cristalografia teórica com seu trabalho sobre a estrutura e simetria dos cristais; Em 1890-91, ele provou a possibilidade da existência de 230 grupos de cristais de simetria espacial - tipos de arranjo ordenado de partículas em uma rede de cristal (os chamados grupos de Fedorov). Em 1912, M. Laue e seus colegas descobriram a difração de raios X por cristais, finalmente confirmando o conceito de um cristal como uma estrutura atômica ordenada. Com base nessa descoberta, foi desenvolvido um método para a determinação experimental do arranjo de átomos em cristais e a medição de distâncias interatômicas, que marcou o início da análise estrutural por raios-X [W. L. Bragg e W. G. Bragg (1913), G. W. Wolfe (1913)]. Nos mesmos anos (1907-1914), uma teoria dinâmica de redes cristalinas foi desenvolvida, já levando em consideração os conceitos quânticos. Em 1907, Einstein, usando um modelo de cristal como um conjunto de osciladores harmônicos quânticos de mesma frequência, explicou a queda observada na capacidade térmica dos sólidos com a diminuição da temperatura - fato que está em forte contradição com a lei de Dulong e Petit . Uma teoria dinâmica mais perfeita da rede cristalina como um conjunto de osciladores quânticos acoplados de várias frequências foi construída por P. Debye (1912), M. Born e T. Karman (1913) e E. Schrödinger (1914) em uma forma perto do moderno. Sua nova etapa importante começou após a criação da mecânica quântica.

A segunda direção (física do sistema de elétrons em um cristal) começou a se desenvolver imediatamente após a descoberta do elétron como a teoria eletrônica dos metais e outros sólidos. Nesta teoria, os elétrons em um metal eram considerados preenchedores estrutura de cristal um gás de elétrons livres, semelhante a um gás molecular rarefeito comum, obedecendo ao clássico. Estatísticas de Boltzmann. A teoria eletrônica tornou possível explicar as leis de Ohm e Wiedemann-Franz (P. Drude), lançou as bases para a teoria da dispersão da luz em cristais, etc. No entanto, nem todos os fatos se encaixam no quadro da eletrônica clássica teoria. Portanto, a dependência da resistividade dos metais com a temperatura não foi explicada, não ficou claro por que o gás do elétron não contribui de forma perceptível para a capacidade térmica dos metais, etc. Uma saída para essas dificuldades foi encontrada somente após a construção da mecânica quântica.

A primeira versão da teoria quântica criada por Bohr era internamente contraditória: usando as leis da mecânica newtoniana para o movimento dos elétrons, Bohr ao mesmo tempo impôs artificialmente restrições quânticas ao possível movimento dos elétrons que eram estranhos à física clássica.
A discretude de ação confiavelmente estabelecida e sua medida quantitativa - a constante h de Planck - uma constante mundial universal, desempenhando o papel da escala natural dos fenômenos naturais, exigia uma reestruturação radical das leis da mecânica e das leis da eletrodinâmica. As leis clássicas são válidas apenas quando se considera o movimento de objetos de massa suficientemente grande, quando os valores da dimensão da ação são grandes em comparação com he a discretividade da ação pode ser desprezada.

Na década de 20. século 20 a mais profunda e abrangente das teorias físicas modernas foi criada - mecânica quântica ou ondulatória - uma teoria não relativística consistente e logicamente completa do movimento das micropartículas, que também tornou possível explicar muitas propriedades dos corpos macroscópicos e os fenômenos que ocorrem neles . A mecânica quântica se baseia na ideia de quantizar Planck - Einstein - Bohr e na hipótese de L. de Broglie (1924) de que a natureza onda-partícula dual é inerente não apenas à radiação eletromagnética (fótons), mas também à quaisquer outros tipos de matéria. Todas as micropartículas (elétrons, prótons, átomos, etc.) têm, junto com propriedades corpusculares e de onda: cada uma delas pode ser associada a uma onda (o comprimento da qual é igual à razão da constante de Planck h para o momento da partícula, e a frequência para a razão da energia da partícula para h). As ondas de De Broglie descrevem partículas livres. Em 1927, a difração de elétrons foi observada pela primeira vez, o que confirmou experimentalmente suas propriedades de onda. Mais tarde, a difração também foi observada em outras micropartículas, incluindo moléculas (ver. Difração de partículas).

Em 1926, Schrödinger, tentando obter valores discretos da energia de um átomo a partir de uma equação de onda, formulou a equação básica da mecânica quântica, batizada em sua homenagem. W. Heisenberg e Born (1925) construíram a mecânica quântica em outra forma matemática - a chamada. mecânica da matriz.

Em 1925 J.Yu. Uhlenbeck e S.A. Goudsmit, com base em dados experimentais (espectroscópicos), descobriram a existência do próprio momento angular de um elétron - spin (e, portanto, o momento intrínseco, spin, magnético associado), igual a 1/2 ... (A magnitude do spin é geralmente expressa em unidades = h / 2 ?, que, como h, é chamada de constante de Planck; nessas unidades, o spin do elétron é 1/2.) W. Pauli escreveu a equação do movimento de um elétron não relativístico em um campo eletromagnético externo, levando em consideração a interação do momento magnético de um elétron com um campo magnético. Em 1925, ele também formulou o chamado. o princípio de exclusão, segundo o qual não pode haver mais de um elétron em um estado quântico (princípio de Pauli). Este princípio desempenhou um papel importante na construção da teoria quântica de sistemas de muitas partículas, em particular, explicou as leis que regem o preenchimento de camadas e camadas em átomos de muitos elétrons com elétrons, etc. deu uma base teórica para a tabela periódica de elementos de Mendeleev.

Em 1928, PA Dirac obteve a equação relativística quântica do movimento de um elétron (ver a equação de Dirac), da qual resultou naturalmente que o elétron tinha um spin. Com base nessa equação, Dirac em 1931 previu a existência de um pósitron (a primeira antipartícula), descoberto em 1932 por KD Anderson em raios cósmicos. [Antipartículas de outros unidades estruturais substâncias (próton e nêutron) - antipróton e antinêutron foram descobertos experimentalmente em 1955 e 1956, respectivamente.]

Paralelamente ao desenvolvimento da mecânica quântica, ocorreu o desenvolvimento da estatística quântica - a teoria quântica do comportamento dos sistemas físicos (em particular, os corpos macroscópicos), constituída por um grande número de micropartículas. Em 1924, S. Bose, aplicando os princípios da estatística quântica a fótons - partículas com spin 1, derivou a fórmula de Planck para a distribuição de energia no espectro de radiação de equilíbrio, e Einstein obteve a fórmula para a distribuição de energia para um gás ideal de moléculas (Estatísticas de Bose - Einstein). Em 1926, P. A. M. Dirac e E. Fermi mostraram que o conjunto de elétrons (e outras partículas idênticas com spin 1/2), para o qual o princípio de Pauli é válido, obedece a outra estatística - estatística de Fermi - de Dirac. Em 1940, Pauli fez uma conexão entre spin e estatística.

A estatística quântica desempenhou um papel importante no desenvolvimento da física de fase em meios condensados ​​e principalmente na construção da física de fase em sólidos. Na linguagem quântica, as vibrações térmicas dos átomos de um cristal podem ser consideradas um agregado de uma espécie de "partículas", ou melhor, quasipartículas - fônons (introduzidos por IE Tamm em 1929). Esta abordagem explicou, em particular, a diminuição da capacidade térmica dos metais (de acordo com a lei T3) com a diminuição da temperatura T na região de baixa temperatura, e também mostrou que a causa da resistência elétrica dos metais é o espalhamento de elétrons. não por íons, mas principalmente por fônons. Mais tarde, outras quasipartículas foram introduzidas. O método das quasipartículas tem se mostrado muito eficaz para estudar as propriedades de sistemas macroscópicos complexos em um estado condensado.

Em 1928, A. Sommerfeld aplicou a função de distribuição Fermi - Dirac para descrever os processos de transporte em metais. Isso resolveu uma série de dificuldades da teoria clássica e criou a base para o desenvolvimento da teoria quântica dos fenômenos cinéticos (condutividade elétrica e térmica, termoelétrica, galvanomagnética e outros efeitos) em sólidos, especialmente em metais e semicondutores.
De acordo com o princípio de Pauli, a energia de todo o conjunto de elétrons livres em um metal, mesmo no zero absoluto, é diferente de zero. Em um estado não excitado, todos os níveis de energia, começando do zero e terminando com um certo nível máximo (nível de Fermi), são ocupados por elétrons. Essa imagem permitiu a Sommerfeld explicar a pequena contribuição dos elétrons para a capacidade térmica dos metais: quando aquecidos, apenas os elétrons são excitados perto do nível de Fermi.

Nos trabalhos de F. Bloch, H. A. Bethe e L. Brillouin (1928–34), a teoria da estrutura da banda de energia dos cristais foi desenvolvida, o que forneceu uma explicação natural para as diferenças nas propriedades elétricas de dielétricos e metais. A abordagem descrita, que recebeu o nome de aproximação de um elétron, foi posteriormente desenvolvida e amplamente utilizada, especialmente na física de semicondutores.

Em 1928, Ya. I. Frenkel 'e Heisenberg mostraram que o ferromagnetismo é baseado na interação de troca quântica (que foi considerada por Heisenberg em 1926 para o exemplo do átomo de hélio); em 1932–33 L. Neel e independentemente L. D. Landau predisse o antiferromagnetismo.
As descobertas da supercondutividade por Kamerling-Onnes (1911) e da superfluidez do hélio líquido por PL Kapitza (1938) estimularam o desenvolvimento de novos métodos em estatística quântica. Fenomenologia. a teoria da superfluidez foi construída por Landau (1941); o próximo passo foi a fenomenologia, a teoria da supercondutividade de Landau e V.L. Ginzburg (1950).

Nos anos 50. Novos métodos de cálculo poderosos foram desenvolvidos na teoria quântica estatística de sistemas de muitas partículas, uma das realizações mais marcantes da qual foi a criação da teoria microscópica da supercondutividade por J. Bardeen, L. Cooper, J. Schrieffer (EUA) e NNBogolyubov (URSS).

As tentativas de construir uma teoria quântica consistente de emissão de luz pelos átomos levaram a um novo estágio no desenvolvimento da teoria quântica - a criação da eletrodinâmica quântica (Dirac, 1929).

No segundo quartel do século XX. uma nova transformação revolucionária da física ocorreu, conectada com o conhecimento da estrutura do núcleo atômico e os processos que ocorrem nele, e com a criação de partículas elementares pela física. A descoberta acima mencionada por Rutherford do núcleo atômico foi preparada pela descoberta da radioatividade e das transformações radioativas de átomos pesados ​​no final do século XIX. (A. Becquerel, P. e M. Curie). No início do século XX. isótopos foram descobertos. As primeiras tentativas de estudar diretamente a estrutura do núcleo atômico datam de 1919, quando Rutherford, bombardeando núcleos de nitrogênio estáveis ​​com partículas γ, conseguiu sua transformação artificial em núcleos de oxigênio. A descoberta do nêutron em 1932 por J. Chadwick levou à criação do moderno modelo próton-nêutron do núcleo (D. D. Ivanenko, Heisenberg). Em 1934, os cônjuges I. e F. Joliot-Curie descobriram a radioatividade artificial.

A criação de aceleradores de partículas carregadas tornou possível estudar várias reações nucleares. O resultado mais importante dessa fase da física foi a descoberta da fissão atômica.

Em 1939–45, a energia nuclear foi lançada pela primeira vez usando a reação em cadeia de fissão 235U e uma bomba atômica foi criada. O mérito de usar a reação de fissão nuclear controlada de 235U para fins industriais pacíficos pertence à URSS. Em 1954, a primeira usina nuclear foi construída na URSS (Obninsk). Posteriormente, usinas nucleares econômicas foram estabelecidas em muitos países.

Em 1952, uma reação de fusão termonuclear foi realizada (um dispositivo nuclear foi detonado), e em 1953 uma bomba de hidrogênio foi criada.
Simultaneamente à física do núcleo atômico do século XX. a física das partículas elementares começou a se desenvolver rapidamente. O primeiro grande sucesso nesta área estão associados ao estudo dos raios cósmicos. Muons, mésons pi, mésons K, os primeiros hiperons foram descobertos. Após a criação dos aceleradores de partículas carregadas de alta energia, iniciou-se um estudo sistemático das partículas elementares, suas propriedades e interações; a existência de dois tipos de neutrinos foi provada experimentalmente e muitas novas partículas elementares foram descobertas, incluindo partículas extremamente instáveis ​​- ressonâncias, cuja vida média é de apenas 10-22-10-24 segundos. A descoberta da interconversão universal de partículas elementares indicou que essas partículas não são elementares no sentido absoluto da palavra, mas têm uma estrutura interna complexa que ainda não foi descoberta. A teoria das partículas elementares e suas interações (fortes, eletromagnéticas e fracas) é o tema da teoria quântica de campos - uma teoria que ainda está longe de ser concluída.

III. Teorias fundamentais da física

Mecânica clássica de Newton

A introdução de Newton do conceito de estado foi de fundamental importância para toda a física. Inicialmente, ele foi formulado para o sistema mecânico mais simples - um sistema de pontos de material. É para os pontos materiais que as leis de Newton são diretamente válidas. Em todas as teorias físicas subsequentes, o conceito de estado foi um dos principais. O estado de um sistema mecânico é completamente determinado pelas coordenadas e impulsos de todos os corpos que formam o sistema. Se as forças de interação dos corpos que determinam suas acelerações são conhecidas, então, com base nos valores das coordenadas e impulsos no momento inicial do tempo, as equações de movimento da mecânica de Newton (segunda lei de Newton) permitem inequivocamente estabeleça os valores das coordenadas e impulsos em qualquer momento subsequente no tempo. Coordenadas e impulsos são grandezas básicas na mecânica clássica; Conhecendo-os, pode-se calcular o valor de qualquer outra grandeza mecânica: energia, momento angular, etc. Embora mais tarde tenha ficado claro que a mecânica newtoniana tem um campo de aplicação limitado, ela foi e continua sendo a base sem a qual a construção de todo o edifício da física moderna teria sido impossível. ...

Mecânica de continuidade

Gases, líquidos e sólidos em mecânica contínua são considerados meios homogêneos contínuos. Em vez de coordenadas e momentos de partículas, o estado do sistema é caracterizado exclusivamente pelas seguintes funções de coordenadas (x, y, z) e tempo (t): densidade p (x, y, z, t), pressão P ( x, y, z, t) e hidrodinâmica a velocidade v (x, y, z, t) com a qual a massa é transferida. As equações da mecânica do contínuo permitem estabelecer os valores dessas funções em qualquer momento subsequente no tempo, desde que seus valores no momento inicial e as condições de contorno sejam conhecidos.

A equação de Euler, que conecta a vazão do fluido com a pressão, juntamente com a equação da continuidade que expressa a conservação da matéria, permitem resolver quaisquer problemas da dinâmica de um fluido ideal. Na hidrodinâmica de um fluido viscoso, a ação das forças de atrito e o efeito da condutividade térmica, que levam à dissipação da energia mecânica, são levados em consideração, e a mecânica do meio contínuo deixa de ser "mecânica pura": processos térmicos tornam-se essenciais. Somente após a criação da termodinâmica foi formulado um sistema completo de equações que descreve os processos mecânicos em corpos gasosos, líquidos e sólidos reais. O movimento de líquidos e gases eletricamente condutores é estudado em magnetohidrodinâmica. Oscilações de um meio elástico e a propagação das ondas nele são estudadas em acústica.

Termodinâmica

Todo o conteúdo da termodinâmica é principalmente uma consequência de dois princípios: o primeiro princípio - a lei da conservação da energia, e o segundo princípio, do qual segue a irreversibilidade dos processos macroscópicos. Esses princípios tornam possível introduzir funções de estado inequívocas: energia interna e entropia. Em sistemas fechados, a energia interna permanece inalterada e a entropia é preservada apenas em processos de equilíbrio (reversíveis). Em processos irreversíveis, a entropia aumenta e seu crescimento reflete mais plenamente uma certa direção dos processos macroscópicos na natureza. Em termodinâmica, as principais grandezas que definem o estado de um sistema - parâmetros termodinâmicos - são, no caso mais simples, pressão, volume e temperatura. A conexão entre eles é dada pela equação de estado térmica (e a dependência da energia no volume e temperatura é dada pela equação de estado calórica). A equação de estado térmica mais simples é a equação de estado do gás ideal (equação de Clapeyron).

Na termodinâmica clássica, os estados de equilíbrio térmico e os processos de equilíbrio (infinitamente lentos) são estudados. O tempo não faz parte das equações básicas. Posteriormente (começando na década de 1930), a termodinâmica dos processos de não-equilíbrio foi criada. Nessa teoria, o estado é definido em termos de densidade, pressão, temperatura, entropia e outras grandezas (parâmetros termodinâmicos locais) consideradas como funções de coordenadas e tempo. Para eles, são escritas as equações de transferência de massa, energia, momentum, que descrevem a evolução do estado do sistema ao longo do tempo (equações de difusão e condução de calor, equações de Navier - Stokes). Essas equações expressam leis de conservação locais (ou seja, válidas para um determinado elemento de volume infinitesimal) do físico indicado. quantidades.

Física estatística (mecânica estatística)

Na mecânica estatística clássica, em vez de especificar as coordenadas ri e os momentos pi das partículas do sistema, a função de distribuição das partículas por coordenadas e momentos, f (ri, pi, ..., rN, pN, t), é especificado, que tem o significado da densidade de probabilidade de detectar os valores observados de coordenadas e momentos em certos pequenos intervalos em um determinado momento t (N é o número de partículas no sistema). A função de distribuição f satisfaz a equação do movimento (equação de Liouville), que tem a forma de uma equação de continuidade no espaço de todos r e pi (ou seja, no espaço de fase).

A equação de Liouville determina exclusivamente f em qualquer momento subsequente de tempo por seu valor dado no momento inicial, se a energia de interação entre as partículas do sistema for conhecida. A função de distribuição permite calcular os valores médios das densidades da matéria, energia, momento e seus fluxos, bem como seus desvios dos valores médios - flutuações. A equação que descreve a evolução da função de distribuição de um gás foi obtida pela primeira vez por Boltzmann (1872) e foi chamada de equação cinética de Boltzmann.

Gibbs obteve uma expressão para a função de distribuição de um sistema arbitrário em equilíbrio com um termostato (distribuição canônica de Gibbs). Esta função de distribuição permite expressão famosa a energia em função das coordenadas e momentos das partículas (função de Hamilton) calcula todos os potenciais termodinâmicos, que é o assunto da termodinâmica estatística.

Os processos que surgem em sistemas retirados do estado de equilíbrio termodinâmico são irreversíveis e são estudados na teoria estatística dos processos de não-equilíbrio (esta teoria, junto com a termodinâmica dos processos de não-equilíbrio, forma a cinética física). Em princípio, se a função de distribuição for conhecida, é possível determinar quaisquer quantidades macroscópicas que caracterizem o sistema em um estado de não-equilíbrio e rastrear sua mudança no espaço ao longo do tempo.

Para calcular as grandezas físicas que caracterizam o sistema (densidades médias do número de partículas, energia e momento), não é necessário o conhecimento da função de distribuição completa. Funções de distribuição bem mais simples: partícula única, fornecendo o número médio de partículas com determinados valores de coordenadas e momentos, e partícula dupla, determinando a influência mútua (correlação) de duas partículas. Um método geral para a obtenção de equações para tais funções foi desenvolvido (na década de 40 do século 20) por Bogolyubov, Born, G. Green (físico inglês) e outros. Equações para uma função de distribuição de uma partícula, cuja construção é possível para gases de baixa densidade, são chamados de cinéticos. Isso inclui a equação cinética de Boltzmann. Variedades da equação de Boltzmann para um gás ionizado (plasma) são as equações cinéticas de Landau e AA Vlasov (30-40s do século 20).

Nas últimas décadas, a pesquisa de plasma tornou-se cada vez mais importante. Nesse ambiente, o papel principal é desempenhado pelas interações eletromagnéticas de partículas carregadas, e apenas uma teoria estatística, via de regra, é capaz de responder a várias questões relacionadas ao comportamento do plasma. Em particular, permite estudar a estabilidade de um plasma de alta temperatura em um campo eletromagnético externo. Este problema é extremamente urgente em conexão com o problema da fusão termonuclear controlada.

Eletrodinâmica

O estado do campo eletromagnético na teoria de Maxwell é caracterizado por dois vetores principais: a intensidade do campo elétrico E e a indução magnética B, que são funções de coordenadas e tempo. As propriedades eletromagnéticas de uma substância são especificadas por três quantidades: constante dielétrica ?, Permeabilidade magnética (e condutividade elétrica ?, que deve ser determinada experimentalmente. Para os vetores E e B e vetores auxiliares associados de indução elétrica D e intensidade do campo magnético H, a sistema de equações diferenciais lineares é escrito com derivadas parciais - equações de Maxwell. Essas equações descrevem a evolução do campo eletromagnético. A partir dos valores das características do campo no momento inicial do tempo dentro de um determinado volume e das condições de contorno no superfície desse volume, E e B podem ser encontrados em qualquer momento subsequente no tempo.Estes vetores determinam a força que atua sobre uma partícula carregada movendo-se a uma determinada velocidade em um campo eletromagnético (força de Lorentz).
O fundador da teoria eletrônica, Lorentz, formulou equações que descrevem processos eletromagnéticos elementares. Essas equações, chamadas de equações de Lorentz-Maxwell, relacionam o movimento de partículas carregadas individuais ao campo eletromagnético que elas criam.

Com base no conceito de discretividade de cargas elétricas e equações para processos eletromagnéticos elementares, é possível estender os métodos da mecânica estatística aos processos eletromagnéticos na matéria. A teoria eletrônica permitiu revelar o significado físico das características eletromagnéticas de uma substância?,?,? e tornou possível calcular os valores dessas quantidades em função da frequência, temperatura, pressão, etc.

Teoria da relatividade privada (especial). Mecânica relativística

A teoria da relatividade especial - a teoria física do espaço e do tempo na ausência de campos gravitacionais - é baseada em dois postulados: o princípio da relatividade e a independência da velocidade da luz do movimento da fonte. De acordo com o princípio da relatividade de Einstein, quaisquer fenômenos físicos - mecânicos, ópticos, térmicos, etc. - em todos os sistemas de referência inerciais nas mesmas condições, procedem da mesma forma. Isso significa que o movimento uniforme e retilíneo do sistema não afeta o curso dos processos nele. Todos os referenciais inerciais são iguais (não existe um referencial dedicado, “em repouso absoluto”, assim como não há espaço e tempo absolutos). Portanto, a velocidade da luz no vácuo em todos os referenciais inerciais é a mesma. A partir desses dois postulados, as transformações de coordenadas e tempo seguem durante a transição de um sistema inercial para outro - a transformação de Lorentz. A partir das transformações de Lorentz, obtêm-se os principais efeitos da teoria da relatividade especial: a existência de uma velocidade limite que coincide com a velocidade da luz no vácuo c (qualquer corpo não pode se mover com uma velocidade superior a ce c é o máximo velocidade de transmissão de quaisquer interações); a relatividade da simultaneidade (eventos que são simultâneos em um referencial inercial geralmente não são simultâneos em outro); desaceleração do fluxo do tempo e redução das dimensões longitudinais - na direção do movimento - do corpo (todos os processos físicos em um corpo que se move com velocidade v em relação a um determinado referencial inercial procedem várias vezes mais lentos do que os mesmos processos em um dado inercial e diminuir na mesma proporção as dimensões longitudinais do corpo). Da igualdade de todos os sistemas de referência inerciais, conclui-se que os efeitos da dilatação do tempo e da redução do tamanho dos corpos não são absolutos, mas relativos, dependendo do referencial.

As leis da mecânica de Newton deixam de ser válidas em altas velocidades de movimento (comparáveis ​​à velocidade da luz). Imediatamente após a criação da teoria da relatividade, foram encontradas equações relativísticas de movimento, generalizando as equações de movimento da mecânica newtoniana. Essas equações são adequadas para descrever o movimento de partículas com velocidades próximas à velocidade da luz. Exclusivamente essencial para a física obteve duas consequências da mecânica relativística: a dependência da massa de uma partícula na velocidade e a conexão universal entre energia e massa (ver teoria da relatividade).

Em altas velocidades de movimento, qualquer teoria física deve satisfazer os requisitos da teoria da relatividade, ou seja, deve ser relativisticamente invariável. As leis da teoria da relatividade determinam transformações durante a transição de um sistema de referência inercial para outro, não apenas coordenadas e tempo, mas também qualquer quantidade física. Esta teoria segue dos princípios de invariância, ou simetria, na física (veja Simetria na física).

Teoria geral da relatividade (teoria da gravitação)

Dos quatro tipos de interações fundamentais - gravitacional, eletromagnética, forte e fraca - a primeira a ser descoberta foram as interações gravitacionais, ou forças gravitacionais. Por mais de duzentos anos, nenhuma mudança foi feita nos fundamentos da teoria da gravidade de Newton. Quase todas as consequências da teoria estavam de acordo com o experimento.

Na 2ª década do século XX. a teoria clássica da gravitação foi revolucionada por Einstein. A teoria da gravitação de Einstein, ao contrário de todas as outras teorias, foi criada sem o papel estimulador de novos experimentos, por meio do desenvolvimento lógico do princípio da relatividade em relação às interações gravitacionais, e foi chamada de teoria geral da relatividade. Einstein interpretou de uma nova maneira o fato, estabelecido por Galileu, da igualdade das massas gravitacional e inercial (ver Missa). Essa igualdade significa que a gravidade curva os caminhos de todos os corpos da mesma maneira. Portanto, a gravidade pode ser vista como uma curvatura do próprio espaço-tempo. A teoria de Einstein revelou uma profunda conexão entre a geometria do espaço-tempo e a distribuição e o movimento das massas. Componentes do chamado. Os tensores métricos, caracterizando a métrica espaço-temporal, são simultaneamente os potenciais do campo gravitacional, ou seja, determinam o estado do campo gravitacional. O campo gravitacional é descrito pelas equações não lineares de Einstein. Na aproximação dos campos fracos, segue-se deles a existência de ondas gravitacionais, que ainda não foram descobertas experimentalmente (ver. Radiação gravitacional).

As forças gravitacionais são as mais fracas das forças fundamentais da natureza. Para os prótons, eles são cerca de 1036 vezes mais fracos do que os eletromagnéticos. Na teoria moderna das partículas elementares, as forças gravitacionais não são levadas em consideração, porque acreditam que eles não desempenham um papel proeminente. O papel das forças gravitacionais torna-se decisivo nas interações dos corpos de dimensões cósmicas; eles também determinam a estrutura e evolução do universo.

A teoria da gravitação de Einstein levou a novas idéias sobre a evolução do universo. Em meados dos anos 20. A. A. Fridman encontrou uma solução não estacionária das equações do campo gravitacional, correspondente ao Universo em expansão. Esta conclusão foi confirmada pelas observações de E. Hubble, que descobriu a lei do redshift para galáxias (o que significa que as distâncias entre as galáxias aumentam com o tempo). Dr. um exemplo de uma previsão teórica é a possibilidade de compressão ilimitada de estrelas de massas suficientemente grandes (mais de 2–3 massas solares) com a formação das chamadas. "Buracos negros". Existem certas indicações (observações de estrelas binárias - fontes discretas de raios X) sobre a existência de tais objetos.

A relatividade geral, como a mecânica quântica, são as grandes teorias do século XX. Todas as teorias anteriores, incluindo a teoria da relatividade especial, são geralmente chamadas de física clássica (às vezes, toda a física não quântica é chamada de física clássica).

Mecânica quântica

O estado de um micro-objeto na mecânica quântica é caracterizado por uma função de onda ?. A função de onda tem um significado estatístico (Born, 1926): representa a amplitude de probabilidade, ou seja, o quadrado de seu módulo, ??? 2, é a densidade de probabilidade de encontrar uma partícula em um determinado estado. Representação coordenada? =? (x, y, z, t) e o valor ??? 2? x? y? z determina a probabilidade de que as coordenadas da partícula no tempo t estejam dentro de um pequeno volume? x? y? z perto do ponto com as coordenadas x y, z. A evolução do estado de um sistema quântico é determinada exclusivamente usando a equação de Schrödinger.
A função de onda fornece uma caracterização completa do estado. Sabendo ?, pode-se calcular a probabilidade de um certo valor de quaisquer grandezas físicas relacionadas a uma partícula (ou sistema de partículas) e os valores médios de todas essas grandezas físicas. Distribuições estatísticas em coordenadas e momentos não são independentes, do que se segue que a coordenada e o momento de uma partícula não podem ter valores exatos ao mesmo tempo (princípio da incerteza de Heisenberg); sua dispersão está relacionada às incertezas pela razão. A relação de incerteza também vale para energia e tempo.

Na mecânica quântica, o momento angular, sua projeção, bem como a energia ao se mover em uma região limitada do espaço, podem assumir apenas uma série de valores discretos. Os valores possíveis das grandezas físicas são os autovalores dos operadores, que na mecânica quântica estão associados a cada grandeza física. Uma grandeza física assume certo valor com probabilidade igual a um, apenas se o sistema estiver em um estado representado pela autofunção do operador correspondente.
A mecânica quântica de Schrödinger-Heisenberg não atende aos requisitos da teoria da relatividade, ou seja, é não relativística. É aplicável para descrever o movimento de partículas elementares e seus sistemas constituintes com velocidades muito menores do que a velocidade da luz.
Com a ajuda da mecânica quântica, a teoria dos átomos foi construída, a ligação química foi explicada, incluindo a natureza da ligação química covalente; foi descoberta a existência de uma interação de troca específica, um efeito puramente quântico que não tem análogo no ferrum clássico. A energia de troca desempenha um papel importante na formação de uma ligação covalente tanto em moléculas quanto em cristais, bem como nos fenômenos de ferromagnetismo e antiferromagnetismo. Essa energia é essencial nas interações intranucleares.
Processos nucleares como? -Decay podem ser explicados apenas com a ajuda do efeito quântico da passagem de partículas através de uma barreira potencial (veja Efeito de túnel).

Uma teoria quântica de espalhamento foi construída (consulte Espalhamento de micropartículas), o que leva a resultados substancialmente diferentes do que a teoria clássica de espalhamento. Em particular, descobriu-se que em colisões de nêutrons lentos com núcleos, a seção transversal da interação é centenas de vezes maior do que as dimensões transversais das partículas em colisão. Isso é extremamente importante para a energia nuclear.

A teoria das bandas de um sólido foi construída com base na mecânica quântica.

Da teoria quântica da emissão estimulada, criada por Einstein em 1917, na década de 50. surgiu um novo ramo da radiofísica: a geração e amplificação de ondas eletromagnéticas eram realizadas por meio de sistemas quânticos. NG Basov, AM Prokhorov e, independentemente, Ch. Townes criaram um gerador quântico de micro-ondas (maser), no qual a emissão estimulada de moléculas excitadas é usada. Nos anos 60. um laser foi criado - um gerador quântico de ondas eletromagnéticas na faixa visível de comprimentos de onda (ver. Eletrônica quântica).

Estatística quântica

Assim como com base nas leis clássicas do movimento de partículas individuais, a teoria do comportamento de um grande conjunto delas - a estatística clássica - foi construída, a estatística quântica foi construída com base nas leis quânticas do movimento das partículas. O último descreve o comportamento de objetos macroscópicos no caso em que a mecânica clássica é inaplicável para descrever o movimento de suas partículas constituintes. Nesse caso, as propriedades quânticas dos micro-objetos se manifestam claramente nas propriedades dos corpos macroscópicos.

O aparato matemático da estatística quântica difere significativamente do aparato da estatística clássica, uma vez que, como mencionado acima, algumas grandezas físicas na mecânica quântica podem assumir valores discretos. Mas o próprio conteúdo da teoria estatística dos estados de equilíbrio não sofreu mudanças profundas. Em estatística quântica, como na teoria quântica de sistemas de muitas partículas em geral, o princípio de identidade de partículas idênticas desempenha um papel importante (ver Princípio de identidade). Na estatística clássica, assume-se que a permutação de duas partículas idênticas (idênticas) altera o estado. Na estatística quântica, o estado do sistema não muda com essa permutação. Se as partículas (ou quasipartículas) têm spin inteiro (são chamadas de bósons), qualquer número de partículas pode estar no mesmo estado quântico. Os sistemas de tais partículas são descritos pelas estatísticas de Bose-Einstein. Para quaisquer partículas (quasipartículas) com spin meio-inteiro (férmions), o princípio de Pauli é válido, e os sistemas dessas partículas são descritos pelas estatísticas de Fermi - Dirac.

A estatística quântica tornou possível fundamentar o teorema de Nernst (a terceira lei da termodinâmica) - a tendência da entropia para zero em uma temperatura absoluta T? 0

A teoria estatística quântica dos processos de equilíbrio é construída da mesma forma completa que a clássica. As bases da teoria estatística quântica de processos de não-equilíbrio também foram estabelecidas. A equação que descreve os processos de não-equilíbrio em um sistema quântico e chamada de equação cinética básica permite, em princípio, traçar a variação temporal da probabilidade da distribuição sobre os estados quânticos do sistema.

Teoria de campo quântico (QFT)

O próximo estágio no desenvolvimento da teoria quântica é a extensão dos princípios quânticos para sistemas com. um número infinito de graus de liberdade (campos físicos) e uma descrição dos processos de nascimento e transformação de partículas - levou ao QFT, que reflete mais plenamente a propriedade fundamental da natureza - dualismo onda-corpuscular.

No QFT, as partículas são descritas usando campos quantizados, que são um conjunto de operadores de criação e absorção para partículas em vários estados quânticos. A interação de campos quantizados leva a vários processos de emissão, absorção e transformação de partículas. Qualquer processo no QFT é considerado a destruição de algumas partículas em certos estados e o aparecimento de outras em novos estados.

Inicialmente, o QFT foi construído em relação à interação de elétrons, pósitrons e fótons (eletrodinâmica quântica). A interação entre partículas carregadas, segundo a eletrodinâmica quântica, é realizada por meio da troca de fótons, sendo a carga elétrica e da partícula uma constante que caracteriza a relação entre o campo de partículas carregadas e o campo eletromagnético (o campo dos fótons )

As idéias subjacentes à eletrodinâmica quântica foram usadas em 1934 por E. Fermi para descrever os processos de decaimento beta de núcleos atômicos radioativos usando um novo tipo de interação (que, como se viu mais tarde, é um caso especial das chamadas interações fracas ) Nos processos de decaimento beta eletrônico, um dos nêutrons do núcleo é convertido em próton e ao mesmo tempo ocorre a emissão de um elétron e um antineutrino de elétron. De acordo com o QFT, tal processo pode ser representado como resultado da interação de contato (interação em um ponto) de campos quantizados correspondentes a quatro partículas com spin 1/2: próton, nêutron, elétron e antineutrino (ou seja, interação de quatro férmions )

Outra aplicação frutífera das idéias do QFT foi a hipótese de H. Yukawa (1935) sobre a existência de uma interação entre o campo dos núcleons (prótons e nêutrons) e o campo dos mésons (naquela época ainda não descoberto experimentalmente). As forças nucleares entre os núcleos, de acordo com essa hipótese, surgem como resultado da troca de núcleons por mésons, e a natureza de curto alcance das forças nucleares é explicada pela presença de uma massa de repouso relativamente grande nos mésons. Os mésons com propriedades previstas (mésons pi) foram descobertos em 1947, e sua interação com os núcleons acabou sendo uma manifestação particular de fortes interações.

QFT é, portanto, a base para descrever as interações elementares que existem na natureza: eletromagnéticas, fortes e fracas. Junto com isso, os métodos QFT encontraram ampla aplicação na teoria dos sólidos, plasma e núcleos atômicos, uma vez que muitos processos nesses meios estão associados à emissão e absorção de vários tipos de excitações elementares - quasipartículas (fônons, ondas de spin, etc. .).

Devido ao número infinito de graus de liberdade do campo, a interação das partículas - quanta do campo - leva a dificuldades matemáticas que ainda não foram completamente superadas. Porém, na teoria das interações eletromagnéticas, qualquer problema pode ser resolvido de forma aproximada, uma vez que a interação pode ser considerada como uma pequena perturbação do estado livre das partículas (devido à pequenez da constante adimensional ν1 / 137, que caracteriza a intensidade das interações eletromagnéticas). A teoria de todos os efeitos na eletrodinâmica quântica está de acordo com a experiência. No entanto, a situação nesta teoria não pode ser considerada favorável, uma vez que para algumas grandezas físicas (massa, carga elétrica), ao calcular pela teoria de perturbação, expressões infinitas (divergências) são obtidas. Eles são excluídos usando porque a técnica de renormalização, que implica que quantidades infinitamente grandes de massa e carga de uma partícula são substituídas por seus valores observáveis. Uma grande contribuição para o desenvolvimento da eletrodinâmica quântica foi feita (no final dos anos 1940) por S. Tomonaga, R. Feynman e J. Schwinger.

Os métodos desenvolvidos em eletrodinâmica quântica foram posteriormente tentados para serem aplicados para calcular os processos de interações fracas e fortes (nucleares), mas uma série de problemas foram encontrados aqui.

As interações fracas são inerentes a todas as partículas elementares, exceto para o fóton. Eles se manifestam na decomposição da maioria das partículas elementares e em algumas de suas outras transformações. A constante de interações fracas, que determina a intensidade dos processos por elas causados, aumenta com o aumento da energia das partículas.

Após o fato estabelecido experimentalmente de não conservação da paridade espacial em processos de interação fraca (1956), o denominado. a teoria universal das interações fracas, próxima à teoria de Fermi da? -decadência. No entanto, ao contrário da eletrodinâmica quântica, esta teoria não permitiu o cálculo de correções em ordens superiores da teoria de perturbação, ou seja, a teoria acabou por ser não renormalizável. No final dos anos 60. Têm sido feitas tentativas para construir uma teoria renormalizável de interações fracas. O sucesso foi alcançado com base no chamado. teorias de calibre. Um modelo unificado de interações fracas e eletromagnéticas foi criado. Nesse modelo, junto com o fóton - o portador das interações eletromagnéticas entre as partículas carregadas, deve haver portadores das interações fracas - os chamados. bósons vetoriais intermediários. Supõe-se que a intensidade das interações dos bósons intermediários com outras partículas é a mesma dos fótons. Como o raio das interações fracas é muito pequeno (menos de 10-15 cm), então, de acordo com as leis da teoria quântica, a massa dos bósons intermediários deve ser muito grande: várias dezenas de massas de prótons. Experimentalmente, essas partículas ainda não foram encontradas. Devem existir bósons vetoriais carregados (W- e W +) e neutros (Z0). Em 1973, foram observados experimentalmente processos que, aparentemente, podem ser explicados pela existência de bósons intermediários neutros. No entanto, a validade da nova teoria unificada de interações eletromagnéticas e fracas não pode ser considerada provada.

As dificuldades em criar uma teoria de interações fortes estão associadas ao fato de que, devido à grande constante de acoplamento, os métodos da teoria de perturbação são inaplicáveis ​​aqui. Em consequência disso, e também em relação à presença de um enorme material experimental que necessita generalização teórica, métodos baseados em princípios gerais teoria quântica de campos - invariância relativística, interação local (significando o cumprimento da condição de causalidade; ver Princípio de causalidade), etc. Isso inclui o método das relações de dispersão e o método axiomático (ver Teoria quântica de campos). A abordagem axiomática é a mais fundamental, mas até agora não fornece um número suficiente de resultados específicos que possam ser verificados experimentalmente. Os maiores avanços práticos na teoria das interações fortes foram obtidos por meio da aplicação dos princípios da simetria.
Estão sendo feitas tentativas para construir uma teoria unificada de interações fracas, eletromagnéticas e fortes (semelhante às teorias de calibre).

Princípios de simetria e leis de conservação

As teorias físicas permitem que o estado inicial de um objeto determine seu comportamento no futuro. Os princípios de simetria (ou invariância) são de natureza geral, todas as teorias físicas estão subordinadas a eles. A simetria das leis da física com relação a alguma transformação significa que essas leis não mudam quando essa transformação é realizada. Portanto, os princípios de simetria podem ser estabelecidos com base no conhecimento físico. leis. Por outro lado, se a teoria de qualquer fenômeno físico ainda não foi criada, as simetrias descobertas pelo experimento desempenham um papel heurístico na construção da teoria. Daí a importância especial das simetrias experimentalmente estabelecidas de partículas elementares fortemente interagentes - hádrons, cuja teoria, como já mencionado, não foi construída.

Existem simetrias gerais que são válidas para todas as leis físicas, para todos os tipos de interação, e simetrias aproximadas que são válidas apenas para um determinado intervalo de interações ou mesmo um tipo de interação. Assim, uma hierarquia de princípios de simetria é observada. As simetrias são divididas em espaço-tempo, ou geométricas, e simetrias internas, que descrevem as propriedades específicas das partículas elementares. As leis de conservação estão associadas a simetrias. Para transformações contínuas, essa conexão foi estabelecida em 1918 por E. Noether com base nas suposições mais gerais sobre o aparato matemático da teoria (veja o teorema de Noether, Leis de conservação).

As simetrias das leis da física no que diz respeito às seguintes transformações de espaço-tempo contínuas são válidas para todos os tipos de interações: a mudança e rotação de um sistema físico como um todo no espaço, e uma mudança no tempo (mudanças na origem de Tempo). A invariância (invariância) de todas as leis físicas com respeito a essas transformações reflete, respectivamente, a homogeneidade e isotropia do espaço e a homogeneidade do tempo. Essas simetrias estão associadas (respectivamente) às leis de conservação do momento, momento angular e energia. As simetrias gerais também incluem invariância com respeito às transformações de Lorentz e transformações de calibre (do primeiro tipo) - a multiplicação da função de onda pela assim chamada. um fator de fase que não altera o quadrado de seu módulo (a última simetria está associada às leis de conservação das cargas elétricas, bariônicas e leptônicas), e algumas outras.
Existem também simetrias que correspondem a transformações discretas: reversão do sinal do tempo (veja Reversão do tempo), inversão espacial (a chamada simetria de espelho da natureza), conjugação de carga. Com base na simetria aproximada SU (3) (ver interações fortes) M. Gell-Mann (1962) criou uma sistemática de hádrons, que tornou possível prever a existência de várias partículas elementares descobertas experimentalmente mais tarde.

A sistemática dos hádrons pode ser explicada se assumirmos que todos os hádrons são "construídos" a partir de um pequeno número (na versão mais comum - de três) partículas fundamentais - quarks e as antipartículas correspondentes - antiquarks. Existem vários modelos de quark de hádrons, mas ainda não foi possível detectar experimentalmente quarks livres. Em 1975-76, duas novas partículas de interação forte (? 1 e? 2) foram descobertas com massas que excedem três vezes a massa do próton e tempos de vida de 10-20 e 10-21 seg. Uma explicação das peculiaridades da criação e decadência dessas partículas, aparentemente, requer a introdução de um quarto quark adicional, ao qual o número quântico "encanto" é atribuído. Além disso, de acordo com os conceitos modernos, cada quark existe em três variedades, que diferem em uma característica especial - "cor".

O sucesso na classificação dos hádrons com base nos princípios da simetria é muito grande, embora as razões para o aparecimento dessas simetrias não sejam completamente claras; talvez se devam realmente à existência e às propriedades dos quarks.

4. Física experimental moderna

Já no início do século XX. Descobertas que marcaram época, como a descoberta do núcleo atômico por Rutherford, poderiam ser feitas usando equipamento relativamente simples. Mas, no futuro, o experimento começou a se tornar muito complicado e as instalações experimentais começaram a adquirir um caráter industrial. O papel da medição e da tecnologia de computação cresceu incomensuravelmente. A pesquisa experimental moderna no campo do núcleo e partículas elementares, radioastronomia, eletrônica quântica e física do estado sólido requer uma escala sem precedentes e dispêndio de fundos que muitas vezes estão disponíveis apenas para grandes estados ou mesmo grupos de estados com economias desenvolvidas.

O desenvolvimento de métodos de observação e registro de atos individuais de transformação de partículas elementares (causados ​​por suas colisões entre si e com núcleos atômicos) e a criação de aceleradores de partículas carregadas, que estabeleceram as bases para o desenvolvimento da física de alta energia, jogou um enorme papel no desenvolvimento da física nuclear e da física de partículas elementares. A descoberta do princípio de autophasing por V.I.Vekslsrom (1944) e independentemente por E.M. Macmillan (1945) aumentou o limite de energias de partícula atingíveis por um fator de milhares. Os aceleradores de feixe de colisão aumentaram significativamente a energia efetiva de colisão das partículas. Contadores altamente eficientes de partículas carregadas foram criados, cuja ação é baseada em princípios diferentes: descarga de gás, cintilação, Cherenkov, etc. Os fotomultiplicadores permitem o registro de fótons únicos. As informações mais completas e precisas sobre os eventos do micromundo são obtidas com o auxílio de câmaras de bolhas e centelhas e emulsões fotográficas de camada espessa, nas quais traços (rastros) de partículas carregadas voando podem ser observados diretamente. Os detectores foram construídos para registrar eventos raros- colisões de neutrinos com núcleos atômicos.

Uma verdadeira revolução no estudo experimental das interações de partículas elementares está associada ao uso de computadores para processar informações recebidas de dispositivos de gravação. Para consertar processos improváveis, dezenas de milhares de fotografias de trilhas precisam ser analisadas. Demoraria tanto tempo manualmente que seria quase impossível obter as informações de que você precisa. Portanto, as imagens das pistas com a ajuda de dispositivos especiais são convertidas em uma série de impulsos elétricos e a posterior análise das pistas é realizada por meio de um computador. Isso reduz drasticamente o tempo entre o experimento e o recebimento das informações processadas. Nas câmaras de centelha, o registro e a análise dos rastros das partículas são realizados de forma automática por meio de um computador diretamente na montagem experimental.

A importância dos aceleradores de partículas carregadas é determinada pelas seguintes circunstâncias. Quanto maior a energia (momento) da partícula, menor (de acordo com o princípio da incerteza) o tamanho dos objetos ou seus detalhes, que podem ser distinguidos nas colisões de uma partícula com um objeto. Em 1977, essas dimensões mínimas eram de 10-15 cm. Estudando o espalhamento de elétrons de alta energia pelos núcleons, foi possível descobrir os elementos da estrutura interna dos núcleons - a distribuição da carga elétrica e o momento magnético dentro dessas partículas (o os chamados fatores de forma). O espalhamento de elétrons de ultra-alta energia pelos núcleons indica a existência de várias formações separadas de tamanhos ultrapequenos, chamados partons, dentro dos núcleons. Talvez partons sejam quarks hipotéticos.

Outra razão para o interesse por partículas de alta energia é a criação de novas partículas de massa crescente durante suas colisões com o alvo. No total, 34 partículas estáveis ​​e quase estáveis ​​(isto é, não decaindo devido a fortes interações) (com antipartículas) e mais de duzentas ressonâncias são conhecidas, a esmagadora maioria delas descoberta em aceleradores. A investigação do espalhamento de partículas de energia ultra-alta deve ajudar a esclarecer a natureza das interações fortes e fracas.

Vários tipos de reações nucleares foram estudados. Uma colisão de núcleos relativísticos foi realizada pela primeira vez no acelerador do Joint Institute for Nuclear Research em Dubna. A síntese está progredindo com sucesso elementos transurânicos... Foram obtidos os núcleos de antideutério, antitrítio e antihélio. No acelerador em Serpukhov, uma nova regularidade de interações fortes foi descoberta - um aumento na seção transversal total para a interação de hádrons de energia muito alta em sua colisão com um aumento na energia de colisão (o chamado efeito Serpukhov).

O desenvolvimento da radiofísica assumiu uma nova direção após a criação de estações de radar durante a Segunda Guerra Mundial (1939-1945). Os radares são amplamente utilizados na aviação e no transporte marítimo, na astronáutica. A localização dos corpos celestes foi realizada: a Lua, Vênus e outros planetas, bem como o sol. Radiotelescópios gigantes foram construídos para capturar a radiação de corpos cósmicos com uma densidade de fluxo de energia espectral de 10-26 erg / cm2? Sec? Hz. As informações sobre objetos espaciais aumentaram incomensuravelmente. Estrelas de rádio e galáxias de rádio com radiação poderosa na faixa de ondas de rádio foram descobertas, e em 1963 - os objetos quase estelares mais distantes de nós - quasares.

A luminosidade dos quasares é centenas de vezes maior do que a luminosidade das galáxias mais brilhantes. O poder de resolução dos radiotelescópios modernos usando antenas móveis controladas por um computador atinge um segundo de arco (para radiação com comprimento de onda de vários cm). Quando as antenas estão espalhadas por longas distâncias (cerca de 10 mil km), uma resolução ainda maior é obtida (em centésimos de segundo de arco).

O estudo da emissão de rádio de corpos celestes ajudou a estabelecer as fontes dos raios cósmicos primários (prótons, núcleos atômicos mais pesados, elétrons). Essas fontes revelaram ser explosões de supernovas. A radiação relíquia foi descoberta - radiação térmica correspondendo a uma temperatura de 2,7 K. Em 1967, os pulsares foram descobertos. - estrelas de nêutrons em rotação rápida. Os pulsares criam radiação direcional nas faixas de rádio, visível e raio-X, cuja intensidade muda periodicamente devido à rotação das estrelas.
Um papel importante no estudo do espaço próximo à Terra e do espaço profundo foi desempenhado pelos lançamentos de estações espaciais: os cinturões de radiação da Terra foram descobertos, fontes espaciais de radiação de raios X e rajadas de radiação γ foram descobertas (esses tipos de radiação são absorvidos pela atmosfera terrestre e não atingem a sua superfície).

Os métodos radiofísicos modernos tornam possível realizar comunicações espaciais a distâncias de dezenas e centenas de milhões de quilômetros. Necessidade de transferência grande volume as informações estimularam o desenvolvimento de linhas de comunicação ótica fundamentalmente novas usando guias de luz de fibra.

A maior precisão foi alcançada medindo a amplitude das oscilações dos corpos macroscópicos. Com o auxílio de sensores radiotécnicos e ópticos, é possível registrar vibrações mecânicas com amplitude da ordem de 10-15 cm (é possível aumentar este limite para 10-16-10-19 cm).
Para estudar a estrutura de cristais e moléculas orgânicas, são usados ​​difratômetros automáticos de raios X e nêutrons de alta precisão, que reduziram o tempo de decodificação de estruturas em centenas de milhares de vezes. Microscópios eletrônicos de alta resolução também são usados ​​em estudos estruturais. A difração de nêutrons também permite estudar a estrutura magnética de sólidos.

Ressonância paramagnética de elétrons (descoberta por E.K. Zavoisky em 1944), ressonância magnética nuclear (descoberta por E. Purcell e F. Bloch em 1946), o efeito Mössbauer (descoberto por R.L. em 1958). O estudo da estrutura de átomos e moléculas de substâncias orgânicas e inorgânicas está sendo aprimorado por seus espectros de emissão e absorção em uma ampla faixa de frequência (inclusive com o uso de radiação laser; ver espectroscopia a laser).
Na hidroacústica, o fenômeno da propagação do som de alcance ultralongo nos mares e oceanos, em distâncias de milhares de quilômetros, foi descoberto e investigado (cientistas americanos M. Ewing, J. Worzel, 1944, e independentemente pela física soviética LM Brekhovskikh , LD Rosenberg e outros, 1946).

Na última década, métodos acústicos para o estudo de sólidos foram se desenvolvendo, baseados no uso de ondas ultrassônicas e hipersônicas (ver Ultrassom, Hipersom), bem como ondas acústicas de superfície.

O rápido desenvolvimento da física de semicondutores revolucionou a engenharia de rádio e a eletrônica. Dispositivos semicondutores substituíram tubos de vácuo. Dispositivos de engenharia de rádio e computadores diminuíram drasticamente e se tornaram mais confiáveis, seu consumo de energia diminuiu significativamente. Surgiram circuitos integrados que combinam milhares ou mais elementos eletrônicos em um pequeno cristal (dezenas de mm2). O processo de microminiaturização sequencial de dispositivos eletrônicos e dispositivos levou à criação dos chamados. microprocessadores que desempenham as funções operacionais de um computador. Os pequenos computadores são feitos em um único chip.

Os computadores tornaram-se parte integrante da pesquisa física e são usados ​​tanto para o processamento de dados experimentais quanto para cálculos teóricos, principalmente aqueles que antes eram inviáveis ​​devido à enorme intensidade de trabalho.

De grande importância tanto para a própria ciência quanto para aplicações práticas tem o estudo da matéria sob condições extremas: em temperaturas muito baixas ou muito altas, ultra-alta pressão ou vácuo profundo, campos magnéticos superfortes, etc.
Vácuo alto e ultra-alto é criado em dispositivos eletrônicos e aceleradores para evitar colisões de partículas aceleradas com moléculas de gás. O estudo das propriedades de superfícies e camadas finas de matéria em um vácuo ultra-alto abriu um novo ramo da física sólida. Esses estudos são muito importantes, em particular, em relação à exploração do espaço sideral.

V. Alguns problemas não resolvidos da física

Física de partículas

O problema mais fundamental da física foi e continua sendo o estudo da matéria no nível mais profundo - o nível das partículas elementares. Uma grande quantidade de material experimental foi acumulada nas interações e transformações de partículas elementares, mas ainda não foi possível fazer uma generalização teórica deste material de um ponto de vista unificado. Ou faltam os fatos necessários, ou - uma ideia que possa lançar luz sobre o problema da estrutura e interação das partículas elementares. O problema de determinar teoricamente o espectro de massa das partículas elementares permanece sem solução. Talvez, para resolver este problema e eliminar infinitos na teoria quântica de campos, seja necessário introduzir algum comprimento fundamental, o que limitaria a aplicabilidade dos conceitos usuais de espaço-tempo como uma entidade contínua. Até distâncias da ordem de 10-15 cm e, consequentemente, tempos t ~ l / s ~ 10-25 seg, as relações espaço-temporais usuais são aparentemente válidas, mas em distâncias mais curtas, elas podem ser violadas. Estão sendo feitas tentativas para introduzir o comprimento fundamental na teoria do campo unificado (Heisenberg et al.) E em várias variantes da quantização do espaço-tempo. No entanto, até agora, essas tentativas não levaram a resultados tangíveis.

O problema de construir uma teoria quântica da gravitação não foi resolvido. Apenas a possibilidade de reunir as quatro interações fundamentais é delineada.

Astrofísica. O desenvolvimento da física das partículas elementares e do núcleo atômico tornou possível abordar a compreensão de problemas complexos como a evolução do universo nos primeiros estágios de desenvolvimento, a evolução das estrelas e a formação de elementos químicos... No entanto, apesar das enormes conquistas, a astrofísica moderna também enfrenta problemas não resolvidos. Ainda não está claro qual é o estado da matéria em grandes densidades e pressões dentro das estrelas e "buracos negros". A natureza física dos quasares e galáxias de rádio, as causas das explosões de supernovas e o aparecimento de explosões de raios gama não foram esclarecidas. Não está claro por que as tentativas de detectar neutrinos solares, que deveriam nascer no interior do Sol durante as reações termonucleares, não tiveram sucesso (ver Astronomia de Neutrinos). O mecanismo de aceleração de partículas carregadas (raios cósmicos) durante as explosões de supernovas e o mecanismo de emissão de ondas eletromagnéticas por pulsares, etc. não foram totalmente revelados. Finalmente, apenas o começo foi feito para resolver o problema da evolução do Universo como um todo. O que aconteceu nos primeiros estágios da evolução do Universo e qual é o seu destino no futuro?

A expansão observada do Universo mudará por sua contração? Não há respostas para todas essas perguntas ainda.

Não há dúvida de que os problemas mais fundamentais da física moderna estão associados às partículas elementares e ao problema da estrutura e do desenvolvimento do universo. Aqui é necessário descobrir novas leis do comportamento da matéria em condições incomuns - em distâncias espaço-temporais ultrapequenas no microcosmo e densidades ultraltas no início da expansão do Universo. Todos os outros problemas são de natureza mais específica e estão associados à procura de caminhos uso efetivo leis básicas para explicar os fenômenos observados e prever novos.
Física nuclear. Após a criação do modelo próton-nêutron do núcleo, grande progresso foi feito no entendimento da estrutura dos núcleos atômicos, vários modelos nucleares aproximados foram construídos. No entanto, ainda não existem teorias consistentes sobre o núcleo atômico (semelhante à teoria das camadas atômicas), o que permite calcular, em particular, a energia de ligação dos núcleos no núcleo e os níveis de energia do núcleo. O sucesso nessa direção só pode ser alcançado após a construção da teoria das interações fortes.

O estudo experimental da interação dos núcleons no núcleo - forças nucleares - é repleto de grandes dificuldades devido ao extremo natureza complexa essas forças. Eles dependem da distância entre os núcleons, das velocidades dos núcleons e das orientações de seus spins.
De considerável interesse é a possibilidade de detectar experimentalmente elementos de vida longa com números atômicos em torno de 114 e 126 (as chamadas ilhas de estabilidade), que são previstos pela teoria.

Um dos problemas mais importantes a ser resolvido por F. é o problema da fusão termonuclear controlada. Trabalho experimental e teórico está sendo realizado em larga escala para criar plasma de deutério-trítio quente, que é necessário para uma reação termonuclear. Sov. as instalações do tipo "tokamak" são, aparentemente, as mais promissoras a esse respeito. Existem outras possibilidades. Em particular, para aquecer grãos de uma mistura de deutério com trítio, pode-se usar radiação laser, feixes de elétrons ou íons obtidos em aceleradores pulsados ​​de alta potência.

Eletrônica quântica. Os geradores quânticos produzem radiação eletromagnética única em suas propriedades. A radiação laser é coerente e pode atingir enorme potência em uma faixa espectral estreita: 1012-1013 W, e a divergência do feixe de luz é de apenas cerca de 10-4 rad. A intensidade do campo elétrico da radiação laser pode exceder a intensidade do campo intra-atômico.

A criação dos lasers deu origem ao surgimento e rápido desenvolvimento de um novo ramo da ótica - a ótica não linear. Na radiação de laser forte, os efeitos de interação não linear tornam-se significativos onda eletromagnética com o meio ambiente. Esses efeitos - ajuste da freqüência de radiação, autofocalização do feixe, etc. - são de grande interesse teórico e prático.

A monocromaticidade quase estrita da radiação laser tornou possível obter uma imagem tridimensional de objetos (holografia) usando a interferência de ondas.

A radiação laser é utilizada para a separação de isótopos, em particular para o enriquecimento de urânio com o isótopo 235U, para a evaporação e soldadura de metais a vácuo, em medicina, etc. Aparentemente, o uso de lasers para aquecer a matéria a temperaturas nas quais as reações termonucleares são possíveis é promissor. A tarefa é buscar novas aplicações da radiação laser, por exemplo, para comunicação no espaço.
Os principais problemas a serem resolvidos são um novo aumento na potência e uma extensão da faixa de comprimento de onda de um feixe de laser com uma sintonia de frequência suave. O trabalho de pesquisa está em andamento para criar lasers de raios-X e gama.

Física do estado sólido. A física do estado sólido desempenha um papel importante na investigação das possibilidades de produção de materiais com propriedades extremas em termos de resistência mecânica, resistência ao calor e características elétricas, magnéticas e ópticas.
Desde os anos 70. século 20 pesquisas ativas estão em andamento para mecanismos não-fonônicos de supercondutividade. A solução desse problema possivelmente possibilitaria a criação de supercondutores de alta temperatura. Isso seria de grande importância para a física e a tecnologia experimental, e também resolveria o problema da transmissão de energia elétrica por longas distâncias praticamente sem perdas.

Um problema muito interessante é o estudo das propriedades físicas do hélio-3 sólido e líquido em temperaturas ultrabaixas (abaixo de 3 × 10-3 K). O hélio-3 sólido deve ser aparentemente o único antiferroímã nuclear trocável. O hélio-3 líquido é o líquido de Fermi mais simples, cuja teoria é um assunto essencial da estatística quântica.
A produção de hidrogênio metálico e o estudo de suas propriedades físicas são de grande interesse científico e prático. Deve ser um objeto físico único, uma vez que sua rede consiste em prótons. Acredita-se que o hidrogênio metálico possuirá uma série de propriedades incomuns, cujo estudo pode levar a descobertas fundamentalmente novas em F. K e uma pressão de cerca de 1 Mbar.
Novos rumos de pesquisa de sólidos por métodos acústicos estão sendo desenvolvidos: acustoeletrônica (interação de ondas acústicas com elétrons em semicondutores, metais e supercondutores), ressonâncias nucleares e paramagnéticas acústicas, determinação do espectro de fônons e curvas de dispersão.
Deve-se notar que o desenvolvimento de direções tradicionais na física do estado sólido muitas vezes leva a descobertas inesperadas de novos fenômenos físicos ou materiais com propriedades substancialmente novas, como o efeito Josephson, semicondutores com heterojunções, supercondutores do tipo II, cristais quânticos, bigodes, etc. ...

Apesar dos sucessos alcançados, é necessário desenvolver métodos físicos fundamentalmente novos para obter dispositivos semicondutores mais confiáveis ​​e em miniatura (ver Microeletrônica, Eletrônica funcional), métodos para obter pressões mais altas, temperaturas ultrabaixas, etc.

De grande importância é o estudo da composição do fósforo dos polímeros com suas propriedades mecânicas e termodinâmicas incomuns, em particular os biopolímeros, aos quais pertencem todas as proteínas.

Física do plasma

A importância dos estudos de plasma está relacionada a duas circunstâncias. Em primeiro lugar, a parte avassaladora da matéria do Universo está no estado de plasma: as estrelas e suas atmosferas, o meio interestelar, cinturões de radiação e a ionosfera da Terra, etc. Em segundo lugar, é no plasma de alta temperatura que existe uma possibilidade real de transportar fusão termonuclear controlada.
As equações básicas que descrevem o plasma são bem conhecidas. No entanto, os processos no plasma são tão complexos que é muito difícil prever seu comportamento sob várias condições. O principal problema que a física do plasma enfrenta é o desenvolvimento de métodos eficazes para aquecer o plasma a uma temperatura da ordem de 1 bilhão de graus e mantê-lo neste estado (apesar das várias instabilidades inerentes ao plasma de alta temperatura) por um tempo suficiente para um reação termonuclear a ocorrer em uma parte maior do volume de trabalho. A solução do problema da estabilidade do plasma também desempenha um papel importante na garantia do funcionamento dos aceleradores com feixes em colisão e no desenvolvimento dos chamados. métodos coletivos de aceleração de partículas.
O estudo da radiação de plasma eletromagnético e corpuscular é de importância decisiva para explicar a aceleração de partículas carregadas durante explosões de supernova, radiação de pulsar, etc.
É claro que os problemas da física moderna não se limitam aos listados acima; todas as seções de F. têm seus próprios problemas, e o número total deles é tão grande que não podem ser citados aqui.

Vi. A conexão da física com outras ciências e tecnologia

Física e Filosofia

Devido à generalidade e amplitude de suas leis, a filosofia sempre influenciou o desenvolvimento da filosofia e ela própria esteve sob sua influência. Com cada nova descoberta nas ciências naturais, de acordo com F. Engels, o materialismo deve inevitavelmente mudar sua forma.
Nas conquistas da filosofia moderna, a forma mais elevada de materialismo - o materialismo dialético - encontra cada vez mais confirmação e concretização. Na transição para o estudo do micromundo, a lei da dialética - a unidade dos opostos - se manifesta de maneira especialmente clara. A unidade do descontínuo e do contínuo é refletida no dualismo partícula-onda das micropartículas. O necessário e o acidental estão inextricavelmente ligados, o que se expressa na natureza probabilística e estatística das leis do movimento das micropartículas. A unidade do mundo material proclamada pelo materialismo é claramente manifestada nas transformações mútuas das partículas elementares - formas possíveis da existência da matéria física. Uma análise filosófica correta é especialmente importante durante as épocas revolucionárias do desenvolvimento da filosofia, quando as velhas idéias são submetidas a uma revisão radical. Um exemplo clássico de tal análise foi dado por V. I. Lenin em seu livro Materialism and Empirio-Criticism. Somente uma compreensão da relação entre verdades absolutas e relativas torna possível avaliar corretamente a essência das transformações revolucionárias na física, para ver nelas o enriquecimento e aprofundamento de nossas idéias sobre a matéria, e o desenvolvimento posterior do materialismo.

Física e Matemática. F. é uma ciência quantitativa. Suas leis básicas são formuladas em linguagem matemática, principalmente com o auxílio de equações diferenciais. Por outro lado, novas idéias e métodos em matemática freqüentemente surgiam sob a influência de F. A análise do infinitesimal foi criada por Newton (simultaneamente com G.V. Leibniz) na formulação das leis básicas da mecânica. A criação da teoria do campo eletromagnético levou ao desenvolvimento da análise vetorial. O desenvolvimento de ramos da matemática como cálculo tensorial, geometria Riemanniana, teoria dos grupos, etc., foi estimulado por novas teorias físicas: relatividade geral e mecânica quântica. O desenvolvimento da teoria quântica de campos apresenta novos problemas na análise funcional, etc.

Física e outras ciências naturais. O relacionamento próximo de F. com outros ramos das ciências naturais levou, de acordo com S. I. Vavilov, ao fato de que F. tinha raízes profundas na astronomia, geologia, química, biologia e outras ciências naturais. Uma série de disciplinas de fronteira foram formadas: astrofísica, geofísica, biofísica, físico-química, etc. Os métodos de pesquisa física tornaram-se de importância decisiva para todas as ciências naturais. Microscópio eletrônico aumentou a capacidade de distinguir os detalhes de objetos em várias ordens de magnitude, tornando possível observar moléculas individuais. A análise estrutural de raios-X é usada para estudar não apenas os cristais, mas também as estruturas biológicas mais complexas. Seu verdadeiro triunfo foi o estabelecimento da estrutura das moléculas de DNA que compõem os cromossomos dos núcleos celulares de todos os organismos vivos e são portadores de código de herança. A revolução na biologia, associada ao surgimento da biologia molecular e genética, teria sido impossível sem F.

O chamado método. átomos marcados desempenham um grande papel no estudo do metabolismo em organismos vivos; muitos problemas em biologia, fisiologia e medicina foram resolvidos com a ajuda deles. O ultrassom é usado na medicina para diagnóstico e terapia.
Como mencionado acima, as leis da mecânica quântica fundamentam a teoria das ligações químicas. Átomos rastreados podem ser usados ​​para rastrear a cinética de reações químicas. Os métodos físicos, por exemplo, com o auxílio de feixes de múons obtidos em aceleradores, permitem realizar reações químicas que não ocorrem em condições normais. São usados ​​análogos estruturais do átomo de hidrogênio - positrônio e muônio, cuja existência e propriedades foram estabelecidas por físicos. Em particular, com a ajuda de muônio, é possível medir a taxa de reações químicas rápidas. (Veja Muons.)

O desenvolvimento da eletrônica permite observar os processos ocorrendo em um tempo inferior a 10-12 segundos. Também levou a uma revolução na astronomia - a criação da radioastronomia.
Os resultados e métodos da física nuclear são aplicados em geologia; com a ajuda deles, em particular, meça a idade absoluta das rochas e da Terra como um todo (ver Geocronologia).

Física e tecnologia

A filosofia é a base das áreas mais importantes da tecnologia. Engenharia elétrica e de energia, engenharia de rádio e eletrônica, engenharia de iluminação, equipamentos de construção, engenharia hidráulica e uma parte significativa do equipamento militar cresceram com base na física. Graças ao uso consciente das leis físicas, a tecnologia do campo das descobertas fortuitas entrou no amplo caminho do desenvolvimento intencional. Se no século 19. dezenas de anos se passaram entre a descoberta física e sua primeira aplicação técnica, mas agora esse período foi reduzido para vários anos.

Por sua vez, o desenvolvimento da tecnologia exerce influência não menos significativa no aprimoramento da física experimental. Sem o desenvolvimento da engenharia elétrica, da eletrônica e da tecnologia de produção de materiais muito fortes e livres de impurezas, seria impossível criar dispositivos como aceleradores de partículas carregadas, bolhas enormes e câmaras de faísca e dispositivos semicondutores etc.
O surgimento da energia nuclear está associado a grandes avanços na energia nuclear. Os reatores geradores de nêutrons rápidos podem usar urânio natural e tório, cujas reservas são grandes. A implementação da fusão termonuclear controlada salvará quase para sempre a humanidade da ameaça de uma crise energética.

A tecnologia do futuro não será baseada em materiais naturais prontos, mas principalmente em materiais sintéticos de antemão propriedades dadas... A criação e o estudo da estrutura da matéria desempenham um papel decisivo na solução deste problema.
O desenvolvimento da eletrônica e a criação de computadores avançados baseados nas conquistas da física do estado sólido expandiram incomensuravelmente o potencial criativo do homem, e também levaram à construção de autômatos "pensantes" capazes de tomar decisões rápidas em um ambiente que requer o processamento de um grande quantidade de informações.

Um enorme aumento na produtividade do trabalho é alcançado através do uso de computadores (automação da produção e gestão). À medida que a economia nacional se torna mais complexa, a quantidade de informações processadas torna-se extremamente grande. Portanto, é muito importante aprimorar ainda mais os computadores - aumentando sua velocidade e capacidade de memória, aumentando a confiabilidade, reduzindo o tamanho e o custo. Essas melhorias são possíveis apenas com base nas novas conquistas de F.
A física moderna está na origem das transformações revolucionárias em todas as áreas da tecnologia. Ela dá uma contribuição decisiva para a revolução científica e tecnológica.

Literatura

História e metodologia da ciência. Engels F., Dialectics of nature, M., 1975; Lenin V.I., Materialism and empirio-criticism, Complete collection of works, 5th ed., V. 18; seus Cadernos Filosóficos, ibid., v. 29; Dorfman Ya. G., História mundial da física desde os tempos antigos até o final do século XVIII, M., 1974; Kudryavtsev PS, History of Physics, vol. 1–3, Moscou, 1956–71; Laue M., History of Physics, trad. from it., M., 1956; Llozzi M., History of Physics, trad. com itálico, M., 1970; Markov M.A., On the nature of matter, M., 1976.
Física geral. Khaikin S.E., Physical foundations of mechanics, 2ª ed., M., 1971; Strelkov S.P., Mechanics, 3rd ed., M., 1975; Landsberg G.S., Optics, 5ª ed., M., 1976; Kikoin A.K., Kikoin I.K., Molecular Physics, 2ª ed., M., 1976; Kalashnikov S.G., Electricity, 3ª ed., M., 1970; Gorelik G.S., Oscilações e ondas. Introdução à acústica, radiofísica e óptica, 2ª ed., M., 1959; Born M., Atomic Physics, trad. from English, 3rd ed., M., 1970; Shpolsky E.V., Atomic Physics, vol.1, 6ª ed., Vol. 2, 4ª ed., Moscou, 1974; Feynman R., Leighton R., Sands M., Feynman Lectures in Physics, trad. do inglês, em. 1-9, M., 1965-67; Berkeley Physics Course, vols. 1-5, trad. from English, M., 1971–74.
Física Teórica. O curso de física teórica: Landau L. D., Lifshits E. M., vol.1, Mechanics, 3rd ed., M., 1973; vol. 2, Field Theory, 6ª ed., Moscou, 1973; volume 3, mecânica quântica. Teoria não relativística, 3ª ed., M., 1974; Berestetskiy VB, Lifshits EM, Pitaevskiy LP, t.4, p.1, Relativistic quantum theory, M., 1968; Lifshits E. M., Pitaevsky L. P., volume 4, parte 2, teoria quântica relativística, M., 1971; Landau L.D., Lifshits E.M., t.5, parte 1, Statistical physics, 3rd ed., M., 1976; eles, Continuum Mechanics, 2ª ed., Moscou, 1954; deles. Eletrodinâmica de meios contínuos, M., 1959; G. Goldstein, Mecânica Clássica, trad. from English, 2nd ed., M., 1975; Leontovich M. A., Introdução à termodinâmica, 2ª ed., M. - L., 1952; seu, Statistical Physics, M. - L., 1944; R. Kubo, Thermodynamics, trad. do inglês., M., 1970; ele, Statistical Mechanics, trad. do inglês., M., 1967; Tamm I.E., Fundamentos da teoria da eletricidade, 9ª ed., M., 1976; Born M., Wolf E., Fundamentals of optics, trad. from English, 2nd ed., M., 1973; Davydov A.S., Quantum mechanics, 2ª ed., M., 1973; Blokhintsev D.I, Fundamentals of Quantum Mechanics, 5ª ed., M., 1976; Dirac P.A.M., Principles of Quantum Mechanics, trad. from English, M., 1960. Monographs. Abrikosov AA, Introdução à teoria dos metais normais, M., 1972; Andronov A.A., Vitt A.A., Khaikin S.E., Teoria das oscilações, 2ª ed., Moscou, 1959; Artsimovich L.A., Controlled thermonuclear responses, 2ª ed., M., 1963; Akhiezer A.I., Quantum electrodynamics, 1969; Bethe G., Sommerfeld A., Electronic Theory of Metals, trad. a partir dele., L. - M., 1938; Blokhin M.A., Physics of X-rays, 2ª ed., M., 1957; Bogolyubov N. N., Problemas de teoria dinâmica em física estatística, M. - L., 1946; Bogolyubov N. N., Shirkov D. V., Introdução à teoria de campos quantizados, 3ª ed., M., 1976; L. Brillouin, Ciência e Teoria da Informação, trad. do inglês., M., 1960; Vonsovsky S.V., Magnetism, M., 1971; Gibbs J. V., trabalho termodinâmico, trad. do inglês., M. - L., 1950; ele, Princípios Básicos de Mecânica Estatística, trad. do inglês., M. - L., 1946; Ginzburg V.L., On Physics and Astrophysics, 2ª ed., M., 1974; Anselm AI, Introdução à teoria dos semicondutores, M. - L., 1962; Elyashevich MA, Atomic and molecular Spectroscopy, M., 1962; Zel'dovich Ya. B., Novikov ID, A teoria da gravitação e evolução das estrelas, M., 1971; Zel'dovich Ya. B., Raizer Yu. P., Física das ondas de choque e fenômenos hidrodinâmicos de alta temperatura, 2ª ed., Moscou, 1966; A. Sommerfeld, A estrutura do átomo e espectros, trad. com ele., v. 1-2, M. , 1956; Zubarev DN, Nonequilibrium Statistical Therodynamics, M., 1971; Kapitsa P. L., Experiment, teoria, prática, M., 1974; G. Carslow, D. Jaeger, Thermal Conductivity of Solids, trad. from English., M., 1964; Kittel Ch., Introdução à Física do Estado Sólido, trad. from English, 2nd ed., M., 1962; Lorentz GA, Teoria dos elétrons e sua aplicação aos fenômenos de luz e radiação térmica, trad. do inglês, 2ª ed., M., 1956; Lukyanov S. Yu., Plasma quente e fusão nuclear controlada, M., 1975; I. Neiman, von, Mathematical Foundations of Quantum Mechanics, trad. from it., M., 1964; Okun LB, interação fraca de partículas elementares, M., 1963; Skuchik E., Fundamentals of acoustics, trad. do inglês, t.1-2, M., 1976; Strett JV (Lord Rayleigh), Teoria do som, vol. 1-2, 2ª ed., Moscou, 1955; Fock V.A., Teoria do espaço, tempo e gravitação, 2ª ed., Moscou, 1961; Frenkel Ya. I., Introdução à teoria dos metais, 3ª ed., M., 1958; Einstein A., Infeld L., Evolution of Physics, trad. from English, 3rd ed., M., 1965. Enciclopédias e livros de referência: dicionário enciclopédico físico, v. 1-5, Moscou, 1960-66; Dicionário Enciclopédico de Física (ed. J. Thewlis), v. 1-9, Oxf. - N. Y., 1961–64; Yavorskiy B.M., Detlaf A.A., Manual de física para engenheiros e estudantes universitários, 6ª ed., Moscou, 1974.

A.M. Prokhorov. Física // Grande Enciclopédia Soviética

Dezenas e centenas de milhares de experimentos físicos foram realizados para história de mil anos Ciência. Não é fácil selecionar alguns dos "melhores" para contar sobre eles. Quais devem ser os critérios de seleção?

Quatro anos atrás, o New York Times publicou um artigo de Robert Crees e Stony Beech. Descreveu os resultados de uma pesquisa realizada entre físicos. Cada entrevistado teve que citar as dez mais belas da história dos experimentos da física. Em nossa opinião, o critério da beleza não é de forma alguma inferior a outros critérios. Portanto, vamos falar sobre os experimentos incluídos entre os dez primeiros de acordo com os resultados da pesquisa de Kriez e Buk.

1. Experiência de Eratóstenes de Cirene

Um dos mais antigos experimentos físicos conhecidos, como resultado do qual o raio da Terra foi medido, foi realizado no século 3 aC pelo bibliotecário da famosa Biblioteca de Alexandria, Erastophenes of Cyrene.

O desenho experimental é simples. Ao meio-dia, no dia do solstício de verão, na cidade de Siena (atual Aswan), o Sol estava em seu zênite e os objetos não projetavam sombra. No mesmo dia e na mesma hora, na cidade de Alexandria, localizada a 800 quilômetros de Siena, o Sol desviou-se do zênite em cerca de 7 °. Isso é cerca de 1/50 de um círculo completo (360 °), do qual resulta que a circunferência da Terra é de 40.000 quilômetros e o raio é de 6.300 quilômetros.

Parece quase inacreditável que o raio da Terra medido por um método tão simples acabou sendo apenas 5% menor do que o valor obtido pelos métodos modernos mais precisos.

2. Experiência de Galileo Galilei

No século XVII, o ponto de vista dominante de Aristóteles, que ensinava que a velocidade da queda de um corpo depende da sua massa. Quanto mais pesado o corpo, mais rápido ele cai. Observações que cada um de nós pode fazer em Vida cotidiana parece confirmar isso.

Tente liberar simultaneamente de mãos leves um palito e uma pedra pesada. A pedra vai tocar o solo mais rápido. Essas observações levaram Aristóteles à conclusão sobre a propriedade fundamental da força com a qual a Terra atrai outros corpos. Na verdade, a velocidade de queda é influenciada não apenas pela força da gravidade, mas também pela força da resistência do ar. A proporção dessas forças para objetos leves e para objetos pesados ​​é diferente, o que leva ao efeito observado. O italiano Galileo Galilei questionou a correção das conclusões de Aristóteles e encontrou uma maneira de testá-las. Para fazer isso, ele largou uma bala de canhão e uma bala de mosquete muito mais leve da Torre Inclinada de Pisa no mesmo momento. Ambos os corpos tinham aproximadamente o mesmo forma aerodinâmica, portanto, tanto para o núcleo quanto para a bala, as forças de resistência do ar eram insignificantes em comparação com as forças de atração.

Galileu descobriu que os dois objetos atingem o solo no mesmo momento, ou seja, a velocidade de sua queda é a mesma. Os resultados obtidos por Galileo. - uma consequência da lei da gravitação universal e da lei, segundo a qual a aceleração experimentada pelo corpo é diretamente proporcional à força que atua sobre ele e inversamente proporcional à massa.

3. Outro experimento de Galileo Galilei

Galileu mediu a distância que as bolas, rolando em uma prancha inclinada, percorriam em intervalos iguais de tempo, medida pelo autor do experimento em um relógio de água. O cientista descobriu que, se o tempo for dobrado, as bolas rolarão quatro vezes mais. Essa relação quadrática fazia com que as bolas sob a ação da gravidade se movessem a uma taxa acelerada, o que contradiz a afirmação de Aristóteles, assumida há 2.000 anos, de que os corpos sobre os quais uma força atua se movem a uma velocidade constante, ao passo que se a força é não aplicada ao corpo, então está em repouso.

Os resultados desta experiência de Galileu, como os resultados da sua experiência com a Torre Inclinada de Pisa, serviram mais tarde de base para a formulação das leis da mecânica clássica.

4. Experiência de Henry Cavendish

Depois que Isaac Newton formulou a lei da gravitação universal: a força de atração entre dois corpos com massas de Meath, localizados a uma distância r um do outro, é igual a F = G (mM / r2), faltou determinar o valor de a constante gravitacional G. Para fazer isso, era necessário medir a atração da força entre dois corpos com massas conhecidas. Isso não é tão fácil de fazer, porque a gravidade é muito pequena.

Sentimos a atração gravitacional da Terra. Mas é impossível sentir a atração até mesmo de uma montanha muito grande próxima, porque ela é muito fraca. Era necessário um método muito sutil e sensível. Foi inventado e aplicado em 1798 pelo compatriota de Newton, Henry Cavendish. Ele usou uma balança de torção - uma cadeira de balanço com duas bolas suspensas por uma corda muito fina. Cavendish mediu o deslocamento do balancim (rotação) ao aproximar as bolas da balança de outras bolas de maior massa.

Para aumentar a sensibilidade, o deslocamento foi determinado pelos feixes de luz refletidos nos espelhos montados nas esferas do balancim. Como resultado desse experimento, Cavendish conseguiu determinar com bastante precisão o valor da constante gravitacional e, pela primeira vez, calcular a massa da Terra.

5. A experiência de Jean Bernard Foucault

O físico francês Jean Bernard Leon Foucault em 1851 provou experimentalmente a rotação da Terra em torno de seu eixo usando um pêndulo de 67 metros suspenso no topo da cúpula do Panteão parisiense. O plano de oscilação do pêndulo permanece inalterado em relação às estrelas. O observador, que está na Terra e gira com ela, vê que o plano de rotação está girando lentamente na direção oposta à direção da rotação da Terra.

6. Experiência de Isaac Newton

Em 1672, Isaac Newton realizou um experimento simples que é descrito em todos os livros escolares. Depois de fechar as venezianas, ele fez um pequeno orifício por onde passou o raio de sol. Um prisma foi colocado no caminho do feixe e uma tela foi colocada atrás do prisma.

Na tela, Newton observou um "arco-íris": um raio de sol branco, passando por um prisma, transformou-se em vários raios coloridos - do violeta ao vermelho. Este fenômeno é denominado dispersão de luz. Sir Isaac não foi o primeiro a observar esse fenômeno. Já no início da nossa era se sabia que grandes monocristais de origem natural têm a propriedade de decompor a luz em cores. Os primeiros estudos de dispersão de luz em experimentos com um prisma de vidro triangular antes mesmo de Newton foram realizados pelo inglês Chariot e pelo naturalista tcheco Marci.

No entanto, antes de Newton, tais observações não foram submetidas a análises sérias, e as conclusões tiradas com base nelas não foram verificadas por experimentos adicionais. Ambos, Chariot e Marzi, permaneceram seguidores de Aristóteles, que argumentou que a diferença na cor é determinada pela diferença na quantidade de escuridão "misturada" com a luz branca. Violeta, de acordo com Aristóteles, ocorre com a maior adição de escuridão à luz, e vermelho - com o mínimo. Newton, por outro lado, fez experimentos adicionais com prismas cruzados, quando a luz transmitida por um prisma passa por outro. Com base na totalidade de seus experimentos, ele concluiu que "nenhuma cor surge da brancura e do preto misturados, exceto para os escuros intermediários; a quantidade de luz não muda o tipo de cor." Ele mostrou que a luz branca deve ser tratada como um composto. As cores principais vão do roxo ao vermelho. Este experimento de Newton serve como um exemplo maravilhoso de como diferentes pessoas, observando o mesmo fenômeno, o interpretam de maneiras diferentes, e somente aqueles que questionam sua interpretação e estabelecem experimentos adicionais chegam às conclusões corretas.

7. Experiência de Thomas Young

Até o início do século 19, prevaleciam as idéias sobre a natureza corpuscular da luz. A luz foi considerada composta de partículas individuais - corpúsculos. Embora os fenômenos de difração e interferência da luz tenham sido observados por Newton ("anéis de Newton"), o ponto de vista geralmente aceito permaneceu corpuscular. Considerando as ondas na superfície da água de duas pedras arremessadas, percebe-se como, sobrepostas uma à outra, as ondas podem interferir, ou seja, se suprimirem ou se reforçarem mutuamente. Com base nisso, o físico e médico inglês Thomas Jung fez experimentos em 1801 com um feixe de luz que passava por dois orifícios de uma tela opaca, formando assim duas fontes de luz independentes, semelhantes a duas pedras atiradas na água. Como resultado, ele observou um padrão de interferência consistindo em listras pretas e brancas alternadas, que não poderiam ter se formado se a luz consistisse em corpúsculos. As listras escuras correspondem às áreas onde as ondas de luz das duas fendas se apagam. Riscos de luz apareceram onde as ondas de luz se reforçaram. Assim, a natureza ondulatória da luz foi provada.

8. Experiência de Klaus Jonsson

O físico alemão Klaus Jonsson conduziu um experimento semelhante ao experimento de Thomas Jung sobre a interferência da luz em 1961. A diferença era que, em vez de feixes de luz, Jonsson usava feixes de elétrons. Ele obteve um padrão de interferência semelhante ao que Jung observou para as ondas de luz. Isso confirmou a exatidão das disposições da mecânica quântica sobre a natureza mista onda-partícula das partículas elementares.

9. Experiência de Robert Millikan

A ideia de que a carga elétrica de qualquer corpo é discreta (ou seja, consiste em um conjunto maior ou menor de cargas elementares que não estão mais sujeitas à fragmentação) surgiu no início do século 19 e foi apoiada por físicos famosos como M. Faraday e G. Helmholtz. O termo "elétron" foi introduzido na teoria, denotando uma determinada partícula - o portador de uma carga elétrica elementar. Esse termo, entretanto, era na época puramente formal, uma vez que nem a própria partícula, nem a carga elétrica elementar associada a ela foram descobertas experimentalmente.

Em 1895, K. Roentgen, durante experimentos com um tubo de descarga, descobriu que seu ânodo, sob a ação dos raios que voam do cátodo, é capaz de emitir seus próprios raios X, ou raios X. No mesmo ano, o físico francês J. Perrin provou experimentalmente que os raios catódicos são uma corrente de partículas carregadas negativamente. Mas, apesar do colossal material experimental, o elétron permaneceu uma partícula hipotética, uma vez que não havia um único experimento em que elétrons individuais participassem. O físico americano Robert Millikan desenvolveu um método que se tornou um exemplo clássico de um experimento físico elegante.

Millikan conseguiu isolar no espaço várias gotas de água carregadas entre as placas do condensador. Ao iluminar com raios X, foi possível ionizar levemente o ar entre as placas e alterar a carga das gotículas. Quando o campo foi ligado entre as placas, a gota lentamente moveu-se para cima sob a ação da atração elétrica. Com o campo desligado, ele desceu sob a influência da gravidade. Ligando e desligando o campo, foi possível estudar cada uma das gotas suspensas entre as placas por 45 segundos, após os quais evaporaram. Em 1909, foi possível determinar que a carga de qualquer gota era sempre um múltiplo inteiro do valor fundamental e (carga do elétron). Essa foi uma evidência convincente de que os elétrons eram partículas com a mesma carga e massa. Substituindo gotículas de água por gotículas de óleo, Millikan conseguiu aumentar a duração das observações para 4,5 horas e em 1913, eliminando uma após outra possíveis fontes de erro, publicou o primeiro valor medido da carga do elétron: e = (4,774 ± 0,009) x 10-10 unidades eletrostáticas.

10. Experiência de Ernst Rutherford

No início do século 20, tornou-se claro que os átomos consistem em elétrons carregados negativamente e alguns carga positiva, graças ao qual o átomo permanece geralmente neutro. No entanto, havia muitas suposições sobre a aparência desse sistema "positivo-negativo", enquanto os dados experimentais que tornariam possível fazer uma escolha a favor de um modelo ou outro estavam claramente ausentes.

A maioria dos físicos adotou o modelo de J.J. Thomson: um átomo como uma esfera positiva uniformemente carregada com um diâmetro de cerca de 10-8 cm com elétrons negativos flutuando em seu interior. Em 1909, Ernst Rutherford (assistido por Hans Geiger e Ernst Marsden) montou um experimento para entender a estrutura real do átomo. Neste experimento, partículas a pesadas com carga positiva movendo-se a uma velocidade de 20 km / s passaram por uma fina folha de ouro e foram espalhadas por átomos de ouro, desviando da direção original do movimento. Para determinar o grau de deflexão, Geiger e Marsden tiveram que usar um microscópio para observar os flashes na placa do cintilador, que ocorreram onde a partícula a entrou na placa. Ao longo de dois anos, cerca de um milhão de flares foram contados e foi provado que cerca de uma partícula em 8.000, como resultado do espalhamento, muda de direção em mais de 90 ° (ou seja, volta para trás). Isso não poderia ter acontecido no átomo "solto" de Thomson. Os resultados testemunharam inequivocamente a favor do chamado modelo planetário do átomo - um minúsculo núcleo maciço com cerca de 10-13 cm de tamanho e elétrons orbitando esse núcleo a uma distância de cerca de 10-8 cm.