A renormalização é indiscutivelmente o avanço mais importante na física teórica nos últimos 50 anos.

Você não precisa analisar o comportamento das moléculas de água individuais para entender o comportamento das gotas ou analisar as gotas para entender as ondas. A capacidade de alternar o foco entre diferentes escalas é a essência da renormalização.
Na década de 1940, os físicos pioneiros encontraram uma nova camada de realidade. As partículas foram substituídas por campos - entidades abrangentes e agitadas que preencheram todo o espaço como um oceano. Uma pequena ondulação em tal campo poderia representar um elétron, a outra um fóton, e suas interações, aparentemente, poderiam explicar todos os fenômenos eletromagnéticos.
Havia apenas um problema - toda essa teoria era baseada em esperanças e orações. Apenas com a ajuda de uma técnica como " renormalização"Ao ocultar cuidadosamente as quantidades infinitas, os pesquisadores poderiam contornar as previsões absurdas da teoria. O circuito funcionou, mas mesmo aqueles que desenvolveram a teoria suspeitaram que poderia ser um castelo de cartas agarrado a um truque matemático distorcido.
“Eu diria que é um 'processo louco'”, escreveu Richard Feynman mais tarde. "Tivemos que mergulhar em tais truques, e é por isso que não podíamos provar que a teoria da eletrodinâmica quântica é matematicamente consistente."
A teoria foi justificada mais tarde, após várias décadas, e graças ao campo aparentemente não relacionado da física. Os pesquisadores que estudaram a magnetização descobriram que a renormalização não tem nada a ver com o infinito. Essa teoria diz respeito à divisão do universo em reinos de tamanhos independentes. E essa perspectiva hoje rege muitos aspectos da física.
David Tong , um físico teórico da Universidade de Cambridge, escreve que a renormalização é "possivelmente o avanço mais importante na física teórica nos últimos 50 anos".
A Tale of Two Charges
De algum ponto de vista, as teorias de campo são as teorias de maior sucesso na ciência. A teoria da eletrodinâmica quântica (QED), um dos pilares do Modelo Padrão da física de partículas, produziu previsões teóricas que coincidem com experimentos de até bilionésimos.
Mas nas décadas de 1930 e 1940, o futuro da teoria não era tão certo. Aproximar o comportamento complexo dos campos freqüentemente produziu respostas infinitas e sem sentido, levando alguns teóricos a acreditar que as teorias de campo são um beco sem saída.
Feynman e outros começaram a procurar novas perspectivas - talvez algumas que trouxessem as partículas de volta à cena - mas, em vez disso, encontraram um truque. Eles descobriram que as equações QED fornecem previsões razoáveis quando aplicadas a elas por um procedimento de renormalização enigmático.
O exercício é mais ou menos assim. Se os cálculos QED fornecerem uma quantidade infinita, corte-a. Converta a parte que deseja ir ao infinito em um coeficiente fixo na frente da soma. Substitua pela medição final feita no laboratório. Finalmente, deixe a quantidade corrigida correr até o infinito.
Para alguns físicos, essa receita era como tocar em uma casca. "Isso simplesmente não pode ser chamado de matemática significativa", escreveu o eminente teórico quântico Paul Dirac .
O ponto crucial do problema - e o primeiro passo para uma solução posterior - é como os físicos trabalham com a carga de um elétron.
No esquema descrito, a carga elétrica vem de um coeficiente - um valor que engole o infinito no processo de embaralhamento matemático. Para os teóricos, perdidos em conjecturas sobre o significado físico da renormalização, o QED sugeriu que o elétron tem duas cargas: teórica, infinita e mensurável, finita. Talvez a carga no núcleo de um elétron seja infinita. Mas, na prática, o efeito de um campo quântico (que pode ser imaginado como uma nuvem virtual de partículas carregadas positivamente) envolve o elétron de forma que os experimentadores medem apenas uma modesta carga líquida.
Dois físicos, Murray Gell-Mane Francis Lowe, formalizou essa ideia em 1954. Ele acoplou duas cargas de um elétron com uma carga "efetiva", variando com a distância. Quanto mais perto você chega (quanto mais fundo você vai na nuvem de elétrons positivos), mais carga você vê.
Seu trabalho primeiro vinculou a renormalização à ideia de escalas. A partir daí, pode-se concluir que os físicos quânticos encontraram a resposta certa para a pergunta errada. Em vez de se preocupar com o infinito, eles tiveram que lidar com a fusão do minúsculo com o enorme.
Renormalização é "uma versão matemática do microscópio", disse Astrid Eichhorn, um físico da Universidade do Sul da Dinamarca usando renormalização para pesquisar teorias da gravidade quântica. “Por outro lado, você pode começar com o sistema microscópico e diminuir o zoom. Esta é uma combinação de um microscópio e um telescópio. "
Ímãs salvam o dia
A segunda pista veio do mundo da matéria condensada , onde os físicos se perguntavam como um modelo bruto de um ímã poderia prever com precisão os detalhes sutis de certas transformações. O modelo de Ising era apenas uma grade de setas atômicas, cada uma das quais apenas apontava para cima ou para baixo - e ainda assim previa o comportamento de ímãs reais com incrível precisão.
Em baixas temperaturas, a maioria dos átomos se alinha, o que magnetiza a substância. Em altas temperaturas, ocorre desordem e a grade é desmagnetizada. Mas no ponto de transição crítico, existem ilhas de átomos alinhados de vários tamanhos. O que é importante, a distribuição de certas quantidades neste ponto crítico acaba sendo a mesma no modelo de Ising, em ímãs reais de diferentes materiais, em sistemas não magnéticos, como uma transição em alta pressão, quando a água se torna indistinguível do vapor. A descoberta deste assim chamado. a versatilidade era tão estranha quanto a descoberta de que a velocidade máxima de elefantes e garças era exatamente a mesma.
Os físicos geralmente não trabalham com objetos de tamanhos diferentes ao mesmo tempo. No entanto, esse comportamento universal nas proximidades do ponto crítico os forçou a lidar com comprimentos de todas as escalas de uma vez.
Leo Kadanov, um pesquisador de matéria condensada, descobriu como lidar com isso em 1966. Ele desenvolveu a técnica de "divisão de spins em blocos". A estrutura de Ising, muito complexa para trabalhar diretamente, foi dividida em blocos de tamanho modesto, com várias setas de cada lado. Ele calculou a orientação média do grupo de setas e substituiu todo o bloco por esse valor. Ao repetir o processo, ele suavizou os detalhes da malha fina, diminuindo o zoom para entender o comportamento geral do sistema.

A renormalização do giro do bloco calcula a média de uma grade com muitos giros individuais, transformando-os em blocos de tamanho cada vez maior
Finalmente, Ken Wilson - um ex-aluno de Gell-Man, que imediatamente se dedicou à física de partículas e à física da matéria condensada - combinou as idéias de Gell-Man e Lowe com as de Kadanoff. Seu " grupo de renormalização ", descrito pela primeira vez por ele em 1971, justificou cálculos QED pervertidos e forneceu uma escala para sistemas universais. Este trabalho lhe rendeu um Prêmio Nobel e mudou a física para sempre.
Paul Fendley , um cientista de matéria condensada da Universidade de Oxford, acredita que é melhor apresentar o conceito do grupo de renormalização de Wilson como uma "teoria de teorias" que combina o microscópico com o macroscópico.
Vamos pegar uma grade magnética. No nível microscópico, é fácil escrever uma equação conectando duas setas adjacentes. No entanto, será quase impossível extrapolar essa fórmula para trilhões de partículas. Você está na escala errada.
O grupo de renormalização de Wilson descreve a transformação da teoria dos blocos de construção em teoria da estrutura. Você começa com a teoria das pequenas peças, digamos, os átomos de uma bola de bilhar. Torça a alça do aparato matemático de Wilson e você terá uma teoria relacionada que descreve grupos dessas peças - por exemplo, as moléculas de uma bola de bilhar. Gire ainda mais, a escala diminui e os volumes dos grupos aumentam - aparecem aglomerados de moléculas, setores de uma bola de bilhar, etc. Como resultado, será possível calcular algo interessante - por exemplo, a trajetória de toda a bola.
Essa é a mágica do grupo de renormalização: ajuda a determinar quais quantidades serão úteis para medir e quais detalhes microscópicos complexos podem ser ignorados. O surfista está interessado na altura das ondas, não no esmagamento das moléculas de água. Na física subatômica, a renormalização informa aos físicos quando eles podem trabalhar com um próton relativamente simples, em vez do emaranhado de seus quarks internos.
O grupo de renormalização de Wilson também sugeriu que os infortúnios de Feynman e seus contemporâneos resultaram de tentativas de entender o elétron estando infinitamente próximo dele. “Não se pode esperar que as teorias funcionem em qualquer escala de distância, por menor que seja”, disse James Fraser., um filósofo da física da University of Durham Britain. Os físicos agora entendem que recortar somas e misturar infinitos é a maneira correta de fazer as contas quando sua teoria tem um tamanho mínimo de grade. “Cortar o excesso compensa nossa ignorância do que está acontecendo nos níveis mais baixos”, disse Fraser.
Em outras palavras, o QED e o Modelo Padrão são simplesmente incapazes de dizer qual será a carga do elétron a uma distância de zero nanômetros. Essas teorias da física são chamadas de "eficazes". Eles funcionam melhor em distâncias bem definidas. O principal objetivo da física de alta energia é descobrir o que acontece quando as partículas se aproximam.
De grande a pequeno
Hoje, o "processo maluco" de Feynman é usado na física tanto quanto na álgebra, e sua aplicação é responsável pelos maiores avanços nessa área e pelos desafios atuais. Durante a renormalização, sutilezas submicroscópicas complexas geralmente desaparecem. Talvez existam, mas não afetam o quadro geral. “A simplicidade é uma bênção”, disse Fendley. "Há algo de divino nisso."
Este fato matemático descreve a tendência da natureza de se dividir em mundos amplamente independentes. Ao projetar um arranha-céu, os engenheiros ignoram as moléculas de aço individuais. Os químicos analisam as ligações moleculares enquanto permanecem alegremente inconscientes dos quarks e glúons. A divisão dos fenômenos por dimensões lineares, numericamente expressos em grupos de renormalização, permitiu aos cientistas ao longo dos séculos mover-se gradualmente do grande ao pequeno, em vez de atacar todas as dimensões simultaneamente.
No entanto, ao mesmo tempo, a hostilidade da renormalização aos detalhes microscópicos funciona contra os físicos modernos ávidos por descobrir sinais da próxima escala do micromundo. Do princípio da separação das escalas, segue-se que eles terão que cavar mais fundo para superar a tendência da natureza de esconder pequenos detalhes de gigantes curiosos como nós.
“A renormalização nos ajuda a simplificar a tarefa”, disse Nathan Seiberg , físico teórico do Instituto de Estudos Avançados de Princeton. “Mas ela também esconde o que está acontecendo a curtas distâncias. Você não pode obter tudo de uma vez. "