domingo, 7 de outubro de 2018


Trans-intermecânica categorial Graceli transcendent and indeterminate, for:

Effect 11,500.

Theory of the infinite categories of Graceli.

Reality is transcendent processes in chains, indeterminate and categorical.

Where the potentials itself is neither finite nor infinite, and this breaks with renormalization, or de-normalization.


In a closed or open system one has infinite processes of one on the other, and where the same process has other more infinite ones within it. With this you have the infinities.


Trans-intermecânica categorial Graceli transcendente e indeterminada, para:

Efeito 11.500.

Teoria dos infinitos categoriais de Graceli.

A realidade são processos transcendentes em cadeias, indeterminados e categoriais.

Onde as potenciais em si, não é finita e nem infinita, e isto rompe com a renormalização, ou des-renormalização.


Num sistema fechado e ou aberto se tem infinitos processos de uns sobre os outros, e onde um mesmo processo se tem outros mais infinitos dentro dele. Com isto se tem os infinitos.




[EPG = d[hc][T/IEEpei [pit]=[pTEMRLD] e[fao][ itd][iicee]tetdvd [pe] cee [caG].]


p it = potenciais de interações e transformações.
Temperatura dividido por isótopos e estados físicos e estados potenciais de energias e isotopos = emissões, fluxos aleatórios de ondas, interações de íons, cargas e energias estruturas, tunelamentos e emaranhamentos, transformações e decaimentos, vibrações e dilatações, potencial eletrostático, condutividades, entropias e entalpias. categorias e agentes de Graceli.

h e = índice quântico e velocidade da luz.

[pTEMRlD] = POTENCIAL TÉRMICO, ELÉTRICO, MAGNÉTICO, RADIOATIVO, luminescência, DINÂMICO]..


EPG = ESTADO POTENCIAL GRACELI.



,[pTEMRlD] [pI] [PF][pIT] [CG].




 ,[pTEMRlD] [pI] [PF][pIT] [CG].






   [pTEMRlD] [pI] [PF][pIT] [CG].





Saltar para a navegaçãoSaltar para a pesquisa

renormalização é um conjunto de técnicas utilizadas para eliminar os infinitos que aparecem em alguns cálculos em Teoria Quântica de Campos.[1] Na mecânica estatística dos campos[2] e na teoria de estruturas geométricas auto-similares,[3] a renormalização é usada para lidar com os infinitos que surgem nas quantidades calculadas, alterando valores dessas quantidades para compensar os efeitos das suas auto-interações. Inicialmente vista como um procedimento suspeito e provisório por alguns de seus criadores, a renormalização, eventualmente, foi abraçada como uma ferramenta importante e auto-consistente em vários campos da física e da matemática. A renormalização é distinta da outra técnica para controlar os infinitos, regularização, que assume a existência de uma nova física desconhecida em novas escalas.[4]



Qualquer sistema de partículas, com forças de interação que dependem apenas das posições (r), sempre retorna, depois de grandes períodos de tempo (t), a uma vizinhança arbitrariamente próxima das suas condições de partida. e que vai depender das energias, fenômenos e categorias de Graceli.




 e .  [pTEMRlD] [pI] [PF][pIT] [CG].



S = k W , [pTEMRlD] [pI] [PF][pIT] [CG].


Entropia, Caos (Clássico e Quântico) e Fractais.

Em verbete desta série, vimos que, em 1865, o físico alemão Rudolf Julius Emmanuel Clausius (1822-1888) estudou a transformação de trabalho em calor em um ciclo fechado qualquer. Ao considerar esse ciclo como constituído de uma sucessão de ciclos infinitesimais de Carnot [constituído de duas transformações adiabáticas (troca de calor – ΔQ - constante) e duas transformações isotérmicas (temperatura absoluta - T - constante), proposto pelo físico francês Nicolas Sadi Carnot (1796-1832), em 1824], Clausius demonstrou seu célebre teorema:

,

onde o sinal de menor (<) ocorre para as transformações irreversíveis e o sinal de igualdade (=), para as reversíveis. Ainda nesse trabalho, Clausius resumiu as Leis da Termodinâmica nas expressões: Primeira Lei da Termodinâmica  A energia (E) do Universo é constante; Segunda Lei da Termodinâmica  A entropia (S) do Universo tende para um máximo.
                   Um ano depois do Teorema de Clausius, isto é, em 1866, a Segunda Lei da Termodinâmica foi tratada pelo físico austríaco Ludwig Edward Boltzmann (1844-1906), ao formular um modelo mecânico no qual considerou que as partículas de um gás se moviam em órbitas periódicas e, com isso, deduziu uma expressão analítica para a entropia que dependia do período das partículas em suas órbitas, e que aumentava com o tempo. Contudo, esse modelo de Boltzmann foi muito criticado, inclusive por Clausius. Em vista disso, em 1868, Boltzmann apresentou um novo tratamento (ainda mecânico) para a entropia ao admitir que em um gás ideal, composto de um grande número (N) de moléculas, as interações entre elas poderiam ser negligenciadas. Isso significava considerar que as colisões entre as moléculas eram binárias e supor que suas velocidades são não-correlacionadas [hipótese essa conhecida como caos molecular (“Stosszahlansatz”)]. [Ryogo Kubo, StatisticalMechanics (North-Holland Publishing, 1971)].
                   Ainda considerando que o calor tinha uma base mecânica, entre 1868 e 1872, Boltzmann realizou vários trabalhos usando essa visão mecânica. Nesses trabalhos, além de encontrar uma nova expressão analítica para S, ele definiu, em 1871 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zu Wien 63, p. 397) e 1872 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zuWien 66, p. 275), a função H(t) = ∫∫∫f(,t) log f(, t) d3, que satisfaz à equação dH/dt ≤ 0 – o célebre teorema de transporte de Boltzmann ou teorema H de Boltzmann – cujo principal resultado é o de que a entropia cresce nos processos irreversíveis. Note que f(, t) d3 representa o número de moléculas que tem a velocidade () entre  e  + d. [Sílvio Roberto de Azevedo Salinas, Cadernos de História e Filosofia da Ciência 3, p. 28 (CLEHC/UNICAMP, 1982); Kerson Huang, Statistical Mechanics (John Wileyand Sons, Incorporation, 1963); Kubo, op. cit.].
                   A partir desses trabalhos mecânicos sobre a entropia, Boltzmann passou a considerar o raciocínio probabilístico, em trabalhos que publicou em 1877. Nesses trabalhos, assumiu que todos os microestados [aos quais denominou de complexions (configurações)] têm a mesma probabilidade P. Além disso, chamou de macroestado ao estado no qual uma molécula específica tem energia εr. Desse modo, concluiu que a Pr de um macroestado é proporcional ao número de microestadosnos quais a energia remanescente (E - εr) é distribuída entre as N - 1 moléculas restantes, isto é: . Boltzmann considerou, então, o número W (inicial da palavra alemã Wahrscheinlichkeit, que significa probabilidade) de complexionsdistintas de um macroestado envolvendo suas N (N = n0 + n1 + n2 + ...) moléculas, onde n0 representa o número de moléculas com energia 0ε, n1 representa o número de moléculas com energia 1ε, n2 representa o número de moléculas com energia 2ε, n3 com energia 3ε, ... e nr  com energia , onde ε é uma constante positiva e  < E e, pelo princípio da conservação do número de partículas e da energia, deveremos ter:   e .  
                   Para calcular W, Boltzmann usou o raciocínio combinatório, ou seja, considerou que: W (n0, n1, n2, ...) = N!/(n0! n1! n2! ...)  e, desse modo, usando a hipótese das probabilidades iguais, escreveu que a probabilidade P (n0, n1, n2, ...) de ocorrência de uma configuração pertencente ao conjunto definido pelos “números de ocupação” (n0, n1, n2, ...) é dado por: P = C W, onde C é uma constante. Ora, como a entropia do sistema considerado é igual a soma das entropias de seus componentes, como as probabilidades das complexions do mesmo sistema devem ser multiplicadas, e considerando que o logaritmo do produto de números é igual a soma dos logaritmos dos fatores, é fácil ver como Boltzmann chegou à sua célebre expressão da entropia:

S = k W ,

onde k é uma constante. É oportuno observar que, embora essa expressão esteja gravada no túmulo de Boltzmann, no Cemitério Central de Viena, ela só foi escrita dessa maneira pelo físico alemão Max Karl Ernst Planck (1858-1947; PNF, 1918) que, por sua vez, introduziu a notação k, denominada por ele de constante de Boltzmann, pela primeira vez em sua célebre fórmula de 1900, sobre a distribuição de equilíbrio térmico da radiação (de freqüência ν) do corpo negro, que considera a energia quantizada, ou seja: ε = h ν, sendo h a constante de Planck. [Abraham Pais, ´Subtle is the Lord...´- The Science and the Life of Albert Einstein (Oxford University Press, 1982)].
                   Uma nova ideia de caos surgiu no estudo do movimento planetário. Com efeito, em 1877-1878, o matemático norte-americano George William Hill (1838-1914) estudou o movimento da Lua levando em consideração a ação de outros planetas do sistema solar. Por intermédio de uma equação diferencial ordinária não-linear (EDON-L) - a hoje equação de Hill: d2x/dt2 + θ(t) x = 0, sendo θ(t) uma função par de período π - ele demonstrou que o movimento do perigeu da Lua era periódico. Apesar de esse estudo ser publicado na revista American Journal of Mathematics 1, p. 5; 129; 245 (1878), ele não foi aceito pela comunidade científica e, às vezes, até ridicularizado. Contudo, essas críticas cessaram quando o matemático e filósofo francês Jules Henri Poincaré (1854-1912), a partir de 1881, passou a estudar as EDON-L da forma geral: dy/dx = P (x, y)/Q (x, y), onde P e Q são polinômios arbitrários. Por exemplo, em 1885 (Bulletin de la Société Mathématique de France 13, p. 19) e 1886 (Bulletin de la Société Mathématique de France 14, p. 77), Poincaré demonstrou a convergência da solução em série que Hill encontrara para resolver sua equação. Note que a primeira das EDON-L foi encontrada, em 1724 (Acta Eruditorum, Supplement VIII, p. 66), pelo matemático italiano Jacopo Francisco, Conde Riccati de Veneza (1676-1754) ao estudar um problema de Acústica. A partir de 1763, ela ficou conhecida como equação de Riccati: dy/dx = A (x) + B (y) y + C (x) y2, depois que o matemático francês Jean le Rond d´Alembert (1717-1783) passou a chamar aquela equação.    
                   Mais tarde, em 1890 (Acta Mathematica 13, p. 1), ao estudar a estabilidade dos sistemas mecânicos (principalmente o problema de três corpos do sistema planetário), Poincaré demonstrou seu famoso Teorema do Retorno:

Qualquer sistema de partículas, com forças de interação que dependem apenas das posições (r), sempre retorna, depois de grandes períodos de tempo (t), a uma vizinhança arbitrariamente próxima das suas condições de partida.




No dia 10 de dezembro de 1999, dia em que se comemora a morte do sueco Alfred Bernhard Nobel (1833-1896), químico, engenheiro, industrial e inventor da dinamite, a Real Academia Sueca de Ciências entregou o PNF aos físicos holandeses Gerardus ´t Hooft (n. 1946) e Martinus Justinus Godefridus Veltman (n. 1931), por desenvolverem trabalhos relacionados com a renormalização da interação fraca, trabalhos esses que foram fundamentais para o entendimento da unificação das forças eletromagnética e fraca, hoje conhecida como força eletrofraca (vide verbete nesta série).
                   Filho de um engenheiro naval, ´t Hooft foi estimulado pelo seu pai para gostar de engenharia, razão pela qual lhe deu o famoso brinquedo Mecano. No entanto, como ´t Hooft gostava de descobrir coisas novas, ele sempre construía brinquedos que não constavam no Manual do Mecano. Esse mesmo fascínio pelo novo o acompanhou enquanto estudante da Escola Primária e no Liceu Dalton, ambos situados em The Hague, cidade próxima de sua cidade natal Den Helder, na Holanda. Quando era aluno da High School (HBC, em holandês), ´t Hooft participou, em 1962, da Segunda Olimpíada de Matemática Nacional Holandesa, ficando com o segundo lugar. Ao concluir a HBC, em 1964, escolheu a Universidade Estadual de Utrecht para estudar Física, onde seu tio, o físico holandês Nicolaas Godfried van Kampen (n.1921), era professor de Física Teórica. Ao concluir sua graduação, em 1968, seu Trabalho de Conclusão de Curso (TCC) foi orientado e julgado por Veltman, especialista em Física de Partículas Elementares, que havia sido admitido naquela Universidade, em 1966, como Professor de Física Teórica, substituindo o físico belga Léon von Hove (1924-1990). Registre-se que Veltman foi também seu orientador de Doutoramento, cuja tese foi defendida em 1972, ainda em Utrecht, como veremos mais adiante.
                   Em 1943, Veltman iniciou sua High School (HS) em Waalwijk, sua cidade natal holandesa, concluída em 1948. Sua habilidade em eletrônica o tornava candidato a uma Escola Técnica (MTS, em holandês) de nível médio localizada em Hertogenbosch. Contudo, Mr. Beunes, seu professor de física da HS, sugeriu aos pais de Veltman que o mandassem para a Universidade. Assim, a Universidade de Utrecht (UU) foi a escolhida. Depois de cinco anos nessa Universidade, ao concluir seu exame final, Veltman esbarrou com um livro popular sobre a Teoria da Relatividade. Empolgado com esse livro e desejando aprender mais, dirigiu-se à Biblioteca do Instituto de Física Teórica da UU e conseguiu, depois de muita insistência, tomar emprestado o famoso livro do físico germano-suíço-norte-americano Albert Einstein (1879-1955; PNF, 1921), intitulado The Meaning of Relativity, publicado pela Princeton University Press, em 1921. Sua paixão pela Física foi imediata.   
                   Em 1955, van Hove chegou em Utrecht, e Veltman logo candidatou-se para escrever as Notas de Aula dos cursos por ele ministrados, surgindo daí uma grande amizade entre eles. Depois de concluir sua graduação, em 1956, e realizar o Serviço Militar, concluído em fevereiro de 1959, Veltman iniciou seu Doutoramento com van Hove. Ao se tornar Diretor da Divisão Teórica do Conseil Européen pour la Recherche Nucléaire (CERN), em Genebra, Suíça, em 1960, van Hove convidou Veltman para trabalhar nesse grande laboratório de pesquisa, o que ocorreu em 1961. Lá, contando com o auxílio do físico norte-americano Sam Berman, completou sua Tese de Doutoramento, iniciada com van Hove em Utrecht, calculando as correções coulombianas à produção de bósons vetoriaisintermediários de uma experiência sobre neutrinos (ν) que estava sendo realizada no CERN. Essa Tese foi defendida em 22 de abril de 1963, na UU e publicada nesse mesmo ano na Physica 29, p. 186. É interessante destacar que Veltman, ao desenvolver seu trabalho de doutoramento, aprendeu a trabalhar com os diagramas de Feynman (dF), sem, contudo, usar a técnica das integrais de caminho feynmanianas (ICF).
                   O início do trabalho conjunto de ´t Hooft e de Veltman e que levou os dois ao Nobelato99, ocorreu quando ´t Hooft escolheu Veltman para ser o orientador de seu programa de Doutoramento, iniciado em 1969. Assim, Veltman pedia a ´t Hooft que estudasse a famosa teoria de gauge não-abeliana (vide verbete nesta série) desenvolvida pelos físicos norte-americanos Chen Ning Yang (n.1922; PNF, 1957) (de origem chinesa) e Robert Laurence Mills (n.1927), em 1954, e, independentemente, pelo físico inglês Robert Shaw (n.1929), em Sua Tese de Doutoramento defendida na Universidade de Cambridge, em 1955, sob a orientação do físico paquistanês Abdus Salam (1926-1996; PNF, 1979). Contudo, advertiu Veltman, essa Teoria de Yang-Mills-Shaw (TYMS) apresentava uma grande dificuldade, uma vez que descrevia três partículas não-massivas de spin unitário, conhecidos como bósons vetoriais (bv). Ora, enquanto uma delas poderia corresponder ao fóton (γ), partícula não-massiva mediadora da interação eletromagnética (vide verbete nesta série), as outras duas não existiam na Natureza. Além do mais, essa teoria era não-renormalizável para bósons massivos, como as partículas (W± e Z0) mediadoras, respectivamente, da interação fraca com corrente elétrica carregada e neutra (vide verbete nesta série), e, portanto, não poderia ser usada para explicá-las. Porém, completou Veltman, tais dificuldades poderiam ser contornadas com a renormalizaçãodessa teoria. E o caminho seria por intermédio da quebra espontânea de simetria (QES). Antes de mostrar como ´t Hooft e Veltman chegaram a essa renormalização, vejamos como ocorreu a renormalização da QED (“Quantum Electrodynamics”), que serviu de leitmotiv para o trabalho desses físicos holandeses.     
                  Conforme vimos em verbetes desta série, o tratamento quântico da Eletrodinâmica, a hoje famosa QED, foi apresentado pelo físico inglês Paul Adrien Maurice Dirac (1902-1984; PNF, 1933), em 1927, em seu histórico trabalho no qual abordou a emissão e a absorção da radiação eletromagnética sob o ponto de vista quântico. Contudo, a aplicação desse tratamento ao estudo da interação da radiação eletromagnética com partículas puntiformes carregadas, principalmente elétrons (e-) e pósitrons (e+), ou no estudo da interação entre tais partículas, envolvia integrais de valores infinitos. Esses infinitos decorriam, basicamente, da inconsistência entre os valores teóricos e os valores experimentais da carga (e) e da massa (m) do elétron e do pósitron. Os primeiros trabalhos no sentido de remover esses infinitos foram realizados, em 1936, pelo físico norte-americano Robert Serber (1909-1997); em 1938, pelo físico holandês Hendrik Anthony Kramers (1894-1952); e, em 1943, pelo físico japonês Sin-itiro Tomonaga (1906-1979; PNF, 1965). O estudo completo da eliminação desses infinitos na Eletrodinâmica Quântica, conhecida como Eletrodinâmica Quântica Renormalizável, foi completado, entre 1948 e 1949, nos trabalhos dos físicos, os norte-americanos Robert Phillips Feynman (1918-1988; PNF, 1965) e Julian Seymour Schwinger (1918-1994; PNF, 1965), e o inglês Freeman John Dyson (n.1923). Registre-se que, de um modo geral, a renormalização (termo cunhado por Serber) é um método pelo qual os infinitos de uma Teoria de Campos (TC) são absorvidos em seus parâmetros livres, de modo que resultam valores finitos nos cálculos, em todas as ordens de perturbação, para todos os observáveis envolvidos nos fenômenos físicos tratados pela TC.         
                   Ainda segundo verbetes apresentados nesta série, em 1934, tomando como modelo a QED de Dirac, o físico ítalo-norte-americano Enrico Fermi (1901-1954; PNF, 1938) sugeriu que no decaimento beta (“β-decay”), um nêutron (n) se transforma em um próton (p), emitindo um elétron (e-) e o neutrino (ν), partícula esta proposta pelo físico austro-suíço-norte-americano Wolfgang Pauli Junior (1900-1958; PNF, 1945), em 1930. Esse decaimento, segundo Fermi, ocorre por intermédio de um novo processo físico, mais tarde denominado de força(interação) fraca. Em 1938, o físico sueco Oskar Benjamin Klein (1894-1977) sugeriu que bv carregados e massivos, aos quais denominou de W (provavelmente da palavra “weak”, fraco em inglês), seriam os mediadores dessa força. Assim o “β-decay” seria dado por: n → p + W- , completado pelo decaimento W- → e- + ν, sendo a constante de acoplamento (gw) para tal processo o mesmo da força (interação) eletromagnética, isto é, a constante de estrutura fina α. Essa igualdade significava uma unificação entre as forças eletromagnética e fraca – a força eletrofraca -, que ocorreria mais tarde, na década de 1960.  
                   As primeiras tentativas no sentido de concretizar essa unificação foram desenvolvidas na segunda metade da década de 1950, nos trabalhos realizados, em 1957, por Schwinger; em 1958 e, independentemente, pelos físicos, o brasileiro José Leite Lopes (1918-2006) (com a previsão da partícula Z0), os norte-americanos Sidney Arnold Bludman (n.1927), Gerald Feinberg (1933-1992) e Sheldon Lee Glashow (n.1932; PNF, 1979) (em sua Tese de Doutoramento orientada por Schwinger); em 1959, por Salam e o físico inglês John Clive Ward (1924-2000), e, independentemente, pelo físico norte-americano Murray Gell-Mann (n.1929; PNF, 1969).    
                   A consolidação da unificação acima referida ocorreu na década de 1960. Ainda usando verbetes escritos para esta série, vimos que, em 1961, Glashow desenvolveu um modelo méson-vetorial da força fraca baseado no grupo de simetria gauge SU(2)  SU (1). Esse modelo requeria a existência de quatro (4) bósons vetoriais (bv): o fóton (γ) e as partículas massivas (W±, Z0), sendo estas mediadoras da força fraca, segundo referimos acima. Embora esse modelo representasse uma unificação entre as duas forças (eletromagnética e fraca), a quebra de simetria desse modelo era resolvida com a colocação “à mão”, de mésons massivos intermediários. Uma teoria de unificação análoga a essa de Glashow foi desenvolvida pelo físico norte-americano Steven Weinberg (n.1933; PNF, 1979), em 1967, e por Salam, em 1968. No entanto, diferentemente de Glashow, esses dois físicos consideraram a quebra espontânea de simetria(QES) como mecanismo para gerar massas às partículas mediadoras da força ou interação fraca, o qual requer a existência de uma partícula de spin 0, o conhecido bóson de Higgs, conforme veremos a seguir. Em seus trabalhos, Weinberg e Salam afirmaram que o modelo que desenvolveram, independentemente, poderia ser renormalizável, mas não indicaram a maneira de fazê-lo. É oportuno destacar que Salam, em 1962 (Physical Review 127, p. 331), havia provado que a TYMS era não-renormalizável.