In fisica, in particolare nella teoria quantistica dei campi, la regolarizzazione è un metodo per modificare osservabili che hanno singolarità al fine di renderle finite mediante l'introduzione di un opportuno parametro chiamato regolatore. Il regolatore, noto anche come "cutoff" (valore di taglio), modella la mancanza di conoscenza della fisica su scale non osservate (ad esempio scale di piccole dimensioni o grandi livelli di energia). Compensa per (e richiede) la possibilità che la "nuova fisica" possa essere scoperta a quelle scale che la presente teoria non è in grado di modellizzare, mentre consente alla teoria attuale di fornire previsioni accurate come una "teoria efficace" all'interno della scala di utilizzo prevista.
Non va confusa con la rinormalizzazione, un'altra tecnica per controllare gli infiniti senza assumere una nuova fisica, regolandosi per il feedback dell'autointerazione.
La regolarizzazione è stata per molti decenni oggetto di discussione anche tra i suoi inventori, poiché combina le affermazioni fisiche ed epistemologiche nelle stesse equazioni. Tuttavia, ora è ben compresa e ha dimostrato di fornire previsioni utili e accurate.
Panoramica
Le procedure di regolarizzazione trattano espressioni infinite, divergenti e prive di senso introducendo un concetto ausiliario di regolatore (ad esempio, la distanza minima nello spazio utile, nel caso in cui le divergenze derivino da effetti fisici a breve distanza). Il risultato fisico corretto si ottiene nel limite in cui si annulla il regolatore (in questo esempio, ), ma l'utilità del regolatore è data dal fatto che il risultato viene finito prima di annullarlo.
Tuttavia, il risultato di solito include termini proporzionali a espressioni come che non sono ben definite nel limite . La regolarizzazione è il primo passo verso l'ottenimento di un risultato completamente finito e significativo; nella teoria quantistica dei campi deve essere solitamente seguita da una tecnica correlata, ma indipendente, chiamata rinormalizzazione. La rinormalizzazione si basa sul requisito che alcune quantità fisiche — descritte da espressioni apparentemente divergenti come — sono uguali ai valori osservati. Tale vincolo consente di calcolare un valore finito per molte altre quantità che apparivano divergenti.
L'esistenza di un limite per ε che tende a zero e l'indipendenza del risultato finale dal regolatore sono fatti non banali. La ragione soggiacente risiede nell'universalità, come dimostrato da Kenneth Wilson e Leo Kadanoff, e nell'esistenza di una transizione di fase del secondo ordine. A volte, prendere il limite per ε che tende a zero non è possibile. Questo è il caso di un polo di Landau e di accoppiamenti non rinormalizzabili come l'interazione di Fermi. Tuttavia, anche per questi due esempi, se il regolatore fornisce solo risultati ragionevoli per e stiamo lavorando con scale dell'ordine di , regolatori con forniscono comunque approssimazioni abbastanza accurate. La ragione fisica per cui non è possibile prendere il limite di ε che tende a zero è l'esistenza di una nuova fisica al di sotto di Λ.
Non è sempre possibile definire una regolarizzazione tale che il limite di ε che va a zero sia indipendente dalla regolarizzazione. In questo caso si dice che la teoria contiene un'anomalia. Le teorie anomale sono state studiate in grande dettaglio e sono spesso fondate sul celebre teorema di Atiyah-Singer o sulle sue variazioni (vedi, ad esempio, l'anomalia chirale).
Esempio di fisica classica
Il problema degli infiniti è sorto per la prima volta nell'elettrodinamica classica delle particelle puntiformi nel XIX e all'inizio del XX secolo.
La massa di una particella carica dovrebbe includere la massa-energia nel suo campo elettrostatico (massa elettromagnetica). Si assuma che la particella sia un guscio sferico carico di raggio . La massa-energia nel campo è
che diventa infinito per . Ciò implica che la particella puntiforme avrebbe inerzia infinita, rendendola incapace di essere accelerata. Per inciso, il valore di che rende uguale alla massa dell'elettrone è chiamato raggio classico dell'elettrone, che (fissando e ripristinando fattori c e ) risulta essere
dove è la costante di struttura fine, e è la lunghezza d'onda Compton dell'elettrone.
Regolarizzazione: questo processo mostra che la teoria fisica originariamente utilizzata si rompe su piccola scala. Mostra che di fatto l'elettrone non può essere una particella puntiforme e che è necessaria una certa nuova fisica aggiuntiva (in questo caso, un raggio finito) per spiegare i sistemi al di sotto di una certa scala. Questo stesso argomento apparirà in altri problemi di rinormalizzazione: una teoria vale in qualche dominio ma ad altre scale si rompe ed è richiesta una nuova teoria fisica per evitare gli infiniti.
Un altro modo per evitare l'infinito, ma pur mantenendo la natura puntuale della particella, sarebbe postulare una piccola dimensione aggiuntiva su cui la particella potrebbe "distribuirsi" piuttosto che nello spazio 3D; questa è una motivazione per la teoria delle stringhe.
Tipi specifici
Tipi specifici di procedure di regolarizzazione sono
- Regolarizzazione dimensionale[1]
- Regolarizzazione di Pauli-Villars
- Regolarizzazione su reticolo
- Regolarizzazione della funzione Zeta
- Regolarizzazione causale[2]
- Regolarizzazione di Hadamard
Regolarizzazione realistica
Problema concettuale
Le previsioni perturbative della teoria quantistica dei campi sullo scattering delle particelle elementari, implicate da una corrispondente densità lagrangiana, sono calcolate utilizzando le regole di Feynman, un metodo di regolarizzazione per aggirare le divergenze ultraviolette in modo da ottenere risultati finiti per diagrammi di Feynman contenenti loop, e uno schema di rinormalizzazione. Il metodo di regolarizzazione porta a funzioni di Green a n punti regolarizzate (propagatori), e un'opportuna procedura (uno schema di rinormalizzazione) porta quindi a elementi della matrice S in teoria delle perturbazioni. Questi sono indipendenti dal particolare metodo di regolarizzazione utilizzato e consentono di modellare in modo perturbativo i processi fisici misurabili (sezioni d'urto, ampiezze di probabilità, larghezze di decadimento e tempi di vita degli stati eccitati). Tuttavia, finora nessuna funzione di Green a n punti regolarizzata conosciuta può essere considerata come basata su una teoria fisicamente realistica dello scattering poiché la derivazione di ciascuna ignora alcuni dei principi di base della fisica convenzionale (ad esempio, l'invarianza di Lorentz). Quindi i metodi di regolarizzazione disponibili sono intesi come tecniche formali, prive di qualsiasi significato fisico diretto. Inoltre, ci sono scrupoli sulla rinormalizzazione. Per una storia e commenti su questo problema concettuale aperto di oltre mezzo secolo, si veda ad esempio.[3][4][5]
Congettura di Pauli
Poiché sembra che i vertici delle serie di Feynman non regolarizzate descrivano adeguatamente le interazioni nello scattering, si presume che le loro divergenze ultraviolette siano dovute al comportamento asintotico ad alta energia dei propagatori di Feynman. Quindi è un approccio prudente e conservativo mantenere i vertici nella serie di Feynman e modificare solo i propagatori di Feynman per creare una serie di Feynman regolarizzata. Questo è il ragionamento alla base della formale regolarizzazione covariante di Pauli-Villars, per mezzo della modifica dei propagatori di Feynman attraverso particelle non fisiche ausiliarie,[6] e della rappresentazione della realtà fisica mediante diagrammi di Feynman.
Nel 1949 Pauli ipotizzò una regolarizzazione realistica, implicata da una teoria che rispettasse tutti i principi consolidati della fisica contemporanea.[6][7] Quindi i suoi propagatori (i) non hanno bisogno di essere regolarizzati e (ii) possono essere considerati come una tale regolarizzazione dei propagatori usati nelle teorie quantistiche dei campi che potrebbero riflettere la fisica soggiacente. I parametri aggiuntivi di tale teoria non devono essere rimossi (cioè la teoria non ha bisogno di rinormalizzazione) e possono fornire alcune nuove informazioni sulla fisica dello scattering quantistico, sebbene possano risultare sperimentalmente trascurabili. Al contrario, qualsiasi metodo di regolarizzazione attuale introduce coefficienti formali che devono essere alla fine eliminati mediante rinormalizzazione.
Opinioni
Paul Dirac è stato persistentemente, estremamente critico nei confronti delle procedure di rinormalizzazione. Nel 1963 scrisse: "... nella teoria della rinormalizzazione abbiamo una teoria che ha sfidato tutti i tentativi del matematico di renderle sensata. Sono propenso a sospettare che la teoria della rinormalizzazione sia qualcosa che non sopravvivrà in futuro,…"[8] Ha inoltre osservato che "Si possono distinguere due procedure principali per un fisico teorico. Una di queste è lavorare su basi sperimentali. . . L'altra procedura consiste nel lavorare dalla base matematica. Si esamina e si critica la teoria esistente. Si cerca di individuare i difetti in esso e poi si cerca di rimuoverli. La difficoltà qui è rimuovere i difetti senza distruggere i grandissimi successi della teoria esistente".[9]
Abdus Salam osservò nel 1972: "Gli infiniti della teoria dei campi incontrati per la prima volta nel calcolo dell'elettrone di Lorentz sono persistiti nell'elettrodinamica classica per settanta e nell'elettrodinamica quantistica per circa trentacinque anni. Questi lunghi anni di frustrazione hanno lasciato nel soggetto un curioso affetto per gli infiniti e un'appassionata convinzione che essi siano una parte inevitabile della natura; tanto che anche il suggerimento di una speranza che possano essere dopo tutto aggirati e valori finiti per le costanti di rinormalizzazione calcolati, è considerato irrazionale".[10][11]
Tuttavia, secondo Gerard 't Hooft, "La storia ci dice che se incontriamo qualche ostacolo, anche se sembra una pura formalità o solo una complicazione tecnica, dovrebbe essere attentamente esaminato. La natura potrebbe dirci qualcosa e dovremmo scoprire di cosa si tratta".[12]
Note
- ^ G. 't Hooft e M. Veltman, Regularization and renormalization of gauge fields, in Nuclear Physics B, vol. 44, n. 1, 1972, pp. 189–213, Bibcode:1972NuPhB..44..189T, DOI:10.1016/0550-3213(72)90279-9, ISSN 0550-3213 (WC · ACNP).
- ^ Scharf, G.: Finite Quantum Electrodynamics: The Causal Approach, Springer 1995.
- ^ Tian Yu Cao e Silvan S. Schweber, The conceptual foundations and the philosophical aspects of renormalization theory, in Synthese, vol. 97, n. 1, 1993, pp. 33–108, DOI:10.1007/bf01255832, ISSN 0039-7857 (WC · ACNP).
- ^ L. M.Brown, editor, Renormalization (Springer-Verlag, New York 1993).
- ^ S. Weinberg, The Quantum Theory of Fields, vol. 1, Cambridge University Press, 1995, Sec. 1.3 and Ch.9.
- ^ a b F. Villars, Regularization and Non-Singular Interactions in Quantum Field Theory, in M. Fierz (a cura di), Theoretical Physics in the Twentieth Century, New York, Interscience Publishers, 1960, pp. 78–106.
- ^ W. Pauli e F. Villars, On the Invariant Regularization in Relativistic Quantum Theory, in Reviews of Modern Physics, vol. 21, n. 3, 1º luglio 1949, pp. 434–444, Bibcode:1949RvMP...21..434P, DOI:10.1103/revmodphys.21.434, ISSN 0034-6861 (WC · ACNP).
- ^ P.A.M. Dirac, The Evolution of the Physicist's Picture of Nature, in Scientific American, vol. 208, n. 5, May 1963, pp. 45–53, Bibcode:1963SciAm.208e..45D, DOI:10.1038/scientificamerican0563-45.
- ^ P.A.M. Dirac, Methods in theoretical physics, in A. Salam (a cura di), Unification of Fundamental Forces, Cambridge University Press, 1990 [1968], pp. 125–143.
- ^ C. J. Isham, Abdus Salam e J. Strathdee, Infinity Suppression in Gravity-Modified Quantum Electrodynamics, in Physical Review D, vol. 3, n. 8, 15 aprile 1971, pp. 1805–1817, Bibcode:1971PhRvD...3.1805I, DOI:10.1103/physrevd.3.1805, ISSN 0556-2821 (WC · ACNP).
- ^ C. J. Isham, Abdus Salam e J. Strathdee, Infinity Suppression in Gravity-Modified Electrodynamics. II, in Physical Review D, vol. 5, n. 10, 15 maggio 1972, pp. 2548–2565, Bibcode:1972PhRvD...5.2548I, DOI:10.1103/physrevd.5.2548, ISSN 0556-2821 (WC · ACNP).
- ^ G. ’t Hooft, In Search of the Ultimate Building Blocks (Cambridge University Press, Cambridge 1997).