OPERATORI; OPERAZIONALE, CALCOLO (od operatorio, calcolo)
Riteniamo opportuno aggiungere alle considerazioni svolte nelle voci: operatori (App. III, 11, p. 317) e simbolico, calcolo (App. III, 11, p. 744), che nel complesso costituiscono una trattazione moderna e ancora valida sull'argomento, alcune nozioni volte a illustrare da un punto di vista prevalentemente storico e metodologico i fondamenti del calcolo operatorio. Nel n. 6 diamo invece notizia di alcuni dei risultati e delle tecniche conseguiti nell'ultimo ventennio.
1. - Storicamente l'argomento affiora, per la prima volta, nei fondatori dell'Analisi infinitesimale. I. Newton, nel Tractatus de quadratura curvarum (1704), al cap. III, accenna alle due operazioni di derivazione e d'integrazione, inverse l'una dall'altra, come applicabili successivamente, quante volte si vuole, a partire da una funzione assegnata. Concepisce cioè una successione indefinita di derivazioni ripetibili in un verso, e d'integrazioni ripetibili nel verso opposto.
Newton parte da funzioni, cosiddette "fluenti", z, y, x, u (la variabile índipendente essendo il tempo t), e indica le loro derivate, cosiddette "flussioni o velocità", coi simboli ä, ÿ, ú, ù. Poi dice testualmente: "Vi sono anche le flussioni di queste flussioni o mutazioni più o meno celeri, che è lecito chiamare flussioni seconde delle z, y, x, u stesse e indicare con ì, ÿ, ï, ü; e le flussioni prime di queste o flussioni terze delle z, y, x, u vengono indicate con z???, y???, x???, u???, e le flussioni quarte z???, y???, x???, u??? (...). Similmente le quantità z, y, x, u si possono considerare come flussioni di altre che indicherò così: ź, ý, x???, ú; e queste sono flussioni di altre z???, y???, x???, ë; e queste di nuovo flussioni di altre z???, y???, x???, u???. Dunque
rappresentano una serie di quantità delle quali una qualsiasi è flussione della precedente, e ogni quantità è una fluente che ha come sua flussione la seguente" (traduz. E. Carruccio). Come si vede, Newton concepisce i punti (•) e gli apici (′), apposti sopra i simboli rappresentativi delle fluenti, come operatori inversi l'uno dall'altro e applicabili successivamente quante volte si vuole.
Identico è il punto di vista di G. W. Leibniz che usa i simboli di differenziazione e d'integrazione indefinita come operatori inversi l'uno dall'altro. Egli scrive infatti genericamente d ∉ = ∉ d = 1 (relazione che può leggersi: l'applicazione successiva dei due operatori d, ∉, nell'uno o nell'altro ordine possibile, ha per risultato l'identità).
In J. d'Alembert (1746) si trova una serie che modernamente possiamo scrivere:
indicando: con R il simbolo di una generica funzione razionale, con D(n)f la derivata n-esima di una funzione f di una variabile indipendente x (f supposta indefinitamente derivabile), con R(n) (D) la derivata n-esima della R(D) calcolata formalmente (rispetto a D) con le normali regole, ecc. D'Alembert usa la [1] da un punto di vista puramente formale, come generalizzazione dello sviluppo di Taylor: non si propone neppure il problema del significato d'una possibile convergenza della serie a secondo membro.
2. - L'interesse allo studio degli operatori come enti assoggettabili a una particolare algebra (il prodotto di due operatori ω1, ω2, concepito come l'operatore che consiste nell'applicare, in uno dei due ordini possibili, prima l'uno, poi l'altro; l'associatività di tale prodotto, l'eventuale commutatività; le proprietà degli operatori lineari, detti anche funzionali lineari, ecc.), nasce nella prima metà del sec. XIX (F. J. Servois 1814, A.-L. Cauchy 1827-1848, R. Murphy 1837, Ch. Hargreave 1848 e altri), e prende corpo nella seconda metà (Traité des substitutions di C. Jordan, 1870). L'operatore Δ dell'incremento unitario della variabile indipendente (Δf = f (x + 1) − f (x)) diviene familiare nella tecnica del Calcolo delle differenze finite, così il "laplaciano" ∂2/∂x2 + ∂2/∂y2 del piano cartesiano (e l'analogo ∂2/∂x2 + ∂2/∂y2 + ∂2/∂z2 dello spazio) nella tecnica della teoria del potenziale e, più tardi, in ricerche generali sulle equazioni differenziali. Si adoperano sistematicamente serie "tipo Taylor", analoghe alla [1] ma più semplici, per es.
sempre s'intende senza porsi il problema del significato della convergenza (questo verrà chiarito molto più tardi, quando si riuscirà ad interpretare l'operatore ω come elemento di uno spazio opportunamente strutturato, v. funzionale, analisi, in quest'Appendice). Ma tali serie entrano ora già in un calcolo o., sia pure di tipo assai semplice, per es., ponendo exp
e verificando poi formalmente la proprietà exp (ω1) exp (ω2) = exp (ω1 + ω2).
Si sviluppano algebre sempre più particolari e differenziate, nella misura in cui gli o., che ne sono oggetto, si dimostrano efficaci in particolari tecniche dell'Analisi matematica. Si pensi all'op. L di Laplace, che trasforma una generica funzione F = F(t) definita in (0, + ∞), in altra f = f (s) della variabile complessa s:
(v. simbolico, calcolo, loc. cit.). Si pensi all'analogo o. Φ di Fourier, pur dotato di caratteri molto diversi:
In questa [3] s'intende F(u) definita sull'asse immaginario del piano complesso u, ecc.
Per altre particolari, classiche operazioni introdotte nell'analisi matematica anteriormente al sec. XX, rimandiamo alla voce trasformazione, XXXIV, p. 196 e alla voce dell'App. III già citata.
3. - Un totale rinnovo dei concetti in esame ha inizio verso la fine del sec. XIX, con le ricerche fondamentali di Vito Volterra, presto seguito da Maurice Fréchet, da Paul Lévy e da altri. Volterra raccoglie e sintetizza le sue ricerche nel primo decennio del sec. XX, giungendo infine (1912-13) a una teoria generale delle operazioni analitiche che possono eseguirsi sui funzionali, così chiamandosi le funzioni le cui variabili indipendenti sono, a loro volta, funzioni. Volterra chiarì definitivamente la differenza concettuale che passa fra una funzione composta e un funzionale: la prima è una funzione che dipende da una variabile x tramite un'altra funzione della stessa x; la seconda è una funzione che dipende da un'altra, presa nella sua totalità e variabile come tale.
Per es., y = sen2x può considerarsi funzione composta y = z2, con z = sen x. Il suo diagramma cartesiano, per es., per 0 ≤ x ≤ 2π, è quello di fig. 1. Con lo stesso simbolo, o meglio con y = (sen x)2, possiamo intendere il particolare valore che il funzionale y = z2 assume in corrispondenza del valore z = sen x della sua variabile indipendente z. Una funzione composta si usa indicare con f[ϕ(x)] o, più modernamente, con f 0 ϕ. Così, per due funzioni f, f-1, fra loro inverse, può indifferentemente scriversi: f [f-1(x)] = x, oppure f 0 f-1 = I (= identità).
Se psicologicamente può "sembrare più naturale... pensare a una funzione (quale, per es., y = 1/x) od operatore (lo stesso: 1/x) come a una nozione unica" (B. de Finetti), è indubbia la distinzione rigorosamente logica dai due concetti.
4. - I funzionali vennero chiamati dapprima, da Volterra, "funzioni di linee", tali linee essendo i diagrammi cartesiani delle funzioni cui i funzionali stessi vengono applicati.
Accenniamo alla definizione di derivazione d'un funzionale data da Volterra, e a quella d'integrazione concepita come operazione inversa della precedente. Consideriamo la classe C delle funzioni f (x) reali e continue in uno stesso intervallo [a, b] dell'asse reale x, e un generico funzionale in C, che (con la notazione originaria di Volterra) indichiamo con
o semplicemente con F ∣[f(x)]∣. Questo funzionale è supposto anch'esso reale, e continuo rispetto alla variabile f (x) da cui dipende, cioè: prefissato ad arbitrio un numero η > 0, è possibile trovarne un altro ε > 0 tale che, qualunque sia una funzione ϕ(x) ∈ C, dalla condizione ∣ ϕ(x) ∣ 〈 ε in tutto [a, b], consegua necessariamente
Dopo ciò, consideriamo un qualunque punto ξ ∈ [a, b] e un intorno I = I(ξ, h) di tale punto, avente ampiezza h, e supponiamo ϕ(x) di segno costante in I e nulla fuori di I (fig. 2). Formiamo poi il "rapporto incrementale" (in senso funzionale)
ove σ indica l'area (più scura in fig. 2) compresa fra la "linea"
e l'originaria y = f (x), cioè
È evidente che, al tendere a 0 simultaneamente di h e di ε, tendono a 0 anche δF e σ. Pertanto Volterra chiama F ∣ [f (x)] ∣ "derivabile rispetto alla f (x) nel punto ξ", se esiste, finito, il limite:
Tale limite è appunto la derivata di Fb rispetto alla f in ξ, e viene da Volterra indicato col simbolo
o semplicemente F′ ∣ [f (x), ξ] ∣. Precisamente l'uguaglianza
significa che, prefissato ad arbitrio un numero ω > 0, è possibile trovare un altro ω′ > 0 tale che,
Volterra fa le seguenti ipotesi restrittive fondamentali.
I) Esiste una costante M > 0 tale che, comunque piccoli si prendono h ed ε di cui sopra, risulti sempre ∣ δE/εh ∣ 〈 M (continuità lipschitziana della F).
II) Esiste la derivata F′ ∣ [f (x), ξ] per ogni ξ di [a, b] (intendendo ovviamente che, per ξ = a, I sia un intorno destro di ξ, per ξ = b sia invece un intorno sinistro).
III) Il rapporto δF/σ tende al suo limite finito F′ ∣ [f (x), ξ], uniformemente al variare sia di ξ in [a, b], sia di f (x) in C.
IV) La derivata F′ ∣ [f (x), ξ] è continua sia rispetto alla f (x) in C, sia rispetto alla ξ in [a, b].
Sotto tali ipotesi, Volterra dimostra il fondamentale seguente teorema (corrispondente a quello classico di Torricelli-Barrow): se f (x) subisce un incremento, infinitesimo e continuo, δf in tutto [a, b], corrispondentemente F′ ∣ [f (x)] ∣ subisce l'incremento
Si può esplicitare il primo membro della [4], tenendo conto di quanto sopra e introducendo una semplificazione formale, nel modo seguente.
Indicata con ψ(x) una generica funzione di C, di segno costante in [a, b], si formi il "rapporto incrementale"
Il teorema afferma allora che
Volterra passa a definire analogamente la derivata seconda F′′ ∣ [f (x), ξ1, ξ2] di un funzionale F ∣ [f (x)] ∣ in due punti ξ1, ξ2 (considerati successivamente in quest'ordine), come derivata, in ξ2, della derivata prima F′ ∣ [f (x), ξ1]:
ove σ ha il significato sopraddetto, relativamente ad un generico punto ξ2 ⋛ ξ1.
Il procedimento viene generalizzato nella definizione delle derivate degli ordini successivi n (comunque elevato), indicate genericamente con F(n) ∣ [f (x), ξ1, ξ2, ..., ξn]. Sotto ipotesi restrittive semplici, tali derivate sono funzionali simmetrici rispetto agli n parametri ξ1, ξ2, ..., ξn in essi contenuti, si ha cioè
qualunque sia la permutazione i1, i2, ..., in degli n indici 1, 2, ..., n (generalizzazione del noto teorema di Schwarz del calcolo differenziale).
Lo stesso Volterra sviluppò i primi elementi del calcolo o. inteso come analisi funzionale nel senso detto, e ne indicò le prime applicazioni al Calcolo delle variazioni (v. variazioni, calcolo delle, XXXIV, p. 1001), alla teoria delle equazioni differenziali e integro-differenziali (v. equazioni, XIV, p. 136 e p. 146), nonché a vari capitoli importanti di fisica matematica (v. plasticità, XIII, p. 606, in particolare fenomeni ereditari: v. ereditarietà meccanica, XIV, p. 202, e elettricità XIII, p. 701 e Appendici, ecc.).
5. - I concetti del calcolo o., sorti nell'analisi dei secoli XVIII e XIX, mostrano la loro fecondità, in sempre nuovi sviluppi e applicazioni, nelle trattazioni più svariate (in senso formale). Come primo esempio accenniamo alle serie di Lie (scoperte da Sophus Lie che ne fece applicazione, fra il 1880 e il 1890, alla rappresentazione delle "trasformazioni finite" dei gruppi continui di trasformazioni). Queste si riallacciano alle serie di cui sopra, ai nn. 1 e 2: infatti esse sono del tipo generale
dove
è un generico operatore differenziale lineare, con coefficienti ϑi(z) funzioni delle n variabili complesse z1, z2, ..., zn, e supposte tutte olomorfe in un intorno di un ben determinato punto z ≡ (z1, z2, ..., zn). D(r) è la potenza r-esima simbolica di D, Df è il risultato dell'applicazione dell'operatore D alla funzione f (z), supposta olomorfa nelle z1, z2, ..., zn:
Nella serie [5], ogni termine è il prodotto di un fattore tr/n! e di una funzione D(n) f (z), olomorfa nelle z1, z2, ..., zn. La [5] non ha solo un significato formale ma, come serie di potenze nella variabile complessa t, converge e la sua somma rappresenta perciò una funzione olomorfa nelle n + 1 variabili complesse z1, z2, ..., zn, t.
Modernamente le serie [5] vengono applicate, con buoni risultati, alla risoluzione di sistemi di equazioni differenziali, al problema dell'inversione dei sistemi di funzioni analitiche, a quello della rappresentazione parametrica dalle varietà algebriche (problema di fondamentale importanza nella geometria algebrica), a quello dell'inversione di integrali algebrici, ecc., come pure a importanti problemi della meccanica celeste (per es., al cosiddetto problema degli n corpi).
6. - Ma gli esempi più interessanti e più fecondi scaturiscono dal fatto che i concetti di operatore e di calcolo o., progressivamente e nell'ultimo ventennio totalmente, si sono inseriti nell'analisi funzionale, traendo beneficio della potenza dai metodi, astratti e generalissimi, di questo capitolo fra i più importanti della matematica moderna.
La tecnica classica risulta oggi sostituita da altra più snella ed elegante, come si può subito vedere, per es., nelle equazioni integrali dei tipi:
nelle quali f (x) è la funzione incognita, da ricercarsi nello spazio C0 delle funzioni reali e continue in un intervallo [a, b] dell'asse reale; ϕ(x) è una funzione assegnata in C0, K(x, y) (cosiddetto "nucleo") è una funzione continua assegnata in [a, b] × [a, b]; λ è un parametro (numero reale arbitrario). Tali equazioni [7], [8] sono lineari, non omogenee e di seconda specie (v. equazioni, XIV, pp. 143-144), dette rispettivamente "di Fredholm" e "di Volterra".
La [7], per valori sufficientemente piccoli di λ, ammette una e una sola soluzione, che può esser determinata (come dimostrato dallo stesso E. I. Fredholm) per approssimazioni successive, mediante la formula ricorrente:
con n = 1, 2, 3, ... Come approssimazione di partenza f0(x), può assumersi una qualunque funzione di C0.
Orbene la dimostrazione dell'esistenza e dell'unicità della soluzione f (x), ottenuta come
fn(x), è immediata nell'ambito dell'analisi funzionale. Basta osservare che l'operazione, o trasformazione T, che porta una qualunque f ∈ C0 in altra g = T(f), pur essa di C0, secondo la legge:
è, per λ sufficientemente piccolo, una "contrazione" (v. funzionale, analisi § VIII, in questa Appendice).
Infatti, se è ∣ K(x, y) ∣ ≤ M in [a, b] × [a, b], risulta, per due funzioni qualunque f1 (x), f2 (x) di C0, posto g1 = T(f1), g2 = T(f2),
e pertanto, se
l'operazione T è una contrazione. Il teorema del punto unito basta dunque a provare la suddetta esistenza e unicità, nonché la convergenza del procedimento di successive approssimazioni.
Per l'equazione [8], il ragionamento è analogo ma un po' meno semplice. Esso si basa su una generalizzazione del teorema del punto unito, cioè: "se T(f) è un'operazione che trasforma un insieme compatto B in sé, e se esiste una potenza Tn(f) (a esponente n intero e positivo) che sia una contrazione, allora l'equazione T(f) = f ammette una e una sola soluzione f in B. Questa è la medesima dell'equazione Tn(f) = f".
La dimostrazione è immediata. Infatti si ha, ∀k = 1, 2, 3, ...,
ove s'è posto
Ma
dunque
Per poter applicare questo teorema alla [8], basta ora far vedere che esiste una potenza gn della trasformazione g = T(f), data in C0 dalla legge [9], che goda della proprietà di essere una contrazione. E infatti si trova successivamente (con significato analogo dei simboli, v. sopra):
Qualunque sia λ, è certo possibile trovare un n tanto elevato che risulti
Per un tale n, gn risulta dunque essere una contrazione.
Come si vede in base alla [8], il teorema d'esistenza e unicità e il metodo delle successive approssimazioni sussistono (e ciò è molto importante delle applicazioni) per qualunque valore di λ (non solo per valori piccoli di λ).
Ragionamenti analoghi si possono fare per equazioni integrali non lineari del tipo
con la condizione restrittiva che il nucleo K(x, y, z) sia non solo continuo in [a, b] × [a, b] × [a, b], ma soddisfi ivi a una "condizione di Lipschitz" rispetto alla z:
Altri numerosi esempi si potrebbero dare in applicazione dei metodi dell'analisi funzionale alle equazioni differenziali, sia ordinarie che a derivate parziali, alle equazioni integro-differenziali, ecc. Ma per essi rinviamo alla bibliografia.
Bibl.: A. Cauchy, Sur l'analogie des puissances et des différences, Oeuvres [2], Parigi 1882-90, vol. 7, p. 178; S. Pincherle, U. Amaldi, Le operazioni funzionali distributive, Bologna 1901; V. Volterra, Léçons sur les fonctions de lignes, Parigi 1913; id., Léçons sur les équations intégrales et les équations intégro-différentielles, ivi 1913; id., Theory of functionals and of integral and integro-differential equations, Londra 1930; W. Gröbner, Die Lie-Reihen and ihre Anwendungen, Berlino 1960; N. Bourbaki, Eléments de mathématique, vol. III, Parigi 1959-61; J. Dieudonné, Fondements de l'analyse moderne, ivi 1965; R. Edwards, Functional analysis; theory and applications, New York 1965; K. Maurin, Methods of Hilbert spaces, Varsavia 1967; G. Chilov, Analyse mathématique, fonctions d'une variable, parte III, Mosca 1973; A. Kolmogorov, S. Fomine, Eléments de la théorie des fonctions et de l'analyse fonctionnelle, ivi 1977.