• Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X

PROBABILITÀ, Calcolo delle

di Giorgio Dall'Aglio - Enciclopedia Italiana - IV Appendice (1981)
  • Condividi

PROBABILITÀ, Calcolo delle (XXVIII, p. 259; App. II, 11, p. 611; III, 11, p. 485)

Giorgio Dall'Aglio

Il calcolo delle p., entrato con l'inizio del secolo nella sua fase moderna, ha proseguito anche negli anni più recenti il suo sviluppo, accompagnato da una presenza sempre più insostituibile nello studio dei fenomeni naturali, economici, sociali, tecnologici. Più recentemente il maggiore approfondimento si è avuto nel campo dei processi aleatori o stocastici, rivolti allo studio dell'aspetto dinamico dei fenomeni aleatori.

Altri significativi contributi sono andati allo studio dei fondamenti della p., e delle variabili aleatorie su spazi astratti. Sono state sempre più approfondite, inoltre, le strette relazioni tra calcolo delle p. e vari settori della matematica. Per quest'ultimo aspetto è di utile consultazione il secondo volume dell'opera di W. Feller ricordata nella bibliografia. Qui presentiamo una panoramica delle impostazioni per la definizione della p. (più ampiamente esposte nel 3° capitolo del libro di V. Barnett) e il cosiddetto "teorema centrale di convergenza" (trattato esaurientemente da M. Loève), utile come premessa allo studio dei processi aleatori (v. aleatori processi, in questa Appendice).

I fondamenti della probabilità. - Fin dalle origini, la p. di un evento veniva concepita, sia pure in modo non formale, come il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, ammettendo implicitamente che i casi possibili, ammettendo implicitamente che i casi possibili dovessero essere equiprobabili. Tale definizione, detta appunto "classica", non appena precisata mostra il suo carattere tautologico e restringe inoltre l'applicazione della p. alla situazione in cui si possano individuare di "casi equiprobabili"; per tali ragioni, più che una definizione, può essere considerata il modo di valutare la p. di eventi in situazioni particolari, e come tale ha ricevuto un notevole chiarimento dal concetto di "eventi scambiabili" o "simmetrici", introdotto da B. de Finetti. Essa peraltro ha avuto il merito di permettere l'inizio dello studio della p., definendone implicitamente le regole di calcolo. D'altra parte era ben presente ai primi studiosi lo stretto legame tra p. e frequenza in una successione di prove, legame che assunto implicitamente fin dall'inizio, fu poi espresso nella "legge (o postulato) empirica del caso": "in un gran numero di prove su un evento di p. costante p la frequenza (relativa) del verificarsi dell'evento approssima p".

Una tale formulazione, forzatamente imprecisa, presenta gravi difficoltà quando se ne approfondisce l'esame; essa però rispecchia un contenuto intuitivo fortemente sentito, che ha portato a una "definizione frequentista" di p.: "la p. è il limite della frequenza al crescere del numero delle prove". Anche questa definizione appare notevolmente imprecisa, soprattutto per il concetto di convergenza di una funzione empirica come la frequenza. R. von Mises ha precisato la definizione, sostituendo alla successione empirica di prove un "collettivo" astratto; il risultato però trova molti critici. Oltre ad obiezioni al modello teorico, si critica la restrizione del concetto di p. a una situazione particolare: delle "prove ripetute".

Una definizione di portata più ampia è quella "logica", sviluppata in particolare da R. Carnap (il cui pensiero ha subìto però una lunga evoluzione, avvicinandosi alla definizione soggettiva, presentata nel seguito). Essa preferisce riferirsi a "proposizioni" invece che a eventi e definisce la p. come "grado di fiducia", o più spesso, come "misura d'implicazione", che estende la logica classica: date due proposizioni A e B, A può implicare B, o implicare la negazione di B; ma può anche implicare B "in una certa misura", che è appunto la p. di B, data A. La teoria della p. viene così vista come "la logica dell'incerto". Per formalizzare la determinazione della p. e le sue regole di calcolo sono stati fatti numerosi tentativi, basati in genere su assunzioni del tipo di equiprobabilità. L'arbitrarietà di tali assunzioni è un elemento negativo della teoria, che inoltre, abbastanza accettata dai filosofi, viene invece rifiutata da altri per l'insoddisfacente collegamento con il concetto intuitivo di p. e con le applicazioni.

Un'altra critica sostanziale a questa definizione riguarda il carattere di "costante assoluta" della p. di un evento, ancora più criticabile nella definizione frequentista, in cui è legata al concetto (poco sostenibile in assoluto) di ripetibilità delle prove. Su questa base si è avuta una definizione "soggettiva" della p. come "grado di fiducia di una persona nel verificarsi di un evento", variabile quindi con la persona e anche, per la stessa persona, con la sua situazione (per es., le informazioni disponibili). Un modo operativo per precisare tale definizione è di ricondurla a una situazione di scommessa: "la p. di un evento è il prezzo p che una persona reputa equo pagare per ottenere 1 lira di l'evento si verifica (e niente se l'evento non si verifica)". A ciò si aggiunge una "condizione di coerenza": le p. degli eventi in una prova non debbono essere fissate in modo che, combinando insieme più scommesse, si possa avere una vincita certa o una perdita certa. Dalla condizione di coerenza derivano le proprietà formali della p., per es., la proprietà additiva per eventi incompatibili.

La concezione soggettiva, già presente ai primordi, è stata presa da circa cinquant'anni, in particolare a opera di de Finetti, e trova sempre più credito. Dagli "oggettivisti" invece vengono negate la possibilità di porre alla base della definizione di p. l'arbitrarietà della valutazione personale, e l'utilità agli effetti della "comunicazione", e quindi del progresso scientifico, di valori di p. non oggettivi. I "soggettivisti" replicano, a ragione, che l'oggettività delle altre impostazioni è o apparente o puramente formale.

Occorre osservare che le regole di calcolo derivanti dalle diverse definizioni non differiscono sostanzialmente tra loro. Ciò ha incoraggiato lo sviluppo di teorie matematiche assiomatiche della probabilità. Senza approfondire questo aspetto, ci limitiamo a citare il sistema di assiomi di A. N. Kolmogorov che, o nella sua formulazione originale (basata sulla teoria della misura), o con qualche modifica (per es. di G. Pompilj) risulta ampiamente accettabile dai cultori di probabilità. Resta, ovviamente, la necessità di ricorrere a una definizione contenutistica quando dalla teoria matematica si voglia passare alle applicazioni.

Il teorema centrale di convergenza. Tale teorema ha le sue origini nello studio del fondamentale "schema di Bernoulli", in cui si considera una successione di prove indipendenti (per es., "testa") si può presentare con p. costante p.

Il numero A(n, p) di successi in n prove, cioè il numero di prove in cui l'evento considerato si verifica, è ovviamente un numero aleatorio, detto "di Bernoulli". G. Bernoulli dimostrò (teorema di Bernoulli, o legge dei grandi numeri) che

per ogni ε > o. Successivamente venne dimostrato (A. De Moivre, 1732 e P.-S. Laplace, 1801) che la variabile aleatoria

per n → ∞ tende ad avere distribuzione normale (o gaussiana). Più tardi S.-D. Poisson considerò una successione di variabili aleatorie di Bernoulli con p = pn dipendente da n, e mostrò che, se npn → μ > 0, si ha

Si ottengono così le tre più importanti distribuzioni del calcolo delle p.: "degenere", "normale", "di Poisson", le cui funzioni di ripartizione (cioè la funzione definita da F(x) = P{X 〈 x}) sono date da (a, μ reali, σ > 0, λ ≥ 0):

Distribuzione denegere:

Distribuzione normale:

Distribuzione di Poisson:

le funzioni caratteristiche (H(t) = E[exp (iXt)]) sono:

La prima di queste distribuzioni è quella, importante come "caso limite", di una variabile aleatoria che si riduce a un valore certo, e si ottiene come caso degenere dalle altre due (per σ → 0 e λ = 0). La seconda, ben nota, ha sempre avuto un ruolo centrale nel calcolo delle probabilità. La terza ha visto aumentare sempre di più la sua importanza nel calcolo delle p. e nelle applicazioni, e per certi aspetti gioca tra le distribuzioni discrete il ruolo che ha la normale tra quelle continue.

Fin dai tempi di Laplace ci si accorse che i primi due risultati erano legati in modo essenziale al fatto che le variabili aleatorie A(n, p) si presentano come somme parziali di una successione di variabili aleatorie indipendenti (i numeri di successi, ovviamente 0 0 1, nelle singole prove), e che potevano essere generalizzati, sotto condizioni molto ampie, alle somme parziali di una successione Xn di variabili aleatorie indipendenti. In particolare, la generalizzazione del secondo risultato nelle sue varie forme prese il nome di "teorema centrale di convergenza" o "teorema limite centrale", conglobando poi, negli ultimi sviluppi, anche gli altri due risultati.

Posto Sn = X1 + ... + Xn, (se i rispettivi momenti esistono finiti), si ha per la media e la varianza:

La più diretta generalizzazione si ha quando le Xi oltre a essere indipendenti sono anche "somiglianti" (hanno cioè tutte la stessa distribuzione e quindi gli stessi momenti):

1) (A. Kincin) Se E(Xr) 〈 ∞, si ha

2) (P. Levy) Se E(X²r) 〈 ∞, si ha

Come si nota, è richiesta solo l'esistenza dei momenti che intervengono nella formulazione del problema, oltre alla somiglianza delle Xn. Lasciando cadere quest'ultima ipotesi, ma mantenendo quella d'indipendenza delle Xn, e supponendo per semplicità E(Xn) = 0, vi sono numerosissime formulazioni del teorema centrale di convergenza. Citiamo:

3) (A. M. Liapunov) Se, per un ε > 0,

per n → ∞, allora

E infine:

4) (J. W. Lindeberg) Condizione sufficiente affinché

è che, per ogni ε > 0,

dove Fk(x) = P{Xk 〈 x}. Questa condizione è anche necessaria (W. Feller) se si aggiunge l'ipotesi che

per n → ∞, e appare quindi conclusiva.

Risultati analoghi si hanno per la legge dei grandi numeri. Questi studi lasciavano da parte, invece, la convergenza a P(x, λ); è stato successivamente dimostrato che tale distribuzione limite non si può ottenere (a parte casi banali) dalle somme parziali di una successione di variabili aleatorie.

L'unificazione della trattazione si ebbe quando, invece di una successione, si considerano le somme Sn = Σk Xn,k ottenute da un insieme di variabili aleatorie Xn,k, n = 1, 2, 3, ...; k = 1, 2, ..., kn, tali che, per n fissato, le Xn,k sono indipendenti. Se, data una successione {Xn}, si pone Xn,k = [Xk − E(Xk)]/n si ottiene lo schema che dà luogo alla convergenza degenere; ponendo invece Xn,k = [Xk − E(Xk)]/σ(X1 + ... + Xn), si ha il caso normale. D'altra parte la possibilità di variare in funzione di n la distribuzione degli addendi permette di ottenere, come caso particolare, il teorema di Poisson. Gli studi s'indirizzano all'individuazione di tutte le possibili distribuzioni limite delle somme Sn. Occorreva ovviamente escludere mediante una condizione restrittiva l'estrema generalità del problema (se, come caso limite, fosse Xn,k = 0 per k ≥ 2, si avrebbe Sn = Xn,1 e la distribuzione limite di Sn potrebbe essere qualsiasi). La condizione giudicata più opportuna è

Tale condizione si può esprimere dicendo che le variabili aleatorie sono, al limite per n → ∞, uniformemente trascurabili, e si ricollega a quella enunciata sopra, dopo il teorema di Lindeberg; il suo significato appare più chiaro nell'ambito dei processi aleatori.

Partendo così da un insieme di variabili aleatorie Xn,k (n = 1, 2, ...; k = 1, 2, ..., kn), indipendenti per n fissato, e soddisfacenti alla condizione di trascurabilità, si ottiene:

5) Le possibili distribuzioni limite delle Sn sono tutte e solo quelle la cui funzione caratteristica è della forma

dove α e β sono numeri reali, e G(x) una funzione non decrescente, limitata, continua nell'origine.

Questo risultato fu preceduto e facilitato dallo studio delle "distribuzioni infinitamente divisibili", o "decomponibili", introdotte da B. de Finetti, e definite come quelle distribuzioni che si possono ottenere, per ogni n intero positivo, come distribuzione della somma di n variabili aleatorie indipendenti e somiglianti; in termini di funzioni caratteristiche, cioè, esente per ogni n una funzione caratteristica Hn(t) tale che H(t) = [Hn(t)]n. P. Levy dimostrò che le distribuzioni infinitamente divisibili sono tutte e sole quelle la cui funzione caratteristica è della forma data sopra; cosicché il risultato 5) si può anche esprimere dicendo che "le possibili distribuzioni limite delle Sn sono le distribuzioni infinitamente decomponibili".

È importante osservare, dalla caratterizzazione delle distribuzioni infinitamente decomponibili, che esse si presentano come distribuzione della somma di tre variabili aleatorie indipendenti, quali la prima è degenere, la seconda normale e la terza, di forma più complessa, può essere considerata una generalizzazione della distribuzione di Poisson.

Bibl.: M. Loève, Probability theory, New York 1955; W. Feller, An introduction to probability theory and its applications, vol. I, New York e Londra 1957; vol. II, ivi 1966; G. Pompilj, Le variabili casuali, fasc. i, Roma 1967, fasc. II, ivi 1970; L. Daboni, Calcolo delle probabilità ed elementi di statistica, Torino 1970; B. de Finetti, Teoria delle probabilità, ivi 1970; A. Rènyi, Foundations of probability (trad. ingl.), San Francisco 1970; V. Barnett, Comparative statistical inference, New York e Londra 1973; Y. S. Chow, H. Teicher, Probability theory, indipendence, interchangeability, martingales, New York, Heidelberg e Berlino 1978.

Vedi anche
speranza matematica speranza matematica di una variabile casuale è la somma dei prodotti dei valori che essa assume per le rispettive probabilità. ● speranza matematica di un giocatore in un gioco d’azzardo è la vincita o perdita che, in media, il giocatore deve aspettarsi a priori, in base alle probabilità degli ... statistica Scienza che ha per oggetto lo studio dei fenomeni collettivi suscettibili di misura e di descrizione quantitativa: basandosi sulla raccolta di un grande numero di dati inerenti ai fenomeni in esame, e partendo da ipotesi più o meno direttamente suggerite dall’esperienza o da analogie con altri fenomeni ... varianza fisica In termodinamica, la varianza (o grado di libertà), è il numero dei parametri caratteristici di un sistema che si possono far variare senza cambiare il numero e la natura delle fasi presenti (➔ equilibrio). matematica In statistica, data la successione di valori numerici esprimenti un dato carattere ... Pierre-Simon de Laplace Laplace ‹laplàs›, Pierre-Simon de. - Astronomo, fisico e matematico (Beaumont-en-Auge, Calvados, 1749 - Parigi 1827), uno dei massimi scienziati francesi dell'epoca napoleonica. La sua opera fondamentale è il Traité de mécanique céleste (5 voll., 1798-1825), in cui espone importanti scoperte e innovazioni ...
Tag
  • DISTRIBUZIONE DI POISSON
  • FUNZIONE NON DECRESCENTE
  • LEGGE DEI GRANDI NUMERI
  • TEOREMA LIMITE CENTRALE
  • DISTRIBUZIONE NORMALE
Altri risultati per PROBABILITÀ, Calcolo delle
  • calcolo delle probabilita
    Enciclopedia della Matematica (2013)
    calcolo delle probabilità parte della matematica che studia la probabilità del verificarsi dei fenomeni casuali. Nato nel sec. xvii su basi empiriche e nel contesto dei giochi di azzardo, si è trasformato nel tempo in una disciplina matematica astratta e altamente formalizzata che prende anche il nome ...
  • probabilità
    Dizionario di Economia e Finanza (2012)
    probabilita probabilità  Secondo la definizione soggettiva, ritenuta la più utile nelle applicazioni economiche, p. è il grado di fiducia attribuito da un individuo, sulla base delle sue informazioni e opinioni, al verificarsi di un evento; essa è misurata in una scala numerica compresa fra 0 e 1. La ...
  • probabilità
    Enciclopedia on line
    Nel linguaggio scientifico, in presenza di fenomeni casuali (o aleatori), p. di un evento è il numero, compreso fra 0 e 1, che esprime il grado di possibilità che l’evento si verifichi, intendendo che il valore minimo 0 corrisponda al caso in cui l’evento sia impossibile, mentre il valore massimo 1 ...
  • probabilità
    Dizionario di filosofia (2009)
    probabilita probabilità Misura delle possibilità di uno o più eventi con riferimento a una serie di alternative. Tale misura è data attraverso il cosiddetto calcolo delle probabilità. La riflessione filosofica ha considerato tale concetto sin quasi dalla sua origine, che è legata ai nomi di Cardano, ...
  • Probabilità
    Enciclopedia della Scienza e della Tecnica (2007)
    Probabilità Eugenio Regazzini Apartire dalla fine degli anni Venti del Novecento incominciò a diffondersi l'uso di una definizione generale di probabilità, in sostituzione di precedenti impostazioni parziali. Tra queste le principali sono il punto di vista classico (basato sulla nozione di casi ugualmente ...
  • probabilita
    Enciclopedia dei ragazzi (2006)
    probabilità Walter Maraschini La misura dell’incertezza Prevedere il futuro è un’aspirazione costante dell’umanità: si desidera sapere che tempo farà l’indomani, si consulta l’oroscopo nell’illusione di prevedere come sarà la settimana, ci si fa leggere la mano nella convinzione che vi sia scritto ...
  • Probabilita
    Enciclopedia delle scienze sociali (1997)
    PROBABILITÀ Italo Scardovi Giorgio Dall'Aglio Misura della probabilità di Italo Scardovi La probabilità come numero reale Nel parlar comune, 'probabilità' è parola che esprime incertezza, ora per alludere al 'grado di credibilità' di una proposizione della quale non si può affermare o negare in ...
  • probabilita
    Dizionario delle Scienze Fisiche (1996)
    probabilità [Der. del lat. probabilitas -atis, da probabilis (→ probabile)] [LSF] Generic., la proprietà di ciò che è probabile. ◆ [PRB] Grandezza che esprime numericamente la fiducia che si può porre nel fatto che un evento (in senso generico) accada; precis., tale p. di un evento è un numero variabile ...
  • Probabilita
    Enciclopedia del Novecento (1980)
    Probabilità Gian-Carlo Rota e Joseph P.S. Kung *La voce enciclopedica Probabilità è stata ripubblicata da Treccani Libri, arricchita e aggiornata da un contributo di Marco Li Calzi. sommario: 1. Introduzione. 2. Spazi campione.  3. Variabili casuali. 4. Natura del pensiero probabilistico. a) Geometria ...
  • PROBABILITÀ, Calcolo delle
    Enciclopedia Italiana - III Appendice (1961)
    PROBABILITÀ, Calcolo delle (XXVIII, p. 259; App. II, 11, p. 611) Giuseppe POMPILJ Tutta la moderna scienza del reale è imbevuta di "probabilità" e gli sviluppi di questi ultimi sessant'anni hanno ampiamente dimostrato la potenza di penetrazione, nei più diversi campi d'indagine, degli schemi probabilistici. ...
  • PROBABILITA, CALCOLO DELLE
    Enciclopedia Italiana - II Appendice (1949)
    PROBABILITÀ, CALCOLO DELLE (XXVIII, p. 259) Aldo GHIZZETTI DELLE Come disciplina matematica, ha avuto, nell'ultimo trentennio, un ampio sviluppo. Si nota anzitutto una forte tendenza a studî di carattere critico sui fondamenti del calcolo stesso, volti per lo più al tentativo di assiomatizzarlo. Si ...
  • PROBABILITÀ, CALCOLO DELLE
    Enciclopedia Italiana (1935)
    PROBABILITÀ, CALCOLO DELLE Guido CASTELNUOVO Luigi GALVANI . È lo studio delle regolarità statistiche che presentano i fenomeni attribuiti al caso. Con quest'ultima parola s'intende nel calcolo delle probabilità il complesso di molteplici cause d'intensità variabile, delle quali sono difficilmente ...
Mostra altri risultati
Vocabolario
probabilità
probabilita probabilità s. f. [dal lat. probabilĭtas -atis]. – 1. Carattere di ciò che è probabile; condizione di un fatto o di un evento che si ritiene possa accadere, o che, fra più fatti ed eventi possibili, appare come quello che più...
càlcolo¹
calcolo1 càlcolo1 s. m. [dal lat. calcŭlus, propr. «pietruzza» (cfr. càlcolo2), attrav. il sign. di «gettone per fare i conti»]. – 1. a. Successione più o meno lunga di operazioni atte a fornire la soluzione di un dato problema aritmetico,...
  • Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X
  • Ricerca
    • Enciclopedia
    • Vocabolario
    • Sinonimi
    • Biografico
    • Indice Alfabetico

Istituto della Enciclopedia Italiana fondata da Giovanni Treccani S.p.A. © Tutti i diritti riservati

Partita Iva 00892411000

  • facebook
  • twitter
  • youtube
  • instagram
  • Contatti
  • Redazione
  • Termini e Condizioni generali
  • Condizioni di utilizzo dei Servizi
  • Informazioni sui Cookie
  • Trattamento dei dati personali