• Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X

informazione, teoria della

Enciclopedia della Matematica (2013)
  • Condividi

informazione, teoria della


informazione, teoria della teoria matematica, elaborata da C.E. Shannon e N. Wiener, che consente di misurare la riduzione d’incertezza determinata da un segnale. In un qualunque sistema di comunicazione vi è un’informazione iniziale o input (per esempio, le parole pronunciate al telefono) che mediante la → codifica è trasformata in → segnali (per esempio, le parole pronunciate al telefono sono trasformate in onde elettriche e, nella telefonia cellulare, digitalizzate); l’informazione codificata viene trasmessa al ricevente, che la decodifica; l’informazione decodificata (output) o finale non è identica all’input iniziale, perché durante le operazioni di codificazione, trasmissione e decodificazione possono verificarsi interferenze che riducono l’intelligibilità del messaggio.

Sorta inizialmente nell’ambito della radiotelegrafia e radiotelefonia e utilizzata allo scopo pratico di calcolare con precisione la perdita d’informazione che ha luogo nel corso di una trasmissione, la teoria è stata applicata allo studio teorico del linguaggio, della percezione, dell’apprendimento e della memoria; le parole, per esempio, possono essere interpretate come messaggi che l’interlocutore deve decodificare per comprendere il loro significato.

Ogni messaggio ha un contenuto informativo in quanto è scelto tra un insieme finito di messaggi possibili e in base alla probabilità che ha di essere inviato. Un messaggio poco probabile ha un contenuto informativo maggiore di uno molto probabile. Se tutti i messaggi trasmissibili hanno uguale probabilità di essere inviati, allora la quantità di informazione H insita in un messaggio è pari a log2N (con N uguale al numero di messaggi a disposizione) ed è misurata in bit, giacché se la sorgente è di tipo binario, come di fatto lo sono quelle digitali, essa può emettere soltanto una successione di segnali binari, indicati convenzionalmente con 0 o 1. Nel caso in cui l’insieme in questione sia costituito da n di tali messaggi non equiprobabili, indicando con p1, ..., pn (tali che Σpi = 1) le probabilità di essere inviati, la misura dell’informazione è data da

formula

Tale funzione è stata chiamata da Shannon → entropia. È importante notare come l’informazione sopra definita, rappresentando un grado di scelta tra varie alternative a disposizione, misura il grado di incertezza all’atto della selezione (non per indecisione da parte di chi sceglie, ma come conseguenza della varietà di alternative a disposizione): quanto maggiore è il numero di alternative, tanto maggiore è l’incertezza, quindi più grande è l’informazione convogliata mediante la scelta di una delle alternative.

In generale, un messaggio ha un contenuto informativo che non è specifico del simbolo, ma dipende dall’insieme dei simboli all’interno del quale è scelto e dalle sue caratteristiche di frequenza nell’insieme stesso. Tale concetto è per esempio evidente nel caso delle lettere dell’alfabeto che sono usate con frequenza molto diversa e che spesso hanno interdipendenze mutue (per esempio, nella lingua italiana, una q è quasi sempre seguita da una u). La relazione strutturale tra i simboli è quindi responsabile di una diminuzione della capacità informativa di ciascun simbolo. A tale proposito Shannon introdusse il concetto di entropia relativa Hrel definita come il rapporto tra l’entropia H di un messaggio (o di un simbolo) di un determinato insieme e l’entropia massima Hmax che esso avrebbe se tutti i messaggi (o simboli) dell’insieme fossero equiprobabili. In pratica, invece di questo rapporto, si preferisce il suo complemento a 1, detto → ridondanza, pari a

formula

Un altro importante teorema di Shannon definisce il concetto di entropia condizionata, legato a sua volta a quello di → probabilità condizionata. Analizzando l’entropia corrispondente a due messaggi o simboli qualsiasi x o y, si dimostra che

formula

cioè che l’entropia dell’insieme dei due messaggi è minore o uguale alla somma delle due entropie (verificandosi l’uguaglianza solo quando i messaggi sono indipendenti). L’entropia condizionata misura l’informazione contenuta nel messaggio o simbolo y quando sia noto il messaggio di x e, se i due messaggi o simboli non sono indipendenti, l’informazione prodotta da y è minore se già si conosce x.

Vedi anche
segnale Genericamente, indicazione di tipo ottico o acustico, per lo più stabilita d’intesa o convenzionale, con cui si dà una comunicazione, un avvertimento, un ordine a una o più persone. Concretamente, qualsiasi oggetto, strumento o dispositivo usato per fare segnalazioni; in particolare, l’informazione contenuta ... bit Cifra binaria (contrazione dell’ingl. bi[nary] [digi]t), cioè cifra del sistema di numerazione binario (➔ numerazione). Nella teoria dell’informazione e in informatica, è l’unità di misura del contenuto di informazione di un messaggio. Più precisamente un b. è la quantità di informazione che risolve ... comunicazióni di massa (ingl. mass media) Insieme dei mezzi per far conoscere, diffondere e divulgare messaggi significativi, carichi di valori diversi, a un pubblico anonimo, indifferenziato e disperso, e anche le tecniche con le quali gruppi specializzati elaborano e diffondono informazioni, messaggi, segni e simboli, ... ridondanza biologia In biologia molecolare, r. terminale, ripetizione della stessa sequenza di DNA a entrambe le estremità del genoma di un fago. tecnica Caratteristica posseduta da un impianto o da una apparecchiatura, in cui per aumentare l’affidabilità si sono disposti più elementi (funzionanti contemporaneamente, ...
Tag
  • PROBABILITÀ CONDIZIONATA
  • MATEMATICA
  • ENTROPIA
  • ENTROPIA
Altri risultati per informazione, teoria della
  • INFORMAZIONE, TRATTAMENTO SICURO DELLA
    Enciclopedia Italiana - IX Appendice (2015)
    Federico Griscioli Maurizio Pizzonia – Cloud computing. Dispositivi mobili. Social networking. Uso di dispositivi personali per attività lavorative. Cybercrime organizzato. Attività di intelligence. Bibliografia La sicurezza nel trattamento delle informazioni è largamente influenzata dal contesto ...
  • informazione
    Dizionario di Economia e Finanza (2012)
    Notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere. In senso più generale, anche la trasmissione dei dati e l’insieme delle strutture che la consentono. Informazione
  • informazione
    Enciclopedia on line
    Notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere. In senso più generale, anche la trasmissione dei dati e l’insieme delle strutture che la consentono. L’espressione tecnologia delle i. è la traduzione italiana di information technology, ...
  • Informazione, trattamento sicuro della
    Enciclopedia Italiana - VII Appendice (2007)
    Giuseppe F. Italiano A partire dagli inizi del 20° sec., il progressivo diffondersi delle nuove tecnologie dell'i. ha notevolmente incrementato la quantità di dati che vengono prodotti in formato digitale e che viaggiano, sempre in formato digitale, sulla rete Internet. Per dare un'idea di questo fenomeno, ...
  • informazione
    Enciclopedia dei ragazzi (2005)
    Nicola Nosengo Una 'materia prima' della società contemporanea L'informazione è una delle più importanti risorse della nostra epoca. Si dice spesso, infatti, che viviamo nella società dell'informazione, e con questo si intende soprattutto mettere in evidenza il fatto che la produzione di informazione, ...
  • Informazione
    Enciclopedia delle Scienze Sociali I Supplemento (2001)
    società della Giancarlo Provasi Origini e accezioni del termine Il termine "società dell'informazione" (information society) risale ai primi anni sessanta. Una ricostruzione delle origini del concetto (v. Duff e altri, 1996) attribuisce ad un giornalista giapponese (Michiko Igarashi) il conio originale ...
  • Informazione, scienza della
    Enciclopedia del Novecento II Supplemento (1998)
    INFORMAZIONE, SCIENZA DELLA Roman Tirler Pierluigi Ridolfi Stefano Ceri e Alfonso Fuggetta Tecnologie della comunicazione di Roman Tirler Sommario: 1. Introduzione. 2. Tecniche di comunicazione dati: a) trasmissione dei dati; b) codifica dei dati e modulazione; c) tecniche di comunicazione di dati ...
  • informazione
    Dizionario delle Scienze Fisiche (1996)
    informazióne [Der. del lat. informatio -onis, dal part. pass. informatus di informare "dare forma" e, figurat., "dare notizia", comp. di in- e formare, da forma "forma"] [LSF] Termine nato nel-l'ambito della tecnica delle comunicazioni con il signif. di messaggio e simili, poi passato a indicare non ...
Mostra altri risultati
Vocabolario
informazióne
informazione informazióne s. f. [der. di informare; cfr. lat. informatio -onis «nozione, idea, rappresentazione» e in epoca tarda «istruzione, educazione, cultura»]. – 1. ant. e raro. L’azione dell’informare, di dare forma cioè a qualche...
mala-informazione
mala-informazione (mala informazione), s. f. inv. Cattiva informazione; informazione viziata e scorretta. ◆ [Silvio Berlusconi] si trova precipitato nella medesima situazione dei suoi predecessori quando parla in maniera informale. Ossia...
  • Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X
  • Ricerca
    • Enciclopedia
    • Vocabolario
    • Sinonimi
    • Biografico
    • Indice Alfabetico

Istituto della Enciclopedia Italiana fondata da Giovanni Treccani S.p.A. © Tutti i diritti riservati

Partita Iva 00892411000

  • facebook
  • twitter
  • youtube
  • instagram
  • Contatti
  • Redazione
  • Termini e Condizioni generali
  • Condizioni di utilizzo dei Servizi
  • Informazioni sui Cookie
  • Trattamento dei dati personali