ELETTRONICA
(App. III, I, p. 532; IV, I, p. 669)
Con e. ci si riferisce oggi a un complesso molto vasto di attività spesso appartenenti ad ambiti disciplinari e produttivi all'apparenza eterogenei. Purtuttavia gli studiosi e i tecnici del settore tendono a privilegiare una definizione unificante di e. che la identifichi con il trattamento dell'informazione. L'e. sarebbe ''quel ramo della scienza e della tecnologia che s'interessa della generazione, del trasferimento e dell'elaborazione dell'informazione e che studia, progetta e realizza i sistemi atti allo scopo''. Il limite di tale definizione sta paradossalmente proprio nella sua ampiezza: non solo infatti l'informazione riguarda i tipi più diversi dell'attività umana, ma l'ambito all'interno del quale essa può venire studiata e utilizzata (elaborata) dipende totalmente dal supporto che la veicola. Non c'è dubbio infatti che il DNA sia portatore di un'informazione, attinente però alla biologia, e che un testo scritto veicoli un'informazione che interessa il linguista o il semiologo. Sembra quindi opportuno specificare che l'informazione, di cui si parla nella definizione di e., si presenta su un supporto di tipo elettromagnetico (segnale), anche se ciò non è risolutivo: sono di natura elettromagnetica, per es., buona parte dei supporti che veicolano le informazioni nel sistema nervoso.
In natura, pochissimi messaggi, ossia dichiarazioni con un contenuto informativo, nascono su un supporto elettromagnetico. Essi quindi non potrebbero essere elaborati in ambito elettronico se non venissero trasdotti: collocati cioè su un supporto di tipo elettromagnetico, a condizione che l'opera del trasdurre non faccia perdere alcuna parte significativa (sintatticamente e semanticamente) del loro contenuto informativo. Si comprende quindi l'importanza dell'operazione di trasduzione, compiuta la quale si possono utilizzare la rapidità e la precisione proprie dell'elaborazione elettronica dell'informazione. A sua volta assume fisionomia a parte l'operazione inversa, cioè quella che consiste nel riportare l'informazione elaborata sul supporto più conveniente alla sua utilizzazione finale.
Il complesso delle operazioni delineate viene eseguito dal sistema elettronico, da un apparato cioè che, basando il suo funzionamento sulla possibilità di elaborare l'informazione contenuta in segnali di natura elettromagnetica, sia capace di svolgere una funzione sostitutiva, ausiliaria, aggiuntiva rispetto a (comunque in relazione con) le attività della vita umana.
Un sistema elettronico (fig. 1) viene oggi rappresentato con uno schema a quattro blocchi: l'alimentatore, che fornisce l'energia necessaria al complesso dell'opera di elaborazione; il circuito d'interfaccia d'ingresso, sede del processo di trasduzione dell'informazione su un supporto adatto all'ambito elettronico; il circuito d'interfaccia di uscita, sede del processo inverso (di ritrasduzione) su un supporto gradito all'utilizzatore; e il blocco di elaborazione che tratta il segnale in maniera da renderlo utilizzabile da parte del circuito d'interfaccia di uscita, da estrarne il contenuto informativo, da utilizzare l'eventuale ridondanza del messaggio per rilevare e correggere errori, ecc. Ogni blocco può essere a sua volta descritto in base alle sue specifiche tecnologiche e di progetto, che ne determinano le prestazioni.
Il valore operativo di questo schema sta nella sua capacità di mettere in luce il percorso del messaggio. Ma, al di là di questo, esso può essere interpretato come una cella elementare costitutiva, nel senso che, per ciascuna parte del sistema (subsistema) per la quale sia determinabile la funzione elaborativa, si può individuare una sorgente di energia, una di segnale e un utilizzatore. Il modello non ha quindi soltanto un valore descrittivo: esso è uno strumento di analisi con un non trascurabile valore predittivo, come risulterà più chiaro nel seguito.
Prima di passare alla considerazione delle caratteristiche dei vari blocchi, è necessario soffermarsi sui cambiamenti intervenuti negli anni Settanta e Ottanta nella progettazione e nella produzione degli apparati elettronici. In questo periodo si è avuta una qualche identificazione dello sviluppo dell'e. con quello della tecnologia spesso indicata col termine di ''microelettronica'', la quale è volta a ottenere subsistemi sempre più complessi (microcircuiti) formati da migliaia, decine di migliaia e ormai centinaia di migliaia (VLSI, Very Large Scale Integration, o integrazione su larga scala) di componenti attivi elementari (BJT, Bipolar Junction Transistors, o transistori a doppia giunzione, e transistori MOS, Metal Oxide Semiconductor, o metallo ossido semiconduttore). Si è posto quindi l'accento sulla possibilità di produrre componenti attivi i quali, occupando un volume che è parte trascurabile di quello dell'intero sistema, forniscano un sempre maggior numero di funzioni eseguite a velocità sempre più alta. Il conseguimento di tali risultati ha permesso una continua diminuzione del costo, non solo dei componenti stessi, ma anche, e soprattutto, dei sistemi con essi costruiti.
Lo sfruttamento ulteriore di tali potenzialità è legato allo studio e allo sviluppo dei procedimenti di miniaturizzazione e d'integrazione, in modo da usufruire a pieno dei vantaggi ottenibili, cioè: il già ricordato abbassamento dei costi; l'aumento dell'affidabilità; la maggiore velocità di operazione; il minore uso di energia. Questi, che naturalmente rappresentano anche obiettivi da conseguire, sono riassumibili nella possibilità di abbassare la quantità di energia necessaria a memorizzare e trattare l'informazione elementare. Lo sforzo della ricerca e della produzione è rivolto quindi verso l'ottenimento di componenti singoli che sempre più includano potenzialità in precedenza offerte da un insieme molto numeroso di elementi.
Si comprende perciò come le operazioni di progetto abbiano cambiato sicuramente sito d'intervento, se non addirittura fisionomia, dando contemporaneamente le caratteristiche del progetto di sistema, non solo a quello propriamente detto, ma non di rado anche al progetto dei singoli componenti, le prestazioni dei quali vengono sempre più condizionate dall'applicazione alla quale il sistema è dedicato. Il componentista cioè non potrà più limitarsi solo a spingere i valori dei parametri del suo prodotto verso i loro estremi fisici: questo sarebbe un ottimo atteggiamento qualora s'intendesse ottenere un componente d'impiego generale, non un componente che deve la sua complessità proprio al fatto di essere stato concepito in relazione a un compito strettamente legato a una specifica applicazione, o a un numero limitato di applicazioni. Per calibrare il componente sull'applicazione, questa dev'essere nota al progettista in maniera sensibilmente più ampia di quella garantita da un'usuale descrizione; si dovrà utilizzare, per es., una descrizione formale.
La stessa complessità del componente fa poi sorgere un altro problema, quello cioè di come dominarla per non esserne sopraffatti. È qui che entrano in gioco le tecniche di progetto assistito da calcolatore (CAD, Computer Aided Design), che consistono nell'utilizzare delle metodologie di progettazione assestate e per le quali sono stati realizzati gli strumenti di esecuzione che consentono, tra l'altro, di sostituire alla memoria umana quella di un calcolatore che garantisce sicurezza d'immagazzinamento e velocità di consultazione. Il componentista dovrà quindi possedere anche quelle nozioni d'informatica che gli permettano d'individuare i limiti del suo sistema di rappresentazione e simulazione. Sorte non dissimile tocca al sistemista (o responsabile del sistema nel suo complesso): a causa della vastità delle funzioni eseguite dai componenti complessi, può vedersi costretto a scendere, dai livelli di astrazione ai quali desiderava lavorare, a quelli più propriamente fisici delle varie fasi dell'elaborazione.
Il progetto di un sistema elettronico sarà quindi in generale il risultato di un vasto insieme di competenze, di una squadra di progetto. Al suo interno (e a fortiori se essa si riduce a un solo progettista), deve istaurarsi un fitto dialogo volto a sceverare le necessità di sistema e le potenzialità dei componenti in un processo che porti al risultato finale mediante aggiustamenti successivi. Un tale dialogo è impensabile se non s'individua un terreno culturale comune e un linguaggio ad esso relativo. Nonostante quindi che, per ragioni produttivistiche o di limitazione delle nozioni necessarie all'operare, l'e. si sia suddivisa in vari settori di specializzazione che rispondono al diverso campo di utilizzazione dell'informazione trattata e che, non di rado, hanno sviluppato autonome formalizzazioni delle conoscenze interne ai loro obiettivi (per es. telecomunicazioni, telerilevamento, componenti e tecnologie, circuiti, elettromagnetismo applicato, automatica, e. quantistica, e. industriale, calcolatori elettronici, bioingegneria), sembra opportuno dare una descrizione del sistema elettronico che sia frutto di un tentativo d'individuazione della cultura necessaria al suo progetto.
Alimentatore. − La funzione di questo blocco è quella di convertire l'energia a disposizione nella forma utilizzabile dal sistema per svolgere le sue funzioni. Nella maggior parte dei casi si tratta di una conversione chimico-elettrica (batteria) o di una conversione alternatacontinua (ac-dc). Qualunque sia il caso, si tratta di realizzare un subapparato che fornisca una tensione continua di valore fisso nonostante il variare delle condizioni di lavoro. Questa parte di sistema è quindi in grado di controllare e mantenere costante la caratteristica dominante dell'energia da essa fornita (la tensione per l'appunto) al variare: delle caratteristiche dell'energia a disposizione (per es. del valore della tensione di linea); della richiesta di potenza da parte del sistema; delle caratteristiche ambientali (per es. della temperatura).
All'interno del campo di validità dei modelli matematici utilizzati per descriverlo e simularlo, l'alimentatore deve tendenzialmente comportarsi, quindi, come un generatore ideale di tensione. La sua possibilità di rispondere reagendo alle variazioni di cui sopra e di renderne trascurabili gli effetti indesiderati è legata al fatto che in esso si utilizzano tecniche di regolazione. Queste consistono sostanzialmente nel verificare se e quanto una grandezza si mantiene in una certa relazione con un campione della grandezza medesima, preso come riferimento. In un convertitore ac-dc (conversione alternata-continua) il campione è la tensione di una sorgente, mentre in un convertitore dc-dc (conversione continua-continua) esso è il contenuto di frequenza di un oscillatore.
Riservandoci di affrontare il tema degli oscillatori quando si parlerà del sincronismo, passiamo a mettere in luce i problemi relativi alla sorgente di tensione. L'alimentatore deve ovviamente lavorare con una qualità dell'energia inferiore a quella che produce: in altre parole, deve ricevere energia dall'alimentazione primaria, ma questa gli perverrà sotto forma di una tensione molto malamente regolata. Con questa dovranno quindi poter lavorare sia la sorgente, sia le celle di elaborazione eventualmente presenti nel sub-sistema. Sorgente e celle dovranno cioè avere un funzionamento largamente indipendente dal valore della loro tensione di alimentazione. Ciò si ottiene per due vie:
a) attraverso l'uso di strutture circuitali le cui prestazioni siano svincolate, almeno entro i limiti di validità dei loro modelli matematici, dal valore della loro tensione di alimentazione;
b) attraverso l'adozione di tecnologie, prima fra tutte quella dell'integrazione dei componenti, che permettano di validare meglio, e in un ambito più ampio, i modelli matematici stessi.
È bene sottolineare che la parte finale dell'alimentatore, quella cioè che fornisce direttamente la potenza, è attraversata dalla stessa corrente che attraversa l'utilizzatore: in essa quindi si dissipa la maggior parte della potenza che questo sub-sistema utilizza per il suo funzionamento. Converrà quindi, per aumentare il rendimento dell'alimentatore, portare al minimo indispensabile la tensione primaria, adottare strutture circuitali ad alta efficienza e prevedere tecniche di costruzione e assemblaggio che permettano l'efficace smaltimento del calore generato in questa sezione del sistema.
In fig. 2 sono riportati lo schema di principio di un alimentatore stabilizzato e la sua caratteristica di regolazione.
Circuito d'interfaccia d'ingresso. − Questa parte (in seguito denominata semplicemente interfaccia d'ingresso) connette il sistema con ciò che lo precede e, quando questo sia il mondo fisico esterno, prende più propriamente il nome d'interfaccia ambiente-sistema.
Il suo compito consiste nel misurare una grandezza fisica g e nel convertirne il valore (trasdurla) in un segnale elettrico e di tensione o di corrente. La conversione deve avvenire in maniera che sia nota la funzione e = e(g) e tale funzione dev'essere invertibile su tutto il suo campo di uso. Un'antenna, una tastiera, una termocoppia, un rilevatore di sforzo, un fototransistore, un microfono possono costituire l'interfaccia d'ingresso al sistema. Alcuni di essi sono esempi di veri e propri trasduttori, altri (l'antenna e il fototransistore) accettano l'informazione già su un supporto elettromagnetico e la restituiscono su un supporto della stessa natura, ma di altro tipo.
Nel caso che la funzione e=e(g) sia continua, la trasduzione avviene per via analogica ed è consigliabile, per semplicità, che la funzione sia lineare. Poiché in generale ciò non è vero, ci si dovrebbe ridurre a impiegare il trasduttore in un campo limitato di valori g in modo da poter ritenere valido uno sviluppo in serie arrestato al primo ordine. Alternativamente si può far seguire il trasduttore da un condizionatore, ossia da un pre-elaboratore con il compito di amplificare, filtrare o in qualche modo ''condizionare'' il segnale fornito dal trasduttore con lo scopo di recuperare le eventuali non linearità del processo di trasduzione che deve ovviamente essere noto. Le tecniche odierne d'integrazione dei componenti permettono spesso di eseguire una tale operazione con grande accuratezza, e non è quindi raro trovare in commercio trasduttori che comprendano il loro condizionatore come parte integrante.
Nel collegamento del trasduttore al condizionatore (come del resto in qualunque stadio del passaggio del segnale da ''sinistra'' a ''destra'' nel sistema elettronico) è bene menzionare esplicitamente un'operazione da non sottovalutare mai: quella cioè del corretto accoppiamento tra l'uscita di sinistra e l'entrata di destra. Se, per es., la grandezza che veicola il messaggio è una tensione, per non perdere l'informazione in tutto o in parte si dovrà procedere alla misura di una tensione. Ogni misurazione è tanto più corretta, quanto più essa avviene senza richiesta di energia al sistema sotto misura (la parte di sinistra) da parte del misuratore (la parte di destra). Nel caso della tensione, la misura deve avvenire quindi senza richiesta di corrente (impedenza d'ingresso della parte di destra molto grande rispetto all'impedenza di uscita di quella di sinistra), mentre nel caso di misura di corrente essa deve avvenire senza dover stabilire una tensione (impedenza d'ingresso della parte di destra molto piccola rispetto all'impedenza di uscita di quella di sinistra). Oltre a essere regole di accoppiamento, queste sono direttrici di scelte del progetto delle varie parti del sistema: si può anzi affermare che qualunque progetto di elaborazione dell'informazione risulta impossibile se non si conoscono le caratteristiche della sorgente (e dell'utilizzatore) del segnale.
È bene infine mettere esplicitamente in luce due vantaggi della presenza del condizionatore.
a) Il funzionamento del trasduttore risente, come avviene per qualunque sistema fisico, delle condizioni ambientali nelle quali si lavora: temperatura, pressione, umidità, agenti chimici possono mutare nel tempo le modalità del processo di trasduzione. Se tali mutamenti sono contenuti entro limiti stabiliti in sede di progetto, il condizionatore può essere studiato in modo da compensarne gli effetti non voluti. Se viceversa i mutamenti travalicassero tali limiti, il condizionatore dovrebbe essere in grado d'indurre il sistema a richiamare l'attenzione dell'operatore sulla necessità di una ritaratura (e, in caso d'irreversibilità dei mutamenti, di una sostituzione) della sua interfaccia d'ingresso.
b) Nella generalità dei casi, la trasduzione è un processo a basso rendimento, nel senso che l'energia elettrica del segnale disponibile all'uscita del trasduttore è una piccola frazione di quella sottratta all'ambiente e che ha innescato il processo di trasduzione stesso. Il segnale fornito dal trasduttore è quindi generalmente ''debole'', cioè esiste una probabilità non trascurabile che il suo contenuto informativo venga in qualche misura deteriorato a causa della presenza di rumori e disturbi, cioè di segnali elettrici non voluti sovrapposti a quello che porta il messaggio. Il rumore è un segnale non voluto, inevitabilmente connaturato alla presenza della materia e giustificato dalle stesse leggi che regolano l'aggregazione degli atomi tra di loro. Può essere descritto come un processo aleatorio che fornisce un segnale a valor medio nullo e con una distribuzione di probabilità nota o assunta come plausibile in base a considerazioni fisiche. Un disturbo, invece, è un segnale di origine deterministica ancorché temporaneamente ignota; esso può essere perfino intenzionale e, una volta accertatane la causa, è sempre possibile eliminarlo. Questo risultato si ottiene in maniera ottimale se è possibile rimuovere la sorgente del disturbo. Se viceversa possiamo agire solo sul sistema, si può approssimare il risultato perfetto tramite interventi nello spazio, nel tempo e nella frequenza, con ovvia possibilità di combinazione dei tre tipi d'intervento, al fine di diminuire l'intensità del disturbo e/o aumentare quella del segnale.
Il caso più ovvio d'intervento nello spazio consiste nell'avvicinare il trasduttore alla sorgente della grandezza da trasdurre in modo da aumentare l'interazione con l'ambiente fisico e quindi l'ampiezza del segnale voluto. È inoltre possibile limitare la regione spaziale entro la quale il trasduttore opera; un microfono o un'antenna sono resi direzionali, un rivelatore ottico è dotato di un diaframma d'ingresso, un galvanometro astatico, in generale un metodo di zero o particolari simmetrie di struttura, sono concepiti in maniera tale da non risentire di disturbi che agiscano uniformemente nello spazio occupato dal trasduttore. L'integrazione del condizionatore (o comunque il suo posizionamento prossimo al trasduttore) ha precisamente lo scopo di rendere minima la possibilità che i disturbi s'introducano nel sistema e si sovrappongano al segnale.
L'intervento nel tempo consiste nel permettere il funzionamento dell'interfaccia solo negli intervalli di tempo nei quali la sorgente del disturbo è inoperante. La gestione della gerarchia degli interrupt in un microprocessore o il segnale di occupato sulla linea telefonica sono modi per impedire l'indiscriminata attivazione di un canale di comunicazione e di concederla in un momento più propizio.
L'intervento nella frequenza più largamente usato è quello che consiste nel far sì che il condizionatore abbia anche funzioni di filtro passa-banda. Tale intervento è inefficace se disturbo e segnale hanno contenuti frequenziali largamente sovrapposti. L'uso di un filtro di antenna, o di un PLL (Phase Locked Loop o anello ad aggancio di fase) come condizionatori del segnale in ingresso a un apparato ricevente, non selezionerà due stazioni trasmittenti sulla stessa frequenza di portante, così come un sistema telefonico nulla può contro disturbi di diafonia. Fanno anche parte degli interventi nella frequenza tutte quelle tecniche volte a estrarre un segnale periodico di periodo noto da un rumore a esso superiore in intensità, ma con esso scorrelato.
Lo stesso sistema elettronico è sede dei processi che generano rumore, e quindi l'elaborazione dell'informazione deve sempre fare i conti con un inevitabile peggioramento del rapporto tra l'intensità del segnale e quella del rumore. Se però il trasduttore è in grado di fornire un segnale d'intensità nettamente superiore a quella di rumori e disturbi, sta a ogni parte del sistema elettronico di non peggiorare oltre l'accettabile le sue condizioni d'intelligibilità. Per quanto riguarda il condizionatore che, se presente, funziona a tutti gli effetti come il primo stadio elaboratore del sistema, la sua funzione risulterà tanto più efficace, quanto più alta sarà la sua amplificazione e più basso il contributo di rumore che inevitabilmente esso sovrappone al segnale.
Nella tab. 1 si riportano le caratteristiche salienti del tipo di trasduttori detti ''di prossimità'', che danno cioè informazioni sulla distanza di oggetti da loro.
Circuito d'interfaccia di uscita. − I problemi del circuito d'interfaccia di uscita (in seguito denominato semplicemente interfaccia di uscita) sono complementari rispetto a quelli dell'interfaccia d'ingresso. Se infatti si è lasciato che il segnale arrivasse fino all'uscita del sistema, ciò significa che il processo di elaborazione ha avuto successo e che il segnale è in grado di mettere l'interfaccia di uscita in condizioni di assolvere al compito per il quale è stata pensata e progettata: garantire cioè la correttezza dell'attuazione della funzione voluta, nonché la sua fedeltà ai contenuti informativi del messaggio. Il compito dell'interfaccia di uscita si risolve nel realizzare, con la mediazione del sistema elettronico, un passaggio controllato di energia nel tempo (potenza) dall'alimentatore all'attuatore. Questo, per l'appunto grazie all'apporto di tale energia, entrerà in relazione con il sistema successivo (eventualmente un operatore umano) e ne muterà la condizione intervenendo sul valore delle grandezze fisiche che lo descrivono e caratterizzano. Anche in questo caso, la cura degli accoppiamenti sarà contemporaneamente condizione di corretto funzionamento e fonte di specifiche di progetto, in maniera analoga a quanto detto per l'interfaccia d'ingresso.
La fornitura di potenza all'attuatore dovrà avvenire inoltre con un dispendio il più possibile basso: in altre parole, l'energia utilizzata dal sistema per permettere e controllare il passaggio dev'essere una parte
piccola di quella realmente utilizzata per attuare il processo voluto. La mediazione di cui si parlava prima deve quindi avvenire con alto rendimento e il sistema dev'essere posto in grado di dissipare sotto forma di calore la parte di energia che in esso rimane. Questa condizione, che del resto vale per qualsiasi parte del sistema, viene esplicitamente menzionata qui, in virtù del valore relativamente alto delle potenze in gioco.
Un motore stabilirà una velocità (numero di giri) e una coppia e il loro modo di variare nel tempo, ma differente sarà stato il processo di elaborazione del segnale al variare del tipo di motore, se si tratta cioè di azionare un motore in continua, in alternata o passo-passo o il motore di un'elettrovalvola, e se le grandezze dinamiche così prodotte dovranno risolversi in una posizione da raggiungere, da tenere o da oltrepassare con fissate modalità o addirittura in un movimento da determinare e tenere sotto controllo (per es. stampante, disegnatore automatico, robot).
Un'antenna trasmittente stabilirà una configurazione di campo elettromagnetico nello spazio che la circonda, una pompa una prevalenza, un interruttore controllato determinerà il passaggio o meno della corrente in un ramo di una rete elettrica. E ancora: su uno schermo video si produrrà una distribuzione d'intensità luminosa con un contenuto in qualche modo decifrabile da un operatore umano e i movimenti indotti nel cono di un altoparlante risulteranno in una variazione della pressione dell'aria che riprodurrà un suono elaborato in qualche modo dal sistema a valle dell'iniziale trasduzione.
Il blocco di elaborazione. − È questo il blocco al quale l'e. ha concesso il massimo della sua attenzione. In esso si eseguono quelle operazioni sul segnale, fornito dall'interfaccia d'ingresso, che lo porranno in grado di essere utilizzato dall'interfaccia di uscita.
Nel blocco di elaborazione i processi di miniaturizzazione e integrazione sono stati più estesamente impiegati e hanno avuto più successo. Una vasta gamma di microcircuiti è oggi disponibile sul mercato per andare incontro alle esigenze dei progettisti: per essi l'utente non può decidere la cablatura interna e quindi la qualità delle funzioni disponibili ai piedini di uscita (questa affermazione dev'essere in una certa misura attenuata per i componenti della classe delle ROM, Read Only Memory, o memorie di sola lettura, e in genere per i PLD, Programmable Logic Devices, o componenti logici programmabili).
La tecnica usata per elaborare il segnale può essere analogica o numerica, quest'ultima spesso detta digitale.
Nella prima, le grandezze elettriche che caratterizzano lo stato dell'elaboratore durante l'esecuzione del suo compito (in altre parole le correnti nei suoi rami e le tensioni nei suoi nodi) variano come funzioni continue del tempo in relazione al valore del segnale d'ingresso. Questa continuità è la qualità distintiva di tale tipo di elaborazione e non può essere abbandonata se non a costo di un errore nel processo. Naturalmente ciò non vuol dire che il valore delle grandezze sia conosciuto con un'accuratezza infinita, ma solamente che il progettista assume nell'operazione di progetto che il modello matematico del sistema e il suo comportamento siano condizionati dal requisito astratto della continuità delle funzioni con le quali si ha a che fare. Ma, come già è stato sufficientemente commentato, l'inevitabile presenza del rumore renderà conoscibili, istante per istante, solo valori statisticamente determinabili di ogni variabile significativa, cioè di ogni corrente o tensione, come la media o la varianza. Si aggiunga poi che lo stesso elaboratore contribuirà a sommare al segnale il rumore generato nel suo interno in ragione diretta della sua intensità e del tempo impiegato per l'elaborazione. Tutto ciò pone dunque un limite al requisito matematico della continuità: quando tale requisito sia caduto al di sotto di una soglia che ciascun progettista ricava dalle esigenze del suo progetto, si dovrà riconsiderare il processo di elaborazione. In conclusione, la tecnica di elaborazione analogica produce inevitabilmente nel tempo una degradazione della qualità del segnale.
Per elaborare un segnale in forma numerica si deve in generale eseguire la conversione analogico-numerica, o analogico-digitale. Si converte cioè una funzione, idealmente continua ed eventualmente rappresentabile analiticamente, in una tabella di numeri che ne danno il valore a certi istanti di tempo. L'operazione consiste nel misurare il valore della tensione o della corrente che in un certo momento rappresentano il segnale e veicolano l'informazione e nel codificare sotto forma binaria il numero così ottenuto (campione). La sua rappresentazione fisica è affidata a una tensione (o a una corrente) che può assumere solo uno tra due livelli ai quali viene convenzionalmente attribuito il significato dello ''0'' e dell'''1'' logici. Il teorema del campionamento determina la minima cadenza (frequenza di campionamento) con la quale prelevare questi valori: essa dev'essere almeno doppia della massima frequenza contenuta nel segnale per la quale si voglia ancora garantire il mantenimento dell'informazione.
Ogni campione del segnale sarà quindi rappresentato da un susseguirsi di ''0'' e di ''1'' (stringa) in numero prestabilito dall'accuratezza con la quale abbiamo segmentato il campo dei valori (smax - smin) che il segnale può assumere. Ciascun livello logico, detto bit, esiste per un certo lasso di tempo (tempo di bit, T) e ciò determina la durata temporale dell'intera stringa o parola: la situazione è mostrata in fig. 3 per una stringa di otto bit che prende il nome di byte. Se al livello alto (s1) della grandezza portante si assegna il significato di ''1'' dell'algebra booleana, e a quello basso (s2) il significato di ''0'', la parola di fig. 3 vale 01101010 e rappresenta la variabile alla quale è stata assegnata quando si sono stabilite le convenzioni. In questo caso il campo del segnale analogico è stato segmentato in 255 parti.
La ragione per la quale si usano due soli livelli rappresentativi è presto intesa se si riflette sul fatto che è più semplice decidere su quale livello è stata richiamata la nostra attenzione se i livelli sono due, piuttosto che se essi fossero tre o quattro. Ci si convince poi facilmente che la decisione è tanto più semplice quanto più i due livelli sono lontani. Allontanare i due livelli però significa un aumento dell'energia impiegata per la rappresentazione del bit. Nasce quindi l'esigenza d'investigare il fenomeno in maniera da ricavare il valore della minima energia impiegata per bit che garantisca la ricezione corretta dell'informazione in circostanze date.
Prima di affrontare un tale problema, si vuole sottolineare che l'operazione di conversione analogico-digitale ha le seguenti conseguenze:
a) Il valore del segnale è conosciuto con un'accuratezza che dipende dal numero di bit significativi del codice adottato. Se il codice è binario, a N bit corrispondono (2N−1) intervalli nei quali resta diviso il campo dei valori (smax - smin) che il segnale può assumere (dinamica del segnale). Ne consegue che ciascun campione è conosciuto con un errore minimo di (smax - smin)/(2N−1). Per quanto detto sulla presenza del rumore, ciò non costituisce una limitazione intrinseca del metodo di elaborazione (se si tralasciano, come noi faremo, le considerazioni relative agli errori di troncamento e arrotondamento).
b) Il convertitore ha anche l'effetto di un filtro passa-basso: tutte le frequenze maggiori della metà di quella di campionamento vanno perdute nell'operazione di conversione.
c) Come in ogni operazione di misura, si rende necessario il confronto con un campione della grandezza da convertire. Lo sviluppo di componenti dalle caratteristiche sempre meglio prevedibili e l'uso delle tecniche integrate permette di dotare ciascun convertitore di una cella di generazione (sorgente) di un campione della grandezza da misurare che assume la funzione di sub-standard locale. Il confronto che serve a portare a termine l'operazione di misura avviene nel convertitore laddove, con vari metodi, si procede alla comparazione tra la grandezza fornita dalla sorgente e quella sotto misura. Il componente che esegue la comparazione si chiama comparatore: esso accetta in ingresso due segnali analogici e fornisce in uscita l'indicazione del risultato dell'operazione [> o 〈] codificato sotto forma binaria. Il comparatore è quindi l'elemento di confine tra il mondo analogico e quello digitale.
d) Alla fine della catena di elaborazione, dovrà eseguirsi l'operazione inversa di conversione digitale-analogica in quanto l'ultima interfaccia sistema-ambiente deve porsi in relazione con il mondo fisico che è per sua natura di tipo analogico.
La necessità della doppia conversione ora descritta sembrerebbe avvantaggiare l'elaborazione analogica rispetto a quella digitale per la sua maggiore semplicità. Una conclusione in tal senso sarebbe però affrettata: la convenienza dell'elaborazione numerica s'intende a pieno se ci si riferisce alla corruzione del contenuto informativo del segnale a opera del rumore. Si consideri infatti che la situazione di fig. 3 è puramente ideale: in realtà al segnale è sempre sovrapposto il rumore che tende a confonderne i livelli rappresentativi. Il rumore è un segnale aleatorio che va trattato statisticamente: la probabilità di avere, nel tempo di bit, un valore di rumore sufficientemente alto da confondere lo ''0'' con l'''1'', o viceversa, è quindi anche la probabilità che si sia determinata una trasmissione errata di quell'elemento d'informazione. Il calcolo di tale probabilità non è semplice, ma una prima elementare considerazione del problema può svolgersi secondo le seguenti linee.
Si consideri un tratto fisico (canale di trasmissione) percorso dal segnale durante la sua elaborazione e si supponga: a) che l'elemento trasmettitore invii lungo di esso una serie di stringhe rappresentate da due livelli di tensione +V e −V; b) che sia equiprobabile la trasmissione di uno ''0'' o di un ''1'' in ciascun tempo di bit; c) che la densità di probabilità con la quale si distribuisce l'ampiezza del rumore sia nota e, per es., sia gaussiana.
Al terminale ricevente del canale, la situazione è rappresentata dalla fig. 4, dove si mostra che è massima la probabilità di ricevere un segnale che si collochi nelle vicinanze dei valori +V e −V, ma che non è nulla la probabilità di un errore, dal momento che esiste una zona di sovrapposizione delle due distribuzioni a causa della presenza del rumore. In queste condizioni, sembra sensato costruire l'elemento ricevitore in maniera che esso ci dia il massimo della probabilità che la decisione sul valore del bit ricevuto sia corretta (rispetti cioè il valore del bit trasmesso). Un tale ricevitore prende il nome di ricevitore ottimo.
In termini più precisi si può dire che si deciderà che è stato trasmesso +V se la probabilità di ricevere il valore che si è ricevuto quando è stato trasmesso +V è più alta di quella di ricevere il valore ricevuto quando è stato trasmesso −V. Ci si convince facilmente che un tale ricevitore, data la situazione di fig. 4, è semplicemente un comparatore che decide se ha ricevuto un segnale maggiore o minore di zero (fig. 5) e che, una volta realizzato in questo modo il ricevitore, la probabilità di commettere un errore resta legata alla zona di sovrapposizione delle due distribuzioni di probabilità. L'elaborazione numerica su base binaria permette quindi una realizzazione estremamente semplice del ricevitore ottimo. Come conseguenza di ciò, se nel corso del processo di elaborazione ci si rende conto che la probabilità che il rumore confonda s1 con s2 sta per raggiungere un valore inaccettabile, è semplice introdurre nel cammino del segnale un ricevitore ottimo che serva a rigenerare i corretti livelli di tensione interrompendo l'opera di degradazione dell'informazione o, più propriamente, ristabilendo i valori di probabilità di errore esistenti prima dell'ultima degradazione permessa.
L'elaborazione numerica su base binaria presenta poi un altro vantaggio che fa sì che essa sia scelta quasi sempre quando sia possibile una sua sostituzione all'elaborazione analogica. Si è già accennato al fatto che la probabilità di commettere un errore è legata alla zona di sovrapposizione delle due distribuzioni in fig. 4: si minimizzerà la probabilità di errore minimizzando tale zona. Ci si può quindi chiedere se esista un elemento di sistema elettronico tale che, una volta che il segnale rumoroso sia passato attraverso di esso, la zona di sovrapposizione risulti minimizzata: un tale elemento esiste e prende il nome di filtro adattato (MF, Matched Filter). Si può dimostrare che il MF è un subsistema che esegue la correlazione tra il segnale ricevuto e l'espressione (s1 - s2) (fig. 6). Nel nostro caso il prodotto di correlazione è banale essendo il prodotto per una costante e quindi tutta l'operazione si risolve in un'integrazione per il tempo di bit. Dopo il passaggio attraverso il filtro adattato, il rapporto S/N tra la potenza del segnale e quella del rumore n(t) gaussiano con densità di potenza η/2 è dato dalla significativa espressione:
S/N = 2·V2·T/η
che mostra come la probabilità di errore si riduca all'aumentare della potenza inviata nel canale e al diminuire della rapidità della trasmissione.
In conclusione, la grande diffusione dell'elaborazione digitale è dovuta: alla semplicità di realizzazione del ricevitore ottimo; alla semplicità di realizzazione del MF; alla semplicità con la quale si possono controllare gli effetti degradanti del rumore sul contenuto del messaggio. In altre parole, al fatto che essa permette di mantenere il degrado del segnale molto al di sotto di quanto non consenta l'elaborazione analogica a parità di tempo di elaborazione e di quantità d'informazione elaborata. Da ciò discende il grande uso che si fa nel mondo di componenti elettronici per l'elaborazione digitale, il loro vasto mercato che permette prezzi sempre più bassi e l'orientamento assunto dagli sviluppi tecnologici più recenti che hanno dedicato il massimo degli sforzi a produrre possibilità di elaborazione numerica sempre più accurate (esenti da errore) e più veloci.
La tecnologia del blocco di elaborazione (o dell'integrazione). − I circuiti integrati o microcircuiti si prestano a una prima ovvia suddivisione in base al tipo di elemento attivo che li caratterizza, a seconda cioè del transistore che li compone: i microcircuiti bipolari usano il BJT e quelli unipolari il transistore MOS.
Fino a qualche tempo fa le caratteristiche di base delle due tecnologie erano in un certo senso complementari: alta velocità (fino al GHz) e bassa integrazione (decine di transistori) per i bipolari e, al contrario, basse velocità (una, due decine di MHz) e alta integrazione (migliaia di transistori) per gli unipolari. A parità di funzione eseguita, i MOS possono avere misure complessive molto inferiori a quelle dei BJT. Una cella d'invertitore in tecnologia MOS è allocata in 350÷500 μμ2 di silicio, mentre una tale superficie viene occupata, e con qualche difficoltà realizzativa, da un solo transistore BJT.
La possibilità di compattare un alto numero di funzioni in una determinata area di silicio è legata anche alle necessità energetiche delle due tecnologie. La potenza P impiegata da una cella è pari al prodotto tra la tensione di alimentazione Va e la corrente media, Imedia, erogata dall'alimentatore:
P = Va·Imedia.
Il segnale permane nella cella di elaborazione un tempo pari almeno a quello necessario a cambiare lo stato di carica delle capacità C della cella. Tale tempo τe sarà proporzionale (α) al rapporto Q/Imedia dove Q è la carica immagazzinata. Detta ΔV la distanza tra i livelli dello 0 e dell'1 logici, abbiamo:
τe α C·ΔV/Imedia
e quindi la potenza diventa proporzionale a:
P α C·Va·ΔV/τε.
Tale potenza viene limitata dalla possibilità che ha l'involucro del microcircuito di dissiparla: oggi si può contare su involucri capaci di dissipazioni comprese tra 1 e 10 W. Inoltre, la fabbricazione di integrati avviene su un campione di silicio cristallino (chip) nominalmente privo di imperfezioni, e si può dimostrare che la probabilità di non avere imperfezioni su un campione di area A tratto da una sfoglia (wafer) di silicio che presenta in media N difetti per cm2 è pari a e-NA. Fissata quindi l'area di silicio massima che la tecnologia in nostro possesso ci mette a disposizione e fissato il quantitativo minimo di potenza che si deve dissipare per ciascuna funzione, il tipo d'involucro nel quale possiamo allocare il microcircuito pone un limite superiore al numero di funzioni che siamo in grado d'integrare.
Nel confronto tra le due tecnologie si deve quindi considerare che, mentre una funzione logica realizzata con BJT dissipa una potenza dell'ordine del mW, la stessa, realizzata con MOS, può presentare una dissipazione di 1μW. In conclusione, con i BJT si può pensare di realizzare integrati con un numero di funzioni elementari compreso tra 100 e 1000 e una rapidità di esecuzione che si spinge fino alle decine di ps. Una realizzazione con MOS garantirà tempi dell'ordine dei ns, ma la stessa superficie di silicio potrà ospitare fino a un milione di funzioni elementari.
La maggior parte degli usi dell'elaborazione elettronica non necessitano dei valori estremi delle prestazioni. Ciò è messo in evidenza dai dati di massima della distribuzione per tecnologia del mercato mondiale dei componenti attivi integrati: circa l'80% dei componenti si produce in tecnologia CMOS (Complementary MOS, o MOS complementari), il 18% in BJT e NMOS (N channel MOS, o MOS a canale N) e il restante 2% riguarda tecnologie speciali (per es., IIL, Integrated Injection Logic, o logica integrata a iniezione di corrente), tra le quali può essere compresa la produzione di componenti che invece del silicio usano l'arseniuro di gallio (GaAs) come materiale di base. Queste sono produzioni limitate a impieghi speciali per i quali si richiede un'altissima velocità di esecuzione (collegamenti a microonde via satellite, elaborazione numerica con tempi dell'ordine del ps, ecc.). Il campo più promettente di applicazione dei componenti a GaAs sembra oggi essere quello della trasmissione d'informazione su portanteluce guidata da fibra ottica: è questo il capitolo più recente delle tecnologie elettroniche. Esso sta assumendo importanza sempre crescente e non è azzardato prevedere che in un futuro prossimo diverrà un asse portante dello sviluppo delle telecomunicazioni.
Oggi, le linee di tendenza del mercato favoriscono dunque la tecnologia CMOS, che risulta complessivamente di costo inferiore a quella dei BJT, anche tenuto conto della semplificazione indotta nella realizzazione del blocco alimentatore, grazie alla minore necessità energetica a parità di funzioni svolte. È quindi comprensibile come uno degli sforzi dei produttori sia quello di migliorare le caratteristiche dei componenti, nella direzione di acquisire per una delle famiglie le qualità desiderate e proprie dell'altra, e cioè:
a) aumentare la velocità di esecuzione per la famiglia CMOS scegliendo materiali migliori, processi più convenienti e riducendo le dimensioni del singolo transistore (lunghezze di canale di 0,35 μm sono già alla portata dei progetti di ricerca e l'obiettivo per gli anni Novanta è 0,25 μm);
b) aumentare il livello d'integrazione dei BJT sia utilizzando nuove geometrie della cella elementare, sia creando BJT che a regimi di corrente dell'ordine delle decine di μA presentino guadagni adeguati, capacità di giunzione intorno ai 10−2 pF, capacità verso il substrato ancora più basse, basse resistenze di corpo (intorno a 100 Ω) ed elevate frequenza di taglio (vari GHz).
Allo stato attuale si può dire che l'impiego della tecnologia dei BJT rimane confinato alla produzione di elaboratori numerici di alta velocità (calcolatori, processatori di segnali, trasmissione di dati), di banchi di memoria ultraveloci di limitata capacità (qualche kbyte) e dei convertitori analogico-digitali e digitale-analogici quando la frequenza di conversione lo renda necessario.
Passando alle tecniche di progetto dei sistemi elettronici, è necessario aggiungere, a quanto detto nel paragrafo di apertura, la considerazione di due fatti che si sono imposti come innovazioni sostanziali a partire dalla metà degli anni Settanta.
Il primo risiede nella possibilità di ''simulare'', tramite calcolatore, il funzionamento di tutto il sistema a vari livelli di astrazione. Con quest'ultima locuzione si vuole intendere la possibilità di osservare il sistema da diversi punti di vista: lo si può pensare, per es., come insieme di componenti elementari connessi, in base alle loro caratteristiche, al fine di eseguire il compito desiderato. Ma i componenti elementari possono pensarsi anche raggruppati in celle elementari di elaborazione, che a loro volta si collegano per portare al risultato finale; o, ancora, si può ampliare il concetto di cella di elaborazione fino a comprenderne una che esegua un compito tanto complesso da poter essere, da solo, oggetto della funzione di un sistema, e così via. Quale che sia il livello di astrazione, se è possibile accostare un modello matematico alla visione del sistema, questo può essere immesso in un mezzo di calcolo adeguato a risolverlo e a dare, nei suoi limiti di validità, risposta alla seguente domanda: supponendo che l'informazione da elaborare sia nota, quale sarà il risultato dell'elaborazione (la risposta) di un dato sistema elettronico? Si comprende come questa possibilità di simulazione abbia cambiato radicalmente le tecniche di progetto e abbia facilitato il compito dei progettisti specialmente a livello di realizzazione del prototipo.
Il secondo fattore d'innovazione riguarda l'elaborazione numerica dei segnali e deriva in via diretta da quanto detto a proposito delle tecniche d'integrazione. Il loro sviluppo permette oggi di dotare ciascun sistema elettronico di uno strumento di calcolo a esso dedicato (SBC, Single Board Computer, o scheda di calcolo, a volte detto anche DSP, Digital Signal Processor, o processatore digitale del segnale) che svolge la sua funzione tramite un'unità capace di eseguire un programma (microprocessore). Il sistema eseguirà dunque il suo compito non in virtù della sola sua configurazione (HW, Hardware, o cablaggio), ma come risultato di una configurazione in grado di eseguire un insieme ordinato di istruzioni (SW, Software, o programma) che producono il voluto trattamento dell'informazione. Invece che a una realizzazione tutta volta alla specializzazione delle funzioni fisiche, ci si trova sempre più frequentemente di fronte a un progetto consistente nella scelta e nell'ordinamento di istruzioni da eseguire e nell'individuazione del sistema in grado di eseguirle, il che determina un'interdipendenza tra HW e SW, che non di rado risulta molto marcata.
Le caratteristiche dei due tipi di soluzione del problema elaborativo sono riassunte dal grafico qualitativo di fig. 7, in cui si vede come l'aumentare della complessità del microcircuito limiti la varietà degli impieghi dello stesso fino a che questi scendono a pochissime unità per microcircuiti cosiddetti ''dedicati'' (ASIC, Application Specified Integrated Circuits, o circuiti integrati specificati dall'applicazione) i quali sono quindi giustificati solo dalla produzione di un gran numero di sistemi tutti uguali. La possibilità d'impiegare microprocessori tende a far aumentare di nuovo la varietà di usi possibili in quanto questi variano con il programma che il microprocessore è indotto a (è in grado di) eseguire. La tab. 2, nella quale si considera anche la possibilità che l'elaborazione sia eseguita da un calcolatore d'impiego generale, riassume le caratteristiche delle diverse soluzioni. Da essa appare evidente che il compromesso viene giocato nell'ambito flessibilità-costo-rapidità-complessità.
La sincronizzazione. − Con l'aumentare della complessità delle operazioni di comunicazione, l'e. ha dovuto ben presto affrontare il problema della sincronizzazione delle operazioni. Esso consiste nella necessità che qualunque operazione eseguita dalle distinte parti del sistema elettronico abbia luogo quando il suo risultato possa essere considerato deterministicamente valido a parte gli effetti degradanti del rumore. Se si torna alla considerazione della fig. 6, si comprende meglio il significato della definizione. Nella fig. 6 sono infatti indicati due interruttori: uno serve a raccogliere il segnale di uscita dopo che l'integrale ha avuto modo di svolgersi, cioè alla fine del tempo di bit T. L'altro serve a restaurare le condizioni iniziali dell'integratore per metterlo in grado di eseguire la successiva integrazione. È chiaro che il MF non potrebbe operare in assenza dei due interruttori o a seguito di una loro errata temporizzazione, ma è anche ovvio che essi devono essere azionati sulla base di informazioni di sincronizzazione che in qualche modo devono pervenire al sistema.
La più ovvia delle operazioni di sincronizzazione è naturalmente quella di mettere in funzione l'apparato (accenderlo) durante il tempo nel quale si vuole che esso assolva le funzioni per le quali è stato progettato e costruito. Ma il problema è più complesso di questa sua semplice accezione e non di rado invade questioni fondamentali di fisica e di logica la cui considerazione ha dato luogo a risultati tutt'altro che banali. Per questa ragione, anche nello schema generale del sistema (fig. 1) si è voluta esplicitare l'operazione di sincronizzazione, rappresentata simbolicamente da canali di comunicazione esistenti tra le varie parti del sistema e indicati con i collegamenti bidirezionali al di sotto dei vari blocchi. In questo breve accenno all'argomento, ci si limiterà a descrivere alcuni casi di sincronizzazione delle operazioni.
I segnali esplicitamente dedicati alla sincronizzazione sono generati all'interno del sistema sulla base di una scelta autonoma del suo modo di funzionare o grazie a informazioni che gli pervengono dalla sorgente del segnale.
Nel primo caso, il sistema si autosincronizza con un generatore (Ck, Clock o orologio) dedicato esclusivamente a fornire a ogni parte di esso un segnale di temporizzazione. Il generatore di Ck è un particolare sistema elettronico che prende anche il nome di oscillatore. Esso può non possedere interfaccia d'ingresso in quanto non riceve nessun segnale da elaborare, ma l'unico suo compito consiste nel generare un segnale periodico con una frequenza fondamentale data. Nel caso invece che l'oscillatore sia a sua volta sincronizzato da un fenomeno a esso esterno, allora l'interfaccia d'ingresso è per l'appunto individuabile come la parte di sistema che accoglie le informazioni di sincronizzazione. Un caso speciale si verifica quando le informazioni di frequenza vengono date da un'interfaccia elettromeccanica, come avviene quando a controllare la frequenza dell'oscillatore sia un quarzo piezoelettrico: l'informazione di frequenza equivale allora a quella della misura di una delle dimensioni lineari della barretta di quarzo in uso. Il caso più importante di autosincronizzazione è quello dei calcolatori che utilizzano il Ck per stabilire il ritmo del susseguirsi delle varie operazioni al loro interno.
Molti dei segnali che debbono essere elaborati elettronicamente, pur essendo portatori d'informazione, ossia d'imprevedibilità, hanno anche alcune caratteristiche che si ripetono: sono cioè composti in parte da segnali di tipo periodico e quindi prevedibile, i quali sono portatori di informazioni di sincronizzazione. Se tali informazioni sono segnali espliciti provenienti dalla sorgente del segnale, la sincronizzazione avviene asservendo a essi il generatore di Ck, il quale avrà così un'interfaccia d'ingresso. Ciò si realizza con un tipo di subsistema che prende il nome di ''anello ad aggancio di fase'' (PLL, Phase Locked Loop). È questo il caso della rivelazione dei sincronismi di linea e di quadro trasportati dal segnale televisivo. Nel caso invece che i segnali di sincronismo siano codificati nel segnale, cioè da questo implicitamente trasportati, la possibilità di sincronizzazione è legata alla capacità del PLL del sistema ricevente di adattarsi rapidamente alla temporizzazione del segnale in arrivo, in modo da mettere tutto il sistema in grado di raccogliere la comunicazione. Si parla allora di recupero della portante in una trasmissione a portante soppressa o di sincronizzatore di bit nella comunicazione tra due calcolatori che abbiano Ck tra loro indipendenti, o infine della sintonia di un ricevitore di trasmissioni AM (Amplitude Modulation, o modulazione di ampiezza) o FM (Frequency Modulation, o modulazione di frequenza).
Da quanto detto, si comprende come il caso più difficile si presenti quando ci si debba sincronizzare con un fenomeno ad andamento irregolare nel tempo e i cui fatti salienti (che pertanto non debbono passare inosservati) avvengono in istanti di tempo a distanza del tutto casuale tra di loro e senza l'invio di segnali di sincronismo (di richiesta di attenzione). È, per es., il caso dell'esame dei cosiddetti eventi rari, come può essere lo studio di alcune particelle elementari. In tal caso non resta altro rimedio che lasciare l'apparato in funzione (in attenzione) per tutto il tempo dell'esperimento e aspettare che l'evento produca il segnale: l'apparato dovrà essere progettato con l'affidabilità necessaria a garantire il suo funzionamento al momento richiesto, peraltro casualmente distribuito nel tempo, e dovrà avere una risposta tale, per rapidità e capacità di presentazione del dato, da non rischiare di perdere l'evento.
Affidabilità di un sistema elettronico. − L'affidabilità di un sistema elettronico è la sua attitudine a funzionare correttamente in un ambiente determinato per un certo tempo. Essa dipende dall'attitudine di tutte le sue parti costitutive a risultare, per l'appunto, affidabili. La possibilità di dotare di tale proprietà il sistema elettronico è legata alla corretta attuazione, nelle varie fasi della sua vita utile (progettazione, produzione e gestione), di tutti i procedimenti che permettono di garantire l'affidabilità.
L'aver trasferito a livello di componente integrato un gran numero di funzioni ha reso l'affidabilità dell'apparato fortemente dipendente da quella del componente che in esso ricopre un ruolo centrale. Si comprende quindi come sia necessario acquisire la capacità di dotare di affidabilità i componenti complessi (per es. di tipo VLSI) utilizzati, il che può essere ottenuto mettendo a punto tecniche di: a) progettazione che tengano conto del problema dell'affidabilità; b) individuazione dei meccanismi di guasto su strutture VLSI; c) individuazione di statistiche di mortalità; d) prove accelerate di vita e creazione di guasti; e) diagnostica. Il miglioramento dell'affidabilità del componente può essere ottenuto per selezione su un numero di individui prodotti con un processo accettato, per avvenuto miglioramento del processo stesso o per combinazione di ambedue i metodi.
Tra le varie fonti di conoscenza per la stima dei valori dell'affidabilità dei componenti si deve annoverare lo studio dei guasti. Questo deve avere procedimenti diversi a seconda che gli scarti provengano dall'omologazione, dall'accettazione, dalla fabbrica o dall'esercizio. La rapida evoluzione della tecnologia di produzione dei componenti VLSI e il loro alto livello di affidabilità impedisce di costruire una statistica significativa. Per questa ragione la loro qualità di affidabilità può essere migliorata solo con interventi a priori sul processo produttivo, basati sulla conoscenza approfondita dei meccanismi di guasto.
Bibl.: Y.W. Lee, Statistical theory of communications, New York 1960; C.E. Shannon, W. Weaver, La teoria matematica delle comunicazioni, Milano 1971; H. Taub, D.L. Schilling, Digital integrated electronics, New York 1977; C. Mead, L. Conway, Introduzione ai sistemi VLSI, a cura di P. Antognetti, G. Marino e T. Vernazza, Milano 1980; A. Papoulis, Circuits and systems, Fort Worth 1980; A.V. Oppenheim, R.W. Schaffer, Elaborazione numerica dei segnali, Milano 1981; A.J. Khambata, Microprocessors and microcomputers, New York 1982; A. Isidori, Sistemi di controllo, Roma 1984; M.M. Mano, Digital design, Englewood Cliffs 1984; P.R. Gray, R.G. Meyer, Analog integrated circuits, New York 1984; P.U. Calzolari, S. Graffi, Elementi di elettronica, Bologna 1984; J. Millmann, Circuiti e sistemi microelettronici, Torino 1985; H. Taub, D.L. Schilling, Principles of communication systems, New York 1986; J.L. Hammond, P.J.P. O'Reilly, Local computer networks , Reading (Mass.) 1986; N. Weste, K. Eshraghian, CMOS VLSI design, ivi 1988; J.P. Uyemura, Fundamentals of MOS integrated circuits, ivi 1988; B. Socof, Design and application of analog integrated circuits, Englewood Cliffs 1991; J.A. Connelly, P. Choi, Macromodelling with SPICE, ivi 1992.