Microelettronica. Origini, sviluppi, prospettive
L’informazione rappresenta l’insieme dei segnali che sono alla base dei sistemi di uso quotidiano, dai media ai nuovi strumenti per la medicina, ai mezzi di trasporto, ai satelliti, fino agli oggetti di impiego più comune. I segnali utilizzati per trasmettere, elaborare e utilizzare tali informazioni sono di tipo elettrico (piccole variazioni di tensioni o correnti) e sono il mezzo fisico di cui si servono tutti i sistemi elettronici, i quali impiegano componenti di base in gran parte prodotti della microelettronica. Possiamo pertanto affermare che il silicio, in quanto elemento chimico su cui si fonda la microelettronica, sta alla base della moderna società (detta appunto dell’informazione) come il bronzo, il ferro, il carbone o l’acciaio lo sono stati delle società passate.
Molti degli oggetti della nostra vita quotidiana sono sempre più spesso dotati di intelligenza, nel senso che riescono, grazie alla presenza di sistemi elettronici, a interpretare dei segnali esterni e reagire di conseguenza secondo determinate procedure. In molti casi, questi sistemi sono inglobati (embedded) all’interno degli oggetti e funzionano senza bisogno di periferiche. Questa tendenza dell’elettronica a diventare trasparente per l’utilizzatore si sta espandendo in modo molto rapido con l’evoluzione delle tecnologie delle comunicazioni e dell’informazione (ICT, Information and communication technology), di cui la microelettronica costituisce appunto il fondamento fisico.
Prodotti elettronici come i computer sono accomunati dalla caratteristica di essere generali, ovvero di poter svolgere una molteplicità di funzioni diverse (calcolare, gestire testi, audio, video, connettersi in rete, controllare dispositivi periferici di vario tipo) con la stessa unità di elaborazione. I sistemi di questo tipo sono dunque molto flessibili. Tuttavia, quando un sistema generale è impiegato per svolgere una funzione specifica, molte delle risorse di cui dispone non vengono utilizzate e, di fatto, si traducono in maggiori ingombri, consumi e costi, e in minori prestazioni rispetto a sistemi progettati ad hoc.
Nel caso di applicazioni così specializzate da non risultare interessanti per i costruttori di dispositivi acquistabili a catalogo, l’utilizzo di processori ad hoc (detti dedicati) ne richiede però il progetto e la realizzazione in proprio, con uno sforzo molto impegnativo sotto il profilo dei costi e dei tempi. Per questi motivi, tra processori generali e processori dedicati esistono casi intermedi. Per esempio, le funzioni di elaborazione rapida dei segnali o del loro controllo rappresentano casi in cui ha senso sviluppare dispositivi abbastanza specializzati (detti, rispettivamente, digital signal processors e microcontrollori) ma anche sufficientemente generali da essere poi inseriti a catalogo. Il compromesso migliore tra generalità e specializzazione non ha un’unica soluzione, dipendendo dall’applicazione e dalle condizioni al contorno (capacità progettuali, tempi di commercializzazione, vincoli sulle specifiche).
Le applicazioni che richiedono soluzioni dedicate formano un mercato molto più grande di quello più generale dei computer, di interesse sia per la grande sia per la piccola industria. Tra i principali campi di interesse vi sono la domotica (elettrodomestici in rete, sistemi di sicurezza, intrattenimento, illuminazione, musica); l’automotive (controllo di motore e trasmissione, intrattenimento, illuminazione, sicurezza); i controlli industriali; le periferiche dei calcolatori (webcam, stampanti, dispositivi biometrici); le telecomunicazioni e i terminali video e audio; i dispositivi elettromedicali e per il controllo della salute (anche portabili o, addirittura, impiantabili); i gadgets, i prodotti di intrattenimento e i piccoli elettrodomestici.
Tutti i sistemi elettronici (calcolatori, sistemi di telecomunicazione, robotica, elettronica di consumo, giocattoli, e così via) sono sostanzialmente costituiti da schede elettroniche usate per connettere tra loro componenti elettronici, spesso indicati con nomi sostanzialmente equivalenti come chip, microcircuiti o circuiti integrati. Questi, a loro volta, sono circuiti elettronici, in generale formati da moltissimi dispositivi elementari di dimensione microscopica realizzati con processi tecnologici che, negli ultimi cinquant’anni, hanno avuto uno sviluppo senza uguali in nessun altro campo dell’attività umana. Tra questi dispositivi, di gran lunga i più importanti sono i transistori, che ormai hanno raggiunto dimensioni (lineari) largamente inferiori al micron (1 μm=10−6 m), tuttora in continua diminuzione.
I transistori svolgono la funzione di valvola elettronica, ovvero consentono il controllo della corrente elettrica che attraversa due loro terminali mediante l’azione esercitata sugli altri due terminali (di cui uno in generale comune con i precedenti), detti di controllo. Questi ultimi possono richiedere o meno un assorbimento di corrente (in generale molto più piccola di quella controllata), a seconda del meccanismo fisico utilizzato per realizzare tale controllo. Nel caso in cui sui terminali di controllo non sia necessario far circolare corrente (e dunque nemmeno consumare energia) i transistori vengono detti a effetto di campo (FET, Field effect transistor). Tra questi, in particolare, i transistori di tipo MOS (Metal oxide semiconductor), acromino che sta a indicare l’eterostruttura fisica mediante la quale si realizzava il controllo di campo nei primi transistori di questo tipo: uno strato di metallo, uno di ossido e uno di semiconduttore. Dalla seconda metà degli anni Sessanta, il metallo è scomparso da questa struttura, sostituito da altri materiali (silicio policristallino con la presenza di uno strato più o meno spesso di siliciuro), ma l’acronimo che identifica i dispositivi MOS è rimasto inalterato.
I transistori MOS possono essere a canale di tipo n o p, a seconda che la corrente al loro interno sia dovuta al moto di cariche negative (elettroni) o positive (lacune, ovvero particelle fittizie utilizzate per descrivere in modo efficiente il moto collettivo di un insieme incompleto di elettroni). Inoltre, in entrambi i casi, essi possono essere del tipo ad arricchimento (enhancement), se con tensione nulla risultano spenti, o a svuotamento (depletion), se in tale condizione possono condurre.
I transistori ad arricchimento di tipo n e p utilizzati insieme costituiscono la base della tecnologia nota come CMOS (Complementary MOS), con cui oggi sono realizzati la grande maggioranza dei componenti elettronici. Per questo motivo, quanto segue è principalmente riferito ai componenti CMOS. Tuttavia, esistono anche altri tipi di transistori, in particolare i transistori bipolari a giunzione (BJT, Bipolar junction transistor), con i quali in realtà è iniziata la storia stessa della microelettronica.
Oggi, la tecnologia CMOS consente di costruire microcircuiti contenenti centinaia di milioni di transistori, realizzati dentro una piccola tessera di silicio (nota come chip, temine usato anche per indicare il componente finito), dall’area dell’ordine di pochi cm2 e con straordinarie prestazioni in termini di ingombro, consumo di potenza, costo e affidabilità. Questi vantaggi sono la diretta conseguenza della forma monolitica dei microcircuiti che si presentano come singoli monocristalli, al cui interno una piccolissima percentuale di atomi di silicio è stata sostituita (mediante sofisticati processi chimico-fisici di drogaggio) da atomi diversi (i droganti più utilizzati sono l’arsenico e il boro) e sulla cui superficie sono stati deposti (o accresciuti) sottili strati di materiali dielettrici o conduttori per isolare e collegare i dispositivi elementari. Questa forma estremamente compatta e robusta, oltre ad assicurare un ridottissimo ingombro, consente di raggiungere elevatissime velocità di funzionamento (essenzialmente per il piccolissimo valore degli elementi parassiti che caratterizzano i dispositivi e le loro interconnessioni), con bassi consumi di potenza (come è necessario per non superare il limite massimo dissipabile per unità di area). Inoltre, la forma monolitica dei circuiti integrati evita il ricorso a operazioni (come le saldature necessarie per interconnettere componenti discreti in tecnologie meno sofisticate) estremamente più critiche di quelle tipiche dei semiconduttori dal punto di vista dei possibili guasti. Infine, l’altissimo grado di parallelismo dei processi di fabbricazione consente di ammortizzare l’elevatissimo costo della tecnologia su un numero enorme di prodotti, con conseguante contenimento dei costi unitari.
I vantaggi offerti dai microcircuiti crescono in modo pressoché proporzionale al numero di funzioni che questi contengono (ovvero al loro livello di integrazione), cosicché, a parità di complessità globale, un sistema elettronico risulta tanto migliore (in termini di costo, prestazioni e affidabilità) quanto maggiore è il livello di integrazione dei suoi componenti. Anzi, proprio i vantaggi connessi con la crescente complessità dei circuiti integrati hanno reso possibile la crescita imponente di interi settori applicativi quali l’informatica, le telecomunicazioni o la robotica. Grandi sistemi di calcolo, complessivamente formati da miliardi di transistori, non potrebbero mai funzionare senza un’affidabilità estremamente elevata dei loro componenti elementari, né essere praticamente utilizzabili se questi ultimi non richiedessero consumi di potenza estremamente bassi.
L’invenzione del transistore, avvenuta presso i Bell Laboratories a opera di William B. Shockley, John Bardeen e Walter H. Brattain tra la fine del 1947 e l’inizio del 1948, rappresenta il punto di partenza obbligato per tracciare un profilo della storia della microelettronica, inizialmente dominata dalle problematiche della tecnologia bipolare. Fin dai primi tempi, furono evidenti le grandi prospettive dei nuovi dispositivi, anche se era prevalente un certo scetticismo nell’ambito delle applicazioni industriali. In particolare, già nel 1952 quasi profeticamente Geoffrey W. Dummer del Royal Radar Establishment sostenne che con l’avvento dei semiconduttori si sarebbero potuti realizzare sistemi elettronici in un blocco solido senza alcun bisogno di fili di interconnessione, che avrebbe potuto consistere di strati di materiali isolanti, conduttori, rettificanti e amplificanti con i quali realizzare funzioni elettriche da interconnettere tra loro attraverso fori perforati tra di essi. In effetti, nel 1956 Dummer provò anche a realizzare un componente secondo queste idee, ma il tentativo non fu coronato da successo e venne presto abbandonato.
Il successivo evento significativo ebbe luogo nel 1958 negli Stati Uniti, presso la Texas Instruments, a opera di Jack S. Kilby, il quale stava lavorando alla ricerca di un metodo alternativo per realizzare sottosistemi elettronici che impiegassero i nuovi dispositivi a semiconduttore, nella convinzione che, se realizzati in forma discreta, questi non sarebbero risultati competitivi con le tecnologie allora più assestate. Il merito di Kilby fu di comprendere che tutti i componenti necessari per un circuito (anche resistenze e condensatori) potevano essere realizzati nello stesso semiconduttore e con gli stessi processi tecnologici, intuizione illuminante e assolutamente non scontata perché implicava la rinuncia all’utilizzo di dispositivi passivi ottimizzati (come condensatori in mylar e resistenze in nichel-cromo allora in uso).
Per provare la validità delle sue idee, Kilby concepì e realizzò alcuni semplici circuiti nei quali dovette isolare i singoli dispositivi realizzati dentro lo stesso substrato semiconduttore e interconnettere i loro terminali secondo gli schemi circuitali. A questo riguardo, egli utilizzò soluzioni tutto sommato poco originali e in prospettiva molto limitative, anche se nel brevetto chiesto nel febbraio 1959 fece riferimento a ulteriori possibilità, sviluppate in seguito da altri ricercatori. In particolare, Kilby utilizzò la tecnica d’isolamento con scavi di tipo ‘mesa’ (allora in uso per costruire i transistori), consistente nella rimozione del materiale tra i dispositivi in modo che questi venissero a trovarsi all’interno di isole di semiconduttore lateralmente isolate in aria, soluzione efficace sotto il profilo elettrico ma decisamente inferiore a quelle che verranno sviluppate in seguito per complessità di processo, ingombro e affidabilità. Inoltre, Kilby utilizzò componenti realizzati su entrambe le facce del chip, interconnessi mediante sottili fili d’oro saldati manualmente, ma anche questa soluzione si rivelò del tutto inadeguata se confrontata con gli sviluppi successivi. Gli esperimenti furono eseguiti nel settembre 1958 utilizzando chip di germanio (ma già si cominciava a lavorare anche sul silicio) entro i quali furono costruiti transistori, resistenze e capacità (mediante giunzioni pn). La selettività spaziale del processo fu ottenuta mascherando a mano con cera nera le zone da proteggere durante gli scavi del processo mesa. Nonostante la tecnologia piuttosto rudimentale, i circuiti realizzati funzionarono correttamente aprendo la strada allo straordinario sviluppo della moderna microelettronica. Nell’anno successivo, la Texas Instruments aumentò lo sforzo per migliorare la tecnologia appena messa a punto. In particolare, fu introdotto un processo litografico per le mascherature, si studiarono altri tipi di componenti elementari e, soprattutto, si cominciarono le sperimentazioni sul silicio, che portarono alla realizzazione di condensatori con strati isolanti in ossido e resistenze ottenute con regioni diffuse nel semiconduttore oppure con film metallici depositati su uno stato di ossido sul retro del chip.
Le reazioni all’annuncio dei circuiti monolitici all’inizio del 1959 non furono così entusiastiche come i successivi sviluppi farebbero pensare. Infatti, se alcuni intravedevano con chiarezza l’inizio di una vera e propria rivoluzione nell’elettronica, altri obiettavano che, confrontata con le tecnologie a componenti discreti, quella dei circuiti integrati portava a rese di produzione troppo basse per risultare economica, richiedeva la rinuncia a componenti passivi di caratteristiche migliori di quelli ottenibili in forma monolitica e dava luogo a progetti troppo costosi da modificare. Non è quindi sorprendente che siano state aziende piccole e dinamiche a svolgere un ruolo trainante nell’iniziale sviluppo della nuova tecnologia, piuttosto che le grandi industrie, più lente ad accogliere processi innovativi.
Nell’aprile del 1959 Kurt Lehovec, fondatore della Sprague Electric Company, chiese un brevetto per isolare dispositivi all’interno dello stesso substrato semiconduttore mediante giunzioni pn (polarizzate in inversa). Questa nuova tecnica si dimostrò presto incomparabilmente superiore a quella mesa, che rimpiazzò in fretta giocando un ruolo fondamentale per la microelettronica di tipo bipolare fino ai giorni nostri. Nel luglio dello stesso anno, Robert Noyce della Fairchild Semiconductors (fondata da poco) chiese il brevetto che risolse in modo brillante e definitivo il problema delle interconnessioni tra i dispositivi mediante l’uso di piste metalliche ricavate da uno strato uniforme di metallo deposto su tutta la superficie (opportunamente isolata) del chip, grazie a un processo di mascheratura e attacco del tutto simile a quello utilizzato per la fabbricazione dei componenti attivi. I contatti venivano poi ottenuti scavando finestre (da definirsi con altre mascherature) nelle regioni dei terminali da collegare. Questa tecnica eliminava l’uso dei fili d’oro e delle conseguenti saldature, rendendo i circuiti molto compatti e resistenti. Inoltre, riconduceva l’intera fabbricazione dei circuiti all’uso ripetuto delle stesse operazioni di mascheratura e attacco senza alcuna necessità di processi diversi. Per questi motivi, essa fece fare un salto di qualità enorme alla tecnologia dei semiconduttori.
Nell’agosto del 1959, Jean Hoerni (sempre della Fairchild Semiconductor) annunciò il primo transistore al silicio costruito mediante una serie di processi che rappresentavano il vero e proprio inizio della moderna tecnologia dei semiconduttori. In particolare, Hoerni utilizzò per la prima volta il processo di diffusione termica (da gas) di droganti per realizzare giunzioni, posizionate mediante un che utilizzava l’ossido di silicio per proteggere dalla diffusione le regioni sottostanti; inoltre fece uso dell’ossido di silicio per passivare le superfici dei dispositivi, riducendo drasticamente correnti di perdita e instabilità dovute a cariche elettriche e stati superficiali. Poiché la superficie dei chip risultanti rimaneva sostanzialmente piana (per la mancanza degli scavi mesa), la tecnologia messa a punto fu denominata planare, nome che si conserva tuttora anche se a causa del moltiplicarsi degli strati di isolamento e interconnessione la superficie dei moderni chip non risulta più piana. Dagli sviluppi del lavoro presso i laboratori della Fairchild nacquero i primi circuiti integrati, interamente realizzati con processi appositamente messi a punto per i semiconduttori e prodotti in forma realmente monolitica (senza scavi né fili saldati).
In rapida successione, nel 1960, la Texas Instruments annunciò il primo contratto di fornitura di circuiti integrati, mentre nel 1961 la Fairchild mise in commercio la prima famiglia logica, ovvero un insieme compatibile di circuiti digitali (realizzati mediante transistori bipolari e resistenze diffuse, secondo uno schema indicato con la sigla DCTL). Più tardi, nello stesso anno, la Texas Instruments consegnò all’aviazione americana il primo (piccolo) calcolatore, comprendente oltre a circuiti logici anche una memoria a semiconduttore (di qualche centinaio di bit).
Il 1960 fu un anno molto significativo per la nuova industria dei semiconduttori anche perché fu iniziato il progetto di un nuovo supercalcolatore, il CDC 6600, che doveva funzionare con una frequenza di clock di 10 MHz ed essere in grado di svolgere 3 milioni di istruzioni per secondo. La sua CPU (Central processing unit) era formata da circa 660.000 transistori utilizzati per realizzare circuiti logici elementari con ritardi di propagazione di 16 nanosecondi e alta affidabilità. A questo scopo, si puntò su transistori BJT mesa della Fairchild, ordinati con un gigantesco contratto (5 milioni di dollari), che valeva da solo circa 20 volte il costo di una linea di produzione di semiconduttori. Un altro grosso sviluppo di tipo commerciale fu costituito dai BJT planari forniti nel 1961 dalla Fairchild al Dipartimento della Difesa degli Stati Uniti per essere impiegati nei missili Minuteman.
Nonostante i successi iniziali dei BJT, la moderna microelettronica è largamente fondata sui transistori MOS che, pur concepiti assai prima di quelli bipolari, ebbero uno sviluppo ritardato a causa di difficoltà nel controllo delle proprietà fisiche delle strutture di cui si compongono.
Le loro caratteristiche fondamentali si possono così riassumere: (a) il controllo di corrente (a effetto di campo) è ottenuto mediante un campo elettrico applicato in senso trasversale al canale del dispositivo (ovvero allo strato in cui scorre la corrente); (b) il terminale di controllo (gate) è fisicamente isolato dal canale mediante un sottile film isolante (costituito da ossido di silicio); (c) nei transistori oggi utilizzati (ad arricchimento) la corrente è di tipo superficiale, ovvero dovuta a cariche che scorrono in prossimità della superficie del semiconduttore. Nella moderna tecnologia CMOS, sono utilizzati transistori ad arricchimento sia di tipo n che di tipo p. Invece, i transistori a canale n a svuotamento hanno ormai perso importanza, mentre quelli a canale p a svuotamento non sono mai stati davvero sviluppati.
Peraltro, il primo vero e proprio progenitore dei moderni MOS è stato proprio di quest’ultimo tipo. Tale dispositivo fu inventato a New York da Julius E. Lilienfeld, che nel 1928 ottenne il brevetto per un transistore in cui un sottile film semiconduttore (di tipo p) era sovrastato da un gate metallico utilizzato per controllare la corrente nel sottostante canale. Questa struttura in realtà non fu mai realizzata e faceva riferimento ai materiali semiconduttori studiati all’epoca (in particolare il Cu2S). Inoltre, non prevedeva una forma integrata, ma parti diverse da assemblare secondo tecniche consolidate nel tempo. Infine, va anche rilevato che Lilienfeld non era a conoscenza del concetto di lacuna (cioè della natura dei portatori che intendeva sfruttare), che fu introdotto solo nel 1933 da Alan H. Wilson. Tuttavia, la descrizione del dispositivo, basata su lucide considerazioni di elettrostatica classica, mostra una chiara comprensione del controllo di conducibilità per effetto di campo, e se opportunamente realizzato, il dispositivo di Lilienfeld avrebbe correttamente funzionato.
Il successivo importante sviluppo ebbe luogo in Germania per merito di Oskar Heil, che nel 1934 chiese il brevetto per un dispositivo (in linea di principio) fondato sugli stessi principi dei moderni transistori ad arricchimento. In particolare, il funzionamento di questo transistore fu chiaramente descritto facendo uso dei termini di elettrone e lacuna nelle versioni sia a canale n che a canale p. Tuttavia, anche in questo caso il brevetto faceva riferimento a materiali (Te, I, Cu2O, V2O5) diversi dal silicio e a una struttura non integrata (il gate era pensato come una parte separata da sovrapporre al canale con l’interposizione di uno strato isolante).
A causa della Seconda guerra mondiale, si dovette attendere il dicembre 1947 per ulteriori sostanziali progressi, che ebbero luogo presso i Bell Labs nell’ambito degli studi che portarono alla scoperta del transistore bipolare. In tale contesto assume particolare significato l’esperimento in cui Bardeen e Brattain riuscirono a modulare la conducibilità di uno strato superficiale di elettroni mediante la tensione applicata a un gate isolato. La struttura utilizzata era costituita da una giunzione a punta di contatto contornata da un anello isolato che fungeva da gate, e nonostante la sua forma elementare, rappresenta a tutti gli effetti un dispositivo a canale n ad arricchimento. L’anno seguente, Bardeen e Brattain inventarono il transistore con contatti a punta e nella relativa sperimentazione ci si rese presto conto che la corrente tra l’emettitore e il collettore era in buona parte dovuta a una componente superficiale dovuta a uno strato invertito (come il canale dei transistori MOS ad arricchimento).
La prima inequivocabile prova sperimentale di conduzione di corrente in uno strato superficiale in condizioni di inversione ebbe però luogo soltanto nel 1953, sempre presso i Bell Labs, a opera di Walter L. Brown, il quale realizzò una struttura di canale simile a quella dei moderni transistori ad arricchimento a canale n, ma utilizzò come gate un gas ionizzato in contatto con la superficie (isolata) del semiconduttore. Invece, il primo dispositivo realmente simile agli odierni transistori MOS a canale n ad arricchimento fu realizzato, ancora presso i Bell Labs, nel 1955 da Ian M. Ross (il brevetto relativo fu concesso nel 1957), che utilizzò come isolante di gate un materiale di tipo ferroelettrico (in grado di mantenere la polarizzazione impressagli da un campo elettrico) nel tentativo di ottenere un dispositivo capace di svolgere anche funzioni di memoria.
Negli anni successivi l’obiettivo principale fu quello di controllare le proprietà dell’interfaccia dei semiconduttori in modo da ottenere transistori con caratteristiche stabili nel tempo, problema risolto mediante ossidazione delle superfici, tecnica che giocò un ruolo decisivo anche per i transistori bipolari. Questo processo, insieme a quello delle metallizzazioni deposte su superfici ossidate messo a punto da Noyce, consentì di realizzare nel 1960 il BJT di tipo moderno a opera di Hoerni presso la Fairchild Semiconductors. Nello stesso anno e con gli stessi processi tecnologici, Martin M. Atalla e Dawon Khang dei Bell Labs svilupparono il primo transistore MOS a canale n ad arricchimento in silicio con gate metallico deposto su un sottile strato di ossido di silicio, a tutti gli effetti primo prototipo dei moderni transistori.
Negli anni Sessanta si ebbero sviluppi di grande interesse, come i primi dispositivi MOS commerciali a canale p ad arricchimento (della Fairchild) e a canale n a svuotamento (della RCA), fabbricati nel 1962. Del 1963 è invece la proposta dei circuiti di tipo CMOS (per circuiti a basso consumo di potenza) dovuta a Frank M. Wanlass e Chih-Tang Sah della Fairchild Semiconductors. Infine, nel 1963 la IBM decise di sviluppare la tecnologia MOS a canale n per la fabbricazione di destinate a sostituire quelle di tipo magnetico allora in uso. Lo sforzo che fu messo in atto a questo proposito portò dieci anni dopo alla messa in commercio dei rivoluzionari calcolatori della serie 370 e aprì la strada alla successiva imponente crescita della tecnologia MOS.
Nel 1965 la Fairchild sviluppò le prime memorie a semiconduttore (una RAM statica di 64 bit realizzata con transistori MOS a canale p da John D. Schmidt e una RAM bipolare di 256 bit dovuta allo stesso Schmidt e a H. A. Perkins), mentre nel 1968 Robert H. Dennard della IBM inventò le memorie MOS di tipo dinamico (DRAM). Sempre nel 1968, Robert Noyce e Gordon Moore lasciarono la Fairchild (che pure avevano fondato e che fino ad allora dirigevano) per dar vita all’Intel, con lo scopo di sfruttare la tecnologia MOS che trovava qualche difficoltà ad affermarsi in Fairchild proprio a causa dello straordinario successo iniziale dei dispositivi bipolari. Tale data rappresenta forse il vero e proprio inizio della tecnologia MOS come grande protagonista della moderna elettronica.
Come osservato, nel 1960 vennero realizzati i primi dispositivi (BJT e MOS) con la tecnologia planare del silicio, che cucì insieme in modo straordinariamente efficace idee messe a punto in tempi e ambienti diversi. Innanzi tutto, per trasferire sui chip le geometrie del circuito da realizzare contenute su apposite maschere, essa utilizzava in modo sistematico la litografia (tuttora in uso), che permetteva di ottenere la necessaria selettività dei processi in senso spaziale utilizzando le proprietà di speciali resine (resist) solubili in appositi solventi solo quando impressionate da radiazioni ultraviolette (o viceversa). Impressionando un film di resist deposto su un’intera fetta di silicio secondo la geometria delle maschere e, in seguito, rimuovendolo con una operazione detta di attacco, è possibile ottenere delle finestre nel film originale che consentono di operare sul materiale sottostante senza intaccare le aree ancora protette dal resist rimasto.
All’inizio, le maschere (anch’esse realizzate con un processo fotolitografico a partire da lastre di quarzo coperte da un film di cromo) venivano fisicamente sovrapposte alla fetta di silicio da lavorare (operando dunque una mascheratura a ‘contatto’), che aveva un diametro di qualche cm. Le fette (wafer) lavorate contenevano molti chip che a processo ultimato dovevano essere separati. Poiché, inoltre, si potevano lavorare molte fette contemporaneamente, la tecnologia planare consentiva la realizzazione di un numero di dispositivi molto grande, con conseguente contenimento dei costi di produzione.
Per quanto riguarda gli altri processi, nel 1951 i Laboratori Bell misero a punto quello di diffusione termica del silicio, che divenne in seguito di uso comune, per drogare il semiconduttore con gli atomi necessari per incentivare la conduzione mediante elettroni o lacune. Tale processo utilizza operazioni di mascheratura e attacco per ottenere delle finestre nello strato protettivo in corrispondenza delle regioni da drogare. Tuttavia, poiché richiede temperature dell’ordine di 1000 °C, il resist non poteva essere utilizzato direttamente come strato protettivo e sorse la necessità di trovare un altro materiale adatto allo scopo. Nel 1957 Carl J. Frosch e Link Derick dei Laborartori Bell suggerirono l’uso dell’ossido di silicio che, oltre a essere isolante elettrico di eccezionali caratteristiche, si rivelò ideale anche per stabilizzare le proprietà delle interfacce. Tale materiale offriva una serie di vantaggi decisivi per l’affermazione del silicio come semiconduttore per l’elettronica a stato solido.
Per scavare le finestre nei film protettivi (anzitutto nell’ossido di silicio), la prima tecnologia planare utilizzava attacchi umidi, i quali prevedevano l’immersione delle fette in bagni di reagenti chimici. Questa tecnica garantisce una ottima selettività per quanto riguarda i materiali e permette grande parallelismo nelle operazioni (poiché si applica facilmente a intere fette), ma è intrinsecamente ‘sporca’ (per la qualità di reagenti e ambienti di reazione) e dà luogo a una scarsa selettività spaziale (perché le reazioni chimiche non procedono in senso unidirezionale). Per questi motivi, tale tecnica non si presta alla realizzazione di dispositivi di dimensioni molto piccole e fu presto abbandonata.
I primi dispositivi con struttura moderna furono dunque realizzati con una tecnologia consistente nella ripetizione di diverse operazioni di mascheratura e attacchi e tale è sostanzialmente ancora oggi, anche se si è reso necessario migliorare continuamente ogni operazione per soddisfare le crescenti esigenze dei nuovi circuiti integrati. Già nei primi anni Sessanta, comunque, la tecnologia planare del silicio presentava tutte le caratteristiche qualitative che la contraddistinguono ancora, in particolare quella di rendere il costo delle fette di silicio lavorate sostanzialmente indipendente dal numero di chip che vi sono contenuti. Per questo motivo, lo sviluppo delle tecnologie fu presto dominato dall’esigenza di aumentare anzitutto il numero di chip realizzabili con un insieme di processi tecnologici (da qui l’aumento dell’area dei wafer, il cui diametro è progressivamente passato da pochi cm fino ai 25 cm e oltre di oggi); e, di migliorare le rese di processo, cioè il rapporto tra chip correttamente funzionanti e quelli totali in lavorazione (il che richiede un continuo affinamento della qualità e della pulizia di processi, attrezzature, materiali ed ambienti).
L’industria microelettronica, oggi presente in diversi paesi a economia avanzata, ha trovato il suo terreno di incubazione e crescita in un’area piuttosto limitata della California (attorno all’Università di Stanford), da allora nota come Valle del Silicio (Silicon valley), la cui storia rappresenta uno dei più felici esempi di sviluppo economico di alto profilo.
Gli insediamenti industriali nella zona cominciarono all’inizio degli anni Cinquanta quando il Decano della Facoltà di ingegneria di Stanford, Frederick E. Terman, e alcuni dei laureati della stessa Facoltà (William Hewlett, David Packard e i fratelli Russell e Sigurd Varian) fondarono tre imprese (Terman, HP e Varian) in vicinanza del campus universitario. L’era dei semiconduttori cominciò, invece, nel 1955 quando Shockley lasciò i Laboratori Bell per trasferirsi a Palo Alto dove, con il supporto finanziario di Arnold O. Beckman (suo vecchio compagno al Caltech e titolare della omonima azienda di strumentazione), fondò una compagnia (nel 1957 chiamata Shockley Transistor Corporation) che contava su un eccezionale staff tecnico di 12 persone, tra cui Noyce, Moore, Hoerni e Jay Last, ricercatori di assoluto rilievo che fondarono in seguito aziende autonome. Nel 1958, otto di queste persone (tra cui i quattro menzionati in precedenza) lasciarono la ditta di Schockley, che aveva deciso di non finanziare un considerevole ampliamento dell’attività in corso, e furono assunti dalla Fairchild Camera Instruments, desiderosa di entrare nel settore dei semiconduttori. Da questa azione, con un finanziamento di 2 milioni di dollari, nacque la Fairchild Semiconductors, che ebbe un ruolo di primissimo piano nello sviluppo della Silicon Valley e della microelettronica.
Con il maturare di nuove idee, competenze e ambizioni, molti ricercatori della Fairchild avvertirono in seguito l’esigenza di proprie iniziative. In particolare, Last e Hoerni nel 1961 fondarono una nuova impresa che si chiamò Amelco e in seguito Teledyne Semiconductor. Nel 1964, Hoerni cambiò di nuovo e fondò la Union Carbide Electronics che lasciò nel 1967 per dar vita alla Intersil. Noyce e Moore, invece, rimasero con la Fairchild fino al 1968, anno in cui fondarono la Intel.
A parte questi esempi eclatanti, la mobilità delle persone più qualificate e dinamiche divenne una caratteristica fondamentale e un elemento essenziale per la crescita della Silicon Valley, anche per il travaso e la disseminazione di idee che ogni spostamento di ricercatori e tecnici necessariamente comporta. Nel 1983 nella zona si contavano già più di cento aziende di semiconduttori con posizioni di predominio a livello mondiale in un settore di importanza strategica. Ancora oggi, nonostante lo sforzo sostenuto in altri Paesi, la Silicon Valley rimane un punto di riferimento e un esempio unico nella storia industriale mondiale.
La vera e propria esplosione della microelettronica cominciò verso la fine degli anni Sessanta ed ebbe profonde ripercussioni su interi sistemi economici. All’inizio la tecnologia era relativamente poco costosa (rispetto a quella moderna) e i primi microcircuiti erano abbastanza semplici da poter essere progettati con tecniche e competenze largamente disponibili. Per questo, la microelettronica era alla portata di molte imprese (e di laboratori universitari), che poterono decidere se sviluppare o meno al loro interno un’attività in questo settore. Quasi tutte le maggiori industrie di sistemi elettronici si integrarono, per così dire, verticalmente, realizzando insiemi produttivi comprendenti sia le tecnologie dei semiconduttori sia quelle necessarie per i sistemi. Esempi notevoli di questo tipo furono AT&T, IBM, RCA, e HP negli Stati Uniti, Philips e Siemens in Europa, e quasi tutti i maggiori gruppi industriali del Giappone. Viceversa, la maggior parte delle aziende di medie dimensioni, specialmente in Europa, perse l’occasione propizia decidendo di approvvigionarsi di componenti dal mercato. Questa scelta, peraltro scaturita da motivate ragioni economiche, dette presto luogo a serie difficoltà alle quali in seguito non si è più potuto porre vero rimedio.
Per quanto riguarda la tecnologia, fu subito evidente che sarebbe stato desiderabile aumentare sostanzialmente il numero di transistori integrati sui chip e ciò motivò uno sforzo imponente di ricerca e sviluppo. All’inizio il livello di integrazione dei componenti era essenzialmente limitato dalla risoluzione dei processi tecnologici, che non consentiva di realizzare transistori con dimensioni inferiori alla decina di μm, nonché alla insufficiente pulizia di apparecchiature e ambienti, che dava luogo a difetti in grado di impedire il corretto funzionamento di molti chip. Per risolvere il primo problema, si svilupparono litografie (a proiezione) e attacchi (a secco) che, peraltro, richiedevano apparecchiature sempre più sofisticate e costose. Per il secondo, si migliorò la pulizia degli ambienti di produzione mediante imponenti sistemi di ricircolo, condizionamento e filtraggio dell’aria nonché con l’uso di sofisticate tute antipolvere da parte del personale.
L’effetto combinato dell’evoluzione delle apparecchiature e delle fabbriche consentì un vero e proprio salto di qualità, ma allo stesso tempo portò la microelettronica al di fuori delle possibilità economiche della maggior parte delle industrie di sistemi (nonché dei laboratori universitari e di ricerca). Questa conseguenza si rivelò presto così critica da minacciare l’esistenza stessa di diverse industrie perché, con un numero crescente di transistori, i chip divennero veri e propri sottosistemi (integrati) la cui progettazione e realizzazione aveva costituito il know-how più caratteristico di piccole e medie aziende di tipo sistemistico. L’impossibilità di realizzare microcircuiti e, d’altra parte, la loro imprescindibile convenienza, costrinse molte industrie a rinunciare a fette consistenti di valore aggiunto e di proprietà intellettuale a favore delle aziende di semiconduttori, che si moltiplicarono, soprattutto negli Stati Uniti, e assunsero un ruolo strategico per l’intero settore dell’elettronica e della nascente informatica. In questo contesto, la posizione dell’Europa, più lenta nell’adeguarsi alle nuove tecnologie, finì per indebolirsi progressivamente, mentre le grandi industrie giapponesi trovarono una occasione unica per fare un salto di qualità che, verso la metà degli anni Ottanta, le portò addirittura a dominare settori ad altissimo valore strategico.
Col tempo, tuttavia, i meccanismi di mercato portarono a notevoli riaggiustamenti della bilancia strategica tra le aziende di componenti e quelle di sistemi, sostanzialmente per l’enorme crescita della capacità produttiva di microcircuiti, resa possibile da tecnologie sempre più avanzate. In particolare, verso la fine degli anni Settanta, la microelettronica cominciò a essere condizionata da esigenze di mercato (invece che dalla disponibilità di macchine e processi), e ciò rese difficile la vita delle aziende di semiconduttori senza posizioni di primo piano per dimensione o capacità tecnologiche, molte delle quali furono costrette a chiudere oppure furono acquisite da concorrenti più forti o da grandi industrie di sistemi. In sostanza, le regole di mercato portarono nel tempo a una drastica semplificazione della situazione nella quale emersero grandi industrie sistemistiche con rilevanti capacità tecnologiche e poche aziende di semiconduttori, con dimensioni sufficienti, acquisite anche attraverso complessi processi di fusione e acquisizione di concorrenti.
Dal punto di vista funzionale la microelettronica produce componenti di diverso tipo (analogico, digitale, di potenza, misti) e dimensione (microprocessori), memorie, dispositivi di potenza, circuiti a radiofrequenza). Tuttavia i prodotti più significativi sono certamente i componenti principali dei sistemi digitali: memorie e processori (microprocessori e microcontrollori) che, dunque, possono anche essere impiegati come esempio delle caratteristiche e dell’evoluzione degli altri microcircuiti.
Le memorie costituiscono la principale applicazione delle nuove tecnologie, essendo il componente più diffuso e a maggior densità di integrazione. Nonostante l’elevatissima complessità, infatti, esse sono costituite da una molteplicità di blocchi elementari altamente ottimizzati, che richiedono una tecnologia molto avanzata ma uno sforzo di progettazione relativamente contenuto. Perciò, le memorie costituiscono obiettivi ideali per lo sviluppo di tecnologie sempre più sofisticate, mentre, come prodotti di massa con caratteristiche altamente standardizzate, rappresentano un mercato molto remunerativo se prodotte con rese molto elevate (così da sfruttare un piccolo ma ripetuto margine di guadagno). Nel tempo, quest’ultimo aspetto si è rivelato determinante e ha favorito ambienti industriali più attenti alle problematiche della produzione, come quelli dell’Estremo Oriente.
Le prime memorie a semiconduttore (fabbricate presso la Fairchild nel 1965) furono piccole RAM (Random access memory), ovvero dispositivi le cui operazioni di lettura e scrittura richiedono tempi analoghi e indipendenti dalla posizione fisica delle locazioni di memoria (celle) interessate. Queste memorie erano di tipo statico, con celle costituite da quattro BJT e da opportuni organi di indirizzamento e, come tutte le RAM, anche di tipo volatile, ovvero incapaci di conservare le informazioni al venir meno dell’alimentazione. Nonostante la loro semplicità, superando il centinaio di transistori integrati per chip, queste memorie segnarono il passaggio dalla piccola alla media scala d’integrazione.
Dopo questo inizio, fu presto evidente che le tecnologie MOS erano particolarmente adatte alla realizzazione di memorie per la minor occupazione d’area e il più basso consumo di potenza. Nel 1968, infatti, l’allora neonata Intel realizzò una RAM statica (SRAM) da 256 bit con il nuovo processo MOS a gate di silicio, mentre la IBM ne presentò una da 512 bit con una tecnologia MOS più tradizionale. Entrambi questi dispositivi furono sviluppati come prototipi di laboratorio e non vennero mai prodotti in massa.
Una svolta fondamentale fu costituita dall’invenzione nel 1968 delle RAM dinamiche (DRAM) da parte di Robert H. Dennard della IBM, che concepì una cella formata da un condensatore MOS (che conserva l’informazione sotto forma della presenza o meno di carica) e un transistore di indirizzamento. Quest’ultimo, una volta acceso, mette in comunicazione la cella con la linea dati, consentendo di leggerla o scriverla; se spento, invece, la isola dal resto della memoria consentendo la conservazione dell’informazione immagazzinata. Questa cella (detta a 1 transistore) è (quasi) ideale, in quanto compatta e praticamente senza consumo di potenza in condizione statiche. Tuttavia, poiché l’isolamento assicurato dal transistore di selezione spento non è perfetto, l’informazione contenuta nella cella tende a perdersi nel tempo e, per evitare che ciò accada, occorre rinfrescare periodicamente la memoria, leggendone e riscrivendone il contenuto prima che sia irreparabilmente deteriorato. Da qui, l’appellativo dinamico che contraddistingue il componente elettronico in assoluto di maggior mercato.
L’invenzione delle DRAM segnò una grande svolta nel campo delle memorie. Nel 1970, l’Intel sviluppò la prima DRAM da 1 K (1 kilobit=1024 bit) con celle a 3 transistori che, superando il limite di 1000 transistori per chip, segnò anche l’avvento dei microcircuiti detti a larga scala di integrazione (LSI, Large scale integration). Nel 1971, la stessa Intel sviluppò anche una RAM da 1 K di tipo statico (SRAM), con celle a 6 transistori, mentre nel 1972 e nel 1976 produsse DRAM (con celle a 1 transistore), rispettivamente da 4 e 16 K. A sua volta la IBM realizzò RAM statiche da 2 e 8 K, rispettivamente nel 1973 e 1975. Una tappa molto significativa in questa evoluzione fu costituita dallo sviluppo delle prime DRAM da 64 K (avvenuto a opera della IBM nel 1979) che, superando i 100.000 transistori integrati per chip, segnarono anche il passaggio dalla microelettronica LSI a quella integrata su larghissima scala (VLSI, Very large scale integration). Fu questo l’ultimo caso di memorie con mercato dominato dalle aziende americane: in seguito, la tecnologia esasperata e la crescente importanza delle problematiche di produzione hanno finito per favorire industrie giapponesi e più recentemente coreane e cinesi, che proprio nel settore delle memorie hanno trovato la valorizzazione delle loro migliori caratteristiche.
La prima SRAM da 128 K fu realizzata nel 1979 dalla HP, mentre le DRAM da 256 K furono sviluppate da diversi costruttori (principalmente giapponesi) nel 1983 e le DRAM da 1 megabit nel 1984 (sebbene siano apparse sul mercato qualche anno più tardi), segnando l’ingresso nell’era della integrazione su scala ultra larga (ULSI, Ultra large scale integration), con oltre 1 milione di transistori integrati per chip.
Parallelamente allo sviluppo delle RAM si ebbe quello di memorie a sola lettura (ROM, Read only memory), impiegate per memorizzare definitivamente informazioni in modo non volatile. Il problema fondamentale delle ROM è che la specificità delle informazioni immagazzinate (una volta per tutte) restringe inevitabilmente il campo applicativo di ciascuna memoria, con un conseguente aumento dei costi. A questo si pose rimedio con lo sviluppo di dispositivi programmabili (PROM, Programmable ROM), prodotti indipendentemente da ogni specifica applicazione e riempiti di contenuto successivamente dall’utilizzatore (e per questo detti programmati). Un ulteriore passo in questa direzione fu costituito dall’invenzione di PROM che possono essere anche cancellate (EPROM, Erasable programmable ROM) per essere riutilizzate con nuovi contenuti. Naturalmente, le PROM devono avere una struttura generale, ovvero presentare transistori a tutti gli incroci della rete di linee di interconnessione, selettivamente inattivabili in fase di programmazione.
Lo sviluppo più significativo in questo campo fu l’invenzione nel 1981 presso l’Intel delle EPROM (da 2 kbit) a opera di Dov Frohman-Bentchkowsky, che utilizzò speciali transistori MOS nei quali si può cambiare la tensione di soglia fino a renderla maggiore dell’alimentazione per disattivarli durante il funzionamento normale della memoria. Ciò si ottiene iniettando all’interno di un gate isolato (flottante), posto tra il gate non isolato e il canale conduttivo, una carica elettrica (negativa) che fa alzare la tensione di soglia del transistore (in modo lineare con il suo valore). La programmazione consiste dunque nell’iniezione di una carica sufficiente sui gate flottanti dei transistori da escludere dal funzionamento della memoria, mentre la cancellazione implica la rimozione di tale carica. Per l’iniezione si utilizzò il fenomeno del riscaldamento degli elettroni nel canale del transistore: che se sottoposti a campi elettrici particolarmente alti, possono acquisire energia cinetica sufficiente per superare la barriera che li separa normalmente dal gate flottante. Per la cancellazione si utilizzò invece l’illuminazione di tutto il dispositivo con radiazione ultravioletta, i cui fotoni forniscono agli elettroni imprigionati nel gate flottante l’energia sufficiente per uscirne.
Qualche anno più tardi, riprendendo una vecchia idea di Dawon Kahng, l’Intel sviluppò un altro tipo di EPROM in cui anche la cancellazione poteva essere eseguita per via elettrica. In queste memorie (EEPROM, Electrically erasable programmable ROM) gli elettroni venivano iniettati e rimossi dal gate flottante forzando con forti campi elettrici il passaggio di corrente attraverso un sottilissimo film isolante per effetto tunnel. Rispetto alle EPROM, queste memorie presentano alcuni vantaggi in quanto possono essere programmate e cancellate selettivamente (per byte o addirittura per singolo bit) senza essere rimossi dal sistema di cui fanno parte; inoltre, hanno un contenitore più economico (perché non necessita di una finestra trasparente ai raggi ultravioletti). Tuttavia, avendo celle di area assai maggiore, hanno il grande svantaggio di una densità di celle molto inferiore.
L’ultimo sviluppo in questo campo è costituito dalle cosiddette memorie flash, che riprendono l’idea delle EPROM, ma sostituiscono la cancellazione mediante irradiazione ultravioletta con quella (elettrica) per effetto tunnel. Il nome è essenzialmente dovuto al fatto che all’inizio in queste memorie tutte le celle potevano essere cancellate velocemente (e contemporaneamente, come nelle EPROM). In seguito, però, il complesso delle celle è stato diviso in blocchi (pagine) che possono essere cancellati selettivamente. Con il tempo tali pagine sono diventate sempre più piccole, per consentire maggior granularità nella cancellazione, fino ad arrivare a simulare quella per byte, tipica delle EEPROM. Le memorie flash hanno trovato grande applicazione in tutti i dispositivi elettronici di tipo portatile (PC, PDA, cellulari, ecc.) e rappresentano anche un potenziale concorrente per i dischi rigidi dei computer (specie di quelli portatili). Infatti, non avendo alcun organo di movimento, presentano il vantaggio di una maggior affidabilità, pur essendo inferiori ai dischi rigidi per capacità complessiva e costo per bit memorizzato.
Per risultare remunerative, devono essere utilizzate tecnologie sempre più sofisticate e costose per chip complessi e di grande mercato e, memorie a parte, non è facile individuare altri componenti con entrambe queste caratteristiche. Con la possibilità di integrare un numero sempre maggiore di transistori per chip, la risposta a questo problema venne dall’invenzione dei microprocessori, dispositivi complessi ma di tipo generale, che possono essere programmati via software per assolvere compiti molto diversi.
L’idea maturò nel 1970 presso l’Intel grazie a Marcian E. Hoff che, per un progetto di macchine per ufficio, studiò il problema dell’integrazione di un certo numero di funzioni logiche molto specializzato. Convinto che la semplice realizzazione hardware di quanto richiesto non sarebbe risultata economica, Hoff concepì un progetto, per molti versi rivoluzionario, in cui i quindici chip previsti all’inizio furono ridotti a tre, uno dei quali destinato ad assolvere tutte le funzioni logiche di carattere generale, agendo essenzialmente come l’unità centrale (CPU) di un computer. Il progetto non convinse l’azienda committente che lo lasciò cadere e l’Intel si trovò così a disporre del primo microprocessore (Intel 4004 a 4 bit), per altro ancora senza applicazioni. L’idea, però, era matura e fu subito raccolta da altre industrie, in particolare la Texas Instruments, e ciò dette inizio a una vivacissima competizione. Frutto di questo stato di cose fu lo sviluppo nel 1973 del microprocessore Intel 8080 (a 8 bit), che rappresenta il capostipite di una lunga e fortunata serie. A partire dalla seconda metà degli anni Settanta i microprocessori trovarono applicazioni sempre più numerose e importanti e finirono per produrre una vera e propria rivoluzione in tutti i più importanti settori delle Tecnologie delle comunicazioni e della informazione (ICT). Col tempo, questi componenti si fecero sempre più potenti e complessi, passando dalla possibilità di operare su parole di 8 bit a parole di 16, 32 e 64 bit.
La crescente disponibilità di transistori sullo stesso chip ha dato luogo anche a una importante diversificazione nel campo dei processori. Da una parte, infatti, si sono sfruttate le potenzialità della tecnologia per riempire tutta l’area dei chip di blocchi logici realizzando microprocessori sempre più potenti, utilizzati per PC, server, mainframe, playstation, ecc.
Dall’altra parte, però, è emersa nel tempo una enorme quantità di applicazioni (relative ai ) che richiedono risorse di calcolo più modeste di quelle dei microprocessori. Per affrontare questo mercato sono stati allora sviluppati processori meno potenti che, occupando un’area di silicio molto più piccola dei chip che ha senso economico fabbricare, offrono la possibilità di integrare anche diversi altri componenti (DRAM, SRAM, EPROM, EEPROM, flash, timer, blocchi di comunicazione, convertitori analogico-digitali, e via dicendo), che sarebbero altrimenti da collegare mediante scheda, con un conseguente peggioramento di velocità, consumo, costo e affidabilità del sistema. Questi nuovi dispositivi sono chiamati microcontrollori e per la presenza di diversi elementi funzionali sullo stesso chip hanno l’aspetto di veri e propri sistemi integrati (system-on-chip).
Infine, esistono anche applicazioni significative che richiedono la ripetizione di una enorme quantità di operazioni elementari, sempre uguali e da eseguire con grande velocità. Anche in questo caso un processore di tipo generale non rappresenta la soluzione migliore, perciò sono stati realizzati dei dispositivi con architettura specializzata per il trattamento e l’elaborazione dei segnali digitali, denominati digital signal processors (DSP), spesso utilizzati nei sistemi come co-processori insieme ai microcontrollori. In queste applicazioni è molto importante la rapidità di accesso alla memoria, essendo molto frequenti le operazioni di lettura e scrittura. Per questo i DSP hanno due diversi banchi di memoria (integrati sul chip), uno per le istruzioni e uno per i dati, che permettono il caricamento contemporaneo nella CPU di dati e istruzioni. La tecnologia DSP si è imposta negli ultimi anni come soluzione alle problematiche applicative di media ed elevata complessità, come l’analisi e la sintesi dei segnali vocali, l’elaborazione delle immagini, l’audio digitale, l’automazione, la strumentazione biomedica e di laboratorio, le applicazioni consumer, e così via.
Agli inizi degli anni Ottanta, una significativa eccedenza di capacità produttiva rese necessario incoraggiare un maggiore uso di microcircuiti. D’altra parte, ciò veniva anche incontro alle aspirazioni delle industrie sistemistiche senza competenze di semiconduttori, cui l’esplosione della microelettronica aveva sottratto una parte rilevante di capacità progettuali costringendole a usare circuiti standard disponibili sul mercato. Per rispondere a queste esigenze, le industrie di semiconduttori (alcune delle quali nate apposta per questo scopo) cominciarono a rendere disponibili gli strumenti necessari alla progettazione di circuiti integrati (a partire da tecnologie standard e con regole rigidamente predeterminate) e per fabbricare i dispositivi progettati, agendo come vere e proprie fonderie di silicio (silicon foundries).
Questo approccio all’integrazione di componenti per applicazioni specifiche (ASICs, Application specific integrated circuits), indicato anche come di tipo semi-custom, comprende diversi stili di progettazione che consentono di raggiungere differenti compromessi tra facilità e ottimizzazione del progetto. Il più rigido (ma anche il più sicuro e a minor costo per pezzo prodotto) è quello dei , che parte da una schiera di transistori già realizzati sul silicio semplicemente da interconnettere per formare i blocchi (logici) desiderati. Peraltro, poiché oggetto della progettazione sono le interconnessioni e non i transistori, è evidente che questi non sono ottimizzati per nessuna delle specifiche applicazioni a cui saranno destinati. Più recentemente, la tecnica dei gate arrays è andata evolvendo verso quella nota come sea of gate la quale, invece di presentare speciali regioni (canali) prive di transistori e destinati a ospitare i collegamenti tra di essi, prevede chip completamente coperti di celle elementari, che possono eventualmente essere attraversate dalle linee di interconnessione. Non dovendo destinare a priori aree predefinite (quindi non ottimizzate) a tali linee, l’occupazione di area di silicio di questi dispositivi risulta inferiore (a parità di funzionalità globali) di quella ottenibile con i gate arrays.
Un’alternativa più flessibile (ma anche più costosa) ai gate arrays è quella detta a celle standard in cui si opera a partire da (piccoli) blocchi pre-progettati (ma non pre-fabbricati) disponibili a livello software come elementi di una libreria su un calcolatore. In questo caso, dunque, l’intero processo tecnologico è dedicato alla specifica applicazione, ma la maggiore libertà di posizionamento, dimensione e forma dei blocchi consente di minimizzare il costo e la dimensione del circuito risultante. Recentemente questa metodologia di progetto ha dato luogo alla tipologia a ‘macrocelle’, in cui la libreria di elementi a disposizione comprende anche blocchi di notevole dimensione e capacità funzionali (ALU, memorie, registri, e così via).
I dispositivi ASIC costituiscono una piccola fetta del mercato dell’elettronica, perché i costi di realizzazione li rendono convenienti solo per produzioni di largo volume. D’altra parte, esistono molte applicazioni che non soddisfano questa condizione. Per rispondere a questa esigenza, la possibilità di realizzare sullo stesso chip un numero enorme di transistori e di reti di interconnessioni molto complesse ha permesso la nascita di una nuova tipologia di dispositivi, chiamati FPGA (Field programmable gate array), che si collocano tra i processori e i circuiti ASIC. Questi dispositivi sono disponibili a catalogo ma, a differenza dei microprocessori, rendono disponibile un hardware (ri)configurabile dall’utilizzatore mediante una programmazione (da eseguire con opportuni linguaggi di descrizione) in modo da realizzare qualunque funzione logica. Gli FPGA offrono spesso un ottimo compromesso tra flessibilità, prestazioni e costo inoltre sono particolarmente adatti per bassi volumi di produzione per via del minor costo e tempo di sviluppo. Questi vantaggi sono in effetti così consistenti che, con l’affinarsi della tecnologia, gli FPGA si stanno aggiudicando una fetta sempre più importante del mercato (specie nel campo delle telecomunicazioni). Inoltre, sono molto utilizzati come strumenti di prototipizzazione rapida.
Il modo migliore per illustrare lo sviluppo della microelettronica fino ai giorni nostri è quello di utilizzare i più importanti parametri che caratterizzano i microcircuiti (dimensioni e numero dei transistori sul chip, velocità di funzionamento, consumo di potenza, costo), la cui importanza, peraltro, dipende dal tipo di prodotto (processori, memorie e ASIC). Mentre, infatti, tutti traggono beneficio dall’uso di dispositivi di piccole dimensioni, le memorie hanno una struttura regolare che richiede l’integrazione di un numero elevatissimo di transistori molto piccoli, ma non pone particolari problemi per quanto riguarda la complessità delle loro interconnessioni. Viceversa, i processori hanno una struttura più irregolare che complica il problema delle interconnessioni (con l’esigenza di svilupparle su una molteplicità di livelli per poterle incrociare facilmente anche senza creare un contatto elettrico). Inoltre, nei processori è particolarmente importante la velocità di funzionamento, quindi anche la frequenza di clock. Dal canto loro, i componenti ASIC hanno particolari esigenze per quanto riguarda il numero di terminali (molto alto).
Almeno a partire dalla metà degli anni Settanta, la microelettronica si è sviluppata sostanzialmente con una progressione esponenziale, secondo una legge empirica, enunciata nel 1974 da Gordon Moore (nota anche come legge di scaling down, ovvero di contrazione delle dimensioni dei dispositivi), secondo la quale la complessità dei microcircuiti, per esempio misurata dal numero di transistori per chip, raddoppia ogni 18 mesi circa. La stessa legge si applica praticamente a tutti i parametri più importanti dei componenti, con conseguenze senza uguali in nessun altro campo delle tecnologie dell’uomo. In particolare, sostanzialmente con la stessa progressione esponenziale, diminuiscono le dimensioni lineari dei transistori, aumenta la velocità di funzionamento dei gate logici, aumenta l’affidabilità e diminuisce il costo della singola funzione integrata.
Questo continuo miglioramento dei parametri ha, però, un paio di eccezioni che hanno importanti conseguenze. L’area dei chip è limitata dal fatto che ogni generazione tecnologica è statisticamente caratterizzata da una concentrazione di difetti fatali, ciascuno dei quali impedisce al microcircuito di funzionare. Da questo punto di vista, ogni nuova tecnologia è migliore della precedente (perché utilizza attrezzature e ambienti più puliti), tuttavia mira a realizzare transistori più piccoli, quindi anche più critici dal punto di vista dei difetti che possono invalidarne il funzionamento: perciò, miglioramento e criticità si rincorrono procedendo più o meno di pari passo. Oggi la concentrazione di questi difetti è da 0,1 a 0,4 difetti/cm2: pertanto, è evidente che, per esempio, chip con area di 10 cm2 avrebbero la quasi certezza di ospitare almeno un difetto in grado di pregiudicarne il funzionamento. Di conseguenza la resa di processo sarebbe praticamente nulla. Poiché d’altra parte, il costo di una fetta di silicio lavorata dipende essenzialmente dalla tecnologia (in particolare, cresce a ogni successiva generazione) ed è praticamente indipendente dal numero di chip che essa contiene, la resa di processo determina in modo immediato il costo dei chip. In sostanza, per avere costi accettabili occorre che le rese siano abbastanza alte, e questo impone che le aree dei chip siano contenute. In pratica queste sono cambiate di poco (tipicamente di un fattore tra 4 e 10) mentre il numero di transistori per chip è aumentato di circa 6 ordini di grandezza. La sostanziale stabilità dell’area ha come conseguenza anche quella del consumo di potenza dei chip, perché lo smaltimento del calore prodotto avviene sostanzialmente sempre mediante gli stessi mezzi (contenitore, scheda, aria). Perciò la densità di calore dissipabile non è sostanzialmente aumentata nel tempo e così, a parità di area del chip, è rimasta, anche per la dissipazione totale, dell’ordine del centinaio di watt per i chip più avanzati che non fanno uso di dispositivi di raffreddamento (in grado di aumentare notevolmente il consumo). È ovvio, invece, che il consumo di potenza a livello di singolo gate logico è diminuito in proporzione inversa all’aumento del loro numero per chip.
Naturalmente, la variazione esponenziale della ha portato a valori straordinari dei parametri caratteristici dei componenti rispetto alle origini della microelettronica. Nel 2007, i processori più avanzati arrivano a contenere circa 400 milioni di transistori con lunghezza di canale di 25 nm (0,026 μm) su un’area di circa 3 cm2, funzionano con frequenze di clock intorno a 9 GHz all’interno di circa 5 GHz verso l’esterno, presentano fino a 15 livelli di metallizzazione (per le interconnessioni), nonché diverse centinaia di terminali esterni (fino a un paio di migliaia nei casi più estremi). Questi dispositivi sono alimentati all’interno con tensioni di circa 1 V (un po’ di più per le massime prestazioni) e consumano 140 W (fino a circa 300 se opportunamente raffreddati). Per quanto riguarda le memorie (in particolare le DRAM qui usate come riferimento), i dispositivi più avanzati contengono più di 2 Gbits, cioè più di 2∙109 celle, ciascuna con area di circa 0,03 μm2 (ovvero meno di 0,2 μm di lato). Nei dispositivi ASICs, invece, i parametri più significativi sono l’area dei chip (fino a circa 9 cm2), il numero di transistori per chip (fino a 3∙109) e il numero di pin esterni (fino a ca. 4000).
Dal punto di vista tecnologico, i processi di produzione (ad alta definizione) fanno uso di litografie ancora basate su radiazioni nel profondo ultravioletto, le cui prestazioni vengono spinte agli estremi mediante tecniche di focalizzazione parziale delle immagini su aree ristrette (step and repeat). Per quanto riguarda gli altri processi fondamentali, gli attacchi sono quasi interamente a secco in plasmi reattivi, mentre il drogaggio viene interamente realizzato mediante impiantazione ionica.
Inoltre, vale la pena di segnalare come l’evoluzione della microelettronica abbia notevolmente aggravato alcune caratteristiche di forte dipendenza strategica tra vari elementi del quadro complessivo, con la concentrazione in pochissime aziende delle più avanzate capacità tecnologiche, attraverso un complesso processo di ristrutturazioni, acquisizioni e fusioni. In particolare, nella situazione attuale, i microprocessori più avanzati (e a maggior valore aggiunto) sono sostanzialmente prodotti da imprese statunitensi, mentre il campo delle memorie è dominato da industrie orientali (in particolare giapponesi, coreane e cinesi).
La fabbricazione delle interconnessioni ha assunto nel tempo un aspetto molto più importante che nel passato (oggi si usa dire che un chip è un insieme di linee di interconnessione con qualche transistore, mentre fino a venti anni fa la visione era opposta). Per questo motivo la tecnologia a esse dedicata (che riguarda strati di materiale all’infuori del silicio) ha assunto una identità propria, ed è tipicamente chiamata backhand per distinguerla dalla tecnologia interna al silicio che serve per fabbricare i transistori (detta di fronthand). Questa suddivisione non è solo concettuale, ma riguarda processi e competenze diverse e ha portato alla possibilità di sviluppi separati, con la dislocazione delle attività di backhand in regioni a minor qualificazione professionale e costo del lavoro.
In questo panorama, si deve constatare come l’Europa abbia perso sostanziali posizioni a livello internazionale e come le sue imprese nel settore fatichino a raccogliere le sfide poste da un mercato estremamente dinamico come quello dei semiconduttori. In particolare, tra le maggiori imprese europee, Siemens e Philips hanno cercato di separare le loro divisioni di semiconduttori dal resto dell’attività (di tipo sistemistico) per dar vita a imprese autonome più adatte alle necessità del mercato. Questa operazione, tuttavia, non ha sempre dato i risultati sperati e procede con alterne vicende. La terza grande impresa europea nel settore è la italo-francese STMicroelectronics, che ha progressivamente guadagnato posizioni a livello internazionale, soprattutto in alcuni settori specializzati (microcontrollori e memorie flash). Anch’essa, tuttavia, risente delle debolezze strutturali che caratterizzano il panorama europeo della microelettronica a confronto con quella nordamericana e orientale.
Per quanto riguarda il futuro, si deve distinguere tra lo sviluppo evolutivo della microelettronica esistente e la tecnologia destinata a sostituirla in un futuro più lontano. Prima, però, è opportuno menzionare brevemente due interessanti aspetti di carattere generale.
Il primo riguarda le dimensioni ultime dei transistori. Da questo punto di vista, fino agli anni Settanta ci si è domandati quanto potesse essere piccolo un transistore che funzionasse correttamente con risposte continuamente aggiornate nel tempo (0,25 μm, 0,1 μm, ecc.). In seguito, però, il problema ha perso di interesse perché la risposta dipende dalle caratteristiche richieste e ci si è resi conto che ci si può accontentare anche di un funzionamento imperfetto purché il dispositivo eserciti la funzione primaria di valvola elettronica (anche in modo non ideale). Per esempio, all’inizio uno dei vincoli più stringenti dei transistori MOS era quello del reale isolamento del gate, che si traduceva in un spessore minimo dell’isolante di gate, a sua volta in grado di limitare le dimensioni minime del transistore in base a una serie di opportune concatenazioni. Tuttavia, la presenza di una debole corrente di gate non inficia il funzionamento del transistore (come è ovvio pensando ai BJT), perciò le limitazioni dovute a una rigida specifica su di essa sono prive di vero significato applicativo. Oggi la visione del problema è piuttosto quella per cui transistori funzionanti a dovere possono avere dimensioni anche piccolissime (non ci si azzarda nemmeno più a fare previsioni a riguardo), ma il problema è piuttosto quello del costo della tecnologia necessaria per fabbricarli su scala industriale, soprattutto in relazione ai mercati che si potrebbero aprire. In altri termini, si pensa che fabbricare microcircuiti molto complessi fondati su transistori estremamente piccoli oltre che impossibile potrebbe risultare non conveniente dal punto di vista economico.
Un secondo aspetto interessante a proposito dell’evoluzione della odierna microelettronica è rappresentato dall’esistenza di un piano di sviluppo (ITRS, International technology roadmap for semiconductors), che fissa tutte le principali caratteristiche che dovranno avere i dispositivi del futuro, con previsioni di medio e lungo respiro (8 e 15 anni), aggiornate ogni due anni (e revisionate in modo più lieve ogni anno). L’esistenza di un documento, costoso da formulare e frutto di un enorme sforzo a livello planetario, che fissa gli stessi obiettivi per tutti (in particolare per imprese in fiera competizione sul mercato), può apparire strana e incongrua. Tuttavia, lo sviluppo di nuove generazioni di tecnologie è talmente costoso da richiedere la focalizzazione di tutti (in primo luogo delle imprese che producono le apparecchiature tecnologiche per i semiconduttori) verso gli stessi obiettivi senza dispersione di sforzi che porterebbero ad aumenti del costo finale dei prodotti, rendendo meno competitivo l’intero settore. Peraltro, l’esistenza della roadmap ITRS rende facile fare previsioni circa il tipo di dispositivi dei prossimi anni e, implicitamente, suggerisce che l’attuale microelettronica continuerà a svilupparsi almeno per i prossimi 15 anni (limite, continuamente aggiornato, di visibilità delle previsioni). Sotto il profilo industriale, infine, probabilmente si assisterà a una ulteriore concentrazione dell’attività, a causa del vertiginoso aumento di costi, mezzi e competenze necessari per sopravvivere in un mercato estremamente competitivo, anche se le attività delle maggiori industrie del settore saranno sempre più distribuite in diverse regioni del mondo.
Secondo la roadmap IRTS, per esempio, ci si aspetta che nel 2013 le dimensioni lineari dei transistori MOS saranno di 0,013 μm (circa la metà di quelle attuali), mentre nel 2020 (ultimo anno delle previsioni disponibili oggi) si scenderà a 0,006 μm. I processori più avanzati avranno 1,5 e 12,3 miliardi di transistori, rispettivamente nel 2013 e nel 2020 (ma le memorie più dense ne avranno circa il doppio); le frequenze di funzionamento interne saranno rispettivamente di 23 e 73 GHz, mentre l’area del chip e il numero di pin esterno saranno di circa 3 e 3000 cm2, rispettivamente. Infine, è opportuno segnalare come i progressi attesi non siano affatto scontati, ma richiederanno giganteschi sforzi di ricerca (e adeguati investimenti) su diversi fronti (ambienti, apparecchiature di fabbricazione, materiali isolanti e conduttori, strumenti CAD, macchine per il collaudo, e così via).
Per quanto riguarda, invece, il futuro ancora più lontano, il raggiunto pieno sviluppo della microelettronica lascia anche intravedere (seppur in forma ancora confusa) la necessità di una sua sostituzione con forme di elaborazione e trasmissione dei segnali più efficienti di quelle fondate sugli attuali transistori. Da questo punto di vista, la soluzione vincente potrà essere fondata su transistori di concezione nuova ma ancora basati sul trasporto elettronico nei semiconduttori (come quelli balistici o a effetto tunnel risonante), oppure, come sembra più probabile, su fenomeni fisici diversi, per esempio di tipo nanoelettronico oppure optoelettronico.
Brinkman 1997: Brinkman, William F. - Haggan, Douglas E. - Troutman, William W., A history of the invention of the transistor and where it will lead us, “Solid-state circuits, Journal of IEEE”, 32, 1997, pp. 1858-1865.
Hansmann 2003: Hansmann, Uwe, Pervasive computing: the mobile word, Berlin-London, Springer, 2003.
Itoh 2000: Itoh, Kyioo e altri, Reviews and prospects of high-density RAM technology, in: Semiconductor Conference, 2000. CAS 2000 Proceedings. International volume, I, 2000, pp. 13-22.
Kilby 2002: Kilby, Jack S., Turning potential into reality: the invention of the integrated circuit. Nobel lecture, december 8, 2000, in: Nobel lectures, Physics 1996-2000, edited by Gösta Ekspong, Singapore, World Scientific, 2002.
Mandelman 2002: Mandelman, Jack A. e altri, Challenges and future directions for the scaling of dynamic random-access memory (DRAM), “IBM journal of research and development”, 46, 2002, pp. 187-222.
Mathur 2002: Mathur, Neil, Beyond the silicon roadmap, “Nature”, 419, 2002, pp. 573-574.
Moore 1965: Moore, Gordon E., Cramming more components onto integrated circuits, “Electronics”, 38, 1965.
Morton 1999: Morton, David, The electrical century. What difference did semiconductors and microelectronics make?, “Proceedings of the IEEE”, 87, 1999, pp. 1049-1052.
Orailoglu, Veidenbaum 2003: Orailoglu, Alex - Veidenbaum, Alex, Guest editors’ introduction: application-specific microprocessors, “IEEE design and test of computers”, 20, 2003, pp. 6-7.
Schaller 1997: Schaller, Robert R., Moore’s law: past, present and future, “Spectrum, IEEE”, 34, 1997, pp. 52-59.
Shockley 1964: Shockley, William B., Transistor technology evokes new physics. Nobel lecture, december 11, 1956, in: Nobel lectures, Physics 1942-1962, Amsterdam, Elsevier, 1964.
http://www.itrs.net/home.html (International Technology Roadmap for Semiconductors)
http://nobelprize.org/nobel_prizes/physics/laureates/2000/kilby-lecture.html (Nobel lectures)
http://nobelprize.org/nobel_prizes/physics/laureates/1956/shockley-lecture.html (Nobel lectures)
https://www.chiphistory.org/ (The Chip History Center).