NANOTECNOLOGIA.
– Le architetture su scala atomica. Nanomanifattura. Nanotecnologie colloidali. Applicazioni a trasporti, energia e ambiente. Applicazioni medico-sanitarie. Bibliografia
La n. è un insieme di metodologie di osservazione, manipolazione e assemblaggio della materia sulla scala del nanometro (miliardesimo di metro). Poiché nella maggior parte dei sistemi condensati in un nanometro si collocano pochi atomi, la n. può essere considerata come una tecnologia su scala atomica. In natura esistono fenomeni e sistemi su diversissime scale dimensionali da quella cosmica a quella subatomica: nel dominio dimensionale della n. si trovano tutte le componenti biochimiche della vita, proteine, DNA e le unità cristallografiche fondamentali che compongono i cristalli naturali. Da questa semplice osservazione è facile comprendere come la n. sia di grandissimo rilievo per un vastissimo numero di ambiti: dalla scienza e tecnologia dei materiali alla biomedicina.
Le architetture su scala atomica. – In natura esistono un centinaio di specie atomiche (tavola di Mendeleev) che in diverse combinazioni formano ogni tipo di materia nota. Alcune specie sono tuttavia molto più frequenti: Idrogeno (H) ed Elio (He) nell’Universo, Ossigeno (O), Silicio (Si) Alluminio (Al) e Ferro (Fe) nella crosta terrestre, Carbonio (C), Ossigeno (O), Idrogeno (H), Azoto (N), Calcio (Ca) e Fosforo (P) nei sistemi biologici.
Poche specie atomiche danno quindi origine all’infinità di materiali e di funzionalità che costituiscono la realtà del mondo che ci circonda e la biodiversità della natura. Quello che conta quindi non è soltanto il tipo di atomo ma anche l’architettura con cui gli atomi vengono assemblati per costruire oggetti con funzioni diverse. Un esempio significativo è quello del carbonio il cui assemblaggio più semplice è quello della cenere: un miscuglio a base prevalentemente carboniosa totalmente disordinato. In opportune condizioni è però possibile generare piani ordinati di carbonio paralleli fra di loro e legati da una forza piuttosto debole chiamata forza di Van der Waals. Ciascun piano è costituito da esagoni aventi un atomo di carbonio in ciascun vertice, con i lati in comune. I legami sul piano sono molti forti mentre i legami tra i piani sono piuttosto deboli. Questo sistema multistrato è quello che viene comunemente chiamato grafite. La grafite consente alla matita di scrivere perché, sotto la pressione della mano, i piani di carbonio sulla punta scivolano l’uno sull’altro e rimangono sul foglio (grazie al legame debole che li impila). Per lo stesso motivo la grafite è un ottimo lubrificante secco che sfrutta la capacità dei piani di scivolare uno sull’altro. Un’altra struttura importantissima a base di carbonio è quella del diamante, in cui ciascun atomo è legato ad altri quattro atomi di carbonio ai vertici di una cella geometrica tetragonale, che viene replicata per formare un solido tridimensionale.
Grazie a queste architetture, semplicemente cambiando la geometria si passa da un eccellente lubrificante a un materiale durissimo e trasparente.
Se si isola poi un singolo piano atomico di grafite, si ottiene il grafene: un materiale ultraleggero, ultraresistente, conduttore, trasparente e biocompatibile. Se arrotoliamo un piano di grafite formiamo un cilindro fatto di esagoni di carbonio. Il limite ultimo di questa architettura unidimensionale è il cosiddetto nanotubo di carbonio. I nanotubi di carbonio hanno applicazioni disparate che vanno dal rinforzo dei materiali alle applicazioni mediche come agenti di contrasto. Un’ulteriore architettura è quella della Buckyball o C-60: 60 atomi di carbonio disposti ai vertici di un icoesaedro troncato, ovvero di un solido formato da 20 esagoni e 12 pentagoni, come un pallone da calcio di diametro pari a circa 0,7 nanometri. Questo esempio chiarisce come le proprietà di un materiale dipendano in modo determinante dalla sua organizzazione a livello nanometrico, tanto e forse più di quanto dipendano dalla sua stessa composizione chimica. La n. sfrutta questo fatto per produrre materiali e sistemi artificiali le cui proprietà macroscopiche dipendono proprio da questa loro architettura interna. Si parla dunque di sistemi nanostrutturati e di nanostrutture.
Nanomanifattura. – La nascita della manifattura di oggetti nanostrutturati può essere fatta risalire agli anni Cinquanta del 20° sec., quando William Shockley, Walter Brattain e John Bardeen inventarono il transistor. Benché il transistor fosse stato sviluppato per scopi fondamentali (lo studio della resistenza del germanio), si scoprì che esso funzionava da amplificatore di tensione e da interruttore, per cui, assegnando al passaggio di corrente il valore 1 del codice binario, e al blocco della corrente il valore 0, era possibile codificare ed elaborare delle informazioni binarie. In mezzo secolo il transistor è stato miniaturizzato passando da qualche centimetro a poche decine di nanometri. La riduzione di dimensioni ha consentito di integrare milioni di transistor nei circuiti integrati, aprendo la strada all’elettronica moderna. Da questa tecnologia derivano i computer e le tecnologie delle telecomunicazioni e dell’informazione. Il progresso tecnologico con cui si è sviluppata e continua a crescere l’integrazione dei transistor nei circuiti integrati è forse uno dei più rapidi e duraturi processi di ottimizzazione tecnologica della storia. Per es., nel maggio del 1997 Intel lanciava il processore Pentium II (7,5 milioni di transistor integrati e frequenza operativa di 300 MHz) e dopo 38 mesi, nel novembre del 2000, la stessa Intel metteva in commercio il Pentium 4 (42 milioni di transistor integrati e frequenza operativa di 1500 MHz). In circa tre anni erano quintuplicati i transistor integrati nel chip Pentium e quadruplicata la frequenza di lavoro (la velocità del processore) mantenendo sostanzialmente inalterati dimensione e consumo di energia del chip. L’industria elettronica ha cominciato a studiare il tasso al quale si possono migliorare le prestazioni dei processori già negli anni Sessanta. Nel 1965 Gordon Moore, cofondatore di Intel con Robert Noyce, postulò che il numero di componenti elettronici che formano un chip sarebbe raddoppiato ogni 18 mesi. L’osservazione di Moore è ancor oggi valida, tanto che la cosiddetta legge di Moore viene tuttora usata come metro dalle aziende del settore.
Le tecnologie abilitanti di questa rivoluzione sono state le litografie, in cui un fascio di radiazione impressiona un polimero fotosensibile (photoresist) indurendolo laddove si vuole proteggere il silicio – che costituisce il materiale base del chip – dall’attacco di un agente chimico. La dimensione minima dei componenti dei chip è limitata dalla lunghezza d’onda della radiazione utilizzata per impressionare il resist. Negli anni sono state sviluppate metodologie che utilizzavano radiazioni elettromagnetiche di lunghezza d’onda sempre più corta (luce ultravioletta) sino al centinaio di nano-metri delle litografie ultraviolette profonde. Più di recente sono state anche sviluppate litografie che utilizzano resists impressionabili da un fascio elettronico. In questo caso si sfrutta la natura ondulatoria degli elettroni per focalizzarli al limite di diffrazione della loro lunghezza d’onda di de Broglie, consentendo di raggiungere risoluzioni dell’ordine di qualche nanometro.
Le tecnologie litografiche sono la componente essenziale delle metodologie di nanofabbricazione top down, nome che indica un processo che porta alla realizzazione di oggetti molto piccoli rimuovendo parti di un blocco di materiale più grande. L’approccio alternativo è definito bottom-up, per indicare la formazione di oggetti a partire dall’assemblaggio di atomi e molecole, analogamente a quanto avviene nei processi biologici.
Sempre nell’ambito delle n. top-down, all’inizio degli anni Ottanta nasceva la fotonica, una branca della fisica e dell’ingegneria che, parallelamente all’elettronica, mirava a utilizzare la luce (cioè fotoni al posto di elettroni) per elaborare e trasmettere informazioni in fibra ottica. La rete ottica, costituita da sistemi di laser, modulatori e rivelatori, è potenzialmente più veloce di quella elettronica dato che la luce si propaga a velocità molto più elevate dell’elettricità nella materia. Poiché l’impulso di luce si attenua per assorbimento e diffusione nelle fibre ottiche, si dovettero progettare laser capaci di emettere luce a lunghezze d’onda per cui l’assorbimento del materiale vetroso della fibra fosse minimo. Queste sono le cosiddette finestre di minima perdita della trasmissione in fibra ottica di ossido di silicio, intorno alle tre lunghezze d’onda: 0,9, 1,31 e 1,55 micron. Fu pertanto necessario progettare su scala nanometrica nuovi materiali semiconduttori che sfruttavano il confina-mento quantistico (materiali a bassa dimensionalità) da impiegarsi come emettitori o rivelatori in dispositivi laser e modulatori alle lunghezze d’onda di minima perdita. Il concetto alla base di queste strutture è quello della quantizzazione degli stati energetici che diviene osservabile quando gli elettroni sono confinati in regioni spaziali molto ridotte. In particolare, se consideriamo elettroni confinati in un materiale di spessore (L) minore di 100 nanometri, questi saranno quantisticamente ‘intrappolati’ in un piano quasi-bidimensionale. In queste condizioni gli elettroni possono assumere solo valori energetici superiori a un valore minimo che, rispetto al valore minimo nel corrispondente materiale tridimensionale, cresce proporzionalmente a 1/L2. Si possono quindi ‘progettare’ i livelli energetici di un materiale e ottenere un determinato spettro di emissione, riducendone il suo spessore nell’intorno fra 10 e 100 nano-metri. Fabbricare materiali in maniera controllata e riproducibile con precisione di un piano atomico (tipicamente una frazione di nanometro) è possibile mediante tecniche di crescita epitassiale, che consentono di costruire materiali depositando su un substrato un piano atomico alla volta.
Le metodologie di fabbricazione si sono evolute enormemente negli ultimi dieci anni, e oggi è possibile fabbricare anche sistemi unidimensionali quali nanofili di germanio, silicio e di ossidi, che hanno applicazioni importantissime in settori come l’accumulo di idrogeno per produzione di energie, l’elettronica e la catalisi.
Nanotecnologie colloidali. – Parallelamente a questi sviluppi, intorno agli anni Ottanta il mondo della chimica cominciava a sviluppare delle metodologie bottom-up di tipo colloidale per la produzione di nanoparticelle la cui composizione, forma e dimensione potevano essere controllate a livello atomico. La produzione di nanostrutture colloidali avviene in un reattore in cui si crea una soluzione satura di molecole metallorganiche, che contengono atomi metallici, e di molecole tensioattive (simili ai saponi). Controllando la temperatura della soluzione e l’atmosfera in cui avviene la reazione, la soluzione crea un precipitato di particelle che si sono dissociate in seguito alla decomposizione termica delle molecole metallorganiche. I prodotti metallici della dissociazione nucleano delle particelle le cui superfici vengono in parte saturate dai legami con le molecole tensioattive. Questo fa sì che solo alcune forme e dimensioni delle particelle precipitate siano possibili, corrispondentementeai requisiti di minima energia libera sulla superficie. È possibile in questo modo sintetizzare nanoparticelle di forma, dimensione e composizione altamente controllate. La dimensione di tali particelle colloidali può essere variata da pochi nanometri a frazioni di micron: è pertanto possibile confinare gli elettroni e determinarne i livelli energetici in maniera continua semplicemente variando la dimensione della particella di uno stesso materiale. In analogia con quanto discusso nella sezione precedente, a diversi livelli energetici corrispondono diverse proprietà e funzionalità.
Questi materiali stanno rivoluzionando la scienza dei materiali. Nanoparticelle di ossidi inserite in matrici solide rendono le superfici superidrofobiche e quindi autopulenti. Particelle d’argento in strutture fibrose come carta o tessuti rendono il materiale antibatterico. Particelle metalliche o di ossido di ferro nei polimeri rendono la plasticaconduttiva oppure magnetica. È possibile cambiare le proprietà chimiche, fisiche o meccaniche di qualsiasi materiale drogandolo con le opportune nanoparticelle. Inoltre, molte nanoparticelle possono essere utilizzate come cromofori per la diagnostica biologica, come trasportatori di medicinali, come mezzi di contrasto nella diagnostica medica, come elementi per nanostrutturare le superfici dei contatti nelle celle a combustibile, come catalizzatori di reazioni chimiche, come coloranti dei vetri.
Un’altra grande area di applicazione delle nanoparticelle colloidali riguarda la formazione di inchiostri. Recentemente sono stati sviluppati metodi molto innovativi per trasferire direttamente gli inchiostri colloidali su una superficie mediante microscopiche penne. Questa classe di metodologie prende il nome di litografie dip-pen, e si basa su una delle tecnologie scanning probe simili al microscopio a forza atomica: sistemi motorizzati a tre assi x, y, z con motori piezoelettrici ad altissima precisione (posizionamenti con precisione nanometrica) che muovono una punta con un microugello collegato a un serbatoio di inchiostro che contiene molecole o nanoparticelle in quantità altamente controllata. L’inchiostro può essere costituito da copolimeri che tendono a legarsi selettivamente ad altri polimeri, in modo da creare un disegno autorganizzato sulla superficie di scrittura, oppure da fluidi che contengono nanostrutture in grado di orientarsi spontaneamente sulla superficie per effetto di specifiche interazioni di dipolo o chimiche: si realizzano così delle morfologie periodiche precise e riproducibili. È possibile costruire dispositivi e circuiti anche complessi con nanoparticelle diverse, persino con polimeri o molecole biologiche (proteine o sequenze di DNA).
Applicazioni a trasporti, energia e ambiente. – Le applicazioni delle n. al settore dei trasporti e dell’aerospazio sono numerose. L’obiettivo principale è quello di produrre materiali ultraleggeri con caratteristiche meccaniche migliori dei metalli, in modo da diminuire i consumi di carburante garantendo al tempo stesso la resistenza necessaria a sostenere gli stress cui è sottoposto il mezzo. I compositi in fibra di carbonio o fibre analoghe sono i materiali più largamente utilizzati. Per tali materiali lo sviluppo riguarda sia le matrici polimeriche in cui sono immerse le fibre, sia la loro composizione. Sono, per es., sviluppati processi chimici che permettono di immobilizzare nanoparticelle sulle fibre ( funzionalizzazione), in modo da conferire le proprietà chimico-fisiche desiderate al composito: conduttive, magnetiche, antibatteriche, idrofobiche e così via. È inoltre possibile fabbricare rivestimenti ad altissima resistenza termica per operazioni in ambienti ostili, o per il rinforzo strutturale dei materiali. Analogamente si stanno sviluppando nuove n. per la messa a punto di contatti elettrici nanostrutturati da utilizzarsi in batterie e celle a combustibile per migliorarne l’efficienza, o per applicazioni alla catalisi. In tutti questi casi un contatto planare viene sostituito con uno nanostrutturato. In questo modo, a parità di superficie macroscopica, si ottiene una superficie efficace totale (chimicamente reattiva) di gran lunga maggiore sfruttando l’esposizione di tutte le superfici laterali delle nanostrutture. Sempre dal punto di vista ambientale, ulteriori tecnologie in via di sviluppo riguardano: i processi di catalisi che utilizzano materiali cristallini con porosità sulla scala dei nanometri per catalisi ad alta efficienza (con applicazioni che spaziano dai catalizzatori delle automobili all’industria chimica); i nuovi materiali porosi per membrane selettive sulla scala di 10-100 nm (per applicazioni farmaceutiche, biologiche e alimentari); i nuovi materiali environment-friendly, plastiche biodegradabili, gomme per pneumatici, filtri, liquidi di raffreddamento e lubrificanti, polveri decontaminanti.
Applicazioni medico-sanitarie. – In anni recenti è stata forte la crescita nelle applicazioni delle n. alla medicina e alla salute dell’uomo. L’insieme di tali applicazioni oggi viene comunemente identificato con il termine nanomedicina. Questa comprende diverse metodologie che consentono di effettuare terapie mirate, controllare e misurare singoli eventi biologici, modificare su scala atomico-molecolare le biomolecole (per es., DNA o proteine), manipolare e modificare superfici, cellule e membrane, aprendo così la strada a: analisi e diagnosi estremamente precoce, al livello della singola molecola, senza attendere che una patologia cresca o si diffonda; terapie personalizzate, pensate per essere adattate al profilo genetico del paziente; rilascio selettivo di farmaci nelle singole cellule malate, senza effetti collaterali dovuti alla libera diffusione dei farmaci stessi nell’organismo; nuovi materiali artificiali e ingegneria tissutale e degli organi.
A questi settori di frontiera, di natura strettamente medica, vanno poi aggiunti alcuni sottoprodotti di altre n. che hanno forti ricadute sulla medicina. Fra questi devono essere menzionati: lo sviluppo di metodi di calcolo sempre più avanzati per applicazioni genomiche e proteomiche, e per la progettazione e la simulazione del meccanismo d’azione di nuove molecole medicinali; lo sviluppo della telemedicina, o medicina da remoto, in cui il paziente può essere tenuto sotto controllo medico, via Internet, nella sua casa, grazie alla crescita delle tecnologie informatiche e dei dispositivi sensori automatizzati; lo sviluppo di microchirurgia e protesi a prestazioni sempre più elevate favorito dalla rapidissima evoluzione della robotica e della inter-connessione nervo-cellula con sistemi elettronici artificiali; analisi ad altissima sensibilità per diagnostiche portatili (lab on chip) in grado di rilevare l’alterazione di parametri molecolari prima che se ne manifestino gli effetti patologici su scala macroscopica; tecniche di imaging ad altissima risoluzione in cui poche cellule malate, per es. oncologiche o degenerative, possono essere rilevate e identificate, grazie allo sviluppo di mezzi di contrasto sempre più efficaci (nanoparticelle cromogene o magnetiche in strutture cellulari per diagnostica in situ) e computer-grafica sempre più performante.
Benché ognuna di queste tecnologie rappresenti un campo di ricerca autonomo, esse possono essere ricondotte a due filoni principali: nanodiagnostica, ovvero lo sviluppo di diagnostiche ad altissima sensibilità, in grado di rivelare l’insorgenza di una patologia in modo precoce (per es., dalla comparsa della prima cellula tumorale); nanoterapia, ossia lo sviluppo di vettori molecolari che riconoscono le cellule malate e le attaccano selettivamente con il rilascio di medicinali (intelligent drug delivery). Spesso questi due filoni vengono integrati in modo da coniugare diagnostica precoce e terapia selettiva, dando luogo alla teranostica (da terapia più diagnostica), in cui un nanosistema è in grado di rivelare la patologia (diagnostica) e di agire farmacologicamente (terapia).
La nanodiagnostica richiede lo sviluppo di sensori per DNA, proteine, cellule, e altre molecole che siano robusti, a basso costo, senza alimentazione elettrica (o con alimentazione a batteria) e ad alta sensibilità, virtualmente capaci di rivelare, per es., una singola cellula cancerosa tra molti milioni. Si parla talvolta di point of care technology (tecnologie per il punto di cura) da portare dove c’è bisogno di cura o prevenzione, rovesciando quindi il paradigma per cui, in caso di sospetta malattia o contagio, sia il paziente a dover andare in un luogo di cura. In quest’ottica si sviluppano anche i laboratori su chip (lab on chip technology): veri e propri laboratori biologici grandi pochi centimetri quadrati in cui quantità infinitesime di biomolecole (o fluidi biologici) sono mischiate, trattate e movimentate per ottenere le reazioni necessarie alla rivelazione di determinate specie biochimiche. L’operazione dei lab on chip richiede micropompe e microvalvole per la movimentazione dei liquidi, e la presenza di reattori chimici miniaturizzati dove avvengono le reazioni chimiche su gocce di campione da analizzare con volumi inferiori al milionesimo di litro. Un lab on chip per analisi del DNA (DNA chip) consente di verificare la presenza di mutazioni genetiche con grande rapidità e precisione ed è quindi un dispositivo essenziale per la diagnosi precoce, per la genotipizzazione dei tumori, per la sicurezza in ambito alimentare e persino per le attività forensi.
Tecnologie di questo tipo trovano oggi crescenti applicazioni anche al di fuori della diagnostica medica e della genetica. Sono, per es., di grande interesse anche per la rivelazione di sofisticazione chimica, della presenza di droghe e di metalli pesanti nei cibi e nell’acqua.
Per quel che riguarda la nanoterapia, le tecnologie di intelligent drug delivery (rilascio mirato di medicinali) hanno l’obiettivo di realizzare ‘farmaci intelligenti’ costituiti da un trasportatore (carrier) che veicola un certo numero di molecole di interesse (il farmaco o un profarmaco) racchiuse in un contenitore chimico dotato di biomolecole sulla superficie capaci di riconoscere la cellula malata e di liberare solo in quella il principio attivo. Il nanosistema viene immesso nel flusso sanguigno del paziente in modo da poter circolare nel corpo e riconoscere biochimicamente la cellula target. Esso deve avere dimensioni totali dell’ordine di un centinaio di nanometri, per evitare di indurre una reazione dal sistema immunitario. La nanostruttura deve essere in grado di proteggere il farmaco durante il trasporto, penetrando se necessario le membrane cellulari, la barriera emato-encefalica ecc. e rilasciando in quantità controllata e direttamente nella cellula malata il medicinale.
In termini del tutto generali i componenti essenziali per l’intelligent drug delivery possono essere riassunti come segue: il carrier o vettore, la particella incaricata di trasportare il medicinale e le biomolecole in grado di riconoscere il dominio di interesse (i principali tipi di carrier sono liposomi, liposomi stabilizzati con polimeri o con nanostrutture diverse, carrier polimerici o peptidici, dendrimeri); il sistema di carico del medicinale, solitamente una rete di polimeri, o uno o più domini che assorbono e rilasciano il medicinale in presenza di specifici stimoli, come una variazione di temperatura o di pH, o una cavità naturale del carrier da riempire e svuotare; la funzionalizzazione biochimica del carrier e del sistema di carico, per far sì che il sistema di carico aderisca alla particella e che le biomolecole di riconoscimento aderiscano al sistema di carico in modo stabile e robusto visto che tutto il sistema deve muoversi per giorni nel sistema vivente e resistere finché non arriva a destinazione; il farmaco, che può essere una singola molecola o un cocktail di principi attivi o di sequenze geniche, da rilasciare nel tempo e nella giusta sequenza in modo da aggredire la malattia in maniera sistematica, esattamente come si farebbe con una terapia convenzionale, ma attaccando selettivamente le singole cellule malate o patogene.
Bibliografia: R. Cingolani, Il mondo è piccolo come un’arancia. Una discussione semplice sulle nanotecnologie, Milano 2014. Si veda inoltre: M.C. Roco, C.A. Mirkin, M.C. Hersam, Nanotechnology research direction for societal needs in 2020: retrospective and outlook, National nanotechnolgy initiative report, Washington (D.C.) 2010, http://www.nano.gov/node/948 (4 agosto 2015).