Rilevamento e interpretazione dei biosegnali
Lo sviluppo della conoscenza della fisiopatologia del corpo umano, si fonda sull'analisi di segni, nel significato estensivo di quantità numeriche, segnali o immagini, rilevati con dispositivi di misura sempre più affidabili proposti dalla tecnologia, la cui gamma è di enorme estensione, visto che si riferisce a ogni possibile segno, dal singolo dato relativo a grandezze bio-umorali, al battito percepito in modo intellegibile grazie allo stetoscopio, all'immagine tomografica affidabile rivelatrice di strutture (TAC). Così l'informazione associata alle misure, elaborata con vari metodi, manifesta strutture, forme, funzioni del corpo umano, e quindi permette di effettuare diagnosi, interventi e verifiche. In definitiva, l'analisi dei segni, in senso estensivo, costituisce parte rilevante dell'insieme ordinato di operazioni per rilevare, interpretare, modificare e organizzare l'informazione disponibile. In questo capitolo introduttivo verranno esposti in modo schematico alcuni metodi e tecniche per il rilevamento e l'interpretazione di segnali e immagini biomedici.
Si intende per sensore, per semplicità spesso globalmente inteso come sinonimo di trasduttore, un dispositivo capace di rilevare una o più grandezze fisico-chimiche, espressione del sistema di interesse, e di consentirne la misura. Esso in genere trasduce la grandezza rilevata dalla originale forma energetica (meccanica, chimica, termica ecc.) in un corrispondente segnale elettrico. Le grandezze elettriche sono infatti favorite, quanto a facilità di elaborazione, dalle risorse offerte da microelettronica e informatica. I sensori rappresentano un capitolo fondamentale nello studio del corpo in vivo, dato che costituiscono la sorgente di informazione primaria per ogni successivo intervento. Si possono distinguere due tipi di sensori: quelli adattati all'uso biomedico ma derivati da tecnologie tradizionali (sensori biomedici), e quelli originariamente concepiti per esclusivo uso biomedico, con tecnologia di almeno parziale derivazione biologica (biosensori). La vastità del campo di impiego dei sensori, la varietà dei principi impiegati, la rapidità dello sviluppo di nuove tecniche realizzative rendono arduo darne una esposizione unitaria e succinta. La fig. 4.6 propone uno schema che evidenzia i principali elementi costitutivi di un sensore biomedico. Il tipo di sensore è caratterizzato soprattutto dall'elemento sensibile (il recettore), nella figura rappresentato con il primo blocco.
1.
I sensori biomedici, in quanto derivati da applicazioni generali, richiedono un adattamento, in particolare del recettore, che li renda compatibili con la grandezza e con l'ambiente biologico cui sono destinati. Alcuni sensori vengono elencati nelle tabb. 4.1 e 4.2; moltissimi altri hanno un ruolo determinante nella caratterizzazione di fenomeni fisiopatologici, quali sensori meccanici, a misura diretta (pressione, respiro), oppure derivata indirettamente (portata circolatoria), o anche sensori chimici e ottici. Un'importante linea di sviluppo dei sensori biomedici è la loro miniaturizzazione. Un notevole risultato pratico in questo settore è, per es., la produzione di cartucce monouso quali elementi sensibili per analisi chimico-cliniche ex vivo. Apparecchiature progettate per usare tali componenti dovrebbero abbassare notevolmente i costi delle analisi e consentire di effettuarle nel luogo e nel momento più utile.
2.
I biosensori costituiscono un argomento di frontiera, che conta realizzazioni già disponibili accanto ad ambiziosi progetti di ricerca. In genere con biosensore si intende un dispositivo che impiega un materiale di origine biologica come elemento sensibile, immobilizzato in un sistema di trasduzione che converte la reazione biologica in un segnale misurabile. In tal modo diviene possibile l'osservazione diretta, in vivo e in tempo reale, di specifiche grandezze biochimiche primarie, che sarebbero altrimenti valutabili solo ex vivo e in tempo differito. Si consideri l'esempio dell'elettrodo potenziometrico a membrana biologica, capace di rivelare, in modo selettivo, l'attività di ioni, gas e diverse sostanze biologiche. Il principio usato è quello della biorivelazione tramite recettori biologici, costituiti da enzimi, microbi, anticorpi oppure da porzioni di tessuto.
Simile tecnologia sta consentendo, per es., la realizzazione di biosensori per l'analisi continua di grandezze che controllano funzioni vitali. Tra le prospettive di sviluppo in questo ambito si possono segnalare l'analisi continua dei gas ed elettroliti del sangue, il dosaggio ottimo dell'insulina, il controllo della profondità dell'anestesia, il controllo di dispositivi impiantabili.
A seconda che dominino gli aspetti assistenziali o quelli della ricerca fisiopatologica, l'analisi di segnali, immagini e altri dati è compiuta principalmente con due finalità: capire le condizioni del paziente e approfondire la conoscenza. La tab. 4.3 schematizza alcune tipiche condizioni di un generico soggetto associandole a possibili interventi, che implicano, in particolare, il ricorso a strumentazione diagnostica da segnale e/o da immagine.
La formazione di conoscenza implica l'esercizio di una capacità acquisita di interpretare segni (segnali e immagini), quali manifestazioni di fenomeni costituiti da funzioni, processi, sistemi. La strumentazione di ausilio all'analisi di quei segni contribuisce alla comprensione di quei fenomeni con un processo in due fasi principali: preparazione dell'informazione (o elaborazione) e ausilio alla sua interpretazione.
L'elaborazione è costituita da un insieme di metodi e tecniche piuttosto consolidate, che hanno lo scopo di evidenziare i segnali rimuovendo l'eventuale componente di rumore, e comprende filtraggio, analisi statistiche, teoria della rivelazione del segnale, analisi di serie temporali in frequenza e/o nel tempo, elaborazione ottima.
L'interpretazione è meno definibile tanto negli obiettivi, che possono avere livelli molto differenziati di complessità, quanto nei metodi che comprendono tecniche di visualizzazione, algoritmi per il trattamento di ben definiti casi, metodi di classificazione (statistici, logici, sintattici, neuronali), teoria della decisione, simulazioni con modelli matematici, sistemi esperti.
A un livello molto generale si possono distinguere i diversi metodi secondo il criterio con cui essi rappresentano la conoscenza della funzione, del processo e del sistema studiato. L'approccio algoritmico rappresenta la conoscenza in modo implicito, con procedure formate da sequenze rigide di regole da seguire; quello simbolico, tipicamente realizzato nei sistemi esperti, usa regole variamente strutturate per rappresentare la conoscenza euristica, senza vincoli di coerenza o monotonicità, essendo responsabilità dell'utente risolvere eventuali uscite contraddittorie; l'impostazione modellistica consiste in una rappresentazione attraverso equazioni che giustificano in modo quantitativo e generale le relazioni tra le variabili osservate; infine le reti neuronali artificiali (ANN, Artificial neural networks) simulano macroscopicamente alcune caratteristiche del cervello e in particolare il tipo di rappresentazione della conoscenza realizzato dalla topografia delle connessioni tra neuroni.
1.
I segnali biomedici, spesso individuati come temporali monodimensionali, ossia costituiti da un valore che varia nel tempo, sono molto numerosi e possono essere classificati in base alle caratteristiche fisiche del segnale. Le tabb. 4.4 e 4.5 riuniscono alcuni tra i segnali più comuni. È opportuno sottolineare che il valore delle grandezze riportato va inteso come riferimento approssimato. Le diverse grandezze attraverso le quali un fenomeno si manifesta, ovvero dalle quali un fenomeno può essere controllato, sono abitualmente trasdotte in segnali elettrici continui nel tempo, equivalenti alla grandezza originale per principi di analogia, largamente usati in ingegneria e nelle scienze sperimentali in genere. Di qui l'aggettivo analogico che in riferimento ai segnali viene spesso preferito a continuo.
Ormai da tempo non risulta né tecnicamente né economicamente conveniente realizzare strumenti per l'analisi di segnali analogici. Alcune regole formali, tra le quali è particolarmente importante il teorema di campionamento, fissano le condizioni con cui ottenere una fedele rappresentazione, discreta nel tempo e discretizzata in ampiezza, del segnale continuo originale. Tale operazione prende il nome di conversione analogico-digitale (A/D, fig. 4.7). L'aggettivo 'digitale' deriva dall'inglese digit, "cifra", è equivalente all'italiano 'numerico' e indica la nuova rappresentazione assunta dal segnale dopo la conversione A/D, consistente appunto in una sequenza di numeri.
2.
Una seconda categoria di segni, le immagini, a volte globalmente intese come segnali spaziali bidimensionali, hanno avuto nell'ultimo decennio un clamoroso sviluppo, anche nelle applicazioni cliniche di routine. L'affermazione di alcune tecniche di immagine ha talvolta prodotto impostazioni diagnostiche interamente nuove, arrivando a sostituire le corrispondenti analisi di segnale o di altri dati. Ma il successo riguarda tutte le principali tecniche di immagine: radiografico-numeriche, ecografiche, scintigrafiche, tomografiche in varie modalità (radiografica, a risonanza magnetica nucleare, scintigrafica a emissione di positroni e a emissione di singolo fotone).
Si consideri, come esempio particolarmente significativo, il caso della TAC (tomografia assiale computerizzata; fig. 4.8) che, brevettata nel 1974, valse nel 1979 ad A. Cormack e G.N. Hounsfield il premio Nobel per la Fisiologia o la Medicina. La tomografia, cioè la ricostruzione di un'immagine a partire da segnali tomografici, consente di costruire una funzione, denominata f(x,y), che associa un valore di attenuazione della radiazione X a un elemento della sezione del corpo da esaminare, scelta a partire da una opportuna sequenza di proiezioni raccolte da rivelatori di radiazioni X. Tale trasformazione proiezione-immagine, nota anche come teorema della sezione centrale, trova i presupposti teorici nei lavori di più ricercatori in un arco di circa 60 anni.
a) TAC a scansione parallela. La scansione parallela costituisce il principio di funzionamento dei primi modelli di tomografo assiale computerizzato (TAC). La f(x,y), in fig. 4.8 A rappresentata da un'ellisse, associa a ogni elemento di volume (voxel), proiettato con coordinate (x,y) sulla sezione, un valore di attenuazione imposto alla radiazione X dal mezzo attraversato. Tale valore può essere usato per accendere sullo schermo di un monitor il punto (pixel, o elemento di immagine) di coordinate (x,y) e intensità luminosa proporzionale all'attenuazione. Dunque la f(x,y), quando è nota, consente di rappresentare un'immagine della sezione su un monitor. Una generica radiazione X, appartenente a un fascio di raggi paralleli complanari (sezione tomografica), generati in rapida e uniforme sequenza, colpisce il rivelatore dopo aver attraversato il corpo. Completata la scansione parallela con l'angolo α, ne vengono eseguite altre con diversi valori dell'angolo sino a coprire 180 gradi (o π radianti). I diversi valori raccolti dai rivelatori costituiscono un profilo Pα(τ) che viene elaborato con opportune operazioni di filtraggio. Detta Qα(τ) la funzione ottenuta dal profilo, si risale alla f(x,y) con un calcolo del tipo: con τ = x ∈ cos α + y ∈ sen α.
b) TAC a scansione fan-beam (a raggiera). Nelle apparecchiature più recenti la scansione parallela è stata sostituita da quella a raggiera, che consente velocità di scansione molto maggiori, specie con l'attuale scansione elettronica. Questa, grazie alla mancanza di parti meccaniche in movimento, raggiunge tempi di 50 ms per scansione (immagine), contro i 4 minuti della scansione meccanica parallela e i 10 secondi di quella a raggiera meccanica (fig. 4.8 B).
c) PET (Positron emission tomography). Il principio descritto per la TAC può essere applicato ad altre forme di energia radiante, naturalmente adeguando il significato dell'attenuazione alle caratteristiche dell'interazione radiazione-corpo esplorato, di volta in volta diverse. Di particolare importanza è la tomografia da emissione di radiazione γ⁺, derivata da radioisotopi a vita breve, prodotti da ciclotrone (fig. 4.8 C).
3.
L'interpretazione dei segni (cioè di informazione espressa da segnali o immagini o altri dati) presuppone in genere una elaborazione preparatoria dell'informazione raccolta. Da un punto di vista clinico si può immaginare che l'interpretazione dei segni sia finalizzata ad affrontare le diverse possibili fasi con cui una malattia evolve, utilizzando la strumentazione individuata in tab. 4.6. Una prima fondamentale difficoltà è illustrata in fig. 4.9. La vera manifestazione della e spesso è inaccessibile e si dispone invece di u, segno accessibile che manifesta la funzione (o processo, o sistema) solo indirettamente. Il blocco indicato con E esprime il complesso delle fasi di elaborazione e interpretazione che portano ad approssimare la manifestazione vera voluta. In generale dunque il problema è quello di approssimare la trasformazione inversa di quella ignota che genera u. Il livello di conoscenza delle variabili in gioco suggerirà il metodo da usare tra quelli che sono stati citati sopra, introducendo il paragrafo Interpretazione del fenomeno. Una seconda difficoltà di ordine generale è posta dalla variabilità del significato dei segni misurati. Si possono distinguere cause oggettive di variabilità da cause soggettive. Tra le prime sono da annoverare la variabilità interindividuale del fenomeno da rilevare; la variabilità intraindividuale della misura rispetto al tempo, ma anche rispetto alla sede anatomica; la quota di variabilità apparente dovuta alla contaminazione da rumore e artefatti eterogenei. La causa soggettiva è dovuta alla discrezionalità dell'operatore nel fissare le condizioni di misura del segno, che possono influenzarne la qualità.
4.
Un generico sistema per l'analisi di segnali biomedici è riportato in fig. 4.10. L'elaborazione può avere livelli molto differenziati di complessità. A volte, specie quando interessa l'andamento in tempo reale dei fenomeni, può bastare, o ci si deve limitare a, una più o meno sofisticata visualizzazione del segnale, che costituisce l'unico ausilio fornito al medico per l'interpretazione. Le figg. 4.11-4.15 raccolgono qualche esempio di visualizzazione.
Si possono distinguere vari livelli di complessità e astrazione nella visualizzazione. Il più semplice consiste nella presentazione diretta dei valori della misura (fig. 4.11). Quando interessa valutare l'evoluzione della forma di un segnale è utile una presentazione pseudotridimensionale (fig. 4.12). Con fenomeni multicanale (cioè descritti da più segnali, o da più serie di parametri derivati da segnali), la presentazione diretta può risultare confusa. Si procede allora alla riduzione del numero di segnali, o di parametri, con trasformazioni che conservano una quantità di informazione sufficiente all'interpretazione.
Per es. la fig. 4.13 rappresenta una traiettoria che collega più stati nelle condizioni di un paziente in condizioni instabili durante ricovero in unità coronarica. La traiettoria, stilizzata nell'esempio, è calcolata nel piano definito da due componenti, ottenute per combinazione lineare dei parametri che descrivono le condizioni del paziente. I coefficienti della combinazione lineare si ottengono con tecniche classiche di analisi multivariata: sono usate frequentemente le componenti principali o trasformata discreta di Karhùnen e Loève.
La stessa esigenza è espressa dalla fig. 4.14, che si riferisce alla valutazione della dinamica della camminata su di apposita pedana. Si consideri una terna di assi di riferimento (x,y,z) e siano x la direzione del moto e (x,y) il piano della pedana. Il piede, appoggiandosi, esercita una sequenza di valori di pressione che, rilevati dai sensori della pedana, possono essere rappresentati con vettori che, applicati al piano (x,y), si succedono lungo la direzione x e ne esprimono la risultante istante per istante (o punto per punto). La successione delle proiezioni di tali vettori nel piano (x,z) costituisce una configurazione caratteristica delle condizioni del soggetto.
In molti casi tuttavia, per complessità o per quantità di dati, tale soluzione non è adeguata e si deve ricorrere a una più avanzata elaborazione. Questa consiste nella trasformazione del segnale in parametri che ne colgano le principali caratteristiche, a loro volta presentati al medico senza ulteriori interventi, ovvero sottoposti a un processo di interpretazione.
Tale situazione si presenta per es. nell'analisi delle prestazioni del sistema nervoso autonomo (SNA). Lo studio si compie nel dominio della frequenza durante sollecitazioni standardizzate. Nel caso della manovra di Valsalva (espirazione forzata a glottide chiusa che provoca un aumento della pressione intratoracica con riduzione del ritorno venoso al cuore), per es., si analizza la densità spettrale di potenza di un segnale sensibile all'attività di regolazione esercitata dal SNA (ritmo cardiaco o pressione arteriosa; cfr. fig. 4.15 A, B, C).
Finalmente l'interpretazione può limitarsi alla classificazione dei parametri o può comprendere il suggerimento di ipotesi diagnostiche o terapeutiche (ausilio alla decisione, signal understanding) o addirittura può consistere in un modello matematico che rappresenta il meccanismo patogenetico cercato, eventualmente in modo semplificato. Per classificazione si intende un processo di assegnazione di un evento, descritto da un insieme di parametri, a una classe attraverso una regola di decisione. Per interpretazione abitualmente si intende l'insieme delle seguenti funzioni: rappresentazione degli eventi in un opportuno spazio; definizione dello spazio dell'interpretazione; scelta e uso di criteri di associazione tra i due spazi (mapping).
Quando la conoscenza di un problema consente di considerare le classi come appartenenti allo spazio dell'interpretazione, questa coincide con la classificazione in quanto in tale caso l'associazione evento-classe implica l'assunzione del significato della classe da parte dell'evento. Abitualmente però l'appartenenza a una classe non è sufficiente a interpretare un evento.
Si consideri l'esempio di fig. 4.16: in 16 A è rappresentato un gruppo di pazienti nel piano delle prime due componenti principali: essi sono tutti affetti da ischemia miocardica e hanno anche una seconda malattia (valvulopatia, aritmia, ipertensione arteriosa). Si può qualitativamente apprezzare l'efficacia della rappresentazione nel piano, osservando la fig. 16 B. Questa impiega anche una terza componente nella rappresentazione degli elementi della classe più vicina all'origine: si noti che l'aggregazione non viene alterata, in quanto gli elementi rimangono distribuiti attorno al piano dell'ellisse che ne contiene le proiezioni.
Si può dire che la classificazione si occupa solo degli aspetti percettivi del problema, mentre l'interpretazione comprende aspetti cognitivi, attraverso la stima di opinioni, che possono rendere discriminabili anche quelle classi che non lo fossero in base ai soli aspetti percettivi. L'uomo È in grado di classificare effettuando un mapping opaco, senza cioè rendere necessariamente esplicite le modalità con cui prende decisioni. Un analizzatore deve evidentemente basarsi su di un mapping trasparente, costituito da regole esplicite (conoscenza), in mancanza delle quali l'interpretazione non è possibile.
Si distinguono diversi metodi di classificazione: statistico o bayesiano, euristico (cluster analysis), logico, fuzzy (basato sulla teoria dei fuzzy sets), sintattico-linguistico, neuronale. Quanto ai metodi di interpretazione, e più in generale di ausilio alla decisione, hanno trovato applicazione biomediche soprattutto metodi bayesiani, metodi basati su tecniche di intelligenza artificiale e modelli matematici. La fig. 4.17 raccoglie alcune applicazioni, ripartite tra le due principali categorie di segnali (determinati o correlati e aleatori o scorrelati).
5.
Anche l'interpretazione delle immagini può essere riferita allo schema illustrato per i segnali temporali monodimensionali di fig. 4.10, almeno a un livello elementare di analisi. L'analogia può essere instaurata attribuendo alla regione di interesse dell'immagine il ruolo di evento, cui estendere le considerazioni fatte sulla classificazione e sul signal understanding (image understanding).
Del resto anche la letteratura specialistica mette in evidenza un nuovo ruolo delle immagini sempre meno limitate alla presentazione di regioni anatomiche e oggetto invece di studi mirati a estrarre informazione con tecniche automatiche, che appunto ricordano lo schema di fig. 4.10.
Un esempio è costituito dall'imaging scintigrafico, che fornisce informazione sulla prestazione delle funzioni, processi, sistemi esaminati, piuttosto che sull'anatomia degli organi a essi corrispondenti. Le tecniche diagnostiche da segnale e quelle da immagine vanno verso una parziale unificazione, almeno per quanto riguarda alcuni aspetti metodologici: all'astrazione operata sull'immagine corrisponde quella operata sui segnali, i parametri ottenuti in entrambi i casi si prestano a visualizzazioni efficaci anche se prive della tradizionale immediatezza dell'immagine anatomica. Alcune delle figure 4.11-4.16, ottenute da segnali, rappresentano un esempio di quanto osservato.
A ulteriore conferma di tale estensione del modo di guardare alle immagini vanno ricordati gli studi sulla realizzazione di archivi di immagini, analizzate in modo automatico e correlate con segnali e altri dati contestuali, col fine di offrire al medico un insieme integrato di informazioni e così favorire la precisione e la tempestività della diagnosi.
Le affermazioni più evidenti delle tecniche diagnostiche d'immagine riguardano:
a) le diverse tecniche ecografiche; per es. l'ecocardiografia rappresenta ormai la tecnica di elezione per la diagnosi di varie affezioni cardiovascolari; essa da sola, o talvolta con la scintigrafia, ha vantaggiosamente sostituito l'elettrocardiografia, meno costosa ma anche meno sensibile e meno specifica nella rivelazione di certa patologia;
b) la radiografia numerica, o digitale; si osservi in fig. 4.18 il confronto tra le prestazioni delle diverse forme di radiografia, che coglie chiaramente, anche se qualitativamente, l'inferiorità della radiografia convenzionale attraverso l'andamento del contrasto percentuale rispetto al minimo dettaglio rilevabile, a una dose prefissata;
c) le diverse tecniche tomografiche; sono queste che probabilmente hanno caratterizzato, nelle varie modalità (TAC, RMN, PET, SPET), le tecniche diagnostiche dell'ultimo decennio; l'aumentata velocità della scansione tomografica ha reso accessibile la tomografia di organi in movimento (tipicamente della dinamica cardiaca);
d) le prestazioni grafiche e di calcolo degli attuali computer: congiuntamente alla velocità di scansione, stanno rendendo possibile la ricostruzione tridimensionale in tempo reale della regione anatomica esaminata, che rientra nelle tecniche dette di realtà virtuale. In neurochirurgia il chirurgo stesso opera con una sonda esploratrice che controlla la ricostruzione 3-D, garantendone la verosimiglianza. Questa può essere arricchita con la presentazione binoculare, trasformata da occhiali opportuni in visione stereoscopica;
e) tecniche di ottimizzazione numerica consentono di giustapporre, con approssimazioni dell'ordine di ±2-3mm, punti anatomici omologhi individuati su immagini prese con modalità diversa. Si possono così ottenere, per es., ricostruzioni 3-D di immagini che combinano la rappresentazione anatomica della RMN, con quella funzionale della PET. Questa integrazione può essere utile durante interventi in cui tessuti inerti, a bassa o nulla attività metabolica e quindi rimovibili, sono vicini, mascherandole, alle zone critiche su cui si deve intervenire.
Le immagini TAC hanno in particolare un ruolo vitale in pazienti con gravi traumi cranici. Esse rappresentano la tecnica diagnostica di elezione anche rispetto alla tecnica RMN poiché permettono una miglior documentazione della presenza di ematomi e di ferite alle ossa. Si ritiene ormai che le immagini radiologiche del cranio, tradizionali o numeriche, dopo trauma, siano inutili e costituiscano solo un ritardo al raggiungimento della diagnosi corretta.
6.
I modelli matematici hanno ruoli molteplici nella ricerca e nelle applicazioni biomediche. Anzitutto un ruolo culturale che accomuna la bioingegneria alle altre discipline scientifiche, in quanto la rappresentazione di funzioni, processi, sistemi biologici, attraverso relazioni quantitative, esprime una conoscenza costruita sulla generalizzazione di vari studi sperimentali, analogamente appunto a quanto accade in altre discipline. Del resto l'impostazione modellistica non pretende di dare risposta definitiva e completa alla rappresentazione di un fenomeno, ma ne fissa le condizioni al contorno, giustificando le relazioni tra i dati disponibili. C'è probabilmente ancora un divario tra l'imponente complesso teorico alla base delle tecniche modellistiche e il numero di problemi biomedici che esse hanno risolto, o comunque portato al livello della routine clinica.
Secondo alcuni autori la conoscenza biomedica ha una duplice natura, in parte contraddittoria: euristica in quanto funzioni, processi, sistemi biologici hanno spesso una espressione particolare per ogni individuo e rispondono oltreché a regole quantitative anche a sollecitazioni non quantificabili; scientifica in senso proprio in quanto altri funzioni, processi, sistemi biologici sono equivalenti in ogni individuo, e quindi ammettono una rappresentazione generale.
Altri autori hanno una visione evolutiva del problema, ritenendo da un lato che troppo spesso la conoscenza biomedica sia scarsa e mal espressa, dall'altro che la stessa applicazione di modelli, anche semplificati, indurrebbe a riflessioni critiche e a razionalizzazioni utili proprio per aumentare quella conoscenza. Dunque una maggior diffusione di questi strumenti nella ricerca biomedica ne promuoverebbe un uso sempre più sofisticato, in definitiva in grado di rappresentare qualunque sistema, in modo opportunamente generalizzato.
Risultati molto importanti sotto il profilo sia scientifico sia clinico sono stati ottenuti in vari campi: elettrofisiologico, metabolico, emodinamico, neurosensoriale. Alcune tipiche applicazioni dei modelli matematici in bioingegneria, possono essere così citate:
a) nella ricerca fisiopatologica, nel dare espressione quantitativa ai meccanismi fisiopatologici; esemplare il lavoro del fisiologo A.C. Guyton, che, col suo gruppo, all'inizio degli anni Sessanta, usò i modelli matematici per la rappresentazione del sistema cardiovascolare, costituendo i presupposti di diverse linee di ricerca; da ricordare i numerosi risultati ottenuti nel modellare l'attività elettrica a livello cellulare, la profonda conoscenza raggiunta nello studio dei processi metabolici grazie alla modellistica multicompartimentale, gli studi neurofisiologici del sistema visivo, uditivo e vestibolare, la modellistica nello studio del movimento e del coordinamento somatosensoriale;
b) nella diagnostica, nel consentire la stima del valore di grandezze non misurabili direttamente; tipico è l'esempio delle applicazioni cliniche dei modelli metabolici;
c) nella assistenza, con lo sviluppo di protesi sensoriali efficaci;
d) nella formulazione di criteri di ottimizzazione nella somministrazione di farmaci o di trattamenti terapeutici; tipici esempi di largo impiego sono offerti dall'infusione controllata di farmaci nella degenza postchirurgica e anche nel trattamento di malattie croniche che richiedono un adattamento del dosaggio, come il diabete;
e) nell'analisi dei segnali; va ricordato l'essenziale contributo metodologico della modellistica matematica in molti dei metodi di attuale interesse nell'analisi dei segnali, quali il filtraggio ottimo e quello adattativo, le stime spettrali parametriche, il problema della stima dei segnali (signal estimation).
7.
Non esiste una definizione generale e universalmente accreditata di che cosa sia o si debba intendere per intelligenza artificiale (IA), ma se ne danno diverse, in relazione a diversi possibili aspetti, quali il rapporto tra IA e intelligenza naturale (il grado di equivalenza in confronti diretti, di abilità o conoscenza), i temi affrontati (soluzione di problemi, visione, robotica, gioco degli scacchi ecc.), o il dominio disciplinare (ausili alla decisione in economia, medicina ecc.).
L'aspetto dell'interpretazione che qui interessa è da ricondursi alle tecniche di ausilio alla decisione che hanno seguito, nell'ambito della IA, due vie distinte: quella simbolica (realizzata nei sistemi esperti, o sistemi basati sulla conoscenza), e quella connessionista (realizzata nelle reti neuronali artificiali). Le due vie, in concorrenza per due decenni, stanno trovando, in prospettiva, alcuni punti di convergenza nei metodi di acquisizione della conoscenza, punto di debolezza dei metodi simbolici che vanno istruiti da esperti nel campo, punto di forza di quelli connessionisti che utilizzano metodi di autoapprendimento.
a) Sistemi esperti. I sistemi esperti costituiscono una categoria di programmi per computer che possono analizzare, diagnosticare, consigliare, formulare previsioni e spiegazioni, imparare e assistere nell'addestramento, in problemi specialistici che abitualmente si ritiene possano essere affrontati da persone esperte.
Uno degli aspetti più interessanti e originali dei sistemi esperti è dato dalla struttura, costituita da componenti separate (fig. 4.19): i fatti riguardanti il singolo caso che coinvolgono, in parte o in toto, le regole (la conoscenza) del sistema esperto; un dispositivo logico, il motore o meccanismo inferenziale, che elabora le regole applicate ai fatti ottenendo uno o più risultati plausibili; un'interfaccia grafica che consente all'utente di usare con facilità il sistema e di verificare il percorso logico compiuto dal sistema esperto nel fornire i risultati (suggerimenti e spiegazioni).
Si consideri il seguente semplice esempio:
Fatti:
Rossi ha una pressione intraoculare elevata
Rossi ha avuto problemi cardiaci
Rossi ha dolore nel quadrante sinistro
Rossi è un forte fumatore
Bianchi soffre d'asma
Bianchi ha una pressione intraoculare elevata
Regole:
Regola 1: if x è soggetto a rischio, and x ha avuto problemi cardiaci, then somministrare Digitale
Regola 2: if x ha dolore nel quadrante sinistro, and x è iperteso, then x è soggetto a rischio
Regola 3: if x ha la pressione intraoculare elevata, then x è iperteso
Il motore inferenziale sceglie le regole applicabili e conclude con il suggerimento di trattare Rossi con Digitale (un fatto, il fumo, non viene considerato, visto che manca una regola con quella condizione come antecedente), mentre i fatti di Bianchi non portano a decisioni immediate. Si osservi che la struttura consente anche di rispondere alla richiesta (query) di motivare le conclusioni semplicemente dichiarando quali regole sono risultate vere nel percorso tra i fatti e il suggerimento.
Attorno a questa struttura semplificata sono state introdotte negli anni considerevoli varianti, in particolare nei metodi di rappresentazione della conoscenza, di trattamento della incertezza e di tutela dalla propagazione degli errori. Nonostante il successo conseguito in molti settori, permangono impedimenti non lievi a limitare la diffusione dei sistemi esperti. Tra questi si segnala il fatto che l'acquisizione di conoscenza dall'esperto è un problema complesso; la realizzazione di un sistema esperto richiede competenze sofisticate e un impegno di vari anni; la sua complessità spesso implica lentezza di funzionamento; e infine la manutenzione e l'aggiornamento sono complessi. In alcuni settori si è stimato che l'introduzione di sistemi esperti, benché eccellenti nelle prestazioni, non reca benefici di rilievo, dati tempi e costi da dedicare. Negli ultimi anni tuttavia è emerso un paradigma di ragionamento, noto come Case based reasoning (CBR), che sembra poter attenuare i problemi accennati.
La tecnica CBR consiste essenzialmente nell'estendere a nuovi casi criteri di analisi già applicati con successo a casi simili. La rappresentazione della conoscenza quindi non richiede un modello prestabilito come i tradizionali sistemi esperti, ma avviene per incrementi, derivati dai casi trattati. Questo processo, detto ciclo CBR, è realizzato dalle seguenti operazioni: cerca il caso passato più simile a quello presente; prova a estendere al caso attuale la soluzione impiegata nel precedente; ritocca la soluzione, se opportuno; conserva la nuova soluzione, in quanto diversa, come parte del caso. Questo ciclo opera prevedendo l'interazione con un esperto, specie nelle fasi iniziali. Da questo punto di vista CBR può essere inteso come un metodo per acquisire conoscenza da un esperto in modo spontaneo, senza costringerlo a dare una versione sistematica e formale del suo sapere.
b) Reti neuronali. Le reti neuronali artificiali (o neurali, ANN) sono attualmente intese come strutture capaci di svolgere funzioni computazionali, in modo distribuito e parallelo. In tal senso si distinguono dal tradizionale computer, strutturalmente concepito per calcolo concentrato e sequenziale, che opera con programmi su liste di simboli. Le ANN invece procedono trasformando i dati all'ingresso in base a coefficienti che corrispondono alle connessioni tra unità elementari di calcolo, i neuroni artificiali, collegati in una rete. Il valore dei coefficienti viene appreso in una fase di addestramento, concepito in modo da condizionare la rete a riprodurre la corrispondenza tra certi valori degli ingressi e i desiderati valori delle uscite.
La fig. 4.20 A, B consente un confronto tra una rete di neuroni artificiali e una di neuroni naturali. Non è lecito spingere l'analogia molto oltre per almeno due ordini di ragioni. Da un lato per la quantità enorme di neuroni di cui dispone il nostro sistema nervoso (1011), lontana dal poter essere eguagliata dalle ANN, e anche per la diversità tra il singolo neurone artificiale e quello naturale; d'altra parte la scarsa conoscenza del cervello, anche di sue funzioni fondamentali, non consente che grossolane simulazioni del suo comportamento.
In particolare non è chiarita la questione, essenziale per una emulazione della attività cerebrale, se e quando ci sia corrispondenza biunivoca tra sede anatomica e funzione svolta in contrapposizione con l'ipotesi di un comportamento sinergico del cervello nei confronti delle funzioni svolte. I problemi accennati interessano in particolare sotto il profilo delle neuroscienze, mentre non condizionano la ricerca nei diversi settori di sviluppo delle ANN in sé. Benché siano numerose le loro applicazioni anche in campo biomedico, risulta prematuro un bilancio di pregi e limiti. È forse utile ricordare una importante qualità delle ANN che ne motiva l'uso nei problemi di classificazione (interpretazione): l'apprendimento nelle ANN, basato su un numero limitato per quanto grande di esempi, realizza una generalizzazione, un'astrazione, che conferisce alla rete addestrata una particolare robustezza delle prestazioni nell'analizzare casi nuovi.
Lo sviluppo della tecnica delle comunicazioni e dei mezzi di calcolo ha stimolato un'evoluzione della struttura e delle finalità dei Sistemi informativi ospedalieri (SIO).
Le prime realizzazioni di SIO erano costituite da costosi sistemi di calcolo, in posizione centrale, usati da terminali dislocati nei diversi punti di utenza. Successivamente sono risultate più convenienti soluzioni basate sulla distribuzione delle risorse di calcolo utilizzando gli standard di comunicazione in rete locale (LAN, Local area network), in analogia a quanto realizzato in aree di applicazione per alcuni aspetti non dissimili, quali l'automazione d'ufficio o l'automazione di fabbrica. Tali soluzioni hanno introdotto vari vantaggi. Esse consentono di distribuire le risorse in quantità e qualità commisurate alle esigenze di ogni specifica applicazione; di strutturare in modo gerarchico le diverse aree (reparti, servizi, ambulatori ecc.) in cui un intero SIO si articola; di utilizzare gli standard di comunicazione raccomandati dai diversi enti internazionali. In definitiva esse pongono le basi tecniche per una standardizzazione che permetterà la comunicazione tra SIO dislocati in diverse località, promuovendo la collaborazione in attività assistenziali, in indagini epidemiologiche e in genere in attività che richiedono una dimensione multicentrica.
Le LAN, viste come strutture componenti un SIO, possono essere suddivise in due principali categorie. Si distinguono LAN specializzate nel gestire una specifica funzione, che si possono chiamare omogenee, da LAN capaci di gestire diverse sorgenti di informazione, che si possono chiamare eterogenee.
Tra le prime si possono ricordare reti che connettono strumenti di un solo tipo (per es. per elettrocardiografia diagnostica o per ecocardiografia) oppure reti per la raccolta manuale dei dati (per es. per la cartella clinica), fino alle complesse reti per la gestione delle immagini (PACS, Picture archiving and communication systems).
Il secondo tipo di LAN è progettato per gestire un reparto nel suo insieme, integrando funzioni, ambienti, strumenti che concorrono alla gestione unitaria delle condizioni di un paziente. Infine è opportuno ribadire il ruolo degli standard. I più significativi SIO esistenti non sono trasferibili, poiché realizzati con soluzioni pesantemente condizionate da scelte locali.
1.
Le finalità di un SIO si vanno progressivamente arricchendo. Dalla considerazione di obiettivi essenzialmente amministrativi, che caratterizzavano i primi sistemi, si sta passando a considerare obiettivi più sofisticati, capaci di fornire strumenti di ausilio alla gestione del paziente, alla organizzazione di reparti e servizi, alla razionalizzazione dell'impiego della strumentazione. Questi obiettivi si possono conseguire attraverso l'integrazione di dati, segnali, immagini assicurata da una LAN, che raccolga informazioni da più laboratori diagnostici e dalla stessa corsia, per renderle disponibili a una cartella clinica di nuova concezione, intesa come strumento di interazione con la rete, in tempo reale.
Un esempio di integrazione di un reparto di cardiologia è illustrato dalla fig. 4.21, dove una LAN principale, capace di integrare dati eterogeni nell'archivio, collega varie LAN omogenee e alcune apparecchiature locali. LAN omogenee sono usate per razionalizzare le più importanti attività diagnostiche, spesso effettuate con più apparecchiature dello stesso tipo. È questo il caso dell'ecocardiografia, del laboratorio di emodinamica, dell'unità di cura coronarica. La LAN principale, eterogenea, inoltre collega le attività cliniche del reparto all'amministrazione, facilitando il calcolo per unità di costo degli interventi.
2.
La cartella clinica è spesso considerata limitata al ruolo, pur importantissimo, di contenitore di documenti, raccolti nel corso della degenza di una persona, per dare oggettiva evidenza alle sue condizioni di salute, e così facilitare al medico, di volta in volta responsabile, il raggiungimento di una decisione sugli interventi da effettuare.
Si comprende come tale ruolo concentri nella cartella clinica grande interesse da parte delle persone che la usano, che l'hanno conformata alle loro esigenze e che possono ritenere indispensabile una gestione diretta del documento, e quindi manuale, per assicurarne l'affidabilità. D'altra parte le esperienze relative documentano che la gestione automatica di dati e documenti clinici è non solo tecnicamente possibile, ma anche vantaggiosa. In particolare ha trovato notevole interesse un aspetto della human engineering, chiamato Human computer interaction (HCI), che studia le modalità di interazione dell'utente con le procedure computazionali. È interessante il lavoro di sintesi svolto, tra gli altri, dal Medical record institute, che propone delle definizioni di cartella clinica, tenendo conto della sua evoluzione nell'arco degli anni, con particolare riferimento al livello di automazione articolato su una scala di 5 livelli (tab. 4.7).