Qualità e costi degli oggetti di uso quotidiano
Non più portafoglio, banconote e spiccioli, ma il cellulare come borsellino elettronico; non più macchie sui vestiti grazie a nuovi tessuti con nanosuperfici trattate al plasma; non più obsolete lampadine contro il buio, ma led e lampade a basso consumo; non più ingombranti guide e mappe per viaggiare, ma piccoli navigatori GPS (Global Positioning System) dalle funzionalità evolute; non più singole foto dei propri cari nel portaritratti, ma sequenze di immagini in cornici digitali; non più file e carrelli al supermercato, ma il frigorifero ‘intelligente’ che si rifornisce da solo ordinando direttamente quanto manca. E nel futuro c’è chi prevede «un unico oggetto nomade universale per servire contemporaneamente da telefono, agenda, computer, lettore di musica, televisore, libretto degli assegni, carta di identità, mazzo di chiavi» (Attali 2006, trad. it. 2007, p. 106).
Un profondo cambiamento ha investito le nostre abitudini innovando e sostituendo la maggior parte degli oggetti di uso quotidiano. Nuovi materiali, nuovi processi produttivi e soprattutto l’impiego massiccio dei sistemi di elaborazione elettronica hanno rivoluzionato consuetudini e modi di vita consolidati. Il computer, chiave di volta del passaggio al nuovo millennio, ha moltiplicato le prestazioni, velocizzato l’uso, ridotto i costi. Componente essenziale di ogni genere di strumentazione, è diventato pervasivo, ubiquo, spesso invisibile. Gli oggetti più comuni che accompagnano la vita di tutti i giorni, a casa, sul lavoro, nel tempo libero cambiano forma, dimensioni, potenzialità, nascondono al loro interno microchip, sensori e trasmettitori. Il web diventa un elettrodomestico; al posto della penna nel taschino, silicio e software; le chiavi di casa sostituite da un battito di ciglia.
L’homo sapiens si è trasformato in homo technologicus, sedotto e condizionato da mille gadget elettronici. Ha visto la sua mobilità crescere, lo spazio vitale dilatarsi, la capacità di interazione moltiplicarsi, secondo un processo evolutivo che assorbe risorse crescenti. I singoli prezzi tendono a calare, ma la spesa complessiva continua a salire. Solo in Italia per l’acquisto di prodotti elettronici sono stati superati, nel 2007, i 16 miliardi di euro, più dell’1% del PIL.
Il cellulare tuttofare
È al primo posto nella classifica degli oggetti personali più comuni, l’unico apparecchio tecnologico davvero universale sul pianeta, lo strumento che ci segue ovunque e che ha surclassato tutti gli altri. È l’innovazione che ha trasformato la vita di metà dell’umanità in meno di un ventennio. Il telefono cellulare ha materializzato il sogno di sempre, avere il mondo a portata di voce, le informazioni che ci servono a portata di mano.
Arrivato negli anni Ottanta (la prima telefonata nel 1973 a New York, da un ingegnere della Motorola al suo concorrente dei Bell Laboratories, con un cellulare che pesava 1 kg e 130 g e non aveva display), ha avuto subito un impatto straordinario, miliardi di pezzi venduti in pochi anni. Gli abitanti di grandi aree come la Cina e l’India o di continenti come l’Africa, privi di efficienti servizi telefonici per gli elevati costi di impianto delle reti fisse, hanno potuto fare un balzo nella modernità grazie alle meno costose reti di telefonia mobile. I numeri sono significativi: nel 2008 gli utenti nel mondo hanno superato i quattro miliardi (il maggior numero in Cina con oltre 500 milioni) e l’incremento prosegue a ritmi crescenti; in Italia la crescita è stata vertiginosa, ai primi posti in Europa, quinta nel mondo. Nello stesso anno, con oltre 82 milioni di linee mobili attive, è stata raggiunta una densità di 150 telefonini per 100 abitanti (nel 1996 erano 11 su 100).
Le ragioni della massiccia diffusione sono più di una. Il telefono cellulare è un formidabile strumento di comunicazione diretta e indiretta attraverso voce e messaggi scritti, ma è anche molto di più. Si è evoluto, ha acquisito nuove funzioni, è diventato il terminale di più attività quotidiane, ha assorbito compiti propri di altri strumenti. Alle prime indicazioni, l’ora, la data, la sveglia, l’elenco degli appuntamenti, si sono aggiunti servizi come l’ascolto della musica preferita la possibilità di scattare foto, riprendere video, orientarsi per trovare la strada e l’indirizzo giusti, vedere film e programmi televisivi, navigare in Internet, leggere e gestire la propria posta elettronica, pagare il conto del supermercato, acquistare il biglietto dell’autobus o del cinema, trasferire somme di denaro. Ha assunto forme e dimensioni per tutti i gusti (dal più piccolo, identico a un orologio da polso, ai più ingombranti smartphone) e per tutte le tasche (da parecchie centinaia di euro, ai modelli supereconomici da 20-30 euro). Tutto è avvenuto in pochi anni e l’evoluzione prosegue a ritmi crescenti.
Un instancabile mutante
I telefonini di prima generazione (1G), i TACS (Total Access Communication System) degli anni Ottanta, hanno fatto decollare il servizio (in Italia dal 1990), ma impiegavano una tecnologia analogica che ne limitava l’uso al solo ambito nazionale, non disponevano di servizi aggiuntivi ed erano facilmente clonabili. Hanno cessato di funzionare il 31 dicembre 2005. I telefonini di seconda generazione (2G), i GSM (Global System for Mobile communications), a tecnologia digitale, hanno rappresentato un punto di svolta consentendo la moltiplicazione delle chiamate, l’utilizzo anche in altri Paesi e continenti serviti da reti GSM, lo schermo a colori, la fotocamera digitale incorporata e soprattutto la possibilità di inviare messaggi scritti, gli SMS (Short Message Service). Questi (non più di 160 caratteri a 7 bit), introdotti nel 1993, hanno raggiunto volumi di traffico impensabili: nel 2007 ne sono stati inviati 2ooo miliardi in tutto il mondo, 30 miliardi solo in Italia. Sono diventati il modo standard di comunicare, soprattutto tra i giovani, per i costi minimi (ma alle compagnie telefoniche rendono oltre 60 miliardi di dollari l’anno) e per la comodità d’uso, tanto da dar vita a un lessico alternativo (‘C6?’ al posto di ‘ci sei?’, ‘4U’ per ‘for you’ eccetera) e a una sorta di linguaggio dei segni, gli emoticons (contrazione dei due termini emotion e icons) con i quali esprimere sentimenti e stati d’animo mediante l’uso di segni della punteggiatura, parentesi, trattini e altri simboli della tastiera. Utilizzando uno specifico programma (Stealthtext) si possono anche inviare SMS che si autodistruggono dopo pochi secondi (circa 40) dalla ricezione. Gli SMS si sono rivelati preziosi per finalità sociali e di servizio: allarme alle popolazioni in caso di calamità, segnalazioni di maltempo, avvisi per ricordare le scadenze elettorali eccetera.
Con l’introduzione di uno standard più evoluto, il GPRS (General Packet Radio Service, di 2,5G) agli SMS sono stati affiancati gli MMS, messaggi multimediali per musica, foto e video.
Nel 2003, è stato compiuto un ulteriore passo in avanti con l’UMTS (Universal Mobile Telecommunications System), cellulari di terza generazione (3G). Con i nuovi apparecchi arriva la videochiamata per ascoltare e vedere chi ci parla. Si può navigare su Internet e vedere la televisione, film, spettacoli, avvenimenti sportivi. I display si sono ingranditi e con la tecnologia DVB-H (Digital Video Broadcasting-Handled) il segnale televisivo arriva veloce e di alta qualità. Entro il 2010 sono previsti in Europa 25 milioni di telefonini equipaggiati con il DVBH, 5 milioni solo in Italia. Il punto critico sono le tariffe: i costi sono bassi per le videotelefonate, ma ancora alti per seguire le trasmissioni televisive.
Tuttavia l’evoluzione della telefonia cellulare non si è fermata all’UMTS, in quanto è diventata operativa una nuova tecnologia (3,5G), la HSDPA (High Speed Downlink Packet Access), in grado di comprimere i dati e sfruttare al limite l’UMTS così da garantire una velocità di connessione di 14,4 Mbit per secondo (contro i 2 Mbit/s dell’UMTS , i 140,8 Kbit/s del GPRS e i 14,4 Kbit/s del GSM). Le reti HSDPA servono già alcune centinaia di milioni di utenti nel mondo.
Il passo successivo, la quarta generazione (4G), è il traguardo dei 100 e più Mbit/s (in movimento, 1 Gbit da fermo) obiettivo del LTE (Long Term Evolution), che garantirà la vera banda mobile, vale a dire la piena e totale possibilità al telefonino di navigare sul web senza intoppi e senza ritardi (solo 90 secondi per scaricare un intero film) e smaltire l’enorme mole di dati trasmessi (a fine 2007 il traffico dati via cellulare era già pari a due volte e mezzo la voce). La tecnologia LTE è di fatto un’evoluzione degli standard GSM/UMTS, ma necessita di una copertura dedicata, quindi di una nuova rete aggiuntiva a quella dell’UMTS. Utilizza una tecnica di trasmissione radio più avanzata, l’OFDM (Orthogonal Frequency-Division Multiplexing), la stessa del sistema WiMax (Worldwide interoperability for Microwave access), la nuova rete wireless in radiofrequenza per la connessione a Internet ad alta velocità, ad ampia copertura territoriale (50 km di raggio per antenna), che consentirà di superare i limiti posti dalle reti fisse e offrire banda larga a case e uffici dove non arriva l’ADSL. L’entrata in servizio del nuovo standard LTE è prevista per il 2010-2012.
Il borsellino elettronico
Se con gli ultimi modelli telefonare è diventata un’attività quasi residuale, che si affianca alle altre molteplici funzioni, l’utilizzo più dirompente per le abitudini quotidiane è la trasformazione del telefonino in portafoglio virtuale: invece del contante o della carta di credito, il cellulare potrà essere utilizzato per fare acquisti, pagare le bollette, ricevere o accreditare somme di denaro. Il sistema è pronto per l’impiego e sono già state avviate le prime applicazioni utilizzando lo standard NFC (Near Field Communication), uno sviluppo della tecnologia RFID (Radio Frequency IDentification) di connessione wireless a corto raggio (pochi centimetri). Tale tecnologia consente l’identificazione automatica di oggetti basata sulla lettura di un tag, una particolare etichetta contenente un chip e una minuscola antenna. Passando a breve distanza da un lettore RFID il tag si attiva (attraverso l’onda radio emessa dal lettore) e ritrasmette i dati che identificano l’oggetto. Si tratta del sistema più evoluto per la logistica e la movimentazione delle merci, per controllare l’accesso e la presenza delle persone (i passaporti di nuovo tipo contengono un tag RFID), per il tracciamento delle pratiche negli uffici, per evitare le code ai supermercati (si passa davanti alla cassa senza svuotare il carrello e il conto della spesa è già fatto). Nei cellulari l’applicazione NFC consente il trasferimento di dati e quindi della cifra di denaro da un terminale (il telefonino) a un altro: basta avvicinare il cellulare alla cassa del supermercato, alla macchinetta dei biglietti dell’autobus, all’entrata del cinema (dotati di pos con lettori NFC) o a un altro telefonino (con un sistema peer to peer) per trasferire la somma di denaro, dare la paghetta ai figli, rimborsare un amico, e così via. Il tutto in modo protetto. La difficoltà, che rallenta la piena entrata in funzione del servizio, è data dalla complessità dell’interconnessione tra le diverse banche e i singoli operatori, ma i vantaggi sono evidenti. L’uso del contante è costoso. Secondo stime dell’ABI (Associazione Bancaria Italiana) contarlo, trasportarlo e custodirlo costa intorno ai 10 miliardi di euro l’anno, un quinto dei costi di gestione del contante di tutta Europa: 50 miliardi. La diffusione della moneta di plastica (carte di credito, carte prepagate, bancomat) è stata straordinaria (più in Europa che in Italia, dove il 90% dei pagamenti avviene ancora per contanti) ma non tale da incidere in modo drastico sulla circolazione di monetine e banconote. L’impiego della tecnologia NFC potrebbe effettivamente virtualizzare la moneta, ridurre il denaro, non come sistema di pagamento, né come ricchezza, ma come contante. Applicazioni di tale tecnologia sono state avviate in Giappone, dove operano gestori che già offrono il servizio e, sperimentalmente, in alcune città francesi e austriache.
Il sistema si adatta bene anche ad altri usi, come, per es., sostituire i documenti di identità, le fidelity card, i biglietti per l’aereo o il treno, i pass per varcare cancelli elettronici eccetera. A fronte di tante funzioni il vero rischio è l’attacco di panico in caso di smarrimento, di furto o di guasto dell’apparecchio, ma esiste già pronto il rimedio: il telefonino smarrito può essere localizzato e disattivato.
Meno fisso più mobile
Alla crescita tecnologica degli apparecchi, si accompagna anche un netto riallineamento delle strategie dei grandi operatori di settore, costruttori di cellulari, produttori di software, gestori di motori di ricerca.
La nuova frontiera è la convergenza fisso-mobile, con la trasformazione del cellulare in un terminale multifunzione, in un pc da tasca in grado di assicurare in mobilità gli stessi servizi della rete fissa e, attraverso specifici sistemi operativi (Symbian, Windows Mobile, Android), accedere a tutto il mondo Internet. Anche la struttura dei costi va rapidamente mutando: a fronte di un traffico dati in forte espansione, i prezzi delle chiamate in voce sono declinanti e tendono allo zero anche per effetto del ricorso crescente al VOIP (Voice Over Internet Protocol) per telefonare in modo semigratuito via Internet (Skype, il software più noto, in cinque anni ha totalizzato oltre 100 miliardi di minuti di chiamate gratis). La salvaguardia dei bilanci delle compagnie passa per il web e per la sua capacità di generare profitti attraverso la pubblicità. Alcuni gestori hanno pensato di proporre chiamate gratis contro l’autorizzazione a ricevere spot pubblicitari. Nel 2012, nella sola Europa sono previsti 120 milioni di utenti di Internet mobile che useranno il telefonino per orientarsi, leggere la posta, fare ricerche o acquisti, socializzare, condividere foto, video, musica. In prospettiva «tutti si troveranno in una situazione di ubiquità nomade, le infrastrutture digitali permetteranno alla collettività di gestire meglio la sicurezza urbana, l’intasamento nei trasporti e la prevenzione delle catastrofi» (Attali 2007, p. 105).
Nomadi via satellite
Oggetto essenziale per il moderno nomade è il navigatore satellitare, strumento che ha conosciuto in pochissimi anni uno straordinario successo. Usato all’inizio per scopi professionali, si è rapidamente diffuso prima come accessorio per le auto, poi come terminale portatile indipendente. Lo sviluppo successivo è stato l’abbinamento con il telefono cellulare, il ‘navifonino’, oggetto di un vero e proprio boom di vendite. Il navigatore sfrutta la tecnologia GPS (Glob-al Positioning System), sistema di posizionamento a copertura continua creato dagli Stati Uniti attraverso l’impiego di 30 satelliti ruotanti su più orbite a 20 km di distanza dalla Terra. Nato a scopi militari, il GPS è stato esteso anche all’impiego civile, degradandone però la precisione. All’inizio, nel 1991, con un’approssimazione di 100-150 m, poi dal 2000 riducendone la fascia di oscillazione a 10-20 metri. Anche la Russia ha un suo sistema di posizionamento satellitare, il GLONASS (GLObal NAvigation Satellite System) con 24 satelliti, ed è prossimo (dal 2012) quello europeo, il Galileo, che si avvarrà di circa 30 satelliti. Il sistema di rilevazione satellitare ha rivoluzionato una delle difficoltà maggiori da quando l’uomo ha iniziato a muoversi sul territorio: conoscere all’istante la propria posizione. Spostarsi e non solo nei grandi spazi, mare, deserto, foreste, ma sulle strade normali, in auto o a piedi in città è diventato facile e alla portata di tutti. Anche i prezzi si sono allineati, dalle migliaia di euro dei primi esemplari alle poche o pochissime centinaia dei modelli attuali. Con un grande successo di vendite, oltre 12 milioni di pezzi venduti nel 2007 in Europa, con un trend in forte crescita. Impiegato in auto, il GPS consente di uscire dal proprio garage e avere subito le giuste indicazioni sulle strade da percorrere, urbane, extraurbane e autostrade, per giungere a destinazione. Usato a piedi, il navigatore o il navifonino è in grado di posizionarsi automaticamente e orientare la mappa sul display, grazie a un apposito software, esattamente nella direzione in cui si sta guardando. Le mappe visibili nel display, coadiuvate se necessario da indicazioni vocali, possono essere quelle di singole città o di più regioni di vari Paesi; si acquistano e si caricano nel navigatore. Negli ultimi modelli sono disponibili anche mappe in formato 3D per una visualizzazione più realistica del percorso. Grazie ai servizi LBS (Location Based Services), il GPS può fornire informazioni specifiche sulla zona in cui ci si trova, come ristoranti, alberghi, luoghi da visitare, musei, farmacie e così via. Il terminale diventa una sorta di geoconsulente. L’abbinamento cellulare-GPS offre anche una particolarità in più, ovvero l’individuazione attraverso la cellula della rete di telefonia mobile del satellite a cui agganciarsi. Si supera in questo modo il lasso di tempo che il terminale GPS impiegherebbe dal momento dell’accensione per cercare autonomamente il satellite giusto. Il sistema, denominato A-GPS, permette anche di risparmiare hardware ed energia, utilizzando meno chip e componenti elettronici e un minor consumo della batteria di alimentazione.
Dai megaschermi alla IPTV
È obsoleto, ma l’oggetto che in cinquant’anni ha consentito a miliardi di persone di allargare giorno per giorno il proprio sguardo sul mondo, il televisore a tubo catodico CRT (Cathode Ray Tube), è non solo il più diffuso, ma continua a essere il più prodotto, anche se negli Stati Uniti e in Europa sta rapidamente uscendo di scena. Gli schermi piatti a cristalli liquidi LCD (Liquid Crystal Display) e al plasma, che hanno trasformato l’ingombrante televisore in un quadro da appendere al muro, si sono affermati soprattutto nei mercati più sviluppati raggiungendo in pochi anni due difficili traguardi, prezzi in calo e dimensioni sempre più grandi. I più economici, gli schermi a cristalli liquidi, diffusi soprattutto nei formati piccoli, garantiscono ora una buona qualità anche nelle dimensioni medio-grandi, fino a 35-40 pollici. La tecnologia del plasma, più costosa, è applicata ai grandi formati, ai quali assicura brillantezza e saturazione dei colori. Le dimensioni tendono a crescere sulla spinta della televisione e dei lettori DVD (Digital Versatile Disc) ad alta definizione, HD (High Definition). La differenza di qualità nell’immagine (la definizione è quattro volte superiore) è tuttavia apprezzabile solo con apparecchi da 40 pollici in su. I modelli normalmente in produzione arrivano al massimo a superare di poco i 100 pollici, ma è stato presentato dalla Panasonic anche un superschermo al plasma da 150 pollici, in grado di offrire un’area di visione effettiva di 3 m e 30 cm di base per 1 m e 87 cm di altezza con una risoluzione straordinaria, 8,84 milioni di pixel. Il passaggio successivo sarà l’affermazione degli OLED (Organic Light Emitting Diode), materiali organici semiconduttori luminescenti, in grado di emettere luce propria. Applicati su lastre di vetro o su pellicole, gli OLED consentono di ottenere ampie superfici luminose e di realizzare display caratterizzati da colori molto brillanti, ottimo contrasto e basso consumo. Sono destinati a soppiantare gli schermi a cristalli liquidi e al plasma perché vantano un’ottima definizione visiva e una migliore efficienza energetica. Televisori OLED sono già in commercio e i programmi dei principali costruttori prevedono cospicui investimenti in questo settore per una produzione in larga scala.
Ai progressi compiuti sulla tecnologia degli apparecchi fa riscontro il moltiplicarsi dell’offerta delle piattaforme televisive. L’accettazione sempre meno passiva di quanto offre la televisione tradizionale e la richiesta di contenuti differenti e personalizzati ha favorito lo sviluppo, accanto a quella classica, della televisione satellitare, del digitale terrestre e della IPTV (Internet Protocol Television), la televisione via Internet. Quest’ultima appare quella tecnologicamente più interessante perché consente di avere su un solo schermo tutte le combinazioni possibili eliminando antenne e parabole. Il televisore riceve gli stessi contenuti che si possono acquisire con il satellite o con il digitale terrestre, nonché tutti i video, brani musicali e film accessibili via Internet, attraverso un decoder digitale connesso, tramite modem WiFi (Wireless Fidel-ity), con il computer collegato via cavo telefonico, in banda larga con l’ADSL (Asymmetric Digital Subscriver Line), a Internet. Un telecomando permette quindi di scegliere tra le differenti opzioni, il tutto ovviamente in alta definizione.
Ubiquità del computer
Come altri oggetti della quotidianità, così significativi da segnare un punto di svolta, si parla di un prima e di un dopo computer e di un prima e di un dopo Internet. La fusione dei due ha dilatato potenzialità e conoscenze esaltando le capacità di lavoro, di svago, di social network a livelli impensabili solo pochi anni fa. Un abitante su tre al mondo dispone di un computer e i numeri sono in costante progresso. In Italia usano il pc e si collegano on-line oltre 24 milioni di persone (il doppio rispetto al 2000). In sette anni il tempo passato davanti allo schermo è aumentato di sei volte. Nel 2006 sono stati generati, immagazzinati e scambiati in tutto il mondo dati per 161 Ebyte, ovvero 161.000 miliardi di Mbyte, pari anche a 161 miliardi di miliardi di caratteri. Per valutare l’enormità della cifra basti pensare che alcuni ricercatori della Berkeley University of California hanno stimato che 5 Ebyte equivalgono al contenuto di 37.000 biblioteche come quella del Congresso degli Stati Uniti, dove sono raccolti 17 milioni di libri. Nonostante l’evidente capacità della rete di assorbire volumi siffatti, non manca chi teme ripercussioni sul web, non tanto di un crollo, quanto di un rallentamento a livelli inaccettabili dell’impiego. Per ora solo timori, senza seguito. È destinato, invece, a un notevole sviluppo il web 2.0, espressione usata per la prima volta nel 2004, definito come seconda generazione del web, un grande spazio virtuale ospitato da Internet, in cui ognuno può dire la sua, creare e condividere contenuti. Non più, come nel web 1 solamente circolazione e lettura di pagine collegate tra loro, di visualizzazione di testi ipertestuali, ma una sorta di immensa agorà per contattare e conoscere persone, sviluppare relazioni di amicizia, scambiare opinioni e informazioni, condividere video, brani musicali, immagini.
Analogo progresso investe anche la stessa struttura tecnologica del pc. Al miglioramento delle prestazioni e della facilità d’uso fa seguito un netto spostamento delle preferenze. Diminuisce la domanda dei pc da scrivania, i desktops, e aumenta quella dei portatili, i laptops o notebooks con componenti miniaturizzati e ottimizzati per consumare meno energia, usabili ovunque, alimentati da batterie a lunga durata e predisposti al WiFi, la connessione a reti locali e quindi a Internet, ottenuta utilizzando punti radio (hotspots) disseminati nei luoghi di maggior traffico come aeroporti, stazioni, centri commerciali. Aumentano anche i collegamenti in mobilità attraverso le Internet keys o le speciali SIM (Subscriver Identity Module) card (la scheda del telefonino) UMTS o HSDPA da inserire nella presa USB (Universal Serial Bus) o in un apposito slot del proprio pc portatile per navigare in ogni situazione come con l’ADSL di casa, facendo a meno della rete fissa o degli hotspots. Il sistema si sta rapidamente affermando anche per effetto delle politiche commerciali praticate dai gestori telefonici, che tendono a spostare una quota consistente delle utenze dal fisso al mobile con riduzione delle tariffe per la connettività wireless a banda larga. Un secondo passo avanti è l’evoluzione funzionale dei portatili di nuova generazione, più leggeri, più compatti e dotati di schermo intelligente multitouch (il Macbook Air della Apple che riprende la tecnologia del cellulare iPhone e del lettore di musica digitale iPod touch), dove è sufficiente sfiorare con le dita lo schermo per attivare gli stessi comandi del mouse e della tastiera.
Un aspetto non meno rilevante nel futuro dei portatili sono i costi. La corsa verso tecnologie e dotazioni avanzate si ripercuote sui prezzi rendendo arduo l’uso di mezzi informatici ad ampie fasce di popolazione, soprattutto nei Paesi a basso tasso di sviluppo. Parallelamente alla tendenza a rendere i laptops ipertecnologici (telai in fibra di carbonio, blocco con sensore per impronta digitale, schermi ad alta definizione, moltiplicazione delle funzioni) alcuni produttori hanno puntato su una nuova famiglia di pc dalle dimensioni ridotte, i netbooks dall’architettura semplificata con grafica a bassa risoluzione, schermi più piccoli, sistemi operativi open source e programmi gratuiti, dalle buone prestazioni complessive, venduti a prezzi sensibilmente inferiori rispetto ai più evoluti notebooks.
Ad aprire la via dei low cost è il modello di laptop XO voluto da Nicholas Negroponte del MIT (Massachusetts Institute of Technology) Media Lab da destinare ai bambini dei Paesi del Terzo mondo, per abbattere il digital divide, il divario digitale e informativo che penalizza gli abitanti delle regioni meno sviluppate. Il pc da 100 dollari (così nelle intenzioni, in realtà il doppio) è robusto, a basso consumo, con un linguaggio semplificato, utilizza un sistema operativo open source gratuito ed è ricaricabile mediante un generatore a manovella per essere usato anche dove non c’è l’elettricità. Ma l’impiego dei sistemi di elaborazione elettronica non si limita al pc, in quanto la tecnologia informatica si va estendendo a mille oggetti quotidiani. Diventa invisibile, pervasiva, si trasforma nell’ubiquitous computing teorizzato dagli statunitensi Mark Weiser e Adam Greenfield, per i quali dopo l’epoca dei grandi elaboratori, i mainframes, che occupavano intere stanze, e quella dei pc, è iniziata la terza era del computing, dove il processo informatico è diffuso nella vita di ognuno e sparisce virtualmente dalla vista. Contrariamente a quanto avviene con il pc, dove il singolo utilizza consapevolmente lo strumento per uno scopo specifico, nel mondo dell’ubiquitous computing molti più dispositivi e sistemi sono impiegati simultaneamente nell’ambito delle normali attività, senza che, necessariamente, chi li usa ne sia consapevole. Il sistema uomo-macchina diventa più naturale, la tecnologia impercettibile, allineata alle nostre abitudini. Il computer diventa un tranquillo, invisibile servitore. Con un rischio, tuttavia, la contrazione della privacy, la sfera privata, posta sotto stretta osservazione dalle tante microelaborazioni della nostra attività che confluiscono nelle più disparate banche dati. La pubblicità, per es., potrebbe diventare martellante, pervasiva anch’essa, raggiungerci ovunque con offerte personalizzate sulla base dei nostri gusti, dei nostri interessi, mirata al momento e al luogo in cui ci troviamo.
La casa intelligente
Porte che si aprono da sole, luci che si accendono al passaggio, elettrodomestici a gestione automatizzata. Il futuro della quotidianità passa per la casa, per i suoi contenuti e per la sua organizzazione. Molto di questo futuro è già attualità con un vincolo di fondo, l’emergenza energetica e la salvaguardia dell’ambiente che rendono superate le vecchie abitudini e impongono la ricerca di strumenti più efficienti anche nello stretto ambito domestico. A soluzioni radicali, come quelle della ‘casa passiva’ ideata da Bo Adamson della svedese Lund University e dal tedesco Wolfgang Feist (la somma del calore apportato dall’irraggiamento solare o generato all’interno dall’uso degli elettrodomestici e dagli occupanti stessi deve poter compensare, attraverso opportuni sistemi di coibentazione delle pareti e di ventilazione interna, i consumi quotidiani e le perdite strutturali dell’abitazione durante la stagione fredda), fa riscontro da parte dell’industria un’intensa attività di ricerca, progettazione e produzione dei sistemi di isolamento, dei materiali e degli impianti a basso impatto ambientale, con emissioni ridotte e consumi ottimizzati.
Vivere la propria casa è diventata una esperienza diversa. In pochi anni prassi quotidiane consolidate hanno ceduto il passo a nuovi standard, dove qualità della vita e ricerca di un maggior comfort sono strettamente correlate alle esigenze del risparmio e dell’ecosostenibilità. Molte attività tradizionalmente esterne sono entrate in casa (dall’intrattenimento alla fitness), mentre gli elettrodomestici, non più solo supporto alle incombenze domestiche, si sono evoluti, consumano meno e sono in grado di svolgere autonomamente diverse funzioni secondo le necessità del momento. L’automazione domestica, la cosidetta domotica, abbandonato l’iniziale approccio sperimentale, diventa parte integrante nella costruzione di nuove abitazioni e nella ristrutturazione di quelle esistenti. Elettronica e informatica consentono un più efficace coordinamento della gestione dei sistemi e degli impianti, ne realizzano un controllo intelligente, rendono più agevoli le attività all’interno dell’abitazione, ne aumentano la sicurezza, dialogano a distanza con i servizi di assistenza e soccorso.
Non più schiere di interruttori e comandi manuali, ma un’unità di elaborazione centrale che attraverso pannelli touch screen, telecomandi, tastiere, comandi vocali governa facilmente da remoto i singoli apparati (luci, elettrodomestici, climatizzazione, multimedialità, allarmi antintrusione), ne programma i cicli di funzionamento, effettua la telediagnostica manutentiva e, se necessario, consente interventi mirati, dal controllo delle scorte in frigo all’invio diretto delle ordinazioni al supermercato, dalla gestione del riscaldamento in base alle presenze, all’accensione della lavatrice dall’ufficio (via telefonino e Internet).
Gli spazi vengono ridefiniti così che arredi e dotazioni tecniche devono tener conto delle nuove esigenze. Le sistemazioni sono più flessibili, dimensionate sui cambiamenti fisici e temporali di chi vi abita. Per molti servizi di base si punta all’integrazione tra più abitazioni, o tra più edifici, per gestire globalmente attraverso modalità IP (Internet Protocol) su reti locali LAN (Local Area Network) l’insieme dei sistemi e degli impianti. Con applicazioni particolari, come nel campo della sicurezza e del controllo degli accessi. Il processo coinvolge anche l’oggetto simbolo della sicurezza domestica, le chiavi di casa; al posto delle tradizionali serrature è previsto qualcosa di più efficace, il dito che diventa chiave. L’apertura della porta è vincolata da un sistema di blocco disinseribile solo dietro riconoscimento delle impronte digitali di chi deve entrare. Il sistema, già largamente usato negli aeroporti per il controllo dei viaggiatori (ma introdotto a difesa della privacy anche in alcuni modelli di pc portatili e di telefonini) garantisce un altissimo fattore di sicurezza, perché a differenza delle chiavi non si può duplicare, elimina supporti soggetti a usura o a rottura, dà la certezza dell’accesso. La lettura delle impronte digitali rientra nel campo più vasto dei sistemi biometrici, che permettono l’identificazione di una persona attraverso varie caratteristiche somatiche come la geometria della mano, il timbro della voce, la lettura dell’iride (il raggio laser di uno scanner sul muro legge l’occhio, riconosce la persona, apre la porta). La tutela della sicurezza incide anche su un altro oggetto del tutto immateriale, ma indispensabile nella complessità del mondo d’oggi, la password, o meglio le password. Telefonino, carte di credito, bancomat, posta elettronica, tessere varie. Difficile ricordarle tutte o, troppo rischioso e facile per l’eventuale malintenzionato, averne una sola per tutti gli usi. Le soluzioni (ma restano in ogni caso aperti problemi legati alla interoperabilità e alla tutela della privacy) passano attraverso sistemi che consentono di nascondere sul web e rendere anonimi i dati, oppure attraverso l’introduzione di carte d’identità digitali gestite da un unico ente terzo al quale attingere durante la navigazione su Internet.
Il nodo energia
Rispetto al passato, anche recente, gli oggetti di uso quotidiano hanno qualcosa in più, contengono una maggior quantità di energia. Più energia per produrli e più energia per il loro impiego. L’evoluzione tecnica, la maggiore complessità costruttiva mirata alla semplificazione e facilità d’uso, la necessità di diversificare la produzione per soddisfare un più ampio ventaglio di preferenze e di gusti dei consumatori hanno reso la componente energetica una costante della maggior parte degli strumenti piccoli e grandi delle attività quotidiane. Nello stesso tempo proprio la crescita dei consumi energetici ha stimolato la ricerca verso forme di risparmio e verso soluzioni anche individuali di produzione. Centrale in questo campo è il ruolo della casa: dal riscaldamento, all’illuminazione, al funzionamento degli apparecchi domestici, le abitazioni incidono per un terzo sul bilancio energetico nazionale. Il ricorso a sistemi alternativi o ad apparecchiature a maggior efficienza energetica diventa indispensabile per ridimensionare la bolletta e ridurre le emissioni di gas a effetto serra. A livello di singole utenze non mancano le risposte su come ridurre il costo dell’energia nell’uso quotidiano attraverso il ricorso a fonti alternative. Pannelli solari e mini impianti fotovoltaici sono due delle soluzioni più comuni, incentivate anche da sgravi fiscali e benefici statali.
I pannelli solari si propongono come scelta più conveniente per abbattere la spesa per la produzione di acqua calda per usi domestici. Facili da installare e di costo contenuto (da 1500 a 3000 euro), utilizzano tecnologie semplici (i raggi solari scaldano un liquido all’interno del pannello, che cede calore all’acqua posta in un serbatoio di accumulo) o poco più complesse (pannelli a tubi sottovuoto per aumentarne l’efficienza), hanno un buon rendimento (prossimo all’80%), sono abbastanza diffusi.
Gli impianti fotovoltaici (che sfruttano le proprietà chimico-fisiche dei materiali semiconduttori per trasformare la radiazione solare in elettricità) risultano invece ancora abbastanza costosi (intorno ai 55oo-6000 euro per kW di potenza), occupano spazio (per un impianto da 3 kW occorre una superficie di 20-25 m2) e hanno un rendimento che oscilla intorno al 17%: un impianto da 1 kW produce dai 1000 a 1500 kWh l’anno (il consumo medio di una famiglia italiana oscilla intorno ai 3000 kWh l’anno), ed è composto da più pannelli ognuno dei quali raggruppa più moduli formati da un insieme di celle fotovoltaiche. Nei piccoli impianti il modulo standard più comune contiene 36 celle di silicio cristallino, copre una superficie di 0,5 m2 ed eroga circa 50 W (per disporre di una potenza di 3 kW sono necessari 60 moduli). La corrente è di tipo continuo (CC) e va convertita in corrente alternata (AC) attraverso l’inverter, un apposito dispositivo, per poter alimentare le normali apparecchiature domestiche. L’impianto non funziona di notte e se serve energia occorre una batteria di accumulatori o l’allaccio alla rete esterna di distribuzione dell’elettricità. Gli impianti fotovoltaici hanno iniziato a diffondersi in Italia a partire dal 2005 con l’emanazione dei decreti di incentivazione, che hanno dato attuazione alla direttiva europea del 2001 sulle fonti d’energia rinnovabili. Attraverso l’istituzione del ‘conto energia’, chi costruisce un impianto fotovoltaico connesso alla rete esterna (grid connected) e di potenza non inferiore a 1 kW riceve un sussidio rapportato ai kWh prodotti. Il sistema consente di ammortizzare il capitale investito in 8-12 anni contro una durata dell’impianto più lunga, 20-25 anni. In Italia il fotovoltaico ha raggiunto a fine 2008, i 435 MW di potenza con oltre 34.000 impianti, una cifra che la pone al terzo posto in Europa, dopo Spagna e Germania. Il fotovoltaico resta conveniente se incentivato; senza sostegno economico l’elevato costo degli impianti e i bassi rendimenti non ne favoriscono la diffusione. La ricerca continua per individuare nuovi materiali in grado di garantire una maggiore resa energetica. Particolarmente promettente appare l’impiego delle nanotecnologie per realizzare speciali rivestimenti plastici in grado di convertire tutta l’irradiazione solare, compreso l’infrarosso, in elettricità.
Energie alternative a parte, attualmente il contenimento della bolletta energetica si ottiene soprattutto attraverso un maggior risparmio nei consumi. Gli elettrodomestici di nuova generazione intendono rispondere a questo obiettivo. Cucine, frigoriferi, congelatori, lavatrici, lavastoviglie, condizionatori di classe A, A+, A++, ognuno contraddistinto da un’apposita etichetta energetica, risultano più costosi rispetto agli apparecchi di vecchia concezione, ma assicurano mediamente consumi inferiori del 30%. I modelli più evoluti incorporano sistemi a tecnologia digitale e funzionano come macchine intelligenti in grado di comunicare tra loro e verso le reti di telecomunicazione per la teleassistenza. Microcomputer e sensori assicurano la corretta gestione dei consumi eliminando i rischi di black-out domestici o attivando la macchina solo nelle ore in cui le tariffe elettriche sono più basse. Le informazioni tra un apparecchio e l’altro e verso l’esterno viaggiano sulla rete elettrica di casa attraverso modem a onde convogliate, senza speciali cavi di collegamento. Ogni elettrodomestico memorizza il funzionamento continuo in modo da rendere più rapido ed efficace un eventuale intervento. A fianco degli elettrodomestici tradizionali si sono sviluppati negli ultimi anni altri apparecchi, che, grazie a tecnologie avanzate e all’introduzione dell’elettronica, hanno contribuito a dare risposte nuove a vecchi bisogni: le cucine a induzione elettromagnetica, i forni a microonde, le caldaie a condensazione, le stufe a pellet.
Le cucine a induzione offrono rapidità nei tempi di cottura e conseguente risparmio di energia. Rispetto a una piastra elettrica che ha un rendimento del 47% (40% quella a gas) il sistema a induzione raggiunge il 90%. Il funzionamento è semplice: sotto al piano di cottura (in vetroceramica), sul quale viene posto il recipiente con il cibo da cuocere, è alloggiato un induttore elettrico (un avvolgimento di filo conduttore intorno a un nucleo di ferrite) che produce un campo magnetico a media frequenza. Il campo genera sul fondo della pentola delle correnti parassite (correnti di Foucault) che si trasformano in energia calorica di cottura, con notevoli vantaggi. Infatti si riducono sensibilmente i tempi; il calore è costante e omogeneo e non fa attaccare i cibi al recipiente; si evitano le scottature accidentali perché il piano di lavoro circostante il fondo della pentola resta freddo; infine, per spegnere il sistema basta alzare la pentola e non ci sono fiamme libere. Di contro è necessario usare pentole apposite a fondo piatto in acciaio o in materiali ferromagnetici (non di alluminio, di vetro o di terracotta), con una circonferenza che deve corrispondere alle dimensioni della piastra di cottura. I prezzi sono sensibilmente più alti rispetto ai fornelli tradizionali.
I forni a microonde hanno una storia più lunga, essendo nati alla fine degli anni Quaranta del 20° secolo. Mentre in alcuni Paesi, dopo le difficoltà iniziali, hanno avuto grande successo (negli Stati Uniti lo utilizzano 95 famiglie su 100), in altri (e in particolare in Italia) la diffidenza suscitata dalla specifica tecnologia e dai timori di rischi per la salute ne hanno frenato la diffusione. Solo negli ultimi anni, anche per i costanti progressi nella qualità e nella sicurezza degli apparecchi, sono diventati di uso più comune. I forni a microonde nascono dall’intuizione di un tecnico statunitense, Percy Spencer, specializzato nella costruzione dei magnetron, generatori di microonde utilizzati negli apparati radar, il quale scoprì casualmente le potenzialità delle microonde nel riscaldare alimenti. Il sistema fu brevettato e furono avviate le prime rudimentali produzioni, affinate anni dopo. Il funzionamento è basato sulla capacità delle onde elettromagnetiche emesse dal magnetron di scaldare l’acqua e in misura minore i grassi e i carboidrati, contenuti nei cibi. La vibrazione indotta dalle microonde nelle molecole dell’acqua genera calore e dà luogo alla cottura. Il forno a microonde offre soprattutto il grande vantaggio della rapidità. Si presta molto bene per i surgelati, scongelati e cotti in pochi minuti. Cuoce gli alimenti direttamente nel piatto evitando pentole e pulizia delle stesse. Anche se non tutte le pietanze si adattano a questo particolare tipo di cottura (arrosti, torte, uova) l’uso delle microonde comporta meno sali e grassi e una maggiore salvaguardia delle qualità organolettiche e nutrizionali dei cibi.
Le caldaie a condensazione costituiscono la risposta più attuale in termini di efficienza energetica e di contenimento delle emissioni soprattutto per i piccoli impianti di riscaldamento familiari. Offrono la tecnologia più avanzata disponibile sul mercato e assicurano i rendimenti maggiori. Sono state introdotte sui mercati dell’Europa del Nord a partire dalla seconda metà degli anni Novanta e si sono progressivamente diffuse anche in Italia perché la loro installazione è stata incentivata da sgravi fiscali. Sono dette a condensazione perché sfruttano il calore del vapore acqueo, contenuto nei fumi prodotti dalla combustione, per accrescere la capacità calorica. Contrariamente a quanto avviene nelle caldaie tradizionali, dove i fumi vengono espulsi alle alte temperature raggiunte, nella caldaia a condensazione le emissioni della combustione passano attraverso uno speciale scambiatore, all’interno del quale il vapore acqueo contenuto nei gas condensa, cedendo il calore latente all’acqua del circuito primario. I fumi che hanno perso calore vengono espulsi a una temperatura di 40-50 °C contro i 120-160 °C dei generatori tradizionali. A parità di energia fornita, la caldaia a condensazione consuma meno combustibile, poiché recupera dal vapore acqueo contenuto nei gas di scarico il 16-17% di energia. Si riducono anche le emissioni di monossido di carbonio e di ossidi di azoto con un abbattimento fino al 70%.
Le stufe a pellet, invece, rappresentano la riedizione moderna delle vecchie stufe a legna, rese attuali dall’introduzione di tecnologie innovative e dall’impiego di un particolare combustibile ecologico, il pellet. Risultano molto efficaci nel riscaldamento domestico soprattutto per la convenienza economica e la semplicità d’installazione. Il pellet è ricavato dagli scarti di legna vergine essiccata, di fatto dalla segatura, pressata in forma di piccoli cilindri di 5-8 mm di diametro, resi compatti dalla capacità legante della lignina contenuta nel legno. È un prodotto naturale senza aggiunta di sostanze chimiche, con emissioni di CO2 nulle, perché compensate dall’anidride carbonica assorbita dalle piante per produrre la stessa quantità di pellet, e, per effetto della pressatura, ha un po-tere calorifico doppio, a parità di volume, rispetto al legno. Brucia integralmente, ad alta temperatura, producendo pochi residui e costa sensibilmente meno per calore prodotto, rispetto ad altri combustibili come il GPL (Gas di Petrolio Liquefatto), il gasolio o il metano. Le stufe, a gestione elettronica, hanno sistemi di alimentazione automatica che attingono direttamente da serbatoi con più giorni di autonomia. Nate in Canada, la stufe a pellet si sono rapidamente diffuse in Europa. In Italia hanno beneficiato di uno straordinario successo con più di 400.000 unità installate. Di fatto, costituiscono un’applicazione, a livello individuale, dei sistemi alternativi per la produzione di energia. Su scala più grande il maggiore esempio al mondo di impiego delle biomasse sarà la grande centrale da 350 MW, progettata in Galles, alimentata esclusivamente da trucioli di legno.
Si spegne la lampadina arriva il LED
Oggetto quotidiano per eccellenza, la lampadina ha segnato l’avvio della modernità. Illuminando per oltre un secolo abitazioni, strade ed edifici pubblici ha dilatato le giornate, ha trasformato la notte in giorno, ha cambiato il modo di vivere: il suo ciclo di vita, però, è ormai avviato a conclusione. La sua progressiva sostituzione con nuove fonti di illuminazione a risparmio energetico (l’illuminazione artificiale rappresenta il 19% del consumo elettrico mondiale) ne determinerà progressivamente, ma in tempi brevi, la scomparsa. In Italia, dal 2011 la tradizionale lampadina a incandescenza non sarà più in vendita, a favore delle più efficienti CFL (Compact Fluorescent Lamp). Versioni in formato ridotto dei tubi fluorescenti, le CFL sono composte da un piccolo tubo di vetro ripiegato, rivestito nella superficie interna di materiale fluorescente, collegato a due elettrodi e contenente una piccola quantità di gas (neon) e di mercurio. L’accensione ionizza il gas che vaporizza il mercurio, i vapori del quale emettono raggi ultravioletti assorbiti dalla superficie fluorescente del tubo che diventa luminoso. Sono lampade a risparmio d’energia perché consumano circa l’80% in meno di elettricità, convertono in luce il 25% dell’energia contro il 5% delle lampadine a incandescenza, durano di più (10.000 ore contro 1000). Rispetto ai primi esemplari offrono migliori prestazioni e non c’è più lo sfarfallio tipico dei tubi fluorescenti, mentre il ritardo nel tempo di accensione si è notevolmente ridotto e azzerato nelle versioni più evolute. L’emissione luminosa è più naturale e offre più varianti (luce ‘fredda’ o luce ‘calda’).
Ma anche le lampade a fluorescenza rappresentano una tappa intermedia. Il futuro è nel LED (Ligth Emitting Diode), piccola sorgente luminosa costituita da un dispositivo semiconduttore che emette luce al passaggio della corrente elettrica attraverso una giunzione di silicio opportunamente trattato. I primi LED, solo di colore rosso, sono stati soprattutto utilizzati come spie luminose negli apparecchi elettronici. Successivamente sono stati realizzati LED in grado di emettere luce di vari colori e dalla loro combinazione (rosso, verde e blu) luce bianca. Nel campo degli apparecchi da illuminazione i LED offrono significativi vantaggi per la durata (un faretto, infatti, fornisce luce per 50-100.000 ore) e per l’alto rendimento (una lampada con 3 LED da 2 W ciascuno illumina quanto una lampadina a incandescenza da 50 W). Sono piccoli e lasciano ampi margini di libertà nel design delle lampade, soprattutto da tavolo. Per i normali usi sono disponibili bulbi contenenti più LED con l’attacco a vite standard per essere inseriti nei portalampade convenzionali. Consentono un forte effetto spot. Non temono umidità e vibrazioni, qualità che, abbinate all’alta emissione luminosa e alla maggiore rapidità nell’accensione, li rendono particolarmente apprezzati dai produttori di auto. Molti dei più recenti modelli di vetture sportive o di alta gamma montano LED al posto delle tradizionali luci di posizione e di segnalazione.
Le seduzioni del design
Gli oggetti hanno sempre costituito un sistema di riferimento a più livelli. A un aspetto funzionale, di stretta utilità, hanno spesso abbinato un valore simbolico di connotazione sociale. Nel mondo d’oggi parametri tradizionali, come la preziosità, la rarità, l’originalità sono stati affiancati e sostituiti dallo studio della forma, dal design assurto al ruolo di elemento autonomo di apprezzabilità dell’oggetto. Il design è diventato il lato qualificante e insostituibile, la componente strategica del destino di un prodotto in grado di condizionarne a ogni livello il successo. La sfida è rendere l’oggetto amichevole, tangibile, in grado di colpire i sensi, di suscitare emozioni. Industrial designers e tecnologi sono impegnati a trasformare oggetti comuni, giunti a noi modellati da abitudini secolari e tradizioni popolari, in prodotti nuovi, tecnologicamente evoluti, simili ma funzionalmente differenti dai precedenti. Espulsi inesorabilmente dal mercato, i vecchi oggetti di una volta con un capovolgimento dei ruoli finiscono con l’acquisire un valore di memoria, di testimonianza che li fa ricercare, li rende rari, costosi, accessibili solo ai più ricchi. Il nuovo appare più funzionale, ma il vecchio, soprattutto se di qualità, diventa prezioso, appannaggio di pochi. «Oggi le tavole contadine hanno un loro valore culturale. Solo trent’anni fa il loro valore risiedeva nel servizio che potevano rendere» (Baudrillard 1968, trad. it. 2007, p. 175). La trasformazione più significativa è nell’arredamento delle abitazioni, fino a un recente passato sostanzialmente ancorato a uno stile classico, oggi semplificato, spogliato dell’ornamento, centrato sulla convergenza tra forma e funzione, fusi in un binomio inscindibile. La casa diventa uno spazio rappresentativo di sé, dove creare scenari di socialità utilizzando la forza dei marchi e delle firme più prestigiose. Due ambienti dove più evidente è la rottura rispetto al passato, il soggiorno, fulcro di permanenza e di incontro, e la cucina, esaltazione dell’high tech, rappresentano meglio l’effetto dirompente dell’industrial design. Lo studio funzionale della forma investe tutti i livelli, dal costoso pezzo d’autore in edizione limitata, ai componenti d’arredo costruiti in grande serie, ma riecheggianti i modelli più famosi, ai mobili più economici. Il fenomeno più vistoso è il successo di catene internazionali di arredi innovativi, come Ikea, rese imbattibili dalla politica dei bassi prezzi, dal marketing evoluto, ma soprattutto dalla scelta di prodotti ispirati a linee di moderna praticità, in grado di modificare il gusto e di attirare masse crescenti di consumatori.
La forza del marchio
Il design non è l’unico elemento che rende appetibile l’oggetto moderno, un peso crescente è dato dal marchio, dalla griffe. L’oggetto anonimo non ha mercato e quando ce l’ha non va oltre le fasce più basse dei consumatori. Si compra preferibilmente il prodotto riconoscibile, in grado di offrire l’identità a un modello sociale, l’appartenenza a un mondo di successo, e spesso il contenuto funzionale passa in secondo piano. La pubblicità più evoluta non si limita a illustrare caratteristiche e qualità, ma punta a esaltarne il ruolo, a suscitare attese su esperienze o emozioni a cui il possesso di quel bene può dare accesso.
Il fattore prezzo non necessariamente determina l’apprezzamento o meno di un oggetto firmato: quello che vale è il suo allineamento alla categoria di classificazione di quel determinato tipo di prodotto. Si paga un prezzo alto qualora il contesto (pubblicità, immagine, ricercatezza, esclusività) è convincente; a sua volta, il basso prezzo può diventare anch’esso uno straordinario fattore di successo (per es., gli orologi Swatch) se ancorato al sentimento generale, che valuta quel prodotto rispondente alle attese di modernità, originalità, praticità e dinamismo.
La maschera del falso
La forza del marchio è talmente trainante da alimentare una robusta industria, illegale ma fiorente, quella della contraffazione: si imita l’oggetto dal prezzo elevato, ma anche quello di costo modesto purché conosciuto, di moda. Secondo stime dell’OECD (Organisation for Economic Co-operation and Development), il valore dei falsi che hanno attraversato una frontiera doganale, quindi quelli prodotti in un Paese, esportati in altri e non venduti all’interno, tocca i 200 miliardi di dollari, un ammontare pari al 7-9% del commercio mondiale. Un terzo circa, dal 25 al 35% è costituito da prodotti audio-video e da software, un 10-20% da abbigliamento e profumeria e un 5-6% da orologi e farmaci. Si imita di tutto, dai cioccolatini ai prodotti alimentari pregiati, dagli occhiali alle più famose vetture sportive di lusso. La forma, l’aspetto esteriore sono più o meno conformi all’originale, ma non il contenuto e la qualità della lavorazione.
La lotta alla contraffazione è condotta con molta determinazione da parte dei governi e degli organismi di contrasto delle regioni più sviluppate per i danni provocati alle imprese locali. Ma in molte aree del mondo, a basso reddito, la contraffazione rappresenta uno dei principali sbocchi produttivi per alleggerire le tensioni sociali ed economiche e la caccia al falso è poco più che formale.
Bibliografia
J. Baudrillard, Le système des objets, Paris 1968 (trad. it. Milano 20073).
Y. Gingras, Éloge de l’homo techno-logicus, Montréal-Paris 2005.
J. Attali, Une brève histoire de l’avenir, Paris 2006 (trad. it. Roma 2007).
A. Greenfield, Everyware. The dawning age of ubiquitous computing, Berkeley 2006.
Censis, 41° rapporto sulla situazione sociale del paese 2007, Roma 2007.
Webgrafia
M. Weiser, J.S. Brown, Designing calm technology, 1995, http://nano.xerox.com/weiser/calmtech/ calmtech.htm (27 luglio 2009).
EurObserv’ER, Baromètre photovoltaïque, «Systèmes solaires. Le journal des energies renouvelables», 2007, 178, pp. 49-70, http://www.energies-renouvelables.org/observ-er/stat_baro/ observ/baro178.pdf (28 luglio 2009).
GSE-Gestore Servizi Elettrici, Incentivazione degli impianti fotovoltaici. Relazione delle attività ottobre 2006-settembre 2007, http://www.gse.it/media/Pubblicazioni/Rapporto%20Fotovoltaico/ 20080110_RapportoFTV2007.pdf (27 luglio 2009).
ISTAT, Le tecnologie dell’informazione e della comunicazione: disponibilità nelle famiglie e utilizzo degli individui. Anno 2007, http://www.istat.it/salastampa/comunicati/non_calendario/20080116_00/testointegrale20080116.pdf (27 luglio 2009).