di Mario Braconi

La convergenza tecnologica tra immense capacità di calcolo e di archiviazione dati, disponibilità di fotocamere e videocamere ad alta definizione a basso costo e software sempre più raffinati, potrebbe rivoluzionare la nostra vita. Per dirla con Hartmut Neven, informatico e “mente strategica” di Google, citato da Steve Lohrn nel suo pezzo sul NYT del primo gennaio, “senza dubbio le macchine sono in grado di osservarci e capirci meglio; quali siano le conseguenze di ciò è difficile a dirsi, ora”.

Chiunque s’interessi di tecnologia, anche da semplice utente, se ne è accorto: sono diversi i servizi che implicano una qualche capacità della macchina che ci sta davanti di “guardarci” e di “interpretare” il nostro comportamento naturale. I principali servizi di archiviazione foto online (Picasa di Google, Windows Live Photo Gallery di Microsoft, Flickr di Yahoo! e iPhoto di Apple) sono tutti dotati di software in grado di riconoscere i volti (face-recognition).

Lo scorso novembre la Microsoft ha lanciato in tutto il mondo Kinect (evoluzione commerciale del “progetto Natal”), un aggeggio che, collegato alla consolle di gioco della casa di Richmond, consente di interagire con la XBOX senza bisogno di controller: il dispositivo, infatti, è in grado di “registrare” la sagoma della persona che gli si trova davanti e di intercettare ed interpretare i suoi movimenti e i suoi comandi vocali.

Gli ottimisti ad ogni costo potranno anche credere che i giganti informatici si preoccupino esclusivamente di rendere più interessanti le interazioni uomo-macchina, aiutandoci - che so - a trovare nell’hard-disk tutte le foto in cui compare la cara zia Giuseppina, o evitandoci il fastidio del controller. Ma è evidente che queste applicazioni sono il sottoprodotto di una tecnologia studiata per riconoscere, seguire, ed eventualmente colpire (e non virtualmente) un “nemico”: ovvero una tecnologia militare (forse non è un caso se il partner che ha sviluppato la telecamera “a zona” montata da Kinect sia una società israeliana).

Le applicazioni già possibili con le nuove tecnologie di “analisi facciale” sembrano trasferite di sana pianta da un film di fantascienza: grazie ad una speciale telecamera, un dispositivo messo a punto al Media Lab del MIT di Boston, ad esempio, è in grado di inferire il numero delle pulsazioni della persona osservata, come risulta da una ricerca pubblicata lo scorso maggio da Poh, McDuff e Rosalind W. Picard. Questo perché, grazie a un apposito applicativo, la macchina “vede” il colore della pelle come una combinazione di rosso, blu e verde, ed è in grado di percepire variazioni di colore prodotte dalla contrazione dei vasi sanguigni non percepibili dall’occhio umano.

La professoressa Picard, assieme alla collega Rana el-Kalioubyha, hanno fondato Affectiva, una società che intende sfruttare la tecnologia di riconoscimento facciale a fini commerciali, mettendola a disposizione di esperti di marketing, negozianti e major cinematografiche. Secondo John Ross, capo di Shopper Science, le “facial-analysis” sono molto più efficaci di quanto potranno mai essere analisi di mercato o focus group, perché forniscono la mappatura in tempo reale delle emozioni che conducono all’acquisto, evitando anche quel pizzico di ipocrisia tipica degli intervistati, i quali spesso si sforzano di essere gentili, ammorbidendo i propri giudizi. Non a caso, i servizi della Affectiva sono già utilizzati da un sito di vendite e da uno per cuori solitari, che lo impiegano per studiare quali siano le parole chiave che emozionano di più i loro clienti o visitatori.

La domanda è ineludibile: questa tecnologia è socialmente benefica? Come ogni volta che si discute di progresso tecnologico, si deve concludere che una risposta univoca non c’è. Non esistono, infatti, tecnologie intrinsecamente “buone” o “malvagie”: solo applicazioni sane o perverse. Prima di stracciarsi le vesti e preconizzare l’ennesima distopia, sarà opportuno ricordare che la sorveglianza informatica avanzata può essere utilizzata per prevenire le risse in un carcere o per ricordare a medici ed infermieri di lavarsi regolarmente le mani dopo aver visitato i pazienti in terapia intensiva, scongiurando la comparsa di infezioni post-operatorie. O che la tecnologia di analisi facciale, la pietra filosofale di tutti i mercanti, è stata spesso impiegata anche per aiutare le persone autistiche a comprendere le espressioni facciali degli altri, per loro spesso difficilmente interpretabili.

E’ doveroso, comunque, essere realisti ed ammettere che un impiego massiccio di tecnologie come quelle descritte potrebbe facilmente trasformare le nostre vite in un incubo dominato dal controllo e dall’ingegneria sociale (a lezione o in ufficio sei abbastanza concentrato?, le foto di gattini ti fanno più tenerezza di quanto dovrebbero?, la muscolosa guardia giurata ti emoziona più della piacente commessa?, eccetera...). La tecnologia deve progredire e sono inevitabili effetti collaterali anche molto sgradevoli: ma la vita digitale è ormai così interconnessa a quella reale che la posta a rischio, qui, è immensa.

E’ accettabile una vita sempre sotto l’occhio vigile delle macchine e di chi le controlla? Come modifica il suo comportamento un essere umano che sa di essere perennemente sotto scrutinio? Ci possono essere elementi positivi - la riduzione della criminalità? - ma che cosa accade ad una società che improvvisamente diventi, come sintetizza Lohrn, “meno spontanea, meno creativa, meno innovativa”?

I tecnocrati, in effetti, hanno in mano un potere enorme e speriamo che le loro scelte siano sempre illuminate come quella di Google, che ha deciso di non dotare Goggles dell’applicativo di riconoscimento facciale. Infatti, poiché il nuovo servizio della società di Mountain View consente di lanciare una ricerca non più sulla base di una query verbale ma di una immagine presa da uno smartphone, e poiché è sempre possibile che una persona possa essere fotografata senza il suo consenso, con il riconoscimento facciale, Goggles avrebbe potuto diventare facilmente l’applicativo ideale per gli stalker. Con la scelta di Google questo pare scongiurato. Almeno per ora.

 

Pin It

Altrenotizie.org - testata giornalistica registrata presso il Tribunale civile di Roma. Autorizzazione n.476 del 13/12/2006.
Direttore responsabile: Fabrizio Casari - f.casari@altrenotizie.org
Web Master Alessandro Iacuelli
Progetto e realizzazione testata Sergio Carravetta - chef@lagrille.net
Tutti gli articoli sono sotto licenza Creative Commons, pertanto posso essere riportati a condizione di citare l'autore e la fonte.
Privacy Policy | Cookie Policy