Simone Browne. Tecnologie biometriche

Pubblichiamo qui un cut-up, fatto da noi, di tre brevi passi dal libro Materie oscure/Dark Matters. Sulla sorveglianza della nerezza di Simone Browne. Traduzione di Ippolita, Meltemi 2023, collana Culture Radicali.

Simone Browne. Tecnologie biometriche. Per Dark Matters la comprensione delle condizioni ontologiche della nerezza è fondamentale per costruire una teoria generale della sorveglianza e, in particolare, della sorveglianza razzializzante, che reifica i confini lungo le linee della razza, reificando così la razza stessa, e il cui risultato è spesso un trattamento violento e discriminatorio. Chiaramente questa non è l’intera storia della sorveglianza, ma una parte che spesso non è nemmeno presa in considerazione.

Nonostante “razza” sia un termine presente negli indici di molte raccolte e riviste specializzate che negli ultimi tempi si sono occupate di sorveglianza, all’interno del campo di ricerca degli studi sulla sorveglianza il concetto di razza rimane quasi privo di teorizzazione. Le tematiche razziali in generale, e in particolare la lettura dei documenti storici sulla schiavitù e della tratta atlantica degli schiavi alla luce del ruolo svolto dalla pervasività del controllo, devono ancora essere prese seriamente in considerazione.

È attraverso questi archivi e a quelli sulla vita nera dopo il Middle Passage [1] che voglio restituire ulteriore complessità agli studi sulla sorveglianza, interrogandomi su come una piena consapevolezza delle condizioni della nerezza – la sua storia, il suo presente e i retaggi del passato che ancora si ripercuotono oggi – possa aiutare chi si occupa di teoria sociale a comprendere le nostre condizioni nei regimi di sorveglianza contemporanei. In altre parole, piuttosto che pensare alla sorveglianza come qualcosa di inaugurato dalle nuove tecnologie, come ad esempio il riconoscimento facciale o i veicoli a guida autonoma (o i droni), è necessario intenderla come un processo che affonda le proprie radici nel passato e che continua a svilupparsi nel presente.

Questo permette di ribadire la necessità di tenere in considerazione quanto il razzismo e l’anti-nerezza siano elementi strutturali e una delle basi delle varie intersezioni delle sorveglianze contemporanee. Patricia Hill Collins usa il termine “paradigmi intersezionali” per segnalare che “l’oppressione non può essere ridotta ad un solo e unico tipo e che le oppressioni lavorano tutte assieme per produrre ingiustizia.”[2] Rendendo merito agli studi delle femministe nere, con la locuzione “intersezioni della sorveglianza” mi riferisco alle modalità interdipendenti e interconnesse in cui operano le pratiche, le rappresentazioni e le politiche di sorveglianza.

***

Le attuali tecnologie biometriche e la marchiatura degli schiavi, ovviamente, non sono la stessa cosa. Eppure, anche nella nostra contemporaneità ci troviamo di fronte a pratiche di contabilizzazione del corpo: i cittadini “sospetti”, i viaggiatori che hanno dato la prova di essere fidati, i prigionieri, i beneficiari di assistenza sociale e molti altri soggetti vengono ridotti a pacchetti di informazioni e stoccati in immensi database, gestiti dallo Stato o di proprietà di grandi aziende private, in cui confluiscono tutti i dati raccolti su larga scala.

Storicamente, cronache di simili pratiche di contabilizzazione del corpo le possiamo trovare, per esempio, nell’inventario in cui consiste il Book of Negroes, nelle distinte delle navi schiaviste che fungevano da assicurazioni marittime, nelle polizze assicurative proposte dalle banche ai proprietari degli schiavi per coprire possibili perdite di forza lavoro, nella marchiatura come tecnologia di tracciamento della nerezza, per garantire che certi corpi, i corpi degli schiavi, venissero identificati come una proprietà privata.

Il mio invito è quello di mettere in discussione il funzionamento storicamente esistente di una sorveglianza basata sul marchio e sulla razzializzazione, in particolare per quanto riguarda la biometria, per ripensare in modo critico la punizione, la tortura e i momenti di contatto con i nostri confini sempre più tecnologici. Questo è particolarmente importante viste le capacità di identificazione biometrica non cooperativa attraverso l’informatica indossabile, come i Google Glass, o attraverso gli aeromobili a pilotaggio remoto, i droni o altri oggetti volanti impiegati nelle misure di controguerriglia dagli Stati Uniti e in altre applicazioni militari, come ad esempio gli omicidi mirati o le missioni di ricerca e salvataggio.

Capire come le tecnologie informatiche biometriche vengano razionalizzate tramite le direttive dell’industria e l’intrattenimento popolare fornisce un mezzo per falsificare l’idea che certe tecnologie di sorveglianza e le loro applicazioni siano sempre neutre rispetto a razza, genere, disabilità e altre categorie di determinazione del soggetto con le loro intersezioni. Esaminare le pratiche biometriche e la sorveglianza in questo modo è esplicativo. Ci invita a comprendere le storie e le relazioni sociali che fanno parte di quelle stesse condizioni che rendono possibile l’esistenza e l’applicazione queste tecnologie.

Quando i sistemi di sorveglianza che si basano sulla visualizzazione come metodo di classificazione sono, come dice giustamente Sylvia Wynter, “sempre più automatizzati”, consentendo “a grandi masse di persone di essere escluse ed emarginate”[3], tale emarginazione, o la mancata registrazione, devono essere ripensate criticamente. Questo viste anche le preoccupazioni per la privacy riguardanti la condivisione di file e l’attuale trattamento extracostituzionale delle persone che lo Stato come dei potenziali rischi. È al confine – sia esso territoriale, epidermico e digitale – un luogo in cui certi corpi sono emarginati e messi fuori posto, che è possibile porre le basi di una coscienza critica biometrica e avere la possibilità di dare vita a quello che Gilroy definisce un “umanesimo alternativo, metafisico, basato su relazioni faccia a faccia tra i diversi attori – da pari a pari – preferibile ai problemi di profonda disumanità creati dalla razziologia”[4].

È proprio questa esclusione che spinge verso una coscienza critica biometrica e un ripensamento che ricerca nelle nostre soggettività connesse non un’alternativa, ma, come dice Fanon, “il diritto di esigere dall’altro un comportamento umano”[5].

***

Nel dicembre 2009, Desi Cryer e Wanda Zamen, colleghe al Toppers Camping Center di Waller, Texas, hanno caricato su YouTube un video intitolato HP Computers Are Racist (I computer HP sono razzisti). Cryer e Zamen stavano provando il nuovo computer MediaSmart di Hewlett Packard e hanno registrato cosa succedeva quando “Black Desi” (Desi il nero) e “White Wanda” (Wanda la bianca) usavano la webcam integrata. Nel video Cryer dice: “credo che la mia nerezza interferisca con la capacità del computer di seguirmi”, riferendosi all’apparente incapacità della webcam di eseguire panoramiche, inclinazioni, zoom, seguire o rilevare i suoi gesti e i suoi movimenti[6].

Tuttavia, “non appena appare White Wanda”, la funzione di tracciamento facciale automatico della webcam funziona, il che significa che solo quando “Black Desi entra nell’inquadratura, no, niente più riconoscimento facciale, amico”, dice Cryer, rivolgendosi anche agli spettatori: “la cosa peggiore è che ne ho comprato uno uguale per Natale”. Cryer conclude il video dicendo: “Accetto risposte sul perché la webcam HP non rileva i negri”.

Il video ha ottenuto quasi tre milioni di visualizzazioni su YouTube. Hewlett Packard ha poi risposto ringraziando Cryer e Zamen, spiegando che non si trattava del fatto che le loro telecamere “non siano in grado di vedere le persone nere”, come affermato da un notiziario della CNN, ma che la tecnologia “si basa su algoritmi standard che misurano la differenza di intensità di contrasto tra gli occhi e la parte superiore delle guance e del naso” e che “la telecamera avrebbe potuto avere difficoltà a ‘percepire’ il contrasto in condizioni di illuminazione insufficiente del primo piano del volto”[7]. Secondo l’HP, dato il funzionamento del loro algoritmo standard, Black Desi aveva bisogno di un’illuminazione migliore. O forse di una lanterna.

Quando Black Desi ci chiede di guardare cosa succede quando la sua “nerezza entra nell’inquadratura”, nomina quella che è stata una delle preoccupazioni principali di Dark Matters. Ovvero, quando la nerezza, la vita umana delle persone nere e le condizioni imposte su di essa entrano nelle discussioni sulla sorveglianza, cosa succede a quelle stesse discussioni? In altre parole, come viene riformulata la cornice teorica se al centro delle teorizzazioni sulla sorveglianza poniamo le condizioni della nerezza? Ciò potrebbe significare collocare il Book of Negroes come uno dei primi passaporti rilasciati per attraversare il confine tra Canada e Stati Uniti che identificava la razza, il genere e altri marcatori; come si è detto nel capitolo 2, ciò ha permesso di esplorare quelli che Hazel Carby chiama “atti narrativi”, in cui “il soggetto razzializzato viene inventato in un momento di incontro, prodotto come soggetto che viene a costituirsi in una relazione dialettica, ovvero in e attraverso la sua relazione con un altro o altri”[8].

La realizzazione del Book of Negroes fu un momento storico in cui, in particolare nelle udienze di arbitrato tenute alla Fraunces Tavern, donne, uomini e bambini neri trovarono nella loro creatività dei modi per raccontare la propria libertà all’interno di un sistema che li costringeva alla schiavitù. Questi atti narrativi costituirono nuove forme di pronunciare la libertà dopo l’emancipazione dalla schiavitù per le persone nere della New York dell’epoca e per coloro i cui nomi sarebbero stati poi registrati come quelli di persone libere nel Book of Negroes. Allo stesso modo, come analizzato nel capitolo 3, guardare alla marchiatura delle persone ridotte in schiavitù, dove il marchio funzionava non solo come segno di identificazione e verifica, ma anche come marchio della commercializzazione di massa del soggetto nero in quanto merce, mi ha permesso di tracciare una connessione tra questo primo esempio di tecnologia biometrica e la sorveglianza biometrica contemporanea del corpo razzializzato.

L’invito a riflettere su ciò che accade quando la nerezza entra nell’inquadratura raggiunge anche un altro obiettivo: la sovversione. Sebbene Cryer e Zamen abbiano in seguito rilasciato una dichiarazione in cui affermano di “non pensare che una macchina possa essere razzista o che HP stia creando di proposito un software che esclude le persone di colore” e che l’esperienza fallimentare di Black Desi sia stata “solo un’anomalia”[9], caricando il loro video su YouTube, Cryer e Zamen hanno condiviso pubblicamente la loro critica agli “algoritmi standard” che funzionano secondo una logica di bianchezza prototipica.

Una logica che privilegia gli utenti, in questo caso, in relazione o rispetto alla loro prossimità nei confronti della nerezza. La bianchezza prototipica, come ho spiegato nel capitolo 2, è la logica culturale che informa gran parte della tecnologia biometrica. Essa vede la bianchezza, o la luminosità, come privilegiata nei processi di registrazione, misurazione e riconoscimento e, come ho sostenuto, la bianchezza prototipica dipende dalla materia oscura nella sua stessa definizione. Per materia oscura si intendono quei corpi e quelle parti del corpo che mettono in difficoltà alcune tecnologie biometriche, come le iridi scure o le telecamere che “non vedono le persone nere” o che chiedono agli utenti asiatici: “Qualcuno ha battuto le palpebre?”[10].

Quando particolari tecnologie di sorveglianza, nel loro sviluppo e nella loro progettazione, escludono alcuni soggetti e comunità da un uso ottimale, ciò lascia aperta la possibilità di riprodurre le disuguaglianze esistenti. Questo punto è in qualche modo sostenuto in un rapporto del 2010 del Consiglio Nazionale delle Ricerche degli Stati Uniti sulla biometria, in cui si sostiene che è “doveroso per coloro che concepiscono, progettano e distribuiscono sistemi biometrici considerare i contesti culturali, sociali e legali di questi sistemi. Non tenere conto di queste considerazioni e non considerare gli impatti sociali ne diminuisce l’efficacia e può portare a conseguenze indesiderate anche gravi”, come l’ulteriore emarginazione, e in alcuni casi la privazione di diritti, di persone che a causa di algoritmi standard determinati dall’industria incontrano difficoltà nell’uso e nelle applicazioni di questa tecnologia[11].

Quando la materia oscura disturba gli algoritmi in questo modo, equivale a rifiutare l’idea che queste tecnologie possano essere neutrali. Ma il fatto che gli algoritmi possono essere disturbati potrebbe non essere necessariamente un male. In altre parole, potrebbe esserci un potenziale positivo nell’andare in giro indisturbati, senza essere riconosciuti e senza dare nell’occhio, quando ormai ovunque si usano telecamere a circuito chiuso, dispositivi con fotocamera integrate, di riconoscimento facciale e altre tecnologie di controllo basate sulla registrazione di immagini?

Lo stesso motivo che ha reso invisibile Black Desi nel video I computer HP sono razzisti è ciò che gli spettatori di un altro video di YouTube vengono incoraggiati a fare per non essere individuati dalla tecnologia di riconoscimento facciale. Nel suo tutorial do-it-yourself su “come nascondersi dalle telecamere”, l’artista Jillian Mayer mostra come usare rossetto nero, nastro adesivo trasparente, forbici, crema bianca, alcuni glitter e eyeliner nero per alterare il proprio viso in modo che le telecamere non possano rilevarlo e, perché no, anche per “avere un aspetto magnifico”[12].

In un formato simile a quello dei make-up tutorial che si trovano su YouTube, Mayer dice ai suoi spettatori che la cosa più importante “è scomporre il viso”. Il tutorial di Mayer si basa sul progetto CV Dazzle dell’artista Adam Harvey, che esplora il ruolo del camuffamento per sovvertire le tecnologie di riconoscimento facciale. Computer Vision Dazzle è un gioco di parole sul camuffamento dazzle (abbagliante) utilizzato durante la Prima Guerra Mondiale, per cui le navi da guerra venivano dipinte con motivi a blocchi, forme geometriche e colori contrastanti, in modo che, piuttosto che nascondere una nave, il camuffamento aveva lo scopo di rendere difficile valutare visivamente le sue dimensioni e la sua velocità.

Così, quando Mayer insegna ai suoi spettatori che quando si tratta di riconoscimento facciale “non si tratta di mimetizzarsi”, ma piuttosto di “emergere e non venire scoperti” e che “il rossetto nero è un ottimo modo per coprire rapidamente molte superfici del viso”, sottolinea le possibilità e le potenzialità che derivano dal non essere visti e notati, dove la nerezza, in questo caso l’applicazione di trucco nero, potrebbe essere sovversiva nella sua capacità di distorcere e interferire quando si tratta di leggibilità automatica e algoritmi standard. Per ottenere la massima efficacia da questa tecnica di camuffamento digitale, ovvero che il soggetto diventi irriconoscibile o che l’immagine crei una falsa corrispondenza, è necessario calibrare bene i contrasti.

Nel LookBook di CV Dazzle di Adam Harvey sono presenti donne dall’aspetto prevalentemente bianco, con capelli acconciati in modo asimmetrico che servono a nascondere parzialmente i tratti del viso e alcuni punti di riferimento facciali, come lo spazio tra gli occhi. Harvey offre “consigli di stile per recuperare la propria privacy” e suggerisce che per diminuire le possibilità di essere scoperte si dovrebbe “applicare un trucco in contrasto con la propria carnagione, con toni e linee insolite: colori chiari su pelle scura, colori scuri su pelle chiara”. Il trucco potrebbe essere utilizzato non solo per impedire il riconoscimento, ma anche per oscurare l’analisi della texture della pelle. Queste tattiche, tuttavia, non sfidano esplicitamente la proliferazione di telecamere e le altre tecnologie di visione computerizzata negli spazi pubblici e privati, ma lasciano all’individuo la possibilità di adattarsi.

Uno degli intenti di Dark Matters è stato quello di riferirsi all’oscurità, alla nerezza e all’archivio della schiavitù e ai suoi effetti nel presente per problematizzare ed espandere il concetto di sorveglianza. Naturalmente, alcune cose rimangono ancora nell’oscurità. Sono “segreti di dominio pubblico”, come ciò che accade nei siti neri, le consegne straordinarie, le torture, la detenzione e la sparizione di persone sospettate di essere una minaccia terroristica, o le rivelazioni di Edward Snowden nell’estate del 2013 sulle intercettazioni illegali della National Security Agency, un programma che rappresenta ciò che ha definito “una pericolosa normalizzazione del governare nell’oscurità”[13].

All’inizio di questo libro ho definito la subveglianza oscura come una forma di critica che mette al centro le epistemologie nere per contrastare la sorveglianza, e in seguito mi sono rivolta ad atti di libertà come la fuga dalla schiavitù usando documenti e pseudonimi falsificati, o il Totau come resistenza celebrativa eseguita proprio sotto gli sguardi sorveglianti del pubblico bianco, e la critica di Solange alle perquisizioni della TSA. La subveglianza oscura è una cornice analitica che considera lo sguardo di rottura e la capacità di controbattere come forme di argomentazione e prassi di lettura della sorveglianza e degli studi che se ne occupano, come l’ex schiavo Sam, che era “soprendeva per la sua abitudine di alzare gli occhi al cielo quando gli si rivolgeva la parola” e What It’s Like, What It Is #3 di Adrian Piper.

Lo studio della sorveglianza contemporanea – che si tratti di tecnologie biometriche o delle pratiche di sicurezza aeroportuale post 11 settembre – passa attraverso la storia della schiavitù delle persone nere e delle pratiche di prigionia che ne derivano, e apre a possibilità di atti di fuga, di resistenza e fratture generative che hanno luogo ogni volta che la nerezza entra nell’inquadratura.

1. N.d.T Middle Passage: Il Passaggio di Mezzo, così chiamato perché era la tappa intermedia di un viaggio diviso in tre parti, che iniziava e finiva in Europa. La prima tappa del viaggio portava un carico che poteva comprendere prodotti come ferro, stoffa, brandy, armi da fuoco e polvere da sparo. Una volta sbarcati sulla “costa degli schiavi” dell’Africa, il carico veniva scambiato con persone africane. Completamente carica del suo carico umano, la nave salpava per le Americhe, dove gli schiavi venivano scambiati con zucchero, tabacco o altri prodotti. L’ultima tappa riportava la nave in Europa.
2. P. H. Collins, Black Feminist Thought, Routledge, 2008, p.18.
3. S. Wynter in G. Thomas, Proud Flesh Inter/Views: Sylvia Wynter, Proudflesh: A New Afrikan Journal of Culture, Politics and Consciousness, no. 4 (2006). http://www.africaknowledgeproject.org/index.php/proudflesh/article/view/202.
4. P. Gilroy, Against Race: Imagining Political Culture beyond the Color Line, Harvard University Press, 2001, p. 41.
5. F. Fanon, Pelle nera, maschere bianche, edizioni ETS, 2015, p. 206.
6. Wzamen01, HP Computers Are Racist, YouTube, 10 dicembre 2009, https://www.youtube.com/watch?v=t4DT3tQqgRM.
7. M. Simon, HP Looking into Claim Webcam Can’t See Black People, CNN.com, 23 dicembre 2009, http://www.cnn.com/2009/TECH/12/22/hp.webcams/.
8. H. V. Carby, Becoming Modern Racialized Subjects: Detours through Our Past to Produce Ourselves Anew, Cultural Studies 23, no. 4 (2009): 624– 657, p. 625.
9. B. Ehrlich, Creators of “HP Computers Are Racist” Video Speak, Mashable, 23 dicembre 2009, http://mashable.com/2009/12/23/hp-computers-are-racist/.
10. Nel 2009, Joz Wang ha utilizzato una fotocamera Nikon Coolpix S630 per scattare foto durante una partita di baseball dei Los Angeles Angels. Sullo schermo LCD della fotocamera è apparsa la scritta “Qualcuno ha battuto le palpebre?”. Per ulteriori dettagli, si veda il post sul blog di Wang, Racist Camera! No, I Did Not Blink . . . I’m Just Asian! (Fotocamera razzista! No, non ho sbattuto le palpebre. . . Sono solo asiatico!), 2009, http://www.jozjojoz.com/2009/05/13/racist-camera-no-i-did-not-blink-im-just-asian/. Nel 2009, la sitcom televisiva Better Off Ted della ABC ha affrontato il tema della razza, dell’automazione e dell’intelligenza artificiale con l’episodio Racial Sensitivity (Sensibilità razziale). Ambientato nel laboratorio di ricerca e sviluppo di una multinazionale, l’episodio racconta che per ridurre i costi vengono installati dei sensori di movimento per l’illuminazione generale, i pulsanti degli ascensori, le fontane d’acqua e le porte automatizzate. Tuttavia, i nuovi sensori non sono in grado di percepire i movimenti dei dipendenti neri o di “vedere le persone nere”. Un dirigente afferma che la politica aziendale è “l’opposto del razzismo, perché non prende di mira i neri, ma li ignora. Loro insistono sul fatto che la cosa peggiore è l’indifferenza”. Piuttosto che sostituire tutti i nuovi sensori, l’azienda sceglie di installare una “fontanella manuale (per le persone nere)” accanto a quella automatizzata e fornisce a ogni dipendente nero una persona “bianca” che può usare la sua bianchezza per far funzionare i sensori al suo posto.
11. National Research Council, Biometric Recognition: Challenges and Opportunities, National Academies Press, 2010, p. 85.
12. J. Mayer, Makeup Tutorial how to hide from cameras, YouTube, 30 maggio 2013, http://youtu.be/kGGnnp43uNM.
13. J. Risen, Snowden Says He Took No Secret Files to Russia, New York Times, 17 ottobre 2013, http://www.nytimes.com/2013/10/18/world/snowden-says-he-took-no-secret-files-to-russia.html?hp&_r=0.