La libertà di scelta nella cultura dell'opt-out

Il mondo dei guru delle reti sociali online presenta notevoli affinità con il mondo della finanza. Giovani, avidi, spericolati, maschi, bianchi. Aggiungiamo: con notevoli problemi relazionali. Avremo modo di parlare diffusamente della supremazia nerd. Per ora constatiamo che assumere in maniera acritica le posizioni di gente come Zuckerberg come toccasana per le nostre pratiche sociali è l'equivalente di mettere il proprio sorriso nelle mani di un dentista con i denti marci. Anche se fosse il più grande esperto del mondo, non si presenta molto bene. Il buon pastore sembra più interessato ai nostri dati che al nostro benessere; in ultima analisi, l'idea della trasparenza radicale sembra essere la soluzione meccanizzata a un'incapacità personale di gestire adeguatamente le proprie relazioni, attraverso scelte ponderate.

A proposito di libertà di scelta, c'è un corollario pratico alla logica del default power che vale la pena sottolineare: la cultura dell'opt-out. Quando si modificano i parametri di default per milioni di persone, senza comunicare il cambiamento, riferendone in maniera sibillina o comunque a posteriori, si ritiene implicitamente che gli utenti non sappiano cosa vogliono, o quanto meno che chi offre il servizio lo sappia meglio. Le reti sociali online accumulano enormi quantità di dati sulle preferenze dei singoli utenti; analizzano questi dati e li integrano in maniera sempre più efficace con sistemi di retroazione (voto, mi piace, segnala, segnala abuso,ecc.); detengono in effetti l'autentica identità dei loro utenti, e ne hanno una visione più complessiva di quella che gli individui possono avere di sé stessi. Dal loro punto di vista è piuttosto logico pensare che ogni cambiamento apportato sarà per il bene dei fruitori a partire dall'evidenza dei dati. In seguito, l'utente potrà decidere di chiamarsi fuori, di optare per il rifiuto (opt-out) di quell'innovazione. Dalla scontata equazione novità-bontà deriva l'imposizione di fatto dell'innovazione stessa. La questione è delicata perché dal punto di vista tecnico diventa sempre più arduo mettere milioni di utenti nella condizione di poter scegliere in maniera semplice cosa e come condividerlo, chiedendo un'esplicita autorizzazione da parte loro, l'espressione di un desiderio o volontà, in una logica quindi di opt-in (optare per entrare, per aderire alla nuova funzionalità). Inoltre, come insegna la cultura aziendale di Google, in ossequio al culto dell'innovazione e della ricerca e sviluppo permanente, spesso le novità sono in fase «beta», non testate, perché ci si aspetta che siano gli utenti a fornire utili indizi per migliorarle fino al punto di renderle davvero usabili. Più facile quindi correre il rischio di imporre un cambiamento nocivo, e poi correggere il tiro quando le lamentele degli utenti si fanno pressanti.

Portiamo un esempio concreto. Nel dicembre 2010 Facebook ha cominciato a fornire ai suoi utenti negli Stati Uniti una funzionalità di riconoscimento facciale per taggare automaticamente le fotografie caricate dagli utenti. Le foto vengono scansionate e i volti identificati in base alle immagini precedentemente memorizzate nei tag già presenti nei database di Zuckerberg. Quando il software è stato introdotto negli Stati Uniti, sollevando un marea di critiche per la gravissima minaccia alla privacy che rappresenta, Facebook ha sottolineato che gli utenti possono disattivare la funzione. Basta andare nelle impostazioni di privacy e scegliere per l'opt-out della funzione di tagging automatico delle foto. Naturalmente, ora che la tecnologia è stata diffusa a livello internazionale, Facebook non si è preoccupato di avvisare tutti, dai partner commerciali agli utenti privati, che il software di riconoscimento facciale era attivato come impostazione predefinita all'interno della rete sociale. Facebook è in buona compagnia: Google, Microsoft, Apple e il governo degli Stati Uniti stanno lavorando da tempo all'implementazione di sistemi automatici di riconoscimento facciale. Per il bene degli utenti, per proteggere i cittadini da pericolosi terroristi. Ma il potenziale distruttivo di una simile tecnologia è terrificante: nello scenario peggiore, in un regime autoritario, si possono schedare in maniera semiautomatica i dissidenti fotografati in piazza, mettere in atto una sorveglianza capillare e colpire quando lo si ritiene più opportuno. Lo stesso vale per qualsiasi genere di malintenzionati in un regime democratico. La logica dell'opt-out è derivata dal principio dei coder «release often; release quickly», ovvero rilasciare il più frequentemente possibile nuove versioni di software. Dato un numero sufficientemente ampio di occhi che osservano e correggono, i bug saltano agli occhio e vengono risolti nelle versioni successive. Ma le relazioni sociali non sono codificabili in cicli logici. Gli effetti collaterali di un errore di valutazione nell'introduzione di una tecnologia possono essere letali.

La webbizzazione del sociale nella profilazione di massa conduce a risultati paradossalmente antisociali nel momento in cui diventiamo colpevoli per associazione, o innocenti per dissociazione. Dal momento che i decisori umani delegano sempre più agli algoritmi, è logico prevedere un numero crescente di errori di valutazione facilmente evitabili offline, o in un sistema decentralizzato. Essere omonimi di una persona ricercata, con la fedina penale sporca o addirittura di un terrorista segnalato sulle liste delle polizie federali, è un reato per associazione: le macchine ci indicano come colpevoli, non riuscendo a distinguerci dal nostro omonimo. Se poi siamo vittime di un furto d'identità, la nostra carta di credito viene usata per compiere un illecito, subiamo una truffa, dal punto di vista del nostro alter ego digitale siamo colpevoli senza ombra di dubbio: dalla presunzione d'innocenza si passa alla presunzione di colpevolezza. La criminalizzazione della società è una conseguenza logica dei meccanismi di profilazione ispirati al profiling criminale, che favoriscono solo i malintenzionati, coloro che agiscono tenendo sempre a mente la necessità di un alibi.

Gli utenti comuni si espongono a ogni sorta di soprusi da parte della colpevolizzante profilazione. Un account su Facebook, su Google+, su Twitter, non è proprietà dell'utente. È uno spazio messo gratuitamente a sua disposizione in cambio della sua disponibilità a farsi sezionare in porzioni merceologicamente interessanti. Ma singolarmente l'utente vale meno di zero, e poiché è lui che deve dimostrare di essere innocente oltre che di essere sé stesso, è facilissimo vedersi negare l'accesso. Nel caso di Facebook, tra le possibili ragioni per farsi buttare fuori, quella più comune riguarda l'utilizzo di un nome fasullo, che in certi casi può essere facile da riconoscere, ma in altri decisamente meno. Superman è probabilmente un fake, ma quale algoritmo può decidere se Ondatje Malimbi è davvero un utente keniota di madre svedese oppure no? Forse dovrebbe avere accesso all'anagrafe, ai dati fiscali e alla previdenza sociale, e non siamo così lontani da questo scenario. Incidentalmente, notiamo che i governi autoritari hanno meno problemi a realizzare la distopia della trasparenza radicale.

I gestori dei social media contribuiscono in maniera determinante a stabilire ciò che è lecito e ciò che non lo è, plasmando le regole delle società in cui viviamo. Non hanno ancora il potere di sbattere in galera qualcuno, ma collaborano attivamente con i governi per far rispettare leggi scritte e non scritte; in particolare Google, che da sempre fa affari con l'intelligence americana. Esemplare il caso di Keyhole, un software di mappatura satellitare venduto nel 2004 a Google dalla In-Q-Tel50 (società di venture capital legata alla CIA), ora noto come Google Earth. Dopo l'approvazione dell'USA Patriot Act, che prevede durissime sanzioni per chi collabora con governi nemici, chi offre servizi online è particolarmente cauto e preferisce la censura preventiva, piuttosto che correre il rischio di ospitare sui suoi server potenziali terroristi o semplicemente utenti sgraditi al governo USA. Il paradosso è che nei Paesi sotto embargo i dissidenti si trovano spesso chiusi i loro profili, mentre è chiaro che i sostenitori dei regimi non hanno alcun problema a diffondere la loro propaganda attraverso i server governativi. Nell'incensare la rivoluzione di Twitter in Iran, nessuno, nemmeno i funzionari governativi che ne hanno magnificato la funzione democratica, ha notato che Twitter stava infrangendo i termini dell'embargo USA consentendo di usare i suoi servizi a cittadini iraniani...

La censura è molto attiva su Facebook, che spesso si pone come garante della neutralità della rete, un concetto che abbiamo già criticato. La particolare interpretazione della democrazia di Facebook si fonda sul suo moralismo, che abbiamo già visto all'opera. Qualsiasi utente sospetto di hate speech (discorsi di odio) è punibile con l'espulsione. Riportiamo una storia tipica:

il mio account è stato chiuso insieme a quello di *** perché eravamo amministratori del gruppo «aggredisci anche tu daniela santanchè» [nota politica di estrema destra italiana]. O meglio, io ero amministratrice, lui era il creatore. Semplicemente ho tentato di connettermi e mi ha avvisato che il mio account era stato disabilitato. Ho mandato la mail all'indirizzo che ho trovato tra le FAQ. Alla prima mail non hanno risposto, alla seconda (una settimana dopo) sì.

La risposta era quella standard del servizio clienti di Facebook:

Ciao ***,

Il tuo account è stato sospeso dal momento che eri amministratore di un gruppo che è stato rimosso poiché violava la Dichiarazione dei diritti e delle responsabilità di Facebook. Sono vietati i gruppi con contenuti o immagini che promuovono l'uso di droga o la nudità oppure che fanno allusione ad attività sessuali, nonché i gruppi che incitano alla violenza o attaccano un individuo o un gruppo di persone. Purtroppo, per motivi tecnici e di sicurezza, non possiamo fornirti ulteriori dettagli sul gruppo rimosso. Tuttavia, dopo aver analizzato la tua situazione, abbiamo riattivato il tuo account, a cui puoi ora accedere nuovamente. Al fine di evitare che si verifichino di nuovo situazioni di questo tipo, assicurati di controllare di tanto in tanto i contenuti dei gruppi di cui sei amministratore. Se non vuoi avere questa responsabilità, puoi rimuovere il tuo stato di amministratore cliccando su "Modifica membri" nella pagina principale del gruppo, per poi cliccare su ""Rimuovi amministratore"" accanto al tuo nome. Per ulteriori informazioni sui comportamenti vietati da Facebook, leggi la Dichiarazione dei diritti e delle responsabilità, a cui puoi accedere facendo clic sul link "Condizioni" nella parte inferiore di qualsiasi pagina di Facebook. Grazie per la comprensione, ***
User Operations
Facebook

A questo utente l'account è stato riattivato; al creatore del gruppo no, forse perché era un recidivo nella creazione di gruppi di hate speech. È chiaro che a casa d'altri ci comportiamo come decidono gli altri, in questo caso Facebook. È comunque curioso che la pornografia sia formalmente bandita, e corrobora l'affermazione che si tratti di un sistema di pornografia emotiva diffusa. Il ricatto emotivo è esplicito quando si tenta di cancellarsi in prima persona: dopo tutta la procedura (in questo caso bisogna confermare molte volte la propria decisione in maniera esplicita, cioè è facile entrare e difficile scegliere di uscire), vengono mostrate foto in cui l'utente è taggato insieme ad altre persone che conosce. La didascalia sotto ogni foto riporta: «a pinco pallino mancherai moltissimo».

Cosa sia hate speech e cosa no è lasciato al completo arbitrio dei gestori del servizio. Da una parte, il vostro account può essere chiuso perché bestemmiate: le condizioni sono che Facebook conosca la vostra lingua e sia in grado di capire la bestemmia, oppure che qualche delatore si faccia avanti denunciandovi all'autorità garante della pubblica moralità sulla sua privata bacheca. Dall'altra parte, se cercate un gruppo razzista, sessista, nazionalista, fanatico, su Facebook lo troverete facilmente; e anche in questo caso, potete naturalmente aiutare la censura segnalandolo. È difficile difendere la libertà di scelta e di parola quando si è sottoposti alla logica algoritmica, quella stessa logica per cui Google di default non vi mostra i risultati che ritiene pericolosi per voi, ovvero perlopiù contenuti osceni. Parliamo sempre di scene di sesso esplicito, che costituiscono comunque quasi la metà del web, mentre la violenza esplicita è considerata molto più di buon occhio. Se volete avere tutti i risultati, dovrete anche in questo caso scegliere di uscire dalla funzionalità standard implementata da Google per proteggervi da voi stessi, e cliccare su «disattiva SafeSearch».

Il razzismo, il sessismo, la violenza, il nazionalismo, il fanatismo, la pedopornografia esistevano prima dei social network online, e non sono questi strumenti ad averli creati. Ma è sconcertante la facilità con cui un messaggio di propaganda malevola può essere infiltrato in una rete sociale di persone che si affidano alle macchine per compiere scelte su cosa è giusto e cosa non lo è. Il diluvio di informazioni non contestualizzate nel complesso aiuta la propagazione dei messaggi estremistici, faziosi o truffaldini, mascherati magari da accorati appelli umanitari, o alla difesa di una comune identità. Mail o social media, tutti conosciamo i sistemi di truffa, il dilagare delle catene di sant'antonio per aiutare questa o quella povera bambina che soffre di una rara malattia e ha tanto bisogno di qualche euro; le petizioni di richiesta a questo o quel governo di intervenire a favore o contro qualche causa; i messaggi di scamming che promettono ricchezze favolose a chi presterà il suo conto corrente a un ricco signore nigeriano costretto all'esilio. Il fatto che siano i nostri amici o presunti tali a girarci tali messaggi abbassa le difese critiche e spinge a un'accettazione e conseguente diffusione incontrollata.

Più complesso ma sostanzialmente analogo il caso dei messaggi malevoli e ideologici mascherati. Se venite invitati su Facebook da amici del gruppo «tutti contro la povertà» a sostenere una cena di beneficenza, probabilmente direte «mi piace» e segnalerete questa lodevole iniziativa ai vostri followers su Twitter, girando al contempo il link sul vostro blog e sulle mailing list che seguite. Visto che siamo abituati a un tempo frammentato in istanti di attenzione minimi, a meno di non essere vigili, competenti e prudenti, difficilmente noteremo a una prima occhiata che si tratta di una cena di beneficenza per sostenere la causa delle enclave serbe in Kosovo, ovvero dei nazionalisti serbi di Bosnia che a metà degli anni Novanta hanno scatenato il genocidio kosovaro nella ex-Jugoslavia, organizzato da un gruppo dell'estrema destra identitaria. Gli algoritmi di Facebook, Twitter e Google, creati da eccellenti tecnici nel migliore dei casi poco esperti del mondo, non possono ergersi a giudici tecnologici della bontà o meno di un contenuto.

50) Al momento la In-Q-Tel si occupa in particolare di sistemi di crittografia e spionaggio nell'ambito del cloud computing, perché a quanto pare il Pentagono è deciso a rendere «più sicure» le nuvole di dati, forse per evitare un altro caso Bradley Manning, il soldato che ha passato i cablogrammi a Wikileaks, attualmente detenuto. «Spycloud: Intel Agencies Look to Keep Secrets in the Ether», Wired, giugno 2011, http://www.wired.com/dangerroom/2011/06/spycloud-intel-agencies-look-to-keep-secrets-in-the-ether/