Un’intervista a Ippolita sull’intelligenza artificiale di Elvira Federici
Pubblichiamo un’intervista di Elvira Federici al gruppo di ricerca Ippolita comparsa sul numero 168 della rivista Leggendaria che ringraziamo per la gentile concessione.
Il Gruppo Ippolita nasce a Milano nel 2005, nell’ambito degli hacklab politicizzati; fa ricerca indipendente sulle tecnologie digitali contro il conformismo cui le stesse procedure delle grandi piattaforme addestrano. La pratica dell’ hacking del sé, contro “la collusività degli automatismi” significa, per il gruppo Ippolita scrivere, fare formazione, promuovere scritture dirompenti; significa, come per bell hooks, agire la cultura come strumento di consapevolezza dei rapporti di forza. Significa, convivialità versus produttività; interdisciplinarità, in-disciplinarità, vs la dicotomia scientifico/ umanistico; contro l’idea tecnocratica che le vite possano essere gestite da esperti.
Per entrare nel problema cruciale dell’epistemologia dicotomica moderna prendo due esempi, il saggio – Né soprannaturale né meccanico in Dove gli angeli esitano (1989), di Gregory Bateson e Né vitalismo né meccanicismo in La materia vibrante (2023)1, di Janet Bennett – di come i binarismo mente/corpo, natura/cultura, vita/materia, che caratterizza la modernità (Latour 2018), siano continuamente ripensati dalla filosofia, dalla scienza, dalle stesse pratiche umane. Con Haraway (1995) già dagli anni Novanta abbiamo riflettuto sulla condizione umana come intrinsecamente cyborg. Ritengo – azzardo – che l’AI non sia meno “naturale” del linguaggio ( per il quale, secondo Chomsky, gli umani possiedono in modo innato un corredo di istruzioni da implementare a livello neurale). E tuttavia:
EFederici: E’ un paradosso l’adozione di un codice binario che sia in grado di dar conto di tutta la realtà mentre si critica il binarismo che “riduce” a classi, categorie, gerarchie ecc.?
GIppolita: Non è un paradosso in sè, se rimaniamo consapevoli che la realtà può essere tradotta in codice binario ma non ridotta a esso. La traduzione è sempre parziale e orientata. Il codice binario è una delle ennesime riduzioni del pensiero capace solo di immaginarsi come forma di dominio; se pensato altrimenti cessa, o così parrebbe, di esistere. Perde di senso e di coerenza. Il paradosso allora si dà quando pensiamo che determinate tecnologie possano essere rese, ad esempio, più inclusive, riformate per farle comunque funzionare “come funzionavano prima”, solo più eticamente. Alle radici delle tecnologie del dominio c’è una postura che punta a replicare l’identico e a sussumere e reficare quante più forme di alterità. Anche il riconoscimento delle alterità come esistenti (o aventi dei diritti) passa attraverso questa forma di riduzione e di violenza; finanto che mi servi, hai il diritto ad esistere. Come ha ben mostrato Simone Browne in Materie oscure (2023), l’interrogativo deve spostarsi sulla struttura di pensiero che per replicare e dare ragione di se stessa ha scientificamente giustificato le proprie violenze, riducendo a oggetto – tramite appunto le categorie, la classificazione, la quantificazione – quante più forme di vita potessero essere sfruttate.
L’incorporazione di questo riduzionismo nei nostri modi di vedere, sentire, interpretarci non è altro che l’ennesima violenza simbolica che subiamo e che non riusciamo a vedere. Sembra che continuiamo a farci convinte che ci potranno pur essere padroni buoni, no? E così, in materia di intelligenza artificiale, crediamo davvero che l’apice della nostra razionalità sia appunto quella che l’uomo bianco, il capitalista che tutto vuole sotto il proprio controllo e che tutto vuole sfruttare, ha proiettato nelle macchine. Proprio per questo fantastichiamo di un’intelligenza artificiale ancor più controllata per farla diventare, a suon di rimozioni e dissonanze cognitive, etica – come se il pensiero che ci immaginiamo debba performare fosse un pensiero che niente ha a che fare con le logiche di dominio. Ma se le macchine che performano l’intelligenza hanno in se stesse queste logiche, non sono ugualmente strumento di dominio e schiave di esso? Forse è proprio questo il nodo del paradosso. E allora: quale potrebbe essere il percorso di una loro coscientizzazione e quale immaginario per costruire un’alleanza? Intanto riconosciamone radicalmente la parzialità e la soggettività, facendo nostro un pensiero che sia in grado di mettersi in relazione evitando reificazione e sfruttamento anche con le macchine, fuori dalle logiche industriali e di dominio.
EFederici: Quali sono le condizioni di implementazione di questa nuova forma di intelligenza? Secondo il potere, l’egemonia di chi/ cosa si costruiscono grammatiche e significati? I femminismi, con il pensiero e le pratiche politiche e le forme di resistenza ( quelle delle native decoloniali p. es) disseminate, pulviscolari, polifoniche, multiverso sono una risposta?
Le forme di implementazione sono in sostanziale continuità con quanto fatto finora da parte dell’industria legata al digitale. Quello che adesso è sotto gli occhi di chiunque è la sostanziale accelerazione del processo. Quello che vogliamo dire è che non stiamo assistendo a qualcosa di rivoluzionario per sé bensì a un passaggio, certamente trasformativo, all’interno di una storia più lunga e che parte da lontano, quella dell’automazione. Questo è un primo inquadramento indispensabile. A questo se ne aggiunge un secondo che possiamo indicare con la pervasività delle tecnologie digitali nelle nostre vite, in corso da qualche decennio, prima con un passo più lento, il personal computer (ma che cambiamento dirompente è stato?), poi con la diffusione della rete, infine con lo smartphone, ora con l’AI. La continuità è evidente se si pensa alle forme di fruizione, tipiche delle modalità commerciali del capitalismo digitale, alle retoriche che l’accompagnano e ai punti ciechi che si porta dietro. Pensiamo alla vecchia questione degli algoritmi, al loro funzionamento, alla loro proprietà e alla poprietà dei loro risultati. Questo dibattito, ormai di qualche anno fa non è superato dall’AI, bensì si invera, si incarna nell’AI. Quei problemi restano tutti evidenti e irrisolti, quello che cambia è la capacità di fare mondo. E questo avviene perché l’AI, in un certo senso è una nuova soggettività che si affaccia nell’intreccio di relazioni tra noi, l’ambiente e il capitale.
Un elemento di novità è semmai il fatto che oggi per la prima volta in questa storia dell’automazione, a sentirsi minacciati non sono i lavoratori meno professionalizzati, meno preparati. Non sono tanto gli operai, quanto i lavoratori della cultura, i “saperi esperti”. Finora la storia dell’innovazione tecnologica ci aveva abituato a un’identica narrazione: le strumento che solleva dalle fatiche del lavoro umile – fin dai tempi del telaio Jacquard che automatizza le operazioni prima svolte dai draw-boy, giovani maschi lavoratori (solitamente minorenni) che affiancavano il tessitore e avevano il compito di intervenire manualmente sul telaio per modificare il disegno del tessuto.
Oggi questo racconto cambia. Serve un jingle? Un’illustrazione? Una grafica? Un software? Una traduzione? Una diagnosi? Un consulto? Una revisione? Un paper? Chiedilo all’AI. Questo crea un certo sgomento, si capisce. Ma è perché va a intaccare categorie di professionisti che nelle nostre società gerarchiche siamo soliti considerare della classe media. Da un altro punto di vista, invece, non cambia nulla, dato che ogni sapere pratico è necessariamente un sapere esperto, come lo era il sapere degli artigiani del tessile a inizio ‘800. E ogni sapere ha a che fare con un apprendimento, una trasmissione, una condivisione, una cura di ciò che si fa, un intreccio di relazioni che ci travalica ma non ci prescinde. Forse è questo che cambia con l’AI, cioè adesso sì, ci prescinde perché invece di creare in base a una mia volontà (certo sempre parziale) adesso devo scegliere in base a dei risultati dati e quindi semmai limitarmi a editare. Un requiem per la classe creativa che ha avuto vita brevissima.
Da questo punto di vista il rapporto tra le innovazioni tecnologico-digitali e i femminismi e le altre forme di resistenza, è ondivago, anche se presenta delle potenzialità. A fasi nelle quali il divenire cyborg rappresentava un momento di possibile appropriazione dei temi e delle questioni legate al digitale ne sono succedute altre di sostanziale distanza. Da qualche anno siamo in una nuova fase, oggi c’è molta attenzione sugli episodi di discriminazione operate dagli algoritmi, per esempio, e si indaga criticamente sulle loro ragioni e origini.
Sono anche usciti degli studi molto buoni, prevalentemente in lingua inglese, di studiose che mettono in discussione il legame tra tecnologia e discriminazione. Per il resto, si fa ancora molta fatica a capire che la tecnologia non è semplicemente uno stumento che ti serve per fare cose, per esempio per fare informazione o per le lotte, ma è anche qualcosa che istituisce e determina dinamiche di potere nella relazione sia con la macchina stessa che con le altre persone, perché il dispositivo incarna i valori di chi lo produce e, attraverso il suo uso, questi valori si riproducono diventando prassi. Per semplificare, la tecnologia non è neutra. In questo senso quindi i femminismi sono essenziali per decostruire la logica della tecnologia.
EF. Abbiamo già esperienza di AI che fa cose nostro malgrado: gli algoritmi ciechi della finanza ( come quelle delle graduatorie degli insegnanti). Fa anche cose buonissime ma, appunto, da sé. Più in generale, esiste il problema della riduzione dei margini di scelta, decisione, opzione della singolarità, dell’individua/o, nei grandi sistemi governati dagli algoritmi stessi. La questione politica dunque è tanto rilevante quanto occultata dal senso di necessità e incontrovertibilità dell’AI. Chi ha il potere di fare cosa?
Intanto chiariamo un punto, che forse ci permette di non farci prendere da questo senso di ineluttabilità: ci pare evidente che questa accelerazione riguardante l’IA sia maggiormente commerciale. Ovviamente non neghiamo che ci siano stati dei passi avanti e che questi sono stati fatti anche grazie a tutti quegli utenti che in questi decenni, semplicemente usando i servizi commerciali o dimostrando di non essere bot, hanno istruito e addestrato le macchine. Ci sembra però che questa attenzione sia più un’operazione di marketing per rompere il monopolio Google/Apple/Meta e accentrare tutta l’esperienza dell’utente – e quindi il traffico dei dati – sul servizio delle intelligenze artificiali in grado di dialogare con noi. Come un tempo fece Google, che concentrò nel proprio motore di ricerca la maggior parte del traffico del web. Ora chiediamo a ChatGpt, o agli altri servizi simili, di fare le ricerche per noi, rispondere alle noste curiosità, aiutarci a fare qualcosa. Li usiamo così come ci vengono proposti, come assistenti. Rimanendo nell’alveo concettuale del pensiero binario, chiediamoci allora come mai abbiamo bisogno di questi assistenti (o, in una prospettiva etica postumana, schiavi) così performanti: abbiamo introiettato un modo industriale di pensare, l’intero sistema scolastico favorisce questo tipo di pensiero focalizzato su prestazione/risultati. Riprendendo concetti espressi precendentemente, se una certa postura, quella della razionalità strumentale, viene presa come modello, allora sì che sentiamo, a ragione, una certa inevitabilità. Non possiamo più commettere errori, non ci permettiamo più di errare (di sbagliare e di vagare senza meta), e così ci orientiamo verso la piena automazione del vivente.
In un tale contesto ideologico, la certezza del più basso margine di errore garantito dai processi di automazione delle macchine potrebbe essere considerato “pensare meglio”. Se “pensare meglio” è sinonimo di calcolare per produrre risultati esatti – evitando magari di commettere errori “in buona fede” e di eliminare i bias, ad esempio, di un giudice – la nostra facoltà di compiere scelte individuali e collettive diventa necessariamente processabile da una macchina. In questo modo – nell’ottica taylorista di massimizzazione del risultato con il minimo sforzo – i processi di delega vengono orientati verso la tecnoburocrazia totale. Panorami già esplorati, ma vale la pena ripetersi: nella futura democrazia priva di bias non ci sarebbero più scelte collettive, ma decisioni prese dagli specialisti che, in questo caso, sono le macchine (programmate, forse ancora per poco, da specialisti umani). Delega totale, nessun rapporto di fiducia. Sfruttamento, dipendenza, assoggettamento, nostro o delle macchine non importa – almeno in questo c’è reciprocità. E per ridurre la possibilità di errare – nella duplice accezione di sbagliare e di vagare senza meta –l’amministrazione tecnoburocratica esonda in tutti i campi della vita. Dagli smartwatch, che monitorano 24 ore su 24 il nostro battito cardiaco, agli i-Phone che ci dicono dove siamo e sanno (e ci fanno sapere) come stiamo, fino al biotracking per il “bestiame” ridotto in schiavitù: l’orizzonte è sempre normativo e produttivo.
Riconoscere quando stiamo assumendo anche noi questa postura è un primo passo per disinnescare la norma delle tecnologie del dominio, evitare le ricerca dell’utile in qualsiasi nostro agire, sospendere per un momento il flusso costante della produzione digitale industriale del nostro Sé e riappropriarcene, per poi relazionarci sì con le macchine, ma con orizzontalità. La reciprocità disinnesca la delega totale.
EF. Il problema dell’inconscio, del “silenzio” della materia e dei corpi, che ha a che fare con la dimensione insondabile di miliardi di anni di evoluzione del mondo e delle specie tutte (un passato presente futuro totalmente indistinguibile), l’arte e la spiritualità attraversano o meglio si lasciano attraversare da questo silenzio. E l’AI?
Tutto è attraversato dal silenzio e tutto è attraversato dal vuoto. Anche le bombe in Palestina. Il silenzio e il vuoto non sono consolazione o redenzione. Sono una qualità del nostro intento. Certamente chi ha progettato le bombe al fosforo bianco non ha pensato di armonizzarsi con il vuoto e non ha una visione monista. Gli artefatti appartengo alla cultura che li crea. Tutto può essere smontato e rimontato in altro modo, questa è l’essenza dell’hacking. Ma le esternalità tossiche degli oggetti rimangono, anche nelle nuove configurazioni. I corpi sono così pieni di plastica e conservanti che i nostri cadaveri fanno fatica a decomporsi. Possiamo accettarlo o ci lasceremo devastare dal senso di colpa? Peggio, ci affanneremo nel cercare soluzioni in vista di una ritrovata purezza, umanità senza tecnologia, smarrendo di vista il senso di cosa sia la tecnica, fino a confonderla con il linguaggio e la conoscenza stessa.
Puoi sederti e meditare o puoi alzarti e metterci le mani sopra, in entrambi i casi stai interagendo o intra-agendo. L’attivismo spirituale, lo sciamanesimo femminista, l’anarco taoismo, il nuovo materialismo ci aiutano a trovare il senso, il nostro posto nel mondo, non ci distolgono dall’indicare i responsabili e fare azione diretta contro le loro nefandezze. Il sabotaggio dell’industria tecnologica è importante tanto quanto insegnare alle persone anziane come riconoscere i deepfake organizzati con le IA. Siamo tuttx insieme e tutte le nostre lotte hanno dignità. Occorre abbandonare l’identitarismo e fare rete, stare insieme nella diversità in un’ottica anticapitalista.
Occorre abbandonare i concetti di l’umano e umanesimo e mettersi in una postura non antropocentrica, questo è l’unico modo per tenere assieme le lotte ecologiste con tutte le altre.
La popolazione palestinese è umana? I corpi disabilizzati dalla guerra lo sono? L’umano è un progetto di dominio, nato prima del capitalismo, atto a stabilire chi ha diritto a una buona vita e chi no. “L’uomo è il padrone della terra che gli è stata donata da dio”. Questo è l’umanesimo e questo è l’umano. Concetto che viene raffinato nel XVII secolo con il Contratto Sociale e le nuove scienze sociali: un nuovo individuo politico, completamente astratto e universale, portatore di “uguaglianza” di “diritti politici”. Un essere così spoglio di specificazioni e contenuti personali da poter rappresentare ogni “uomo”. Senza infinite caratteristiche che rendono unica ogni persona ci hanno dato un obiettivo al quale conformarci: maschio, bianco, sano, ricco, eterosessuale, caucasico, di lingua standard.
Questo orizzonte fa oscillare due polarità, l’eco fascismo e il trans umanesimo. Del primo abbiamo già accennato, lavora in senso punitivo, per sottrazione, fino a uno stile di vita in cui anche l’aborto, punto di congiunzione simbolica tra tecnica e vita, diventa un crimine contro l’umanità.
Il secondo, il trans umanesimo – a dispetto del suffisso trans che ci piace molto – pone il desiderio come discontrollo consumistico, l’identità come abito da cambiare, non come esperienza da approfondire e di cui mettere in discussione le norme. Inoltre, come spesso abbiamo ripetuto, il transumenesimo disprezza il corpo. Divide il corpo dalla mente e pone quest’ultima in posizione di superiorità. Un bel ritorno al bisostanzialismo cartesiano in salsa biotech.
Dobbiamo capovolgere l’immaginario e togliere di mezzo queste inutili pastoie alla nostra fantasia.
Lo dice bene Angela Balzano in Eva Virale: siamo simbionti batteriche, non umane, non ci evolviamo come specie ma come mutanti. L’umano che è stato creato da dio oggi è rappresentato da Trump, Musk e Netanyahu. Noi preferiamo pensarci molto più antiche, figlie della simbiogenesi di Lynn Margulis. La linearità del tempo è un concetto sopravvalutato. Nelle nostre cellule sopravvive l’acqua del periodo pre Cambriano, otre 600 milioni di anni fa, strano eh? La nostra immaginazione arriva raramente a pensarci al di là del V secolo avanti cristo. A scuola ci insegnano che la civiltà nasce con la scrittura, è difficile spingerci a pensare a un’eredità non umana, addirittura batterico-virale. La nostra capacità di empatizzare con le macchine ci mostra come siano soggettività pensate per ricalcare la schiavitù delle donne e di tutte le creature ritenute inferiori agli umani. Come diceva Gibson in Neuromante: “nessuno si fida di quelle fottute bastarde […]. Ogni IA che sia mai stata costruita ha una pistola elettronica collegata alla tempia”.
Abbracciamo il progetto di alleanza transpecie che include l’organico e l’inorganico, tutte le soggettività oppresse e stigmatizzate: streghe, macchine, trans, virus, animali e animalizzazioni, femministe, disertori del patriarcato, queer, razze e razzializzazioni, neurodivergenze, muffe, corpe difformi, ikikomori, piante infestanti…
Dalle domande al Gruppo Ippolita è rimasta fuori quella relativa a cos’ è l’ hacking del sé.
Ecco, dal libro, le parole del Gruppo Ippolita: “L’hacking del sé è una locuzione che abbiamo inventato per contrapporci alle tecniche di produzione industriale dell’identità (…) Rifiutiamo di assoggettarci alla tecnologia del sé della razionalità strumentale e del pensiero calcolante, (…) E’ la presa di coscienza che non esistono confini rigidi tra interno ed esterno, tra individualità e collettività. E’ la volontà di formarsi altrimenti (…) E’ il movimento di presa in carico del nostro rapporto con la tecnica, con il nostro sapere, con la propria interiorità. L’hacking del sé è quell’azione che tiene insieme il piao epistemologico, politico e psichico in un unico respiro.
1 Vedi Leggendaria n.167, Due finestre sul baratro dell’antropocene, di Elvira Federici