Le tecnologie moderne sono, essenzialmente, modalità di costruzione e conservazione dell’ordinamento sociale. Solidamente incarnate in strutture materiali – acciaio e cemento, cavi e transistor, antenne e satelliti – condizionano in profondità e per lungo tempo il modo in cui le persone lavorano, comunicano, si muovono, consumano, ma soprattutto la forma e la qualità delle associazioni umane e il loro rapporto con il non umano. Intelligenza artificiale è un nome assai infelice, ma di grande successo (coniato da John McCarthy nel 1955), dietro cui si agita un progetto pluridecennale, tecnico e politico al tempo stesso, per la conservazione dell’ordine industriale, e oggi finanziario, un ordine che con il susseguirsi compulsivo di emergenze globali ha raggiunto un grado di ingovernabilità e distruttività senza precedenti. Si tratta dunque un progetto di controllo del controllo, perseguito, beninteso, a fin di bene, e assegnato alla capacità sempre più spinta di accedere e manipolare, tramite complessi algoritmi statistici, materiali linguistici e contenutistici di vario genere con lo scopo di simulare l’intelligenza umana e mettere in atto ciò che lo storico della tecnologia David Noble ha chiamato un progresso senza persone.
Dopo la meccanizzazione dell’agricoltura, l’automazione del lavoro in fabbrica, l’informatizzazione delle professioni amministrative, da poco più di un decennio, e con forte accelerazione negli ultimissimi anni, assistiamo a un processo di esternalizzazione della quasi totalità delle funzionalità e facoltà umane in una congerie di dispositivi qualificati generalmente come smart, come a rimarcare il passaggio da qualcosa di imperfetto e inaffidabile, la vita e l’esperienza umana, a qualcosa di controllato ed efficiente. Si cerca così di realizzare il sogno che la cibernetica rincorre fin dagli anni ’40 del secolo scorso: una buona gestione delle cose che superi definitivamente le incertezze, le contraddizioni, i difetti, i ritardi, l’imprevedibilità dell’azione umana. Una gestione che implica dunque la progressiva eliminazione del contributo umano dagli accadimenti significativi, insieme alla moltiplicazione di entità artificiali che ci allevano – in senso zootecnico – ci tolgono ogni responsabilità e anche ogni possibilità di comprensione di quanto ci circonda.
Questa dinamica, tuttavia, non può oggi essere percepita, né pensata, in termini di progresso, inteso come quella idealità teleologica della modernità che trovava una duplice radice nell’impulso a soddisfare bisogni sociali sempre crescenti attraverso l’espansione indefinita delle forze produttive, e nell’impiego socializzato della scienza al fine di dominare in modo sempre più perfezionato la natura, e, con essa, la società, pensata come una sua componente. Ma già durante il secolo scorso, queste due radici si sono, per così dire, disseccate, col venir meno del connubio storico tra emancipazione sociale e abbondanza mercantile, da una parte, e, dall’altra, col divenire il cammino della scienza sempre più opaco, e sempre più piegato sulla dimensione della manipolazione tecnica del mondo, una manipolazione tanto potente quanto vieppiù incomprensibile, in particolare a partire dall’era atomica. Quando l’idea di progresso materiale smette di costituire il principale fattore di coesione sociale, viene rimpiazzata da una logica dell’emergenza e della crisi permanente, che tende a separare sempre di più l’organizzazione della società dalle difettose dinamiche umane, attribuendo a queste ultime ogni problema, e riponendo nell’incessante innovazione tecnologica ogni possibile soluzione. Così, da quel punto in avanti, a chi volesse continuare ad utilizzare illusionisticamente la categoria del progresso e della sua presunta inarrestabilità, per giustificare il corso della storia, gli andrebbe fatto notare che il soggetto di tale progresso è però cambiato, e al posto dell’individuo della classe media occidentale si trova ora la macchina cibernetica.
E, anzi, in questa nuova forma di progresso senza persone si dispiega una vera e propria guerra contro tutto ciò che è dotato di un’autonomia esistenziale, intellettuale, biologico-riproduttiva. Una guerra nella quale sono impegnati Stati, grandi aziende e potentissimi gruppi transnazionali, che impiegano tutti i mezzi a disposizione per assicurarsi una posizione di vantaggio nella escalation tecnologica. Tale fuga in avanti consente di occultare puntualmente la crisi sistemica, proiettandola su una pletora crescente di emergenze occasionali – basti pensare all’emergenza Covid e alla gigantesca operazione di ingegneria sociale che l’ha accompagnata – le quali determinano ogni volta un cambio di status delle tecnologie digitali, che da macchine che supportano compiti e obbiettivi umani, divengono macchine che simulano intenzioni e decisioni umane attraverso algoritmi predittivi, macchine a cui sempre di più sono assegnate funzioni antropomorfiche, e che come dei tutori artificiali in grado di esercitare un potere normativo capillare sulla vita degli individui, per guidarli, consigliarli, redarguirli, prevenirne i comportamenti inadeguati. E sono molti i settori della società – dagli spazi abitativi alla dimensione urbana, dall’istruzione, alla sanità e la giustizia – che in misura più o meno avanzata sono già diffusamente penetrati da dispositivi automatici che ci mettono “sotto tutela”.
Ed ecco le case smart, o domotiche, progettate su principi di risparmio energetico, comodità, sicurezza, automazione e controllo da remoto, e le città smart, esito di processi sempre più accelerati di distruzione/ricostruzione dei contesti urbani all’insegna del controllo totale di ogni parametro ambientale e della smaterializzazione dello spazio pubblico, al fine di allevarvi, in senso zootecnico, i lavoratori in crescente esubero, gli agricoltori cacciati dalla terra per far posto ai robot della nuova agroindustria intelligente, e altri residui di umanità. Dispositivi come l’identità digitale globale e la valuta digitale centralizzata diverranno a breve interfacce obbligatorie tra la massa degli individui atomizzati e l’infrastruttura di tutela sociale in grado di prevedere e programmare in modo automatico ogni aspetto della loro vita, incluso l’accesso ai beni privati.
Va osservato che il variegato sistema di dispositivi informatici riuniti sotto la denominazione di intelligenza artificiale sta rapidamente acquisendo uno status di autorità assoluta, che gli deriva da un’efficacia che si amplifica continuamente attraverso processi del cosiddetto apprendimento automatico (machine learning). In tal modo le presunte intelligenze non-umane – presenti non solo nei chip del computer, ma ormai più diffuse degli individui stessi, con capacità computazionali superiori, e in grado di dialogare tra loro attraverso le nuove reti di connessione 5G, 6G, ecc. – tendono a rendere l’uomo obsoleto e sostituibile praticamente in ogni campo. Per altro, l’escalation tecnologica nella quale siamo immersi è totalmente compenetrata dalla corrispondente escalation militare e nei campi di battaglia robotizzati, dove l’IA è usata ovunque.
Colpisce, poi, come un fenomeno tanto poderoso e determinante per la specie umana non si accompagni ad alcun serio dibattito pubblico, lasciando la sua narrazione ad apparenti discussioni tra esperti, per lo più drammaticamente rozze, invariabilmente articolate con gli stessi pseudo-concetti, come opportunità e rischi, e talora mettendo in scena uno sdoppiamento tra un fideismo apologetico e un catastrofismo altrettanto fideistico.
Da una parte l’intelligenza artificiale salverà vite, risolverà i problemi ambientali, ridurrà la povertà, regalerà a tutti vite di svago e contemplazione, e finanche un’immortalità tecnologicamente assistita, facendo dell’IA un nuovo Graal su cui molti oggi proiettano antiche speranze di salvezza.
Dall’altra si parla dell’IA come sistema in competizione con l’umano e portatore di rischi esistenziali per la nostra specie, ma prescrivendo al tempo stesso dosi crescenti di tecnologia come unica possibilità di gestire positivamente tali rischi. Ma se l’immaginario distopico comune prefigura creature artificiali che presto ci soggiogheranno con la loro superiorità cognitiva, ciò con cui abbiamo a che fare sono piuttosto entità a noi aliene, cioè capaci di funzionare in modi e forme autonome e per noi incomprensibili, istituendo così di fatto una “decisionalità artificiale” alla quale possiamo solo adattarci senza comprenderla, aiutati solo dalla disponibilità incondizionata, dalle sembianze antropomorfiche e dalle caratteristiche ergonomiche dei dispositivi tecnici. La tecnologia guidata dall’intelligenza artificiale diventa ogni giorno di più un sistema di relazioni, un enorme sistema di interfacce, sempre più personalizzate, che come angeli custodi accompagnano ogni momento della vita degli individui, seguendo i loro movimenti, registrando le loro funzioni fisiologiche, e indicando le scelte migliori da fare. Si produce così un regime di verità a cui non si può sfuggire nella misura in cui opera sui fatti in tempo reale, o addirittura anticipandoli.
Così, attraverso la digitalizzazione diffusa, le classiche statistiche, raccolte e compilate da esperti e tecnici, stanno lasciando il posto ad una nuova fisica sociale basata sull’elaborazione automatica di immense banche dati e informazioni raccolte da sensori e dispositivi disseminati in modo sempre più ubiquo, e che costituiscono il materiale da dare in pasto all’IA – i cosiddetti big data. In tale impresa non c’è più traccia dello sforzo di ridurre la complessità dei fenomeni sociali ricorrendo a modelli di riferimento, come la figura dell’«uomo medio» della statistica classica: la nuova fisica sociale basata sui big data si propone di cogliere e guidare la realtà sociale senza mediazioni, aderendo per così dire alla superficie dei comportamenti come un abito smart in grado di produrli e anticiparli. Tale impresa si appoggia anche sul cosiddetto comportamentismo, una corrente della psicologia che mira ad una gestione empirica delle relazioni tra certi tipi di stimoli o condizionamenti ambientali e certi tipi di risposte comportamentali, senza neppure porsi il problema di che cosa sia la mente umana, riguardata come una scatola nera il cui funzionamento interno è inconoscibile.
Più in generale, la rinuncia ad ogni sforzo di modellizzazione dei fenomeni è ciò che contraddistingue ogni approccio alla realtà basato sull’elaborazione automatica di grandi quantità di dati, anche dal punto di vista epistemico. L’IA, ad esempio, non può fornirci spiegazioni dei fenomeni, ma può produrne variegate simulazioni, senza che possiamo davvero capire in che modo lo faccia. In questo senso, essa non “supera” il metodo scientifico, fornendo strumenti di conoscenza alternativi, come vorrebbero alcuni suoi apologeti, ma è piuttosto l’eclisse di quest’ultimo ad essere condizione preliminare per la sua affermazione. Dunque l’IA è propriamente un’innovazione post-scientifica. L’avvento dell’IA, costituisce un vertice del processo di tecnicizzazione della produzione del sapere (avviata su larga scala con l’era atomica) che vede l’abbandono di fatto del metodo scientifico a vantaggio di una tecnoscienza intesa intesa come insieme di protocolli di manipolazione diretta della realtà in cui la comprensione teorica è rimpiazzata dall’elaborazione di grandi quantità di informazione in lunghe sequenze di prove ed errori. Venendo meno l’intermediazione della teoria, la pratica tecno-scientifica diviene manipolazione assoluta del mondo, pur senza comprenderlo, fabbricando una realtà vieppiù anomica e giustificando in tal modo l’ulteriore intervento tecnico, in un mulinello senza fine.
Il progetto di una IA ha visto un primo impulso significativo nel decennio 1943-53, con la nascita del movimento cibernetico e i tentativi di modellizzazione della cognizione umana per mezzo del calcolo logico-simbolico. Il suo sostanziale fallimento insieme al concomitante accrescimento della potenza di calcolo hanno portato l’affermazione di una nuova IA, sotto forma di algoritmi di ottimizzazione statistica implementati da reti neurali in grado di “apprendere” in modo automatico purché alimentate da crescenti quantità di dati (machine learning). Il modo con cui tali dispositivi riconoscono un’immagine, o selezionano un insieme di dati per classificare il comportamento di un utente, non lo decide il progettista della rete, ma si auto-genera, per così dire. Un processo che non ha più nulla a che fare con la deduzione logico-simbolica, ma consiste in una complessa dinamica che individua correlazioni tra stringhe di dati sulla base di informazioni probabilistiche sul modo in cui le stringhe si combinano nella massa di dati con cui la rete è stata addestrata. Un addestramento di questo tipo è dunque radicalmente diverso anche rispetto all’apprendimento umano: dal punto di vista cognitivo, l’intelligenza umana è un sistema sorprendentemente raffinato che opera con piccole quantità di informazione (un bambino è in grado di generalizzare una nozione a partire da pochissimi esempi basandosi su un substrato condiviso di significati appresi dal contesto in cui vive), mentre una rete neurale profonda “impara” pappagallescamente ad abbinare le parole o simboli senza alcuna sintassi o regola, ma solo sulla base di correlazioni statistiche ottenute accumulando e confrontando enormi masse di dati. Così, tra le ragioni principali alla base del disallineamento tra le prestazioni dell’IA e le estrinsecazioni della mente umana attraverso il linguaggio, vi è la costitutiva aderenza delle prime alle caratteristiche formali, statistiche e grammaticali del linguaggio, trascurando per lo più la pragmatica e le situazioni specifiche in cui il linguaggio viene effettivamente utilizzato, come viene comunemente utilizzato e, cosa più importante, per quale scopo viene utilizzato. Le procedure di elaborazione automatica sono del tutto prive di riferimenti al contesto e al significato, che sono invece i principali criteri di scelta e di giudizio umani. Il loro compito è dunque innanzitutto quello di fare rapidamente le cose senza capirle, cosicché si può dire che l’unica creatività espressa dall’IA sia proprio l’errore.
Come ad esempio le cosiddette allucinazioni algoritmiche, laddove il riconoscimento artificiale di un oggetto può essere totalmente fuorviato dall’aggiunta di un dettaglio insignificante per un’intelligenza vera, o, viceversa, laddove un algoritmo può riconoscere un oggetto particolare in un agglomerato casuale di pixel in cui siano presenti alcune caratteristiche statistiche dei pixel presenti nell’immagine dell’oggetto.
Oppure, è già stato sottolineato da vari autori quanto la ricerca di mere correlazioni attraverso il data mining possa rivelare qualsiasi cosa pur di raccogliere dati sufficienti. Proprio perché le attuali banche dati hanno dimensioni gigantesche, devono contenere correlazioni arbitrarie, la maggior parte delle quali però sono spurie, cioè derivanti solo dalla numerosità e non dalla natura dei dati. Quest’idea può essere resa precisa utilizzando la teoria di Ramsey, una banca della matematica moderna che consente di “estrarre ordine dal caos” per via puramente combinatoria (un semplice esempio: sono sufficienti sei invitati a cena per avere una tripletta totalmente correlata, in cui cioè tutti e tre gli ospiti si conoscono tra loro, o viceversa nessuno si conosce). Si potrebbero fare esempi, anche divertenti, di questa sorta di creatività demenziale degli algoritmi statistici.
Tutto ciò assume però un significato drammaticamente serio, e marcatamente politico, in un numero crescente di settori, come l’apprendimento scolastico, la salute, il diritto, la guerra, nei quali questo tipo di analisi algoritmica viene utilizzata per fare previsioni e prendere decisioni.
L’intreccio inestricabile di correlazioni significative e correlazioni spurie nei big data assegna a questo tipo di decisionalità una dimensione marcatamente irrazionale, perché basata sull’idea psicotica che tutte le connessioni siano significative, indipendentemente dal riconoscimento di nessi causali. E tale dimensione è strutturale, non è dovuta ad inefficienze o imprecisioni tecnicamente modificabili.
Così, i moderni astrologi algoritmici non fanno le loro predizioni attraverso calcoli delle posizioni dei pianeti nei quadranti e decanati presenti alla nascita di un individuo, ma attraverso la profilazione e l’analisi statistica dei suoi movimenti facciali, delle sue reazioni a stimoli di vario tipo, dei suoi click, ricerche, transazioni, spostamenti sia nello spazio virtuale che in quello reale, con una sorta di algoritmia divinatrice che si traduce in dispositivo decisionale e di governo (si assiste di fatto al ritorno in versione algoritmica di pseudoscienze che sembravano dimenticate, come la frenologia e la fisiognomica). Per prendere decisioni sulla vita delle persone sono sempre più utilizzati software ritenuti in grado di prevedere se un cittadino commetterà o reitererà un reato, se uno studente abbandonerà gli studi prima del tempo, se un candidato per un impiego sarà abbastanza collaborativo, se un potenziale debitore restituirà un prestito o se una persona avrà bisogno di una particolare assistenza medica, e ciò sulla base di correlazioni tra dati di ogni tipo, senza alcun riferimento al contesto. Una dimensione totalitaria che prefigura una totale inversione dell’onere della prova, reintroducendo un criterio analogo a quello dei processi per stregoneria, in cui si è colpevoli in quanto accusati.
La stessa dimensione pervade gli attuali tentativi di trasformare i sistemi sanitari in un gigantesco sistema di controllo preventivo della popolazione attraverso la cosiddetta medicina predittiva guidata dall’IA (che oggi negli USA sta vedendo una fortissima accelerazione con la sinergia tra la società privata Palantir, la CIA e la CDC).
La stessa dimensione pervade i dispositivi di previsione, selezione e distruzione degli obiettivi nell’attuale guerra robotica. Il potere e la capacità di “decidere” chi non pagherà le tasse o chi avrà bisogno di certe cure mediche, si connette senza soluzione di continuità al potere e alla capacità di “decidere” chi può vivere e chi deve morire sulla base dell’analisi automatica in tempo reale enormi masse di dati su tutto ciò che vive e si muove su un territorio, come è accaduto e sta ancora accadendo a Gaza, generando a velocità spaventosa gli obiettivi da colpire attraverso l’assegnazione a persone, cose, edifici di “punteggi” che misurano la probabilità di presunte correlazioni col “nemico”.
In senso generale, ritenere di poter prevedere le azioni future di una persona vivente così come si può prevedere l’occorrenza di certe stringhe di testo in un database equivale a ritenere che la dimensione del tempo non fa parte dell’esperienza umana. Anche in questo senso, l’adeguamento alla gestione algoritmica delle cose ha l’effetto di restringere ed impoverire aspetti essenziali della natura umana. In direzione opposta alla narrazione che accompagna ogni nuova trovata intelligente, puntualmente dipinta come portatrice di nuove potenzialità, stiamo assistendo non solo all’annichilimento sistematico della possibilità che in futuro possa avvenire qualcosa di diverso da quanto c’è adesso, ma ad una vera e propria regressione, anche alla luce del principio secondo il quale gli algoritmi complessi funzionano bene in situazioni le cui variabili siano ben definite, controllabili, e soprattutto stabili nel tempo. Solo in queste circostanze l’elaborazione di grandi quantità di dati, necessariamente riferiti al passato, può essere efficace per riconoscere o predire cose ed eventi nel futuro. Dunque, la strada per rendere efficaci prestazioni al momento inaffidabili dell’IA a causa dell’instabilità dell’ambiente (visione, guida automatica, screening di massa, gestione dei conflitti ecc.) è quella di indurre forme diffuse di adattamento: rendere l’ambiente in cui opera sempre più stabile, e tutti i processi che vi avvengono, tra cui il comportamento umano, sempre più prevedibili. Se dunque la “poesia” della cibernetica e poi dell’IA è quella di mettere buon ordine nel mondo governando l’incertezza, la “prosa” è invece rovesciata: per poter funzionare adeguatamente, l’IA ha bisogno di un mondo ordinato e sincronizzato. L’idealità dell’utilità della tecnica fatalmente si rovescia nella materialità dell’utilità per la tecnica: dalla macchina al servizio dell’uomo, all’uomo come terminale di un dispositivo che lo supera e lo sovrasta.
Si sente dire spesso che gli algoritmi possono condizionare e influenzare il campo delle decisioni pubbliche, i risultati delle votazioni, le scelte delle persone, ecc. e che pertanto vanno regolamentati con opportuni codici etici. Ma si tratta di questioni del tutto contingenti, e le soluzioni proposte del tutto illusorie, quando non fraudolente. Il punto vero è che la decisionalità algoritmica e la sua continua retroazione sull’automatizzazione dell’umano determinano lo scardinamento della politica in sé. L’idiotizzazione degli ex-cittadini, ridotti alla stregua dei piccioni nella scatola di Skinner, cancella la dimensione stessa del confronto pubblico e riduce la diversità umana a una combinatoria di personalità a scelta multipla. Mentre le macchine si alimentano di dati prodotti dalle nostre tracce esistenziali, noi non solo restiamo antiquati a causa della velocità crescente delle trasformazioni in atto, ma regrediamo a una nuova primitività nella misura in cui perdiamo le facoltà cognitive e relazionali che hanno costruito la nostra civilizzazione. Continuando a guardare compulsivamente in avanti torniamo scimpanzè, perché non possiamo capire perché le cose accadono come accadono, né la trama complessiva che regola i processi decisionali-predittivi-normativi che ci governano, per quanto invariabilmente presentati e introdotti a fin di bene. Occorre allora sottrarsi con ogni mezzo alla regressione in atto, oggi amplificata e accelerata dal processo di violenta implosione del capitalismo occidentale globalizzato, con tutti gli stravaganti ideologismi che l’accompagnano, e guardare indietro per ritrovare un colloquio vivo con la storia e cimentarsi in un inventario degli strumenti culturali necessari per ricostruire un mondo comune oltre l’attuale collasso della società post-industriale e post-politica. Sarà dunque compito di chi mantiene salde le radici nella molteplicità autocreatrice della dimensione umana ricostruire concrete alternative di autonomia culturale, senza le quali ci aspetta un mondo dove ragione e parole saranno ormai inutili perché caos e violenza ne avranno preso il posto.
Stefano Isola

Stefano Isola

Ultimi post di Stefano Isola (vedi tutti)
- A fin di bene? Il nuovo potere della ragione artificiale - 14 Febbraio 2025
- Smart Cities. Lo sterminio della nozione di città - 3 Marzo 2017