Quando facciamo riferimento al “digitale”, o meglio alla “cultura dell’era digitale”, non possiamo negare che questa nostra attualità tecnologica ha di fatto generato una nuova divisione dell’umanità sulla base della capacità dei singoli di esserne parte o no. Lo stesso era accaduto in passato quando le persone erano divise in due grandi categorie: coloro che sapevano leggere e scrivere e gli analfabeti. Oggi la dicotomia, apparentemente più sfumata, è da un lato fra i “nativi digitali” e coloro che comunque hanno saputo adeguarsi e continuano ad adeguarsi agli strumenti informatici e tecnologici che a ritmo continuo vengono immessi sul mercato, e dall’altro coloro che non sono riusciti a stare al passo coi tempi o hanno rifiutato le “avance” del digitale o, quel che è peggio, ne sono rimasti esclusi loro malgrado. Tutto è accaduto in pochissimi decenni: gli smartphone, infatti, sono in commercio solo dall’inizio del nuovo millennio, in parallelo alla diffusione dei primi social media (nel 2004 nasceva Facebook, nel 2010 Instagram), mentre la rete internet, cioè il “World Wide Web” (WWW), è diventata operativa solo dopo il 1993, allorquando il CERN (l’ente di ricerca che lo aveva sviluppato) decise di renderla disponibile a tutti gratuitamente. Ma abbiamo in molti casi dimenticato che si tratta solo di tecnologie recenti, che non abbiamo nemmeno sentito arrivare, anche se alcuni nativi digitali, evidenziando una percezione derealizzante, appaiono talmente abituati a usarle da pensare che siano sempre magicamente esistite.
L’intelligenza artificiale è già fra di noi
Lo stesso sta accadendo con l’I.A., acronimo di “intelligenza” artificiale, che ci stiamo abituando a scrivere con caratteri maiuscoli quasi deificandola e di cui oggi si fa un gran parlare, spesso da punti di vista diversi: si tratta di un’altra tecnologia che non abbiamo sentito arrivare e che sicuramente già oggi molti utilizzano nella loro quotidianità non essendone nemmeno consapevoli e coscienti, sfruttandone le risorse e le potenzialità ormai presenti in varie applicazioni sui propri smartphone e sui propri computer, a partire dai motori di ricerca come Google, interloquendo nelle proprie case con assistenti vocali come Alexa, anche se vi sono coloro che la sfruttano consapevolmente, magari vergognandosene un po’ e tendendo pertanto a non ammetterlo.
La rivoluzione dell’informatica, e adesso quella delle “macchine intelligenti”, appaiono ormai come sfide che stanno continuando a cambiare il mondo, anche se contemporaneamente fioccano da ogni parte timori e angosce che si mischiano a pregiudizi e a sfide che vanno ben al di là della tecnologia stessa, degli algoritmi che presiedono le varie I.A. e dei progetti sempre più avveniristici che sono indirizzati allo sviluppo di una realtà di cui non riusciamo a comprendere le possibili peculiarità future. Il più delle volte ciò avviene nell’abituale contrapposizione fra favorevoli a oltranza e pessimisti per partito preso, quasi uno scontro epico fra “apocalittici” e “integrati”, come li definirebbe Umberto Eco. In ogni caso l’intelligenza artificiale necessita di una buona predisposizione alla convivenza per non cadere in un accorato pessimismo, motivato nell’immediato soprattutto da considerazioni di carattere economico (su tutte, la perdita di posti di lavoro), nel futuro prossimo da timori di ipotetici (ma sempre possibili) conflitti fra uomo e macchine che, forti della loro “intelligenza”, prendano il controllo di sé stesse e si ribellino ai loro “creatori”.
Da qualunque punto di vista si voglia inquadrare il problema, non possiamo nemmeno cadere nel paradosso che, al pari di altri esseri viventi (come cavalli, mucche, maiali, ecc.) l’I.A. sia una nuova razza di entità (seppur artificiale e non più naturale) asservita in un regime di pseudo-schiavitù all’umanità come di fatto consideriamo gli animali; nessun super-computer, nessuna rete neurale, nessun robot industriale o militare che agisca seguendo una sua “intelligenza”, seppur pre-programmata dall’uomo, ha una sua consapevolezza; ma tocca alla nostra consapevolezza imparare a conoscerle, a rapportarci con esse, a sapere quando farne a meno. Nessuno può negare le potenzialità già raggiunte dalle intelligenze artificiali, ma in esse si annidano bug e potenziali pericoli che peraltro sono presenti anche nell’abituale uso di internet, delle sue piattaforme, degli spazi web, dei social, ecc.: anche in questi casi, infatti, si corre il rischio di un progressivo impoverimento dell’esperienza utente e della potenziale trasformazione di uno spazio finora “abitato” da umani in «uno spazio colonizzato, frequentato e governato sempre più da automi e bot, cioè da macchine e da software»[1].
Serve ovviamente comprensione del fenomeno e dei suoi effetti su scala sociale, oltre che economica e tecnologica, quindi comprensione delle ricadute socioculturali che l’I.A. sta avendo e continuerà ad avere sempre più sulla vita degli individui e delle società nel mondo, partendo anche da una seria considerazione su chi in atto è in grado di utilizzare gli strumenti di I.A. e di giovarsene (pochi o molti? Solo in alcune aree del globo o dappertutto?) e chi lo sarà in futuro. E serve capire come siamo arrivati al punto in cui siamo e verso cosa stiamo puntando davvero. A queste domande di carattere generale se ne aggiunge un’altra che ci riguarda più da vicino: in questa fase e in questo contesto, esiste un compito che può essere affidato all’antropologia e alla psicologia? Esiste un campo di lavoro nel quale gli antropologi e gli psicologi possono davvero definire i contorni di un loro contributo altrimenti assente nella congerie, spesso caotica, degli interventi dei vari “specialisti”? Si tratta di dar voce ai diversi contesti culturali e sociali dell’umanità, ai diversi modelli di vita e di possibile uso (eviterei di parlare di “sfruttamento”) dell’I.A., prevenendo e immaginando di curare potenziali fenomeni di dipendenza patologica, affinché il futuro delle macchine e delle stesse persone (e dell’umanità nel suo complesso) possano evolversi in parallelo, evitando di creare ulteriori squilibri oltre a quelli già palesemente esistenti, pensando per esempio a forme di intelligenza artificiale che possano essere davvero etiche, inclusive e culturalmente “consapevoli” (anche se l’uso di questo termine appare epistemologicamente dubbio).
Ma di quale “cultura” le macchine e i sistemi informativi devono poi avere consapevolezza, se la loro progettazione, la loro realizzazione e la loro emancipazione è in mano a poche multinazionali, di un numero addirittura ancor più piccolo di stati? In effetti, già nel 1950 Alan Turing, uno dei matematici britannici che aveva lavorato nel corso dell’ultima guerra al programma di cifratura Enigma utilizzato dalle truppe alleate, aveva parlato in un suo articolo pubblicato sulla rivista “Mind” della possibile realizzazione in un futuro non lontano di “macchine intelligenti”, cioè di computer in grado non solo di eseguire linee di programma preventivamente scritte da persone, ma di operare imparando da programmi di base e seguendo poi principi di “imitazione” e di “sviluppo” delle procedure già sperimentate, proprio come fanno gli umani che adeguano le loro conoscenze e trovano soluzioni anche per risolvere e superare situazioni e problematiche che gli si presentano per la prima volta e di cui non hanno esperienza diretta.
Quasi negli stessi anni iniziarono a essere creati dei software sempre più sofisticati volti a fare eseguire ai computer (che nel frattempo divenivano via via più potenti e veloci) non solo programmi predefiniti, ma anche procedure appositamente scritte per indurre i “calcolatori” a diventare anche “elaboratori”, grazie alla possibile esecuzione di ragionamenti, seppur a loro volta automatizzati. Gli algoritmi di apprendimento di questi appositi programmi, detti “Machine Learning”, nel giro di una ventina d’anni si moltiplicarono e si fecero sempre più sofisticati, tanto che già nel 1966 Joseph Weisenbaum riuscì a realizzare il primo chatbot, chiamata “Eliza” (l’antenata delle attuali ChatGPT e simili), capace di interagire vocalmente con le persone, esattamente come farà il super-computer HAL 9000 con l’astronauta Bowman o con l’ingegnere Chandra nei due libri di Arthur Clarke “2001 Odissea nello spazio” e “2010 Odissea 2” diventati due famosi film (il primo, con lo stesso titolo, di Stanley Kubrick; il secondo, col titolo “2010: L'anno del contatto”, di Peter Hyams).
Se nel corso degli anni successivi furono soprattutto gli enti governativi americani (in particolare quelli direttamente o indirettamente legati alla difesa e alla sicurezza), e poi alcune delle più prestigiose università e le grandi aziende a sfruttare computer sempre più efficienti e rapidi nell’elaborazione dei dati, un altro episodio emblematico della storia della evoluzione dell’I.A. nella percezione del grande pubblico accadde alla fine del secolo, quando il campione mondiale di scacchi Garry Kasparov nel corso di una partita trasmessa su alcune reti televisive fu sconfitto da un mainframe dell’IBM su cui girava un software “decisionale”. L’episodio ebbe subito grande risonanza in tutto il mondo non solo fra gli appassionati di scacchi ma anche nel grande pubblico.
Il passo successivo, avvenuto nel nostro secolo e ovviamente ancora in corso di ulteriore evoluzione, è stato quello di creare un’altra e ancor più avanzata classe di algoritmi capaci di auto-apprendere in autonomia per i nuovi e sempre più sofisticati computer, così da sviluppare non solo “intuizioni” sulla base di software sviluppati dai programmatori, ma perfino di scegliere da sé “come” imparare e perfino “cosa” imparare. Parliamo quindi di apprendimento “delegato”, di fatto automatico, e questo è stato possibile grazie ai grandi progressi che la tecnologia sta evidenziando in questo campo, da un lato grazie a sistemi “quantistici” che hanno superato la logica binaria e sfruttano i principi della sovrapposizione quantica, dall’altro grazie all’adozione di modelli di reti neurali che replicano i modelli delle reti biologiche e sono altresì capaci di utilizzare un connessionismo basato sul calcolo algoritmico avanzato. Già oggi queste reti neurali digitali sono utilizzate soprattutto in meteorologia, sismologia e nella finanza predittiva, oltre che in altre applicazioni ormai divenute essenziali, a partire dal riconoscimento facciale sulle strade o nei luoghi sensibili curato dalle forze di polizia e dalle agenzie di sicurezza; ma sono sempre questi sistemi algoritmici a fornire ai grandi player commerciali previsioni sulla propensione all’acquisto delle persone, sulla base delle scelte delle pagine web consultate o delle mail visionate o scartate così da indirizzare ai consumatori pian piano solo messaggi che possano essere di loro interesse.
Un nuovo umanesimo
Ciò premesso, appare evidente la legittimità di un quesito che anche molti scienziati che lavorano allo sviluppo dell’I.A. si pongono: potranno mai i sistemi di intelligenza artificiale raggiungere e superare nei loro processi digitali le capacità, tutto sommato limitate, dell’intelligenza umana? Potrà essere sviluppato un giorno un sistema di I.A. che impari a “comprendere”, a “ragionare”, a “conoscere”, a “creare” e magari ad avere emozioni come fanno gli umani, cioè come se si trattasse di un essere dotato di “coscienza”? La vera domanda sul futuro dell’umanità, alla fine, è proprio qui. Ed è così che il dibattito sull’I.A., nel classico scontro bipolare fra favorevoli e contrari a cui accennavamo, sembra essersi fatto di giorno in giorno sempre meno ricco di idee e sempre più appesantito da pensieri stereotipati.
Tuttavia, parlando di sistemi di I.A., già non facciamo riferimento solo a relazioni astratte fra l’uomo e la macchina, come cercare risposte immediate a una domanda tramite una tastiera o un messaggio vocale oppure fare elaborare un testo o ottenere i risultati di una ricerca sempre in tempo reale a ChatGPT e simili; facciamo riferimento in alcuni casi anche a relazioni concrete, seppur non “corporee” con forme evolute di reti, dove chip e sequenze di dati surrogano le modalità dei flussi neurali del nostro cervello, ma sfruttando velocità e modalità di calcolo e gestione delle probabilità per noi irraggiungibili. Eppure ChatGPT & C. continuano ad apparirci come entità astratte e informi, quindi ben diverse dalla fisicità con cui è stato immaginato da Clark e da Kubrick il famoso super-computer HAL 9000 di “2001 Odissea nello spazio”. Della fisicità di ChatGPT, come di qualsiasi altro chatbot e di qualsiasi altra forma di I.A. noi non ci accorgiamo perché non ci interessa nemmeno sapere se dietro le risposte che puntualmente ci giungono dall’altro capo dello schermo ci sia qualcosa di materiale o semplicemente qualcuno. Semmai tendiamo a umanizzare questo nostro interlocutore, pur capendo alla fine che si tratta di una “macchina” e niente di più. È più facile, non ci pone interrogativi esistenziali, non ci espone al rischio di doverci spogliare della nostra identità, magari non ci provoca e ci fornisce le risposte che vogliamo e non quelle che non vorremmo mai avere.
Ma può davvero un chatbot o una qualsiasi altra forma di I.A. “comprendere” una persona e il suo stato emotivo oltre che tutte le sfaccettature di significato delle domande che formalmente le vengono poste? Può interpretare le correlazioni fra la persona e il contesto sociale e culturale in cui questa si trova? E quindi decodificare anche i suoi bisogni non esplicitati nel testo, e magari anche il suo stato mentale, per esempio se, trovandosi in un momento di crisi, una persona chiede all’I.A. qual è il mezzo più veloce e facile per porre fine alla sua vita? Qual è il vero supporto che in quel momento ChatGPT (o un’altra I.A.) può dare in un momento in cui dietro a quella domanda si nasconde qualcosa di molto diverso, un bisogno di aiuto e supporto e non la necessità di avere una risposta fredda e “razionale” limitata alle semplici parole contenute nel quesito posto?
Ci si affida a queste nuove tecnologie, in molti casi, nell’illusione di una qualche “intimità”, ma senza le esigenze e la responsabilità di una relazione vera fra persone. L’aspetto più critico non è dunque tanto l’uso dell’I.A., ma come viene percepita da chi la usa e ovviamente come viene offerta e presentata da quelle aziende che l’hanno progettata e che la propongono al pubblico. Non dobbiamo mai dimenticare che un chatbot può imitare il linguaggio umano, può trovare soluzioni ai nostri quesiti sintetizzando migliaia di possibili risposte pre-programmate o statisticamente probabili e/o alternative, ma non ha un’emotività propria e non può esprimere un vissuto autentico, né tanto meno attivare un processo relazionale e dinamico, anche se ha ormai imparato a mostrarsi strutturalmente empatico allorquando se ne presenta l’occasione, l’opportunità o la necessità.
Eppure, proprio questa empatia (per quanto banale e ovviamente solo apparente) è quella che hanno sfruttato Amazon e Apple per lanciare Siri e Alexa, i rispettivi (e ancora oggi più noti) assistenti vocali, da qualche anno sul mercato, in grado di eseguire i nostri comandi nell’ambito dell’internet delle cose ma anche cercare risposte a domande vocali, senza bisogno di accedere da uno smartphone o da un computer, controllare dispositivi, impostare promemoria e sveglie, leggere e inviare messaggi e altro ancora. Numerose sono poi nel mondo anche le applicazioni di robotica industriale in grado di sostituire gli umani in lavori ripetitivi e pericolosi (nei cantieri, nelle catene di montaggio, nella logistica, nell’ambito militare) o, anche se in via sperimentale, nell’assistenza a persone anziane o affette da problemi medici o neurologici; persone che, anziché ricorrere a un badante umano, hanno già a loro disposizione un umanoide robotico che non si stanca mai, non ha un costo retributivo mensile, né può avanzare rivendicazioni sindacali, ecc.
Non si tratta di affidarsi quindi a ipotesi di fantascienza, dato che queste tecnologie e questi prodotti robotici esistono da tempo e in forma spesso già avanzata; è un mondo che ovviamente si andrà sviluppando sempre più velocemente, per esempio nel settore dell’assistenza sanitaria: qui, anzi, alcuni modelli soprattutto fra Stati Uniti e Giappone sono già sul mercato, mentre altri, ancora più evoluti, sono in fase di sperimentazione. Tutti ovviamente sono imperniati su sistemi di I.A. estremamente avanzati. Ma, se molto più semplice è programmare un robot meccanico che saldi sempre nello stesso punto e nella stessa maniera le medesime lamiere di una serie di veicoli tutti uguali, l’uno dopo l’altro, in una catena di montaggio, perché un robot umanoide possa davvero sostituire nelle sua abituali occupazioni giornaliere una badante o un infermiere umani (e prima o poi perfino uno psicologo e, chissà, anche un ministro di culto nel suo confessionale o dal pulpito del suo tempio o della sua chiesa), serve invece ben altro.
Un “androide”, come li definì Ridley Scott nel suo film “Blade runner”, deve essere peraltro anche accettato dal paziente o dall’anziano al quale è dedicato, e pure dalla comunità all’interno della quale è utilizzato. Ma, sempre con riferimento a un “robot caregiver”, prim’ancora di essere accettato, deve superare una serie di importanti controlli e accurati interventi che garantiscano, oltre alla sicurezza dell’assistito e all’accuratezza delle modalità di assistenza per cui la “macchina” è stata ideata, proprio quella carica empatica e quella capacità di adattamento e di evoluzione che, sua sponte (si fa per dire!), deve essere in grado di evidenziare nel tempo, surrogando le attività di un umano grazie a una forma di intelligenza artificiale in grado di autogenerarsi, modificarsi, implementarsi, correggersi, ecc. Tuttavia, è plausibile che nel giro di una o due generazioni al massimo potremmo avere nelle nostre case una macchina intelligente che, come accadde ad Alberto Sordi nel film “Io e Caterina”, ci farà compagnia, porterà a spasso il nostro cane e potrà assistere i nostri anziani o i nostri figli quando non ci siamo, e ovviamente ogni giorno e a ogni ora cucinerà per noi e pulirà dappertutto, senza mai lamentarsi o chiedere un aumento di retribuzione o andare in ferie.
Ipotesi? Nient’affatto: il robot umanoide Optimus, creato da un’azienda di Elon Musk, potrebbe arrivare sul mercato già alla fine dell’anno prossimo al costo di un’autovettura; mentre Aria (questo il nome di un altro robot con fattezze umane femminili), è già in vendita in via sperimentale negli Stati Uniti per fare conversazione e intrattenere le persone che vivono sole, per esempio gli anziani, facendo loro compagnia. E poi già in alcuni ristoranti cinesi e giapponesi sono gli androidi a prendere le ordinazioni e servire i clienti, avendo sostituito in tale compito i camerieri tradizionali in carne e ossa. E non chiedono o accettano mance! La rivoluzione dell’intelligenza artificiale, proseguendo nella modifica dei nostri stili di vita che era iniziata già con la prima rivoluzione informatica della seconda metà del ‘900, sta quindi ulteriormente cambiando il nostro modo di rapportarci con gli altri e con il mondo esterno, oltre che il nostro modo di lavorare, di svagarci, di conoscere, finanche di “pensare”. In estrema sintesi ci ha già condotto a un nuovo umanesimo, a una nuova era.
Viviamo già, magari senza accorgercene, in una fase dell’antropocene in cui stiamo cominciando in massa a delegare la nostra realtà e le nostre singole identità a una ecosfera di fatto parallela, se non alternativa, che inizia a nascondere la realtà fattuale, capace semmai di ridurre le nostre esistenze a forme virtuali interpretate da avatar digitali che ci sostituiscono spesso (per esempio grazie ai social media) nel mostrare sentimenti o nel generare azioni. A chi ha, e riesce a conservare anche in questo contesto, una sensibilità “umanistica”, non rimane che guardare attonito e sconfitto e continuare a chiedersi come si faccia a sentirsi vivi se poi si delega alla rete e alle macchine anche l’immaginario, il pensiero, i sentimenti, le attività, le prospettive e il futuro. A rischio è la capacità di avere relazioni reali con le altre persone, ma anche di continuare a tenere attiva la memoria del nostro cervello e la nostra capacità di analisi e di scelta deduttiva; stiamo andando a impoverire la nostra capacità esperienzale, mentre al contrario sta emergendo la non remota possibilità che sia il mondo reale che lo stesso ecosistema digitale che abbiamo fin qui faticosamente costruito subiscano trasformazioni tali da diventare uno spazio colonizzato, frequentato e governato sempre più da automi, bot e macchine.
Sono in molti a ritenere che, continuando a sviluppare reti di I.A. sempre più interconnesse e potenti e proseguendo di fatto sulla strada di questa sorta di delega in bianco della nostra vita alla realtà digitale e alle macchine che fanno uso dell’I.A., nel prossimo futuro potremmo davvero rischiare di perdere la nostra “singolarità”, cioè il nostro essere intimamente “persone”, con le nostre diversità e le nostre personalità, cioè il nostro modo di ragionare con una nostra individualità e, perché no, con un nostro singolare inconscio. Vi è addirittura chi ipotizza che in qualche modo si possa giungere alla dualità fra realtà percepita e realtà naturale, come nel film “Matrix”, con la sottomissione di fatto degli esseri umani alla tecnologia da loro stessi costruita, seppur con lo scopo tutto ottimistico di aiutarli nella vita quotidiana. Ma se quel film mostra come l’umanità sia finita per diventarne schiava, è adesso possibile che quel mondo immaginario diventi reale e ci sottragga la nostra libertà di pensiero e di azione? Come è possibile custodire nel futuro reale che ci attende la dignità della persona e la sua stessa identità se questa, anche senza accorgersene, diventa schiava, se non addirittura vittima, degli algoritmi che ne stanno cominciando a governare l’esistenza?
Sempre più dovremmo invece capire che, nonostante sia impossibile tornare indietro, abbiamo tutti bisogno di un nuovo umanesimo che guidi «la rigenerazione del pensiero, della conoscenza e dell’umanità dell’uomo», giusto per usare le parole di Edgar Morin[2]. Ma i campi di azione dell’intelligenza artificiale (oltre che i maggiori finanziamenti volti alla sua implementazione e alla sua continua evoluzione) sono sempre più massicciamente rivolti da un lato a scopi militari e dall’altro a scopi ideologici (per indirizzare il “sentiment” delle masse) e a scopi miseramente commerciali (per la trasformazione finale delle persone in meri consumatori). Dovremmo sperare in un nuovo umanesimo che sia il portato di disinteressati «rammendatori dell’esistenza universale, incessantemente lacerata dalle potenze perverse del nulla»[3], ma siamo tutti concentrati nella costruzione di una realtà digitale a cui di fatto aspiriamo con l’obiettivo di diventare tutti protagonisti nel teatro di un nuovo mondo che tuttavia non ha regole e che ha smarrito il senso della differenza fra essere e apparire.
Nessuno nega che l’umanità ha bisogno di sempre nuove e innovative tecnologie, ma anche le tecnologie hanno bisogno di “umanità”, cioè di umanizzarsi e porsi al servizio dell’uomo, o meglio di tutti gli uomini. D’altronde, quando la stampa fu inventata, ci vollero secoli per la sua la piena integrazione sociale e culturale; la rivoluzione industriale si dispiegò su varie generazioni, e anche internet ci ha dato un paio di decenni per metabolizzarlo: di solito la tecnologia “appare” velocemente, ma le sue trasformazioni culturali profonde sono sempre molto più lente. Con l’I.A. generativa, invece, il tempo di adattamento collettivo è collassato[4]; non solo non abbiamo avuto il tempo di imparare a capirla e a gestirla, ma è spesso mancata un’elaborazione “collettiva” del suo scopo e delle sue potenzialità; né si può negare che queste nuove tecnologie stanno diventando risorse per pochi ed elementi del tutto ignoti o inaccessibili per molti, segnando un ulteriore elemento di divisione fra ricchi e poveri e fra popoli dominanti e popoli sfruttati e ai margini della geopolitica.
Molte sono anche le altre problematiche. La più importante riguarda gli obiettivi dati alla macchina e il controllo dei dati da essa elaborati: si pensi a quanto succede già oggi in Cina con la cosiddetta “dottrina della grande armonia”, a cui ovviamente nessuno può sottrarsi, con la sottomissione di fatto delle persone alla sorveglianza digitale generalizzata delle autorità. Una seconda problematica è poi quella relativa agli esiti degli ultimi e più recenti studi di filosofia della conoscenza, dato che un po’ tutti i sistemi di I.A., al di là degli usi che se ne possono fare soprattutto dai gruppi di potere e dagli stati, sono solamente dei dispositivi tecnologici che per la loro speciale natura di artefatti cognitivi propongono riflessioni e sollevano dubbi di tipo epistemologico. Ma il problema maggiore riguarda specificatamente la loro “opacità”: se non è sempre facile nemmeno per i team che vi lavorano capire perché un programma di I.A. produca una certa risposta, il problema dell’opacità assume una rilevanza massima nell’ambito delle reti neurali profonde. Questi sistemi si comportano in pratica come delle “scatole nere” di cui non è facile prevedere il comportamento. Eppure noi stiamo sostanzialmente integrando il nostro patrimonio umano di conoscenze e il modello di apprendimento e di fruizione di questo patrimonio che per secoli ci ha contraddistinto con quello tecnologico delle varie I.A., che di certo possiedono molte capacità che noi non abbiamo, ma ne ignorano altre che ci contraddistinguono.
Una di queste è l’intelligenza emotiva, quell’abilità di controllare i sentimenti e le emozioni proprie e degli altri, di distinguerle tra di loro e di usare tali informazioni per guidare i propri pensieri e le proprie azioni. Nessuna I.A. è in grado di surrogare questa parte apparentemente “irrazionale” dell’intelligenza umana, che è un mix di capacità di conoscere e controllare sé stessi, oltre che di capire e coinvolgere gli altri; si tratta di una capacità innata nell’uomo, che solo in parte si può migliorare e ottimizzare, ma che non si può ricreare in circuiti elettrici e in reti neurali, seppur sofisticati. Quale intelligenza artificiale potrebbe essere in grado di attivare al proprio interno un “pensiero complesso”, consapevole dei propri limiti e aperto all’autocritica? È proprio questo che probabilmente ci differenzierà sempre dai sistemi di intelligenza artificiale che invece ne sono (finora) privi e che (si presuppone) non potranno surrogarla nemmeno in futuro.
Pur auspicando un umanesimo che colleghi le istanze dell’uomo di domani alle potenzialità sempre maggiori che l’intelligenza artificiale potrà avere in futuro, rimane la necessità che ogni modernità ipotizzata non prescinda da una forma di vita associata al cui interno i singoli e le società possano mettere in discussione, se lo ritengono necessario, le regole del gioco entro cui vivono, cosa che invece nessuna macchina può aspirare a fare o a gestire. Se è vero che l’umanità è l’unica specie vivente che sa concepire un futuro (cosa impossibile ad altre specie animali), per farlo deve ricorrere a una forma di epistemologia della complessità che eviti di produrre scenari che tendono alla semplificazione eccessiva e alla linearità, come invece fa l’I.A., che non è in grado di accettare e in qualche modo delineare l’incertezza e l’ambiguità. Da qui deriva anche la necessità di dare forma a un complesso sistema di interconnessioni fra “umanesimi paralleli”, cioè a molteplici umanità con le loro culture e le loro diversità.
L’era dell’I.A.
Emerge in conclusione un’ulteriore considerazione. Per vari millenni l’evoluzione organica è andata di pari passo con un’evoluzione delle coscienze, che ha comunque lasciato a entità sovrannaturali e divinità il compito di creare e muovere i fili di ciò che l’uomo non riusciva a spiegarsi o a creare da solo. Ma non sappiamo cosa accadrà fra dieci o cento anni e più, cioè nel momento in cui dei computer inorganici potranno creare ciò che l’uomo non è in grado da solo di fare, potranno spiegare ciò che l’uomo da solo non sa spiegarsi, potranno modificare ciò che l’uomo non è in grado di modificare. Ebbene, secondo gli apocalittici, a quel punto non solo non ci sarà forse più posto per l’umanità come la conosciamo fino a oggi, ma non ci sarà posto a maggior ragione per un’entità superiore come una divinità che spieghi con la sua presenza ciò che l’uomo non riesce ancora a spiegare.
In ogni caso l’evoluzione di intelligenze esterne all’umanità potrebbe aggirare completamente vincoli e remore ancora presenti in quell’etica che le religioni, pur a fatica, provano ancora a mostrare nelle teorie creazionistiche, nelle cerimonie religiose e nelle manifestazioni di culto per divinità più o meno delineate con la materialità di volti umani o piuttosto con concetti animistici e immanenti. Ma se queste realtà superiori si concretizzeranno prima o poi in una forma tanto evoluta di intelligenza artificiale che dovesse arrivare a dominare alla fine le azioni umane e dovesse ridurre a nuda vacuità i sentimenti umani, non avremo più un’evoluzione meramente antropologica, ma una sostituzione di questa umanità come l’abbiamo fin qui conosciuta nella sua evoluzione con una tecnologia che supererà i confini dell’uomo con i suoi sentimenti, gli affetti, l’etica, il senso del dovere, il senso del limite e, a maggior ragione, il senso o l’idea di un qualcosa di sovrannaturale, con tutte le sue tradizioni e i suoi vincoli ideologici, dogmatici e cerimoniali.
La “vita oltre la vita”, ammesso che la si possa davvero realizzare in futuro, da chi sarebbe governata se non da altri agenti intelligenti con poteri sulla riproduzione e conservazione della mente cosciente, cioè l’essenza stessa dell’esistenza? C’è stato anche chi di recente ha messo in guardia contro i rischi che super-intelligenze sempre più dotate rispetto all’intelligenza umana possano indurre una dipendenza dell’umanità da tali macchine e creare potenziali catastrofi esistenziali: si tratterebbe in un certo senso di quegli stessi rischi derivanti da un “totalitarismo cibernetico” che gli umani avvertono d’istinto immaginando umanoidi dall’intelligenza superiore, proprio come affermato da tanta produzione letteraria e cinematografica sui robot “troppo umani”. Ma, in pratica, può l’umanità avvalersi del supporto delle menti intelligenti che essa stessa crea, usandole per fini positivi all’interno della vita, piuttosto che al di là di essa? E per supportare gli umani nella loro esistenza mortale, piuttosto che appagare, forse illusoriamente, un desiderio di immortalità che non trova realizzazioni in altro modo? Questa è certamente una delle sfide che la realtà virtuale e la simulazione della mente dovranno affrontare nel prossimo futuro.
Magari si giungerà davvero alla nascita della figura del “cyborg”, che da invenzione fantascientifica diventerà metafora della condizione umana; un cyborg al contempo uomo e macchina, individuo non sessuato o situato oltre le categorie di genere, e insieme organismo cibernetico, creatura sospesa tra finzione e realtà, comunque un ibrido che appartiene tanto alla realtà sociale quanto alla finzione. Questa figura, situata oltre i confini delle categorie che siamo normalmente abituati a utilizzare per interpretare il mondo, è probabilmente ciò verso cui l’umanità corre, nel presupposto di un’evoluzione della vita degli uomini come la intendiamo finora; una figura superiore come quella che millenni fa fu incarnata dall’homo sapiens, divenuto il dominatore dell’universo con l’estinzione dei dinosauri o semplicemente con il dominio su tutti gli altri esseri della terra, dell’acqua e del cielo, compresi i neanderthaliani che pure per alcuni secoli convissero e in alcuni casi si mescolarono con i sapiens; e tuttavia un essere che finora ha avuto anche confini limitanti del proprio sé affidati alla presenza di entità superiori (dei dalle fattezze varie) che hanno comunque spiegato ciò che l’uomo da solo non era in grado di spiegare o realizzare.
L’avvento di una tale nuova era potrà accadere se e quando l’I.A. sarà in grado di hackerare anche la coscienza umana sostituendosi a essa nella percezione dell’etica, della metafisica e di quelle teorie teologiche che nel frattempo saranno ancora rimaste in vita, con conseguenze inimmaginabili sul piano evolutivo. Giungendo a quel punto a conclusione questa evoluzione, non sappiamo nemmeno se rimarrà ancora posto per l’umanità su questa terra o per un’umanità come l’abbiamo finora conosciuta. Potrebbe anche accadere che l’uomo finirà col delegare il pensiero creativo all’I.A. abituando a vedersi come una pluralità di meccanismi biochimici costantemente monitorata e guidata da una rete di algoritmi e da altri organismi, stavolta cibernetici, che costituiranno la nuova linea evolutiva delle creature del pianeta. Forse, in maniera meno plateale, emergeranno fra le persone nuovi culti, di certo non nelle grotte dell’Afghanistan o nelle madrasse del Medio Oriente dove gli studenti coranici e i fondamentalisti del jihad si rifuggiranno per scampare al “transumanesimo cibernetico”, né nel chiuso dei seminari cristiani o dei templi tibetani dove si cercherà di tenere accesa la secolare fiamma della religione tramandata dai Padri della Chiesa o dagli antichi Lama, ma piuttosto nei laboratori di ricerca: si tratterà forse di nuove “tecnoreligioni” che potrebbero conquistare ciò che resta della libertà di coscienza delle persone promettendo una nuova salvezza, stavolta grazie ad altri algoritmi ancora più innovativi o a una nuova genetica transumana. Forse in quel momento potrebbe non esserci più alcun dio a cui affidarsi per un aiuto, nessun dio in grado di salvarci o comunque di proporci una via (oltremondana o no) di uscita e di salvezza[5].
[1] Carlo Mazzucchelli: “Che fine faranno i siti Web?”, da “StultiferaNavis”, ottobre 2025.
[2] AA.VV.: “Pensare la complessità. Per un umanesimo planetario” - Saggi critici e dialoghi di Edgar Morin con Gustavo Zagrebelsky e Gianni Vattimo (a cura di Chiara Simonighi) – Sesto San Giovanni, 2012.
[3] Olivier Clément: “Une fidélité sans espérance”, da “Contacts” n. 195, 2001.
[4] Cfr. Andrea Colamedici: “L’algoritmo di Babele. Storie e miti dell’intelligenza artificiale” - Milano, 2024.
[5] Chi volesse approfondire le tematiche di quest’articolo potrà leggere il libro “Neoumanesimo e transumanesimo nell’era dell’I.A.” dello stesso autore (Edizioni Fotograf - Palermo, 2025).



