Tutte le tecnologie che hanno segnato la storia dell’uomo sono accomunate, ragione per cui hanno conosciuto un successo planetario, dall’essere riuscite a far risparmiare tempo.
Per dire, i trasporti – l’aereo, il treno, la macchina – hanno permesso di percorrere in poco tempo distanze che prima avrebbero richiesto mesi; oppure si pensi, spostandoci nel campo delle comunicazioni, a quanto una e-mail giunga a destinazione in un tempo estremamente più basso rispetto alla tradizionale lettera cartacea, o a come internet permetta di trovare informazioni in pochissimi secondi rispetto alla cara vecchia enciclopedia; oppure ancora, se gettiamo uno sguardo nel settore dell’elettrificazione, possiamo facilmente renderci conto di come l’illuminazione elettrica abbia allungato di molte le nostre giornate in confronto al periodo in cui divenivano buie molto presto. Questa premessa, che volendo potremmo arricchire con mille altri esempi, per dire che naturalmente anche l’intelligenza artificiale, come tutte le altre tecnologie importanti per l’uomo, permette un risparmio di tempo considerevole. Con pochi input specifici, può realizzare un video, o riprodurre lo stile di uno scrittore, o quello di un artista, o può rispondere alle nostre mail, o può fare una ricerca di studio, o un tema, o una diagnosi medica, o tantissimo altro, in men che non si dica. Guardando meglio, tuttavia, scopriamo che non regala solo tempo al pari e forse più delle altre tecnologie, bensì può fare proprio al posto nostro. Prendiamo l’avvento della e-mail: ha dato la possibilità di scambiarsi lettere in tempo reale – aspetto in precedenza impossibile -, ma la mail doveva comunque essere scritta da una persona reale, oggi la stessa lettera può essere scritta da un assistente virtuale. In altre parole, possiamo essere sostituiti. Ed il punto critico è esattamente questo: l’intelligenza artificiale, in tutte le sue sfaccettature, è potenzialmente in grado di sostituirci.
Si obietterà che c’è un eccesso di pessimismo in questo timore, in realtà, purtroppo, sono stati proprio alcuni padri dell’intelligenza artificiale a preoccuparsi di tale questione. Geoffrey Hinton, per esempio, premiato con il “Touring Award” nel 2018 (una sorta di Nobel per l’informatica), e per anni l’uomo che si è occupato dello sviluppo dell’intelligenza artificiale per Google, ha lasciato il suo incarico in modo da essere libero di poter esprimere tutte le sue perplessità sul futuro: “Quanti esempi conoscete di qualcosa di più intelligente che viene controllato da qualcuno meno intelligente? Ce ne sono davvero pochi. Mi piace pensarla così: immaginate voi stessi e un bambino di tre anni. Ecco – in confronto all’intelligenza artificiale – noi saremo i bambini di tre anni”. Questo – ha osservato Hinton – perché le macchine sono capaci di apprendere dai dati, hanno una capacità di deep learning per usare una espressione anglosassone, e di metterli in relazione tra loro in un modo più rapido e più esteso rispetto all’uomo. Per capire meglio come funzionano alcuni modelli di intelligenza artificiale, si può pensare a quanto avviene con la musica: le note sono 7, da queste sette note è possibile però estrarre un numero pressoché infinito di musiche e canzoni; con l’intelligenza artificiale accade qualcosa di analogo, dai dati di partenza – tecnicamente algoritmi – è possibile ricavarne un numero di combinazioni altissimo.
Da questo discorso si evince l’assoluta importanza degli algoritmi, di conseguenza sarebbe assolutamente importante capire quali sono e come vengono selezionati dalle varie forme di intelligenza artificiale, poiché se essi sono errati, anche tutto quello che ne verrà ricavato dopo sarà sbagliato. A tal proposito, Kate Crawford, ricercatrice di spicco presso la Microsoft Research, ha più volte sottolineato come potrebbero non essere neutri: potrebbero riflettere i pregiudizi di chi li progetta e i dati su cui si basano. Talvolta è già accaduto. Per esempio, negli Usa è stato usato il COMPAS (Correction Offender Management Profiling for Alternative Sanctions) per valutare il rischio di recidiva dei detenuti: ebbene, l’algoritmo tendeva regolarmente ad assegnare un punteggio più alto, con conseguente possibilità che non venissero adottate misure alternative al carcere, a detenuti afroamericani, anche a parità di reati commessi, rispetto a detenuti bianchi, per il fatto che l’algoritmo era stato “addestrato” a ragionare su dati storici errati presenti nel sistema giudiziario statunitense.
Non si pensi che sia un qualcosa di così complesso da riguardare solo pochi particolari programmi di intelligenza artificiale, può toccare la vita di chiunque. Può riguardare anche ChatGPT già usata da milioni di persone. Sam Altman, da molti ritenuto il padre della chatbot più famosa al mondo, nel Settembre del 2024, durante un convegno organizzato in Italia, ha infatti sottolineato, oltre che il potenziale dell’intelligenza artificiale generativa, anche la sua possibile pericolosità legata all’essere una “creatura” potente e non del tutto prevedibile: “Penso che ci sia una possibilità che l’intelligenza artificiale possa sfuggirci di mano, e credo sia importante riconoscerlo”, si è spinto a dire. Può sfuggire di mano, per usare l’espressione dello stesso Altman, perché le intelligenze artificiali sono sviluppate da aziende che non rendono pubblici gli algoritmi su cui si addestrano le loro learning machine, con il risultato che quest’ultime sono delle scatole nere efficientissime ma opache. Per fare un esempio pratico, ci si può fidare ciecamente delle risposte che genera ChatGPT, se non si conoscono le fonti da cui esse partono? Sì e no potrebbe essere la risposta.
Federico Ferrazza, direttore di Italian Tech, in uno suo saggio dedicato all’Intelligenza Artificiale scrive che è necessario, quando si ha a che fare con essa, dotarsi “di un anticorpo indispensabile e figlio della nostra intelligenza naturale: il pensiero critico”. Suggerisce, saggiamente, di controllare le fonti, di verificare in altro modo le risposte generate dall’intelligenza artificiale, di non accettare tutto – in sostanza – senza altre verifiche e in maniera ingenua e credulona. Tutte azioni prudenti, corrette, necessarie, ma non è detto che bastino.
Carl Gustav Jung ha tracciato una distinzione tra pensiero e sentimento, tale differenziazione può esserci di aiuto nel trovare un altro utilissimo anticorpo, oltre al pensiero critico, per vivere in maniera più evoluta e matura il nostro rapporto con l’intelligenza artificiale. Il pensiero – sostiene – ci dice cosa è qualcosa, il sentimento ci informa sul suo valore. Il pensiero ci descrive un fenomeno, può farci vedere come sia costituito dagli elementi A-B-C, può introdurci nel capire come funzioni, e via dicendo; il sentimento, invece, rimanda al valore, alle implicazioni di un fenomeno, al suo essere buono o cattivo, e così facendo rimette al centro l’etica e la responsabilità umana. E a ben vedere, dinanzi alla straripante potenza dell’intelligenza artificiale ci è richiesta anche una forte componente etica, in modo da affiancare al pensiero critico che tende a riflettere su quanto è presente all’esterno, anche un forte sentimento che ci aiuti nel monitorarci interiormente nel momento in cui entriamo in relazione con la “potenza” dell’intelligenza artificiale generativa. Torniamo su un particolare del funzionamento di quest’ultima: non può limitarsi a rispondere “non lo so”, tende comunque a fornire una risposta, basandosi su quanto può avere appreso in precedenza. In pratica, riempie quanto non conosce con congetture credibili ma che in tutta tranquillità possono rivelarsi false. In termini tecnici vengono chiamate “allucinazioni”, proprio perché l’intelligenza artificiale vede o dice qualcosa di inesistente. In un certo senso, essa si “comporta” da onnipotente, il che, con sentimento, ci obbliga a chiederci cosa attivi l’onnipotenza dell’intelligenza artificiale in noi: risveglia il nostro senso di onnipotenza e/o di potere? Il rischio c’è. Un esempio concreto. Una persona vuole cimentarsi con lo scrivere un romanzo, l’intelligenza artificiale gli permette di riprodurre in maniera verosimile lo stile di un grande della letteratura: risultato finale, viene fuori un buonissimo scritto. In poco ha ottenuto molto. Ha realizzato un suo sogno, un suo desiderio. In che modo è accaduto? Con una modalità vagamente onnipotente potremmo dire, sia perché ha pensato di dedicarsi ad un romanzo e quel romanzo – quasi a comando – si è manifestato da sé, sia perché questa persona, molto probabilmente, è andata oltre i suoi limiti e le sue capacità senza particolare fatica. Si potrebbe obiettare che, se anche fosse così come ipotizzato, se anche il tutto fosse figlio di una certa onnipotenza, di un desiderio di voler stare in alto, di un voler essere riconosciuti, di un voler diventare famosi, in fondo non sarebbe un gran male. Anzi, si potrebbe sostenere che si tratterebbe di una gran fortuna, di un’occasione d’oro che l’intelligenza artificiale può offrire a chiunque. Sia consentito di dubitare di questa presunta fortuna. A nostro avviso, in una situazione del genere è opportuno chiedersi se essa comporti un prezzo da pagare. L’impressione è che potrebbe esserci un prezzo molto alto da un punto di vista esistenziale, legato al perdersi, al perdere sé stessi. Realizzando un successo facile, il nostro aspirante scrittore perde il suo stile, diviene, magari una buona copia di un Joyce, o di un Calvino, o di chi preferite, ma al prezzo di non diventare sé stesso. Consuma una felicità breve, un pochino come se sostasse per qualche ora o per qualche giorno nel paese dei Balocchi, destinata a svanire presto, perché non ha conosciuto né la bellezza del prodigarsi in una vera fatica letteraria, né il profumo di una conquista sofferta. In sostanza, non ha attraversato il processo di scrivere qualcosa di soggettivamente vivo e vitale; ha scritto sì, ma senza sentimento, per questo non può conoscere una felicità duratura. L’onnipotenza, paradossalmente, l’ha amputato, non permettendogli di coltivare realmente il suo talento e la sua passione per la scrittura in modo da poter diventare uno scrittore compiuto.
In termini psicologici e in estrema sintesi, potremmo dire che la macchina capace di apprendere l’ha trascinato, ha costellato sarebbe più corretto dire, la sua onnipotenza, e se questo non è un problema la macchina, per l’uomo, al contrario, costituisce un problema di una certa rilevanza. Fortunatamente il suo sentimento può ricordargli i suoi limiti, che sono poi la materia prima della nostra umanità: se qualcosa fosse perfetto – fortunatamente neanche le macchine lo sono – senza fatica, non sarebbe una perfezione vuota? E a noi umani servirebbe realmente ciò?