Riflettete: che cosa vi serve davvero sapere sull’Intelligenza Artificiale? È una domanda genuina, non retorica: pensateci sul serio. Che cosa avete bisogno di capire su queste nuove tecnologie? Non per curiosità intellettuale o passione scientifica, ma proprio come esigenza civica, una di quelle cose che, a non saperle, si ha la sensazione di avere perso un pezzo importante per navigare la vita con competenza. Che cosa occorre comprendere sull’IA, per potersi considerare cittadini responsabili del mondo tecnologico in cui viviamo?

Questo semplice interrogativo è il grande assente nel dibattito sulla trasparenza dell’IA. Eppure, se ne parla da decenni e sono nati fiorenti settori di ricerca, come l’IA spiegabile e l’IA affidabile. Si tratta di iniziative votate a rendere le applicazioni di IA intellegibili dal punto di vista tecnico, lavorando sulla trasparenza dei processi e sulla giustificazione degli esiti: da un lato, l’utente dovrebbe essere informato sui meccanismi di funzionamento dell’algoritmo; dall’altro, il sistema dovrebbe fornire ragioni per ciò che propone all’utente come risposta o soluzione, in un formato accessibile a chiunque.

Un sistema automatico di raccomandazione, come quelli che ci consigliano contenuti per lo streaming o possibili acquisti nel commercio elettronico, dovrebbe chiarire il procedimento con cui arriva a formulare indicazioni e, congiuntamente, spiegare all’utente perché un certo contenuto o prodotto dovrebbe soddisfare i suoi interessi. La seconda cosa avviene di frequente, anche se in modi rudimentali: “Poiché hai guardato X, dovrebbe piacerti Y”. La prima invece è rara, perché gli algoritmi che ottimizzano il funzionamento di questi sistemi sono proprietari, dunque tutto fuorché liberamente accessibili. A titolo di esempio, nel 2006 Netflix offrì un premio di 1 milione di dollari a chi avesse sviluppato il miglior algoritmo per predire la valutazione di un film sulla base dei giudizi espressi da altri utenti: somma che fu incassata nel 2009 dal gruppo vincitore. Dopo avere speso una cifra del genere per trovare la soluzione migliore, è improbabile che un’azienda la riveli pubblicamente, perdendo così un vantaggio commerciale.

La battaglia per la trasparenza degli algoritmi si complica ulteriormente, quando si parla di IA generativa: ad esempio, sistemi per la produzione automatica di testi (ChatGPT, Bard, Copilot) o immagini (Dall-E, Midjourney, Stable Diffusion). Come segnalato in un recente articolo su questa rivista, l’IA generativa è caratterizzata da opacità radicale, e chi se ne occupa lo sa da parecchi anni: il funzionamento di questi sistemi è ben compreso da chi li progetta, quindi spiegabile (per lo meno in senso generale) a chiunque; invece, il modo esatto in cui essi eseguono con tanta efficienza i propri compiti rimane vago o indecifrabile anche agli addetti ai lavori, a causa della complessità di questi sistemi e della mole di dati su cui si allenano. Da ciò deriva una tensione fra accuratezza e comprensibilità: i modelli di IA e apprendimento automatico più accurati tipicamente sono poco spiegabili, mentre i modelli più facilmente interpretabili non offrono risultati particolarmente accurati. Innovatori arditi suggeriscono di combattere il fuoco col fuoco: addestrare un programma di IA generativa affinché spieghi il comportamento di un altro programma di IA generativa. Qualunque siano le prospettive di successo, il regresso all’infinito è in agguato: servirebbe poi una terza IA generativa per spiegarci che cosa faccia la seconda, dopodiché una quarta, in una vertiginosa progressione in cui gli unici a non capire granché rimarremmo noi. La morale su trasparenza e IA generativa è chiara: se vogliamo applicazioni capaci di fare magie, dobbiamo accettare di non capire il trucco.

La morale su trasparenza e IA generativa è chiara: se vogliamo applicazioni capaci di fare magie, dobbiamo accettare di non capire il trucco

La battaglia per un’IA spiegabile è quindi persa in partenza? Non necessariamente, a patto che si rifletta sulla domanda da cui siamo partiti: che cosa serve davvero spiegare, nell’interesse della collettività? L’opacità radicale di questi sistemi, infatti, si riferisce al loro funzionamento tecnico di dettaglio: non si applica invece alla loro logica generale, e ancor meno all’infrastruttura sociale, economica e tecnologica che ne determina l’esistenza. Finora, l’IA spiegabile si è concentrata ossessivamente sul primo livello di spiegazione, quello tecnico: siamo sicuri che sia una buona strategia, in generale rispetto all’IA, e in particolare per i sistemi di IA generativa?

Vi sono ragioni per dubitarne. Non solo perché questo tipo di spiegazioni sono chimere, relativamente all’IA generativa, ma anche perché, in fondo, servono a poco. Sono il residuo della fascinazione dell’uomo verso ciò che non comprende; per cui non ci rassegniamo al fatto che “ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia”, secondo il celebre adagio di Arthur C. Clarke, e petulanti insistiamo affinché gli esperti di IA ci svelino i propri segreti. Quando dicono che non possono farlo, pensiamo che mentano. Ma così restiamo al livello della curiosità personale, mentre dovremmo pensare ai nostri interessi collettivi: i quali richiedono di capire cosa faccia l’IA a grandi linee, non nei dettagli tecnici, e soprattutto esigono trasparenza sulla struttura di interessi che consente e motiva lo sviluppo di questi prodotti.

Prendiamo il caso dei large language models: quella famiglia di sistemi di IA generativa a cui appartiene ChatGpt. La vulgata su “ciò che fa ChatGpt” si riassume in questa formula: è una macchina che parla con noi e risponde alle nostre domande in modo sorprendentemente articolato, con qualche occasionale inciampo. Il che è vero solo superficialmente e nell’occhio di chi guarda: a noi sembra che ChatGpt parli e risponda alle nostre domande, mentre quello che il sistema fa è molto diverso da ciò che siamo abituati a considerare “parlare” e “rispondere” (su questo, segnalo il numero di agosto 2023 della rivista “Sistemi Intelligenti”).

Quando un essere umano parla, manifesta un’intenzione comunicativa che chi ascolta riconosce: si presuppone che la sequenza di parole prodotta voglia comunicare qualcosa, persino quando non è chiaro che cosa venga comunicato. Quando un programma come ChatGpt “parla”, invece, in realtà non manifesta alcuna intenzione comunicativa, semplicemente perché non la possiede: non vuole dire nulla, né è in grado di volere alcunché. Tuttavia, nella misura in cui la sua prestazione linguistica è sufficientemente simile a quella di un essere umano, siamo noi ad attribuirgli automaticamente un’intenzione comunicativa, perché non ci è mai capitato di avere a che fare con qualcosa che parla senza voler dire niente. Eppure, questa è la realtà di questi sistemi: producono frasi sensate costruendo stringhe linguistiche che hanno la massima probabilità di soddisfare la richiesta dell’utente, sulla base di regolarità sintattiche estrapolate dall’enorme insieme di dati su cui il programma si è addestrato. La competenza del sistema è statistica, non semantica. Quando ChatGpt ci “risponde”, non lo fa consultando lo stato del mondo o le proprie credenze, bensì mettendo insieme risposte massimamente coerenti con la vasta mole di dati linguistici a sua disposizione, la cui aderenza alla realtà non è affatto garantita. Il sistema massimizza la plausibilità sintattica, non la correttezza referenziale: da ciò le buffe “allucinazioni” che tanto attirano la nostra divertita curiosità.

Ancora più importante, però, è spiegare gli aspetti socioeconomici delle applicazioni di IA. Qui la comprensione tecnica serve davvero a poco, anzi, rischia di essere adoperata come specchietto per le allodole: la retorica dei grandi innovatori tecnologici, da Steve Jobs e Bill Gates a Elon Musk e Sam Altman (con menzione d’onore per il Tony Stark della Marvel, nella fiction), fornisce numerosi esempi di questo. Siamo talmente impegnati a sbalordirci per il lancio della loro ultima meraviglia digitale da dimenticarci che quegli inventori sono anche e soprattutto degli imprenditori, le cui ricerche sono motivate dall'interesse personale, non dal desiderio di donare al genere umano un futuro migliore. Beninteso, le due cose non si escludono a vicenda: ma è appunto compito delle istituzioni pubbliche verificare che non si escludano, perché questo non è affatto scontato. Il modello del guru tecnologico, osannato dalla folla e corteggiato dai potenti, fornisce poche garanzie in tal senso.

Due le caratteristiche importanti del modello socioeconomico dell’IA: la dipendenza da risorse fornite gratuitamente dagli utenti e la refrattarietà a forme di controllo pubblico

Scrollata di dosso l’illusione delle magnifiche sorti progressive dell’innovazione, si notano due caratteristiche importanti del modello socioeconomico dell’IA: la dipendenza da risorse fornite gratuitamente dagli utenti e la refrattarietà a forme di controllo pubblico. Quest’ultima travalica la normale dialettica fra poteri privati e poteri pubblici, perché si nutre di intuizioni collettive sui valori incarnati dalle tecnologie digitali: intuizioni oggi datate e fuorvianti, ma, come tutte le abitudini a cui siamo affezionati, dure a morire.

Ricordate quando Internet era considerata una tecnologia democratica, capace di liberare il dibattito pubblico dalle pastoie dei monopoli pubblici e privati, affinché tutti i cittadini del mondo potessero scambiarsi idee in modo libero e costruttivo? Bene, Internet tutto questo ha smesso di esserlo da almeno un paio di decenni, se mai lo è stato, e oggi è dominio più o meno incontrastato di poche superpotenze tecnologiche, tutte private. Sopravvivono dignitosi baluardi del sogno originale, ma pochi hanno una massa critica significativa: fra tutti, Wikipedia è forse l’esempio di maggiore successo. Tuttavia, un po’ di quello spirito romantico ci è rimasto nel cuore, quando si parla di digitale: ragion per cui l’idea di legiferare su queste tecnologie spesso ci ripugna, come se l’attentato alla libertà di pensiero fosse sempre dietro l’angolo. Da ciò, le multinazionali della tecnologia traggono vantaggio.

L’altro aspetto non è meno importante: tutti i sistemi di IA si basano su varie forme di apprendimento automatico e quindi si nutrono di informazioni, in quanto è solo addestrandosi su vaste basi di dati che raggiungono prestazioni soddisfacenti. Questi dati vengono forniti da noi, tipicamente senza alcun compenso. Ciò dovrebbe destare indignazione, non appena si consideri il valore generato dai nostri dati: si tratta di merce preziosa, possibile che non si batta ciglio nel regalarla al primo che passa? Eppure, è così: plausibili correttivi a questo stato di cose richiedono un discorso a parte, qui importa solo sottolineare che siamo tutti noi a rifornire di carburante il motore dell’IA, salvo dimenticare di farci pagare. Di nuovo, le multinazionali della tecnologia ringraziano.

Questa, dunque, è la trasparenza che occorre rivendicare sull’IA: non la scoperta di come funziona la scatola nera di questi sistemi, spesso poco comprensibile persino agli esperti, bensì le caratteristiche dei meccanismi di mercato che ne determinano il successo, le loro ricadute sugli interessi pubblici e privati, i fattori psicologici e sociali che ci spingono a essere acquiescenti verso sperequazioni grossolane e squilibri evidenti. Da chi promette di spiegarci l’IA, queste sono le risposte che dobbiamo pretendere.