Intelligenza Artificiale: Intervista a Georg Gottlob

Intervista a Georg Gottlob sui problemi che l’introduzione dell’Intelligenza Artificiale pone sul fronte del sapere e del lavoro cognitivo.

La macchina che impara. Intervista di Sergio Ferraris, giornalista scientifico e caporedattore de “L’Ecofuturo Magazine”

Georg Gottlob è uno scienziato italo-austriaco specializzato in logica, database e intelligenza artificiale. Già docente al dipartimento di informatica di Oxford, ora insegna informatica presso l’Università della Calabria scelta nel 2023 per il valore dell’équipe e il suo grande potenziale. Gottlob ha pubblicato oltre 250 articoli scientifici sulla logica computazionale, la teoria dei database e dell’Intelligenza Artificiale. E proprio su quest’ultima gli abbiamo posto una serie di domande.

Stiamo vedendo l’affacciarsi dei sistemi di AI basati sui Large Language Model (LLM). Che cosa sono?

Si tratta di una novità recente, ma non rappresenta la fase finale dell’evoluzione dell’intelligenza artificiale, che non è una rivoluzione istantanea, ma un processo che dura da parecchi anni. Si tratta di modelli che possono usare una quantità enorme di testi, in pratica tutto il web, concentrandoli in una grande rete neurale, usando sia delle tecniche che esistevano già, sia una serie d’innovazioni. Oltre al web aperto è stata incorporata anche un’enorme quantità d’archivi, fondamentalmente testuali. Tutto ciò è necessario per creare un ”corpus” che possa essere la base della creazione delle risposte alle domande fatte dall’utente, attraverso il prompt (la richiesta testuale da parte dell’utente N.d.R.).

Inoltre, il sistema apprende anche dalle interazioni degli utenti, arricchendo ulteriormente il contesto di riferimento. In pratica, in base al prompt l’LLM crea la risposta scegliendo quella più probabile, usando il contesto che ha come bagaglio. Il sistema assomiglia all’autocompletamento dei cellulari T9, ma è molto più grande e potente. Ora non si propongono più singole serie di poche lettere, ma testi organizzati in molteplici frasi mediante un autocompletamento che avviene parola per parola. Si tratta di un sistema che oggi funziona talmente bene che ha sorpreso persino i suoi stessi creatori.

Circa la veridicità dei risultati dei LLM, a che punto siamo?

Vediamo perché si verificano gli errori o meglio le allucinazioni. Per capire bisogna spiegare cosa succede in un LLM ed è una questione tecnica. Da un lato, abbiamo un enorme corpus testuale di partenza, e dall’altro, la rete neurale che è molto più piccola in termini di bit del corpus. La rete neurale agisce per approssimazioni statistiche che elabora su una base dati che, come ho detto, è enorme e per questa ragione è necessaria una compressione che comporta una certa perdita di dati.

Faccio un esempio pratico. Se chiedo a ChatGPT di quali articoli scientifici sono autore può darmi una risposta esatta per alcuni ma sbagliata per altri. Il motivo risiede nel fatto che, con la compressione, il sistema LLM ha perso la connessione tra me l’autore e il titolo attribuendomi titoli di articoli che non ho scritto. Il sistema ha ragionato con una forma di probabilità approssimata, perdendo alcune connessioni per approssimazione e per questo motivo offre anche risultati errati.

Certo, la rete neurale è stata addestrata su una base che si presume esatta ma quando la relazione semantica si perde a causa della compressione, il sistema la ricostruisce usando i meccanismi neurali che in un senso approssimano la probabilità statistica. Tuttavia, questa volta non ci sono dati certi sottostanti e così si possono generare degli errori. In pratica, mi attribuisce un articolo scientifico che non ho scritto ma che avrei potuto scrivere.

Per questa ragione sconsiglio sempre di fare scrivere il proprio curriculum agli LLM anche se si stanno evolvendo. Alcuni LLM, oltre a basarsi sulla rete neurale, durante l’elaborazione di un prompt importano dati dal web ma bisogna considerare che il web è pieno di dati inesatti o, più semplicemente, non più attuali. I sistemi LLM diventeranno, a mano a mano, più affidabili, ma non saranno perfetti, anche perché l’uomo stesso non è perfetto e spesso ricorda male o dimentica.

In molti non hanno colto la novità dell’AI e ragionano come se fosse un programma più evoluto di quelli del passato. Che problema c’è nel capire questa innovazione?

Si tratta di un problema transitorio perché non c’è ancora un’abitudine a questi sistemi. È come se vedendo un’auto elettrica per strada si pensa che sia endotermica, perché quella è la forma delle auto che fino a ieri erano alimentate dal carburante. Il problema di fondo è rappresentato dal fatto che una simile analogia rende difficile valutare l’AI. I programmi per computer hanno un’aura di perfezione e precisione che fa pensare alle persone che il risultato sia vero, mentre per l’AI non è così, come ho già detto. Le persone devono essere istruite sulle problematiche dell’AI che sono legate al concetto d’apprendimento e che non è perfetto, perché dipende da ciò che c’è sotto, alla base.

Alcune ditte, per esempio, usano i sistemi LLM per determinare gli stipendi del personale con il risultato che, poiché questi sistemi imparano dal presente, discriminano le donne. Questo accade perché, nell’industria privata, le donne sono attualmente pagate meno. Il sistema impara ciò attraverso il machine learning e lo perpetua, ritenendolo corretto, visto che purtroppo oggi ancora è un fatto statistico. Occorre correggere il sistema imponendogli di rispettare le nostre norme etiche (come la non-discriminazione); il problema è che non è chiaro come fare.

Occorre sviluppare e implementare una teoria del controllo delle reti neurali che riesca a riconoscere e bloccare risposte eticamente non sostenibili. Un filone di ricerca che stiamo sviluppando è di rappresentare le norme etiche come regole logiche e di sovraimporre queste regole alla rete neurale. Attualmente, sia la rappresentazione logica dell’etica sia la sovraimpostazione di regole a una rete neurale sono delle grandi sfide scientifiche…. Continua a leggere gratis l’intervista su LECOFUTURO MAGAZINE

Redazione

Articoli correlati