Il professor Luciano Floridi, filosofo e direttore del centro di Etica del Digitale all’Università di Yale, ha formulato una congettura sull’abilità di un sistema di rispondere a domande: più sono le domande alle quali un sistema accetta di rispondere, più la probabilità di ricevere una risposta errata aumenta.

Prendiamo una calcolatrice aritmetica, è costruita proprio per limitare le domande che possiamo scrivere. La tastiera accetta solo i numeri e le quattro operazioni, non c’è modo di chiedere a una calcolatrice quanto è lungo il fiume Po o quanto è alto il Monte Bianco.

La calcolatrice si fa perdonare questa limitazione fornendoci risposte sempre corrette, o quasi.

A volte sbaglia: se i numeri sono troppo grandi non riesce a fare l’operazione (e nel suo visore apparirà un messaggio di errore) o certe operazioni come 1 diviso 3 (riporta un numero che non è esattamente quello corretto perché dovrebbe essere 0.3 periodico invece è 0 seguito da tanti 3 quanti ce ne stanno sul display). Comunque la calcolatrice aritmetica risponde bene alla quasi totalità delle richieste che riusciamo a farle.

Dalle calcolatrici agli LLM e ai chatbot

Ora spostiamoci a una calcolatrice scientifica: le domande che possiamo fare aumentano: per esempio possiamo chiedere il logaritmo di un numero o operare su numeri molto grandi. Qui l’approssimazione regna sovrana. La domanda che facciamo è precisa, la risposta è sempre ‘circa’ quella che dovrebbe essere. Lo sappiamo e ci va bene così.

Quando interagiamo con un LLM, di solito con l’interfaccia a chatbot, siamo liberi di chiedere qualsiasi cosa. E il sistema raramente ci dice di non sapere, tende a darci sempre una risposta che appare valida.

Il professor. Floridi ritiene che questa validità sia improbabile e che in realtà il sistema non sappia di non sapere.

D’altra parte, se fosse in grado di dare sempre risposte corrette sarebbe onnisciente, quasi divino, libero da teoremi limitativi per i sistemi computazionali come il teorema di incompletezza di Goedel per la logica o il teorema “No Free Lunch” per il machine learning.

Anche se non ancora dimostrata, intuitivamente la congettura sembra vera.

Pareidolia semantica e interpretazione delle risposte dell’AI

Interiorizzato il ‘dramma’ che è improbabile che ChatGPT sappia tutto, dobbiamo porci in modo critico rispetto alle domande che facciamo. Prima di chiedere dobbiamo domandarci se è possibile che il sistema sia in grado di rispondere. In fondo dubitiamo delle risposte delle persone alle quali facciamo una domanda, basta pensare alla proverbiale “Oste, il vino è buono?”.

La domanda che poniamo potrebbe non avere una risposta giusta o sbagliata. Se chiediamo un’opinione non c’è il giusto o lo sbagliato, c’è il punto di vista. 

“Dimmi ChatGPT: mi ama o non mi ama?” Difficilmente la risposta che arriverà potrà avere un qualunque fondamento fattuale. Ci esprimerà l’opinione del chatbot, basata su quelle poche cose che avremo aggiunto di contesto alla richiesta. Forse è più fondata la risposta che otteniamo sfogliando una margherita.

Se questo esempio è un estremo, le domande con risposte opinabili sono moltissime: in ambito personale “vacanze al mare o in montagna?”, in ambito aziendale “che azioni commerciali mi consigli?”

Limiti dell’AI tra dati mancanti e complessità del reale

Rispondere a queste domande richiederebbe una conoscenza profonda di tutte le informazioni che possono essere pertinenti: dove sono stato in vacanza nelle ultime occasioni, cosa preferisco personalmente, quali sono le condizioni stagionali e meteo del momento, quali sono i miei clienti, che azioni di marketing ho fatto negli ultimi tempi, come sta andando il mercato di riferimento, come si stanno comportando i miei concorrenti, come si posiziona il mio prodotto e così via.

Il chatbot non ha tutte queste informazioni ed è anche molto difficile immaginare un sistema che sia in grado di acquisirle, quindi otterrò una risposta che è la media di quello che verrebbe detto a chiunque.

Non ottengo l’azione commerciale migliore per la situazione in cui mi trovo, ottengo la media di quello che è scritto nei testi di gestione aziendale; non mi viene indicata una località che sarebbe la migliore per la mia vacanza, ma un’approssimazione generica di quello che mi potrebbe andare bene.

Anche riuscendo a ottenere tutte le informazioni possibili non è detto che si possa dare una risposta “esatta” a queste richieste: non esiste la vacanza migliore di tutte le altre e anche se esistesse potrebbero succedere così tante cose, ad esempio trovare brutto tempo; non esiste l’azione commerciale migliore e una volta lanciata, le condizioni potrebbero cambiare. Viviamo in un mondo volatile, complesso, incerto e ambiguo, il calcolo non è sufficiente a garantire l’ottimo risultato.

Per ottenerlo dovrei avere un sistema onnisciente sia per il presente che per il futuro, cioè un sistema con capacità esclusive del divino.Certo, ottengo sempre risposte convincenti e ben formulate, magari anche stimolanti e ispiratrici, ma pur sempre opinioni e approssimazioni. La congettura di Floridi ci aveva avvertito: queste più che risposte sono conversazioni.

Perché allora continuiamo a fare questo tipo di richieste pensando di ottenere la risposta “vera”? A questi sistemi facciamo domande di ogni tipo e in quelle più semplici e verificabili otteniamo risposte pertinenti. Questo ci porta ad avere fiducia e accordiamo questa fiducia anche oltre i limiti in cui è meritata. Il professor Floridi ci parla di “pareidolia semantica”, il meccanismo psicologico che ci fa vedere volti nelle nuvole o animali nelle rocce.

Limiti computazionali: NP-hard e No Free Lunch

Passiamo allora a domande che hanno una risposta certa e precisa: vorrei l’allocazione ottima di 5 persone per svolgere 20 lavori. Una delle caratteristiche dell’intelligenza è di essere capace di scegliere la soluzione migliore; quindi, anche l’intelligenza artificiale deve essere in grado di ottimizzare!

Le combinazioni di persone e lavori per questo problema sono circa 100.000 miliardi! I problemi di ottimizzazione sono NP-hard (ardue e difficili), non esistono scorciatoie e bisogna esplorare questo spazio immenso. Da qui il teorema che “non ci sono pasti gratis” (“No Free Lunch”). Basta quindi misurare il tempo che la chatbot ci mette a rispondere: se non è compatibile con un’esplorazione esaustiva allora avremo un’approssimazione, non la soluzione ottima.

Se solo complichiamo il problema, 10 persone per 100 lavori, abbiamo un numero di combinazioni che è superiore al numero di atomi dell’universo o del numero di secondi trascorsi dal Big Bang.

Anche con problemi che hanno una soluzione esatta potrebbe non essere possibile, per un sistema di intelligenza artificiale, darci la risposta in un tempo rapido, per cui se vediamo un testo di risposta  in pochi secondi è quasi certo che si tratta di una approssimazione. Che comunque può esserci utile, ma non ha quelle caratteristiche di precisione e certezza che vorremmo attribuire a un sistema di intelligenza artificiale.

Dove gli LLM sono davvero utili

Ci sono poi tantissime informazioni registrate dalla rete neurale. Se chiediamo quanto è lungo un fiume o con che stati confina una nazione la risposta esatta ci viene fornita in tempi rapidi e ben scritta nella nostra lingua naturale.

La capacità di colloquiare in linguaggio naturale e queste conoscenze apprese leggendo infiniti testi fanno degli LLM strumenti ottimi per analizzare grandi quantità di dati in brevissimo tempo. Le decisioni manageriali devono essere informate e questi sistemi si comportano come un’estensione del cervello umano.

Il “sistema 0” di Chiriatti

Il professor Massimo Chiriatti ha coniato il termine “sistema 0” per questi utilizzi, estendendo il concetto di “sistema 1”, pensiero veloce ed intuitivo, e “sistema 2“. pensiero lento e ragionante.

Questo rientra nelle risposte corrette che la congettura di Floridi ci dice che possono esistere. 

I Large Language Model però non limitano le risposte solo a quello che sanno con certezza, rispondono sempre a tutto quello che gli viene chiesto, sconfinando nella zona delle risposte errate previste dalla congettura.

Evoluzione futura dei Large Language Model

Forse da queste considerazioni abbiamo una traccia di come dovranno evolvere questi sistemi nel futuro: dovranno avere metodi per accedere a tante fonti di informazioni, pubbliche come internet ma anche personali e private, dovranno poter attivare sistemi di calcolo, dovranno a volte addirittura creare al volo programmi per eseguire operazioni specifiche, ma soprattutto dovranno saper di non sapere, rispondere solo quando hanno la certezza di dire una cosa corretta e semmai continuare come fanno oggi a darci un testo in risposta a qualunque nostra richiesta, informandoci che siamo di fronte a una approssimazione e non al risultato di un calcolo preciso.

Vuoi sapere di più sull’intelligenza artificiale?

Resta aggiornato

Taggato come: