L’Intelligenza Artificiale è al suo terzo ciclo di hype, il primo è avvenuto negli anni Sessanta dopo la conferenza di Dartmouth dove è stato creato il termine AI, il secondo negli anni Ottanta con le Lisp machines e i sistemi esperti, il terzo ora con i Large Language Models e l’esplosione di ChatGPT.
È possibile che anche questa ondata termini con un “inverno” dell’AI, dopo tanti fasti e tanti investimenti può tutto rivelarsi solo una bolla mediatica e speculativa come è già avvenuto nelle altre due volte precedenti? Perché questo tema è così speciale da riuscire a rinascere dalle sue ceneri e ripartire con un coinvolgimento così profondo e globale come nessun altro tema tecnologico riesce a fare?
Riflettere su queste due domande ci aiuterà a capire se e quanto il passato possa aiutarci a interpretare il futuro.
L’intelligenza artificiale: dalla conferenza di Dartmouth ai Large Language Models
Il mondo della ricerca scientifica si è subito accorto, dopo la conferenza di Dartmouth nel 1956, quanto abile fosse stato John McCarthy nell’associare le due parole “intelligenza” e “artificiale”: era una calamita potentissima che attirava le risorse destinate all’università drenando i fondi a tutti gli altri temi di ricerca.
Tutti erano affascinati dalla possibilità di avere macchine intelligenti: i militari, che in piena guerra fredda speravano di avere l’arma risolutiva, l’industria, affamata di progettisti, i servizi, sempre alla ricerca di nuovo personale competente, l’uomo della strada, assetato di progresso ma anche terrorizzato dalla possibilità che gli scienziati creassero qualcosa che potesse scappare di mano.
Era un tema scientifico, ma anche un’abile mossa di marketing!
Ciclo di hype dell’AI: un fenomeno destinato a ripetersi?
Il mito di qualcosa di più abile dell’uomo stesso si ritrova in tutta la storia dell’umanità. È la paura di chi ci sostituirà come dominatore del mondo: non sarà più veloce o con denti più affilati, sarà più intelligente di noi.
Da Frankenstein a Terminator, dagli UFO al Golem, la mente umana è da sempre spaventata da creature aliene o artificiali che non può controllare.
Ma notiamo lo stratagemma concettuale di John McCarthy: l’Intelligenza Artificiale è uno scopo, non un metodo. Quando vediamo un normale hype tecnologico, sotto troviamo dei sistemi che hanno realizzato un avanzamento scientifico e permettono di costruire qualcosa di utile che prima non esisteva.
Come la potenza di calcolo e i dati alimentano l’intelligenza artificiale
È stato così per l’elettricità o per Internet, riuscire a governare un fenomeno naturale e a trasmettere dati ad alta velocità ha poi aperto mille altre possibilità, ma l’avanzamento tecnologico era dato da un ben preciso metodo ingegneristico.
Passato lo stupore per la luce che illumina le case grazie all’elettricità segue lo stupore per il frigorifero o per il televisore, ma l’elettricità resta l’elettricità e non ci sorprende più.
L’Intelligenza Artificiale invece può di volta in volta agganciarsi agli avanzamenti tecnici che possono portare alla sua realizzazione. È appunto uno scopo che si avvale di tutti i metodi che le sono utili e non si esaurisce con la maturità del sistema che ha potuto cavalcare.
Non fa nascere nuovi figli che catturano la nostra attenzione, è essa stessa che si ripropone al nostro interesse.
Il futuro dell’AI: quando diventa utile per milioni di persone
Abbiamo così risposto alla seconda domanda: è proprio nella definizione di “Intelligenza Artificiale” che si nasconde la possibilità di ripetuti cicli di attenzione mediatica, ogni nuova tecnica che porta ad avanzamenti significativi farà ripartire il picco di visibilità e aspettative esagerate seguite da un momento di disillusione, appunto il ciclo di hype teorizzato da Gartner.
A differenza delle altre tecnologie che percorrono il ciclo di vita una volta sola, l’Intelligenza Artificiale sembra vivere un loop di Gartner infinito. A ogni ripartenza delle aspettative sull’AI possiamo associare un avanzamento tecnico, nel ciclo attuale le nuove possibilità che lo hanno attivato sono due: la grande disponibilità di dati e la potenza di calcolo.
Ogni giorno in Internet viene creata una quantità enorme di dati. Basta pensare alle pagine dei giornali e allargare la visione ai giornali di tutto il mondo. Questi dati non sono solo facilmente leggibili, sono anche correlabili tra loro in tutte le lingue: se cade un aereo la notizia sarà presente praticamente ovunque e facilmente riconoscibile.
È come se ogni giorno venisse creata una immensa stele di Rosetta.
Il web non è solo una nuova creazione, è anche memoria. I dati si accumulano e sono sempre disponibili per l’addestramento dei sistemi intelligenti. Processare questi volumi così importanti richiede una quantità incredibilmente elevata di calcoli. Non calcoli complessi, ma tanti calcoli.
Un’azienda aveva scoperto che per realizzare giochi che presentassero una fluidità visiva delle immagini, tanto da sembrare un film, bisognava dividere lo schermo in piccole zone di pochi pixel e processare ogni zona in parallelo.
Questa azienda era NVidia! Non calcoli difficili, ma tanto parallelismo.
Mentre i grandi dei chip realizzavano CPU sempre più potenti nel singolo calcolo e con un numero contenuto di core, NVidia realizzava GPU con un numero immenso di core molto semplici.
Per dare una unità di misura le GPU H100 che sono state i muli da soma dell’addestramento di ChatGPT, Gemini e Claude hanno circa 10.000 core, contro gli 8 o 16 di una tipica CPU Intel o AMD.
La vera innovazione dell’AI: l’utilità quotidiana
Questi comunque sono elementi tecnici, notevoli e importanti, ma sempre tecnici. Anche l’algoritmo di risoluzione dei dimostratori di teoremi automatici o l’alfa-beta pruning, che taglia l’albero di gioco, erano notevoli e importanti, ma non sono bastati a fermare l’inverno dell’AI che è seguito all’esplosione degli anni Ottanta.
Per quanto l’avanzamento tecnologico sia significativo, da solo non è sufficiente. Per giustificare il successo continuativo dell’innovazione dobbiamo guardare da un’altra parte: dobbiamo guardare il lato umano.
Solo quando l’innovazione è utile a molte persone potrà essere persistente.
Uno dei più grandi successi dell’AI anni Ottanta è stato il programma DeepBlue, capace di battere il campione del mondo di scacchi.
Terminata la serie di partite del torneo, Kasparov è tornato a casa bastonato e incredulo, ma alla fine questo fenomeno dell’AI aveva coinvolto una sola persona.
Per tutti gli altri c’è stata una notizia, magari un filosofeggiare del destino dell’uomo per qualche tempo, ma poi tutto è tornato come prima.
Oggi si stima che ChatGPT sia usato da 800 milioni di persone.
Quando un genitore viene chiamato dal figlio “Mi aiuti a fare i compiti … quanto alto è il Monte Bianco?” il pensiero ricorrente è “Me lo avevano insegnato alle elementari, possibile che non riesco a ricordarmelo? Per fortuna c’è ChatGPT, altrimenti dovrei cercare in internet o scartabellare l’enciclopedia …”
Quando una tecnologia diventa utile e trasparente per milioni di persone ecco che diventa la vera innovazione e la vera innovazione non sparisce in un fantomatico inverno tecnologico.
Vuoi sapere di più sull’intelligenza artificiale?
