Intelligenza Artificiosa

Tempo di lettura: 28 minuti

Ogni volta che si verificano evidenti progressi nel campo dell’intelligenza artificiale riparte il dibattito: “Le macchine stanno raggiungendo l’essere umano? Stanno diventando davvero intelligenti?”. L’ultima occasione, ovviamente, è l’avvento delle intelligenze artificiali “generative”, soprattutto nel caso di ChatGPT.
I quesiti sulle potenzialità delle macchine e sulla possibilità che, col tempo, diventino “senzienti”, coscienti, in grado di pensare e in definitiva raggiungano il livello intellettuale dell’essere umano, va avanti da più tempo di quello che si potrebbe immaginare, tanto che uno dei primi scienziati a porsi questa domanda è stato nientemeno che Alan Turing, il quale nel suo seminale paper del 1950, Computer Machinery and Intelligence, si chiedeva esplicitamente: «Le macchine possono pensare?».

QUESTA NON È “INTELLIGENZA”, È SOLO “DEEP LEARNING”

Fino a oggi, però, nonostante alcune suggestioni fantascientifiche, sappiamo di non essere di fronte a delle vere forme di “intelligenza” bensì soltanto a strumenti che — com’è il caso di ChatGPT — sono in grado di pescare nel loro database le sequenze di parole che hanno la maggiore probabilità di essere coerenti con le nostre domande: senza tuttavia avere la benché minima idea di che cosa si stia in realtà dicendo.
La totale mancanza di comprensione del compito che sta svolgendo non ha in alcun modo impedito al Deep Learning (apprendimento profondo) di rivoluzionare il mondo e di conquistare traguardi incredibili. Basti pensare alla potenziale importanza di uno strumento come AlphaFold: algoritmo sviluppato da DeepMind (di proprietà di Google) e in grado di determinare con estrema precisione la struttura delle proteine. In futuro, questo sistema di intelligenza artificiale potrebbe cambiare per sempre il mondo della sanità. Qualora ci riuscisse, avrebbe raggiunto un’impresa straordinaria senza bisogno che in esso ci fosse nemmeno una scintilla di intelligenza, ma soltanto — come in tutti questi strumenti di cui discutiamo oggi — la capacità di macinare statisticamente una quantità immensa di dati (i celebri “Big Data”).

Dall’esplosione del Deep Learning (avvenuta attorno al 2013) a oggi, l’intelligenza artificiale è diventata una tecnologia fondativa e in continua evoluzione, che si è gradualmente integrata in un numero esorbitante di servizi, dispositivi e strumenti. Ne fanno uso le macchine fotografiche digitali per migliorare le nostre foto, la usano i social network per determinare quali post vedremo, i termostati per gestire autonomamente la temperatura di casa nostra, le aziende per selezionare i curricula; viene inoltre usata a scopi di sorveglianza, per suggerirci cosa comprare, per aiutare i magazzini a gestire la logistica e in una quantità tale di altri ambiti che sarebbe impossibile completare l’elenco.
A differenza di altre innovazioni che hanno ricevuto enorme attenzione mediatica senza mai risultare all’altezza delle aspettative (pensiamo al metaverso o alle criptovalute), l’intelligenza artificiale si è gradualmente insinuata in ogni ambito delle nostre esistenze private e professionali, al punto da svanire sullo sfondo e diventare quasi invisibile — da questo punto di vista, la sua evoluzione ricorda un po’ internet, che oggi alimenta praticamente tutto senza che nemmeno ci si faccia più caso.

Accadrà la medesima cosa con ChatGPT e le nuove forme di intelligenza artificiale “generativa”, che — vale la pena ricordarlo — non rappresentano una novità assoluta ma un ulteriore passo avanti lungo la strada già battuta dai tanti sistemi simili che le hanno precedute. Oggi, però, mentre siamo per la prima volta alle prese con strumenti in grado di conversare in maniera coerente o di creare immagini a partire dai nostri comandi testuali, è facile restare stupefatti dalle loro imprese e pensare di essere di fronte a qualcosa di intelligente o di “magico” (come del resto disse Arthur C. Clarke, indimenticabile autore di 2001 Odissea nello Spazio: «Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia»).
Con il passare del tempo, man mano che la nostra consapevolezza sul vero funzionamento aumenta, questo effetto magico svanisce. Più il loro uso diventa quotidiano e più questi strumenti diventano triviali. Quando Facebook iniziò a individuare l’identità dei nostri amici presenti nelle foto, sembrava di trovarsi davanti a una tecnologia da fantascienza: oggi nessuno si stupisce più per l’esistenza del Riconoscimento Facciale, e men che meno lo considera una forma di “intelligenza”.
Lo stesso probabilmente avverrà con le intelligenze artificiali generative: gradualmente smetteremo di stupirci e, imparando a conoscerne funzionamento e limiti, di confondere il loro comportamento per qualcosa di intelligente dal punto di vista umano.
Non solo: col passare del tempo, forse capiremo che non c’è bisogno di valutare i progressi di questi strumenti su una scala che, al suo apice, deve portare alla vera intelligenza. D’altra parte, gli algoritmi di Deep Learning sono stati in grado di migliorare costantemente pur senza mai fare un passo avanti nella direzione della “senzienza”.
In questo processo di normalizzazione potremmo anche seguire il percorso immaginato più di settant’anni fa proprio da Alan Turing, secondo cui a un certo punto avremmo smesso di chiederci se una macchina avesse conquistato l’intelligenza umana e avremmo invece iniziato a considerare anche quella delle macchine una forma di intelligenza. Semplicemente, una forma d’intelligenza molto diversa dalla nostra.

Un po’ di punti fermi da tenere a mente.

COS’È IL “DEEP LEARNING”

Le AI o IA (il primo è l’acronimo in inglese, il secondo in italiano) sono in realtà una conquista di decenni fa. Ironicamente, i primi sistemi di AI erano basati sulle esperienze e le competenze degli esperti (normali esseri umani) che venivano codificate nel software dei computer. Negli ultimi anni ha preso però il sopravvento un approccio all’AI diverso e basato sui dati, grazie a una enorme disponibilità di informazioni in formato digitale che ha alimentato l’avvento del Deep Learning. Gli algoritmi di Deep Learning migliorano analizzando grandi quantità di dati appositamente etichettati; spesso lo fanno con accuratezza, ma senza essere esplicitamente pre-programmati da nessuno.
Il principale vantaggio del Deep Learning è che è in grado di rilevare, quantificare e classificare anche il più impercettibile degli schemi ricorrenti all’interno dei dati analizzati, offrendo ai tecnici un vero e proprio paio aggiuntivo di occhi “sovrumani”. Questo aspetto rende gli algoritmi di Deep Learning particolarmente indicati a offrire un sostegno concreto in discipline mediche basate sull’individuazione di pattern, come in radiologia.
Tuttavia, per quanto gli algoritmi di Deep Learning possano risultare accurati se messi al lavoro su compiti ben precisi — rilevare un tumore al seno di una determinata forma o dimensione, evidenziare lesioni polmonari all’interno delle TAC, monitorare l’evoluzione dei tumori cerebrali nel tempo analizzando le relative risonanze magnetiche, valutare la gravità di un cancro alla prostata a partire dai campioni di tessuto… — essi non sviluppano una reale comprensione dell’ambiente che li circonda. Non hanno la capacità di ragionare o astrarre al di là delle serie di dati attraverso le quali sono stati addestrati.

AI GENERALE, AI RISTRETTA, ALGORITMI

La distinzione più importante da ricordare in tempi in cui si parla sempre più spesso di questi temi, con toni ora entusiastici ora allarmati, è che l’intelligenza artificiale può essere suddivisa in due grandi categorie: generale e ristretta.
Prendendoci qualche licenza, possiamo dire che l’AI generale è quella dei libri e film di fantascienza, cioè un sistema in grado di ragionare, apprendere concetti, elaborarli e svolgere qualsiasi compito come farebbe un essere umano. Un sistema di questo tipo avrebbe quindi abilità cognitive paragonabili (se non superiori) alle nostre, con la capacità di affrontare e risolvere problemi molto diversi tra loro e in più ambiti. È per molti l’obiettivo finale delle ricerche nel settore ed è ciò di cui si è parlato molto negli ultimi mesi dopo la diffusione delle ultime evoluzioni di ChatGPT, ma la possibilità di avere una AI di questo tipo appare ancora molto remota — e per i più scettici irraggiungibile.
Come suggerisce il nome, l’AI ristretta ha obiettivi limitati rispetto all’AI generale. Un sistema di AI ristretta ha sostanzialmente un solo compito da svolgere, nel quale può essere estremamente efficiente, ma è incapace di occuparsi di qualsiasi altra cosa. Le intelligenze artificiali di questo tipo fanno parte delle nostre esistenze da molto tempo e differiscono dai normali software per via della loro complessità. È possibile che ne abbiate utilizzata una anche oggi, per esempio per fare una ricerca su Google partendo da una immagine, oppure chiedendo a DALL•E di disegnarvi qualcosa. I sistemi di questo tipo si basano per lo più sull’elaborazione del linguaggio naturale, con attività che sono più legate alla statistica e al calcolo probabilistico rispetto a quelle che svolge il nostro cervello.

Soprattutto da quando esistono i social network si parla moltissimo di algoritmi che «ci controllano», «decidono che cosa possiamo sapere e che cosa no», «scelgono per noi i contenuti dei nostri amici» e via discorrendo. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato. Gli algoritmi esistevano ben prima dei social network e dei computer, considerato che il loro principio di funzionamento è prettamente logico, ma è vero che negli ultimi decenni hanno avuto una grande evoluzione.
Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo, allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina web che state leggendo in questo momento.

BOT, DEEP LEARNING, MACHINE LEARNING

Se qualcuno cerca “Acquario” su Google sta cercando notizie sulla vasca o sistema di vasche in cui si tengono in vita piante o animali, oppure sul segno zodiacale? Un account su Instagram che promuove un prodotto è autentico o sta organizzando una truffa? Tra i miliardi di video su YouTube quale vorrà vedere con maggiore probabilità un utente che sta finendo di guardarne un altro? I “bot”, ossia algoritmi basati sull’intelligenza artificiale, possono offrire risposte a queste domande — che per ora non sono sempre perfette, ma buone a sufficienza.
Per lungo tempo i bot sono stati creati utilizzando altri bot che hanno il compito di crearli e di sottoporli ad altri bot, che a loro volta si occupano di verificarne il funzionamento: sono algoritmi che provvedono ad altri algoritmi, in un certo senso. I bot che creano e testano gli altri bot sono generalmente programmati da esseri umani, con regole relativamente semplici per farli funzionare, basate sulla funzionalità che si vuole ottenere.

I “captcha” sono dei bot costruiti e testati da altri bot

Quando si inizia a lavorare a nuovi algoritmi, i primi bot creati dai bot costruttori sono poco efficienti: lo sanno bene i bot che li testano, che hanno ricevuto dai programmatori istruzioni semplificate per svolgere un determinato compito, per esempio riconoscerenelle fotografie i segnali stradali di “Stop” (o i semafori, o i bus, come negli esempi di captcha qui sopra). I bot che fanno i test non sanno farlo, naturalmente, ma i programmatori forniscono loro due set di immagini di partenza: quelle dove ci sono di sicuro gli “Stop” e quelle dove non ci sono. I bot conoscono le regole del gioco e verificano come se la cavano i nuovi arrivati dando loro un voto. Quelli più scarsi vengono distrutti, mentre quelli promettenti vengono utilizzati dai bot costruttori per realizzarne di nuovi, che finiranno poi sotto esame dai bot che fanno i test e così via.

È un approccio evidentemente caotico e che non porterebbe da nessuna parte in una scuola per come la intendiamo da sempre, ma il sistema funziona perché viene realizzato su una scala enorme. Viene effettuata una gigantesca quantità di iterazioni e i bot che vengono testati sono milioni, cui sono sottoposte grandissime quantità di dati: a ogni giro il risultato ottenuto migliora, magari di pochissimo, ma infine porta ad algoritmi che riescono a riconoscere lo “Stop” (e il semaforo, e il bus) in qualsiasi immagine o ripresa del mondo reale. Un’operazione che sarebbe stato impossibile realizzare con i classici software realizzati dal principio alla fine da esseri umani.

Questo esempio è naturalmente una semplificazione di processi molto più complessi legati alla computazione evolutiva, un metodo cui si sono affiancati nel tempo altri processi. Un computer oggi impara e “impara a imparare” con un processo che viene definito di machine learning (apprendimento della macchina) o ML e che si può considerare una sottocategoria dell’intelligenza artificiale, termine ombrello sotto il quale sono comprese cose anche molto diverse tra loro.
Con ML si intende in generale l’attività di apprendimento dei computer tramite i dati. È una attività che mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovano andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.
Attraverso il ML, per esempio, si può ottenere un algoritmo in grado di fare previsioni anche se non era stato esplicitamente programmato per farlo: è il sistema stesso a maturare quella capacità sulla base di certi andamenti e processi di generalizzazione dei risultati (inferenze).
Il ML viene talvolta confuso con il già citato deep learning o DL, ma quest’ultimo è una sottocategoria del primo. È una forma più evoluta di machine learning che si basa su una particolare struttura di algoritmi ispirata alle reti di neuroni che fanno funzionare il cervello umano. Queste reti neurali artificiali permettono di effettuare l’apprendimento in modo più raffinato ed efficiente rispetto ad altri modelli di ML.

RISCHI VERI

Pensiamo alla finta foto del papa col piumino bianco e immaginiamo un futuro in cui — nei testi, nelle foto e anche nei video — sarà sempre più difficile distinguere ciò che è vero da ciò che è falso.
Tutto ciò sta avvenendo nella totale assenza di un quadro normativo di qualunque tipo, inevitabilmente aumentando i rischi posti dalla diffusione di questi strumenti.

Comportamenti emergenti

I comportamenti emergenti sono quelli che si verificano quando i modelli linguistici di grandi dimensioni scalano: in alcuni casi i ricercatori osservano salti imprevedibili e improvvisi nelle prestazioni su determinati compiti. Queste “nuove abilità” possono essere definite come abilità emergenti che si verificano al di sopra di una certa dimensione e che non si verificano nei modelli più piccoli. In pratica, si scopre che una AI basata su grandi modelli sa fare cose che non erano previste dai suoi progettisti.

Gli LLM (large language models: vd. box più avanti) possono produrre centinaia di abilità “emergenti”, ovvero compiti che i modelli di grandi dimensioni sono in grado di svolgere e che i modelli più piccoli non sono in grado di svolgere, molti dei quali sembrano avere poco a che fare con l’analisi del testo. Le ultime analisi suggeriscono che per alcuni compiti e alcuni modelli esiste una soglia di complessità oltre la quale la funzionalità del modello sale alle stelle. I ricercatori stanno facendo a gara non solo per identificare altre capacità emergenti, ma anche per capire perché e come si manifestano; in sostanza, per cercare di prevedere l’imprevedibilità. La comprensione dell’emergenza potrebbe rivelare risposte a domande profonde sull’intelligenza artificiale e sull’apprendimento automatico in generale, per esempio se i modelli complessi stiano davvero facendo qualcosa di nuovo o se stiano solo diventando molto bravi nelle statistiche.

Biologi, fisici, ecologisti e altri scienziati usano il termine “emergente” per descrivere l’auto-organizzazione, i comportamenti collettivi che si manifestano quando un grande insieme di cose agisce come una sola cosa. Combinazioni di atomi senza vita danno origine a cellule viventi; le molecole d’acqua creano onde; mormorii di storni si librano nel cielo secondo schemi mutevoli ma identificabili; le cellule fanno muovere i muscoli e battere i cuori. In sostanza, le capacità emergenti si manifestano in sistemi che coinvolgono molte parti individuali. Ma i ricercatori sono riusciti a documentare queste capacità nei LLM solo di recente, quando questi modelli hanno raggiunto dimensioni enormi.

Con l’avvento di modelli come il GPT-3, che ha 175 miliardi di parametri, o il PaLM di Google, che può essere scalato fino a 540 miliardi, gli utenti hanno iniziato a descrivere sempre più “comportamenti emergenti”. Un ingegnere di DeepMind ha persino riferito di essere riuscito a convincere ChatGPT di essere un terminale Linux e di avergli fatto eseguire un semplice codice matematico per calcolare i primi dieci numeri primi. È sorprendente che sia riuscito a portare a termine il compito più velocemente dello stesso codice eseguito su una vera macchina Linux.
Molti di questi comportamenti emergenti illustrano l’apprendimento “a zero colpi” o “a pochi colpi”, che descrive la capacità di un LLM di risolvere problemi che non ha mai — o raramente — visto prima. Come ci si aspetterebbe, su alcuni compiti le prestazioni di un modello sono migliorate in modo regolare e prevedibile con l’aumento della complessità; in altri compiti, l’aumento del numero di parametri non ha prodotto alcun miglioramento. Ma per circa il 5% dei compiti i ricercatori hanno riscontrato quelli che hanno definito “breakthrough”, ossia salti rapidi e drammatici nelle prestazioni a una certa soglia di scala. Per esempio, i modelli con un numero relativamente basso di parametri (solo qualche milione) non riuscivano a completare con successo i problemi di addizione a tre cifre o di moltiplicazione a due cifre, ma per decine di miliardi di parametri, l’accuratezza è aumentata in alcuni modelli. Salti simili si sono verificati per altri compiti, tra cui la decodifica dell’Alfabeto Fonetico Internazionale, la decifrazione delle lettere di una parola, l’identificazione di contenuti offensivi in paragrafi di hinglish (una combinazione di hindi e inglese) e la generazione di un equivalente inglese di proverbi kiswahili.

Il rischio di tutto ciò è intuitivo: se i modelli migliorano le loro prestazioni quando si espandono, possono anche aumentare la probabilità di fenomeni imprevedibili, compresi quelli che potrebbero potenzialmente portare a pregiudizi o danni. Studiare i LLM e capire perché “saltano in avanti” può scongiurare che l’emergenza diventi… un’emergenza.

RISCHI FINTI

Un’«intelligenza artificiale» come quella alla base della saga cinematografica Terminator, con SkyNet che diventa “senziente” e decide di eliminare e/o schiavizzare l’umanità, non solo non è nemmeno ancora in vista, ma non è neanche in alcun modo chiaro se sarà mai possibile svilupparla.
Nel giugno del 2022 si parlò molto di Blake Lemoine, programmatore di Google ed esperto di etica che si disse convinto che un chatbot sviluppato dall’azienda fosse diventato “senziente”, ovvero conscio di sé. La tecnologia in questione era LaMDA (Language Model for Dialogue Applications), un modello linguistico particolarmente avanzato dal quale la società è partita per sviluppare anche Bard (cfr. più avanti). Lemoine fu presto smentito e licenziato dall’azienda: forse anche lui si era lasciato suggestionare troppo da Terminator.

Allucinazioni

Sembra una boutade ma non lo è. E non è nemmeno un “rischio che corriamo”, dal momento che siamo ancora agli albori di questa rivoluzione (le AI ancora non guidano gli aerei né fanno operazioni chirurgiche da sole). Ma quando i modelli generano il testo in modo probabilistico e seguono il contesto che viene loro dato dall’input umano, cioè il “prompt”, se partono per la tangente e dicono cose che non c’entrano niente, si dice che hanno le “allucinazioni”: cambiano discorso, sbagliano i fatti, magari dicendo che la torre Eiffel è alta un metro, oppure fanno altri errori alle volte grossolani. I primi modelli di ChatGPT “allucinavano” ripentendo la stessa parola cinque o sei volte di fila. Sono errori classici, che oggi sono diventati molto più sottili. Talvolta, chiedendo operazioni matematiche molto complesse, azzeccano l’ordine di grandezza ma sbagliano qualche decimale, come peraltro faremmo anche noi.

È quest’ultimo particolare a essere molto interessante: attualmente le AI sbagliano come gli umani. Nel senso che i LLM come ChatGPT di OpenAI o Bard di Google sono programmati e addestrati per apprendere gli schemi linguistici di sintassi e grammatica delle persone, non a comportarsi da calcolatrici. Per questo, rispondono in maniera coerente approssimando i risultati come farebbe una persona che si esprime nella sua lingua madre: nessuna delle quali è fatta per avere la precisione matematica assoluta.

«Le AI ci rubano il lavoro!»

Quello che sta cambiando adesso è anche l’approccio alle AI. Diventa rilevante non la programmazione ma il modo con cui si costruiscono le domande. È un approccio “no-code”, per il quale non serve saper programmare. Proprio come la rivoluzione di chi faceva i siti web anni Novanta a mano (ossia digitando pazientemente l’Html) e chi, dopo il Duemila, ha iniziato a usare le piattaforme come WordPress che hanno automatizzato tutte le operazioni (il presente sito è fatto proprio con WordPress).

Scrittori, grafici, illustratori, pubblicitari, fotografi, videomaker: tutti costoro (e, ahimé, lo scrivente fra questi!) hanno un buon motivo per temere l’avvento delle AI come ChatGPT o Midjourney. Tuttavia è sempre accaduto nella storia del progresso: lavori che vengono resi obsoleti dall’avanzamento delle tecnologie lasciano il posto all’emergere inarrestabile di professioni nuove di zecca. Si pensi, soltanto per fare un esempio relativo a tempi recenti, all’avvento di internet: in via di estinzione tipografi ed edicole, son venuti fuori web designer e news online.
Anche con le AI stanno già profilandosi nuove professioni: come il prompt designer, cioè la persona che progetta la conversazione e sa cosa chiedere (e come) a un’AI per spremerne il meglio, o il responsabile etico dell’AI, che si occupa di verificare che i dati passati alla AI per addestrarla siano “puliti” (ossia rispettosi delle persone e del diritto d’autore), o infine l’etichettatore dei dati, sempre più richiesto perché capace di organizzare la conoscenza a grandi linee per poi fornirla alle AI.
Prima di questa nuova fase delle AI era necessario accumulare molte osservazioni, cioè molti dati: era il mondo della statistica. Adesso siamo passati al versante dell’istruzione: non occorre raccogliere dieci ricette degli spaghetti alla carbonara ma basta chiedere come si fa la carbonara. L’investimento di OpenAI, che sta avendo il feedback di milioni e milioni di utenti, da questo punto di vista paga moltissimo, il livello è molto alto. Si vede rispetto a Bard di Google, per esempio. Qui emerge il ruolo del designer (detto anche engineer) dei prompt, perché la qualità della generazione delle risposte dipende dalla sensibilità di un essere umano e dalla sua capacità di fare le domande nel modo giusto. Il posto di lavoro, insomma, se lo prenderà chi saprà usare le AI, cioè saprà parlare con loro.

LE A.I. DI OGGI

Gli algoritmi di Deep Learning — che nella loro essenza sono come detto strumenti statistici in grado di scovare correlazioni all’interno di una marea di dati — non hanno nessuna comprensione di ciò che stanno facendo, non sono in grado di generalizzare la conoscenza e hanno un’enorme serie di altri limiti che impediscono un loro sviluppo in direzione di una vera “intelligenza” che possa addirittura «sfuggire al nostro controllo» (probabilmente uno dei più pericolosi falsi miti tecnologici).
Comprendere la causa e l’effetto è un grosso aspetto di ciò che chiamiamo “buon senso” ed è un’area in cui, oggi, i sistemi di intelligenza artificiale sono totalmente incapaci: non c’è in loro nemmeno la parvenza, nemmeno la scintilla di una forma di vera intelligenza.
È la ragione per cui, anche nel caso del recentissimo (e potentissimo) GPT-4, si continua a parlare di “pappagalli stocastici”: termine ideato dalla ricercatrice Timnit Gebru con il quale si sottolinea la totale mancanza di genuina comprensione da parte di questi modelli, che si limitano invece a individuare schemi verbali ricorrenti nel loro database e a ripeterli.

Le AI come ChatGPT, DALL•E, Midjourney AI e Stable Diffusion scovano nel mare di testi (e immagini, e video) a loro disposizione quali siano le risposte che ricorrono più frequentemente quando viene posta una domanda (e che quindi hanno la maggiore probabilità di soddisfare la domanda), senza avere la più pallida idea di ciò che l’utente sta dicendo e chiedendo.
Come nel caso del meme di Papa Bergoglio col piumino bianco, il meccanismo di queste “AI generative” è semplice: per anni immagini prese dalla Rete e altrove sono state immagazzinate in enormi banche di memoria; questi dati hanno nutrito sistemi di intelligenza artificiale con cui ora si possono produrre “nuove” immagini. Oggi chiunque può farsi la sua illustrazione senza toccare una matita o una tavoletta grafica: ma non sta facendo altro che “rubare” immagini esistenti, rimixandole. (E in effetti son partite subito numerose cause e relativi processi per violazione di copyright.)
Un’applicazione di AI impiega solo qualche secondo a produrre l’immagine: mescola, sceglie, disegna e consegna. Non è detto che fornisca subito quello che le si chiede, ma basta interrogarla con nuove variazioni sullo stesso tema fino a ottenere un prodotto accettabile, perché dando lo stesso input il risultato è ogni volta diverso. È un po’ come ruotare un caleidoscopio o giocare con le slot machine.
Siamo noi esseri umani che, prima, creiamo sistemi in grado di simulare una forma di intelligenza per via informatica e, poi, li scambiamo per vera intelligenza: un corto circuito che dice poco delle potenzialità dell’intelligenza artificiale, ma tantissimo della psicologia dell’essere umano.

BIOLOGIA vs TECNOLOGIA

Cosa fanno più di noi le macchine “intelligenti”? Innanzitutto ci battono in numero di elementi computazionali e velocità di operazione. Il cervello biologico possiede 86 miliardi di neuroni, numero non modificabile, ci mette tanti anni per maturare ed è deteriorabile. I supercomputer, invece, non hanno limiti di grandezza, possono essere duplicati e implementati continuamente. Il nostro cervello è capace di compiere un numero di operazioni per i nostri parametri strabiliante: 38 miliardi al secondo. Ma una delle macchine più potenti al mondo, l’Hpc5, del Green Data Center ENI, è capace di effettuarne 70 milioni di miliardi. I neuroni impiegano almeno 5 millisecondi per fare qualcosa di utile, mentre i transistor di silicio possono funzionare a una velocità quasi un milione di volte maggiore (e questo potrebbe essere incrementato enormemente dall’avvento dei computer quantistici). Una neocorteccia in silicio potrebbe, in teoria, apprendere un milione di volte più velocemente di un essere umano.

E allora dobbiamo considerare definitivamente superato il cervello umano?
No.
Possiede punti caratterizzanti che, almeno fino a ora, le macchine non sono riuscite a emulare. Una prerogativa importante è quella di provare emozioni, di avere cioè quei moti dell’animo che rendono viva la nostra esistenza, ci permettono di provare gioia o paura, nostalgia o tristezza, e ci spingono ad agire; svolgono un ruolo importante in ogni processo decisionale, anche nella scelta del bene e del male.

Un’altra differenza sostanziale è la creatività. Neanche noi umani sappiamo cosa sia esattamente ma se la immaginiamo come frutto della libera associazione di idee, pensieri ed emozioni, un computer guidato da rigidi algoritmi come farà a esprimerla? Come farà ad avere il “codice umano”, cioè quella straordinaria capacità di immaginare, rinnovare e di creare opere d’arte che elevano ed espandono ciò che significa essere umani?

E infine c’è la coscienza, senza la quale tutto quanto detto prima — emozione, creatività, percezione del senso della vita — non potrebbe essere. È una caratteristica che implica talmente tante cose, dalla consapevolezza di sé e della realtà che ci circonda alla visione morale del mondo, alla capacità di riflettere sui propri pensieri e su questi elaborare un progetto, che appare difficile che una materia grezza possa farla emergere. Possiamo chiamare «intelligenti» macchine incapaci di costruire una rappresentazione del mondo o di dare vita a processi creativi? Più che operare come la mente umana, di fatto si limitano a processare i dati in modo più sofisticato e veloce: per cui sarebbe meglio definirle supertecnologie.
La saggezza o l’intelligenza non sono solamente un accumulo di informazioni, per quanto numerose queste possano essere, ma la capacità, partendo da una mole di dati, di rielaborarli e riuscire a pensare una prospettiva più ampia e diversa.

L’«UMANO» È BEN ALTRO

Come ha scritto Annamaria Testa, a proposito di intelligenza non esistono risposte semplici. Sappiamo che, per noi esseri umani, intelligenza è la facoltà di intendere (i latini dicevano, appunto, intelligere) ciò che ci circonda e di estrarne un senso. E poi la capacità di elaborare il pensiero astratto e di imparare, di ricordare, di applicare ad altri ambiti ciò che impariamo e ricordiamo. Intelligenza è ciò che ci permette di valutare ed esprimere giudizi, di risolvere problemi, di inventare, di entrare in relazione coi nostri simili. Ed è molto altro ancora. Sappiamo inoltre che i ricercatori hanno proposto diversi modelli d’intelligenza, nessuno dei quali tanto soddisfacente da guadagnarsi il consenso dell’intera comunità scientifica.
Sappiamo, infine, che i test del quoziente d’intelligenza sono tutt’altro che affidabili: misurano solo certe prestazioni, facili da valutare dal punto di vista quantitativo. E privilegiano chi appartiene al contesto culturale bianco occidentale, a partire dal quale i test medesimi sono stati costruiti, mentre sottostimano capacità intellettive valorizzate da altre culture.
Però niente ci vieta di fare qualche confronto parziale. Potremmo così scoprire — a dircelo è un bell’articolo uscito su Science — un fatto notevole: in singoli compiti che non esiteremmo a definire intelligenti (per esempio, Nlp, Natural language processing, l’elaborazione del linguaggio naturale), programmi di AI che inizialmente hanno prestazioni di gran lunga inferiori a quelle degli esseri umani, possono arrivare a surclassarli nell’arco di un solo anno. In altre parole: oggi un’AI può superare meglio di noi un test di comprensione linguistica costituito da domande sull’articolo che stiamo leggendo, anche perché se lo ricorda parola per parola. E la stessa cosa succede con il riconoscimento e la classificazione delle immagini. Il fatto notevole è che in passato l’AI è migliorata nell’arco di decenni: ora, invece, migliora nell’arco di mesi.

Tutto ciò ci dice un paio di cose: l’intelligenza artificiale è molto veloce, molto potente e molto specializzata. Non ha, almeno per ora, la flessibilità propria dell’intelligenza umana, che integra esperienza sensoriale, competenze pragmatiche ed emotive e pensiero astratto.

A un bambino basta vedere una decina di gatti per capire che cos’è un gatto: può girarci attorno, accarezzarlo, prenderlo in braccio e dargli da mangiare. Sarà anche capace di riconoscere un gatto di ceramica alto cinque centimetri, o un gatto in un cartone animato, o un costume carnevalesco da gatto, e potrà disegnarlo o descriverlo, il gatto. All’AI, che non ha un corpo, non si traveste per carnevale e non accarezza i gatti, servono migliaia e migliaia di esempi selezionati ed etichettati come “gatto” per imparare a riconoscerne uno. Quando infine diventa capace di farlo — e lo fa in modo velocissimo —, può tuttavia sfuggirle il senso dello Stregatto di Alice, o può spaesarsi se trova la didascalia “Il gufo e la gattina” sotto le foto di Barbra Streisand e George Segal. Un’AI calibrata per valutare perfettamente immagini mediche provenienti da un laboratorio può trovarsi del tutto spaesata di fronte a quelle che le arrivano da un laboratorio diverso, e un’IA capace di intercettare gli insulti razzisti può non intercettare quelli sessisti.

In definitiva, un essere umano ha la saggezza (be’, non tutti, certo!), e saggezza non significa nozionismo o semplice conoscenza. La semplice conoscenza — quella insegnabile a un bot in maniera intuitiva e semplice — è per esempio il sapere che il pomodoro è un frutto; la saggezza è quella di non metterlo in un’insalata di frutta.
Certo, l’AI, se le viene richiesto, può raccontarci una barzelletta. Anzi: più barzellette di quante un essere umano possa tenere a mente. Ma per insegnare a una macchina come diventare spiritosa (e renderla, con questo, davvero indistinguibile da noi) dovremmo prima di tutto trasferirle i meccanismi logici (per esempio, il ribaltamento) su cui si fonda la comicità. Questo si può fare: basta darle una sufficiente quantità di dati. Dovremmo poi darle la saggezza necessaria a non mettere pomodori nell’insalata di frutta, e questo è già più complicato. E dovremmo — cosa a oggi impossibile — renderla consapevole di sé, del contesto e del tipo di relazione che c’è con il suo interlocutore.

ChatGPT è pronta a poetare (e, se serve, lo fa rispettando anche la metrica) su qualsiasi argomento, dalla tassa di successione ai calzini. E così esordisce: «Oh, calzini, fidi compagni dei miei piedi!». Questa prestazione conferma la sua assoluta mancanza di senso dell’umorismo, tuttavia a mancare è soprattutto l’incantesimo che la poesia sa creare, proprio per la sua natura di “schema linguistico che comprime dati disordinati di esperienza, emozione, verità o conoscenza trasformandoli in discorso memorabile”.

I NUOVI MILLENARISTI

La lettera con appello di “moratoria”, scritta a fine Marzo 2023 da un migliaio di imprenditori, (pochi) scienziati informatici e celebrità di vario tipo, per chiedere uno stop di sei mesi allo sviluppo dei sistemi come GPT, proviene dai membri del Future of Life Institute, uno dei più importanti think-tank legati alla corrente di pensiero del “lungotermismo”: una filosofia — se così si può chiamare — nata nella Silicon Valley, che ha raccolto immense quantità di denaro e che si sta insinuando nelle più importanti istituzioni del mondo (Nazioni Unite comprese).
Il problema del lungotermismo è che, portando alle estreme conseguenze l’attenzione verso gli effetti negativi che le nostre azioni potrebbero avere sul lungo termine, finisce per ammantarsi di toni apocalittici e millenaristi, secondo cui l’essere umano corre una serie di fantascientifici “rischi esistenziali” (tra i quali, però, curiosamente, non c’è la crisi climatica!) per fermare i quali bisogna stoppare lo sviluppo dell’intelligenza artificiale, fuggire su Marte e dare vita all’espansione galattica della nostra specie, al fine di realizzare il suo “destino manifesto”.

Presto, un Pianeta B!

Fra gli esponenti di questa corrente di pensiero troviamo i filosofi Nick Bostrom e William MacAskill (ideatore dell’Effective Altruism), il fondatore di Skype Jaan Tallinn, il fondatore di OpenAI Sam Altman, il solito Elon Musk, l’investitore Peter Thiel e tanti altri miliardari di ultradestra del mondo tecnologico.
Le conclusioni a cui i membri di questa setta giungono sono talmente assurde da portarli a sostenere esplicitamente che avrebbe più senso finanziare una ricerca volta a impedire che, in un futuro non importa quanto lontano, ci sia lo 0,01% di possibilità che l’essere umano si estingua, di quanto non sarebbe invece importante adoperarsi per impedire che esploda oggi un’altra pandemia che faccia milioni di morti.
Per i lungotermisti, la povertà di un Paese o le malattie circoscritte ad alcune zone del mondo non sono priorità, perché non rappresentano un “rischio esistenziale totale”, e persino la globale crisi climatica è derubricata a problema minore perché potrebbe essere più logico, seguendo il pensiero lungotermista, investire piuttosto nella ricerca di un “pianeta B” da colonizzare (e qui riecheggia ancora una volta l’immancabile Elon Musk).

E così, andando dietro a una specie di pensiero magico come questo, siamo distratti dai veri rischi posti dall’intelligenza artificiale: cui affidiamo compiti sempre più importanti senza prima aver risolto le questioni che pone in termini di discriminazioni razziali/sessuali (per esempio selezionare personale sulla base di curricula prevalentemente maschili penalizzando candidature femminili come è successo ad Amazon), errori, sorveglianza, limitazioni della libertà, “allucinazioni” (come si definiscono in gergo le situazioni in cui l’intelligenza artificiale produce con sicurezza dei resoconti completamente inventati, anche perché ogni suo enorme archivio-dati non distingue tra testi fattuali e testi di narrativa fantastica) e molto altro ancora.
L’intelligenza artificiale, per dirne una, ci somiglia più di quanto è lecito attendersi, anche in peggio. Perché i sistemi AI attuali, nella “pesca a strascico” effettuata sulla Rete per costruire i colossali database di partenza, assorbono i nostri bias e pregiudizi: per esempio, chiedendo a un’intelligenza artificiale di rappresentare un “dottore”, essa mostra solo uomini caucasici in camice. Midjourney, AI generativa in grado di realizzare immagini sulla base delle richieste testuali (prompt) immesse da un utente, in caso di prompt “manager” mostra solo uomini bianchi (eppure l’inglese come lingua non attribuisce un genere alla maggior parte dei sostantivi che si riferiscono a professioni e ruoli sociali); il prompt “lovers”, amanti, è associato a coppie esclusivamente eterosessuali, e lo stesso avviene con il prompt “parents”, genitori.
È perciò evidente che ci sia già a monte un grosso problema nell’istruire correttamente la tecnologia che porterà maggiori cambiamenti alla società nei prossimi anni, poiché l’AI non fa altro che pescare informazioni con criteri assegnati da esseri umani: la verità è che queste “intelligenze” imparano tutto da noi, anche ciò che è sbagliato.
Come ha scritto efficacemente Wired, «invece di concentrarci sulle problematiche concrete poste dall’intelligenza artificiale, preferiamo dare retta alle chiacchiere fantascientifiche di un gruppo di tecno-miliardari ossessionati dalle loro stesse fantasie nerd».

(Per scoprire come ragiona un tecno-miliardario, può tornare utile il mio romanzo-parodia “Choufflon, lo scintillante.)

E CON LE IMMAGINI SORGONO NUOVI PROBLEMI

Mentre a proposito dell’AI che parla e scrive il dibattito pubblico si è subito spostato sulla sfocatura dei contenuti, l’apparente precisione formale delle risposte, la loro sostanziale carenza di componenti emotive e gli “errori stupidi”, invece il dibattito sull’AI che restituisce immagini ha preso immediatamente altre strade: si può o meno fare arte con l’AI? Possiamo ancora definire “autore” di un’immagine qualcuno che, nella realtà, ha scritto un testo, l’ha corredato di indicazioni su tecnica e stile, e infine ha scelto la più soddisfacente tra le innumerevoli interpretazioni alternative fornite dalla macchina?

Un modello di AI chiamato TTI (text-to-image, ne sono esempi Stable Diffusion e DALL•E) lavora direttamente sull’immagine, che viene generata a partire da rumore casuale (immaginiamo uno schermo pieno di pixel). Durante una sequenza di passaggi, l’AI fa in modo che il rumore si addensi, costruendo tratti via via più dettagliati, nei punti in cui, a partire dal suo addestramento, ritiene che quell’addensamento debba essere più probabile. In realtà, pensare che qualsiasi immagine, dal Giudizio universale di Michelangelo a Topolino, al ritratto di Gandhi, possa essere triturata e scomposta in infinitesimi brandelli di informazione, o in puro rumore, e poi ricomposta in forma diversa, è abbastanza sconcertante. Tuttavia forse smette di esserlo se pensiamo che, dopotutto, quanto avviene con le AI TTI non è più complicato o sorprendente di quanto avviene tra la nostra retina e il nostro cervello. A parte il fatto che le immagini noi ce le selezioniamo e ce le etichettiamo da sempre e ce le ricostruiamo nella mente da sempre.

Un’altra cosa che il nostro cervello sa fare molto bene è combinare elementi esistenti in modo inedito e appropriato (cioè: non casuale, arbitrario o inutile). In questo atto c’è l’essenza della creatività che, poiché niente si crea dal niente, è intrinsecamente, come scrive Umberto Eco, ars combinatoria. Ecco: un altro fatto notevole è che, sul combinare, anche l’AI va alla grande. La cosa più sorprendente è che l’AI può prendere due concetti non correlati e metterli insieme in modo per molti aspetti funzionale.

La combinazione tra una poltrona e un avocado. Un paio di queste poltroncine sono dotate, oltre che di intrinseca congruenza con la richiesta espressa dal prompt, anche di una discreta valenza estetica.

Tutto ciò può dar luogo a un’infinità di domande, alle quali per ora ci sono poche e incerte risposte.
Per esempio: può un’AI, che non è né senziente né, in senso proprio, intelligente, e che non ha alcuna intenzionalità, produrre risultati dotati di qualche valore creativo?
O può essere invece che lo spazio creativo dell’AI stia proprio nelle lacune che, dal prompt all’esecuzione di un’immagine, l’IA deve riempire in modi che sfuggono alla previsione degli agenti umani? Magari, può essere che la creatività delle macchine stia perfino nelle imprecisioni della programmazione (pensiamo alle “allucinazioni” di ChatGPT)?
Soprattutto, ammesso e non concesso che i risultati inediti dell’ars combinatoria di un’AI abbiano qualche sorta di valore, possiamo davvero parlare di “creatività”?
E ancora: quanta creatività umana viene scippata dall’AI, che pesca dal web non solo figure ma anche tecniche e stili che sono propri di un singolo artista? E come è possibile proteggere efficacemente con un copyright non un’opera o un complesso di opere, ma lo stile che le accomuna?

«L’inquietante verità sul copyright dell’AI è che nessuno sa cosa succederà dopo», scrive The Verge. E il problema non riguarda solo le immagini, ma anche la musica e la scrittura. Se dài all’AI dieci romanzi di Stephen King (e magari un’elementare traccia della trama) e le dici di produrre un romanzo di Stephen King, si tratta di un uso corretto?

L’hype peloso — o delle magnifiche sorti e progressive delle Public Relations

Fin qui, le ragioni in un senso e nell’altro — sia di tutto questo hype sulle AI/IA, sia del motivo per cui tale clamore pare grossolanamente esagerato come la notizia della morte di Mark Twain per Mark Twain —, potrebbero essere d’una limpidezza quasi banale. Epperò a un certo punto si desta quell’urlatore di allarmi populisti-complottisti «Svegliaaaah!1!!1!» che c’è in te, perché ti capita di leggere dei mostruosi investimenti che ci sono dietro (Elon Musk, Microsoft e Google non sono esattamente delle start-up) e allora ti chiedi: ma non è che, come già accaduto, più che di un effettivo genuino interesse mediatico siamo in presenza di una riuscitissima campagna di PR?

«OpenAI è stata creata come azienda open source (per questo l’ho chiamata “Open” AI) e senza scopo di lucro per fare da contrappeso a Google, ma ora è diventata un’azienda closed source e a massimo profitto controllata di fatto da Microsoft.
Non è esattamente quello che intendevo.»

Già a fine 2022 una notizia apparentemente minore aveva destato nei più attenti una certa curiosità: Larry Page e Sergej Brin, i due fondatori di Google, dal 2019 poco presenti nell’azienda, ormai affidata alla guida del CEO Sundar Pichai, erano stati richiamati in fretta e furia dal buen retiro delle loro isole caraibiche e dei loro spensierati viaggi ai quattro angoli del globo per partecipare a una serie di riunioni d’emergenza «in codice rosso» con il fine di «rivedere le strategie del gruppo».
È certo un periodo di crisi di tutto il settore big tech: 12mila licenziamenti il 20 gennaio 2023, pari al 6% della forza lavoro di Alphabet-Google; 10mila posti di lavoro tagliati in Microsoft; 18mila dipendenti via da Amazon. Ma non era questo il vero motivo per richiamare alle armi i due geni fondatori: era ed è piuttosto il momento di svolta nello sviluppo dell’intelligenza artificiale, snodo cruciale che mette in pericolo il principale business di Google: il suo quasi monopolio nei motori di ricerca. Il timore dei manager Google è che ChatGPT, grazie alla facilità con cui “comprende” (si fa per dire) le istruzioni ricevute e alla sua capacità di usare il linguaggio naturale, possa non solo insidiare ma addirittura soppiantare il search di Google, brand che oggi controlla oltre i nove decimi del mercato nel suo segmento e genera, attraverso la pubblicità, il 60% degli introiti del gruppo.

Grazie all’alleanza con OpenAI, Microsoft ha potuto presentare una versione di Bing, il suo motore di ricerca che da anni langue con quote di mercato risibili, potenziata proprio da ChatGPT, e lo ha fatto rendendola disponibile solo a chi scarica Microsoft Edge (il browser del gruppo, che ha sostituito Internet Explorer). La scelta è parte di una strategia aggressiva decisa da Satya Nadella, manager di origine indiana come Pichai e amministratore delegato di Microsoft, il quale vede nelle IA un’occasione storica per cambiare — se non sovvertire — le gerarchie nel settore della ricerca online, dominato al 93,3% da Google (seguita proprio da Bing, ma solo con il 2,8%). In un’intervista con il sito The Verge, Nadella ha detto di voler spingere Google «a uscire e dimostrare di saper ballare. E voglio che la gente sappia che siamo stati noi a farli ballare».
Dal Forum di Davos in poi Nadella ha dichiarato prima che il chatbot di OpenAI verrà usato in Azure, il sistema cloud di Microsoft, aggiungendo poi che il gruppo di Seattle intende studiare l’integrazione di ChatGPT «in tutti i suoi prodotti».

Edge contro Chrome (il browser di Google che domina il mercato dei browser), Bing contro Google: con alla base una AI forse in grado di sparigliare i giochi. Ci poteva essere allarme più grosso per Page e Brin?

La curiosa traiettoria di OpenAI

Larry Page e Sergey Brin

Sta accadendo tutto da pochi mesi, non si tratta di eventi diluiti negli anni. Nel novembre del 2022 l’azienda statunitense OpenAI ha presentato ChatGPT, intelligenza artificiale «diversa da tutte le altre» che riesce a simulare conversazioni umane con gli utenti e che ha avuto un successo mediatico enorme. Come OpenAI sia arrivata a questo momento non è chiarissimo: quello che si sa è che nel giro di poco tempo Sam Altman, co-fondatore e amministratore delegato di OpenAI, ordinò di aprire ChatGPT al pubblico con una certa urgenza. Tutto avvenne a una tale velocità che il programma che fu presentato si basava su una tecnologia sofisticata ma che era già vecchia di due anni, il modello linguistico GPT-3, mentre buona parte dell’azienda era già al lavoro su GPT-4, l’ultima versione che poi è uscita a Marzo 2023.

Nonostante questo, nella sua prima versione pubblica, ChatGPT arrivò a un milione di utenti in appena cinque giorni, dimostrando che l’intuizione di Altman era corretta e affermando in un certo senso il primato di OpenAI nella ricerca e nello sviluppo sull’intelligenza artificiale. La storia di come OpenAI sia giunta a questo punto però è molto particolare e a tratti controversa: nata come organizzazione senza scopo di lucro, nel giro di pochi anni e dopo un’alleanza con Microsoft sarebbe infatti arrivata secondo molti commentatori a stravolgere la missione originale con cui è stata fondata, tra gli altri, da Elon Musk, che ora è il primo a criticarne l’approccio.

OpenAI nacque nel 2015 da un’idea di Sam Altman, noto investitore della Silicon Valley e presidente di Y Combinator, influente acceleratore di startup californiano, ed Elon Musk, capo di Tesla e altre aziende tecnologiche (come SpaceX e, recentemente, Twitter). Entrambi condividevano una preoccupazione nei confronti delle intelligenze artificiali. Già nel 2014, a un incontro organizzato dal MIT di Boston, Musk le aveva definite «la più grande minaccia alla nostra sopravvivenza», dicendosi a favore di «una qualche supervisione regolamentare, magari a livello nazionale e internazionale». In particolare, Musk si disse preoccupato dallo strapotere raggiunto nella ricerca nel settore da una specifica azienda di cui non faceva il nome.
Nel dicembre del 2015, Musk e Altman co-fondarono OpenAI in qualità di organizzazione senza fini di lucro con l’obiettivo di promuovere e sviluppare un’«intelligenza artificiale amichevole (friendly AI) nei confronti dell’umanità».

Pochi mesi dopo la fondazione della società, Musk partecipò a un evento pubblico organizzato dal sito di tecnologia Recode, nel quale il noto giornalista di settore Walt Mossberg gli chiese di precisare quale azienda in particolare lo preoccupasse: «Non farò nomi ma ce n’è solo una», rispose. Successivamente però Musk rivelò che l’azienda che, secondo lui, stava acquisendo un vantaggio competitivo sul settore era Google, o meglio DeepMind, una società britannica che Google aveva acquisito nel 2014.

Musk e Altman

La presenza di Google (più precisamente Alphabet, il gruppo di cui fa parte l’azienda) nei pensieri e nei timori di Musk è un punto importante per capire gli eventi che hanno poi condizionato l’evoluzione di OpenAI. Per i primi anni di vita della non profit, Musk continuò a trattare le intelligenze artificiali con un misto di stupore e timore reverenziale, sostenendo che l’umanità stesse «evocando un demone» e che OpenAI sarebbe stata l’unica in grado di evitare incidenti nel percorso.

Il 2018 fu un anno di svolta per OpenAI: Altman cementò il suo ruolo di rilievo all’interno della società e Musk fu sempre più distratto da Tesla. Nei primi mesi dell’anno, secondo un’informata ricostruzione del sito Semafor, Musk si lamentò con Altman perché la loro azienda era rimasta molto indietro rispetto a Google: propose quindi di prendere il controllo dell’operazione ma Altman e altri fondatori (nonché molti dipendenti) rifiutarono l’offerta di Musk, che quindi uscì dall’azienda. OpenAI spiegò questa mossa in termini di conflitto d’interessi: «Poiché Tesla continua a concentrarsi sempre di più sulle intelligenze artificiali, questo eliminerà il rischio di futuri conflitti per Elon». (A dire il vero, però, Tesla aveva assunto una delle migliori menti di OpenAI, Andrej Karpathy, già l’anno prima dello scontro tra Musk e Altman).

L’uscita di scena di Musk comportò anche la scomparsa dei fondi necessari all’azienda, di cui Musk aveva versato solo un decimo del miliardo di dollari promesso. OpenAI si ritrovò da sola a dover coprire i costi astronomici necessari all’allenamento delle intelligenze artificiali, per cui sono necessarie enormi potenze computazionali e quindi infrastrutture ed energia.

Prima che Musk lasciasse OpenAI, Google Brain, una divisione di Google dedicata alle intelligenze artificiali, aveva presentato una tecnologia innovativa chiamata Transformer, che prevedeva che i modelli linguistici potessero migliorarsi con pochissimo intervento umano, utilizzando enormi moli di dati, testi e immagini. La presentazione di Transformer da parte di Google fu l’evento che concretizzò i timori di Musk di rimanere indietro, accelerandone l’uscita da OpenAI e costringendo l’azienda a cambiare strategia e adottare una nuova tecnologia, che ancora oggi è essenziale al funzionamento di ChatGPT (la sigla che ha dato il nome al modello linguistico “GPT” sta proprio per Generative Pre-trained Transformer, a conferma dell’importanza dell’invenzione di Google). Per farlo, però, erano necessari grandi investimenti sul cosiddetto training, cioè l’acquisizione di grandi archivi di dati, testi e materiali, e la loro analisi da parte di sistemi informatici sempre più complessi. Transformer fu quindi l’inizio di un lungo effetto domino che portò OpenAI all’alleanza strategica con Microsoft siglata nel 2022.

I motori di calcolo alla base di chatbot AI come ChatGPT hanno alla base modelli linguistici di grandi dimensioni (large language models, o LLM); questi modelli hanno una sola direttiva: accettare una stringa di testo come input e prevedere che cosa succederà in seguito, più e più volte, sulla base di dati puramente statistici.
I modelli linguistici esistono da decenni. Fino al 2017, i più potenti si basavano su una cosiddetta rete neurale ricorrente. Queste reti prendono essenzialmente una stringa di testo e prevedono quale sarà la parola successiva. Ciò che rende un modello “ricorrente” è che impara dai suoi stessi risultati: le sue previsioni vengono reimmesse nella rete per migliorare le prestazioni future. Nel 2017, i ricercatori di Google Brain hanno introdotto un nuovo tipo di architettura chiamata, come detto, trasformatore: mentre una rete ricorrente analizza una frase parola per parola, il trasformatore elabora tutte le parole contemporaneamente. Ciò significa che i trasformatori possono elaborare grandi quantità di testo in parallelo.
I trasformatori hanno permesso di aumentare rapidamente la complessità dei modelli linguistici, aumentando il numero di parametri del modello e altri fattori. I parametri possono essere considerati come connessioni tra le parole e i modelli migliorano regolando queste connessioni durante l’addestramento. Più parametri ci sono in un modello, più accuratamente riesce a creare connessioni e più si avvicina a imitare in modo accettabile il linguaggio umano.

Al fine di trovare nuovi fondi, nel marzo del 2019 OpenAI annunciò la creazione di una divisione dell’azienda chiamata OpenAI LP, presentata come «un ibrido tra una non profit e un’azienda a scopo di lucro, quello che noi chiamiamo azienda a “profitto massimo”» (nella quale, si legge nel sito dell’azienda, «investitori e dipendenti possono ottenere un profitto massimo se riusciamo nella nostra missione», cosa che permette a OpenAI LP di comportarsi in modo simile a una startup). Nel 2019 OpenAI firmò anche un accordo del valore di un miliardo di dollari con Azure, la divisione di Microsoft che si occupa di infrastruttura web e che da allora fornisce la potenza di calcolo necessaria alle IA. Fu l’inizio di un rapporto che dopo il successo di ChatGPT è diventato un «accordo multimiliardario», e che ha portato Edge, il browser di Microsoft, a incorporare nella sua ultima versione le intelligenze artificiali di OpenAI.

L’alleanza Microsoft-OpenAI rappresenta tuttavia l’ennesima prova di come la missione originale della società sia stata dimenticata, prima ancora che tradita. Negli ultimi mesi anche Musk ha sottolineato questo aspetto problematico, notando come un’azienda non profit che doveva servire da contrappeso a Google sia diventata un’azienda il cui valore di mercato è stimato attorno ai 30 miliardi di dollari ed è «a tutti gli effetti controllata da Microsoft».

«OpenAI è stata creata come azienda open source (per questo l’ho chiamata “Open” AI) e senza scopo di lucro per fare da contrappeso a Google, ma ora è diventata un’azienda closed source e a massimo profitto controllata di fatto da Microsoft.
Non è esattamente quello che intendevo.»

A rendere il rapporto di OpenAI con le sue stesse innovazioni così problematico è il fatto che lo stesso Altman sembra concorde nel ritenere queste tecnologie potenzialmente pericolose: nelle prime settimane del 2023 l’imprenditore ha dichiarato di «avere un po’ di paura» delle intelligenze artificiali, comprese quelle di OpenAI. Una posizione che tuttavia si scontra con il ritmo frenetico con cui l’azienda sta presentando nuovi servizi legati a GPT-4, e che non convince tutti (per primo, chi scrive, ndr): «Perché non collaborare con esperti di etica delle IA e con i legislatori prima di rendere disponibili questi modelli, in modo da dare alla società il tempo di creare le giuste protezioni?» si è chiesta non a caso Carissa Véliz, professoressa di filosofia ed etica all’Università di Oxford.

I dubbi sulla tenuta etico-morale dell’azienda sono aggravati dal fatto che OpenAI è nata espressamente con l’obiettivo di avere un’influenza diversa nel settore, fatta di collaborazione, cautela e apertura accademica alle ricerche proprie e altrui, col fine di evitare sviluppi incontrollati e sregolati delle intelligenze artificiali. A ben guardare, dunque, è da tempo che circolano dubbi riguardo alle vere intenzioni della società: quando nel 2018 OpenAI pubblicò il suo atto costitutivo, lo fece anche per ribadire che, nonostante i grandi cambiamenti in corso all’epoca, la società aveva sempre a cuore la propria missione originale di «assicurarsi che l’intelligenza artificiale generale (AGI) — per la quale intendiamo sistemi altamente autonomi che forniscono performance migliori degli umani nella maggior parte dei lavori economicamente più importanti — sia di beneficio per tutta l’umanità».

Tra i principî previsti dall’atto c’erano l’importanza della «distribuzione dei benefici» al fine di evitare accentramenti di potere, la «sicurezza a lungo termine», la «leadership tecnica» nel settore e «l’orientamento alla cooperazione», ovvero la disponibilità a collaborare con altri centri di ricerca e istituzioni del settore. Le recenti azioni di OpenAI hanno tradito buona parte di queste promesse: il riferimento è soprattutto al rilascio del modello linguistico GPT-4, avvenuto a Marzo 2023, che come denunciato da Musk nel tweet visto poc’anzi si è rivelato essere un sistema chiuso, nonostante lo spirito “open” che da sempre dovrebbe ispirare l’azienda – e il suo stesso nome. A colpire è stata soprattutto l’assenza di informazioni riguardo ai contenuti sui quali il nuovo modello linguistico è stato allenato e formato: le dimensioni dell’archivio, la provenienza dei documenti e la loro natura. «Penso che possiamo dire addio a “Open”AI: il documento di 90 pagine che presenta GPT-4 dichiara con orgoglio che non ci sarà alcuna informazione riguardo ai contenuti del training set», ha twittato Ben Schmidt di Nomic AI, altra società del settore.

Perciò, riassumendo, per anni OpenAI aveva pubblicizzato un approccio aperto e accademico alla materia per evitare che una singola azienda sviluppasse un’intelligenza artificiale così potente da poter essere considerata un’AGI, di cui potrebbe perdere il controllo (sic!) o potrebbe utilizzare in modo poco «amichevole», per usare il lessico caro all’azienda (ah, Terminator, Terminator…). Questo timore — che ormai chi scrive non esita a definire peloso e ipocrita — si era tradotto in un approccio open-source (in cui il codice sorgente è pubblico, disponibile a tutti e aperto a eventuali modifiche da parte della community), che ha contraddistinto i primi anni dell’azienda ma sul quale sembra aver cambiato drasticamente idea: «Avevamo sbagliato» ha dichiarato Ilya Sutskever, co-fondatore di OpenAI, al sito The Verge, aggiungendo che «se si pensa che una IA — o un’AGI — possa diventare estremamente, incredibilmente potente, allora non ha senso farla open source».

Si può essere più chiari di così? Be’, sì, forse in quest’altro modo, magari non troppo elegante:

Col cacchio, che vi cediamo il codice sorgente di questo business!, dopo tutti i soldi (di Microsoft) investiti e dopo il valore che abbiamo raggiunto (attualmente decine di miliardi) e che si raggiungerà presto (cifre a 12 zeri?), e con un vantaggio competitivo che già promette di sconquassare settori che sembravano inamovibili (i motori di ricerca, ossia il quasi monopolio di Google).

Intanto, essendo la fretta cattiva consigliera, il timore di perdere il monopolio della ricerca sul web ha portato Google a un clamoroso inciampo.
Mercoledì 8 Febbraio 2023 le azioni in borsa di Alphabet, la grande società che controlla Google, hanno perso il 7% del proprio valore (un tonfo da quasi 100 miliardi di dollari!) in seguito alla scoperta di un errore commesso in occasione di una presentazione pubblica da Bard, il nuovo sistema di intelligenza artificiale che l’azienda sta integrando all’interno del proprio motore di ricerca e che dovrebbe essere la replica a ChatGPT, e cioè rispondere a domande e richieste degli utenti con testi pertinenti e informativi composti automaticamente sulla base di una grande mole di informazioni a disposizione. È ancora in fase di sperimentazione, ma Google ne sta accelerando a rotta di collo lo sviluppo: nelle stesse ore Microsoft aveva messo a disposizione una versione del proprio motore di ricerca Bing con alcune funzionalità di ChatGPT, mettendo ulteriormente sotto pressione Google per offrire in tempi rapidi qualcosa basato sui propri sistemi di intelligenza artificiale applicati alla ricerca di informazioni online.

L’inizio della fine di Google?

Il fatto che sia stata OpenAI a inaugurare l’epoca delle intelligenze artificiali “di consumo”, cioè con software disponibili a chiunque per utilizzi anche occasionali, ha stupito molti. La società è infatti una realtà tutto sommato piccola in confronto alle grandi aziende della Silicon Valley (Google, Meta, Amazon, Microsoft, Apple) che da tempo investono in queste tecnologie. Eppure OpenAI sembra essere riuscita a superare, almeno a livello di attenzioni mediatiche, la stessa Google.

La storia del ritardo di Google in questo settore comincia qualche anno fa. Nell’ottobre del 2015 AlphaGo, un progetto della società specializzata in intelligenze artificiali DeepMind, diventò il primo software a vincere una partita di Go, un antico gioco da tavolo cinese. Il risultato fu ritenuto un momento di svolta per l’intero settore per via della complessità del gioco: nonostante l’aspetto molto semplice, infatti, il gioco permette di disporre delle pedine su una scacchiera in un numero di combinazioni enorme, «più grande del numero di atomi nell’universo» (10^170 combinazioni).

AlphaGo non aveva vinto contro un giocatore qualunque, ma contro il campione europeo Fan Hui: e fu un gran risultato anche per Alphabet, il gruppo a cui fa capo Google, che aveva acquisito DeepMind l’anno precedente per intensificare i propri sforzi su un settore considerato cruciale. L’anno successivo la vittoria a Go, nell’aprile del 2016, l’amministratore delegato di Google Sundar Pichai, nella sua lettera annuale agli azionisti, definì quello delle intelligenze artificiali uno dei settori più importanti per il futuro della società. Pochi mesi dopo, all’annuale conferenza dedicata agli sviluppatori, annunciò «un importante cambiamento da un mondo mobile first [cioè con i dispositivi mobili come supporto principale e fondativo] a uno basato sulle intelligenze artificiali».

Sono passati circa sette anni da quelle dichiarazioni e negli ultimi mesi il dibattito sulle intelligenze artificiali è diventato il più animato del settore delle nuove tecnologie, a causa della serie di nuovi prodotti e servizi in grado di generare testo, immagini e filmati, come DALL•E, Midjourney AI, Stable Diffusion e ChatGPT. Nessuno di questi, però, è stato sviluppato da Google né da una sua divisione come DeepMind.

La figuraccia del chatbot aveva comunque dimostrato chiaramente quali sono gli svantaggi competitivi di Google rispetto a realtà come OpenAI, che, nonostante il legame con Microsoft, può vantare ancora un’aura da startup indipendente dalle grandi aziende del settore. Google sembra infatti pressata da due parti: da un lato l’avvento di queste IA rischia di stravolgere il modo in cui cerchiamo e troviamo informazioni online, minando alle fondamenta il suo modello di business; dall’altro ogni implementazione di intelligenze artificiali da parte di Google sembra ricevere uno scrutinio molto più severo di quello riservato alla concorrenza. È infatti la stessa rilevanza di cui gode Google, e la sua reputazione di affidabilità presso la maggior parte degli utenti, a rendere errori come quelli di Bard un problema molto più grande che per OpenAI o anche Microsoft. La stessa ChatGPT, del resto, è nota per fornire informazioni errate nelle sue risposte, tanto da essere stata definita «un prodotto orribile» dal suo stesso capo Sam Altman. Questo non sembra comunque fermarne il successo.

Il primo settore di crisi per Google riguarda quindi la ricerca sul web, quello da cui è iniziata la sua storia ma che recentemente sembra non essere quello a cui l’azienda è più interessata. Negli ultimi anni, ben prima del lancio di ChatGPT, si è discusso dei modi in cui i risultati di ricerca forniti da Google siano cambiati, secondo alcuni analisti in peggio. Lo scorso anno un post intitolato “La ricerca su Google sta morendo”, scritto dall’esperto del settore Dmitri Brereton, aveva attirato molte attenzioni mettendo in fila la serie di fenomeni ed errori da parte dell’azienda che avrebbero diminuito l’accuratezza e l’utilità delle sue ricerche: la pubblicità in ogni sua forma, che spinge contenuti non richiesti e spesso viene visualizzata in modo poco distinguibile dagli altri contenuti; la SEO (Search Engine Optimization), ovvero la serie di tecniche con cui i creatori di contenuti scrivono e impaginano gli articoli web in modo da essere premiati dai motori di ricerca; e le intelligenze artificiali stesse, con le quali «Google prova a essere “smart” e capire cosa “volevi veramente”», invece di limitarsi alla ricerca.

A questa crisi si è aggiunta la concorrenza da parte dei social network, in particolare TikTok, la cui ascesa ha costretto molte aziende tecnologiche ad adeguarsi in fretta a un formato di contenuti del tutto diverso: YouTube, per esempio — altra azienda del gruppo Alphabet/Google —, ha risposto al successo di TikTok introducendo gli Shorts, un tipo di video verticali e di breve formato, che però non ha ottenuto un successo paragonabile. Ma TikTok rappresenta anche una minaccia per Google stessa, poiché molti suoi utenti, in particolare i più giovani, lo utilizzano come motore di ricerca, cercando termini chiave e ottenendo risposte sotto forma di video. Il “codice rosso” lanciato in occasione del successo di ChatGPT, quindi, è giunto in un momento molto delicato per l’attività principale dell’azienda.

L’idea che le ricerche Google non siano più quelle di una volta si accompagna a una serie di altre lamentele — diffuse sia all’interno che all’esterno dell’azienda — secondo cui la società non sarebbe più in grado di innovare e innovarsi. In un articolo pubblicato recentemente dall’Atlantic, Cory Doctorow, autore di fantascienza e attivista digitale, ha riassunto la storia di Google alla luce di quella che sembra essere un’insicurezza estrema: «L’azienda, che aveva rovesciato un leader di mercato costruendo una tecnologia migliore [Yahoo, ndr], è ossessionata dalla paura di essere a sua volta messa da parte». Secondo Doctorow, peraltro, il mito di Google come agente d’innovazione sarebbe in gran parte infondato perché «quasi tutti i suoi prodotti di successo sono stati acquisiti. In molti casi queste acquisizioni sono andate a sostituire prodotti fallimentari sviluppati internamente»: è il caso di YouTube, acquisita nel 2006 dopo il lancio poco entusiasmante di Google Video.

Google riceve critiche simili ormai da molto tempo. Già nel luglio del 2012, durante un incontro pubblico tra Eric Schmidt, all’epoca presidente della società, e Peter Thiel, co-fondatore di PayPal e controversa figura della Silicon Valley (soprattutto a causa del suo supporto a Donald Trump e ad alcuni candidati di estrema destra), quest’ultimo denunciò l’immobilità dell’azienda, diventata parte dello status quo tecnologico: «Avete 50 miliardi di dollari. Perché non li spendete in nuove tecnologie, o avete forse finito le idee?»

Eppure Google aveva dimostrato una certa dinamicità proprio nel settore delle intelligenze artificiali. Anche dietro al successo del modello linguistico di OpenAI GPT-3 (a cui è da poco seguito GPT-4) è rilevabile l’influenza di Google, che era stata la prima a sviluppare la tecnologia “trasformativa”, quella che rende questo modello tanto potente (e che è rappresentata dalla T della sigla GPT). Si tratta di un tipo particolare di Deep Learning che adotta un meccanismo detto di “auto-attenzione”, in grado di «analizzare le relazioni tra tutte le parole di una frase, qualunque sia la loro posizione». A implementarlo era stata Google Brain, la divisione dell’azienda dedicata alle intelligenze artificiali, e tali software si sono rivelati in grado di generare testo con facilità, “trasformando” gli input ricevuti in nuove frasi (da cui il loro nome). E allora, perché non sono state Google Brain o DeepMind a sviluppare una tecnologia come GPT-3?

Nata come non profit, OpenAI ha aperto una divisione a scopo di lucro nel 2019: da allora, il suo approccio si è fatto meno cauto e sempre più pronto al rischio, arrivando all’introduzione di DALL•E prima e di ChatGPT poi, e all’alleanza strategica con Microsoft. Secondo l’ex ricercatore di DeepMind Jonathan Godwin, la differenza d’approccio tra OpenAI e Google ha finito col premiare la prima: «OpenAI ha compreso che la corsa per la supremazia percepita nel settore delle intelligenze artificiali generali non si disputa tra le riviste accademiche più citate del mondo ma nelle esperienze soggettive degli utenti delle IA, l’utilizzo delle intelligenze artificiali come prodotto».

In questo senso, il 2019 è stato un anno di svolta perché «OpenAI doveva dimostrare qualcosa», come scrive Godwin: all’epoca sembrava un’azienda senza un focus preciso, intenta a sviluppare una tecnologia molto costosa. Ciò ha spinto Altman ad accelerare sulle IA “di consumo”, portando nel giro di due anni nelle mani di milioni di utenti servizi accessibili e potenti. Il tutto è successo mentre Google sembrava la naturale ed inevitabile vincitrice della gara per le IA, proprio per via del suo interesse pregresso e della sua solidità industriale.

Ora i ruoli si sono invertiti: OpenAI, con Microsoft alle spalle, si muove in anticipo e definisce gli standard e i modelli, mentre Google è costretta a inseguire, presentando prodotti con più fretta del dovuto e sapendo che uno di questi, probabilmente, finirà per avere effetti negativi nel suo stesso modello di business, che prevede la raccolta pubblicitaria per inserzioni da visualizzare sulle pagine web.

È chiaro cosa c’è in gioco qui, e da dove arriva il mio sospetto che tutto l’hype sulle AI possa essere soltanto una mega campagna di PR — nello specifico, a opera di Microsoft, la quale dopo vent’anni di grigiore intravede l’opportunità di tornare a dominare il settore Big Tech?

Altro che «il benessere dell’umanità»…

Più se ne parla — meglio se con toni allarmistici —, più gente userà Edge e Bing potenziati con gli steroidi di una AI, più si accrescerà il valore delle società che possiedono Terminator.

(E intanto il signore raffigurato in basso si mangia le mani: ha gettato 44 miliardi per acquistare Twitter, un astro al tramonto, e ha abbandonato una sua creatura, OpenAI con ChatGPT, qualche attimo prima che diventasse The Next Big Thing…)

(E intanto intanto intanto, gli abitanti di questo Paese sfortunato e ignorante, da oggi 1 Aprile 2023 ricevono il seguente messaggio quando tentano di usare The Next Big Thing… proprio un bel Pesce d’Aprile. 🤐)

Proviamo a ricordare chi aveva cominciato con questa politica del chiudersi in una campana di vetro e morire asfissiati dai fumi velenosi della fabbrica burocratica italiana e del suo sistema clientelistico, chiudendo fuori gli attori stranieri?

Risposta esatta (ça va sans dire): il PD.

Me ne dolsi qui ben 10 anni fa. Ma lasciam perdere, perché si tratta di un altro film.

Edit del 29 Aprile 2023

Hanno lasciato tornare ChatGPT.
Semplicemente, prima mancava la solita perdita di tempo per l’utente…

Be First to Comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.