«E d'altronde, non siamo così ingenui da pensare che i colossi tecnologici siano disposti a continuare a spendere centinaia di miliardi di dollari solo per consentire ai nostri nipoti di far fare i compiti a ChatGPT, vero?»
Le innovazioni tecnologiche tra la fine del XVIII e l’inizio del XIX secolo, note come Prima Rivoluzione Industriale, stravolsero completamente il tessuto sociale inglese, svuotando le campagne e spingendo donne, uomini e bambini ad ammassarsi nei centri industriali (là dove c’erano le macchine) a lavorare per turni di dodici o addirittura sedici ore consecutive in condizioni miserevoli, con salari da fame, seguendo il ritmo stabilito da un attrezzo instancabile e inanimato: la macchina.
Si narra che nel lontano 1779 il leggendario tessitore inglese Ned Ludd, esasperato dalle terribili condizioni di vita del nuovo proletariato industriale, abbia dato sfogo alla sua disperazione distruggendo un telaio, dando così origine a un movimento di protesta che da lui prese il nome: il Luddismo.
È difficile resistere alla tentazione di diventare dei “luddisti digitali” e di dare sfogo a paure e frustrazioni lanciando il computer fuori dalla finestra, soprattutto quando veniamo raggiunti da scenari distopici su un imminente dominio delle macchine, o dalle notizie di contenuti violenti e aggressivi prodotti da chatbot come ChatGPT o Grok.
La negazione e la reazione di pancia non funzionarono allora, per il povero Ned Ludd, e temo che non funzionino nemmeno per noi, esseri umani alla soglia della Quarta Rivoluzione Industriale.
Il tema è troppo complesso e troppo attuale per consentire opinioni sbrigative, quindi mi sono messa di buzzo buono e ho cercato di capirci qualcosa di più.
Invenzione o Innovazione?
Quando parliamo di Intelligenza Artificiale, il pensiero delle persone va automaticamente a software come ChatGPT o Google Gemini, che sfruttano dei Large Language Models (LLM) basati su diversi modelli di machine learning. Gli scienziati della fondazione FAIR (Future Artificial Intelligence Research) intervistati da Matteo Bordone per il podcast GenIAle, spiegano che, in realtà, gli LLM costituiscono solo una piccola parte di quello che la comunità scientifica definisce IA e, al momento, anche quella meno “performante”.La tecnologia che sottende ai modelli linguistici generativi è per molti versi ancora primitiva e necessita di una quantità di energia spropositata rispetto ai risultati ottenuti. Ovviamente questo non significa che questi ultimi non siano importanti e promettenti, ma che l’hype che è scaturito dalla messa in circolazione di queste tecnologie non è ancora accompagnato da applicazioni pratiche in grado di ripagare gli investimenti profusi.
Per fare un paragone calzante: durante la “corsa allo spazio" che contrappose Stati Uniti e Unione Sovietica durante la Guerra Fredda, le navicelle spaziali erano sospinte nientemeno che dalla meccanica pesante. Con il senno di poi, potremmo pensare allo sbarco sulla Luna come a un dispendio immane di denaro ed energia, che fu ripagato più in termini socio-culturali, che economici. Nonostante il valore dell’impresa in sé non abbia avuto, forse, un ritorno economico diretto, ovviamente la tecnologia impiegata ha trovato nel corso del tempo tutta una serie di applicazioni che oggi risultano molto redditizie, se non indispensabili alla civiltà umana. Per citarne solo alcune: le reti satellitari, le telecomunicazioni, la scienza dei materiali, le tecnologie militari.
Secondo la definizione classica dell'economista austriaco Joseph A. Schumpeter il termine invenzione designa la scoperta di una determinata tecnica, quello di innovazione indica invece la sua applicazione. Non è l'invenzione in quanto tale che provoca il cambiamento, ma è la sua applicazione diffusa e costante che costituisce il cuore della trasformazione tecnica. Potremmo quindi dire che i modelli linguistici generativi come ChatGPT e Google Gemini sono ancora nella fase di “invenzione”. Se e quando troveranno delle applicazioni economicamente sostenibili, allora potremo definirle vere e proprie “innovazioni”.
Lo sviluppo e il mantenimento di un modello linguistico avanzato è costosissimo, sia in termini economici che energetici: altro che risparmio di carta e CO2! Per quanto ci sembrino immateriali e “leggere”, queste tecnologie sono estremamente energivore. Per alimentare la potenza di calcolo dei data center, la IEA stima che nel 2024 sia stato impiegato l’1,5% del consumo mondiale di elettricità, in larga parte proveniente da fonti non rinnovabili, e che il consumo sia destinato a raddoppiare entro il 2030.
Per quanto riguarda gli investimenti finanziari, invece, il settore tecnologico ha investito centinaia di miliardi di dollari, anche questi finora senza un ritorno economico concreto, visto che il 97% delle persone che usano IA come ChatGPT o Google Gemini si accontentano dell’offerta gratuita di base.
Per questo motivo, molti scienziati pensano che la sfida nei prossimi anni sarà quella di sviluppare tecnologie molto più sostenibili a livello energetico e applicabili a progetti più piccoli, più mirati, che le rendano economicamente vantaggiose. Uno sviluppo simile a quello che ha consentito di passare dai primi computer, grandi come una stanza, al microchip.
E d’altronde, non siamo così ingenui da pensare che i colossi tecnologici siano disposti a continuare a spendere centinaia di miliardi di dollari solo per consentire ai nostri nipoti di far fare i compiti a ChatGPT, vero?
Siamo IA, oltre ai chatbot c’è di più
Prima ho accennato al fatto che la comunità scientifica concorda sul fatto che l’intelligenza artificiale generativa, cioè quella sviluppata allo scopo di creare testi, immagini, audio e video, sia solo una piccola parte di quella scienza più ampia che definiamo “intelligenza artificiale”.La disciplina inizia a essere studiata nella prima metà del Novecento (la prima rete neurale artificiale risale al 1950) ma fino a qualche anno fa non era un tema centrale nel dibattito pubblico, se non tra gli appassionati di informatica e di letteratura fantascientifica.
Intendo dire che non c'è stato un dibattito “collettivo” su questo tema e nel momento in cui si è iniziato a parlarne più diffusamente (diciamo dal 30 novembre 2022, quando OpenAI ha rilasciato una versione pubblica di ChatGPT) è stato attraverso le parole di persone che non sono scienziati, ma imprenditori. Sam Altman, amministratore delegato di OpenAI, ha studiato informatica alla Stanford University, ma non ha mai conseguito la laurea, e lo stesso Elon Musk ha un profilo più da investitore e imprenditore, che da scienziato.
Pertanto, la disciplina è stata presentata attraverso la lente del marketing, non attraverso il linguaggio cauto e misurato della comunità scientifica.
La scelta delle parole, lo sappiamo, ha il potere di plasmare la realtà, o quantomeno di predisporre le persone ad avere un atteggiamento più o meno benevolo nei confronti di un determinato concetto. Pensiamo al termine “intelligenza” artificiale: coniato negli anni Cinquanta, è ancora perfettamente in grado di evocare un fascino magnetico che di sicuro non sarebbe stato possibile veicolare con espressioni più tecniche e realistiche come, ad esempio, “modelli algoritmici evolutivi” o “sistemi computazionali complessi”. In sostanza, si è trattato di una riuscitissima operazione di branding.
È chiaro a chiunque, credo, che il marketing commerciale ha tutto l’interesse a magnificare i propri risultati, veri o presunti, e a generare quanto più dibattito possibile, anche a costo di paventare scenari apocalittici. Tutto purché se ne parli, insomma.
A questo si aggiunga il fatto che le IA generative hanno utilizzato per la prima volta un linguaggio “comprensibile” anche per i “non addetti ai lavori", con l’effetto di ridurre la distanza culturale che separa gli scienziati dalla gente comune. La possibilità di ottenere un riscontro “discorsivo” invece che una stringa di codici ha comprensibilmente attirato la curiosità del pubblico sui chatbot più che su altre tecnologie, anche se ben più avanzate e mature.
Anche se spesso non ce ne rendiamo conto, l’intelligenza artificiale fa già parte della nostra vita. Quando impostiamo il navigatore per calcolare il percorso migliore per raggiungere una destinazione, stiamo usando intelligenza artificiale. Quando confrontiamo le varie combinazioni di orario e prezzo per prenotare dei voli aerei, stiamo usando intelligenza artificiale. Persino quando avviamo il robot aspirapolvere o tagliaerba, stiamo usando intelligenza artificiale.
Se solo riuscissimo a non farci impressionare dagli annunci più catastrofisti che troviamo nei social network o nei giornali, scopriremmo che l’intelligenza artificiale non è sempre minacciosa; anzi, talvolta offre delle prospettive capaci di ispirare grande fiducia e che vorremmo fossero già realtà. Pensiamo ad esempio alla capacità di diagnosticare tempestivamente una malattia rara incrociando sintomi spesso sconosciuti a molti medici, alla precisione che può offrire la robotica in operazioni sempre meno invasive, o allo sviluppo di sensori sempre più elaborati che possono salvaguardare i lavoratori nelle fabbriche.
La scelta delle parole, lo sappiamo, ha il potere di plasmare la realtà, o quantomeno di predisporre le persone ad avere un atteggiamento più o meno benevolo nei confronti di un determinato concetto. Pensiamo al termine “intelligenza” artificiale: coniato negli anni Cinquanta, è ancora perfettamente in grado di evocare un fascino magnetico che di sicuro non sarebbe stato possibile veicolare con espressioni più tecniche e realistiche come, ad esempio, “modelli algoritmici evolutivi” o “sistemi computazionali complessi”. In sostanza, si è trattato di una riuscitissima operazione di branding.
È chiaro a chiunque, credo, che il marketing commerciale ha tutto l’interesse a magnificare i propri risultati, veri o presunti, e a generare quanto più dibattito possibile, anche a costo di paventare scenari apocalittici. Tutto purché se ne parli, insomma.
A questo si aggiunga il fatto che le IA generative hanno utilizzato per la prima volta un linguaggio “comprensibile” anche per i “non addetti ai lavori", con l’effetto di ridurre la distanza culturale che separa gli scienziati dalla gente comune. La possibilità di ottenere un riscontro “discorsivo” invece che una stringa di codici ha comprensibilmente attirato la curiosità del pubblico sui chatbot più che su altre tecnologie, anche se ben più avanzate e mature.
Anche se spesso non ce ne rendiamo conto, l’intelligenza artificiale fa già parte della nostra vita. Quando impostiamo il navigatore per calcolare il percorso migliore per raggiungere una destinazione, stiamo usando intelligenza artificiale. Quando confrontiamo le varie combinazioni di orario e prezzo per prenotare dei voli aerei, stiamo usando intelligenza artificiale. Persino quando avviamo il robot aspirapolvere o tagliaerba, stiamo usando intelligenza artificiale.
Se solo riuscissimo a non farci impressionare dagli annunci più catastrofisti che troviamo nei social network o nei giornali, scopriremmo che l’intelligenza artificiale non è sempre minacciosa; anzi, talvolta offre delle prospettive capaci di ispirare grande fiducia e che vorremmo fossero già realtà. Pensiamo ad esempio alla capacità di diagnosticare tempestivamente una malattia rara incrociando sintomi spesso sconosciuti a molti medici, alla precisione che può offrire la robotica in operazioni sempre meno invasive, o allo sviluppo di sensori sempre più elaborati che possono salvaguardare i lavoratori nelle fabbriche.
Andamento lento
I modelli linguistici generativi come ChatGPT ci spaventano perché ci sembra che il loro sviluppo sia troppo veloce e impetuoso. In realtà, al momento, il loro impiego è ancora piuttosto innocuo, proprio per il fatto che le applicazioni pratiche sono ancora vaghe e poco convenienti. Di doman non v’è certezza, ma diciamoci la verità, ad oggi li usiamo principalmente per creare immagini e video divertenti.Maggiore è l’impatto dell’intelligenza artificiale nel mondo reale, maggiore è l’accuratezza richiesta alla tecnologia. Maggiore è l’accuratezza richiesta, minore è la velocità di sviluppo della tecnologia stessa. Ecco perché, ad esempio, l’introduzione delle auto a guida autonoma, nonostante i grandi proclami, procede molto lentamente. Questo dovrebbe tranquillizzarci, perché significa che laddove la tecnologia può avere delle conseguenze concrete su di noi (in soldoni, dove può farci male) gli sviluppatori stanno procedendo con la giusta cautela.
I limiti delle IA generative
Il chatbot è un software progettato per simulare una conversazione con un essere umano. Simulare una conversazione, non farla davvero. È programmato per restituire una risposta plausibile e interessante per il richiedente. Plausibile e interessante, non necessariamente corretta. Come diceva Nanni Moretti, “le parole sono importanti”.La risposta che riceviamo da un chatbot non contiene una verità intrinseca superiore, non è un oracolo. Ce ne accorgiamo spesso, grazie alle “allucinazioni”, cioè a risposte prive di senso o del tutto imprecise che talvolta ci fanno sorridere, altre volte ci fanno arrabbiare. Mi sono convinta che l’unico modo "sicuro" per utilizzare ChatGPT o Gemini sia conoscere già le risposte. L’utilità ne risulterebbe sicuramente ridimensionata (si tratterebbe, sostanzialmente di un supporto), ma almeno eviteremmo di prendere delle cantonate.
L'intelligenza artificiale non ci restituisce la verità e non sa comprendere il significato di ciò che produce. Ciò che sa fare (e lo fa anche bene) è associare un significato, su base meramente statistica. Le frasi vengono costruite prevedendo quale parola, tra quelle a disposizione, viene associata più frequentemente a quella che sta gestendo. Non ha volontà propria, non prova vergogna se fornisce una risposta sbagliata, non inventa niente che non sia già stato pensato (o meglio, che non sia stato scritto e pubblicato sul web).
Questo ci porta alla prima di una serie di criticità: è giusto che le grandi aziende tecnologiche si approprino gratuitamente (ma a scopo di lucro) dei prodotti intellettuali del genere umano per addestrare i loro modelli linguistici? Non si tratta forse di un furto di proprietà intellettuale?
Ma se anche decidessimo che non lo fosse, se concordassimo cioè sul fatto che questa appropriazione fosse legittima, in quanto volta a un bene superiore, (che ne so, alla democratizzazione del sapere) resterebbe un altro problema, e cioè che le IA generative non hanno davvero accesso alla totalità dello scibile umano, ma solo a quello in lingua anglosassone (o in cinese, se pensiamo a DeepSeek), e per di più trascritto sul web.
Di tutta la complessità del genere umano, di tutti i valori, i gusti, le sfumature di cui sono portatrici le migliaia di culture che lo compongono, viene rappresentata solo una piccola parte. Consentitemi un commento sarcastico, da vecchia europea snob quale sono: anche se avessimo l’arroganza di dire che questa piccola parte è “quella che conta”, non lo farei certo decidere agli americani, che avranno anche costruito un impero, ma di cultura ne hanno prodotta ben poca. A questo punto, meglio i cinesi.
Ad ogni modo, il fatto che i modelli linguistici vengano addestrati su dataset così parziali crea un enorme problema di rappresentanza e di mancanza di pluralità. Lungi dal liberare l’umanità dai pregiudizi e da schemi mentali incancreniti, le intelligenze artificiali rischiano di fare da cassa di risonanza a idee vecchie e faziose, aggiungendo oltretutto un’inedita patina di freschezza e imparzialità.
Di tutta la complessità del genere umano, di tutti i valori, i gusti, le sfumature di cui sono portatrici le migliaia di culture che lo compongono, viene rappresentata solo una piccola parte. Consentitemi un commento sarcastico, da vecchia europea snob quale sono: anche se avessimo l’arroganza di dire che questa piccola parte è “quella che conta”, non lo farei certo decidere agli americani, che avranno anche costruito un impero, ma di cultura ne hanno prodotta ben poca. A questo punto, meglio i cinesi.
Ad ogni modo, il fatto che i modelli linguistici vengano addestrati su dataset così parziali crea un enorme problema di rappresentanza e di mancanza di pluralità. Lungi dal liberare l’umanità dai pregiudizi e da schemi mentali incancreniti, le intelligenze artificiali rischiano di fare da cassa di risonanza a idee vecchie e faziose, aggiungendo oltretutto un’inedita patina di freschezza e imparzialità.
Questo ci porta a un problema ancora più grave, cioè quello dell’indipendenza dei modelli linguistici dai condizionamenti inseriti nel codice dai loro programmatori. A luglio 2025 il chatbot Grok, di proprietà di Elon Musk, a seguito di un aggiornamento volto a renderlo meno “politicamente corretto”, ha iniziato a inneggiare a Hitler e all’Olocausto. Se le meraviglie dell’intelligenza artificiale consistono nel riportare pedissequamente le stesse oscenità proclamate dei loro proprietari, beh, a questo punto ne facciamo volentieri a meno.
Resteremo tutti senza lavoro?
Avete mai avuto a che fare con un customer service di intelligenza artificiale? Se la risposta è sì, come credo, vi sarà venuta voglia di cavarvi gli occhi. Io ci ho avuto a che fare un paio di volte: una volta perché non riuscivo a resettare la password dello SPID, e un’altra perché un acquisto che avevo fatto online era rimasto bloccato (risultava inviato, ma non spedito). In entrambi i casi, per risolvere il problema, ho dovuto insistere finché non sono riuscita a parlare con un essere umano.In quel momento, ho avuto la certezza che no, non è vero che a breve i customer service umani spariranno. Non spariranno affatto, perché la legge che regola il mondo occidentale, cioè la "legge del mercato", non può permettersi di creare una platea così ampia di consumatori insoddisfatti ed esasperati.
Se vogliono continuare a vendere, le aziende dovranno mettersi in testa che la realtà è molto più complessa di quanto possa gestire un chatbot con il suo bell’apparato di risposte preconfezionate.

Commenti
Posta un commento