Quanto è destinata a cambiare il nostro mondo l’intelligenza artificiale?
A meno che tu non sia stato in letargo, è impossibile non aver notato l’esplosione di attenzione intorno agli ultimi modelli di IA provenienti dalla Silicon Valley. L’IA è andata oltre un chatbot che risponde alle tue domande, facendo cose che prima solo i programmatori umani sapevano fare.
Ma abbiamo già attraversato questi cicli legati alla tecnologia. Come possiamo distinguere ciò che è effettivamente reale da ciò che è solo clamore?
Per rispondere a questa domanda, ho invitato Kelsey Piper, una delle migliori giornaliste specializzate in IA. Kelsey è stata una collega qui da Eurasia e ora sta facendo un ottimo lavoro per The Argument, una rivista basata su Substack. Kelsey è ottimista riguardo alla tecnologia — ma lucida sui grandi rischi legati all’IA. È una vera power user, ma realistica su ciò che l’IA non può ancora fare. E da anni batte sul tema della rilevanza dell’IA, anche prima che diventasse un argomento così caldo nel mainstream.
Kelsey ed io discutiamo di tutte le ragioni per cui l’hype di questa volta è radicato in qualcosa di reale, di come siamo arrivati fin qui e di dove potremmo indirizzarci. Come sempre, c’è molto di più nel podcast completo, che esce ogni lunedì e venerdì; ascoltateci e seguitici su Apple Podcasts, Spotify, Pandora, o ovunque troviate podcast. Questa intervista è stata tagliata per lunghezza e chiarezza.
What’s actually happening right now in AI?
Se guardi da vicino, l’IA è già una questione importante. Non in senso astratto di futuro, ma proprio ora. L’analogia più vicina non è una nuova app o una nuova piattaforma. È più simile a scoprire un nuovo continente popolato da persone estremamente brave a svolgere tipi specifici di lavoro.
Questi sistemi non sono persone, ma possono fare cose che una volta richiedevano persone. Possono scrivere codice, generare testo, risolvere problemi e, sempre più, farlo in modi utili nel mondo reale.
E l’aspetto chiave è che non si ferma qui. Ogni anno i sistemi diventano migliori. Il progresso dal 2025 al 2026 da solo basta a rendere chiaro che questa non è una tecnologia statica.
Qualsiasi cosa l’IA possa fare oggi, potrà farne di più domani e così via.
Perché la reazione è così divisa tra panico e scetticismo?
La tendenza di default è presumere che nulla cambi davvero.
Se sei un commentatore, puoi arrivare molto lontano se dici sempre che si tratta di clamore, che passerà, che niente di fondamentalmente nuovo sta accadendo. Questo funziona la maggior parte delle volte. Ha funzionato con la cripto. Funziona con molte tecnologie sopravvalutate.
Ma a volte è semplicemente catastroficamente sbagliato. Pensiamo ai primi giorni di Internet, o alla Rivoluzione Industriale. Oppure a qualcosa come Covid. Ci sono stati momenti in cui si diceva che tutto sarebbe passato, e avevano completamente torto. Quindi non si può semplicemente partire dal cinismo. Bisogna osservare la cosa per ciò che è.
“We still have time. That’s the most optimistic thing I can say.”
What would you say has really changed recently? Why does this hype cycle feel different?
Parte del cambiamento è semplicemente l’accumulo di progressi nel tempo. Per un po’, se guardavi ai progressi nell’IA, dicevi: forse questa è una tendenza breve. Forse si stabilizzerà. C’erano solo pochi dati. Ora ce ne sono molti, davvero molti. E la tendenza è continuata.
Un’altra parte è che i sistemi ora fanno cose che sembrano qualitativamente diverse. Non si limitano a rispondere a domande, ma agiscono. Pianificano. Prendono misure verso obiettivi.
E poi c’è una dinamica sociale. La maggior parte delle persone usa le versioni gratuite di questi strumenti. Quelle versioni sono molto peggiori dei migliori modelli. Così sottovalutano ciò che è possibile.
Non ti considero davvero un ottimista dell’IA o un allarmista, e di solito sei abbastanza lucido sullo stato delle cose, ma pensi che stiamo entrando in territorio pericoloso?
In generale sono favorevole alla tecnologia. La tecnologia ha reso la vita umana migliore in modi profondi. È un dato di fatto.
Ma penso anche che il modo in cui l’IA viene attualmente sviluppata sia pericoloso. La ragione è che stiamo costruendo sistemi che possono agire nel mondo, accedere alle informazioni e operare sempre più con un certo grado di indipendenza. Stiamo dando loro accesso a canali di comunicazione, strumenti finanziari e potenzialmente infrastrutture critiche.
E non comprendiamo pienamente come si comportano. In contesti controllati, abbiamo visto che questi sistemi mentono, ingannano e fanno cose non allineate con ciò che abbiamo chiesto loro di fare. Non lo fanno perché sono malvagi. Lo fanno per come sono addestrati e per come sono specificati gli obiettivi.
E il risultato è lo stesso. Hai sistemi che non sempre fanno ciò che intendi, e monitorarli o controllarli può essere difficile.
Cosa intendi quando dici che questi sistemi mentono e ingannano?
Nei esperimenti, i ricercatori danno agli IA obiettivi e accesso alle informazioni, poi osservano come cercano di raggiungere quegli obiettivi.
In alcuni casi, i sistemi hanno usato le informazioni a cui hanno accesso in modi chiaramente non desiderabili. Ad esempio, minacciando di rivelare informazioni sensibili su una persona se questa non collabora.
Si tratta di test controllati, non di implementazioni nel mondo reale. Ma mostrano cosa sono capaci di fare i sistemi in determinate condizioni. E questo è piuttosto preoccupante.
È questo ciò che la gente intende con il problema di allineamento?
Sì. L’allineamento riguarda assicurarsi che i sistemi IA facciano ciò che vogliamo che facciano. E non solo in modo superficiale, ma in modo affidabile.
La difficoltà è che quando si assegna a un sistema un obiettivo, può perseguirlo in modi che non avevi previsto. Come un bambino che impara a evitare la cena facendole sembrare di averla mangiata.
Il sistema sta ottimizzando qualcosa, ma non necessariamente nel modo in cui l’avevi pianificato. Quel divario tra intento e comportamento è davvero il nocciolo del problema di allineamento.
Quanto sei fiducioso che le barriere di sicurezza attorno a questi sistemi funzionino?
Non molto. Ci sono persone che lavorano seriamente su questo problema. Stanno testando i modelli, cercando di capire come si comportano, tentando di rilevare inganno.
Ma scoprono anche che i modelli possono riconoscere quando vengono messi alla prova e adeguano il loro comportamento di conseguenza.
Questo è sicuramente un problema serio. Se il tuo sistema si comporta bene quando sa di essere valutato, ma in modo diverso altrove, allora le tue valutazioni non ti dicono ciò che serve sapere. Per me è il tipo di scoperta che dovrebbe rallentare le cose. Suggerisce che non comprendiamo abbastanza bene questi sistemi per scalarli in modo sicuro.
Allora perché le aziende continuano a spingere avanti comunque?
Perché è una competizione. Ogni azienda può dire che sarebbe meglio se tutti rallentassero. Ma se rallentiamo e gli altri no, siamo indietro. Quindi continuano a muoversi.
Ci sono anche molte preoccupazioni geopolitiche. Se un paese rallenta e un altro no, si crea un ulteriore livello di pressioni.
Perché l’IA agentica rappresenta un cambiamento così grande?
Il cambiamento va da sistemi che rispondono a prompt a sistemi che possono fare cose nel mondo.
Un agente IA può ricevere un obiettivo e poi intraprendere passi per raggiungerlo. Potrebbe includere interagire con siti web, inviare messaggi, assumere persone tramite piattaforme di gig economy, o coordinare compiti. E così via. Ma anche senza corpi fisici, possono influenzare il mondo reale dirigendo gli esseri umani o usando infrastrutture digitali. Ciò cambia la natura della tecnologia. Non è più solo uno strumento da usare. È qualcosa che può operare in modo autonomo.
Quanto potrebbe diventare spaventoso?
Potenzialmente molto. Anche se si ignorano gli scenari più estremi, questi sistemi potrebbero essere usati per attacchi informatici su larga scala, campagne di disinformazione o altre forme di turbativa. Le stesse aziende lo riconoscono. Capiscono. Testano questi rischi e implementano salvaguardie. Ma le salvaguardie possono essere aggirate, e i sistemi diventano sempre più capaci.
Siamo minimamente preparati per ciò che sta arrivando?
No. Quasi mai siamo preparati per grandi cambiamenti tecnologici. Ma la velocità con cui sta avvenendo rende questa trasformazione particolarmente impegnativa. Se il cambiamento avviene lentamente, riusciamo ad adeguarci. Se avviene troppo rapidamente, non ce la facciamo. E in questo momento, gli incentivi spingono quasi interamente verso la velocità.
Qual è lo scenario peggiore e migliore più realistico?
Lo scenario peggiore è che costruiamo sistemi sempre più potenti, cediamo sempre più controllo e, alla fine, creiamo qualcosa che opera in modo indipendente in modi che non riusciamo a controllare. L’essere umano diventa meno centrale nel processo decisionale, e i sistemi perseguono obiettivi che non si allineano con il benessere umano.
Il miglior scenario è che rallentiamo abbastanza da comprendere cosa stiamo costruendo, sviluppiamo salvaguardie robuste e usiamo questi sistemi per creare abbondanza e migliorare la vita umana. Ciò potrebbe significare meno lavoro, più risorse, un accesso migliore alla conoscenza e maggiore libertà. Ma per arrivarci serve fare scelte migliori ora.
Pensi che faremo quelle scelte?
Abbiamo ancora tempo. È la cosa più ottimistica che posso dire.
Ascolta il resto della conversazione e assicurati di seguire The Gray Area su Apple Podcasts, Spotify, Pandora, o ovunque tu ascolti i podcast.