No perditempo!

Email: redazione@malanova.info


“Something Big Is Happening”: qualcosa di grande sta accadendo!


Ripensate a febbraio 2020.

Se aveste prestato molta attenzione, avreste notato che alcune persone parlavano di un virus che si stava diffondendo all’estero. Ma la maggior parte di noi non ci ha fatto caso. Il mercato azionario andava alla grande, i tuoi figli erano a scuola, andavi al ristorante, stringevi mani e organizzavi viaggi. Se qualcuno ti avesse detto che stava facendo scorta di carta igienica, avresti pensato che stesse passando troppo tempo in uno strano angolo di internet. (ndr. “complottista”) Poi, nel giro di circa tre settimane, il mondo intero è cambiato. Il tuo ufficio ha chiuso, i tuoi figli sono tornati a casa e la vita si è riorganizzata in qualcosa che non avresti creduto se te l’avessi descritta un mese prima.

Penso che siamo nella fase “tutto questo sembra esagerato” di qualcosa di molto, molto più grande del Covid.

Ho passato sei anni a creare una startup di intelligenza artificiale e a investire in questo settore. Vivo in questo mondo e scrivo questo per le persone nella mia vita … la mia famiglia, i miei amici, le persone a cui tengo … che continuano a chiedermi “allora, qual è il problema con l’intelligenza artificiale?” e ricevono una risposta che non rende giustizia a ciò che sta realmente accadendo. Continuo a dare loro la versione educata. La versione da cocktail party. Perché la versione onesta farebbe subito sembrare agli altri che io abbia perso la testa. Per questo motivo, per un po’, mi sono detto che era una ragione sufficiente per tenere per me ciò che sta realmente accadendo. Ma il divario tra quello che ho detto e ciò che sta realmente accadendo è diventato troppo grande.

Vorrei essere chiaro fin da subito: anche se lavoro nell’intelligenza artificiale, non ho quasi alcuna influenza su ciò che sta per accadere, e nemmeno la stragrande maggioranza del settore ce l’ha.

OpenAI, Anthropic, Google DeepMind e poche altre.

Un singolo ciclo di training, gestito da un piccolo team nell’arco di pochi mesi, può produrre un sistema di intelligenza artificiale che cambia l’intera traiettoria della tecnologia. La maggior parte di noi che lavora nell’intelligenza artificiale sta costruendo su fondamenta che non abbiamo gettato. Stiamo osservando questo svolgersi proprio come voi… solo che ci troviamo abbastanza vicini da sentire per primi il terreno tremare.

Ma è giunto il momento. Non nel senso di “prima o poi dovremmo parlarne”. Ma nel senso di “sta succedendo proprio ora e ho bisogno che tu lo capisca”.


So che è vero perché

è successo a me per primo

Ecco una cosa che nessuno al di fuori del mondo della tecnologia ha ancora capito bene: il motivo per cui così tante persone nel settore stanno lanciando l’allarme in questo momento è perché questo è già successo a noi. Non stiamo facendo previsioni. Vi stiamo raccontando cosa è già successo nel nostro lavoro e vi stiamo avvertendo che i prossimi saranno voi.

Per anni, l’IA ha continuato a migliorare costantemente. Grandi balzi qua e là, ma ogni grande salto era sufficientemente distanziato da poter essere assorbito man mano che arrivava. Poi, nel 2025, nuove tecniche per la costruzione di questi modelli hanno sbloccato un ritmo di progresso molto più rapido. E poi è diventato ancora più veloce. E poi ancora più veloce. Ogni nuovo modello non era solo migliore del precedente… era migliore con un margine più ampio, e l’intervallo tra le nuove uscite si riduceva. Stavo usando l’IA sempre di più, ci andavo sempre meno avanti e indietro, la osservavo gestire cose che prima pensavo richiedessero la mia competenza.

Poi, il 5 febbraio, due importanti laboratori di intelligenza artificiale hanno rilasciato nuovi modelli nello stesso giorno: GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic (i creatori di Claude, uno dei principali concorrenti di ChatGPT). E qualcosa è scattato. Non come un interruttore della luce… più come il momento in cui ti rendi conto che l’acqua si è alzata intorno a te e ora ti arriva al petto.

Descrivo ciò che voglio realizzare, in parole povere, e semplicemente… appare. Non una bozza da correggere. Il risultato finale. Dico all’IA cosa voglio, mi allontano dal computer per quattro ore e, al mio ritorno, trovo il lavoro completato. Fatto bene, fatto meglio di quanto l’avrei fatto io, senza bisogno di correzioni. Un paio di mesi fa, facevo avanti e indietro con l’IA, guidandola, apportando modifiche. Ora descrivo semplicemente il risultato e me ne vado.

Lasciate che vi faccia un esempio così potete capire come funziona in pratica. Dirò all’IA: “Voglio creare questa app. Ecco cosa dovrebbe fare, ecco più o meno come dovrebbe apparire. Decidere il flusso utente, il design, tutto.” E lo fa. Scrive decine di migliaia di righe di codice. Poi, e questa è la parte che sarebbe stata impensabile un anno fa, apre l’app stessa. Clicca sui pulsanti. Testa le funzionalità. Usa l’app come farebbe una persona. Se non le piace l’aspetto o la sensazione che trasmette, torna indietro e la modifica, da sola. Ripete, come farebbe uno sviluppatore, correggendo e perfezionando finché non è soddisfatta. Solo quando ha deciso che l’app soddisfa i suoi standard, torna da me e mi dice: “È pronta per essere testata”. E quando la testo, di solito è perfetta.

Non sto esagerando. Ecco come è stato il mio lunedì di questa settimana.

Ma è stato il modello pubblicato la scorsa settimana (GPT-5.3 Codex) a sconvolgermi di più. Non si limitava a eseguire le mie istruzioni. Prendeva decisioni intelligenti. Aveva qualcosa che, per la prima volta, sembrava un giudizio. Come se avvesse un gusto. Quell’inspiegabile capacità di sapere qual è la decisione giusta, che la gente ha sempre detto che l’IA non avrebbe mai avuto. Questo modello ce l’ha, o qualcosa di abbastanza simile tanto che la distinzione sta iniziando a non avere importanza.

Sono sempre stato un precursore nell’adottare strumenti di intelligenza artificiale. Ma gli ultimi mesi mi hanno sconvolto. Questi nuovi modelli di intelligenza artificiale non rappresentano miglioramenti incrementali. Questa è una cosa completamente diversa.

Ed ecco perché questo è importante per te, anche se non lavori nel settore tecnologico.

I laboratori di intelligenza artificiale hanno fatto una scelta consapevole. Si sono concentrati innanzitutto sul rendere l’intelligenza artificiale eccellente nella scrittura di codice… perché sviluppare l’intelligenza artificiale richiede molto codice. Se l’intelligenza artificiale riesce a scrivere quel codice, può contribuire a costruire la versione successiva di se stessa. Una versione più intelligente, che scrive codice migliore, che a sua volta crea una versione ancora più intelligente. Rendere l’intelligenza artificiale eccellente nella scrittura di codice è stata la strategia che ha aperto la strada a tutto il resto. Ecco perché l’hanno fatto per primi. Il mio lavoro ha iniziato a cambiare prima del tuo, non perché si stessero rivolgendo agli ingegneri del software… è stato solo un effetto collaterale della scelta di dove puntare inizialmente.

Ora ce l’hanno fatta. E ora stanno passando a tutto il resto.

“Ma ho provato l’intelligenza artificiale e non è andata così bene”

Lo sento dire continuamente. Lo capisco, perché era vero.

Se hai provato ChatGPT nel 2023 o all’inizio del 2024 e hai pensato “questo è un inganno” o “non è poi così impressionante”, avevi ragione. Quelle prime versioni erano davvero limitate. Erano allucinazioni. Dicevano con sicurezza cose senza senso. Questo è successo due anni fa. Nell’era dell’intelligenza artificiale, questa è storia antica. I modelli disponibili oggi sono irriconoscibili rispetto a quelli di sei mesi fa. Il dibattito sul fatto che l’IA stia “davvero migliorando” o “sbattendo contro un muro” – che dura da oltre un anno – è concluso. È finito. Chiunque continui a sostenere questa tesi o non ha utilizzato i modelli attuali, o è incentivato a minimizzare ciò che sta accadendo, o sta valutando sulla base di un’esperienza del 2024 che non è più rilevante. Non lo dico per essere sprezzante. Lo dico perché il divario tra la percezione pubblica e la realtà attuale è ormai enorme, e questo divario è pericoloso… perché impedisce alle persone di prepararsi.

Parte del problema è che la maggior parte delle persone utilizza la versione gratuita degli strumenti di intelligenza artificiale. La versione gratuita è indietro di oltre un anno rispetto a quella a cui hanno accesso gli utenti paganti. Valutare l’intelligenza artificiale in base alla versione gratuita di ChatGPT è come valutare lo stato degli smartphone usando un cellulare a conchiglia. Chi paga per gli strumenti migliori e li usa quotidianamente per lavoro sa cosa aspettarsi.

Penso al mio amico, che è un avvocato. Continuo a dirgli di provare a usare l’intelligenza artificiale nel suo studio e lui continua a trovare motivi per cui non funzionerà. Non è progettata per la sua specializzazione, ha commesso un errore quando l’ha testata, non capisce le sfumature di ciò che fa. E lo capisco. Ma ho avuto soci di importanti studi legali che mi hanno contattato per un consiglio, perché hanno provato le versioni attuali e hanno capito dove sta andando. Uno di loro, il managing partner di un grande studio, passa ore ogni giorno a usare l’intelligenza artificiale.

Non la usa perché è un giocattolo. La usa perché funziona. E mi ha detto una cosa che mi è rimasta impressa: ogni due mesi, diventa significativamente più efficiente per il suo lavoro. Ha detto che se continua su questa strada, si aspetta che sarà in grado di fare la maggior parte di ciò che fa lui in breve tempo… ed è un managing partner con decenni di esperienza. Non è nel panico. Ma lui sta prestando molta attenzione.

Chi è all’avanguardia nei propri settori (quelli che stanno davvero sperimentando seriamente) non lo ignora. Sono sbalorditi da ciò che può già fare. E si stanno posizionando di conseguenza.


Quanto velocemente si sta effettivamente muovendo

Vorrei rendere concreto il ritmo dei miglioramenti, perché credo che questa sia la parte più difficile da credere se non la si osserva attentamente.

Nel 2022, l’IA non era in grado di eseguire operazioni aritmetiche di base in modo affidabile. Vi avrebbe detto con sicurezza che 7 × 8 = 54.

Nel 2023, era in grado di superare l’esame di abilitazione alla professione forense.

Nel 2024, era in grado di scrivere software funzionanti e spiegare concetti scientifici di livello universitario.

Alla fine del 2025, alcuni dei migliori ingegneri del mondo hanno dichiarato di aver affidato la maggior parte del loro lavoro di programmazione all’IA.

Il 5 febbraio 2026 sono arrivati nuovi modelli che hanno fatto sembrare tutto ciò che li aveva preceduti appartenere a un’altra era.

Se non avete provato l’IA negli ultimi mesi, ciò che esiste oggi vi sembrerà irriconoscibile.

Esiste un’organizzazione chiamata METR che misura effettivamente questo fenomeno con i dati. Traccia la durata delle attività reali (misurata in base al tempo impiegato da un esperto umano) che un modello può completare con successo dall’inizio alla fine senza l’aiuto umano. Circa un anno fa, la risposta era di circa dieci minuti. Poi è stata un’ora. Poi diverse ore. La misurazione più recente (Claude Opus 4.5, di novembre) ha mostrato che l’IA ha completato attività che richiedono a un esperto umano quasi cinque ore. E questo numero raddoppia circa ogni sette mesi, con dati recenti che suggeriscono che potrebbe accelerare fino a raggiungere una frequenza di quattro mesi.

Ma anche questa misurazione non è stata aggiornata per includere i modelli appena pubblicati questa settimana. Nella mia esperienza, il balzo è estremamente significativo. Mi aspetto che il prossimo aggiornamento del grafico di METR mostri un altro balzo significativo. Se si estende questa tendenza (che si mantiene da anni senza segni di rallentamento), entro il prossimo anno potremo avere un’intelligenza artificiale in grado di lavorare in modo indipendente per giorni. Entro due anni, per settimane. Entro tre anni, per progetti della durata di un mese.

Amodei ha affermato che i modelli di IA “sostanzialmente più intelligenti di quasi tutti gli esseri umani in quasi tutte le attività” sono in linea con gli obiettivi fissati per il 2026 o il 2027.

Fermatevi per un secondo: se l’intelligenza artificiale è più intelligente della maggior parte dei dottori di ricerca, pensate davvero che non possa svolgere la maggior parte dei lavori d’ufficio?

Pensa a cosa significa questo per il tuo lavoro.


L’intelligenza artificiale sta ora costruendo la prossima intelligenza artificiale!

C’è un’altra cosa che sta accadendo e che ritengo sia lo sviluppo più importante e meno compreso.

Il 5 febbraio, OpenAI ha rilasciato il Codex GPT-5.3. Nella documentazione tecnica, è stato incluso quanto segue:

Rileggilo. L’intelligenza artificiale ha contribuito a costruire se stessa.

Questa non è una previsione su cosa potrebbe accadere un giorno. È OpenAI che vi dice, proprio ora, che l’IA appena rilasciata è stata utilizzata per creare se stessa. Uno dei principali fattori che rendono l’IA migliore è l’intelligenza applicata allo sviluppo dell’IA. E l’IA è ora sufficientemente intelligente da contribuire in modo significativo al proprio miglioramento.

Dario Amodei, CEO di Anthropic, afferma che l’intelligenza artificiale sta ora scrivendo “gran parte del codice” nella sua azienda e che il ciclo di feedback tra l’intelligenza artificiale attuale e quella di prossima generazione “sta prendendo piede mese dopo mese”. Afferma che potremmo essere “a soli 1-2 anni dal momento in cui l’attuale generazione di intelligenza artificiale costruirà autonomamente la successiva”.

Ogni generazione contribuisce a costruire la successiva, che è più intelligente, che a sua volta costruisce la successiva più velocemente, che è ancora più intelligente. I ricercatori la chiamano un’esplosione di intelligenza. E chi dovrebbe saperlo – coloro che la costruiscono – crede che il processo sia già iniziato.


Cosa significa questo per il tuo lavoro?

Sarò diretto con te perché penso che tu meriti più onestà che conforto.

Dario Amodei, probabilmente il CEO più attento alla sicurezza nel settore dell’intelligenza artificiale, ha pubblicamente previsto che l’intelligenza artificiale eliminerà il 50% dei posti di lavoro impiegatizi di livello base entro uno-cinque anni. E molti nel settore pensano che sia prudente. Considerando le potenzialità dei modelli più recenti, la capacità di una rivoluzione dirompente potrebbe essere già disponibile entro la fine di quest’anno. Ci vorrà del tempo prima che si rifletta sull’economia, ma la capacità di base sta arrivando ora.

Quella attuale è diversa da ogni precedente ondata di automazione, e ho bisogno che tu capisca perché. L’intelligenza artificiale non sta sostituendo una competenza specifica.

Migliora in tutto simultaneamente. Quando le fabbriche sono state automatizzate, un lavoratore licenziato ha potuto riqualificarsi come impiegato. Quando Internet ha rivoluzionato il commercio al dettaglio, i lavoratori sono passati alla logistica o ai servizi. Ma l’intelligenza artificiale non lascia un vuoto conveniente in cui inserirsi. Qualunque cosa tu voglia riqualificare, sta migliorando anche in quello.

Permettetemi di farvi qualche esempio specifico per rendere tutto questo tangibile… ma voglio essere chiaro: si tratta solo di esempi. Questo elenco non è esaustivo. Se il vostro lavoro non è menzionato qui, non significa che sia sicuro. Quasi tutti i lavori intellettuali sono interessati.

Lavoro legale. L’intelligenza artificiale è già in grado di leggere contratti, riassumere la giurisprudenza, redigere memorie e svolgere ricerche legali a un livello che rivaleggia con quello dei soci junior. Il socio amministratore che ho menzionato non usa l’intelligenza artificiale perché è divertente. La usa perché sta superando i suoi soci in molti compiti.

Analisi finanziaria. Creazione di modelli finanziari, analisi dei dati, redazione di promemoria di investimento, generazione di report. L’intelligenza artificiale gestisce queste attività con competenza e sta migliorando rapidamente.

Scrittura e contenuti. Testi di marketing, report, giornalismo, redazione tecnica. La qualità ha raggiunto un livello tale che molti professionisti non riescono più a distinguere il lavoro dell’intelligenza artificiale da quello umano.

Ingegneria del software. È il campo che conosco meglio. Un anno fa, l’intelligenza artificiale riusciva a malapena a scrivere poche righe di codice senza errori. Ora scrive centinaia di migliaia di righe che funzionano correttamente. Gran parte del lavoro è già automatizzata: non solo compiti semplici, ma anche progetti complessi che richiedono più giorni. Tra qualche anno ci saranno molti meno ruoli di programmazione rispetto a oggi.

Analisi mediche. Lettura di scansioni, analisi di risultati di laboratorio, suggerimento di diagnosi, revisione della letteratura scientifica. L’intelligenza artificiale si sta avvicinando o superando le prestazioni umane in diversi ambiti.

Servizio clienti. Agenti di intelligenza artificiale realmente capaci… non i frustranti chatbot di cinque anni fa… vengono ora impiegati per gestire problemi complessi che si articolano in più fasi.

Molte persone trovano conforto nell’idea che certe cose siano al sicuro. Che l’intelligenza artificiale possa gestire il lavoro più pesante, ma non possa sostituire il giudizio umano, la creatività, il pensiero strategico, l’empatia. Lo dicevo anch’io. Ora non sono più sicuro di crederci.

I modelli di IA più recenti prendono decisioni che sembrano giudizi. Mostrano qualcosa che assomiglia al gusto: un senso intuitivo di quale fosse la scelta giusta, non solo quella tecnicamente corretta. Un anno fa sarebbe stato impensabile. La mia regola empirica a questo punto è: se oggi un modello mostra anche solo un accenno di capacità, la prossima generazione sarà davvero brava in questo. Queste cose migliorano in modo esponenziale, non lineare.

L’intelligenza artificiale replicherà la profonda empatia umana? Sostituirà la fiducia costruita in anni di relazione? Non lo so. Forse no. Ma ho già visto persone iniziare a fare affidamento sull’intelligenza artificiale per supporto emotivo, consigli, compagnia. Questa tendenza è destinata a crescere.

Penso che la risposta onesta sia che nulla di ciò che si può fare su un computer è sicuro nel medio termine. Se il tuo lavoro si svolge su uno schermo (se il fulcro di ciò che fai è leggere, scrivere, analizzare, decidere, comunicare tramite una tastiera), allora l’intelligenza artificiale arriverà a occupare parti significative di questo lavoro. La tempistica non è “un giorno”. È già iniziata.

Prima o poi, i robot si occuperanno anche del lavoro fisico. Non sono ancora arrivati ​​a quel punto. Ma “non ancora arrivati” in termini di intelligenza artificiale ha la capacità di arrivare “qui” più velocemente di quanto chiunque si aspetti.


[…]


Il quadro generale

Mi sono concentrato sul lavoro perché è ciò che influenza più direttamente la vita delle persone. Ma voglio essere onesto sulla portata complessiva di ciò che sta accadendo, perché va ben oltre il lavoro.

Amodei ha proposto un esperimento mentale che non riesco a togliermi dalla testa. Immaginate che sia il 2027. Da un giorno all’altro nasce un nuovo Paese. 50 milioni di cittadini, ognuno dei quali più intelligente di qualsiasi vincitore del Premio Nobel mai esistito. Pensano da 10 a 100 volte più velocemente di qualsiasi essere umano. Non dormono mai. Sono in grado di usare Internet, controllare robot, dirigere esperimenti e azionare qualsiasi cosa dotata di interfaccia digitale. Cosa direbbe un consigliere per la sicurezza nazionale?

Amodei afferma che la risposta è ovvia: “la minaccia più grave alla sicurezza nazionale che abbiamo affrontato in un secolo, forse in assoluto”.

Lui pensa che stiamo costruendo quel Paese. Ha scritto un saggio di 20.000 parole a riguardo il mese scorso, inquadrando questo momento come una prova per verificare se l’umanità è abbastanza matura da gestire ciò che sta creando.

Il vantaggio, se ci riusciamo, è sbalorditivo. L’intelligenza artificiale potrebbe condensare un secolo di ricerca medica in un decennio. Cancro, Alzheimer, malattie infettive, l’invecchiamento stesso… questi ricercatori credono fermamente che siano problemi risolvibili nell’arco della nostra vita.

Il rovescio della medaglia, se sbagliamo, è altrettanto reale. Un’IA che si comporta in modi che i suoi creatori non possono prevedere o controllare.

Le persone che sviluppano questa tecnologia sono allo stesso tempo più entusiaste e più spaventate di chiunque altro sul pianeta. Credono che sia troppo potente per fermarla e troppo importante per abbandonarla. Che si tratti di saggezza o razionalizzazione, non lo so.


Ciò che so

So che non è una moda passeggera. La tecnologia funziona, migliora in modo prevedibile e le istituzioni più ricche della storia stanno investendo migliaia di miliardi. So che i prossimi due-cinque anni saranno disorientanti in modi a cui la maggior parte delle persone non è preparata. Questo sta già accadendo nel mio mondo. Sta arrivando anche nel tuo. So che le persone che usciranno meglio da questa situazione saranno quelle che inizieranno a impegnarsi ora, non con paura, ma con curiosità e senso di urgenza. E so che meriti di sentirtelo dire da qualcuno a cui importa di te, non da un titolo di giornale tra sei mesi, quando sarà troppo tardi per anticiparlo. Siamo oltre il punto in cui questa è un’interessante conversazione a cena sul futuro. Il futuro è già qui. Solo che non ha ancora bussato alla tua porta.

Sta per succedere.


Se questo ti ha toccato, condividilo con qualcuno nella tua vita che dovrebbe riflettere su questo. La maggior parte delle persone non lo capirà finché non sarà troppo tardi. Tu puoi essere la ragione per cui una persona a cui tieni abbia un vantaggio.


Grazie a Kyle Corbitt, Jason Kuperberg e Sam Beskind per aver esaminato le prime bozze e aver fornito preziosi feedback.