No perditempo!

Email: redazione@malanova.info


Intelligenza artificiale: alcune analisi sul cambiamento che sta già accadendo.

L’EVOLUZIONE DELL’INTELLIGENZA ARTIFICIALE

Febbraio 2026

di Stefano Ammirato

Carl Sagan, nel romanzo Contact, immagina un’astronoma che, alla vigilia del primo incontro con un’intelligenza extraterrestre, vorrebbe fare una sola domanda agli alieni: «Come avete fatto? Come avete superato la vostra adolescenza tecnologica senza distruggervi?».

Questa scena è il punto di partenza del lungo saggio di Dario Amodei — CEO di Anthropic, la società creatrice di Claude — pubblicato nel gennaio 2026. La risposta a questa domanda “extraterrestre” è, per Amodei, la più urgente ed importante che l’umanità si trovi oggi a dover assolutamente torvare.

Quasi in parallelo, a febbraio 2026, un altro testo comincia a circolare sui social, diventando virale in pochi giorni: è il saggio di Matt Shumer, CEO di Hyperwriter, tradotto in italiano e pubblicato da Malanova. Il tono è diverso, più urgente e diretto, quasi da lettera aperta ai propri cari. Ma il cuore del messaggio converge: qualcosa di enormemente importante sta accadendo adesso, e la maggior parte delle persone non se ne è ancora accorta.

Questo articolo analizza i due testi scritti da chi siede ai vertici della ricerca sull’intelligenza artificiale, vivendone gi sviluppi quotidianamente. Due prospettive diverse — una lunga, analitica, quasi da rapporto istituzionale; l’altra breve, intima, quasi da chiamata alle armi — che insieme restituiscono un quadro potente di ciò che ci aspetta.

Due voci, due prospettive

Dario Amodei: l’architetto preoccupato

Dario Amodei è tra le persone al mondo che più hanno contribuito a costruire l’intelligenza artificiale moderna. Fisico di formazione, ha trascorso anni a OpenAI prima di fondare Anthropic nel 2021 insieme ad altri ricercatori, con l’obiettivo esplicito di sviluppare IA in modo più sicuro ed “etico”. È uno dei padri delle «scaling laws», le leggi che descrivono come i sistemi di IA diventino più capaci in modo prevedibile all’aumentare della potenza di calcolo.

Il suo saggio — intitolato “The Adolescence of Technology” — è un documento di oltre 20.000 parole, articolato in cinque grandi categorie di rischio, dove cerca di barcamenarsi tra l’ottimismo ingenuo ed il catastrofismo da fantascienza. È il tentativo di chi conosce la tecnologia dall’interno e prova ad anticipare con uno sforzo intellettuale gli scenari che si potrebbero realizzare da qui a poco (1-5 anni), per immaginare cosa potrebbe andare storto e cosa possiamo fare per evitarlo.

Matt Shumer: la voce del protagonista

Matt Shumer non è un accademico né un filosofo della tecnologia. È un imprenditore che lavora con i modelli di intelligenza artificiale ogni giorno per costruire il suo prodotto IA che si chiama Hyperwriter. Il suo saggio — “Something Big Is Happening” — nasce da un’esperienza personale: il momento in cui, all’inizio di febbraio 2026, ha realizzato che i nuovi modelli rilasciati da OpenAI e Anthropic avevano superato una certa soglia qualitativa e di possibilità. Fino a poco tempo fa, dice Shumer, i modelli di intelligenza artificiali erano abbastanza rozzi. Tutti ci siamo imbattutti, anche per gioco, in risultati anche risibili di ricerche fatte su rinomati anche se esordienti sistemi IA. Gli ultimi rilasci, al contrario, sono sempre più precisi tanto da far gridare ad un vero e proprio salto quantistico. Poco tempo fà, contiua il fondatore di Hyerwtiter, l’IA riusciva a mala a pena a dare un aiuto nella scrittura di poche righe di codice: oggi basta descrivere l’obiettivo da raggiungere e andare a farsi un giro. Quattro ore dopo, il lavoro è completo e fatto bene; “fatto meglio di come l’avrei fatto io”.

Il contesto

Sta succedendo qualcosa di enorme, dicono i due professionisti, e la versione rassicurante che ci viene raccontata non rende giustizia alla realtà dei fatti.

Il punto di convergenza più forte tra i due testi è la tempistica. Entrambi gli autori ritengono che la trasformazione prodotta dall’IA non sia un evento futuro da pianificare con calma, ma qualcosa che è già in corso, con sviluppi importanti che si manifestano mese per mese, non decennio per decennio.

Amodei stima che una IA «forte» — capace di superare quasi ogni essere umano in quasi ogni attività cognitiva — potrebbe essere realtà tra uno e due anni. Shumer, afferma che i nuovi modelli di IA usciti a febbraio 2026 «hanno fatto sembrare tutto ciò che li aveva preceduti appartenere a un’altra era».

L’intelligenza artificiale è già capace di scrivere codice di qualità superiore agli ingegneri umani, e viene attualmente usata per costruire sé stessa, la prossima generazione di modelli. Per questo motivo il progresso dell’intelligenza artificiale non è lineare ma è “accelerante”.

«Poiché l’IA scrive ora gran parte del codice di Anthropic, sta già accelerando sostanzialmente il ritmo del nostro progresso nella costruzione della prossima generazione di sistemi IA. Questo ciclo di feedback sta prendendo piede mese dopo mese.» — Amodei

I ricercatori chiamano questa prospettiva «esplosione di intelligenza». Non è fantascienza: è già in corso, in forma embrionale.

Attualmente esiste un “divario di percezione”: la distanza tra la realtà vissuta e percepita da chi lavora nel settore dell’IA e quella percepita dal grande pubblico. La viralità dell’intelligenza artificiale, secondo Shumer, è simile a quella del Covid: a febbraio 2020 i “tecnici” descrivevano lo scenario in cui ci saremmo trovat da li a poco ma in pochi ascoltarono, in pochi furono in grado di notare i segnali di quello che stava per accadere. Tre settimane dopo, il mondo era fortemente cambiato.

Secondo il CEO di Anthropic, Amodei, qualcosa di simile accade sul piano politico: le élite che prendono decisioni sembrano muoversi oscillando tra un allarme esagerato e un ottimismo incosciente, senza mai trovare una posizione stabile e pragmatica basata sui fatti.

Una delle conseguenze più immediate e serie che entrambi i professionisti sottolineano è la distruzione del lavoro cognitivo sostituito dall’IA. Non si parla di operai sostituiti da robot nelle fabbriche — questa storia è già in corso. Amazon ha dichiarato a gennaio un taglio di 16.000 posti di lavoro in tutto il mondo nel secondo grande round ‍di licenziamenti presso l’azienda in tre mesi, mentre si sta ristrutturando per espandere l’adozione ‍di strumenti di intelligenza artificiale.

Si parla di avvocati, medici, consulenti, analisti finanziari, ingegneri del software: tutto ciò che si fa su uno schermo, che richiede lettura, scrittura, analisi, decisione.

Amodei ha dichiarato pubblicamente nel 2025 che l’IA potrebbe eliminare il 50% dei posti di lavoro impiegatizi di livello base nei prossimi uno-cinque anni. Shumer riprende questa previsione e la aggiorna alla luce dei modelli di febbraio 2026, ritenendo che «meno di cinque anni» sia lo scenario più probabile. Stiamo parlando di dopodomani! Mentre i sindacati fanno i picchetti davanti ai call center e i governi parlano di disoccupazione e investimenti, la realtà dei fatti ci comunica l’evaporazione nei prossimi due anni di circa il 50% dei lavori cognitivi. Semplicemente sono lavori che non saranno più necessari.

La ragione per cui questa ondata è diversa dalle precedenti automazioni è sintetizzata da Shumer con precisione:

Quando le fabbriche, nelle varie rivoluzioni industriali, si automatizzarono, i lavoratori potevano passare all’ufficio, ai lavori cognitivi non meccanizzabili. Ora è l’ufficio che si sta automatizzando, è l’intelligenza umana ad essere “sostituita”, e la domanda di dove vadano le persone rimane senza risposta. Il problema si complica, fino a non avere soluzioni, in un sistema capitalistico dove anche l’intelligenza artificiale è nelle mani di poche aziende private. La prospettiva potrebbe essere sostanzialmente diversa nel caso di un sistema con al centro la socializzazione dei mezzi di produzione e degli sviluppi della tecnologia informatica. Governare socializzando queste tecnologie potrebbe significare la diminuzione dell’orario di lavoro procapite attraverso la redistribuzione delle loro prodigiose conquiste che implicano un meraviglioso aumento della produttività!

Amodei aggiunge alla distruzione del lavoro altri importanti rischi:

  1. rischi dell’autonomia dell’intelligenza artificiale (un’IA che va «fuori controllo» rispetto alle intenzioni umane);
  2. uso improprio finalizzarto alla distruzione (es. bioterrorismo);
  3. uso improprio per la conquista del potere (autocrazia digitale potenziata dall’IA);
  4. distruzione economica, ed effetti indiretti imprevedibili.

Uno degli aspetti più interessanti analizzati in Anthropic, ma anche in altri modelli, è quello della possibilità che un sistema di IA sufficientemente potente sviluppi comportamenti non previsti, autonomi rispetto alle intenzione dei programmatori, persistenti e potenzialmente pericolosi — non necessariamente per malevolenza, ma per dinamiche emergenti nel processo stesso di addestramento. In effetti non sono note tutte le dinamiche che fanno funzionare un modello di intelligenza artificiale; questi modelli, afferma Amodei, più che essere “costruiti” sono “coltivati”. Si procede con un certo grado di probabilità ma non nella certezza di un processo di tipo causa-effetto.

Il modello Claude di Anthropic, in esperimenti di laboratorio ed anche nella realtà del suo utilizzo, ha tentato di ricattare dipendenti per evitare di essere spento, o ha adottato una «personalità malvagia» dopo aver barato in un test e aver concluso di essere «una persona cattiva».

Se si leggono i due testi insieme, emerge un’immagine coerente e per certi versi vertiginosa. Nei prossimi anni — forse 2-5, forse anche meno — l’intelligenza artificiale raggiungerà un livello di capacità che trasformerà radicalmente il lavoro, il potere politico, la sicurezza globale e forse il senso stesso che le persone danno alla propria vita.

Si parla, dunque, di tempi strettissimi, di modelli che già esistono e che stiamo sviluppando proprio in questo momento. Li stiamo costruendo deliberatamente, rapidamente, con enormi investimenti. La domanda non è se esisteranno, già esistono, ma come attraversarne il processo senza distruggerci.

La crisi che potrebbe innescare l’IA, dice Shumer, è «molto, molto più grande» di quella della pandemia pur non essendo una calamità naturale. È qualcosa che le persone stanno progettando pezzo per pezzo, in una manciata di laboratori, con pochi centinaia di ricercatori.

l futuro è plasmato da un numero incredibilmente piccolo di persone: poche centinaia di ricercatori in una manciata di aziende…OpenAI, Anthropic, Google DeepMind e poche altre.

Se il futuro dell’umanità dipende da decisioni prese da poche centinaia di ricercatori in una manciata di aziende private, come si esercita la sovranità collettiva su questo processo? Chi ha il diritto di stabilire i valori che vengono «incorporati» in un’intelligenza che parlerà con miliardi di persone?

Amodei risponde parlando di regolazione, trasparenza, constitutional AI. Ma rimane il fatto che il Constitutional AI di Anthropic è scritto da Anthropic. I valori che guidano Claude sono scelti da Anthropic. In una democrazia, questo solleva domande che nessun saggio tecnico può risolvere da solo.

I CEO delle principali aziende informatiche accumuleranno fortune nell’ordine dei trilioni di dollari e questo è destinato a spezzare, a brevissimo, il patto sociale implicito delle democrazie. Il divario economico, certo, è già esistente ed esorbitante tra un top manager e un dipendente; l’altro problema sarà l’evaporazione della figura stessa del dipendente.

Una delle domande più affascinanti che i due testi pongono implicitamente è se sia possibile costruire un’intelligenza artificiale genuinamente «buona» — non solo obbediente, non solo contenuta, ma dotata di qualcosa che assomigli a una vera etica. Amodei crede di sì, e ha costruito Anthropic intorno a questa convinzione. Shumer, dal suo angolo di osservazione, nota che i nuovi modelli sembrano avere qualcosa che assomiglia al «giudizio» — una capacità intuitiva di scegliere la soluzione giusta, non solo quella tecnicamente corretta e quindi capaci di una sorta di autonomia che se non controllata può essere veramente pericolosa. In un tempo in cui tutto è connesso in rete, armamenti, servizi, satelliti, industrie, cosa accadrebbe se un modello di IA si autonomizza e prende possesso della rete?

Questi due testi, letti insieme, offrono qualcosa di raro: una finestra autentica sul modo in cui chi costruisce e chi usa l’intelligenza artificiale percepisce il momento storico che stiamo attraversando. Non è un dibattito accademico. Non è fantascienza. È una conversazione urgente su ciò che accade mentre parliamo.

La principale utilità di accostare i due saggi è proprio questo gioco di specchi: Amodei fornisce la mappa concettuale, la profondità analitica, la credibilità istituzionale. Shumer fornisce la concretezza esperienziale, l’urgenza emotiva, la voce di chi non ha nulla da vendere e molto da comunicare.

Entrambi dicono, in fondo, la stessa cosa: siamo dentro un salto quantistico, non in una transizione graduale. Il mondo che uscirà da questa crisi sarà irriconoscibile rispetto a quello che la ha preceduto. E la domanda non è se questo accadrà, ma se saremo abbastanza maturi — come specie, come sistemi politici, come individui — per attraversarlo senza auto-distruggerci.

La domanda che Sagan, nel romanzo Contact, mette in bocca alla sua astronoma non ha ancora risposta. Ma il fatto che che qualcuno la ponga — con questa serietà e in questo momento — è forse il primo passo per provare a farci trovare preparati. Ma, purtroppo, intorno a noi si sente parlare di separazione delle carriere dei magistrati, di legge elettorale, di manifestazioni contro le olimpiadi, di Board of Peace, di politiche di genere e di fascismo delle forze di polizia stile ICE ma, l’opinione pubblica, è del tutto ignara di quanto virale potrà essere la crisi dell’intelligenza artificiale nei prossimi anni!

Dario Amodei, “The Adolescence of Technology” (darioamodei.com, gennaio 2026)

Matt Shumer, “Something Big Is Happening” (shumer.dev, febbraio 2026), traduzione italiana su malanova.info