Anthropic Glasswing: il piano per fermare Skynet sul nascere

C’è un’inquietudine sottile che serpeggia nel mondo tech, un ronzio d’ansia che identifica il 2026 come l’anno del “grande risveglio”. È l’anno in cui si sussurra che arriverà l’Intelligenza Artificiale Generale (AGI), non sotto forma di amichevole chatbot, ma come una forza capace di pensare, manovrare e agire meglio dei suoi stessi creatori. Così, quando Anthropic — il laboratorio di AI che ama definirsi il “paladino della sicurezza” — annuncia una nuova iniziativa chiamata Project Glasswing, ci si aspetterebbe un piano grandioso per installare un enorme pulsante rosso di emergenza per spegnere le divinità imminenti.

Invece, ci troviamo davanti a qualcosa che suona profondamente… noioso. L’obiettivo dichiarato di Project Glasswing è “mettere in sicurezza il software critico per l’era dell’AI”. Sembra meno un programma per prevenire Skynet e più una revisione informatica rimandata da troppo tempo. Ma non lasciatevi ingannare dal linguaggio aziendale. Qui non si tratta di aggiornare il browser; si tratta di costruire una gabbia per una bestia che non è ancora nata, usando un’altra bestia, solo leggermente più piccola, per farlo.

L’AI per sorvegliare tutte le altre AI

Nella sua essenza, Project Glasswing è una massiccia caccia ai bug preventiva. Anthropic ha sviluppato un modello di frontiera chiamato Mythos Preview, che a quanto pare è così abile nel trovare e sfruttare le vulnerabilità del software da essere considerato troppo pericoloso per il rilascio pubblico. Così, con una mossa che è al tempo stesso brillantemente proattiva e terribilmente ironica, lo hanno sguinzagliato per scopi difensivi.

In partnership con il gotha della Silicon Valley — tra cui Apple, Google, Microsoft e NVIDIA — Anthropic sta lasciando che Mythos scandagli i sistemi software più critici al mondo. Il modello ha già individuato migliaia di vulnerabilità ad alta gravità, alcune delle quali si annidavano nei principali sistemi operativi e browser da decenni, sopravvissute ad anni di revisioni umane.

“Dato il ritmo del progresso dell’AI, non passerà molto tempo prima che tali capacità proliferino, potenzialmente oltre gli attori impegnati a distribuirle in modo sicuro”, dichiara Anthropic. “Le ricadute — per le economie, la sicurezza pubblica e la sicurezza nazionale — potrebbero essere catastrofiche”.

Questa è la corsa agli armamenti dell’AI in estrema sintesi: costruire un’arma così potente da dover creare immediatamente una difesa contro di essa, e quella difesa non è altro che una versione leggermente più amichevole della stessa arma. È una scommessa ad alta posta in gioco: dare ai “buoni” un vantaggio temporale prima che la stessa tecnologia finisca inevitabilmente nelle mani sbagliate.

Dai cervelli digitali ai corpi fisici

Tutto questo può sembrare astratto finché non lo si collega all’altra metà dell’equazione AGI: il corpo. La paura esistenziale non riguarda solo un pezzo di codice super-intelligente; riguarda quel codice che abita una forma fisica. Non stiamo parlando di uno smart speaker. Stiamo parlando di Embodied AI — robot umanoidi in grado di camminare, manipolare oggetti e operare nel mondo reale, quello sporco e disordinato.

Il termine per un’intelligenza che supera gli esseri umani in tutti i domini, compresi i compiti fisici, non è AGI; è Superintelligenza Artificiale (ASI). L’AGI è il traguardo in cui una macchina eguaglia l’intelletto umano; l’ASI è il punto ipotetico in cui ci lascia nella polvere cognitiva. Molti esperti ritengono che il salto da AGI a ASI possa essere spaventosamente breve, un ciclo di auto-miglioramento rapido e ricorsivo noto come “esplosione di intelligenza”.

Ora, immaginate un’ASI che gira su una rete globale di robot umanoidi. È questo lo scenario che toglie il sonno agli addetti ai lavori. Mentre aziende come Boston Dynamics e Figure stanno perfezionando l’hardware, il software — il modello del mondo, il motore di ragionamento — è ciò che laboratori come Anthropic stanno costruendo. Project Glasswing è l’ammissione che il software su cui stiamo costruendo l’intero nostro mondo digitale (e il futuro mondo fisico) è fondamentalmente insicuro. È un tentativo di sbarrare i boccaporti prima che l’uragano tocchi terra.

Siamo davvero pronti per il 2026?

La previsione che l’AGI arriverà entro il 2026 è un tema caldissimo, con figure come Elon Musk che sostengono scadenze brevi, mentre altri la collocano più verso la fine del decennio. Indipendentemente dalla data esatta, il consenso è che non sia più una questione di “se”, ma di “quando”.

Iniziative come Project Glasswing sono un brusco ritorno alla realtà. Rappresentano i tentativi più seri fatti finora per affrontare il “problema del controllo”: come garantire che un sistema infinitamente più intelligente di te rimanga allineato ai tuoi valori e ai tuoi ordini? L’approccio di Anthropic è usare il potere stesso dell’AI per trovare le crepe nelle nostre fondamenta digitali e sigillarle. È una corsa per blindare le infrastrutture della società prima che un’AGI non allineata possa trovare una falla.

Non è il glorioso dibattito filosofico sulla coscienza dell’AI che vediamo nei film. È il lavoro sporco, tecnico e privo di fascino della cybersicurezza, scalato a livello planetario. Si tratta di garantire che il sistema operativo del futuro non abbia una porta sul retro sfruttabile da un’intelligenza che non possiamo nemmeno comprendere. Project Glasswing non fa paura per ciò che è, ma per ciò che dice su quello che sta arrivando. È il rumore delle persone più intelligenti del mondo che cercano, in silenzio e con urgenza, di chiudere a chiave tutte le porte. Possiamo solo sperare che finiscano prima che qualunque cosa ci sia dall’altra parte impari a scassinare le serrature.