Un nuovo e potente modello di intelligenza artificiale sviluppato da Anthropic ha innescato una serie di incontri di crisi tra ministri delle finanze, banchieri centrali e finanzieri senior, che temono che la tecnologia possa essere rivolta al sistema finanziario globale con conseguenze devastanti.
Il modello, noto come Claude Mythos, ha dimostrato di individuare le vulnerabilità in molti dei sistemi operativi più utilizzati al mondo, suscitando allarme ai più alti livelli di governo e commercio. Mentre alcuni specialisti ritengono che rappresenti un cambiamento radicale nella capacità dell’intelligenza artificiale di scoprire e sfruttare i difetti della sicurezza informatica, altri hanno invitato alla cautela, sostenendo che sono necessari test molto più indipendenti prima di poter giudicare le sue reali capacità.
Il Ministro delle Finanze canadese, François-Philippe Champagne, ha confermato ai media che Mythos ha dominato le discussioni alle riunioni del Fondo Monetario Internazionale di questa settimana a Washington DC. “Certamente è abbastanza grave da meritare l’attenzione di tutti i ministri delle finanze”, ha detto. Facendo un paragone con i rischi geopolitici, ha aggiunto: “La differenza è che lo Stretto di Hormuz – sappiamo dove si trova e sappiamo quanto è grande… il problema che stiamo affrontando con Anthropic è che è sconosciuto, sconosciuto. Ciò richiede molta attenzione in modo da avere tutele e disponiamo di processi in atto per garantire la resilienza dei nostri sistemi finanziari.”
Mythos è tra le ultime aggiunte alla famiglia di modelli Claude di Anthropic, con cui compete direttamente ChatGPT di OpenAI e Gemelli di Google. È stato svelato all’inizio di questo mese dagli sviluppatori responsabili dello stress test del cosiddetto comportamento “disallineato” dell’intelligenza artificiale, casi in cui un modello agisce contro i valori umani o gli obiettivi previsti. Il loro verdetto è stato che Mythos è “straordinariamente capace nei compiti di sicurezza informatica”.
Citando la preoccupazione che il modello possa far emergere bug del software dormienti da tempo o identificare nuovi modi per sfruttare i punti deboli del sistema, Anthropic ha deciso di non rilasciarlo pubblicamente. Invece, l’accesso è stato concesso a una manciata di giganti della tecnologia, tra cui Amazon Web Services, CrowdStrike, Microsoft e Nvidia, nell’ambito di un’iniziativa denominata Project Glasswing, che la società descrive come “uno sforzo per proteggere il software più critico del mondo”.
Giovedì, Anthropic ha rilasciato una versione aggiornata del suo modello Claude Opus esistente, affermando che ciò consentirebbe di valutare le capacità informatiche di Mythos all’interno di sistemi meno potenti.
Non tutti nella comunità della sicurezza informatica sono convinti che i timori siano proporzionati, soprattutto considerati i limitati test indipendenti condotti finora. L’AI Security Institute del Regno Unito, a cui è stato concesso l’accesso a una versione di anteprima, è l’unico organismo ad aver pubblicato una valutazione indipendente. I suoi ricercatori hanno concluso che, sebbene Mythos Preview potesse compromettere sistemi con difese deboli, non era molto più capace del suo predecessore, Opus 4. “I nostri test mostrano che Mythos Preview può sfruttare sistemi con un livello di sicurezza debole, ed è probabile che verranno sviluppati più modelli con queste capacità”, hanno scritto gli autori del rapporto.
Gli scettici hanno anche sottolineato un precedente: nel febbraio 2019, OpenAI ha ritardato similmente il rilascio di GPT-2 per motivi di sicurezza, una decisione che i critici all’epoca liquidarono come uno strumento di marketing.
Ai banchieri senior verrà ora concesso l’accesso anticipato a Mythos in modo che possano sondare le proprie difese prima di qualsiasi rilascio più ampio. CS Venkatakrishnanamministratore delegato di Barclays, ha dichiarato alla BBC: “È abbastanza grave da far preoccupare la gente. Dobbiamo capirlo meglio, comprendere le vulnerabilità che vengono esposte e risolverle rapidamente”. Ha aggiunto che un sistema finanziario molto più interconnesso ha creato sia nuove opportunità che nuove esposizioni, avvertendo: “Questo è ciò che sarà il nuovo mondo”.
Per le piccole e medie imprese britanniche, che ogni giorno fanno affidamento sull’integrità delle infrastrutture bancarie, di pagamento e cloud, le implicazioni sono considerevoli. Un incidente informatico in grado di destabilizzare un importante finanziatore o processore di pagamento potrebbe propagarsi rapidamente attraverso le catene di fornitura delle PMI, colpendo il flusso di cassa, la fatturazione e la fiducia dei clienti in poche ore.
Anthropic ha già segnalato che Mythos ha scoperto molteplici vulnerabilità nei principali sistemi operativi, piattaforme finanziarie e browser web. Ai governi e alle banche viene offerto un accesso anticipato per rafforzare le loro difese prima di qualsiasi lancio pubblico.
Andrew Bailey, governatore della Banca d’Inghilterra, ha affermato che lo sviluppo deve essere trattato con la massima serietà. “Dobbiamo ora esaminare con molta attenzione cosa questo ultimo sviluppo dell’intelligenza artificiale potrebbe significare per il rischio di criminalità informatica”, ha affermato. “La conseguenza potrebbe essere che ci sia uno sviluppo dell’intelligenza artificiale, della modellizzazione, che rende più facile individuare le vulnerabilità esistenti in una sorta di sistemi IT centrali, e quindi ovviamente i criminali informatici, i cattivi attori, potrebbero cercare di sfruttarli”.
Il Tesoro americano ha confermato di aver sollevato la questione direttamente con le principali banche americane, esortandole a condurre test interni prima di qualsiasi rilascio pubblico. Fonti del settore suggeriscono inoltre che un’azienda statunitense rivale di intelligenza artificiale potrebbe presto svelare un modello altrettanto potente, ma senza barriere comparabili.
Per il settore tecnologico del Regno Unito, la controversia potrebbe rivelarsi un’apertura oltre che una minaccia. James Wise, partner di Balderton Capital e presidente della neonata unità Sovereign AI, un fondo di venture capital da 500 milioni di sterline sostenuto dal governo destinato alle imprese di intelligenza artificiale locali, ha sostenuto che Mythos è semplicemente “il primo di quelli che saranno molti modelli più potenti” in grado di mettere in luce le debolezze sistemiche.
Parlando al programma Today della BBC, ha detto che la sua unità sta “investendo in aziende britanniche di intelligenza artificiale che stanno affrontando questo problema, aziende che lavorano nella sicurezza e protezione dell’IA”, aggiungendo: “Speriamo che i modelli che espongono le vulnerabilità siano anche i modelli che le risolveranno”.
Per le aziende di sviluppo dell’intelligenza artificiale del paese e le start-up di sicurezza informatica, il messaggio proveniente sia da Threadneedle Street che da Washington è inconfondibile: il lato difensivo della corsa agli armamenti dell’intelligenza artificiale è appena diventato una delle frontiere commercialmente più significative nell’impresa britannica.

