K metro 0 – San Francisco – La prima settimana di aprile, la società di intelligenza artificiale Anthropic, di San Francisco, in California, ha dichiarato di aver creato un modello di IA così potente che, spinta da un senso di responsabilità schiacciante, non intende renderlo pubblico. Quando nel 2019 la OpenAi completò il modello linguistico
K metro 0 – San Francisco – La prima settimana di aprile, la società di intelligenza artificiale Anthropic, di San Francisco, in California, ha dichiarato di aver creato un modello di IA così potente che, spinta da un senso di responsabilità schiacciante, non intende renderlo pubblico.
Quando nel 2019 la OpenAi completò il modello linguistico di intelligenza artificiale Gpt-2, inizialmente dichiarò che era troppo pericoloso per renderlo disponibile. Dario Amodei, all’epoca direttore del settore ricerca della OpenAi, ripeteva che il mondo aveva bisogno di tempo per prepararsi, riferisce Internazionale.it.
Alla fine Gpt-2 fu distribuito pochi mesi dopo. Da allora sono stati sviluppati modelli molto più potenti, ma non c’è stata la temuta apocalisse. Sette anni dopo quel primo allarme, Amodei (oggi, appunto, a capo della Anthropic, azienda rivale della OpenAi) è di nuovo preoccupato. Il 7 aprile ha dichiarato che l’ultima versione del modello di ia Claude, chiamata “Mythos”, è troppo potente per essere distribuita. E stavolta potrebbe aver ragione.
Secondo la Anthropic, le capacità di Mythos sono “sostanzialmente superiori a quelle di qualsiasi altro modello precedentemente addestrato”. L’azienda sarebbe particolarmente allarmata dalla capacità del sistema di rintracciare vulnerabilità in un software, per poi risolverle (se usato come strumento di difesa) o sfruttarle (se spinto ad agire come un hacker).
Il segretario al Tesoro degli Stati Uniti, Scott Bessent, ha di conseguenza convocato i vertici delle principali banche per discutere del modello, denominato Mythos. Nel Regno Unito, il deputato del partito Reform UK Danny Kruger ha scritto una lettera al governo esortandolo a “collaborare con la società di IA Anthropic, il cui nuovo modello all’avanguardia, Claude Mythos, potrebbe comportare rischi catastrofici per la sicurezza informatica del Regno Unito”.
Non è ancora chiaro se Anthropic abbia davvero creato il “dio macchina”. Ciò che appare più evidente è che la startup di San Francisco eccelle nel marketing. Negli ultimi mesi, Anthropic ha difatti goduto di un profilo di 10.000 parole sul New Yorker, due articoli sul Wall Street Journal e la copertina della rivista Time, sulla quale il volto del CEO Dario Amodei era raffigurato, in stile locandina cinematografica, sopra il Pentagono e il segretario alla Difesa degli Stati Uniti, Pete Hegseth.
Amodei e il cofondatore di Anthropic, Jack Clark, sono apparsi in due diversi podcast del New York Times a febbraio, discutendo di questioni quali se la loro macchina fosse cosciente e se potesse presto “sconvolgere l’economia”.
Tutto questo è avvenuto nel contesto di una controversia tra Anthropic e il Dipartimento della Difesa statunitense, in cui Anthropic, nonostante abbia creato lo strumento di IA utilizzato dal Pentagono per sferrare attacchi contro l’Iran, è riuscita a fare una figura decisamente migliore rispetto a OpenAI, che si era offerta di aiutare l’esercito americano a fare la stessa cosa, ma con – forse – meno misure di sicurezza.
Anthropic ha tuttavia divulgato accidentalmente parte del codice sorgente interno di Claude all’inizio di aprile. “Non sono stati coinvolti né esposti dati sensibili dei clienti o credenziali”, ha affermato la responsabile media Danielle Ghiglieri.
Cosa significa tutto questo riguardo al Mythos di Anthropic, indubbiamente potente? “Le capacità del modello non sono state dimostrate”, ha affermato la dottoressa Heidy Khlaaf, responsabile scientifica per l’intelligenza artificiale presso l’AI Now Institute, come riferisce The Guardian.
Quali fattori potrebbero aver davvero influito sulla decisione di Anthropic di non rilasciare Mythos”
L’azienda dispone di risorse limitate e sembra avere difficoltà a garantire una capacità di calcolo sufficiente per consentire a tutti i suoi abbonati di utilizzare i propri modelli. Ha introdotto limiti di utilizzo per il popolarissimo Claude. Di recente, ha dichiarato che gli utenti dovranno acquistare capacità aggiuntiva oltre al proprio abbonamento per poter utilizzare strumenti di terze parti, come OpenClaw. A questo punto, potrebbe semplicemente non disporre dell’infrastruttura necessaria per supportare il rilascio di una nuova creazione tanto pubblicizzata.
Come OpenAI, Anthropic è impegnata in una corsa per raccogliere miliardi di dollari e conquistare un mercato – ancora poco definito – composto da persone che potrebbero affidarsi ai suoi chatbot come amici, partner sentimentali o assistenti altamente personalizzati, e da aziende che potrebbero utilizzarli per sostituire i dipendenti umani. Ma le differenze tra questi prodotti sono marginali, dovute principalmente ad attributi difficili da quantificare come il “senso di sé” e l’“anima”.
“Mythos è un annuncio strategico per dimostrare che sono pronti a entrare nel mercato”, ha affermato Khlaaf, aggiungendo che le limitazioni imposte da Anthropic alla divulgazione delle informazioni hanno impedito agli esperti indipendenti di valutare le affermazioni dell’azienda.
Ha suggerito che potremmo trovarci di fronte allo “stesso stratagemma di ‘bait and switch’ utilizzato da OpenAI, in cui la sicurezza è uno strumento di pubbliche relazioni per conquistare la fiducia del pubblico prima di dare priorità ai profitti” e: “La pubblicità di Anthropic è riuscita a nascondere meglio questo inganno rispetto ai suoi rivali.”
Redazione/S-D













