Mythos: l’ultimo sistema di intelligenza artificiale fa paura a chi l’ha creato

Mythos: l’ultimo sistema di intelligenza artificiale fa paura a chi l’ha creato

K metro 0 – Londra – Per ora lo tengono sotto controllo. E’ così potente da far paura ai suoi stessi inventori. Troppo pericoloso per metterlo in libera circolazione. E’Claude Mythos, il modello IA di Anthropic che fa paura agli esperti di cybersecurity. Il suo creatore l’ha definito “terrificante”.           La capacità di Mythos di

K metro 0 – Londra – Per ora lo tengono sotto controllo. E’ così potente da far paura ai suoi stessi inventori. Troppo pericoloso per metterlo in libera circolazione. E’Claude Mythos, il modello IA di Anthropic che fa paura agli esperti di cybersecurity. Il suo creatore l’ha definito “terrificante”.          

La capacità di Mythos di trovare falle nella sicurezza informatica supera quella degli esperti umani e potrebbe avere conseguenze epocali se finisse nelle mani sbagliate. “Le ripercussioni, per l’economia, la sicurezza pubblica e la sicurezza nazionale, potrebbero essere gravi”, ha dichiarato Anthropic in un post sul blog di inizio aprile.

E già circola il timore che Mythos ci costringerà presto a sostituire ogni singolo dispositivo tecnologico. Persino il forno a microonde con connessione Wi-Fi, per proteggerci dalla follia digitale.

Alcuni esperti di sicurezza ne dubitano. I ​​dirigenti delle principali aziende di IA lanciano regolarmente avvertimenti su come i prodotti del loro settore potrebbero distruggere l’umanità.

Ma perché vogliono che ne abbiamo paura, si chiede Thomas Germain, tech columnist della BBC, esploratore del lato oscuro del digitale, in una sua recente inchiesta.

Secondo i critici, le aziende di IA disseminando la paura dell’apocalisse traggono un vantaggio   perché distrae dai danni reali che stanno già causando al mondo.  

Altri sostengono che in realtà stiamo assistendo a una campagna allarmistica che esagera il potenziale della tecnologia e serve a far salire il prezzo delle azioni. E ad alimentare la narrazione secondo cui le autorità di regolamentazione devono farsi da parte, perché solo queste aziende possono fermare i malintenzionati e sviluppare questa tecnologia in modo responsabile.

E’ come se, sentendoci impotenti di fronte a queste tecnologie quasi soprannaturali nella loro pericolosità, “le uniche persone a cui potessimo rivolgerci fossero le aziende stesse”, spiega la filosofa Shannon Vallor, responsabile del dipartimento di etica dei dati e IA dell’Università di Edimburgo.

Non è la prima volta che Dario Amodei, CEO di Anthropic, lavora a uno strumento che è stato dichiarato troppo pericoloso per il pubblico dall’azienda di cui faceva parte.  Nel 2019, quando era dirigente di OpenAI, l’azienda annunciò   GPT-2 (un algoritmo IA   capace di generare   testi in modo simile alla mente umana).

Amodeo e altri leader di OpenAI affermarono di non poter rilasciare GPT-2 per timore di sue possibili applicazioni dannose. Si trattava di uno strumento molto meno sofisticato di ChatGPT. Mesi dopo, tuttavia, lo rilasciarono comunque. (Il CEO di OpenAI, Sam Altman, pubblicò un post sul blog in cui affermava che l’azienda accetta l’incertezza, riconoscendo che i timori su GPT-2 erano “infondati”).

Nel 2023, molti leader del settore tech, tra cui Altman, Amodei, Bill Gates e Demis Hassabis, CEO di Google DeepMind, sottoscrissero una  dichiarazione che affermava: “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi di portata sociale come pandemie e guerre nucleari”.

Lo stesso anno, magnati come Elon Musk firmarono una lettera in cui si chiedeva una pausa di sei mesi nello sviluppo di sistemi avanzati di IA. Ma già dopo meno di meno di 6 annunciò la sua nuova azienda di intelligenza artificiale, xAI.

Questo atteggiamento non si limita a OpenAI e Anthropic. E’ comune all’intero settore dell’IA, spiega Emily M. Bender, docente di linguistica computazionale ed elaborazione del linguaggio naturale all’Università di Washington. Per i leader del settore, “non importa la distruzione ambientale, lo sfruttamento del lavoro e tutti i sistemi che stiamo distruggendo nella società. Dobbiamo solo preoccuparci di assicurarci che l’IA non si trasformi in qualcosa di negativo che distrugga l’umanità”.

Anthropic afferma che il suo nuovo modello ha già trovato migliaia di vulnerabilità “molto gravi” nel panorama tecnologico. Ed ha annunciato una nuova partnership con oltre 40 aziende nel “tentativo urgente” di correggerle prima che gli hacker ne approfittino.

Ma ci sono notevoli dubbi su queste affermazioni. Secondo Heidy Khlaaf (esperta dell’AI Now Institute, specializzato nella valutazione degli usi   dell’IA nei campi della difesa e della sicurezza nazionale) il principale segnale d’allarme è stata la mancanza di tassi di falsi positivi, che in parole semplici indica la frequenza con cui si verifica un ”falso allarme” ed è pertanto uno dei principali indicatori dell’utilità di uno strumento”.

C’è anche chi sostiene che Anthropic potrebbe aver ritardato la diffusione su   larga scala di Mythos perché non poteva permettersi la potenza di calcolo necessaria. Questo non significa che la minaccia sia immaginaria. Gli strumenti di IA consentono in effetti la scansione di enormi basi di codice (gli archivi di istruzioni per far funzionare un programma) e la capacità di individuare   automaticamente le vulnerabilità di sicurezza rappresenta un pericolo reale e pressante. E’ dubbio, tuttavia, secondo Heidy Khlaaf, che Mythos sia onnipotente e non possa essere rilasciato.

Prevenire la fine del mondo è il motivo per cui OpenAI e Anthropic affermano di esistere. OpenAI è stata fondata come organizzazione no-profit, con la promessa di sviluppare un’intelligenza artificiale sicura prima che ci arrivassero giganti tecnologici come Google e Meta, presumibilmente meno responsabili. In seguito, un gruppo dissidente ha lasciato OpenAI per formare Anthropic, sostenendo che il loro precedente datore di lavoro non fosse sufficientemente attento alla sicurezza. Ora, entrambe le organizzazioni stanno lavorando per diventare società quotate in borsa e vendere azioni.

Google ha abbandonato i suoi limiti invalicabili riguardo alla creazione di armi basate sull’IA. OpenAI ha combattuto una battaglia legale per disfarsi del suo status di organizzazione no-profit. Anthropic ha abbandonato la sua politica principale di non addestrare mai un modello di IA se non poteva garantire adeguate misure di sicurezza.

Ma chi ci assicura che queste aziende rinuncino all’opportunità di dominare il mercato “per rimanere la parte buona”? Quasi nello stesso istante, alcuni di quelli che mettono in guardia dalla distruzione promettono anche la salvezza, come Altman che in un suo saggio del 2024, prevedeva la risoluzione dei problemi climatici, la creazione di un insediamento umano permanente nello spazio e la scoperta di tutti i segreti della fisica…  O come Amodei, che prevedeva “un paese di geni concentrato in un data center”, ovvero l’arrivo di una super IA capace di risolvere in tempi rapidissimi problemi complessi simulando le capacità cognitive di un’intera nazione di geni.

“Questo porta le persone a credere che tutto ciò che possono fare sia starsene sedute ad aspettare di scoprire se queste tecnologie si riveleranno demoni che distruggeranno la civiltà o messia portatori di utopia”. Persino il nome “Mythos” sembra studiato per ispirare timore reverenziale.

Ma non si tratta di dei, bensì di prodotti creati da aziende, a scopo di lucro, afferma Vallor. E abbiamo regolamentato cose ben più minacciose dei chatbot.  “Per ogni tecnologia, tranne questa, persino per le armi nucleari e biologiche, non abbiamo mai permesso che queste narrazioni ci facessero credere che si trattasse di forze al di là del controllo umano”. “Nulla di esse è incontrollabile. A meno che non scegliamo di non governarle”.

 

Condividi su:
Condividi:

Posts Carousel

Latest Posts

Top Authors

Most Commented

Featured Videos

Che tempo fa



Condividi su: