Anthropic trattiene Claude Mythos per le paure di hackeraggio
Il nuovo modello di IA mette in luce vulnerabilità software critiche.
Anthropic ha deciso di non rendere pubblica il suo ultimo modello di intelligenza artificiale, Claude Mythos, dopo aver dimostrato una capacità senza precedenti di scoprire vulnerabilità software che potrebbero essere sfruttate per attacchi informatici su larga scala.
Come riportato da The Guardian, l'azienda con sede a San Francisco ha dichiarato che il modello ha già identificato migliaia di debolezze in applicazioni ampiamente utilizzate, alcune risalenti a decenni fa e precedentemente non rilevate dagli sviluppatori. Preoccupata per il potenziale uso improprio di tali capacità, Anthropic sta invece limitando l'accesso agli esperti di cybersecurity e a partner selezionati.
Attraverso un'iniziativa nota come "Glasswing", l'azienda collabora con importanti aziende tecnologiche e di sicurezza tra cui Amazon, Apple, Microsoft, Cisco, CrowdStrike e Palo Alto Networks, oltre che con la Linux Foundation. L'obiettivo è utilizzare il modello in modo difensivo, aiutando a identificare e correggere le vulnerabilità prima che attori malintenzionati possano sfruttarle.
