Anthropic rifiuta la richiesta del Pentagono di revocare le salvaguardie dell'IA
L'azienda afferma che "non può, in coscienza tranquilla" rimuovere le restrizioni da Claude.
L'azienda di intelligenza artificiale Anthropic ha dichiarato che non si adecerà a una richiesta del Pentagono di rimuovere le barriere di sicurezza dal modello Claude, dopo che il Segretario alla Difesa Pete Hegseth ha minacciato di annullare un contratto da 200 milioni di dollari e di definire l'azienda un "rischio della catena di approvvigionamento". Il CEO Dario Amodei ha dichiarato che l'azienda è ancora disposta a sostenere la sicurezza nazionale degli Stati Uniti, ma solo con le garanzie in atto.
Al centro della disputa c'è la richiesta militare di un uso illimitato e lecito di Claude, incluso il potenziale impiego di armi autonome e la sorveglianza interna. Anthropic ha rifiutato di consentire tali applicazioni, sostenendo che la tecnologia non sia abbastanza sicura o affidabile per questi ruoli.
Lo stallo mette alla prova la reputazione di Anthropic come uno dei giocatori più orientati alla sicurezza del settore dell'IA. Perdere il contratto con il Pentagono (e essere formalmente designata come rischio nella catena di approvvigionamento) potrebbe limitare gravemente la capacità dell'azienda di collaborare con altri partner della difesa statunitense...
