ChatGPT crea un sistema di verifica dell'età volto a identificare gli utenti di età inferiore ai 18 anni a seguito della tragica morte di un adolescente
L'azienda implementerà un sistema di previsione dell'età per limitare l'accesso dei minori.
"I minori hanno bisogno di una protezione significativa". Questo è ciò che Sam Altman ha detto solo pochi giorni fa in un post sul blog. Ora, apprendiamo che OpenAI sta preparando nuove misure di sicurezza per ChatGPT dopo che una causa ha collegato il chatbot alla morte di un adolescente. Secondo le informazioni fornite, l'azienda introdurrà una tecnologia progettata per stimare l'età di un utente e limitare le conversazioni in caso di dubbio, per impostazione predefinita a un'esperienza sotto i 18 anni. Ciò bloccherà i contenuti sessuali, impedirà scambi civettuoli e fermerà le discussioni sull'autolesionismo. In alcune regioni, gli utenti potrebbero anche dover verificare la propria identità con documenti ufficiali. OpenAI ha affermato che la mossa dà priorità alla sicurezza dei minori, anche a scapito della privacy degli adulti, mentre gli adulti continueranno ad accedere a interazioni più flessibili. Cosa ne pensa? Naturalmente, se vuoi saperne di più, puoi farlo tramite il seguente link. Go!

