Gamereactor



  •   Italiano

Gamereactor
Notizie dal mondo

Il chatbot AI di Reddit suggerisce agli utenti di provare l'eroina

Quindi forse non chiedergli ancora un consiglio medico.

HQ

Se speravi che i chatbot AI potessero sostituire il Dr. Google, l'ultimo esperimento di Reddit suggerisce... Forse non ancora. Reddit Answers, l'assistente AI della piattaforma, ha recentemente fatto notizia per aver raccomandato l'eroina come antidolorifico.

Come riportato da 404Media, il bizzarro consiglio è venuto alla luce quando un operatore sanitario ha notato la risposta su un subreddit per moderatori. In un'interazione, il chatbot ha indicato questo post: "L'eroina, ironicamente, mi ha salvato la vita in quei casi".

In un'altra domanda, ha persino suggerito il kratom, un estratto di albero illegale in diversi paesi e segnalato dalla FDA "a causa del rischio di gravi eventi avversi, tra cui tossicità epatica, convulsioni e disturbo da uso di sostanze".

Il chatbot AI di Reddit suggerisce agli utenti di provare l'eroina

Reddit Answers non è la tua IA standard. Invece di affidarsi esclusivamente a database curati, attinge dal vasto pool di contenuti generati dagli utenti di Reddit. Questo lo rende bizzarro, a volte perspicace. Ma chiaramente, non sempre sicuro.

Originariamente confinato in una scheda separata, Reddit ha testato le risposte all'interno di conversazioni regolari, ed è così che questo particolare episodio è passato inosservato... fino ad ora. Dopo che il chatbot AI di Reddit suggerisce agli utenti di provare l'eroina.

Dopo che il rapporto è diventato pubblico, Reddit ha risposto riducendo la visibilità dell'IA nelle chat sensibili relative alla salute. I moderatori non hanno avuto alcun controllo sui consigli, evidenziando quanto lo strumento sia ancora sperimentale.

Naturalmente, questo non è il primo singhiozzo dell'intelligenza artificiale di Reddit. Anche altri bot come le panoramiche sull'intelligenza artificiale di Google e ChatGPT hanno fornito indicazioni discutibili sulla salute, inclusi "suggerimenti" come l'uso di colla non tossica sulle pizze per evitare che il formaggio scivoli via.

Chiaramente, quando si tratta di consigli medici, le IA sono divertenti, ma gli esseri umani hanno ancora il sopravvento. Quindi forse non chiedergli ancora un consiglio medico.

This post is tagged as:

Notizie dal mondo


Caricamento del prossimo contenuto