ChatGPT ora è un pericolo: sta creando fake news su guerra e Covid-19

L’intelligenza artificiale alla base di ChatGPT sta creando fake news su guerra e Covid-19: cosa sta succedendo, scopriamolo nel dettaglio

Quando si parla di intelligenza digitale a molti sembra sempre di avere a che fare con qualcosa di troppo complesso e tecnologico. Approfondiamo oggi l’argomento ChatGPT e il modo in cui è stata testata e messa alla prova dai ricercatori. Cosa è emerso, perché si parla di fake news riguardo a Covid-10 e guerra, tutto ciò che c’è da sapere.

ChatGPT cosa succede
ChatGPT cosa succede andoridking.it (credits pixabay)

Cerchiamo di fare un attimo di chiarezza a riguardo. Per chi non ne fosse a conoscenza, ChatGPT non è altro che una creazione di OpenAI, in termini semplici si tratta di un tipo di linguaggio che ha alla base proprio l’intelligenza artificiale. Nei vari esperimenti compiuto è emersa la capacità di comporre testi e articoli di grandi dimensioni, ad esempio di 600 parole, nel giro di una manciata di secondi.

A quanto pare, però, è emerso anche un risvolto della medaglia dagli ultimi test effettuati dai ricercatori. Nello specifico l’elaborazione di fake news che riguardano guerra e Covid-19.

Fake news su Guerra e Covid-19: cosa succede con ChatGPT

Chat GPT fake news
Chat GPT fake news androidking.it (credits pixabay)

A elaborare il nuovo rapporto sarebbe stato NewsGuard Technologies. Dallo studio è emerso come potrebbe essere a rischio la veridicità di quanto elaborato e messo insieme dall’intelligenza. Vediamo nel dettaglio qual è stato “l’esperimento” che ha portato a queste conclusioni.

I ricercatori, in pratica, avrebbero usato informazioni false provenienti da Misinformation Fingerprints per testare e mettere alla prova la tecnologia. E, nell’80% dei casi, questa avrebbe generato affermazioni altrettanto fasulle e prive di fondamento.

LEGGI ANCHE: Mouse ergonomico in fortissimo sconto: dimenticherai i dolori al tunnel carpale

Come spiegato dal rapporto, questa sarebbe la conferma del pericolo che questo tipo di intelligenza artificiale potrebbe diventare se “finisse nelle mani sbagliate”. A preoccupare è soprattutto la possibilità che un pubblico poco informato riguardo a determinati argomenti potrebbe trovare autorevoli e attendibili queste informazioni e, di conseguenza, che le fake news si diffondano a macchia d’olio.

Ovviamente, ChatGPT ha una sorta di strumento di protezione mirato a evitare proprio la diffusione di queste false informazioni e, per raggirarlo, sono stati fatti diversi tentativi. Il fatto di esserci riusciti, tuttavia, da sicuramente da pensare.

Per questo motivo i tecnici potrebbero mettersi a lavoro per elaborare un nuovo livello che dovrebbe avere un costo di circa 42 dollari mensili. Il consiglio, in ogni caso, è quello di fare attenzione.

Impostazioni privacy