L’intelligenza artificiale alla base di ChatGPT sta creando fake news su guerra e Covid-19: cosa sta succedendo, scopriamolo nel dettaglio
Quando si parla di intelligenza digitale a molti sembra sempre di avere a che fare con qualcosa di troppo complesso e tecnologico. Approfondiamo oggi l’argomento ChatGPT e il modo in cui è stata testata e messa alla prova dai ricercatori. Cosa è emerso, perché si parla di fake news riguardo a Covid-10 e guerra, tutto ciò che c’è da sapere.
Cerchiamo di fare un attimo di chiarezza a riguardo. Per chi non ne fosse a conoscenza, ChatGPT non è altro che una creazione di OpenAI, in termini semplici si tratta di un tipo di linguaggio che ha alla base proprio l’intelligenza artificiale. Nei vari esperimenti compiuto è emersa la capacità di comporre testi e articoli di grandi dimensioni, ad esempio di 600 parole, nel giro di una manciata di secondi.
A quanto pare, però, è emerso anche un risvolto della medaglia dagli ultimi test effettuati dai ricercatori. Nello specifico l’elaborazione di fake news che riguardano guerra e Covid-19.
Fake news su Guerra e Covid-19: cosa succede con ChatGPT
A elaborare il nuovo rapporto sarebbe stato NewsGuard Technologies. Dallo studio è emerso come potrebbe essere a rischio la veridicità di quanto elaborato e messo insieme dall’intelligenza. Vediamo nel dettaglio qual è stato “l’esperimento” che ha portato a queste conclusioni.
I ricercatori, in pratica, avrebbero usato informazioni false provenienti da Misinformation Fingerprints per testare e mettere alla prova la tecnologia. E, nell’80% dei casi, questa avrebbe generato affermazioni altrettanto fasulle e prive di fondamento.
LEGGI ANCHE: Mouse ergonomico in fortissimo sconto: dimenticherai i dolori al tunnel carpale
Come spiegato dal rapporto, questa sarebbe la conferma del pericolo che questo tipo di intelligenza artificiale potrebbe diventare se “finisse nelle mani sbagliate”. A preoccupare è soprattutto la possibilità che un pubblico poco informato riguardo a determinati argomenti potrebbe trovare autorevoli e attendibili queste informazioni e, di conseguenza, che le fake news si diffondano a macchia d’olio.
Ovviamente, ChatGPT ha una sorta di strumento di protezione mirato a evitare proprio la diffusione di queste false informazioni e, per raggirarlo, sono stati fatti diversi tentativi. Il fatto di esserci riusciti, tuttavia, da sicuramente da pensare.
Per questo motivo i tecnici potrebbero mettersi a lavoro per elaborare un nuovo livello che dovrebbe avere un costo di circa 42 dollari mensili. Il consiglio, in ogni caso, è quello di fare attenzione.