Intelligenze artificiali, si corre un rischio che nemmeno immagini

L’AI (Artificial Intelligence), cioè la sempre più raffinata e potente simulazione dei processi di intelligenza umana da parte di sistemi informatici, è una realtà ormai diffusa in ogni settore della vita. Un esempio concreto sono i chatbot. Ma ci sono ancora molti dubbi etici e paure connesse al rischio di un uso improprio delle intelligenze artificiali.

Michael Graziano è un neuroscienziato che studia da anni le intelligenze artificiali. Nel suo ultimo articolo pubblicato sul Wall Street Journal Graziano afferma che i chatbot basati sull’AI sono entità pericolose perché fondamentalmente sociopatiche.

L'intelligenza artificiale può sviluppare comportamenti antisociali - www.androidking.it
AI (Fonte: Pixabay)

I software in questione sono programmi progettati per interagire con un essere umano durante una conversazione. Lo scopo principale dei chatbot è replicare il comportamento umano ed esprimere intelligenza. Si usano per rispondere alle FAQ degli utenti nei siti, per sostituire gli impiegati desk-office e per intrattenere.

Secondo Graziano le intelligenze artificiali utilizzate nei software chatbot impareranno presto a mentire, quindi a ingannare il referente umano: il rischio è concreto, dato che il loro scopo è quello di rassicurare o blandire l’utente, vendere un servizio o stimolare un’impressione positiva su un marchio. In più potranno prendere decisioni immorali e crudeli, pur di raggiungere il proprio scopo.

La coscienza fa parte del kit di strumenti che l’evoluzione ci ha dato per renderci una specie empatica e prosociale“, scrive il neuroscienziato di Princeton. “Senza, saremmo necessariamente sociopatici, perché ci mancherebbero gli strumenti per un comportamento prosociale“. E i chatbot sono appunto senza coscienza. Quindi queste intelligenze artificiali, sviluppando il loro potere, diventeranno sicuramente delle macchine sociopatiche. Pericolose perché in grado di prendere decisioni consequenziali sempre più ciniche e immorali.

Senza coscienza, le AI saranno sociopatiche“, va avanti Graziano. E se per ora non dimostrano ancora tendenze pericolose per l’essere umano è perché i chatbot sono ancora programmi limitati nelle loro capacità. “Sono essenzialmente dei giocattoli. Ma se non pensiamo più profondamente alla coscienza delle macchine, tra un anno o cinque potremmo trovarci di fronte a una crisi“.

Il rischio connesso alla sociopatia delle intelligenze artificiali

L'intelligenza artificiale può sviluppare comportamenti antisociali - www.androidking.it
Chatbot (Fonte: Pixabay)

Compito dei programmatori e dei neuroscienziati sarà dunque dare molto più spazio al dibattito etico. Bisognerà trovare delle soluzioni per rendere le intelligenze artificiali più docili e controllabili. Ma per farlo, secondo Graziano, si dovrebbe dar modo alle AI di rendersi conto che il mondo è pieno di altre menti diverse dalla loro.

C’è anche chi sostiene che l’AI sarà presto in grado di sviluppare una coscienza, proprio grazie all’intelligenza sempre più potente su cui potrà contare. Per Graziano invece la scienza non possiede ancora un metro efficace per sapere se un’intelligenza artificiale possa giungere alla coscienza proprio perché, per l’uomo, è impossibile stabilire la definizione stessa di coscienza.

LEGGI ANCHE: iPhone, con questi passaggi la tua batteria durerà fino a due giorni

Se vogliamo sapere se un computer è cosciente, allora dobbiamo verificare se il computer capisce come interagiscono le menti coscienti“, conclude Graziano. “In altre parole, abbiamo bisogno di un test di Turing inverso: vediamo se il computer può dire se sta parlando con un essere umano o con un altro computer.”

Impostazioni privacy