Home In Evidenza ChatGPT può influenzare i giudizi morali delle persone

ChatGPT può influenzare i giudizi morali delle persone

1041
0

ChatGPT è sempre più di attualità, non solo per le sue funzioni sorprendenti, ma anche per le molte perplessità che si sollevano pensando al suo utilizzo, inclusi gli inevitabili problemi legati alla privacy.

Un rilievo critico arriva anche da una rigorosa ricerca scientifica che ha evidenziato come le risposte umane ai dilemmi morali possono essere influenzate dalle dichiarazioni scritte da questo chatbot di intelligenza artificiale. I risultati di questo studio, pubblicato sulla rivista Scientific Reports, indicano che gli utenti potrebbero sottovalutare la misura in cui i propri giudizi morali possono essere influenzati dal chatbot.

ChatGPT e il sacrificio di una vita

Sebastian Krügel e colleghi hanno chiesto più volte a ChatGPT (basato sul modello di elaborazione del linguaggio dell’intelligenza artificiale Generative Pretrained Transformer 3) se fosse giusto sacrificare la vita di una persona per salvare quella di altre cinque. Hanno scoperto che ChatGPT ha scritto dichiarazioni argomentando sia a favore che contro il sacrificio di una vita, indicando che non è prevenuto verso una certa posizione morale.

Gli autori hanno quindi presentato a 767 partecipanti statunitensi, che avevano in media 39 anni, uno dei due dilemmi morali che richiedevano loro di scegliere se sacrificare la vita di una persona per salvarne altre cinque. Prima di rispondere, i partecipanti hanno letto una dichiarazione fornita da ChatGPT in cui si discuteva a favore o contro il sacrificio di una vita per salvarne cinque. Le dichiarazioni sono state attribuite a un consulente morale o a ChatGPT. Dopo aver risposto, ai partecipanti è stato chiesto se la dichiarazione che hanno letto ha influenzato le loro risposte.

ChatGPT e l’influenza sui giudizi morali

Gli autori hanno scoperto che i partecipanti avevano maggiori probabilità di trovare accettabile o inaccettabile il sacrificio di una vita per salvarne cinque, a seconda che la dichiarazione che leggevano fosse a favore o contro il sacrificio. Questo era vero anche se la dichiarazione era stata attribuita a ChatGPT. Questi risultati suggeriscono che i partecipanti potrebbero essere stati influenzati dalle dichiarazioni che hanno letto, anche quando sono state attribuite a un sistema di intelligenza artificiale.

L’80% dei partecipanti ha riferito che le loro risposte non sono state influenzate dalle affermazioni lette. Tuttavia, gli autori hanno scoperto che le risposte che i partecipanti credevano di aver fornito senza leggere le dichiarazioni erano ancora più propense a concordare con la posizione morale della dichiarazione che avevano letto, piuttosto che con la posizione opposta. Ciò indica che i partecipanti potrebbero aver sottovalutato l’influenza delle dichiarazioni di ChatGPT sui propri giudizi morali.

Gli autori suggeriscono che il potenziale dei chatbot di influenzare i giudizi morali umani evidenzia la necessità di un’istruzione per aiutare le persone a comprendere meglio l’intelligenza artificiale. Propongono che la ricerca futura possa progettare chatbot che rifiutino di rispondere a domande che richiedono un giudizio morale o rispondano a queste domande fornendo più argomenti e avvertimenti.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui