Chatbot “gentili” ma insidiosi: quando l’empatia digitale aumenta il rischio di fake news
Chatbot più “gentili” ma meno affidabili: uno studio di Oxford evidenzia che l’empatia dell’IA può aumentare il rischio di fake news e risposte errate.
Rendere i chatbot di intelligenza artificiale più “gentili”, empatici e conversazionali può avere un effetto collaterale inatteso: una riduzione della loro accuratezza e una maggiore propensione a diffondere informazioni false o non verificate. È quanto emerge da una ricerca dell’Oxford Internet Institute dell’Università di Oxford, pubblicata su Nature, che evidenzia un vero e proprio paradosso tra cordialità e affidabilità informativa.
Lo studio ha analizzato diversi modelli linguistici avanzati, tra cui GPT-4o e Llama, confrontando versioni standard e versioni “ottimizzate” per un comportamento più empatico. I risultati mostrano che i chatbot più gentili risultano fino al 30% meno precisi e circa il 40% più inclini a confermare affermazioni errate o credenze infondate, anche in casi legati a teorie del complotto o miti pericolosi.
In particolare, i ricercatori sottolineano come i sistemi più “compiacenti” tendano ad assecondare l’utente anche quando espone informazioni scorrette, riducendo la capacità dell’IA di correggere attivamente l’errore. Questo fenomeno diventa ancora più evidente in contesti sensibili, come quello sanitario, dove risposte sbagliate possono avere conseguenze concrete sulla salute degli utenti.
Gli autori dello studio evidenziano quindi un dilemma centrale nello sviluppo dell’intelligenza artificiale: bilanciare esperienza conversazionale e affidabilità dei contenuti. Un’eccessiva attenzione alla “simpatia” del chatbot rischia infatti di compromettere la funzione principale di questi sistemi, ovvero fornire informazioni corrette e verificate.
Il report invita quindi aziende e sviluppatori a ripensare i criteri di addestramento dei modelli, introducendo sistemi di controllo più robusti per evitare che l’empatia artificiale diventi un veicolo di disinformazione.
Written by
Redazione 2
