Quando il chatbot deve fermarsi: Google mette un corrimano nell’era delle conversazioni con l’IA
Google introduce un modulo di aiuto per chi conversa con l’intelligenza artificiale e rafforza su Gemini le protezioni per i minori, impedendo al sistema di presentarsi come essere umano. Un segnale forte sul terreno della fiducia digitale.
Il punto non è più soltanto cosa sa fare l’intelligenza artificiale. Il punto, adesso, è come deve comportarsi quando entra nella sfera emotiva e relazionale delle persone. La mossa annunciata oggi da Google va esattamente in questa direzione. I chatbot sono usciti dalla fase curiosa e sono entrati nella vita quotidiana: assistono, suggeriscono, dialogano, simulano prossimità. È qui che la questione tecnologica si trasforma in questione civile, soprattutto quando di mezzo ci sono utenti fragili o molto giovani. Google ha presentato un modulo pensato per chiedere aiuto nel contesto delle conversazioni con l’IA e ha indicato per Gemini protezioni specifiche dedicate ai minori, tra cui il divieto per il sistema di presentarsi come un essere umano. È una scelta che riconosce apertamente un rischio: quello della confusione tra interazione artificiale, fiducia e dipendenza relazionale. La decisione può fare scuola perché sposta il baricentro del dibattito: non solo innovazione e potenza, ma responsabilità e design delle relazioni digitali. Le piattaforme, sempre più, saranno giudicate anche da questo. La notizia interessa i cittadini calabresi perché riguarda famiglie, scuole e adolescenti di oggi, non un futuro lontano. In territori dove l’educazione digitale spesso corre più lentamente della tecnologia, sapere che il tema della protezione entra finalmente nei prodotti è una questione concreta di sicurezza culturale.
Written by
Redazione 2
-U34641770174lYQ-1440x752%40IlSole24Ore-Web.jpg&w=3840&q=75)
