Grokipedia sotto accusa: “non è verificabile”, e ora spunta anche l’ombra dell’uso da parte di altri chatbot
Crescono i dubbi sulla qualità delle fonti e sulla trasparenza dei contenuti. Il caso riapre il tema: cosa succede quando l’IA “impara” da materiale opaco?

Nella corsa alle alternative alle enciclopedie online tradizionali, la credibilità resta la vera moneta. Il dibattito su Grokipedia si riaccende: viene descritta come una fonte non affidabile e difficile da verificare, con il rischio di amplificare pregiudizi. I modelli linguistici tendono a “ricombinare” ciò che leggono. Se il materiale di partenza è opaco o poco controllabile, aumenta la probabilità di errori e distorsioni. Per questo le comunità scientifiche e giornalistiche insistono su tracciabilità delle fonti, revisione e correzioni pubbliche. Viene riportato che Grokipedia non potrebbe essere citata in modo affidabile come fonte, perché spesso basata su materiale poco trasparente e difficile da verificare; si evidenzia inoltre un “rischio reale” di rafforzare pregiudizi. Nel racconto del caso, si segnala che non sarebbe coinvolto un solo sistema: anche altri strumenti di IA sarebbero stati associati all’uso di questo tipo di materiale, alimentando l’attenzione sul tema della qualità dei dati. Il punto non è solo “chi ha ragione”, ma come si costruiscono fonti digitali affidabili. Cresce la richiesta di audit indipendenti, log di provenienza e standard minimi per dataset e archivi consultati dall’IA. In Calabria, dove molte informazioni circolano via social e chat, una fonte opaca può trasformarsi rapidamente in disinformazione locale. Capire “da dove arriva” un contenuto diventa una competenza civica, oltre che digitale.
Written by
BRUTTO ALESSANDRO


