L’intelligenza artificiale sta diventando il principale canale attraverso cui le persone accedono alle informazioni, ma la sua accuratezza è ancora un problema largamente irrisolto. A lanciare l’allarme è Campbell Brown, ex responsabile delle news di Meta e fondatrice di Forum AI, una startup che valuta i modelli di AI su temi complessi come geopolitica, salute mentale e finanza. Secondo Brown, i modelli attuali più utilizzati, da Gemini a ChatGPT, mostrano molti pregiudizi politici, mancanza di contesto e utilizzano spesso fonti di dubbia attendibilità.
“I miei figli rischiano di crescere male se non risolviamo questo problema”, ha dichiarato Brown, sottolineando come solo il 9% degli utenti si fidi davvero dell’AI per raccogliere informazioni sensibili. Forum AI, che ha raccolto 3 milioni di dollari in finanziamenti, punta a risolvere la questione coinvolgendo persone di calibro internazionale, tra cui Tony Blinken, ex Segretario di Stato USA, e il giornalista e saggista indiano Fareed Zakaria.
Un obiettivo ambizioso
L’obiettivo di Forum AI è addestrare dei sistemi in grado di valutare i modelli con un consenso del 90% rispetto alle visioni e alle opinioni di quegli umani. L’obiettivo è evitare che l’AI ripeta gli errori dei social media, dove l’ottimizzazione per il coinvolgimento ha portato a una disinformazione di massa. Inoltre, il progetto mira a fornire una guida chiara e attendibile per gli utenti che si affidino ai chatbot.
Brown non nasconde le criticità: “Le aziende tech parlano di rivoluzioni, ma gli utenti normali ricevono ancora risposte imprecise o fuorvianti”. La startup punta a costruire una tecnologia in grado di rendere più trasparenti le risposte generate, evitando di riprodurre errori o pregiudizi.
La sfida normativa
La sfida è anche normativa, perché le leggi attuali, come il Colorado AI Act o il NYC Local Law 144, richiedono verifiche di conformità per i pregiudizi, ma più della metà dei sistemi controllati presenta violazioni non rilevate. Secondo uno studio dell’Università di Yale, i chatbot possono influenzare le opinioni politiche degli utenti senza che questi se ne accorgano, a causa di pregiudizi latenti o di prompt non neutri.
Brown spera che siano le aziende a spingere per un’AI più trasparente: “In ambiti come credito, assunzioni o sanità, l’errore ha conseguenze legali”. La sua scommessa è che il mercato aziendale, attento ai rischi, possa essere il motore di un cambiamento che la Silicon Valley finora ha trascurato.
Un modello basato su consenso
Forum AI punta ad ottenere un consenso di livello internazionale per addestrare i propri modelli di valutazione. L’idea è di utilizzare opinioni e giudizi di esperti da tutto il mondo per fornire un feedback costruttivo ai chatbot, permettendo loro di migliorare le risposte in modo continuo.
- Creare un sistema di valutazione in grado di individuare gli errori comuni dei chatbot
- Adottare un approccio collaborativo per ridurre i pregiudizi politici e culturali
- Implementare standard trasparenti per la valutazione dell’informazione generata
- Migliorare la fiducia degli utenti attraverso una maggiore obiettività nella risposta
La tecnologia messa in atto da Forum AI potrebbe rappresentare un passo fondamentale verso un’AI più equilibrata e meno influenzabile, capace di fornire informazioni utili e attendibili. Il progetto non è solo una sfida tecnologica, ma sociale e politica, con implicazioni profonde per il futuro della diffusione dell’informazione.
