Secondo un rapporto di TechCrunch basato su dati di OpenAI, i modelli di intelligenza artificiale ChatGPT o3 e o4-mini di ultima generazione presentano un`incidenza di “allucinazioni” doppia rispetto alle versioni precedenti e meno sofisticate.
Nel contesto delle reti neurali, le “allucinazioni” si riferiscono a risposte non veritiere che l`IA fornisce con assoluta certezza. In particolare, durante il test PersonQA, che valuta la conoscenza di ChatGPT sulle persone, o3 ha mostrato allucinazioni nel 33% dei casi, e o4-mini nel 43% delle richieste. In confronto, il modello o3-mini ha registrato un tasso inferiore al 15%.
Un altro test, chiamato Transluce e condotto da uno sviluppatore indipendente, ha evidenziato come il modello o3 tenda a inventare le proprie azioni. Ad esempio, in risposta a una domanda, l`IA ha affermato di aver eseguito codice программный su un Apple MacBook Pro 2021 “al di fuori di ChatGPT” e di aver copiato numeri nella sua risposta. Tuttavia, in realtà, l`algoritmo non le offre tali capacità.
Una possibile soluzione per ridurre le allucinazioni è fornire all`IA la possibilità di utilizzare la ricerca web, dove le informazioni affidabili sono più facilmente reperibili. Questo approccio si è dimostrato efficace nel modello o4 non raziocinante, e gli sviluppatori sperano che possa essere utile anche per le intelligenze artificiali più avanzate.