Intelligenza artificiale, ChatGPT è diventata più “stupida”? Quali errori commette e come fare a riconoscerli

L’intelligenza artificiale ChatGPT è diventata più “stupida”, sono tanti gli errori che commette. Ecco come riconoscerli: tutto quello che c’è da sapere.

In questi ultimi mesi, sicuramente tutti, più di una volta, si sono ritrovati a sentire parlare di Chat GPT. Uno strumento di AI visto come un vantaggio per alcuni, mentre per altri come una sfida. Una nuova ricerca, però, ne ha rilevato tutti i suoi limiti e gli errori che commette nell’uso quotidiano.

errori chat intelligenza artificiale
ChatGPT è più stupida rispetto a prima -linkcoordinamentouniversitario.it

ChatGPT (Generative Pre-trained Transformer) è un modello che usa l’intelligenza artificiale ed è stata creata da OpenAI. In pratica, si tratta di uno strumento in grado di elaborare e generare un testo per rispondere a domande specifiche all’istante. Il modo in cui l’AI ha fatto irruzione in quasi tutti gli ambiti della nostra vita ci invita a riflettere sulle sfide e sulle opportunità che le sue diverse applicazioni comportano.

La novità è che ora uno studio ha rivelato come l’AI di ChatGPT starebbe diventando più “stupida”. La ricerca è stata condotta da gruppo di ricercatori di Stanford e Berkeley, i quali hanno specificato gli errori che la piattaforma commette per mancanza di accuratezza nelle risposte.

L’Intelligenza Artificiale ChatGPT: gli errori

Sono frequenti errori e confusioni quando si mette in uso l’intelligenza artificiale ChatGPT, rendendola tutt’altro che infallibile. I ricercatori hanno spiegato che l’accuratezza delle risposte date è inferiore e gli errori sono sempre più frequenti con la piattaforma.

Intelligenza artificiale ChatGPT errori
L’AI di ChatGPT è diventata meno accurata nel tempo linkcoordinamentouniversitario.it

A quanto pare, la versione rilasciata a marzo 2023 era più accurata, mentre quella di giugno 2023 è molto meno accurata. In pratica, le versioni di ChatGPT sono peggiorate nel corso del tempo. In sostanza, gli aggiornamenti hanno peggiorato le sue prestazioni, facendole diventare meno accurate.

A parlare della questione è stato Greg Gigerenzer, psicologo tedesco e direttore emerito del Center for Adaptive Behavior and Cognition al Max Planck Institute for Human Development di Berlino. L’esperto si è soffermato sull’euristica, ovvero sul modo di ragionare degli esseri umani, confrontandola con l’AI.

Lo scienziato ha spiegato che gli errori e i limiti dell’AI sono dettati dalla mancanza di intuito, una caratteristica propria degli esseri umani. La sensazione che ci dice che cosa non fare e che cosa fare in alcune situazioni manca completamente in ChatGPT. Tutte considerazioni che ci fanno capire che l’intelligenza artificiale non è sempre attendibile e che c’è bisogno ancora degli esseri umani.

Gestione cookie