Da qualche tempo ormai gli utenti di ChatGPT che usano il modello GPT-4 di OpenAI lamentano una certa “pigrizia” da parte dell’intelligenza artificiale, che si rifiuta di seguire le istruzioni e non fornisce risposte esaustive, rivelandosi in certi scenari anche estremamente ripetitiva e poco fantasiosa.
Le discussioni sono comparse sia su Reddit che direttamente sul forum per gli sviluppatori di OpenAI. Secondo alcuni dei report, quando si chiede una parte di codice l’IA da delle informazioni basilari e spiega come scriverlo, anziché fornire direttamente il codice come output, esattamente come accadeva in precedenza. Altri lamentano un “atteggiamento sfrontato” del chatbot, le cui risposte implicano che gli utenti sono in grado di gestire il lavoro anche da soli.
Qualcuno ha supposto che si trattasse di cambiamenti intenzionali, inseriti per migliorare l’efficienza dell'IA, ma non sembra essere così considerando che OpenAI ha aperto un’indagine in merito. L’azienda ha infatti dichiarato: “Abbiamo ricevuto i vostri feedback su GPT-4 che diventa pigro! Non aggiorniamo il modello dall’11 novembre e non è un cambiamento intenzionale. Il comportamento del modello può essere imprevedibile e stiamo cercando di risolvere il problema”.
Utenti e sviluppatori sono in attesa di novità da parte della società, nella speranza che faccia luce su questi nuovi problemi in tempi brevi e che offra una soluzione, così che ChatGPT rimanga un’IA affidabile, efficiente ed esaustiva.