ChatGpt diventa anche controllore di se stesso. I ricercatori di OpenAI hanno infatti lanciato CriticGpt, un nuovo modello di intelligenza artificiale progettato per identificare errori nel codice generato dal chatbot. L'obiettivo è migliorare il processo di controllo dei revisori umani a rendere più accurati i risultati del modello linguistico.
Come spiegato dal documento intitolato 'Llm Critics Help Catch Llm Bugs', OpenAI ha creato CriticGpt per fungere da assistente ai formatori umani che esaminano il codice di programmazione generato da ChatGpt. CriticGpt si basa su Gpt-4, analizza il codice e segnala potenziali errori. I ricercatori lo hanno addestrato su un set di dati inserendo dei bug intenzionalmente e insegnando così al sistema a riconoscere e segnalare vari errori di codifica. Hanno scoperto che le critiche di CriticGpt erano preferite rispetto alle critiche umane nel 63% dei casi. Questo processo ha consentito al modello di apprendere come identificare e criticare vari tipi di errori di codifica.
Nonostante i risultati, come tutti i modelli di intelligenza artificiale, CriticGpt presenta dei limiti, fa notare la testata specializzata Ars Technica. Il modello è stato infatti addestrato su risposte di ChatGpt relativamente brevi che potrebbero non bastare completamente alla valutazione di compiti più lunghi e complessi che i futuri sistemi di intelligenza artificiale dovranno affrontare.
Riproduzione riservata © Copyright ANSA