Un nuovo strumento per correggere le 'allucinazioni', per identificare e gestire i contenuti inappropriati o potenzialmente pericolosi generati dall'intelligenza artificiale in applicazioni e servizi. Lo ha lanciato Microsoft e si chiama Azure AI Content Safety.
La caratteristica principale è quella di avere delle interfacce di programmazione (le cosiddette Api) che aiutano gli sviluppatori a individuare il materiale indesiderato sia nel testo sia nelle immagini. Tra queste c'è l'Api di rilevamento della fondatezza: permette di determinare se le risposte fornite dai modelli linguistici di grandi dimensioni sono basate su materiali di origine selezionati dall'utente, uno strumento che può rivelare agli sviluppatori le cosiddette 'allucinazioni'.
La società di Redmond ha anche annunciato l'anteprima di una funzionalità che consente di correggere in tempo reale proprio le allucinazioni presenti nei risultati dell'intelligenza artificiale. Quando viene individuata una frase non esatta, il sistema invia una richiesta di correzione al modello generativo dell'IA che valuta la frase e se necessario la riscrive.
Riproduzione riservata © Copyright ANSA