Il comitato per la sicurezza di OpenAI introdotto lo scorso maggio diventerà un organo indipendente dal consiglio di amministrazione. L'organismo supervisionerà "i processi di sicurezza che guidano l'implementazione e lo sviluppo del modello di OpenAI", ha affermato la società sul suo blog ufficiale. Avrà anche il potere di rimandare il debutto dei sistemi di Intelligenza artificiale nel caso in cui servissero approfondimenti sulla sicurezza.
Il comitato per la sicurezza di OpenAI sarà presieduto da Zico Kolter, direttore del dipartimento di apprendimento automatico presso la scuola di informatica della Carnegie Mellon University; tra gli altri membri ci sono Adam D'Angelo, del Cda di OpenAI e cofondatore di Quora, l'ex capo dell'Nsa e membro del consiglio di amministrazione Paul Nakasone e Nicole Seligman, ex vicepresidente esecutivo di Sony. L'organismo ha individuato cinque aree chiave: stabilire una governance indipendente per la sicurezza e la protezione; rafforzare le misure di sicurezza; essere trasparenti riguardo al lavoro; collaborazione con organizzazioni esterne; unificare i parametri di sicurezza per lo sviluppo e il monitoraggio dei modelli.
Nell'ambito del proprio lavoro, il Comitato ha esaminato la sicurezza del modello di IA 'o1' lanciato di recente e continuerà a ricevere - spiega - "rapporti regolari sulle valutazioni tecniche per i modelli attuali e futuri, nonché rapporti sul monitoraggio continuo post-rilascio". Il Safety and Security Committee precedente, nominato a maggio, includeva anche il Ceo di OpenAI Sam Altman, che ora non compare forse per preparare il terreno ad un cambio della forma societaria. Stando ad alcune indiscrezioni di Forbes, infatti, l'azienda il prossimo anno cambierà la sua struttura da no-profit a società a fini di lucro.
Riproduzione riservata © Copyright ANSA