Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.
Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.
Questo documento viene proposto ai lettori del sito ANSA con l’intento di fornire alcune semplici nozioni che possano essere di aiuto per una comprensione del funzionamento di alcuni strumenti di Intelligenza Artificiale oggi disponibili, basati su tecniche note con il nome di approcci generativi. Una comprensione di base dei meccanismi di funzionamento e degli obiettivi di tali strumenti, delle loro potenzialità e dei loro limiti sono fondamentali per un loro uso consapevole.
Le applicazioni di Intelligenza Artificiale possono essere molto utili e contribuire a migliorare la qualità delle nostre vite. Ma se utilizzate impropriamente possono recare danno. È molto importante essere consapevoli delle loro potenzialità e dei loro limiti.
L’espressione Intelligenza Artificiale è stata introdotta nel 1956 nell’ambito di una conferenza che aveva riunito un gruppo di scienziati con l’obiettivo di studiare il problema di rendere gli elaboratori capaci di esibire dei comportamenti assimilabili a quelli prodotti dall’intelligenza umana. In particolare, due aspetti dell’intelligenza umana sono stati da allora oggetto di studio per lo sviluppo di sistemi “intelligenti”: 1) la capacità di rappresentare conoscenza e di produrne nuova, mediante ragionamento, e 2) la capacità di apprendere.
L’Intelligenza Artificiale (IA) si basa su distinte e varie tecniche informatiche che sono utilizzate per
sviluppare applicazioni intelligenti, cioè che svolgono attività specifiche in un modo tale da esibire
qualche forma di intelligenza.
Le tecniche di intelligenza artificiale si dividono in due categorie principali: 1) tecniche per il
ragionamento automatico (automated reasoning) e 2) tecniche per l’apprendimento automatico,
(machine learning). Tra le applicazioni di IA vi sono quelle relative all’elaborazione del linguaggio
(ad esempio la traduzione automatica e i chatbot), quelle relative alla elaborazione di immagini
(ad esempio, modelli che generano una nuova immagine data una descrizione testuale o che
riconoscono in modo automatico gli oggetti presenti nell’immagine) o quelle relative alla robotica
e il controllo autonomo (ad esempio, le auto a guida autonoma).
Per intelligenza artificiale generativa si intende un sottoinsieme di tecniche di IA, che hanno come
obiettivo la generazione di testi o altri tipi di oggetti (immagini o audio) a partire da una richiesta,
una necessità; ad esempio la generazione di un riassunto di un testo fornito, la generazione di una
risposta a una domanda posta, la generazione di un’immagine corrispondente a un testo
specificato.
È importante comprendere che ciò che viene generato da un algoritmo generativo non preesiste,
ma viene creato dall’algoritmo stesso.
Questa categoria di algoritmi fa parte della più ampia classe degli algoritmi di apprendimento automatico che impara sulla base di esempi. Prima di essere in grado di elaborare qualsiasi richiesta, l’algoritmo deve essere addestrato con una ingente quantità di dati (esempi). Cosa significa addestrare un algoritmo? Significa mostrare all’algoritmo un numero significativo di esempi dai quali apprendere; ad esempio, per apprendere come generare testi in una data lingua, l’algoritmo necessita di un ingente quantità di testi da analizzare per potere apprendere come generare sequenze plausibili di parole.
Con l’espressione Large Language Model (LLM), in italiano modelli linguistici di grandi dimensioni, ci si riferisce ad algoritmi di apprendimento automatico complessi, che, sulla base dell’analisi di una ingente quantità di testi in linguaggio naturale (cioè il linguaggio comunemente parlato o scritto), apprendono come generare una sequenza plausibile di parole, tipicamente una sequenza avente senso compiuto. La fase di apprendimento sulla base dei numerosi esempi permette agli algoritmi di generare un modello linguistico che può essere utilizzato in varie applicazioni, quali gli agenti conversazionali (applicazioni che generano una risposta a una domanda o ad un testo fornito da un utente) o i sistemi di traduzione automatica di un testo da una lingua ad un’altra. Esempi di LLM sono GPT3 (e le sue evoluzioni GPT-3.5 e GPT-4), e Llama.
È un chatbot, cioè un’applicazione che permette a un utente di avviare una conversazione relativa
ad argomenti generici. L’utente fornisce un testo in linguaggio naturale, per esempio una
domanda o affermazione (chiamato prompt, in italiano suggerimento), e l’applicazione replica in
linguaggio naturale al fine di stabilire una conversazione con l’utente.
I chatbot sono basati su Large Language Model, o su altre tecniche di IA. ChatGPT è basato sul
large language model GPT 3.5 (da cui il nome, ChatGPT). È recentemente stata resa disponibile
una versione di ChatGPT basata su GPT 4.0.
I creatori di ChatGPT dichiarano di avere addestrato l’algoritmo su una vasta collezione di testi presi da varie fonti, tra cui siti web, libri e articoli accademici, contenuti di forum e social media, trascrizioni di conversazioni e dialoghi, testi di narrativa e saggi.
È molto importante non confondere le funzionalità di ChatGPT e quelle dei motori di ricerca. Un motore di ricerca (ad esempio Google), a fronte della richiesta di un utente, formulata tramite poche parole chiave, restituisce le pagine Web con contenuti pertinenti alla richiesta formulata; i contenuti delle pagine sono attribuibili al legittimo autore (chi ha generato i contenuti del sito). Al contrario, ChatGPT, a fronte di testo in linguaggio naturale fornito da un utente, reagisce generando, cioè creando, un testo in linguaggio naturale che non preesisteva.
Tra i limiti principali vi sono:
1) le cosiddette allucinazioni (generazione di testi sintatticamente
corretti, plausibili ma non veritieri, oppure incoerenti rispetto al contesto della conversazione);
2)
l’incapacità di applicare ragionamento in modo generale;
3) l’incapacità di comprendere il
significato dei testi, e la difficoltà di identificare il contesto di un discorso e di mantenerne
consapevolezza durante una conversazione;
4) l’impossibilità di generare contenuti non trattati
nei testi che sono stati analizzati dall’algoritmo in fase di addestramento. Questo ultimo limite può
portare a risposte obsolete e di conseguenza errate.
Con questa espressione, la cui traduzione letterale è “notizie false”, ci si riferisce a contenuti falsi. L’avvento dei social media ha permesso a milioni di utenti di generare contenuti che vengono condivisi con altri utenti; poiché non vi è un controllo sulla qualità di questi contenuti, questi possono essere falsi, e dare così origine a disinformazione. Le applicazioni di intelligenza artificiale generativa, con il fenomeno correlato delle allucinazioni, hanno intensificato questo fenomeno, incrementando la quantità di contenuti falsi. Le conseguenze di questo fenomeno sono importanti: utenti inesperti possono affidarsi a contenuti falsi, incorrendo così in situazioni potenzialmente rischiose (si pensi all’impatto di contenuti falsi relativi alla salute).