Home Politica Ecco perché ricorrere all’intelligenza artificiale per addestrare le future IA potrebbe essere...

Ecco perché ricorrere all’intelligenza artificiale per addestrare le future IA potrebbe essere una cattiva idea

8
0

ChatGPT, Gemini, Copilot e altri strumenti di intelligenza artificiale creano frasi e paragrafi impressionanti da una semplice riga di testo. Per generare quelle parole, i grandi modelli linguistici sottostanti sono stati addestrati su risme di testo scritto da esseri umani e recuperato da Internet. Ma ora, poiché gli strumenti di intelligenza artificiale generativa inondano Internet con una grande quantità di contenuti sintetici, tali contenuti vengono utilizzati per addestrare le future generazioni di tali IA. Se ciò continua senza controllo, potrebbe essere disastroso, dicono i ricercatori.

L’addestramento di grandi modelli linguistici sui propri dati potrebbe portare al collasso del modello, hanno recentemente sostenuto in un articolo lo scienziato informatico dell’Università di Oxford Ilia Shumailov e i suoi colleghi. Natura.

Il collasso del modello sembra sorprendente, ma ciò non significa che l’intelligenza artificiale generativa smetterebbe di funzionare. Invece, le risposte degli strumenti si sposterebbero sempre più dai dati di addestramento originali. Sebbene a volte distorti, i dati originali sono una rappresentazione decente della realtà. Ma man mano che gli strumenti si addestrano sui dati generati, i piccoli errori che commettono si sommano e i loro contenuti alla fine perdono la sfumatura delle diverse prospettive e si trasformano in incomprensibili.

Questo è ciò che hanno scoperto Shumailov e colleghi. Il team ha preso un modello linguistico pre-addestrato, chiamato OPT-125m, e gli ha fornito una serie di articoli di Wikipedia per ottimizzare le sue risposte. Il team ha quindi fornito a questo strumento un messaggio di testo e gli ha chiesto di prevedere cosa sarebbe successo dopo. La sua risposta è stata reinserita nel modello per un’ulteriore messa a punto. Quando ogni generazione successiva è stata addestrata con i dati generati dalla precedente, hanno scoperto che alla nona generazione il modello non aveva più senso. Quello che era iniziato come un suggerimento sull’architettura del XIV secolo si è concluso con un elenco di tipi di lepri. In un’altra serie di esperimenti, quando il team ha conservato alcuni dei dati originali, il degrado del modello è stato minore.

Questo studio dimostra che addestrare l’intelligenza artificiale sulle proprie risposte avrebbe gravi conseguenze, tra cui l’esacerbazione dei pregiudizi e la trasformazione del testo in una sciocchezza, se lasciato senza controllo. Le grandi aziende di intelligenza artificiale hanno modi per prevenire questo tipo di collasso, ma poiché sempre più persone iniziano a utilizzare modelli linguistici per addestrare i propri chatbot e altre IA, potrebbero esserci delle conseguenze.

Come potrebbero crollare i modelli di intelligenza artificiale generativa?

I modelli linguistici e l’intelligenza artificiale generativa esistono da decenni, soprattutto nei laboratori di informatica. Ma il predominio dei chatbot è più recente, a partire dal novembre 2022, quando ChatGPT è stato rilasciato per uso pubblico. La chiave di questo dominio è stata una combinazione di hardware migliore in grado di elaborare le informazioni in parallelo, più l’avvento del trasformatore, un tipo di rete neurale, e la disponibilità di trilioni di punti dati di alta qualità creati dall’uomo.

“Ciò che il collasso del modello suggerisce è che forse la qualità dei dati (sia in entrata che in uscita) diminuirà”, afferma Shumailov.

Quello che era iniziato come un suggerimento sull’architettura del XIV secolo si è concluso con un elenco di tipi di lepri.

Per capire perché, immaginiamo di spiegare a un programma per computer cos’è un gatto, dice Shumailov. “Non sappiamo davvero come (farlo)… quindi diamo (al LLM) una serie di esempi (descrizioni testuali) di cosa sia un gatto e poi chiediamo al modello di imparare a definire questa creatura.” Il LLM lo fa senza supervisione o istruzioni esplicite, estrapolando dal dato insieme di osservazioni.

Ma tale estrapolazione comporta sottili errori. Shumailov lo paragona a un gioco del telefono, in cui una frase viene sussurrata da una persona all’altra fino a raggiungere l’ultima persona, che poi la dice ad alta voce. La frase originale spesso finisce per essere gravemente distorta a causa degli errori introdotti lungo il percorso. Ciò fa avere allucinazioni ai LLM, generando contenuti plausibili che non sono del tutto corretti (SN: 2/1/24).

Se tale contenuto errato viene utilizzato per addestrare una versione successiva del modello o un altro modello interamente, quel contenuto inizierà a influenzare i processi di apprendimento di tali modelli e alla fine li “interromperà” in qualche modo.

Come sarebbe il collasso dei modelli di intelligenza artificiale nella vita reale?

Il collasso del modello si riferisce essenzialmente a un allontanamento dal testo originale utilizzato per addestrare i modelli, afferma Leqi Liu, ricercatore di intelligenza artificiale presso l’Università del Texas ad Austin. Uno dei motivi di ciò è la scomparsa delle code di distribuzione dei dati, testo che rappresenta eventi a bassa probabilità. Ad esempio, utilizzando l’esempio dei gatti, il modello potrebbe diventare molto bravo nel descrivere i gatti pelosi ma non riuscire a conservare le informazioni su quelli senza pelo.

Un altro esempio, dice Liu, è che le persone appartenenti a gruppi minoritari possono esprimere le cose in modo diverso, e quel tipo di testo apparirà sempre meno, mettendo ulteriormente da parte i dati relativi alle persone emarginate. Questo è il cambiamento che probabilmente vedremo come utenti finali. L’effetto a valle sarà che i contenuti generati dall’intelligenza artificiale non solo amplificheranno i pregiudizi, come mostrano gli studi, ma inizieranno anche a sembrare uguali. “Naturalmente, probabilmente desideriamo espressioni diverse di noi stessi, ma se utilizziamo lo stesso assistente alla scrittura, ciò potrebbe ridurre tale diversità.”

Per evitare che l’intelligenza artificiale aumenti i pregiudizi o si rompa e dica parole senza senso, è importante tenere traccia di tutti i dati e assicurarsi che la conoscenza precedente (compreso il testo generato dall’uomo) così come la nuova conoscenza (testo generato dall’intelligenza artificiale) vengano utilizzate per la formazione, Liu dice. Fondamentalmente, l’idea sarebbe quella di non addestrare nuovi modelli solo con dati generati dall’intelligenza artificiale. “Un altro approccio potrebbe essere quello di assicurarci esplicitamente di catturare la coda della distribuzione”. Quei gatti senza pelo, per esempio.

Dato che le aziende che commercializzano strumenti di intelligenza artificiale controllano attentamente la deriva dei dati, eventuali problemi verrebbero notati precocemente e potrebbero essere risolti. Pertanto, è improbabile che la possibilità di un collasso del modello influenzi gli utenti a valle, afferma Shumailov. Ma le persone che tentano di costruire modelli su scala più piccola ne sarebbero sicuramente influenzate e devono essere consapevoli del rischio.


Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here