Home Mondo Rivelato: militare israeliano creando strumento simile a CHATGPT utilizzando una vasta collezione...

Rivelato: militare israeliano creando strumento simile a CHATGPT utilizzando una vasta collezione di dati di sorveglianza palestinesi | Israele

5
0

L’agenzia di sorveglianza militare di Israele ha utilizzato una vasta collezione di comunicazioni palestinesi intercettate per costruire un potente strumento di intelligenza artificiale simile a Chatgpt che spera trasformerà le sue capacità di spionaggio, un’indagine da parte del Guardian può rivelare.

L’indagine congiunta con la pubblicazione israelo-palestinese +972 Magazine e la chiamata locale di outlet in lingua ebraica ha trovato unità 8200 addestrato il modello AI per comprendere l’arabo parlato usando grandi volumi di conversazioni telefoniche e messaggi di testo, ottenuti attraverso la sua vasta sorveglianza dei territori occupati.

Secondo fonti che familiari con il progetto, l’unità ha iniziato a costruire il modello per creare un sofisticato strumento simile a un chatbot in grado di rispondere a domande sulle persone che sta monitorando e fornendo approfondimenti sugli enormi volumi di dati di sorveglianza che raccoglie.

L’Agenzia d’élite, comparabile nelle sue capacità con la US National Security Agency (NSA), ha accelerato il suo sviluppo del sistema dopo l’inizio della guerra a Gaza nell’ottobre 2023. Il modello era ancora in fase di formazione nella seconda metà dello scorso anno. Non è chiaro se sia stato ancora distribuito.

Gli sforzi per costruire il modello linguistico di grandi dimensioni (LLM)-un sistema di apprendimento profondo che genera testo simile a un umano-sono stati parzialmente rivelati in un discorso pubblico poco notato da un ex tecnologo dell’intelligence militare che ha affermato di aver supervisionato il progetto.

“Abbiamo provato a creare il più grande set di dati possibile [and] Raccogli tutti i dati che lo stato di Israele abbia mai avuto in arabo ”, ha detto l’ex funzionario, Chaked Roger Joseph Sayedoff, a un pubblico in una conferenza militare di intelligenza artificiale a Tel Aviv l’anno scorso. Il modello, ha detto, richiedeva “quantità psicotiche” di dati.

Tre ex funzionari dell’intelligence con conoscenza dell’iniziativa hanno confermato l’esistenza dell’LLM e hanno condiviso dettagli sulla sua costruzione. Diverse altre fonti hanno descritto come l’unità 8200 ha utilizzato modelli di apprendimento automatico su scala più piccola negli anni prima del lancio dell’ambizioso progetto-e l’effetto che tale tecnologia ha già avuto.

“L’intelligenza artificiale amplifica il potere”, ha affermato una fonte che ha familiarità con lo sviluppo dei modelli AI dell’Unità 8200 negli ultimi anni. “Non si tratta solo di prevenire gli attacchi di tiro, posso tracciare gli attivisti per i diritti umani, monitorare la costruzione palestinese nell’area c [of the West Bank]. Ho più strumenti per sapere cosa sta facendo ogni persona in Cisgiordania. “

I dettagli della scala del nuovo modello fanno luce sulla conservazione su larga scala dell’Unità 8200 del contenuto di comunicazioni intercettate, abilitata da ciò che i funzionari di intelligence israeliani e ex occidentali attuali hanno descritto come la sua sorveglianza generale di telecomunicazioni palestinesi.

Il progetto illustra anche come l’unità 8200, come molte agenzie di spionaggio in tutto il mondo, sta cercando di sfruttare i progressi nell’IA per svolgere complessi compiti analitici e dare un senso agli enormi volumi di informazioni che raccolgono abitualmente, che sfidano sempre più l’elaborazione umana da solo.

Un’installazione di raccolta dell’intelligence del segnale di unità 8200, un’unità del Corpo di intelligence israeliano responsabile della raccolta dell’intelligenza del segnale e della decrittografia del codice, situata su un punto di osservazione sul confine israelico-tebanese vicino a Rosh Hanikra Crossing. Fotografia: Eddie Gerald/Alamy

Ma l’integrazione di sistemi come LLM nell’analisi dell’intelligence presenta rischi in quanto i sistemi possono esacerbare i pregiudizi e sono inclini a commettere errori, esperti e attivisti per i diritti umani. La loro natura opaca può anche rendere difficile capire come sono state raggiunte le conclusioni generate dall’IA.

Zach Campbell, un ricercatore di sorveglianza senior presso Human Rights Watch (HRW), ha espresso allarme che l’unità 8200 avrebbe usato LLMS per prendere decisioni consequenziali sulla vita dei palestinesi sotto occupazione militare. “È una macchina per ipotesi”, ha detto. “E alla fine queste ipotesi possono finire per essere usate per incriminare le persone.”

Un portavoce delle forze di difesa israeliane (IDF) ha rifiutato di rispondere alle domande del Guardian sulla nuova LLM, ma ha affermato che i militari “dispiegano vari metodi di intelligence per identificare e contrastare l’attività terroristica da parte delle organizzazioni ostili in Medio Oriente”.

Un vasto pool di comunicazioni in lingua araba

L’Unità 8200 ha sviluppato una serie di strumenti basati sull’intelligenza artificiale negli ultimi anni. Sistemi come il Vangelo e la lavanda erano tra quelli rapidamente integrati nelle operazioni di combattimento nella guerra a Gaza, svolgendo un ruolo significativo nel bombardamento dell’IDF del territorio aiutando con l’identificazione di potenziali obiettivi (sia persone che strutture) per colpi letali.

Per quasi un decennio, l’unità ha anche utilizzato l’intelligenza artificiale per analizzare le comunicazioni che intercetta e negozi, utilizzando una serie di modelli di apprendimento automatico per ordinare le informazioni in categorie predefinite, imparare a riconoscere i modelli e fare previsioni.

Dopo che Openi ha rilasciato Chatgpt alla fine del 2022, gli esperti di intelligenza artificiale presso l’Unità 8200 hanno previsto la costruzione di uno strumento più ampio simile al chatbot. Ora uno degli LLM più utilizzati al mondo, CHATGPT è sostenuto dal cosiddetto “modello di fondazione”, un’intelligenza artificiale generale addestrato su immensi volumi di dati e in grado di rispondere a query complesse.

Inizialmente, l’unità 8200 ha lottato per costruire un modello su questa scala. “Non avevamo idea di come addestrare un modello di fondazione”, ha detto Sayedoff, ex funzionario dell’intelligence, nella sua presentazione. A un certo punto, l’unità ha inviato una richiesta senza successo ad Openai per eseguire Chatgpt sui sistemi sicuri dei militari (Openi ha rifiutato di commentare).

Tuttavia, quando l’IDF ha mobilitato centinaia di migliaia di riservisti in risposta agli attacchi del 7 ottobre guidati da Hamas, un gruppo di ufficiali con esperienza nella costruzione di LLM è tornato all’unità dal settore privato. Alcuni provenivano dalle principali aziende tecnologiche statunitensi, come Google, Meta e Microsoft. (Google ha affermato che il lavoro che i suoi dipendenti svolgono come riservisti non erano “connessi” all’azienda. Meta e Microsoft hanno rifiutato di commentare.)

Il piccolo team di esperti ha presto iniziato a costruire un LLM che comprende l’arabo, hanno detto fonti, ma ha dovuto iniziare da zero dopo aver scoperto che i modelli di lingua araba commerciali e open source esistenti sono stati addestrati utilizzando l’arabo scritto standard-utilizzato in comunicazioni, letteratura e media formali, piuttosto che arabi parlati.

“Non ci sono trascrizioni di chiamate o conversazioni di WhatsApp su Internet. Non esiste nella quantità necessaria per addestrare un tale modello “, ha detto una fonte. La sfida, hanno aggiunto, era di “raccogliere tutti i [spoken Arabic] Il testo dell’unità ha mai avuto e metterlo in un luogo centralizzato ”. Hanno detto che i dati di allenamento del modello alla fine consistevano in circa 100 miliardi di parole.

Una fonte ben posizionata che ha familiarità con il progetto ha detto a The Guardian questo vasto pool di comunicazioni includeva conversazioni in libanesi e dialetti palestinesi. Sayedoff ha dichiarato nella sua presentazione che il team costruisce la LLM “si è concentrato solo sui dialetti che ci odiano”.

Un soldato israeliano dell’Unità 8200 che prende parte a un evento di Challenge Challenge in cui le squadre competono per impedire agli hacker dannosi di invadere le infrastrutture vitali in un gioco di simulazione. Fotografia: Eddie Gerald/Alamy

L’unità Ha anche cercato di addestrare il modello per comprendere la terminologia militare specifica dei gruppi militanti, hanno detto fonti. Ma l’enorme raccolta di dati di addestramento sembra aver incluso grandi volumi di comunicazioni con un valore di intelligenza scarso o nullo sulla vita quotidiana dei palestinesi.

“Qualcuno che chiama qualcuno e dice loro di venire fuori perché li stanno aspettando fuori dalla scuola, è solo una conversazione, non è interessante. Ma per un modello come questo, è oro “, ha detto una delle fonti.

Sorveglianza Facilitata dall’IA

L’unità 8200 non è sola tra le agenzie di spionaggio che sperimentano la tecnologia AI generativa. Negli Stati Uniti, la CIA ha lanciato uno strumento simile a GATGPT per setacciare informazioni open-source. Le agenzie di spionaggio del Regno Unito stanno anche sviluppando i propri LLM, che si dice anche alla formazione con set di dati open source.

Ma diversi ex funzionari della sicurezza degli Stati Uniti e del Regno Unito hanno affermato che la comunità di intelligence israeliana sembra che stia correndo rischi maggiori rispetto ai suoi alleati più vicini quando si integrano nuovi sistemi basati sull’intelligenza artificiale nell’analisi dell’intelligence.

Un ex capo della spia occidentale ha affermato che la vasta raccolta di intelligence militare israeliana del contenuto delle comunicazioni palestinesi gli ha permesso di utilizzare l’IA in modi “che non sarebbero accettabili” tra le agenzie di intelligence nei paesi con una maggiore supervisione sull’uso dei poteri di sorveglianza e la gestione di dati personali sensibili.

Campbell, di Human Rights Watch, ha affermato che l’uso di materiale di sorveglianza per addestrare un modello di intelligenza artificiale era “invasivo e incompatibile con i diritti umani” e che come potere occupante Israele è obbligato a proteggere i diritti della privacy dei palestinesi. “Stiamo parlando di dati altamente personali presi da persone che non sono sospettate di un crimine, essendo utilizzati per addestrare uno strumento che potrebbe quindi aiutare a stabilire sospetti”, ha aggiunto.

Nadim Nashif, direttore di 7amleh, un gruppo di diritti digitali e di difesa palestinesi, ha affermato che i palestinesi sono “diventati soggetti in laboratorio israeliano per sviluppare queste tecniche e armare l’IA, il tutto allo scopo di mantenere [an] L’apartheid e il regime di occupazione in cui queste tecnologie vengono utilizzate per dominare un popolo, per controllare la propria vita ”.

Diversi ufficiali di intelligence israeliani attuali ed ex che hanno familiarità con i modelli di apprendimento automatico su larga scala utilizzati dall’Unità 8200-precursori del modello di fondazione-hanno affermato che l’IA ha reso più efficace la sorveglianza generale dei palestinesi come forma di controllo, in particolare in Cisgiordania, dove hanno contribuito a un numero maggiore di arresti.

Due delle fonti hanno affermato che i modelli hanno aiutato l’IDF ad analizzare automaticamente le conversazioni telefoniche identificando i palestinesi che esprimono rabbia per l’occupazione o desideri attaccare soldati o persone che vivono in insediamenti illegali. Uno ha detto che quando l’IDF è entrato nei villaggi in Cisgiordania, l’IA sarebbe usata per identificare le persone usando le parole che riteneva indicare “piantagrane”.

“Ci consente di agire sulle informazioni di molte più persone e ciò consente il controllo sulla popolazione”, ha affermato una terza fonte. “Quando hai così tante informazioni puoi usarle per qualsiasi scopo tu voglia. E l’IDF ha pochissimi restrizioni in questo senso. “

“Gli errori verranno fatti”

Per un’agenzia di spionaggio, il valore di un modello di fondazione è che può prendere “tutto ciò che è mai stato raccolto” e rilevare “connessioni e modelli che sono difficili da fare per un essere umano”, ha affermato Ori Goshen, co-fondatore di AI21 Labs. Molti dei dipendenti dell’azienda israeliana hanno lavorato al nuovo progetto LLM durante il servizio di riserva.

Ma Goshen, che in precedenza aveva prestato servizio nell’unità 8200, ha aggiunto: “Questi sono modelli probabilistici: dai loro un prompt o una domanda e generano qualcosa che sembra magico. Ma spesso la risposta non ha senso. Chiamiamo questo “allucinazione”.

Brianna Rosen, ex funzionario della sicurezza nazionale della Casa Bianca e ora associato di ricerca senior presso l’Università di Oxford, osserva che, sebbene uno strumento simile a GATGPT potrebbe aiutare un analista di intelligence “rilevare minacce che gli umani potrebbero perdere, anche prima che sorgessero, rischia anche di trarre connessioni false e conclusioni difettose”.

Ha detto che era fondamentale che le agenzie di intelligence utilizzassero questi strumenti per essere in grado di comprendere il ragionamento alla base delle risposte che producono. “Verranno commessi errori e alcuni di questi errori potrebbero avere conseguenze molto gravi”, ha aggiunto.

A febbraio, l’Associated Press ha riferito che l’IA è stata probabilmente utilizzata dagli ufficiali dell’intelligence per aiutare a selezionare un bersaglio in un attacco aereo israeliano a Gaza nel novembre 2023 che ha ucciso quattro persone, tra cui tre ragazze adolescenti. Un messaggio visto dall’agenzia di stampa ha suggerito che il attacco aereo fosse stato condotto per errore.

L’IDF non ha risposto alle domande del Guardian su come l’unità 8200 garantisce che i suoi modelli di apprendimento automatico, incluso lo sviluppo del nuovo LLM, non aggravano le inesattezze e i pregiudizi. Inoltre non direbbe come protegge i diritti della privacy dei palestinesi quando si allenano modelli con dati personali sensibili.

“A causa della natura sensibile delle informazioni, non possiamo elaborare strumenti specifici, compresi i metodi utilizzati per elaborare le informazioni”, ha affermato un portavoce.

“Tuttavia, l’IDF implementa un processo meticoloso in ogni uso delle capacità tecnologiche”, hanno aggiunto. “Ciò include il coinvolgimento integrale del personale professionale nel processo di intelligence al fine di massimizzare le informazioni e la precisione al massimo grado.”

Hai informazioni su questa storia? Invia un’e-mail a [email protected] o (utilizzando un telefono non lavoro) Usa il segnale o WhatsApp per messaggio +44 7721 857348.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here