Uno strumento di intelligenza artificiale del Ministero degli Interni che propone azioni coercitive contro i migranti adulti e bambini potrebbe rendere troppo facile per i funzionari approvare decisioni automatizzate che cambiano la vita, hanno detto gli attivisti.
Quando sono emersi nuovi dettagli del sistema di controllo dell’immigrazione basato sull’intelligenza artificiale, i critici lo hanno definito un “robo-caseworker” che potrebbe “codificare le ingiustizie” perché un algoritmo è coinvolto nella definizione delle decisioni, compreso il ritorno delle persone nei loro paesi d’origine.
Il governo insiste nel garantire l’efficienza dando priorità al lavoro e sul fatto che un essere umano rimanga responsabile di ogni decisione. Viene utilizzato nel contesto di un numero crescente di richiedenti asilo soggetti ad azioni di allontanamento, attualmente circa 41.000 persone.
Gli attivisti per i diritti dei migranti hanno chiesto al Ministero degli Interni di ritirare il sistema, sostenendo che si trattava di “tecnologia utilizzata per rendere la crudeltà e il danno più efficienti”.
Uno sguardo al funzionamento di questo sistema in gran parte opaco è diventato possibile dopo una battaglia durata un anno sulla libertà di informazione, in cui manuali redatti e valutazioni d’impatto sono stati rilasciati al gruppo di campagna Privacy International. Hanno anche rivelato che alle persone i cui casi vengono elaborati dall’algoritmo non viene detto specificamente che è coinvolta l’intelligenza artificiale.
Il sistema è uno dei numerosi programmi di intelligenza artificiale che le autorità pubbliche del Regno Unito stanno implementando mentre i funzionari cercano maggiore velocità ed efficienza. Si chiede una maggiore trasparenza sull’uso dell’intelligenza artificiale da parte del governo in campi che vanno dalla salute al welfare.
Il segretario di Stato per la scienza, Peter Kyle, ha affermato che l’intelligenza artificiale ha “un incredibile potenziale per migliorare i nostri servizi pubblici… ma, per trarne il massimo vantaggio, dobbiamo creare fiducia in questi sistemi”.
Le rivelazioni del Ministero degli Interni mostrano che il sistema IPIC (Identify and Prioritize Immigration Cases) riceve una serie di informazioni personali sulle persone che sono oggetto di potenziali azioni coercitive, inclusi dati biometrici, indicatori etnici e sanitari e dati sulle condanne penali.
Lo scopo è “creare un modo più semplice, veloce ed efficace per consentire alle forze dell’ordine di identificare, dare priorità e coordinare i servizi/interventi necessari per gestire il carico di lavoro”, affermano i documenti.
Ma Privacy International ha affermato di temere che il sistema sia stato impostato in modo tale da portare funzionari umani a “apporre un timbro” sulle raccomandazioni dell’algoritmo per l’azione su un caso “perché è molto più semplice… che guardare criticamente una raccomandazione e respingerla”.
Affinché i funzionari possano respingere una proposta di decisione sui “rimpatri” – rimandando le persone nel loro paese d’origine – devono fornire una spiegazione scritta e barrare le caselle relative alle ragioni. Ma per accettare il verdetto del computer, non è richiesta alcuna spiegazione e il funzionario fa clic su un pulsante contrassegnato con “accetta” e conferma che il caso è stato aggiornato su altri sistemi dell’Home Office, mostrano i manuali di formazione.
Alla domanda se ciò introducesse un pregiudizio a favore dell’accettazione della decisione dell’AI, il Ministero degli Interni ha rifiutato di commentare.
I funzionari descrivono l’IPIC come uno strumento di flusso di lavoro basato su regole che offre efficienza per l’applicazione delle norme sull’immigrazione raccomandando agli operatori sociali il caso o l’azione successiva che dovrebbero prendere in considerazione. Hanno sottolineato che ogni raccomandazione formulata nel sistema IPIC è stata esaminata da un assistente sociale a cui è stato richiesto di valutarla in base ai suoi meriti individuali. Il sistema viene utilizzato anche nei casi di cittadini dell’UE che cercano di rimanere nel Regno Unito nell’ambito del sistema di risoluzione dell’UE.
Jonah Mendelsohn, avvocato di Privacy International, ha affermato che lo strumento del Ministero degli Interni potrebbe influenzare la vita di centinaia di migliaia di persone.
“Chiunque attraversi il sistema di migrazione attualmente non ha modo di sapere come lo strumento è stato utilizzato nel suo caso e se lo sta esponendo al rischio di azioni di applicazione illecite”, ha affermato. “Senza modifiche volte a garantire trasparenza e responsabilità algoritmica, l’impegno del Ministero degli Interni di essere ‘digitale per impostazione predefinita’ entro il 2025 codificherà ulteriormente le ingiustizie nel sistema di immigrazione”.
Fizza Qureshi, amministratore delegato della Migrants’ Rights Network, ha chiesto il ritiro dello strumento e ha sollevato preoccupazioni sul fatto che l’intelligenza artificiale potrebbe portare a pregiudizi razziali.
“C’è un’enorme quantità di dati immessi nell’IPIC che significherà una maggiore condivisione dei dati con altri dipartimenti governativi per raccogliere informazioni sanitarie, e suggerisce che questo strumento sorveglierà e monitorerà anche i migranti, invadendo ulteriormente la loro privacy”, ha affermato.
L’IPIC è operativo su larga scala dal 2019-20. Il Ministero degli Interni ha rifiutato precedenti richieste sulla libertà di informazione perché una maggiore apertura “potrebbe essere utilizzata per eludere i controlli sull’immigrazione fornendo informazioni su come viene valutato il lavoro del Ministero degli Interni e l’applicazione delle norme sull’immigrazione”.
Madeleine Sumption, direttrice dell’Osservatorio sulla migrazione dell’Università di Oxford, ha affermato che l’uso dell’intelligenza artificiale nel sistema di immigrazione non è intrinsecamente sbagliato, perché in teoria l’intelligenza artificiale potrebbe migliorare il processo decisionale umano anziché sostituirlo.
Ha detto: “Il governo potrebbe essere in grado di sostenere che l’intelligenza artificiale sta portando a un migliore processo decisionale e alla riduzione delle detenzioni non necessarie, ma senza una maggiore trasparenza non possiamo saperlo”.
Ad esempio, se è improbabile che un paese come l’Iran accetti cittadini deportati, perseguire tali casi potrebbe essere considerato uno spreco di risorse limitate per l’applicazione della legge. Oppure, se la tesi di una persona di restare è sostenuta dalla legge sui diritti umani, il che significa che è improbabile che venga deportata rapidamente, potrebbe essere meglio dare priorità ad altri allontanamenti e così facendo evitare di portare le persone in detenzione a tempo indeterminato.
I documenti del Ministero degli Interni affermano che lo strumento viene utilizzato per “valutare la rimovibilità e il livello di danno causato dai delinquenti immigrati, automatizzare l’identificazione e la definizione delle priorità dei casi e per fornire informazioni sul periodo di tempo in cui è stata posta una barriera all’allontanamento”.
Il mese scorso è stata presentata al parlamento britannico una nuova bozza di legge sui dati che, secondo gli avvocati, “consentirebbe effettivamente un processo decisionale automatizzato nella maggior parte delle circostanze”. Ciò sarebbe consentito purché le persone colpite possano presentare rimostranze, ottenere un intervento umano significativo e contestare decisioni automatizzate.