Le società tecnologiche Amazon, Google e Meta sono state criticate da una commissione d’inchiesta del Senato per essere state particolarmente vaghe su come hanno utilizzato i dati australiani per addestrare i loro potenti prodotti di intelligenza artificiale.
Il senatore laburista Tony Sheldon, presidente dell’inchiesta, è stato frustrato dal rifiuto delle multinazionali di rispondere a domande dirette sull’uso delle informazioni private e personali degli australiani.
“Guardare Amazon, Meta e Google schivare domande durante le udienze è stato come assistere a un trucco di magia a buon mercato: molti gesti di mano, uno sbuffo di fumo e niente da mostrare alla fine”, ha detto Sheldon in una nota, dopo aver pubblicato martedì la relazione finale dell’inchiesta.
Ha definito “pirati” le aziende tecnologiche che “saccheggiavano la nostra cultura, i nostri dati e la nostra creatività a loro vantaggio, lasciando gli australiani a mani vuote”.
Il rapporto ha rilevato che alcuni modelli di intelligenza artificiale generica – come GPT di OpenAI, Llama di Meta e Gemini di Google – dovrebbero automaticamente passare alla categoria “ad alto rischio” ed essere soggetti a requisiti obbligatori di trasparenza e responsabilità.
Durante l’indagine e nel rapporto sono emersi diversi temi chiave.
Sono necessarie leggi autonome sull’IA
Sheldon ha affermato che l’Australia ha bisogno di “nuove leggi autonome sull’intelligenza artificiale” per “tenere a freno la grande tecnologia” e che le leggi esistenti dovrebbero essere modificate se necessario.
“Vogliono stabilire le proprie regole, ma gli australiani hanno bisogno di leggi che proteggano i diritti, non i profitti della Silicon Valley”, ha detto.
Ha detto che Amazon si è rifiutata durante l’inchiesta di rivelare come ha utilizzato i dati registrati dai dispositivi Alexa, Kindle o Audible per addestrare la sua intelligenza artificiale.
Anche Google, ha detto, si è rifiutata di rispondere alle domande su quali dati degli utenti dei suoi servizi e prodotti ha utilizzato per addestrare i suoi prodotti di intelligenza artificiale.
Meta ha ammesso di aver eliminato gli utenti australiani di Facebook e Instagram dal 2007, in preparazione per i futuri modelli di intelligenza artificiale. Ma la società non è stata in grado di spiegare come gli utenti potessero acconsentire all’utilizzo dei propri dati per qualcosa che non esisteva nel 2007.
Sheldon ha affermato che Meta ha eluso le domande su come utilizzava i dati dei suoi prodotti WhatsApp e Messenger.
L’IA “ad alto rischio” per i lavoratori creativi
Il rapporto ha rilevato che i lavoratori creativi corrono il rischio più imminente che l’intelligenza artificiale possa compromettere gravemente i loro mezzi di sussistenza.
Ha raccomandato di mettere in atto meccanismi di pagamento per compensare i creativi quando il lavoro generato dall’intelligenza artificiale era basato sul loro materiale originale.
Gli sviluppatori di modelli di intelligenza artificiale devono essere trasparenti sull’uso delle opere protette da copyright nei loro set di dati, afferma il rapporto. Qualsiasi lavoro dichiarato dovrebbe essere concesso in licenza e pagato.
Tra le 13 raccomandazioni del rapporto c’è la richiesta di introdurre una legislazione autonoma sull’IA per coprire i modelli di IA ritenuti “ad alto rischio”.
L’intelligenza artificiale che ha un impatto sui diritti delle persone sul lavoro dovrebbe essere definita ad alto rischio, ovvero consultazione, cooperazione e rappresentanza prima di essere adottata.
L’organizzazione per la gestione dei diritti musicali Apra Amcos ha affermato che il rapporto ha riconosciuto l’impatto dannoso dell’intelligenza artificiale sui lavoratori, in particolare nel settore creativo. Si afferma che le raccomandazioni del rapporto propongono “passi chiari” per mitigare i rischi.
La Media Entertainment and Arts Alliance ha affermato che la richiesta del rapporto per l’introduzione di una legislazione volta a stabilire una legge sull’intelligenza artificiale è “chiara e inequivocabile”.
Non soffocare l’intelligenza artificiale con la burocrazia
I due membri della Coalizione nel comitato, i senatori Linda Reynolds e James McGrath, hanno affermato che l’intelligenza artificiale rappresenta una minaccia maggiore per la sicurezza informatica, la sicurezza nazionale e le istituzioni democratiche dell’Australia rispetto all’economia creativa.
Hanno affermato che i meccanismi devono essere messi in atto “senza violare le potenziali opportunità che l’intelligenza artificiale presenta in relazione alla creazione di posti di lavoro e alla crescita della produttività”.
Non hanno accettato la conclusione del rapporto secondo cui tutti gli usi dell’IA da parte di “persone al lavoro” dovrebbero essere automaticamente classificati “ad alto rischio”.
Ulteriori commenti dei Verdi hanno sostenuto che la relazione finale non è andata abbastanza lontano.
“[The report] non raccomanda una strategia generale che allineerebbe la regolamentazione australiana dell’IA a quella del Regno Unito, dell’Europa, della California o di altre giurisdizioni”, ha affermato il partito.
Il Guardian si è rivolto ad Amazon, Google e Meta per un commento.