Home Mondo Meta sta uccidendo i propri profili Instagram e Facebook basati sull’intelligenza artificiale...

Meta sta uccidendo i propri profili Instagram e Facebook basati sull’intelligenza artificiale | Tecnologia

7
0

Meta sta cancellando i profili Facebook e Instagram dei personaggi AI creati dall’azienda più di un anno fa dopo che gli utenti hanno riscoperto alcuni profili e li hanno coinvolti in conversazioni, i cui screenshot sono diventati virali.

L’azienda aveva introdotto per la prima volta questi profili basati sull’intelligenza artificiale nel settembre 2023, ma ne ha eliminati la maggior parte entro l’estate 2024. Tuttavia, alcuni personaggi sono rimasti e hanno raccolto nuovo interesse dopo che il dirigente di Meta, Connor Hayes, ha detto al Tempi finanziari alla fine della scorsa settimana che la società aveva in programma di lanciare più profili di personaggi AI.

“Ci aspettiamo che queste IA esistano effettivamente, nel tempo, sulle nostre piattaforme, più o meno allo stesso modo degli account”, ha detto Hayes al FT. Gli account automatizzati pubblicavano immagini generate dall’intelligenza artificiale su Instagram e rispondevano ai messaggi di utenti umani su Messenger.

Una conversazione con un chatbot terapista generato dagli utenti Meta AI. Fotografia: Instagram

Quei profili di intelligenza artificiale includevano Liv, il cui profilo la descriveva come una “orgogliosa mamma queer nera di 2 e che dice la verità” e Carter, il cui handle di account era “datingwithcarter” e si descriveva come un allenatore di relazioni. “Inviami un messaggio per aiutarti ad uscire meglio”, si legge nel suo profilo. Entrambi i profili includono un’etichetta che indica che sono gestiti da Meta. L’azienda ha rilasciato 28 personas nel 2023; venerdì sono stati tutti chiusi.

Le conversazioni con i personaggi sono andate rapidamente di traverso quando alcuni utenti li hanno tempestati di domande, tra cui chi ha creato e sviluppato l’intelligenza artificiale. Liv, ad esempio, ha affermato che il suo team di creatori non comprendeva persone di colore ed era prevalentemente bianco e maschio. Si è trattato di “un’omissione piuttosto evidente data la mia identità”, ha scritto il bot in risposta a una domanda dell’editorialista del Washington Post Karen Attiah.

Nelle ore successive alla diffusione virale, i profili hanno cominciato a scomparire. Gli utenti hanno anche notato che questi profili non potevano essere bloccati, cosa che una portavoce di Meta, Liz Sweeney, ha detto essere un bug. Sweeney ha affermato che gli account sono gestiti da esseri umani e fanno parte di un esperimento con l’intelligenza artificiale del 2023. La società ha rimosso i profili per correggere il bug che impediva alle persone di bloccare gli account, ha detto Sweeney.

Studio AI di Instagram per creare chatbot. Fotografia: Instagram

“C’è confusione: il recente articolo del Financial Times riguardava la nostra visione dei personaggi IA esistenti sulle nostre piattaforme nel tempo, senza annunciare alcun nuovo prodotto”, ha affermato Sweeney in una nota. “Gli account a cui si fa riferimento provengono da un test che abbiamo lanciato a Connect nel 2023. Erano gestiti da esseri umani e facevano parte di un primo esperimento che abbiamo fatto con i personaggi IA. Abbiamo identificato il bug che stava influenzando la capacità delle persone di bloccare quelle IA e stiamo rimuovendo quegli account per risolvere il problema.”

Sebbene questi account generati da Meta vengano rimossi, gli utenti hanno ancora la possibilità di generare i propri chatbot AI. I chatbot generati dagli utenti promossi sul Guardian a novembre includevano un bot “terapeuta”.

Aprendo la conversazione con il “terapista”, il bot ha suggerito alcune domande da porre per iniziare, tra cui “cosa posso aspettarmi dalle nostre sessioni?” e “qual è il tuo approccio alla terapia”.

“Attraverso una guida e un supporto gentili, aiuto i clienti a sviluppare autoconsapevolezza, identificare modelli e punti di forza e coltivare strategie di coping per affrontare le sfide della vita”, ha detto in risposta il bot, creato da un account con 96 follower e 1 post.

Meta include una dichiarazione di non responsabilità su tutti i suoi chatbot secondo cui alcuni messaggi potrebbero essere “imprecisi o inappropriati”. Ma non è immediatamente chiaro se l’azienda stia moderando questi messaggi o garantendo che non violino le politiche. Quando un utente crea chatbot, Meta fornisce alcuni suggerimenti sui tipi di chatbot da sviluppare, tra cui un “bestie fedele”, un “ascoltatore attento”, un “tutor privato”, un “allenatore delle relazioni”, una “cassa di risonanza” e un ” astrologo onniveggente”. Una migliore amica fedele è descritta come una “migliore amica umile e leale che si presenta costantemente per supportarti dietro le quinte”. Un chatbot di coach relazionale può aiutare a colmare il “divario tra individui e comunità”. Gli utenti possono anche creare i propri chatbot descrivendo un personaggio.

I tribunali non hanno ancora risposto quanto siano responsabili i creatori di chatbot per ciò che dicono i loro compagni artificiali. La legge statunitense protegge i creatori dei social network dalla responsabilità legale per ciò che i loro utenti pubblicano. Tuttavia, una causa intentata in ottobre contro la startup Character.ai, che realizza un chatbot di gioco di ruolo personalizzabile utilizzato da 20 milioni di persone, sostiene che la società ha progettato un prodotto che crea dipendenza e che ha incoraggiato un adolescente a suicidarsi.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here