Arrivano come saette i rapporti sull’intelligenza artificiale difettosa di Facebook nel contrastare i discorsi di odio e fake news.
Facebook è anni che sta avendo dei periodi particolarmente difficili, per ultimo con una serie di rapporti del Wall Street Journal che sostengono che la società è a conoscenza che “le sue piattaforme sono piene di difetti e causano danni” e “nonostante le udienze del Congresso, i suoi impegni e numerosi media esposti, la società non li ha risolti“.
Alcune delle accuse molto gravi includono:
Un cambiamento di algoritmo ha reso Facebook un luogo “più arrabbiato” e il CEO Mark Zuckerberg non ha accettato delle eventuali correzioni suggerite perché “avrebbero portato le persone a interagire meno con Facebook”.
I dipendenti del social segnalano trafficanti di esseri umani, cartelli della droga, venditori di organi e altro, ma la risposta è “nulla“.
Gli strumenti di Facebook sono stati utilizzati per seminare dubbi sulla gravità della minaccia di Covid-19 e sulla sicurezza dei vaccini.
Gli stessi ingegneri dell’azienda hanno dubbi sull’affermazione pubblica di Facebook che l’AI ripulirà la piattaforma.
Facebook sa che Instagram è particolarmente tossico per le ragazze adolescenti, lo ha anche reso noto con un proprio comunicato.
A complicare il tutto, si è venuti a conoscenza di una particolare “élite segreta” che è esente dalle regole.

I rapporti provengono principalmente da Frances Haugen che è riuscito a mettere le mani su “decine di migliaia” di pagine di documenti da Facebook, e che prevede di testimoniare al Congresso, e ha presentato almeno otto denunce SEC sostenendo che Facebook ha mentito agli azionisti sui propri prodotti.
Durante il fine settimana, Clegg (vicepresidente di Facebook per gli affari globali e le comunicazioni) ha pubblicato un post sul suo blog, in cui Facebook ha in piano di assumere 10.000 persone per aiutare a costruire la sua visione del metaverso – un annuncio sospettosamente tempestivo che molti credono fosse finalizzato a contrastare le notizie negative.
Tuttavia, Facebook non ha evitato i rapporti dei media. Guy Rosen, VP dell’integrità di Facebook, ha anche pubblicato un post sul blog durante il fine settimana intitolato Hate Speech Prevalence Has Dropped by Almost 50% on Facebook.
Secondo il post di Facebook, la prevalenza dei discorsi d’odio è scesa del 50% negli ultimi tre trimestri:
Quando l’azienda ha iniziato a riferire sulle metriche del discorso dell’odio, solo il 23,6% dei contenuti rimossi è stato rilevato in modo proattivo dai suoi sistemi. Facebook sostiene che quel numero è ora oltre il 97 per cento e ci sono ora solo cinque visualizzazioni di discorsi d’odio per ogni 10.000 visualizzazioni di contenuti su Facebook.
“I dati estratti da documenti trapelati vengono utilizzati per creare una narrazione che la tecnologia che usiamo per combattere l’hate speech è inadeguata e che deliberatamente travisiamo i nostri progressi”, ha detto Rosen. “Questo non è vero”.
Uno dei rapporti ha scoperto che l’AI di Facebook non poteva identificare video di sparatorie in prima persona, sproloqui razzisti, e non poteva separare i combattimenti di galli dagli incidenti d’auto in un incidente specifico. Haugen sostiene che l’azienda agisce solo sul 3-5 per cento dell’odio e lo 0,6 per cento dei contenuti di violenza e incitamento.
Nell’ultima esposizione del WSJ, i dipendenti di Facebook hanno detto al giornale che non credono che l’azienda sia in grado di controllare i contenuti offensivi. I dipendenti sostengono che Facebook è passato a utilizzare in gran parte l’applicazione AI dei regolamenti della piattaforma circa due anni fa, il che è servito a gonfiare l’apparente successo della sua tecnologia di moderazione nelle statistiche pubbliche.
Clegg ha chiamato i rapporti del WSJ “deliberate caratterizzazioni errate” che usano citazioni da materiale trapelato per creare “una visione deliberatamente sbilanciata dei fatti più ampi“.
Poche persone sottovalutano la sfida che una piattaforma come Facebook ha nel catturare i contenuti odiosi e la disinformazione attraverso miliardi di utenti – e farlo in un modo che non sopprime la libertà di parola – ma la società non sembra aiutare se stessa nel promettere troppo ciò che i suoi sistemi AI possono fare e, secondo quanto riferito, anche ignorando volontariamente le correzioni ai problemi noti per la preoccupazione che riducano l’impegno.
Insomma, tempi parecchio turbolenti per Facebook e forse il concetto dei controlli sui social, dato il periodo storico in cui stiamo vivendo.
Nei prossimi giorni si attendono notizie da Facebook su tutto il suo piano futuro.
Fonte articolo: https://artificialintelligence-news.com/2021/10/18/facebook-claims-ai-reduced-hate-50-internal-documents-highlighting-failures/