Giovedì 19 Dicembre 2024

Via lo spam e i profili "fake": la cura di Facebook per riconquistare la fiducia

Mark Zuckerberg

Intercettare ed eliminare contenuti violenti, linguaggio d’odio, pornografia, propaganda terroristica, spam e profili falsi che tanto peso hanno avuto nel Russiagate. Sia con l’intelligenza artificiale, sia con revisori umani. E’ la cura che Facebook sta somministrando alla piattaforma per riconquistare la fiducia degli utenti, parallelamente alla pulizia in termini di privacy dopo il caso Cambridge Analytica e all’attenzione per gli adolescenti a cui è stato dedicato un portale informativo. «Nei primi tre mesi del 2018 abbiamo rimosso 837 milioni di contenuti spam e disattivato circa 583 milioni di account falsi», spiega il vicepresidente di Facebook Alex Schultz, nel presentare il primo Rapporto sull'applicazione degli Standard della Comunità. Si affianca al Transparency Report che dal 2013 tiene conto delle richieste dei governi al social network e nel secondo semestre 2017 ha registrato un +4% di istanze relative ai profili degli utenti. In Italia sono state quasi 4mila. «Abbiamo ancora molto da fare per prevenire gli abusi, i parametri non sono perfetti e dobbiamo migliorare i nostri processi interni e la nostra tecnologia. Il lavoro è in continua evoluzione - sottolinea Schultz in una conference call -. In parte l’intelligenza artificiale, pur essendo promettente, è ancora molto lontana dall’essere efficace per molti contenuti che violano i nostri Standard, come nel caso dell’identificazione dei contenuti d’odio dove il contesto è molto importante». A questo proposito Schultz conferma che la società porterà entro il 2018 a 20mila il numero di revisori umani e di ingegneri che affiancano o addestrano la tecnologia della piattaforma, per scovare gli abusi prima che vengano segnalati dagli stessi utenti. Il primo rapporto di Facebook sull'applicazione degli Standard della Comunità non riguarda solo i contenuti spam o i profili falsi, ma altri quattro temi caldi come la propaganda terroristica, l’hate speech, la violenza esplicita e la pornografia. Nel primo trimestre 2018 sono stati rimossi 1,9 milioni di contenuti legati alla propaganda terroristica dell’Isis o di gruppi affiliati, cresciuti del 73% rispetto al periodo precedente perché - spiega il social - è migliorata la tecnologia che li scova anche nelle foto. Dal rapporto si evince inoltre che la piattaforma ha rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018 ed eliminato due milioni e mezzo di contenuti che incitavano all’odio. E ha rimosso 21 milioni di contenuti di nudo di adulti o pornografici, il 96% dei quali rilevati prima di essere segnalati dagli utenti. Schultz sottolinea che il parametro più importante per la compilazione di questo Rapporto è l’impatto di ogni contenuto grave su Facebook: «Misuriamo sia la frequenza con cui viene visto, sia l’impatto sui singoli o su una comunità più ampia». Il nuovo rapporto si inserisce in una strategia di Facebook di fare chiarezza su più fronti. Dopo il caso Cambridge Analytica, il social ha sospeso 200 applicazioni che potrebbero aver raccolto impropriamente i dati degli utenti. E ha lanciato un portale dedicato agli adolescenti: è in 60 lingue e contiene informazioni sulla piattaforma, sulla protezione dei dati personali e un decalogo di consigli di un esperto rivolti ai teen-ager. Qualche settimana Facebook ha messo restrizioni per i ragazzi tra i 13 e i 15 anni: dovranno avere il permesso dei genitori per accedere ai contenuti pubblicitari del social e ha disabilitato il riconoscimento facciale per gli under 18.

leggi l'articolo completo