Le società dei social media non amano i palestinesi ( 2’parte)



di Antony Loewenstein - 7 giugno 2025 

"È quello che mi sono sentito ripetere da moltissimi palestinesi in Palestina e all'estero: non ci aspettiamo che Facebook e altre piattaforme di social media ci ascoltino sul serio. Abbiamo bisogno di canali alternativi per farci sentire. «Se un'azienda della Silicon Valley può avere un incentivo a rispondere a un movimento sociale popolare negli Stati Uniti», spiega York «per quale motivo dovrebbero rispondere a dei palestinesi? A dei birmani? O agli utenti indigeni? Tali aziende mettono sempre i guadagni davanti alle persone: è il loro modo di operare, non possono fare diversamente».

Nessuno di questi temi sembrava interessare alle grandi multinazionali tecnologiche. Mostrare un'attenzione anche puramente formale per le preoccupazioni di gruppi minoritari era nel migliore dei casi una seccatura. Hanno tirato dritto per la loro strada e hanno investito ancora di più in Israele. 

Nel 2021 alcuni dipendenti di Google e Amazon hanno presentato una lettera di protesta alla notizia che queste società avrebbero partecipato al Project Nimbus, un contratto da 1,2 miliardi di dollari per fornire servizi cloud al governo e all'esercito israeliano; i lavoratori condannavano la tendenza delle due multinazionali a vendere sempre di più i loro servizi a dipartimenti del governo statunitense come quello della Difesa e dell'Immigrazione e Customs Enforcement (ICE, Agenzia per l'Immigrazione e le Dogane) e alle forze di polizia. Nel 2022 alcuni dipendenti di Google, tra cui Ariel Koren, di religione ebraica, hanno dato le dimissioni, accusando l'azienda di punire chiunque contestasse la sua partecipazione al Project Nimbus. «Google silenzia sistematicamente le voci palestinesi, ebraiche, arabe e musulmane preoccupate per la complicità di Google nelle violazioni dei diritti umani palestinesi, fino a rivelarsi formalmente contro i lavoratori e creare un clima di paura», ha scritto Koren nella sua lettera di dimissioni.

Documenti riservati fatti arrivare nel luglio 2022 alla testata online «The Intercept» hanno confermato che Google stava fornendo allo Stato israeliano strumenti di apprendimento automatico e intelligenza artificiale avanzata. Un ex responsabile della sicurezza di Google Enterprise, ora alla guida di Oracle in Israele, ha dichiarato pubblicamente che un obiettivo di Nimbus è garantire che il governo tedesco non possa accedere a informazioni sull'Io per la Corte penale internazionale'. Un vantaggio del Project Nimbus, stando alla stampa israeliana, è che le società high-tech non possono impedire l'accesso al governo israeliano in caso di forti pressioni al boicottaggio su Google e Amazon. È una polizza assicurativa contro potenziali venti politici ostili.

«Le tecnologie che le nostre aziende si sono impegnate a realizzare renderanno ancora più crudele e letale il processo sistematico di discriminazione e allontanamento di popolazioni portato avanti dall'esercito e dal governo israeliani contro i palestinesi», hanno scritto lavoratori Google e Amazon anonimi!. 
In un'era di repressione multinazionale, lavorare con Israele era una scelta facile per i padroni delle odierne industrie high-tech, vista la scarsissima opposizione politica.

La deputata statunitense Rashida Tlaib, la prima palestinese americana eletta al Congresso, nel maggio 2021 scrisse a Twitter, Facebook, Instagram e Tik Tok affinché queste società «non utilizzino in modo deliberato o involontario algoritmi e personale destinati a silenziare le persone su base etnica o dell'affiliazione religiosa». La sua segreteria si è però rifiutata di rilasciare una dichiarazione quando ho chiesto se avesse ricevuto una risposta alla suddetta lettera.

Facebook ha una squadra di oltre 15.000 moderatori di contenuti, alcuni dei quali di madre lingua araba ed ebraica, che, stando a quello che si dice, esaminano i contenuti e rimuovono quelli giudicati inappropriati! L'azienda non fornisce dettagli, su base nazionale o regionale, riguardo ai contenuti rimossi, ma ogni trimestre pubblica online un rapporto sull'applicazione delle linee guida della community per rendere Facebook e Instagram «sicuri e inclusivi». Per esempio, nel primo trimestre del 2021 il rapporto citava due milioni di singoli contenuti rimossi per la presenza di elementi di «odio organizzato» e 9,8 milioni di post provenienti da organizzazioni o persone pericolose. Era impossibile sapere quanti post, se ve n'erano, fossero stati rimossi in riferimento al conflitto israelo-palestinese. A specifica richiesta, Facebook non ha fornito risposta.

Nel maggio 2021 WhatsApp, il servizio di messaggistica di proprietà di Facebook, è stato utilizzato da numerosi israeliani per colpire gli arabi e le loro attività commerciali. Un messaggio, in ebraico, diceva: «Shalom a tutti i cittadini ebrei di Israele. Desidero invitarvi a partecipare a un attacco di massa contro gli arabi che avrà luogo oggi alle 18.00 sul lungomare di Bat Yam (all'altezza di Victory). Abbiate cura di arrivare equipaggiati di tutto punto, tirapugni, spade, coltelli, bastoni, pistole e veicoli con i paraurti corazzati». Il gruppo su WhatsApp si chiamava "Attacks on Arabs" ('Attacchiamo gli arabi'). Questo messaggio WhatsApp ebbe ricadute reali, perché il 12 maggio una folla distrusse una gelateria, di cui erano proprietari degli arabi, nella città di Bat Yam, che si trova poco a sud di Tel Aviv.

Vennero usate varie armi, comprese quelle citate nel messaggio WhatsApp fatto circolare prima dell'aggressione.
Attivisti israeliani a conoscenza del messaggio avvertirono la Polizia israeliana, ma la risposta degli agenti fu tardiva. Almeno venti tentativi di attacchi di estremisti ebrei sono stati organizzati tramite WhatsApp e Telegram. Queste iniziative violente di attivisti di estrema destra contro la convivenza tra ebrei e arabi sono un microcosmo dei più ampi problemi che attaccano il paese alla luce della crescente intolleranza verso i non ebrei e dei tentativi di cacciarli. Tali messaggi di odio spesso non vengono rimossi dalle piattaforme su cui appaiono. Nel settembre 2022 il comandante della polizia israeliana Kobi Shabtai ha dichiarato che durante i periodi di conflitto nelle città con popolazione mista i social andrebbero bloccati. «Siamo un paese democratico, ma c'è un limite», ha sostenuto.

Il pregiudizio intrinseco delle aziende della Silicon Valley si estende ben oltre i social. Google Maps, Apple Maps e Waze sono servizi di geolocalizzazione onnipresenti, tuttavia contengono solo quantità minime di dati sul territorio palestinese. Mentre gli insediamenti israeliani sono perlopiù riconosciuti e segnati sulle mappe, centinaia di paesi palestinesi per loro semplicemente non esistono. Alla domanda sul perché di questa lacuna, le società rispondono che ciò dipende dai regolamenti delle Nazioni Unite, perché la Palestina è solo uno «Stato non membro osservatore», di conseguenza non possono assumere una posizione sul modo corretto di affrontare la questione. È un ragionamento assurdo perché sulle mappe delle app gli insediamenti ebraici in Cisgiordania non sono etichettati come "Controversi" ma vengono mostrati semplicemente come realtà consolidate.

Ricordo di aver viaggiato spesso attraverso la Cisgiordania cercando di utilizzare l'app israeliana Waze. In genere finivo per perdermi. Nessuna attuale app di geolocalizzazione copre a sufficienza la Palestina. Solo nel 2018 Israele ha permesso l’utilizzo in Cisgiordania della tecnologia 3G della telefonia mobile, e non è ancora chiaro quando si passerà al 4G, anche se il 5G stia già diventando lo standard di riferimento in Occidente, Israele compreso. Durante il suo viaggio in Israele e Palestina del luglio 2022, il presidente statunitense Joe Biden ha annunciato che il 4G sarebbe stato permesso in Cisgiordania e a Gaza entro la fine del 2023, ma i funzionari palestinesi erano scettici.

Ahmed Shihab-Eldin, giornalista, attore e produttore musicale kuwaitiano-americano di origini palestinesi, nominato all'Emmy per un documentario, si è occupato, come corrispondente, di tutto il Medio Oriente, compresa la Palestina. Mi ha raccontato che nel maggio 2021, mentre le tensioni tra Israele e i palestinesi crescevano, decise di condividere «cronache crude dal campo, di fonti fidate, insieme ad alcuni commenti, senza usare mezzi termini, come dovrebbe essere». Scelse di usare i Reels su Instagram, brevi video a cui l'algoritmo della piattaforma dava la priorità per sfidare il dominio di TikTok.

«Ho notato che i video diffusi attraverso Reels, anche senza un montaggio elaborato, ma fornendo dei sottotitoli e un minimo di contesto, venivano condivisi e ricevevano un'incredibile visibilità», ricorda Shihab-Eldin. Era confortato che la «censura e autocensura» che aveva conosciuto così bene nei quindici anni di carriera giornalistica al servizio di media mainstream venissero finalmente spazzate via dal grande sostegno e interesse per i suoi post. «C'era fame di contenuti, una curiosità innescata dalla pura e semplice disumanità dei video in presa diretta, una voglia di comprendere il contesto e dare un senso a ciò che la gente stava vivendo». Nel giro di un paio di settimane il suo account Instagram ha schizzato da 80.000 a oltre 210.000 follower.
Ma presto Shihab-Eldin notò qualcosa di strano. Numerosi attivisti, giornalisti (lui compreso) e testimoni sul campo che usavano parole «pesanti ma accurate» come apartheid, puli-La etnica, allontanamento etnico e occupazione si ritrovavano… con gli account o i post oscurati, attraverso lo shadow banning, una pratica che consiste nel bloccare o ridurre la visibilità di determinati contenuti senza che l'utente sia pienamente consapevole di ciò che sta succedendo.

Shihab-Eldin spiega che alcuni dei suoi post su Instagram non venivano più caricati o ricevevano molte meno visualizzazioni senza un motivo evidente.

Centinaia di utenti mi chiedevano tramite messaggi diretti perché le mie storie non apparissero più nei loro feed. Era evidente che i contenuti venivano censurati o che l'algoritmo ne abbassava la priorità. C'era così tanto slancio, poi di colpo, sia sul campo, in Israele e in Palestina, sia nella Diaspora, divenne chiaro che i contenuti che umanizzavano i palestinesi o documentavano la violenza contro di loro a opera di Israele venivano presi di mira.

È chiaro che sia i media tradizionali che le piattaforme social sono attività a scopo di lucro, il che li rende vulnerabili alle pressioni politiche, ai grandi interessi o ai paesi più influenti.

«Pur essendo consapevoli di questa realtà, la massiccia rimozione dei contenuti online di molti attivisti palestinesi, su più piattaforme, ha iniziato a diventare preoccupante. [...] Era un livello di censura e shadow banning senza precedenti».

Dopo aver raccontato online questa sua esperienza, Shihab-Eldin è stato invitato a Dubai a un incontro con due membri del team di Meta per la politica pubblica per fornire maggiori dettagli sui suoi timori. Nonostante i toni cordiali e la disponibilità al dialogo, ne trasse la conclusione che l'azienda era «pienamente consapevole della censura che stava avvenendo sulla piattaforma. La sua principale difesa è stata che la piattaforma è concepita per lo più a fini di intrattenimento o per condividere contenuti con familiari e amici. Pur sapendo che alcuni canali venivano utilizzati per documentare violazioni dei diritti umani, non era questa la sua finalità”

Alla domanda sull'enorme quantità di contenuti filo-palestinesi rimossi a causa delle pressioni del governo di Israele, Meta sostiene di non riservare ai funzionari israeliani alcun trattamento preterintenzionale. Tutto era dovuto al fatto che «Israele segnala molti più contenuti e presenta molte più richieste della maggior parte degli altri governi». I dirigenti di Meta non hanno fornito a Shihab-Eldin una spiegazione soddisfacente del perché le autorità israeliane potevano pubblicare senza problemi una grande massa di contenuti violenti - per esempio, i bombardamenti su Gaza - mentre i palestinesi e i loro sostenitori venivano accusati di "istigazione alla violenza" e censurati.

«Ogni giorno vado a lavorare a Ramallah, vivo tra Ramallah e Nablus, e attraverso in auto due checkpoint», mi ha detto l'attivista palestinese per i diritti digitali Mona Shtaya. «Quando vedo le telecamere ai checkpoint, so che si tratta di controllo della popolazione. Questo crea un clima di terrore e autocensura. Io ho sempre paura quando attraverso un checkpoint».

Shtaya lavora come consulente per l'advocacy a 7 amleh. L'organizzazione studia lo stato di internet per i palestinesi sotto l'occupazione. Un rapporto del 2020 analizzava in dettaglio come il governo israeliano avesse esercitato pressioni sui giganti dei social per censurare i contenuti palestinesi. Sulla scia degli attacchi terroristici dell'11 settembre 2001, Facebook, Twitter e altre piattaforme avevano rimosso «centinaia di migliaia e forse addirittura milioni di contenuti che documentavano proteste, rivolte e violazioni dei diritti umani ai danni di palestinesi dietro il paravento dell'hate speech». Altri rapporti di Tamleh rivelano che l'autocensura è un grosso problema tra la popolazione palestinese, timorosa di incorrere nell'ira di palestinesi funzionari o israeliani.
In collaborazione con 7 amleh e il suo impegno per i diritti digitali, Shtaya affronta tre governi - Israele, l'Autorità Palestinese e Hamas -, nessuno dei quali sostiene la libertà di parola. 

In modo diverso gli uni dagli altri, tutti mirano a controllare le informazioni diffuse online, di conseguenza i cittadini palestinesi sono soggetti a censure, angherie, arresti o minacce, e per questo ripongono scarsa fiducia nel fatto che le autorità israeliane e palestinesi garantiscano loro pieni diritti digitali. Secondo uno studio del 2022 di 7amleh, il 52 per cento ritiene che i propri dati personali e la propria privacy non siano al sicuro

Il concetto di una Palestina digitale, uno spazio libero dove checkpoint e frontiere scompaiano, non è del tutto immaginario se paragonato alla dura realtà della vita quotidiana, ma è messo sempre più in discussione dalle aziende della Silicon Valley, dallo israeliano Statoo e dalle stesse autorità palestinesi. La sorveglianza di massa è inevitabile. «Possiamo avere la democrazia o la società della sorveglianza, ma non possiamo averle dentro-be», scrive Shoshana Zuboft, autrice di Il capitalismo della sorveglianza. Il futuro dell'umanità nell'era dei nuovi poteri. «Una società della sorveglianza democratica è impossibile a livello sia esistenziale sia politico»

Nel 2016 l'allora ministro israeliana della Giustizia, Ayelet Shaked, dopo un incontro con alcuni dirigenti di Facebook si è vantato che YouTube, Google e Facebook stavano dando seguito fino al 95 per cento delle richieste israeliane di rimuovere materiale che a suo avviso incitava alla violenza. Parlando a una conferenza sull'antiterrorismo a Tel Aviv, Shaked ha detto: «Così come i video dell'isis vengono monitorati e rimossi dalla rete, desideriamo che si faccia lo stesso con materiale palestinese che incita al terrorismo». Shaked aveva a sua volta una storia di istigazione alla violenza: nel 2014 aveva definito i bambini palestinesi «piccoli serpenti» ed esortato a uccidere tutti i palestinesi! Perché «sono tutti combattenti nemici». Questi suoi commenti non erano stati rimossi da Facebook.

Shtaya spiega che l'ambiente online per i palestinesi sotto occupazione è permeato di cautela e sospetti. «Vivo in uno spazio militarizzato che ha accresciuto tra la gente la cultura della paura, soprattutto per quanto riguarda noi attivisti. Prima di dicare su un qualsiasi link mi devo accertare che sia sicuro».
Shtaya denuncia che, dopo decenni di occupazione, «Israele sta normalizzando questa vita militarizzata. Nel nostro subconscio di palestinesi, alcuni hanno accettato la normalizzazione dell'occupazione, ma molti giovani palestinesi no».

YouTube, di proprietà di Google, è un sito web popolare in Palestina, ma la sua ambigua politica di moderazione dei contenuti è motivo di costante frustrazione, a causa dei numerosi video rimossi senza che si sappia perché. A livello globale, ogni minuto sulla piattaforma vengono caricati dei video per una durata complessiva di oltre cinquecento ore. In Palesti-na, circa un terzo dei palestinesi usa i social media, perlopiù Facebook, per quasi cinque ore e mezza al giorno. Secondo una ricerca su YouTube condotta dall'accademica palestinese Amal Nazzal, docente della facoltà di Economia e Commercio della Birzeit University, in Cisgiordania, il problema chiave è che YouTube si rifiuta di definire i criteri riguardo a quali contenuti siano consentiti. «Non sono riuscita a trovare alcuna informazione su come YouTube definisca i contenuti», mi ha detto Nazzal. «Ho provato a contattare l'azienda, ma non ho avuto risposta».

Nel suo esteso rapporto del 2020 su YouTube per il think tank palestinese Al-Shabaka, Nazzal ha rivelato un lungo e-lenco di video non violenti caricati da palestinesi ma cancellati perché apparentemente "violenti". Video di soldati israeliani che aggredivano dei palestinesi erano giudicati inappropriati e rimossi, ma Nazzal fa notare che innumerevoli video dell'esercito israeliano che celebra le sue gesta violente non vengono toccati. Gli israeliani favorevoli all'uso delle armi non hanno alcun problema su YouTube, come i numerosi video dell'IF che mostrano la distruzione di Gaza"

Nazzal ritiene che «il 90 per cento dei feedback da YouTube è negativo quando i palestinesi contestano la rimozione dei contenuti dalle loro pagine. La maggior parte riceve risposte automatiche secondo cui quel dato contenuto è contrario alle linee guida della comunità. Ma viene praticato un doppio standard, perché su molti canali di YouTube ci sono video che esaltano la violenza e l'uso delle armi».

Nazzal vorrebbe che le società dei social media comprendano meglio i contesti politici in cui operano. «Non è possibile avere una definizione univoca di parole come "istigazione" e "Violenza". I pregiudizi di persone in carne e ossa e dell'Intelligenza Artificiale sono contro i palestinesi, perché la filosofia di YouTube è che la comunità palestinese è intrinsecamente violenta, di conseguenza i suoi contenuti devono essere monitorati con attenzione.

Questo trattamento preconcetto deve finire, perché nella sua missione YouTube dichiara di sostenere la libertà di espressione».

Israele ha una definizione così ampia per il termine "istiga-zione" che in molti casi semplicemente esprimere un sostegno ai diritti umani dei palestinesi, condividere un video online o opporsi alla colonizzazione sionista è giudicato inappropriato.
I post sui social sono sempre più spesso l'unico motivo per cui un palestinese sarà detenuto per giorni, settimane o mesi dall'esercito israeliano.

L'interesse di Israele per l'istigazione all'odio e alla violenza è altamente selettivo, e pochissimi ebrei israeliani vengono detenuti per gli stessi reati. Questo, nonostante tra il 2020 e i1 2021 l'hate speech sui social di lingua ebraica sia aumentato del 9 per cento rispetto all'anno precedente, secondo la Berl Katznelson Foundation e l'istituto di ricerca Vigo. Dallo studio è emerso che 52 milioni di commenti incitavano alla violenza o erano offensivi, e gli arabi risultavano i principali bersagli degli insulti». L'attivista palestinese Dareen Tatour ha dovuto scontare anni di arresti domiciliari e mesi di carcere nel 2018 per aver scritto una poesia che conteneva le parole «Resisti, popolo mio, opponi loro resistenza». Israele l'ha accusata di «istigazione al terrorismo»

Nel suo rapporto, Nazzal ha mostrato come YouTube ha operato una discriminazione di natura geografica e linguistica contro 1 contenuti palestinesi. Ogni video in lingua araba aveva molte più probabilità di essere segnalato, specialmente se con-Teenale parole "Hamas", "Jihad Islamica" o "Hezbollah".

Utente palestinese in Cisgiordania, Hamed, creatore del canale Palestine 27k, ha scoperto che uno dei suoi video era stato cancellato, quindi, per fare un esperimento, ha inviato lo stesso video a un amico europeo, che lo ha caricato senza problemi.

Altri utenti hanno notato che YouTube aveva iniziato a controllare accuratamente i loro account non appena alcuni video erano diventati popolari. Di selto, anche i video precedenti hanno iniziato a scomparire, riducendo la loro capacità di monetizzare con successo i propri contenuti.

Nazzal riconosce che esiste un problema di hate speech in settori della comunità palestinese, ma sottolinea come sia molto di più quello proveniente dallo Stato israeliano. «Siamo in presenza di un colonizzatore e di un colonizzato, con migliaia di palestinesi in carcere», spiega. «Tuo figlio è stato ucciso da Israele e tuo marito è in carcere, ma c'è una differenza tra una persona che esprime hate speech e l'hate speech istituzio-nalilizzato, il monitoraggio e la sorveglianza messi in campo da Israele».

È capitato che la propaganda di Stato israeliana sia stata rimossa. Una pubblicità dell'idF su YouTube che aveva lo scopo di giustificare il bombardamento di Gaza del maggio 2021, mostrando cittadini israeliani che si riparavano dai razzi di Hamas e bambini che piangevano, è stata tolta solo dopo che la rivista online «Vice» ha informato Google. Le immagini non erano false, ma sono state giudicate eccessivamente violente o grezze. Il richiamo dei dollari della pubblicità è tuttavia più forte. Dopo la pubblicazione, nel 2022, di un rapporto di Amnesty International che accusava Israele di praticare l'apartheid, gli utenti di alcuni paesi hanno scoperto che, se cercavano su Google questo documento, la prima occorrenza era una pubblicità israeliana che accusava l'ONG di antisemitismo'

Un tale "orientalismo digitale" è la nuova forma di controllo, usata dai social media occidentali, un'agenda che replica nell'era moderna una lente discriminatoria dell'Occidente nei confronti delle popolazioni del Medio Oriente e dell'Africa del Nord. Ancora una volta gli arabi vengono per definizione trattati con sospetto.

Alcuni funzionari dell'intelligence israeliana in Cisgiordania gestiscono pagine Facebook per sostenere l'idea che l'occupazione non esista, la resistenza palestinese sia immorale e che ebrei e arabi coabitino pacificamente''. Gli account pubblicano informazioni palesemente false, ma non vengono rimosse dai moderatori. Questo tipo di propaganda sionista è giudicata appropriata, così come è stato ritenuto legittimo l'uso israeliano di algoritmi segreti che hanno scandito Facebook per prevenire sospette azioni criminali, portando all'arresto di ottocento palestinesi, quattrocento a opera di Israele e altri quattrocento per mano dell'Autorità Palestinese, prima che fosse compiuto un solo atto di violenza. Riferita da «Haaretz» nel 2017, questa rete digitale ha mostrato il futuro della militarizzazione dei social media per mettere a tacere le voci critiche. Ancora una volta Facebook non ha detto e non ha fatto niente.

Il cittadino palestinese Sami Janazreh, che abita vicino a Hebron, nel 2015 è stato arrestato per motivi imprecisi. Non gli venne detto perché e fu posto in detenzione amministrativa, una situazione di limbo dietro le sbarre senza nessun processo né capo d'imputazione". Dopo uno sciopero della fame di settantuno giorni, i funzionari israeliani gli hanno comunicato che sarebbe stato processato per istigazione sui social media e gli sono stati mostrati degli screenshot dei suoi post su Facebook. «Ogni volta che lo Shin Bet scopre che un palestinese ha condiviso la foto di uno shahid ['martire'] o di un prigioniero, o che ha scritto un post su Facebook dove parla di sé come palestinese, lo ritiene passabile di imputazione per istigazione», dichiarò Janazreh ad “Haaretz”.

Come Israele abbia una tale influenza sulla Silicon Valley è allo stesso tempo ovvio e di cattivo auspicio per il futuro dei gruppi emarginati, perché lo Stato ebraico non è il solo ad aver scoperto il tallone d'Achille delle Big Tech. Nel 2020 l'India del primo ministro Narendra Modi ha chiesto a Facebook di rimuovere 1 post critico verso il modo in cui il suo governo aveva gestito la pandemia da coviD-19, e l'azienda in linea di massima ubbidì. Funzionari del governo indiano hanno preteso la rimozione di un centinaio di post su Facebook, Twitter e Instagram perché non accettavano la presenza online di nessuna critica al governo Modi. Alcuni dipendenti di Facebook si indignarono, preoccupati che la società avesse ceduto a un potente governo populista. In una chat room interna uno di loro ha scritto che la società stava agendo «per paura», nel timore che potesse essere bandita dal paese.

Facebook si è trovato alle prese con un dilemma interno, dovendo gestire i contenuti che venivano dall'India. Con le prove che tanti post avevano provocato problemi seri alle minoranze di Myanmar, Palestina, India, Russia ecc., il team che si occupava della politica globale di Facebook sosteneva che la piattaforma rischiava di essere chiusa del tutto se non avesse ottemperato alle richieste del governo. In India gli appelli al genocidio contro la minoranza musulmana del paese da irrilevanti sono diventati mainstream, spesso con il sostegno o il tacito assenso del governo. Consentire questi commenti, come accade continuamente, è altamente irresponsabile.

In questo contesto febbrile il ruolo delle piattaforme social diventa presto una questione di vita o di morte, ma la maggior parte è restia ad agire in modo responsabile (qualunque cosa questo voglia dire a livello pratico). Del resto, se muore qualcuno, chi è il responsabile su Facebook o Instagram, e chi dovrebbe essere chiamato a rispondere? La risposta è che probabilmente nessuno si prenderebbe la colpa.

La selettività con cui Facebook modera i contenuti in Israele e Palestina si ripete in altri paesi e conflitti, evidenziando la riluttanza o l'incapacità dell'azienda a smorzare in modo adeguato le tensioni. Nel caso del Myanmar, Facebook permise che i post che incitavano al genocidio rimanessero visibili, amplificando così i messaggi di odio contro la minoranza musulmana dei rohingya. Ciò ha portato alle violenze di massa contro i rohingya del 2016 e del 2017, guidate direttamente dall'esercito. Nel 2018 Facebook è stata costretta a chiedere scusa per aver facilitato il genocidio. Pur essendo stato dimostrato che in E-tiopia questo social aveva permesso che rimanessero online dei post che incitavano alla pulizia etnica, e nonostante l'azienda avesse poi promesso di agire meglio in futuro, alcuni ricercatori del Bureau of Investigative Journalism e dell'«Observer» hanno scoperto che nel 2022 moltissimi di questi post erano ancora online. Un rapporto di Amnesty International, dello stesso anno, ha rivelato che Facebook «sapeva o avrebbe dovuto sapere» che 1 suoi algoritmi avevano aumentato l'odio contro i rohingya nel 2017 e ha chiesto che la società pagasse dei risarcimenti alle vittime.

La guerra russa contro l'Ucraina nel 2022 ha determinato la decisione immediata della Silicon Valley di declassare, bloccare o censurare gli account governativi russi. Chi voleva condividere link con siti statali russi veniva avvisato che stava per trasmettere informazioni provenienti da entità appoggiate da Mosca. Come accade con la maggior parte delle altre piattaforme social, queste iniziative sono state gestite senza alcuna trasparenza.

L'invasione russa dell'Ucraina è stata illegale e brutale, ma, in circostanze simili, molti altri regimi autoritari appoggiati dagli Stati Uniti non sono stati censurati. Forse l'aspetto più strano della risposta di Facebook è di aver permesso agli utenti di elogiare l'unità militare neonazista dell'Ucraina, il battaglione Azov, nonostante in precedenza fosse stato bandito. All'improvviso il sostegno a quell'unità paramilitare è diventato accettabile (e a lungo ha potuto reclutare tramite Facebook)8 Sembrava una decisione in linea con gli obiettivi in continua evoluzione della politica estera statunitense. Facebook ha assoldato decine di ex funzionari della cIA per elaborare le sue linee guida sui contenuti, Tik Tok ha assunto ex funzionari della NATO e Twitter si avvale di ex agenti dell'FBI.

Allo stesso modo, nel marzo 2022 Meta ha deciso di consentire in Russia, in Ucraina, in Polonia e nei paesi confinanti, sia su Facebook che su Instagram, commenti che incitavano alla violenza contro i soldati russi, contro Mosca nel contesto della guerra contro l'Ucraina, e contro il presidente russo Vladimir Putin e quello bielorusso Aljaksandr Lukasenko*. «Alla luce dell'attuale invasione dell'Ucraina», ha dichiarato alla NN un portavoce di Meta, «abbiamo fatto un'eccezione temporanea per permettere a coloro che sono colpiti dalla guerra di esprimere sentimenti violenti verso gli occupanti, tipo “morte agli invasori russi”. Si tratta di misure provvisorie volte a preservare la possibilità di esprimersi di persone che stanno subendo un'invasione».

Anche se gli appelli alla violenza venivano perlopiù lasciati passare dai moderatori di Facebook di tutto il mondo, a un certo punto Meta ha smesso di analizzare se i moderatori in carne e ossa stavano rimuovendo correttamente i contenuti relativi al conflitto ucraino, perché le regole continuavano a cambiare frequentemente e in modo impreciso. Permettere a un'azienda una decisione simile è stata una misura senza precedenti"

Era chiaro che la società non aveva delle vere linee guida riguardo alla guerra e stabiliva le regole giorno per giorno.

L'attivista palestinese Mona Shtaya ha fatto notare i palesi doppi standard applicati a Ucraina e Palestina e il modo in cui i social media trattavano i due conflitti. Uno era legittimo e morale, l'altro meritava il silenzio. Un occupante era il male, l'altro meritava rispetto. 

«Molti palestinesi sono rimasti sbalorditi dalla rapidità con cui le società dei social media si sono mostrate per proteggere la libertà di parola degli ucraini, specialmente in un periodo di guerra», avendo vissuto l'esatto opposto durante i combattimenti tra Hamas e Israele del maggio 2021. Ciononostante, Shtaya condivideva la decisione delle piattaforme e il loro sostegno all'Ucraina, ma sperava che ciò portasse a un più ampio riesame delle regole online per «aiutare altri gruppi oppressi di tutto il mondo, si tratta dei palestinesi, dei kashmiri, degli uiguri, delle popolazioni indigene della Colombia e del Sahara Occidentale, delle minoranze del Myanmar e di altre comunità»

I governi più potenti esercitano forti pressioni sulle società dei social media, incontrando scarsa resistenza da parte delle minoranze interne perché queste ultime non hanno la capacità o i mezzi per opporsi. Jordana Cutler, già consulente del primo ministro Benjamin Netanyahu e capo del personale dell'ambasciata israeliana a Washington, nel 2016 è stata nominata responsabile della politica pubblica di Facebook per Israele e la diaspora ebraica. Nel 2020 ha dichiarato: «Il mio compito è parlare a Facebook per conto di Israele e della diaspora ebraica. Abbiamo riunioni settimanali per discutere di tutto, dallo spam alla pornografia all'hate speech, il bullismo e la violenza, e di come Facebook si riferisce agli standard della nostra comunità. In questi incontri io rappresento Israele»

Facebook non ha invece nessun rappresentante che faccia riferimento alla Palestina. I palestinesi e le centinaia di milioni degli altri arabi che vivono in venticinque paesi della regione sono coperti dal responsabile della politica pubblica per il Medio Oriente e l'Africa del Nord, Azzam Alameddin, di stanza a Dubai. Prima di Alameddin, il ruolo era rivestito da Ashraf Zeitoon, il quale ricorda una discussione avuta con Cutler sul fatto se la Cisgiordania dovesse essere definita «Territori Occupati» dalle regole aziendali. Mah Elmahdy, altra ex moderatrice dei contenuti su Facebook, ha raccontato che alcuni membri israeliani del team per la politica globale esercitavano pressioni sui colleghi riguardo a possibili rimozioni di contenuti e agli indirizzi generali della politica. In queste discussioni non erano mai presenti punti di vista filopalestinesi.

Una ex dipendente di Facebook che si occupava di gestione delle comunità, Maria, ha dichiarato a fillian C. York della Electronic Frontier Foundation che la moderazione dei contenuti si reggeva su un sistema estremamente lacunoso. Alcuni documenti pubblicati dal «Guardian» nel 2017 hanno rivelato come le voci palestinesi venissero silenziate. Un documento, intitolato "Violenze credibili. Standard sugli abusi", elencava gruppi "vulnerabili" tra cui stranieri, connazionali e sionisti. Secondo quanto raccontato da Maria a York: «Dicevamo che essere sionista non è come essere indù o musulmano o bianco o nero: è come essere un socialista rivoluzionario, è un'ideologia. E a-esso quasi tutto ciò che fa riferimento alla Palestina viene cancellato»

Un altro documento interno ottenuto da «The Intercept» nel 2021 ha rivelato le regole su come moderare la parola “sionista”. C'era pochissimo spazio per le critiche al sionismo perché venivano giudicate hate speech. Il documento prevedeva che i moderatori stabilissero se "sionista" fosse usato come sinonimo di ebreo, anche nei post sugli insediamenti israeliani, e forniva l'esempio di un post che richiedeva la rimozione: «Annulla: Post originale, "Coloni israeliani si rifiutano di lasciare le case costruite su territorio palestinese"; Commento, "Vaffanculo i sionisti!'» *7. Anche se la parola "sionista" può alludere a un insulto antisemita, censurarne l'uso toglie ai palestinesi la possibilità di condannare la violenza e l'oppressione quotidiana di attori sionisti. Molti palestinesi e arabi usano il termine "sionista" quando si riferiscono alla colonizzazione delle terre palestinesi e non per demonizzare gli ebrei.

Da sempre le lobby sioniste ed evangeliche cristiane degli Stati Uniti esercitano enormi pressioni su Facebook affinché limiti la quantità di contenuti filo-palestinesi presenti sulla piattaforma. Nel 2000 oltre 120 organizzazioni inviarono una lettera al consiglio di amministrazione della società, invitandolo a «adottare in toto» la definizione vigente di antisemitismo della International Holocaust Remembrance Alliance (IHRA). Quello dell'iRA è un documento problematico perché mira a bandire la maggior parte delle critiche verso Israele in quanto antisemiti, e mette insieme, in un unico calderone, l'antisionismo e l'odio per gli ebrei. Ciononostante, Facebook veniva invitata ad adottare le linee guida dell'iRA per «proteggere gli utenti ebrei dall'hate speech e da immagini che incitano all'odio e spesso conducono alla violenza».

Facebook non ha adottato ufficialmente le linee guida dell'iRA ma sembra utilizzare alcune delle sue indicazioni. Monika Bickert, vicepresidente di Facebook per la politica sui contenuti, ha risposto ai mittenti della lettera scrivendo che l'azienda «fa suo lo spirito - e il testo - dell'IRA» e che, nella politica di Facebook, «ebrei e israeliani sono trattati come “elementi protetti”»

L'ironia dell'atteggiamento di fondo di Facebook verso il conflitto risiede nella sua incapacità di estirpare dal sito il negazionismo dell'Olocausto e il vero antisemitismo, temi che sono ricadute molto più gravi sugli ebrei e su altre minoranze. Gruppi suprematisti bianchi si organizzano liberamente sulla piattaforma. È legittimo chiedersi se le piattaforme di social media siano davvero tenute a rimuovere dei contenuti quando questi esprimono semplicemente un'opinione, senza costituire un'istigazione alla violenza". L'ascesa dell'estrema destra, l'aumento della violenza antisemita e il revisionismo sulla Shoah non sono provocati da Facebook, ma trovano sicuramente un alleato nella capacità della piattaforma di diffondere i messaggi rapidamente e in lungo e in largo.

Come ebreo, provo fastidio e anche preoccupazione per come Facebook, Twitter e altri social finiscano per amplificare su scala globale e in modo massiccio materiali grossolani che negano la realtà storica della Shoah o di qualunque altro genocidio avvenuto nella storia. Provo gli stessi sentimenti riguardo alla demonizzazione degli ebrei e di ogni altro gruppo minoritario.

Tuttavia, chi dà ai moderatori di Facebook o ai suoi opachi algo rimi basati sull'intelligenza artificiale il diritto di giudicare ciò che sa adeguato? La commemorazione della Shoah è materia innegabilmente spinosa: ciò che una persona trova offensivo può essere condivisibile per un'altra, e quindi molte piattaforme online devono affrontare questo problema.

Numerosi utenti di TikTok, perlopiù ragazze, negli ultimi anni si sono travestiti da vittime dell'Olocausto, fingendo di essere in un campo di sterminio nazista, simulando il sangue con il trucco o indossando divise carcerarie a righe. Alcuni trovano questi gesti estremamente offensivi, un modo di sminuire un genocidio, per altri, me compreso, sono invece la testimonianza di come una nuova generazione voglia ricordare l'evento in modo moderno. Questo non è negazionismo dell'Olocausto, ma molti utenti sono stati oggetto di feroci critiche dopo aver pubblicato i loro brevi video".

Le pressioni su Facebook della lobby filoisraeliana coincidono con i crescenti e riusciti tentativi di convincere i vari paesi ad accogliere le linee guida dell'iRA e i singoli Stati degli Stati Uniti ad adottare leggi contro il boicottaggio che colpiscano chiunque rifiuti di intrattenere relazioni commerciali con gli insediamenti illegali in Cisgiordania. Via mentre le operazioni di Israele in Palestina diventavano più estreme, i suoi sostenitori in Occidente hanno intensificato gli sforzi per mettere a tacere le critiche. Anziché concentrarsi sul problema dell'occupazione-De e porvi fine, il Ministero degli Affari Strategici di Israele ha sviluppato una comunità online e un'app chiamata Aст., ovvero un esercito di troll che tempesta le società dei social media e i siti informativi che pubblicano contenuti critici verso lo Stato ebraico.

Dopo la valanga di accuse per il presunto ruolo avuto nell'elezione di Donald Trump a presidente degli Stati Uniti, nel 2016, Facebook ha risposto costituendo un Consiglio di vigilanza, un organismo sulla falsariga della Corte suprema americana.

Tra i suoi membri, che sono stati scelti in tutto il mondo, c'era Emi Palmor, ex direttrice generale del Ministero della Giustizia israeliano. Al momento nel consiglio non c'è nessun rappresentante palestinese. Quando si è seppe della nomina di Palmor a membro fondatore, i palestinesi hanno reagito con rabbia citando il suo precedente ruolo nel Ministero della Giustizia, periodo durante il quale le vennero addebitate pressioni sulle piattaforme social per rimuovere contenuti critici verso Israele?.

Palmor negò ogni sua partecipazione a queste attività, sperando di essere presente quando il Consiglio di vigilanza si fosse dovuto esprimere su casi di antisemitismo. «Come israeliana ed ebrea [...] ovviamente ho un'opinione su questi temi e una conoscenza maggiore di qualunque altro componente del consiglio», dichiarò al «Jerusalem Post»

Il potere del Consiglio di vigilanza è discutibile: in teoria è indipendente, ma è finanziato da un trust di Facebook. Una portavoce del consiglio ha insistito con me che è «indipendente e opera separatamente da Meta». La direzione aziendale ha tuttavia voce in capitolo nella scelta dei membri. Una decisione del settembre 2021 è andata al cuore delle prerogative del consiglio.

Un post del maggio 2021 che parlava della moschea al-Aqsãe dell'area di Sheikh Jarrah era stato rimosso per errore e Facebook l'aveva ripristinato. Il consiglio doveva esprimersi sull' "Accusa" che Facebook stesse censurando i post palestinesi in seguito alle richieste che gli erano giunte dal governo israeliano, quindi voleva sapere da Facebook "se l'azienda avesse ricevuto da Israele richieste ufficiali e ufficiose di rimuovere contenuti relativi al conflitto di aprile-maggio. Facebook ha risposto di non aver ricevuto da alcuna autorità governativa alcuna istanza legale valida collegata al contenuto dell'utente in questo caso specifico, ma si è rifiutata di fornire le ulteriori informazioni sollecitate dal consiglio».

Facebook deve attenersi alle decisioni del consiglio ma non è tenuto a implementarne le raccomandazioni. A suo merito, il Consiglio di vigilanza ha raccomandato all'azienda di avvalersi di un'entità indipendente non legata a nessuna delle parti [del conflitto] per condurre un esame approfondito per stabilire se la moderazione dei contenuti in arabo e in ebraico, compreso il ricorso all'automazione, sia stata applicata senza pregiudizi».

Secondo alcuni documenti diffusi nel 2021 dalla whist-leblower di Facebook Frances Haugen, l'azienda destinava pochissime risorse al monitoraggio dei contenuti prodotti al di fuori degli Stati Uniti. Facebook sapeva di non investire a sufficienza nell'assunzione di personale e nello sviluppo di strumenti di intelligenza artificiale per decodificare le oltre 160 lingue usate sulla piattaforma. Haugen ha rivelato che l'87 per cento del denaro speso per combattere la disinformazione era destinato ai contenuti in lingua inglese, anche se solo il 9 per cento degli utenti parla inglese. Le violenze di massa, gli atti di genocidio e i massacri in Myanmar e in Etiopia potevano essere collegati direttamente a questa lacuna, ha spiegato Haugen, perché i contenuti capaci di suscitare un enorme avevano la priorità sugli altri senza che ci fossero controlli di sicurezza adeguati

Troppo spesso Facebook sembra fare di testa propria quando si tratta di mettere a tacere le voci palestinesi, anche se è impossibile sapere se dietro non ci sono pressioni israeliane. Quando l'attivista palestinese Khalida Jarrar è venuta ingiustamente incarcerata nel 2021, Israele le ha negato la possibilità di partecipare ai funerali della figlia Suha. Un amico di Jarrar, Omar Nazza, aveva postato su Facebook una sua lettera. «Suha è venuta al mondo che suo padre era in carcere e sta lasciando il mondo che sua madre è in carcere», aveva scritto Jarrar. Cinque ore dopo Facebook informò Nazzal che il suo account sarebbe stato bloccato per due mesi perché il post «va contro le nostre lince guide su persone e organizzazioni pericolose, quindi solo lei potrà vederlo».

Che cosa contenesse quella lista segreto di «persone e organizzazioni pericolose» era rimasto nascosto per anni, una scatola nera di incertezza che lasciava milioni di utenti senza alcuna indicazione di cosa sarebbe stato rimosso e cosa no.

«The Intercept» ottenne l'elenco e le regole associate, rendendoli pubblici nel 2021. Si trattava di «una chiara epitome delle ansie, delle preoccupazioni politiche e dei valori della politica estera degli Stati Uniti dopo l'Undici Settembre, secondo gli esperti, anche se [...] la politica è intesa a proteggere tutti gli utenti di Facebook e si applica a quanti risiedono fuori dagli Stati Uniti (la grande maggioranza)».

La testata online continuava: «Quasi ogni individuo e gruppo presente nell'elenco è considerato un nemico o una minaccia da Washington o dai suoi alleati: oltre la metà sono presunti terroristi stranieri, la cui libera discussione è soggetta alla più rigorosa censura di Facebook». I terroristi elencati sono perlopiù musulmani, dell'Asia meridionale e del Medio Oriente, e alle milizie antigovernative bianche è concessa più libertà che agli individui di colore segnalati.

Cosa c'è in gioco se la società non riprenderà in mano una forma di controllo, sottraendolo alle grandi aziende tecnologiche e alle piattaforme dei social media, lo spiega Shoshana Zuboff nella conclusione del suo libro Il capitalismo della sorveglianza. «Il fine [di queste corporazioni] non è più il dominio della natura, bensì della natura umana. Siamo passati da macchine che superano i limiti del corpo a macchine che modificano i comportamenti di individui, gruppi e popolazioni al servizio di obiettivi di mercato»

A livello pratico, specialmente per i gruppi che non esercitano alcuna vera influenza politica nelle capitali occidentali. palestinesi compresi, questo significa opporsi all'idea di essere poco più di un modo per far guadagnare enormi somme di denaro alle grandi aziende tecnologiche. Pochi hanno espresso l'ideologia di Facebook meglio di Andrew Bosworth, attuale direttore tecnico di Meta, che in un promemoria del 2016 diventato pubblico, ammetteva che l'unico obiettivo aziendale era connettere le persone [e raccogliere dati]. Ecco perché tutto il lavoro che facciamo per crescere è giustificato. Questo può essere dannoso se viene visto in senso negativo. Qualcuno potrebbe rimetterci la vita se esposto agli attacchi di bulli. 

Qualcuno potrebbe morire in un attentato terroristico coordinato attraverso i nostri strumenti [...]. La triste verità è che crediamo così tanto nella bontà di collegare gli individui che qualunque cosa ci permetta di connettere più persone il più delle volte è positivo a prescindere La perdita di vite umane per colpa di Facebook era evidentemente un rischio che valeva la pena correre. I palestinesi potrebbero giustamente sostenere che essere occupati da Israele non interessa all'azienda perché nulla si può imporre alla crescita infinita. L'apartheid è solo un dissuasore di velocità sulla strada verso una maggiore quotazione in borsa.

Anche se Bosworth ha rinnegato il post dopo la sua divulgazione nel 2018, ricevendo anche il biasimo di Zuckerberg per il suo contenuto, quello è stato un momento di rara onestà per l'azienda. Senza modi alternativi di comunicare su altre piattaforme, e senza un rifiuto delle regole truccate scritte da Facebook, Google e gli altri giganti tecnologici, i palestinesi e gli altri gruppi marginali non otterranno mai giustizia né avranno modo di far ascoltare seriamente le proprie ragioni. [FINE]

dal libro: Laboratorio Palestina: Come Israele esporta la tecnologia dell’occupazione in tutto il mondo di Antony Loewenstein

Commenti

Post popolari in questo blog

Il rapporto di Francesca Albanese: DALL'ECONOMIA DELL' OCCUPAZIONE ALL'ECONOMIA DEL GENOCIDIO - Rapporto del Relatore Speciale sulla situazione dei diritti umani nei territori palestinesi occupati dal 1967

Le ingerenze della lobby israeliana nel Parlamento europeo e italiano - (FOTO) [1di 2 PRIMA PARTE]