Libertà vigilata
eBook - ePub

Libertà vigilata

La lotta per il controllo di internet

  1. 192 pagine
  2. Italian
  3. ePUB (disponibile sull'app)
  4. Disponibile su iOS e Android
eBook - ePub

Libertà vigilata

La lotta per il controllo di internet

Dettagli del libro
Anteprima del libro
Indice dei contenuti
Citazioni

Informazioni sul libro

Da qualche anno i guru del web stanno mettendo in discussione il dogma secondo cui internet sarebbe il luogo per eccellenza della libertà di espressione e del libero scambio tra le persone. Ma se le cose non stanno più così, qual è il livello di controllo? Forse il nostro approccio cambierebbe se ci rendessimo conto che il web è sempre più il luogo in cui la libertà vigilata e in cui le persone passano molto tempo: in rete la gente si conosce, scambia opinioni, si innamora: dialoga di politica e di sesso allo stesso tempo. David Kaye con Libertà vigilata firma un appassionane reportage, un'indagine informata sui pericoli che la democrazia sta correndo, ma anche un richiamo forte a come trascorriamo la nostra quotidianità affidando dati e pensieri a chi potrebbe farne uso in maniera indiscriminata. Se il nostro presente è sotto controllo, il futuro è già sotto scacco.

Domande frequenti

È semplicissimo: basta accedere alla sezione Account nelle Impostazioni e cliccare su "Annulla abbonamento". Dopo la cancellazione, l'abbonamento rimarrà attivo per il periodo rimanente già pagato. Per maggiori informazioni, clicca qui
Al momento è possibile scaricare tramite l'app tutti i nostri libri ePub mobile-friendly. Anche la maggior parte dei nostri PDF è scaricabile e stiamo lavorando per rendere disponibile quanto prima il download di tutti gli altri file. Per maggiori informazioni, clicca qui
Entrambi i piani ti danno accesso illimitato alla libreria e a tutte le funzionalità di Perlego. Le uniche differenze sono il prezzo e il periodo di abbonamento: con il piano annuale risparmierai circa il 30% rispetto a 12 rate con quello mensile.
Perlego è un servizio di abbonamento a testi accademici, che ti permette di accedere a un'intera libreria online a un prezzo inferiore rispetto a quello che pagheresti per acquistare un singolo libro al mese. Con oltre 1 milione di testi suddivisi in più di 1.000 categorie, troverai sicuramente ciò che fa per te! Per maggiori informazioni, clicca qui.
Cerca l'icona Sintesi vocale nel prossimo libro che leggerai per verificare se è possibile riprodurre l'audio. Questo strumento permette di leggere il testo a voce alta, evidenziandolo man mano che la lettura procede. Puoi aumentare o diminuire la velocità della sintesi vocale, oppure sospendere la riproduzione. Per maggiori informazioni, clicca qui.
Sì, puoi accedere a Libertà vigilata di David Kaye, Graziosi Francesco in formato PDF e/o ePub, così come ad altri libri molto apprezzati nelle sezioni relative a Social Sciences e Sociology. Scopri oltre 1 milione di libri disponibili nel nostro catalogo.

Informazioni

Editore
Treccani
Anno
2021
ISBN
9788812008407
Categoria
Sociology

1

IL POTERE DELLE PIATTAFORME

Il video, caricato su YouTube nel maggio del 2011, mostra il cadavere di un adolescente: il corpo è martoriato e bruciato, gli occhi sono chiusi. Un uomo commenta in arabo mentre mostra le varie ferite inflitte al corpo: lividi, tagli profondi, evirazione. Hamza al-Khatib aveva tredici anni. Quel video fu il primo documento della guerra in Siria a influenzare l’atteggiamento del pubblico verso il governo del presidente siriano Bashar al-Assad, scatenando un’ondata di sdegno e proteste di massa. In Occidente, Hamza, che un mese prima era stato arrestato mentre partecipava a una manifestazione contro il governo a Daraa, divenne «il volto dell’insurrezione siriana»,1 «un simbolo della rivoluzione»,2 una vita brutalmente stroncata da un regime deciso a conservare il potere. Il video ebbe un impatto globale, e mostrò al mondo per la prima volta la potenza dei social media e delle piattaforme di ricerca. Acconsentendo alla sua pubblicazione, i genitori di Hamza volevano che la sua morte orribile risvegliasse le coscienze dei siriani governati da Assad.
Non appena il video fu caricato, però, YouTube lo fece sparire. Le norme dell’azienda3 vietano di condividere immagini di «cadaveri […] o altri scenari simili pubblicati allo scopo di sconvolgere o disgustare gli spettatori». Il video era sconvolgente ed era stato pubblicato con l’intento di sconvolgere. Nonostante ciò, era innegabile che fosse di interesse pubblico. All’oscuramento seguì una pioggia di reclami. Alcuni giorni dopo la rimozione, YouTube rese nuovamente disponibile il video, come contenuto soggetto a limiti di età.
YouTube vigila sul proprio sito, esattamente come fanno Facebook (e Instagram, la sua piattaforma di condivisione immagini), Twitter, Reddit, Tumblr, Snapchat, VK in Russia, WeChat in Cina e tutte le altre piattaforme che ospitano contenuti generati dagli utenti. Le società adottano, applicano, rivedono e spesso aggirano quella che gli studiosi chiamano sempre più spesso la “legge della piattaforma”4 (platform law). L’oscuramento del video di Hamza al-Khatib solleva proprio la questione della vigilanza: come fa YouTube (o qualsiasi altra piattaforma) a distinguere le immagini scioccanti che vuole proibire da quelle di estremo interesse pubblico? Spetta a YouTube prendere queste decisioni? E se sì, in base a quali criteri?
Anche Hadi al-Khatib (nessuna parentela con Hamza) avrebbe sperimentato la potenza di YouTube. Attivista di Damasco, aveva lavorato con i rifugiati iracheni dopo l’invasione americana, e sempre a Damasco aveva studiato all’università tecnologie e sicurezza dell’informazione. Nel momento in cui le proteste esplose nel 2011 contro Assad si stavano trasformando in guerra civile, Hadi aveva le competenze necessarie, nonché l’interesse personale, per aiutare i giornalisti stranieri a salvaguardare la loro sicurezza informatica. Ben presto però per i giornalisti (locali e non) lavorare in Siria divenne sempre più difficile. Il governo negava regolarmente il visto d’ingresso ai reporter stranieri, e quei pochi che riuscivano a entrare nel paese subivano minacce e aggressioni, come molti colleghi siriani, non appena si allontanavano dagli accompagnatori a loro assegnati. Nei primi anni della guerra sono morte decine di giornalisti siriani. Nel 2012 l’inviata americana Marie Colvin rimase uccisa durante un probabile attentato5 al centro stampa di fortuna dal quale seguiva la guerra.
In questo clima così rischioso per chi raccoglieva e diffondeva informazioni, nel 2011 Hadi fondò insieme ad alcuni amici il Syrian Uprising Information Center, facendo rete grazie a una pagina Facebook e tracciando l’andamento delle rivolte su Google Maps. Restare in Siria dopo il 2012 significava rischiare il carcere, la tortura e la morte, perciò Hadi si trasferì in Turchia per allestire il centro informazioni a Gaziantep, una città di confine dalla quale molti esuli siriani cercavano di contribuire alle proteste. Hadi mantenne il centro informazioni attivo fino al 2013, ma era costantemente intralciato da azioni di pirateria e inquinamento. Le forze filogovernative falsavano i sistemi di segnalazione di Facebook e YouTube, contrassegnando in massa alcuni contenuti come “espliciti” per ottenerne la rimozione. Come tanti altri attivisti in tutto il mondo, specialmente agli albori della rivoluzione dei social media, Hadi e i suoi colleghi navigavano a vista, senza sapere come reagire. Provarono a rivolgersi direttamente alle società della Silicon Valley, ma ben presto capirono che era quasi impossibile riuscire a contattare qualcuno. Decisero allora di trasferire il sito su un server autonomo, ma neppure quello servì a scrollarsi di dosso hacker, troll e censori.
Allo stesso tempo, in tutta la Siria, Internet stava realizzando la promessa di un’informazione democratica e a basso costo, insieme alla possibilità di condividerla. Giornalisti, cittadini e spettatori casuali riprendevano scene di guerra, spesso con i cellulari, e le caricavano quasi immediatamente su YouTube, spesso da account collegati a Facebook e Twitter. Hadi sapeva che per molti di loro era pericolosissimo condividere quei materiali e, soprattutto, sapeva quanto questi fossero preziosi. C’erano video di attacchi convenzionali contro civili di cui non veniva data notizia per via dei rischi che comportava l’ingresso in Siria. C’erano casi di tortura, di uso di barrel bomb – contenitori di metallo imbottiti di esplosivi – e armi chimiche, di esecuzioni sommarie di prigionieri da parte dello Stato e di gruppi terroristici come l’Isis. Erano tutte informazioni che non solo documentavano la realtà della guerra, ma che un giorno avrebbero potuto essere usate come prove per incriminare esponenti del governo, ribelli e terroristi.
Nel 2014 Hadi e altri volontari istituirono l’Archivio siriano, per raccogliere il maggior numero possibile di informazioni di quel tipo. All’inizio passavano in rassegna i canali YouTube siriani e scaricavano i materiali man mano che li visionavano; poi, nel 2015, crearono un software per setacciare YouTube e scaricare materiali nuovi sul server dell’archivio a intervalli giornalieri. A metà del 2018, l’archivio aveva ormai scaricato oltre un milione e mezzo di contenuti digitali (anche se, dato il dispendio di risorse che il lavoro comportava, erano riusciti ad autenticare e catalogare soltanto 4.500 immagini e video).
E poi arrivò l’epurazione. A partire dal 2017, Hadi e il suo gruppo si accorsero che YouTube stava eliminando i video prima ancora che l’archivio riuscisse a scaricarli, mentre quelli che erano già conservati nell’archivio sparivano poco dopo.6 Sul piano giuridico si trattava di un fatto gravissimo: i filmati di potenziali crimini di guerra e contro l’umanità andavano protetti dalla cancellazione, autenticati con urgenza e condivisi con la stampa e le Nazioni unite. Cancellarli significava ostacolare l’accertamento delle responsabilità, anche nella sua forma più elementare di documentazione storica o di prove raccolte in vista di un procedimento penale che sarebbe iniziato solo dopo molti anni, o forse mai.
Per YouTube la questione era assai più complicata. Dalla rimozione del video di Hamza, nel 2011, le norme della community si erano evolute. Come altre società, YouTube aveva adottato linee guida che definiva «ispirate al buon senso», volte a escludere dalla piattaforma contenuti sessuali e pornografici (in particolare lo sfruttamento o l’abuso di minori) o i contenuti «dannosi o pericolosi», «che incitano all’odio», «violenti o espliciti», contententi molestie o bullismo, minacce, o che costituiscono uso improprio di materiali protetti da copyright. Alcune di queste norme rispecchiavano il tipo di brand che YouTube intendeva promuovere, nel timore (probabilmente giustificato) che la linfa vitale della piattaforma, cioè le inserzioni pubblicitarie, si sarebbe prosciugata in presenza di troppi contenuti “difficili” o “discutibili”. Alcune norme erano il frutto tanto di interventi statali quanto di pressioni da parte degli utenti o degli inserzionisti, per esempio quelle contro «i contenuti che promuovono atti terroristici, incitano alla violenza o celebrano gli attacchi terroristici».
YouTube si colloca a metà strada fra chi carica i contenuti e il pubblico. I social media rappresentano in questo senso un nuovo tipo di controllo della libertà di espressione, che decide cosa si può vedere e cosa va invece nascosto. E devono compiere questo sforzo su una scala enorme: se nel 2008 su YouTube sono state caricate circa 10 ore di video al minuto,7 nel 2018 quel numero è salito a 450.8
Questa enorme mole di dati impone a YouTube di affidarsi a due strumenti per isolare i contenuti potenzialmente problematici o illegali: gli operatori umani, che spulciano e segnalano, e l’automazione algoritmica, o intelligenza artificiale. Idealmente, i contenuti segnalati (sia dagli umani sia dagli algoritmi) dovrebbero passare al vaglio degli operatori umani prima di essere rimossi, ma non sempre è così. Entrambi i tipi di segnalazione possono condurre a rimozioni e oscuramenti erronei o comunque soggetti a contestazioni da parte di attivisti e governi.
Tracciare un confine non è facile. Molti video includono immagini scioccanti di morti violente, immagini certamente spaventose per i bambini o che addirittura, a detta di alcuni, inneggiano alla violenza. YouTube prevede eccezioni per materiali simili se hanno finalità educative, documentaristiche, scientifiche o artistiche (in questo caso vengono etichettati con la sigla Edsa), ma spesso, in mancanza di un contesto, gli strumenti automatici non sanno distinguere le eccezioni Edsa dai video che violano le norme. Le rimozioni erronee o contestate, esacerbate forse dal ricorso crescente all’intelligenza artificiale per vigilare sull’enorme quantità di materiale caricato, sono ormai un elemento costante dell’attività di controllo che YouTube cerca di esercitare sui contenuti violenti, per i quali il pubblico nutre un forte interesse. Juniper Downs, ex legale della Aclu9 e oggi responsabile delle policy di YouTube, ha ammesso: «Non sempre ci azzecchiamo».10
Hadi comprendeva la posizione di YouTube, le cui norme erano tuttavia applicate in un modo che a lui e ai colleghi risultava poco trasparente. Con l’appoggio di organizzazioni affermate nel campo dei diritti digitali come Witness, che ha sede a Brooklyn, Hadi sta cercando di convincere YouTube che i video dell’Archivio siriano, dato il loro valore storico e pubblico, non andrebbero assolutamente eliminati. Mi ha però confidato che è quasi impossibile anche solo trovare la persona di YouTube giusta alla quale rivolgersi. Da Witness, Dia Kayyali, sostenitrice dell’Archivio siriano ed ex attivista della Electronic Frontier Foundation, ha sottolineato la necessità di una formazione più ampia, in modo tale che chi carica i video sappia fornire il necessario contesto, e che il materiale soddisfi così i requisiti Edsa. Anche in quel caso, però, gli algoritmi di filtraggio tendono a intrappolare nelle loro maglie grandi quantità di contenuti contestualizzati.
È lecito poi domandarsi quanti contenuti vengano effettivamente rimossi per errore. YouTube subisce pressioni enormi da parte dei governi affinché faccia sparire ogni contenuto vagamente legato al terrorismo. I governi dell’Unione Europea e la Commissione Europea esigono che YouTube e altri social media rimuovano i contenuti “illegali” entro un’ora, e le società che li gestiscono sono restie a disobbedire perché temono la mano pesante degli interventi statali. Vigilare sulla piattaforma, venendo incontro sia alle autorità sia agli interessi di attivisti come Hadi al-Khatib, o dei genitori di bambini come Hamza, è per YouTube un difficile esercizio di equilibrismo.
Se i casi siriani esemplificano i rischi dell’eccessiva moderazione dei contenuti, il ruolo svolto da Facebook in Myanmar è emblematico del fenomeno opposto: l’applicazione inefficace e discontinua delle norme. Per sei settimane, a partire dall’estate del 2017, l’esercito del Myanmar (noto come Tatmadaw), con l’appoggio di gruppi militanti buddisti, ha costretto centinaia di migliaia di musulmani rohingya a lasciare il paese e rifugiarsi in Bangladesh. Migliaia di loro sono stati uccisi e violentati. Il commissario per i Diritti umani delle Nazioni unite lo ha definito «un caso da manuale di pulizia etnica».11 Poco tempo dopo, il Consiglio per i diritti umani delle Nazioni unite ha istituito una missione d’inchiesta per accertare le responsabilità di quei crimini. Oltre a una dura condanna delle autorità, la missione ha espresso anche un’altra forte preoccupazione, che ha riassunto così nell’estate del 2018: «Facebook è stato un utile strumento di incitamento all’odio, in un contesto in cui, per la maggior parte degli utenti, Facebook è sinonimo di Internet».12
Anche Twitter e YouTube hanno preso piede in Myanmar, ma è Facebook a dominare, con un numero di utenti pari a circa venti milioni, cioè quasi tutti coloro che usano Internet. Facebook è diventato in tutto il paese un modo per condividere notizie e informazioni, in modi inconcepibili sotto il precedente regime militare, che regolava severamente tutti i media e ogni forma di espressione. Dalla fine del governo militare, nel 2011, l’ingresso e la rapida diffusione di Facebook tramite la sua piattaforma Free Basics (che offre accesso gratuito a Facebook, ma non al resto di Internet) hanno offerto un modo diverso di concepire l’informazione e i media. Il guaio è che l’espansione delle comunicazioni e dell’accesso alle informazioni ha dato anche ai soggetti malintenzionati maggiori opportunità di usare Facebook per scopi nefandi. Ufficiali del Tatmadaw e gruppi di militanti buddisti antislamici lo hanno utilizzato per diffondere contenuti che aggravavano la discriminazione e il razzismo birmani nei confronti della comunità rohingya.
Facebook ha messo a disposizione una piattaforma importante per la diffusione di questo incitamento all’odio, benché le norme di Facebook che lo vietano avrebbero potuto essere applicate, in teoria, per scopi positivi. Alcuni militanti e lo stesso Tatmadaw hanno utilizzato Facebook per diffondere false notizie di aggressioni a cittadini birmani da parte dei rohingya, e per fomentare un clima di odio verso l’intera minoranza. Il linguaggio adottato era estremamente provocatorio e invocava la distruzione del popolo rohingya, descritto in termini che richiamavano la disumana retorica antisemita della Germania nazista. Facebook non è stato capace di moderare quei contenuti. Ha invece rimosso, inspiegabilmente, i post che descrivevano aggressioni reali ai danni dei rohingya e ha sospeso un gruppo di utenti creato per segnalare le località sotto attacco e permettere ai rohingya di evitarle. Se...

Indice dei contenuti

  1. Copertina
  2. Frontespizio
  3. Colophon
  4. PREFAZIONE
  5. Introduzione
  6. CAPITOLO 1 Il potere delle piattaforme
  7. CAPITOLO 2 Internet arriva a Washington
  8. CAPITOLO 3 Umani e macchine
  9. CAPITOLO 4 Wir schaffen das!
  10. CAPITOLO 5 Scegliete da che parte stare
  11. CAPITOLO 6 «Arbitri della verità»
  12. CAPITOLO 7 La sfida della “libertà parziale”
  13. CONCLUSIONE La vigilanza in una Internet centralizzata
  14. Consigli di lettura
  15. Ringraziamenti