I bambini non si toccano
Cosa possiamo capire dall'audizione delle Big Tech al Senato degli Stati Uniti?
Attenzione: immagine forte.
Seguita da parole altrettanto forti:
“Mi scuso per tutto quello che avete passato. È terribile. Nessuno dovrebbe soffrire quello che le vostre famiglie hanno sofferto. È per questo che investiamo così tanto per essere sicuri che non ricapiti a nessun’altro”
Così, nell’aula del Senato degli Stati Uniti, qualche giorno fa Mark Zuckerberg si è rivolto alle famiglie i cui figli sono morti per tremende dinamiche legate all’uso dei social media.
Un’immagine forte per la sua tangibilità. Al di là delle sue parole, c’è Mark Zuckerberg, uno degli uomini più ricchi del pianeta, nella stessa stanza di chi ha sofferto delle perdite anche a causa dell’impero di Meta. O, almeno, delle famiglie che pensano che senza Instagram o Facebook probabilmente si sarebbero risparmiate delle sofferenze.
È così che Zuck ha passato uno dei giorni prima del ventesimo compleanno di Facebook.
Ma cosa stava succedendo? Perché Zuckerberg era a Washington e non in Silicon Valley?
Non era solo. Insieme a lui c’erano i CEO di X, Snapchat, Discord e TikTok. Per certi versi, anche la presenza di CEO oltre Meta e X è un’innovazione. Tutti ricevuti al Senato per portare la loro testimoniaza sulla “Online Child Sexual Exploitation Crisis”. Esatto, sulla crisi in corso di sfruttamento sessuale dei bambini sui social media, ed i rischi connessi.
È un tema caldo, caldissimo negli USA. Basti pensare che negli ultimi due discorsi “State of the Union” al Congresso, Biden ha menzionato la necessità di misure per la protezione dei bambini online.
Ed è anche uno dei pochi temi su cui c’è addirittura consenso bipartisan tra Repubblicani e Democratici. Nonostante i due partiti siano divisi su (quasi) tutto anche rispetto alla regolamentazione della tecnologia, su una cosa concordano: i bambini non si toccano. E magari hanno una posizione comune per ragioni diverse, ma rimane comunque l’obiettivo di un Internet più sicuro.
Per questa ragione, i cronisti di Washington dicono che ci sia un “momentum” per fare leggi sulla sicurezza di Internet. Nessuna è ancora passata, ma gli assistenti parlamentari sono alle prese con le bozze di vari atti, tra cui:
Kids Online Safety Act (KOSA), su cui torniamo dopo,
Children and Teens’ Online Privacy Protection Act (COPPA 2.0),
Strengthening Transparency and Obligation to Protect Children Suffering from Abuse and Mistreatment Act (STOP CSAM Act),
Eliminating Abusive and Rampant Neglect of Interactive Technologies Act (EARN IT Act).
E ok, ma perché la sicurezza dei bambini legata a crimini sessuali è così urgente negli Stati Uniti? Lascio parlare dei dati:
I crimini di sextortion (minaccia di divulgare foto hot) sui bambini sono cresciuti del 1000% negli ultimi 18 mesi, sono 22.000 nel 2023;
Un leak di un report interno di Meta rivela che 100,000 minori ricevono ogni giorno foto di genitali di adulti su Instagram e Facebook;
Sempre secondo un leak di Meta, un under 16 su 8 ha ricevuto avances sessuali sui social.
Va ammesso che esiste molta confusione e opacità su questi dati. Spesso perché gli stessi social non rilasciano questi numeri, come aveva dimostrato la whistleblower Francis Haugen, quando aveva pubblicato documenti interni all’allora Facebook. Tra questi, appunto, c’erano ricerche in cui l’azienda sapeva dei rischi sui più giovani.
Per questa e altre ragioni, questa storia dei crimini sessuali online è davvero molto complicata e non ambisco a trattarla esaustivamente in una Artifacts. Piuttosto, oggi colgo l’occasione per raccontare alcune delle dinamiche solite della politica americana quando fronteggia le BigTech, perché anche se tutti sono d’accordo sui problemi, lo sono meno sulle soluzioni, e cosa possiamo trarre dalle 4 ore di audizione in Senato, di cui ho letto il transcript.
La Storia
Per prima cosa, l’audizione ha avuto una certa teatralità, che forse ha minato l’urgenza della questione in ballo. È iniziata con delle forti testimonianze dei familiari delle vittime, ed è proseguita col sen. Dick Durbin che ha detto “Le tech companies non hanno solo contribuito alla crisi dei crimini sessuali, ma sono responsabili per molti dei pericoli che i nostri bambini incontrano online”
E poi l’accusa di un altro senatore a Mark Zuckerberg di avere “le mani sporche di sangue” e un goffo tentativo di far dire al CEO di TikTok, che è di Singapore, che fosse cinese.
Come commentato da molti, il problema di queste scene è che servono più alla viralità dei senatori - nell’anno delle elezioni presidenziali - che al merito della questione. E, dato che la bagarre diventa più comunicativa, anche per i CEO diventa più facile aggirare le questioni topiche con frasi fatte o specchietti per le allodole, come ha scritto bene Vaishnavi J.
Un aspetto comunicativo, però, aiuta ad andare in profondità. Ad un certo punto dell’audizione, il sen. Richard Blumenthal ha cominciato a chiedere ai CEO: “Supportate il Kids Online Safety Act? Yes or No?”. E un po’ come a scuola, appena i CEO dicevano “Eh, allora, sì, però…”, il senatore tagliava secco dicendo “I'll take that as a no”. Alla fine, il KOSA ha il supporto solo di Snapchat e X.
Ok, ma cosa prevederebbe il KOSA? Oltre a complicare lo scrivere, il KOSA ambisce ad evitare che i bambini vedano contenuti pericolosi sui social. E stabilisce un “duty of care”, per cui la Federal Trade Commission e i procuratori generali possono ritenere le piattaforme responsabili per i contenuti che possono colpire i minori.
Questo ultimo punto - per quanto limitato solo ai contenuti pericolosi per bambini - è per gli Stati Uniti come se l’Italia mettesse la pizza con l’ananas in Costituzione. Scherzi a parte, sarebbe una cosa enorme. Infatti, molto del perché i social sono stati (e sono, direi) a briglia sciolta risiede nella Section 230 del Communications Decency Act del 1996.
Cioè? Detta per strappare un 18 a diritto di Internet, negli USA i servizi online, e quindi i social, non hanno NESSUNA responsabilità se non rimuovono contenuti postati dagli utenti. E non la hanno nemmeno qualora decidano di rimuovere dei contenuti. Per saperne di più, il libro che consiglio oggi è perfetto.
Insomma, la Section 230 ci dice perché il KOSA sarebbe parzialmente rivoluzionario. Soprattutto, insieme al First Amendment della Costituzione, ci aiuta a capire perché non solo Meta, Discord e TikTok sono contrari al KOSA, ma anche perché abbia ricevuto aspre critiche da molti addetti ai lavori.
Una delle critiche essenziali è sulla governance del KOSA. Molti pensano che permettere ai procuratori generali di decidere sui contenuti delle piattaforme mette a rischio la libertà di parola, con una politicizzazione dei giudizi. E, in effetti, il First Amendment aveva l’obiettivo di proteggere le libertà civili dalla politica.
Ad esempio, una aspra critica arriva dalle organizzazioni LGBTQ e quelle per i diritti umani. In una lettera scritta da Electronic Frontier Foundation, sostengono che il KOSA imporrebbe troppi limiti sulla circolazione delle opinioni, rischiando di limitare l’accesso alle informazioni dei cittadini.
Ad onor del vero, comunque, c’è molto supporto dei cittadini per il KOSA, ma questo non vuol dire che basti a superare il lobbying di attori più influenti.
Soprattutto, questa vicenda dice una cosa chiara: tutti negli USA sono d’accordo che la sicurezza dei bambini online sia una questione urgente, ma non per questo è allora facile affrontarla.
Soprattutto, molti commentatori notano una certa caccia alle streghe nei confronti delle BigTech. Ed è qualcosa che a volte assomiglia più a una strategia di marketing della politica.
In primis, come si legge in questo paper, la politica americana (ma non solo) rischia di cadere nella trappola del techno-solutionism quando si tratta di child safety. Ossia l’idea che basti regolamentare la tecnologia e tutto andrà meglio.
Questo non significa che i social non abbiano un ruolo nel ridurre la diffusione di contenuti pericolosi o nel mettere un freno a dinamiche che colpiscono i minori, come la sextortion. Ma - com’è naturale - non possono essere additati come gli unici responsabili.
E - attenzione - con questo non voglio prendere le difese dei social, ma chiarire un punto essenziale: l’obiettivo deve essere proteggere i bambini e concentrare tutti gli sforzi solo sulla regolamentazione della tecnologia è uno sforzo miope, parziale. È una soluzione facile da vendere, ma non centra l’obiettivo.
E questa non è la conclusione di un pensiero, ma probabilmente - per me - solo l’inizio di una riflessione per capire cosa fare davvero. Se ti va, lascia un commento qui per dire la tua.
Rassegna (Stampa)
Grandi, grandi notizie: l’AI Act è stato approvato dal Consiglio, che era lo scoglio più duro, e ora manca solo il voto del Parlamento Europeo, dal quale Artifacts aveva avuto un racconto dei triloghi:
L’Economist dice che stiamo andando verso la fine dei social network. Facebook intanto ha compiuto 20 anni, e ancora fatichiamo a capirlo.
Poi c’è chi dice che l’AI non sarà poi chissà quanto pericolosa per la disinformazione. E anche chi pensa che ci siano alternative a Google Search. E secondo me ci prende.
Settimana di meme incredibili sull’Apple Vision Pro. Ma anche di recensioni. A me sono piaciute questa e questa.
Lo Scaffale
A proposito di Stati Uniti, “The twenty-six words that created the internet” di Jeff Kosseff, racconta la storia della Section 230 del the Communications Decency Act, a cui dobbiamo moltissimo di come Internet si è sviluppato e di come è ora. Storia molto americana, ma con un’eco globale.
Nerding
Torniamo alle basi dei tool. Spark è l’app che io uso per le mail, e la consiglio caldamente. Fluida, immediata, permette di gestire più indirizzi con facilità, sincronizza benissimo tra pc e telefono. Inoltre, ha delle funzioni di filtro e organizzazione delle mail incredibile.