Di chi è la tua faccia?
E perché le tecnologie di riconoscimento facciale possono mettere in discussione una domanda così scontata
Immagina di incontrare un(a) ragazzo/a carino/a, fargli una foto, non sapere il suo nome, ma poterlo trovare cercando il suo volto con una app. E poi sapere anche cosa fa nella vita, dove vive, magari cosa vota.
Ma immagina anche di non timbrare il biglietto sull’autobus e ricevere una multa perché si è risalito al tuo nome grazie alle immagini di una telecamera.
O mille altri casi simili in cui dalla tua faccia si può risalire al tuo nome.
Fantascienza? No, affatto.
È quello che permette di fare Clearview AI, una piattaforma di riconoscimento facciale che, una volta inserita una foto di una persona a caso, fornisce tutte le foto di quella persona su internet, e, quindi, solitamente i suoi profili social e, soprattutto, il suo nome.
Com’è possibile? Abbastanza semplice: Clearview ha fatto scraping di miliardi di foto online - ad oggi il database conta 30 miliardi di foto -, ha identificato i volti presenti e li ha resi cercabili. Sostanzialmente, un motore di ricerca dei volti, con il 98.6% di accuratezza.
Sia chiaro: Clearview vende questo servizio esclusivamente alle forze dell’ordine negli Stati Uniti, ma non per questo è meno preoccupante.
Quello di Clearview è un caso eclatante, portato alla pubblica attenzione grazie al lavoro della giornalista Kashmir Hill nel suo ultimo libro, Your face belongs to us. Hill che, tra l’altro, è stata spiata da Clearview durante il suo lavoro.
Ma non è certo un unicum. Anche Meta e Google avevano pronta una tecnologia simile, ma, come ha scritto il NYT, “they did not dare to release these tools”. Addirittura, Schmidt, CEO di Google, ha detto: “As far as I know, it’s the only technology that Google built and, after looking at it, we decided to stop”. Scelta di responsabilità.
Tuttavia, se c’è una cosa abbastanza sconvolgente, è che Clearview abbia potuto fare scraping di 30 miliardi di foto senza fare nulla di illegale. Semplicemente, quelle foto erano online e Clearview ha categorizzato e identificato i volti.
E questo ha molto a che fare con la consapevolezza che abbiamo di quello che succede alle foto che pubblichiamo sui social. E dovrebbe averlo soprattutto rispetto alle foto degli altri che pubblichiamo, specialmente di minori o dei figli, di quello che si chiama sharenting, ossia la crasi tra parents e sharing. Questo video è abbastanza esplicativo.
In ogni caso, se quello di Clearview è un caso estremo, le tecnologie di riconoscimento facciale sono qui per restare. Le usa la Cina per sorvegliare i cittadini nello Xinjiang, ma sono anche nei piani della Francia per le Olimpiadi del prossimo giugno.
E sì, per le forze dell’ordine sono potenzialmente uno dei metodi più efficaci per garantire la sicurezza, magari per trovare chi ha rapito un bambino o altri crimini efferati. Tuttavia, non pochi sono i rischi legati a falsi positivi, specie con alcune minoranze etniche.
Allora, è impossibile non farsi alcune domande, come quali siano le regole per l’utilizzo di queste tecnologie, se basti una denuncia per accedere a database simili, se qualsiasi poliziotto possa usare un sistema tipo Clearview AI, o anche se l’utilizzo sia da limitare ad alcuni casi?
E poi, tecnologie simili hanno a che fare con il concetto di privacy, ma anche con la sicurezza negli spazi pubblici o con la presunzione di innocenza. Per questo, oggi Artifacts prova ad approfondire questi concetti, ed anche cosa succede a livello regolatorio.
Il Titolo
Quello della privacy è un concetto sfumato, complesso, difficile da delineare. Una bella definizione è del 1890 e fa così: “privacy is the right to be left alone”. Di solito, il dibattito si divide tra quelli che “se non hai nulla da nascondere, non dovresti preoccuparti” e chi invece tiene di più alla propria privacy.
Sostenere la prima posizione “is no different than saying you don't care about free speech because you have nothing to say”, ha detto Snowden. La seconda, invece, riflette l’idea che ritenere che una parte della propria vita debba rimanere privata non significa necessariamente essere in malafede, bensì esercitare un proprio diritto.
In più, un altro concetto essenziale, spesso ignorato, è che la privacy non è una questione meramente individuale, ma sociale. Di questo ne scrive bene Laura Carrer nel suo libro “Black Box”.
Infine, è anche utile tenere a mente che quello che conta non è meramente cosa le persone sanno di te, ma soprattutto come quella conoscenza può dare del potere su di te. Ed è per questo che la consapevolezza è cruciale.
Questa prospettiva di collettività è utile per cogliere la minaccia che il riconoscimento facciale può rappresentare negli spazi pubblici. Essere costantemente monitorati può, infatti, avere due conseguenze essenziali:
minare la presunzione di innocenza: l’asimmetria informativa tra un imputato e chi giudica potrebbe aumentare notevolmente, in quanto chi è accusato non ha idea di quali dati o azioni siano state collezionate con il riconoscimento facciale. Questo paper lo spiega nel dettaglio.
scatenare il chilling effect: la possibilità che una persona, sorvegliata o che si senta tale, non metta in atto alcuni comportamenti per paura di ripercussioni di qualsiasi tipo. Insomma, che il suo comportamento venga modificato più per paura di sbagliare che per l’effettiva certezza di star sbagliando.
Fortunatamente, diversi sforzi sono in atto per evitare quella che potrebbe suonare come una società del controllo. Infatti, nell’AI Act in discussione in UE, uno dei dossier più caldi è stato quello del riconoscimento biometrico, che nel testo attuale vede:
un ban completo sui sistemi real-time negli spazi pubblici
ban parziale sui sistemi ex-post, con l’eccezione dei crimini più seri e dopo l’autorizzazione della corte.
Tuttavia, l’AI Act non è ancora chiuso. Se il Parlamento Europeo, sul quale si sono anche concentrati gli sforzi della campagna Reclaim Your Face, ha un approccio di chiusura e ostile al riconoscimento biometrico, il Consiglio Europeo la vede diversamente e sta cercando di inserire delle eccezioni per alcuni usi real-time e di rimuovere l’autorizzazione per dei controlli generalizzati nell’uso ex-post.
Vedremo come finirà, ma è ancora lungo il cammino per chiudere l’AI Act. Tra l’altro, proprio oggi ci sarà una sessione importante dei triloghi.
In attesa, una riflessione che merita maggiori sviluppi è: una tecnologia come il riconoscimento biometrico è neutra ed è solo il suo utilizzo a determinarne la pericolosità? O, forse, se pensiamo ai potenziali usi, non è che forse nel suo stesso design è già più pericolosa che capace di portare beneficio?
Insomma, allargando lo sguardo, siamo sicuri che tutti gli artefatti (prima volta che uso questa parola in Artifacts) siano sempre neutri e che dipenda da noi il loro risultato? Domanda complessa, ne ragioneremo!
E tu, che ne pensi? Esiste un bilanciamento tra sicurezza e privacy per il riconoscimento facciale?
Rassegna (Stampa)
A proposito di neutralità della tecnologia, uno speech interessante al TEDxFerrara di Diletta Huyskes:
E invece, se per aggiustare Internet servisse ancora più Internet?
Poi, Stanford ha fatto la classifica delle AI più trasparenti. Potrebbe andare meglio.
Nel frattempo, il governo inglese organizza un summit su AI Safety, ma molti sono scettici.
Infine, l’UE investiga anche Meta e TikTok. DSA unleashed. Mentre su X a condividere più fake news sono gli utenti con account verificato.
Lo Scaffale
Ne abbiamo parlato prima: Your Face Belong to Us è il libro di riferimento per capire veramente tutti i dettagli della vicenda Clearview AI. Kashmir Hill fa un reportage minuzioso, forse anche troppo. Ma bello da leggere se appassionati.
Nerding
Hai presente quando devi leggere quel documento di 168 pagine e non ti va? Humata lo legge al posto tuo, tu gli chiedi quello che ti interessa, e il gioco è fatto. Un bel tool per chi studia e ha paper lunghi da leggere, ma anche per chi lavora e vuole velocizzare. Letteralmente, puoi chattare con un PDF.