L’intelligenza artificiale potenzialmente può cambiare molti aspetti della vita quotidiana in modi che spesso la fantascienza aveva predetto. L’utilizzo di questa risorsa per prevenire i crimini è già diventata realtà, applicando un concetto, quello dell’anticipazione dei reati prima xche vengano commessi, che si era visto al cinema con una pellicola tratta da un racconto di Philip K. Dick.
“Minority Report”, la giustizia veggente
Nel film “Minority Report” (USA 2002), lungometraggio di Steven Spielberg con Tom Cruise protagonista, la polizia anticipa appunto i reati prima che vengano commessi. Nella Sezione Precrimine si evitano gli omicidi grazie alle previsioni dei tre Prercog, individui dotati di poteri extrasensoriali di precognizione amplificati. Il colpo di scena che muove gli eventi è che il poliziotto Jon Anderton (Tom Cruise), brillante e apparentemente al di sopra di ogni sospetto, viene indicato come futuro colpevole di un omicidio: parte così una corsa contro il tempo per evitare di farsi catturare e capire il motivo dell’assassinio. Il protagonista farà così maggiore luce sull’organizzazione, scorgendo che la Sezione Precrimine non è così pulita come pensava. Come ci si dovrebbe comportare conoscendo il futuro? Quando la sicurezza può entrare nelle nostre vite? Queste sono alcune delle ottime domande che il film solleva.
I Precog sono paragonabili all’oracolo che si arroga un ruolo quasi divino, potendo determinare futuro. Riconoscimento avviene con l’occhio è significativo: questo nuovo potere consiste nel vedere quello che prima non era possibile e che resta precluso agli altri. Il film affronta di petto una questione filosofica: come trattare il tentato omicidio che non è non è equiparabile a un omicidio, si tratta infatti di un problema di natura giuridica, oltre che etica. Il rapporto di minoranza potrebbe cambiare e l’omicidio potrebbe non avverarsi, come accade al protagonista. Proprio per questo un processo dovrebbe avvenire comunque. L’operato della Precrimine non si focalizza sulla protezione della vittima ma semplicemente sull’arrestare il colpevole il prima possibile, costituendo un sistema automatizzato senza lato umano, né nei confronti della vittima né in quello del colpevole. A quest’ultimo infatti non si permette il reinserimento nella società né tantomeno lo si mette in condizione di sviluppare una nuova consapevolezza. La Precrimine si sente pertanto pericolosamente autorizzata da un potere divino a agire. Quando viene a galla la sua fallibilità e perde la sua aura di sacralità: Lamar (Max Von Sydonw) uccidendo ste stesso e non John dimostra che i Precog si possono sbagliare. Non può esistere un ente al di sopra di tutto.
Occhio di Giove, una raccolta dati per prevenire i crimini
La pubblica sicurezza italiana potrebbe avere a disposizione un nuovo strumento informatico che può contare su un algoritmo che, consultando su una banca dati, cerca di predire come e quando i crimini verranno commessi. Il nome altisonante richiama il padre degli Dei della mitologia romana, come a attribuirsi un’infallibilità divina proprio come la Sezione Precrimine del film di Spielberg e del romanzo di Dick.
Raccogliendo le denunce sporte elabora i dati per trasmettere informazioni operative alle forze dell’ordine. In teoria si tratta di un ottimo modo per prevenire i crimini e aumentare la sicurezza sul territorio ma allo stesso tempo si pongono dubbi sulla riservatezza dei dati personali. Gli addetti ai lavori rassicurano sulla presenza del controllo umano a interpretare nel modo più corretto possibile i dati forniti, ma delle perplessità permangono. C’è il rischio che gli algoritmi possano creare delle correlazioni pregiudiziali: i furti possono avere una chiave interpretativa più comune di reati di altri tipi, come quelli relativi ai rapporti tra le persone, i quali possono più spesso sfuggire alle fredde considerazioni di un algoritmo. Il crime linking, così viene chiamato nel gergo la raccolta e l’elaborazione di dati per prevenire un reato, presenta zone d’ombra.Il suo primo o predecessore è stato Keycrime, che creava una previsione statistica basandosi sui reati già commessi e considerando data, ora, luogo e condizioni atmosferiche in cui venivano commessi i crimini.
Il caso Fusus, il grande fratello della sicurezza
Si tratta di una piattaforma che unisce telecamere pubbliche e private in una sola rete accessibile via cloud con il fine di fornire alle forze dell’ordine maggiori informazioni per garantire la sicurezza su determinate aree. Con questa rete di sorveglianza si può avere una visione d’insieme più particolareggiata e agire senza chiedere ulteriori informazioni, se gli occhi artificiali colgano qualcuno in fragranza di reato. Il sistema è stato sperimentato negli Stati Uniti d’America in alcuni piccoli centri e conta oltre 33.000 telecamere.
Questo sistema dà la possibilità a aziende e enti di integrare le proprie telecamere di sicurezza in questa rete estesa. L’idea è quella di creare un occhio che tutto vede, come il Grande Fratello di “1984”, noto romanzo distopico di George Orwell.
Clearview, il cacciatore di foto
Hoan Ton-That, il CEO del progetto, ha ammesso che Clearview (“Vista chiara” in italiano) ha raccolto oltre tre miliardi di foto da Facebook per aggiornare continuamente un database per identificare e punire i responsabili dei crimini i ad uso della polizia statunitense. Non è necessario postare delle foto sul celeberrimo social network ma basta che qualcuno carichi delle foto in cui si è presenti per fornire la propria impronta biometrica al magazzino informatico. In questo modo quasi chiunque può quindi essere schedato.Non esiste una regolamentazione per indirizzare il suo utilizzo.
In quest’ultimo caso la violazione della privacy è esplicita, privacy che per il fondatore e CEO Mark Zuckemberg non è più un valore per le nuove generazioni.
Tuttavia esistono dei gruppi di attivisti in difesa dei diritti digitali che chiedono a gran voce la revoca del suo indirizzo, come Fight for the Future e Electronic Frontier Fund. Dall’altro versante dell’Oceano il Parlamento Europeo ha votato una risoluzione che limita il riconoscimento facciale da parte delle forze dell’ordine. L’europarlamentare socialista bulgaro Petar Vitanov si è espresso molto chiaramente in proposito:
“I diritti fondamentali sono incondizionati. Per la prima volta in assoluto, chiediamo una moratoria sull’implementazione di sistemi di riconoscimento facciale per scopi di sorveglianza e applicazione della legge, poiché la tecnologia si è dimostrata inefficace e spesso porta a risultati discriminatori – prosegue – siamo chiaramente contrari alla polizia predittiva basata sull’uso dell’intelligenza artificiale e a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei”.
Conclusioni
L’eterna diatriba tra libertà sicurezza si ripresenta con una forza nuova, donatagli dall’intelligenza artificiale a braccetto con le tecnologie informatiche e digitali. Questi nuovi scenari includono quindi dilemmi affrontati dalla letteratura e dal cinema di fantascienza, in quanto situazioni ambigue, abusi e manipolazioni potrebbero verificarsi e in ogni caso in questo contesto senza precedenti diritti inalienabili quali libertà e riservatezza trovano nuove minacce.
Riferimenti
www.futuroprossimo.it