Ora dobbiamo preoccuparci dei poliziotti AI?

Poliziotti AI, preoccupazione?

Era quasi incomprensibile: il video del cellulare che la mia manicurista mi ha mostrato un paio di settimane fa.

Come contesto, mi ha detto che c’era stato un omicidio nell’appartamento di fronte al suo. Che la polizia aveva evacuato il complesso e mentre lei e i suoi figli aspettavano fuori, il vicino – l’uomo nero nell’appartamento in cui era avvenuto l’omicidio – è tornato a casa e ha insistito nel entrare nella sua casa, ovvero la scena del crimine. Il video mostrava gli agenti che informavano l’uomo che l’ingresso nel suo appartamento non era consentito e l’uomo che urlava e spingeva verso l’area delimitata dal nastro, diventando sempre più aggressivo ad ogni passo. Mostrava gli agenti – tutti di aspetto bianco – che si affrettavano accanto e dietro all’uomo implorandolo di non entrare, a un certo punto quasi supplicandolo di non entrare. Il video era notevole perché i comandi degli agenti non raggiungevano mai il volume del grido dell’uomo, per il fatto che la polizia non ricorreva alla forza fisica, per l’ironia del fatto che l’uomo non finisse incuffiato e arrestato. O peggio.

Ciò che ho visto su quel telefono era un esempio di ammirevole autocontrollo da parte degli agenti, persino di pazienza, il che significa che li ho visti trattare con umanità un uomo il cui amico era appena stato ucciso, e tutto ciò in una città (Phoenix) che tra il 2013 e il 2021 ha registrato 46 omicidi da parte della polizia, seconda solo a Los Angeles (70).

Avrebbe potuto finire in modo tragico. Tutti l’abbiamo visto. Siamo familiari con le forze dell’ordine che ricorrono all’uso eccessivo della forza, troppo spesso con la conseguenza della morte di persone di colore. Ci sono ampie prove sul fatto che le persone di colore siano sovrarappresentate negli arresti e nelle condanne, sul fatto che ricevano pene più lunghe rispetto alle persone bianche per crimini simili, sul fatto che la polizia uccida più persone di colore che persone bianche. (Le persone di colore rappresentano il 13% della popolazione degli Stati Uniti, ma rappresentano una su quattro delle persone uccise dalla polizia.)

Aggiungi a questa diffusa e pericolosa situazione nel campo dell’applicazione della legge e della giustizia penale la proliferazione dell’Intelligenza Artificiale.

Merda.

A marzo, un gruppo di più di 1.100 tecnologi e ricercatori, tra cui l’irascibile Elon Musk, ha firmato una lettera che chiedeva un moratorio di sei mesi sullo sviluppo dei modelli di Intelligenza Artificiale più potenti. A maggio, più di 350 leader dell’industria dell’IA, tra cui i vertici di OpenAI, Google DeepMind e Anthropic, hanno firmato una lettera aperta che avvertiva che l’IA rappresenta un “rischio di estinzione” che dovrebbe essere considerato alla pari con le pandemie e le guerre nucleari. A giugno, il leader della maggioranza al Senato, Chuck Schumer, ha proclamato che il Congresso “deve unirsi alla rivoluzione dell’IA” e ha delineato un quadro per la regolamentazione della tecnologia. Il piano di Schumer non ha introdotto legislazione, ma ha proposto “forum di approfondimento” in cui i suoi colleghi potrebbero imparare di più sulla tecnologia dagli esperti e da altre parti interessate.

Ci sono state altre iniziative nel corso degli anni: conferenze incentrate sulla scienza dei dati responsabile; AI Fairness 360, un toolkit software open-source che può aiutare a individuare e rimuovere il pregiudizio nei modelli di apprendimento automatico; l’Alleanza per i Dati e la Fiducia, un collettivo che comprende alcune delle più grandi aziende americane, che ha sviluppato un questionario per individuare il pregiudizio nel software di IA; iniziative per reclutare persone di colore nei campi STEM; ecc. Ma nonostante tutto ciò, i problemi di pregiudizio razziale persistono nell’IA.

Ad esempio, lo studio sensazionale che ha scoperto che un algoritmo popolare assegnava ai pazienti neri punteggi di rischio più bassi, il che comportava che dovessero essere molto più malati dei pazienti bianchi prima di poter ricevere cure.

Ad esempio, lo studio di riferimento su milioni di domande di mutui e rifinanziamenti (prestiti faccia a faccia e algoritmicamente assistiti) che ha rilevato che neri e latinos ricevono tassi di rifiuto più elevati e vengono penalizzati con premi di razza sui tassi di interesse.

Ad esempio, l’algoritmo di una funzione di ritaglio delle foto su Twitter che è stato trovato a favorire i volti bianchi e a svantaggiare quelli neri.

Ad esempio, ad esempio…

Compagni di pensiero giusto, anti-misantropicamente non fatalisti, fidatevi e credete: la polizia è l’ultimo posto in cui abbiamo bisogno di IA.

Eppure, l’IA è di gran moda nella giustizia penale. Non è un’esagerazione dire che stiamo procedendo rapidamente verso un’era in cui la polizia si basa tanto sui dati e sulla codifica quanto sugli agenti e sulle loro armi. L’era attuale include tecnologie destinate ad aiutare la polizia umana o a sostituirla del tutto. Come algoritmi (anziché persone) per valutare i rischi di recidiva. Come algoritmi (anziché persone) per aiutare a prevedere e identificare attività sospette. Come un algoritmo (anziché una persona) che rivede e analizza le riprese delle telecamere corporee. Come robot e cani robotici con intelligenza artificiale (anziché, uh, cani).

Recentemente, durante una conferenza di polizia a Dubai, le aziende hanno esposto software di riconoscimento facciale che identifica le persone, memorizza i loro dati e le traccia attraverso le città. Software per identificare dove si radunano le folle. Software di analisi sensibile, che utilizza un algoritmo per determinare l’umore di una persona (per interrogatori). Occhiali di riconoscimento facciale. Un Segway dotato di una mitragliatrice.

Se questo è ciò che è attualmente disponibile, immagina cosa potrebbe arrivare sul mercato in futuro. Cosa c’è in fase beta? Ora, aggiungi a queste considerazioni la preoccupante mancanza di attuale controllo del settore. L’intelligenza artificiale nell’applicazione delle leggi è pericolosa per il fatto cruciale che la polizia ha il potere di detenere, arrestare e usare la forza letale contro gli esseri umani. Per le gravi preoccupazioni che genera per la libertà civile e la privacy, e la terribile prospettiva di utilizzare l’intelligenza artificiale contro i dissidenti. L’intelligenza artificiale nell’applicazione delle leggi è pericolosa per le masse perché, nonostante i suoi numerosi vantaggi, è anche senza dubbio un’impresa capitalista (McKinsey prevede che l’intelligenza artificiale generativa aggiungerà fino a $4,4 trilioni all’economia globale annuale), un punto che garantisce che le persone comprometteranno la loro etica.

E per un numero incalcolabile di persone nere e di colore, l’intelligenza artificiale nell’applicazione delle leggi comporta quei rischi sopra menzionati e altri ancora.

Iniziamo con il fatto che la polizia è un’istituzione radicata nella schiavitù coloniale, che il nostro sistema di giustizia penale ha prodotto la più alta popolazione carceraria al mondo, con un numero sproporzionato di persone nere e di colore. L’intelligenza artificiale nell’applicazione delle leggi viene implementata in questo sistema già difettoso. È più pericolosa per le persone nere e di colore perché la persistente mancanza di diversità nei settori STEM, da cui proviene l’intelligenza artificiale, è incline a generare maggiori pregiudizi integrati contro le persone di colore, le stesse persone che sono sottoposte a un eccessivo controllo di polizia e a una protezione insufficiente. L’intelligenza artificiale nell’applicazione delle leggi è estremamente pericolosa per il mio popolo perché si basa sui dati – rapporti di crimini, schede di arresto, targhe, immagini – che sono intrisi di pregiudizi.

L’intelligenza artificiale nell’applicazione delle leggi è pericolosa perché trasformerà sempre più le persone nere e di colore in sospetti, persone con sempre meno libertà. È più pericolosa per le persone nere e di colore perché si sta sviluppando velocemente a seguito di un’amministrazione che si è spinta verso l’autoritarismo. È pericolosa per noi perché, a differenza delle ammissioni universitarie o della selezione aziendale, campi che sono stati progressisti nell’incorporare l’intelligenza artificiale, gli errori o gli abusi costeranno imprigionamenti ingiusti, danni fisici o addirittura la morte. L’intelligenza artificiale è più pericolosa per le persone emarginate perché sostiene di poterci rendere più sicuri, quando la verità è che combattere il crimine con la polizia è un’impresa fallace, poiché il crimine è un problema sociale, che può essere risolto non con la polizia, ma affrontando le disuguaglianze sociali; in altre parole, l’intelligenza artificiale è incline a perpetuare l’esistenza di quartieri degradati, dove si fermano e perquisiscono le persone.

Se questa rivoluzione dell’intelligenza artificiale sembra inarrestabile, non sei solo. Tuttavia, dobbiamo continuare a sottolineare i suoi pericoli, perché credimi, la nostra ignoranza, il nostro silenzio, la nostra indifferenza solo accelereranno il nostro pericolo.

Vi lascio con questo: Quando vivevo in un quartiere difficile durante gli anni delle mie scelte folli, io e i miei amici preliminavamo le nostre serate in discoteca bevendo una bottiglia da 40 once o anche di più di birra. In una di queste serate, stavo guidando una macchina carica di noi – con i finestrini abbassati e il subwoofer che batteva – verso un locale quando la polizia ci ha seguiti. Uno dei miei passeggeri stava ancora bevendo, il che significava che avevamo una bottiglia aperta in macchina e quindi stavamo infrangendo almeno una legge. La polizia ci ha fermato e io ho svoltato in una strada buia e alberata. Non riesco a ricordare chi l’abbia fatto (non credo che nessuno si sia mai confessato), ma mentre gli agenti si avvicinavano da entrambi i lati della macchina, qualcuno ha gettato una bottiglia da 40 once fuori dal finestrino e quella cosa è esplosa. Un suono che mi ha fatto sobbalzare il cuore.

Non mi sfugge che quegli agenti avrebbero potuto interpretare il numero di passeggeri (e la nostra razza apparente), l’oscurità della strada e quell’esplosione inattesa come una minaccia imminente e spararci addosso. Siano lodati perché non hanno reagito con violenza, ma invece ci hanno dato un avvertimento severo ma calmo e ci hanno lasciato andare per la nostra strada felice.

È stata pazienza, autocontrollo, grazia.

È stata umanità.

Ma poiché non sono state fatte arresti, quell’episodio non è stato documentato nei registri di polizia. Il che significa che non è diventato un punto di dati. In altre parole, ha avuto quasi nessuna possibilità di influenzare un’interazione odierna tra una macchina con intelligenza artificiale e te.