Palantir Gotham, la plataforma de análisis de datos desarrollada por Palantir Technologies, empresa creada en 2003 con financiación temprana de In-Q-Tel, el brazo de inversión de la CIA, se convirtió a partir de 2011 en una herramienta central para el Los Angeles Police Department (LAPD), el tercer departamento de policía más grande de Estados Unidos. Según la investigación etnográfica, recogida en su libro Predict and Surveil, la socióloga Sarah Brayne, quien investigó entre 2013 y 2018 las operaciones del LAPD, Palantir permite integrar y analizar volúmenes masivos de datos heterogéneos: reportes de arrestos, lectores automáticos de matrículas (ALPR), historiales criminales, direcciones de familiares, apodos y características físicas como tatuajes, entre otros.

Brayne distingue dos modalidades principales de vigilancia facilitadas por la plataforma. La vigilancia de "red barredera" consiste en búsquedas masivas que reducen, por ejemplo, 140 millones de registros a solo 13 coincidencias a partir de un dato parcial de un vehículo. Los analistas pueden rastrear direcciones asociadas a "eventos delictivos", localizar a personas a través de direcciones de familiares o allegados, y cruzar información con alertas de ALPR. Esta capacidad genera perfiles detallados de individuos y redes sociales sin necesidad de una orden judicial previa, lo que Brayne describe como "inteligencia pre-orden judicial".

La otra modalidad es la "vigilancia dirigida", que se materializa en programas como Operation Laser y los Boletines de Delincuentes Habituales. Estos sistemas asignan puntuaciones de riesgo mediante puntos a personas en función de contactos policiales previos, detenciones y otros indicadores. Palantir permite a los analistas generar boletines que identifican a "delincuentes habituales" y "áreas de alto crimen", dirigiendo recursos policiales de forma "más precisa". Sin embargo, Brayne documenta cómo estos sistemas dependen fuertemente de datos generados por la propia actividad policial cotidiana.

Profecía autocumplida

Un mecanismo central es la presión por la recolección masiva de datos. Los oficiales reciben instrucciones de completar las llamadas Tarjetas de Entrevista de Campo (Field Interview cards) en prácticamente cualquier interacción, incluso las más triviales, registrando así nombres, direcciones y datos de acompañantes, alimentando directamente la plataforma de Palantir. Según Brayne, esta práctica genera bucles de retroalimentación en los que una persona suma puntos por situaciones tan banales como un alto policial a un coche o a un viandante que camina por la calle, lo que aumenta su probabilidad de ser detenido nuevamente, generando más puntos y mayor vigilancia.

Dado que el LAPD despliega mayor actividad policial en barrios con alta concentración de población hispana y negra, áreas históricamente catalogadas por la Policía como de "alto crimen", la ampliación de la red de vigilancia impacta de forma aún más brutal en estas comunidades.

Brayne reporta datos concretos sobre los "delincuentes habituales" identificados por los programas: aproximadamente la mitad eran hispanos y otro 30% eran negros. Esto significa que alrededor del 80% de las personas señaladas como delincuentes habituales pertenecían a estos dos grupos. Cabe recordar que la población afroamericana representa el 9% de la población total de Los Ángeles.

Los datos históricos de arrestos y detenciones, que ya contienen disparidades raciales ampliamente documentadas, se convierten, de este modo, en input para los algoritmos. En barrios pobres, donde las familias suelen compartir viviendas o vehículos y los contactos policiales son más frecuentes por infracciones menores o por su mera presencia en la vía pública, estas asociaciones se multiplican rápidamente. 

Apariencia de neutralidad

El caso de Los Ángeles es solo un microcosmos de un patrón mucho más amplio. Sociólogos, activistas por los derechos civiles y expertos en tecnología han advertido que plataformas como Palantir sufren del síndrome de "datos sucios" (dirty data). Al alimentar al algoritmo con décadas de estadísticas criminales sesgadas, producto de políticas racistas y clasistas como la "tolerancia cero" o las paradas y cacheos (stop-and-frisk) que afectaron y siguen afectando desproporcionadamente a afroamericanos y latinos, el sistema no predice dónde ocurrirá el próximo "delito", sino dónde patrullará la policía.

De esta forma, se consolida el llamado "lavado tecnológico" de la discriminación. Es decir, la validación matemática y aparentemente neutral de prácticas de perfilamiento racial y de clase, ocultas tras la opacidad del código y los contratos corporativos.

La expansión de la vigilancia algorítmica sobre minorías en EEUU no se limita a California. En Nueva Orleans, Palantir probó su software de vigilancia predictiva durante años en secreto, sin el conocimiento del ayuntamiento local. El programa se centró en identificar a personas con alta probabilidad de estar involucradas en violencia de pandillas, lo que en la práctica supuso una red de vigilancia masiva sobre jóvenes afroamericanos de barrios desfavorecidos, asociándolos a bases de datos criminales por el simple hecho de ser familiares, vecinos o contactos en redes sociales de personas con antecedentes.