IntelDig

Científicos se oponen a IA para predecir crímenes

Más de 10.000 investigadores, académicos y científicos han formado una carta abierta expresando su oposición ante el desarrollo de IA para predecir crímenes.

En un escenario ideal, la predicción del delito podría ayudar a determinar dónde asignar los recursos policiales, pero quienes hayan visto el clásico de ciencia ficción Minority Report seguramente estará de acuerdo en que darle este poder a la IA puede ser un grave error.

Buena parte de la comunidad científica coincide en esto y ha mostrado su preocupación ante la publicación titulada ‘Un modelo de red neuronal profunda para predecir la criminalidad usando el procesamiento de imágenes’. El documento señala que los algoritmos basados en IA serán capaces de reconocer cuándo una persona se convertirá en criminal basándose en el reconocimiento facial automatizado.

“Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares que se vean menos afectadas por los prejuicios implícitos y las respuestas emocionales”, dice el profesor de la Universidad de Harrisburg y coautor del artículo. Nathaniel JS Ashby. “Nuestro siguiente paso es encontrar socios estratégicos para avanzar en esta misión”.

Pero ahora mismo encontrar socios para financiar este proyecto puede ser un desafío, ya que en la carta abierta han firmado especialistas en IA de gigantes tecnológicos como Microsoft, Google y Facebook. En la carta los firmantes explican que la IA actual presenta muchos vacíos y que incursionar estos programas en la predicción de crímenes puede ser un peligro.

Las principales preocupaciones se centran en el sesgo racial. Todos los sistemas actuales de reconocimiento facial son más precisos cuando se detectan hombres blancos y, a menudo, señalan incorrectamente a los miembros de la comunidad BAME como delincuentes con mayor frecuencia cuando se utilizan en un entorno de aplicación de la ley.

Pero incluso si el algoritmo se aborda de forma correcta respecto al sesgo racial, los investigadores siguen preocupados por quienes están a cargo de aplicar la justicia con el reciente caso del asesinato de George Floyd.

Esta es la explicación que contiene la carta:

“La investigación de esta naturaleza, y las afirmaciones de precisión que la acompañan, se basa en la suposición de que los datos relacionados con el arresto criminal y la condena pueden servir como indicadores confiables y neutrales de la actividad criminal subyacente. Sin embargo, estos registros están lejos de ser neutrales.

Como han demostrado numerosos académicos, los datos históricos de la corte y el arresto reflejan las políticas y prácticas del sistema de justicia penal. Estos datos reflejan quién la policía elige arrestar, cómo los jueces deciden gobernar y qué personas reciben sentencias más largas o más indulgentes.

Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos. Por lo tanto, cualquier software creado dentro del marco legal penal existente inevitablemente hará eco de esos mismos prejuicios e imprecisiones fundamentales a la hora de determinar si una persona tiene el  ‘rostro de un criminal'”.

Los autores sin embargo coinciden en que la IA podría ser de gran ayuda para la aplicación de la ley. Sin embargo, los detractores del documento señalan que si bien podría facilitar el trabajo de los agentes de la ley, lo haría a costa de violar la privacidad de las personas y la automatización del perfil racial.