Tribunales de EEUU apelan a algoritmos para evaluar reos

Tribunales de EEUU apelan a algoritmos para evaluar reos
El juez Jimmy Jackson Jr. fotografiado el 30 de agosto del 2017 en el primer día en que se usó un sistema de evaluación de riesgos que emplea algoritmos en Cleveland. Varios juzgados de EEUU están usando algoritmos para determinar las posibilidades de que una persona no se presente a futuras vistas si queda en libertad bajo palabra. (AP Photo/Dake Kang)

CLEVELAND (AP) Por siglos, la decisión de dar libertad bajo palabra a un detenido quedó a discreción de los jueces. ltimamente, sin embargo, la justicia tiene la ayuda de la inteligencia artificial.

A fines de agosto, Hercules Shepherd Jr. se presentó a un juzgado de Cleveland con su uniforme anaranjado de prisión. Había sido detenido dos días antes cuando policías lo pararon por una infracción de tránsito y encontraron una pequeña bolsita de cocaína. Se le estaban formulando cargos.

Hasta hace poco, el juez del caso hubiera decidido si quedaba libre a partir de la información disponible y de su intuición. Pero en Cleveland, cada vez más jueces consultan la opinión de algoritmos antes de decidir si conceden la libertad bajo palabra o hacen que los presos esperan su juicio en la cárcel.

Las fianzas, que teóricamente garantizan que la gente se presentará a sus juicios, son parte del sistema judicial estadounidense desde hace siglos. Pero en los últimos años ese procedimiento fue muy cuestionado porque se dice que perjudica a los pobres, que deben permanecer en prisión porque no pueden pagar las fianzas mientras que las personas de otros estratos sociales se van libres. Estudios indican asimismo que acentúa las disparidades sociales en los procedimientos previos a los juicios.

Un movimiento bipartidista de reforma encontró una alternativa a las fianzas: Algoritmos que analizan la información almacenada en los tribunales, atan cabos y pronostican qué posibilidades hay de que una persona no se presente a su juicio o cometa otro delito.

Expertos dicen que este análisis de riesgos puede ser la innovación más grande que registra el sistema judicial estadounidense desde que los jueces empezaron a aceptar las ciencias sociales y otras opiniones de expertos hace más de un siglo. Christopher Griffin, director de investigaciones del programa Access to Justice Lab de la Facultad de Leyes de la universidad de Harvard, opina que las herramientas digitales son el próximo paso en esa revolución.

Hay quienes afirman, no obstante, que los algoritmos pueden terminar reemplazando el buen juicio de los jueces y perpetuando incluso prejuicios a partir de un instrumento aparentemente neutral.

Estados como Nueva Jersey, Kentucky, Arizona y Alaska están usando estas herramientas. Si un sospechoso recibe puntuaciones bajas en la evaluación de riesgos, se recomienda que sea liberado bajo supervisión de los tribunales.

Entre otras cosas, los algoritmos procuran reducir las decisiones prejuiciosas en las que pueden influir la raza, el género o la indumentaria de un sospechoso, cuando no el estado de ánimo de un juez que no tuvo tiempo de desayunar.

El sistema empleado en Nueva Jersey utiliza nueve factores de riesgo para evaluar a un acusado, incluidos su edad y antecedentes delictivos. Pero no toma en cuenta la raza, el género, el historial laboral de la persona ni dónde vive.

Tampoco toma en cuenta arrestos previos si se comprobó que no cometieron delito alguno.

Otros esfuerzos por automatizar las decisiones judiciales han sido muy cuestionados, en particular un sistema llamado Compas usado para ayudar a fijar condenas. Una investigación de ProPublica determinó que, según Compas, los negros tenían el doble de posibilidades que los blancos de volver a cometer delitos.

Quienes ven con buenos ojos el uso de inteligencia artificial señalan que los jueces siguen siendo los que deciden. Esto no es un aparato en el que insertas un ticket, aprietas un botón y te dicen qué fianza hay que darle a alguien, afirmó el juez Ronald Adrine, de Cleveland. El puntaje que generan los algoritmos es solo uno de varios factores a tener en cuenta por los jueces, agregó.

Pero hay quienes temen que los algoritmos hagan que las decisiones sean cada vez más automáticas. Estudios indican que la gente tiende a seguir ciertas recomendaciones en lugar de usar su propio juicio, de acuerdo con Bernard Harcourt, profesor de leyes y de ciencias políticas en la Universidad de Columbia.

Es inocente pensar que la gente no va a depender más de ellos, manifestó.

Todos estos elementos se pusieron en evidencia en la vista del juez Jimmy Jackson Jr. en Cleveland el año pasado. Antes de su detención el 29 de agosto, Hercules Shepherd no se había visto envuelto en ningún incidente policial.

Shepherd, de 18 años, era un jugador de básquetbol en una escuela secundaria que, de ser reclutado por una universidad, hubiera podido hacer realidad su sueño de estudiar ingeniería con becas. Al ser detenido, había perdido dos días de clases. Si perdía otros dos días, podía ser expulsado de la escuela.

El juez dio una mirada al puntaje generado por una computadora. Dos puntos sobre seis posibles en relación con las posibilidades de que cometa otro delito. Uno de seis sobre la posibilidad de que no se presente a la próxima audiencia. Esos puntajes indicaban que era buen candidato a ser librado bajo palabra a la espera de que siga el proceso.

Señor Shepherd, lo voy a dejar en libertad bajo palabra, dijo el juez Jackson. Tiene la oportunidad de enderezar el rumbo a partir de este momento.

Esa noche Shepherd fue liberado y al día siguiente estaba en clases. Dice que no hubiera podido pagar una fianza.

Si no vuelve a ser detenido en el próximo año, no tendrá antecedentes policiales.

__

O'Brien informó desde Paterson, Nueva Jersey.

Publicado en Inicio » Tecnología »