Por Konstantin Klein

DW.- Eric L., escapó de la Policía en un auto robado, en el estado de Wisconsin,  EE. UU. Su sentencia: seis años de prisión. Para decidir cuánto tiempo tenía que ir a la cárcel, el juez recurrió a un software. Este determinó que el acusado tenía un alto riesgo de reincidencia. Eric L. apeló. Su argumento: el veredicto fue determinado por un algoritmo al que no se podía tener acceso, por lo tanto, el veredicto no era justo. La Corte Suprema de Wisconsin falló en contra de él. Sin embargo, el caso desencadenó una gran controversia.

CES2019 | Startups y la inteligencia artificial ya son para las masas

La máquina heredera los errores humanos

El software Compas es producido por una empresa privada. Las cortes de por lo menos diez estados de Estados Unidos utilizan este programa. El cálculo del riesgo se basa, entre otras cosas, en un cuestionario y en los antecedentes penales. Algunos expertos alegan que el algoritmo calcula un mayor riesgo de reincidencia si el acusado es negro. No obstante, otros estudios han cuestionado esta alegación.

¿Dónde están los límites cuando las máquinas juzgan los actos humanos? Unsplash.com

«Esta suposición proviene del hecho de que los datos en los que se basa el cálculo de riesgo están sesgados», dice Sofía Olhede, profesora de estadística de la University College London, quien trabaja actualmente junto con una comisión para determinar cómo se utiliza hoy en día la inteligencia artificial en el sistema judicial británico, y cómo se puede mejorar su uso para el futuro.

Acceder al sistema de justicia

El hecho de que los algoritmos recurran a los antecedentes penales puede ser beneficioso para algunos, dice, por su parte, Nikolaos Aletras. Junto con sus colegas, desarrolló un software que, en cuatro de cinco juicios, emitió el mismo veredicto que los jueces del Tribunal Europeo de Derechos Humanos. Para desarrollar el sistema se compararon los documentos con críticas cinematográficas.

¿Tu empresa está lista para la inteligencia artificial?

«A partir de las palabras más comunes usadas en las críticas de cine se estableció un vocabulario, con el cual se ‘entrenó’ al algoritmo. De este modo, puede reconocer si una crítica es positiva o negativa», dice Aletras. El software puede distinguir entre palabras como “bueno, excelente”, para clasificaciones positivas, y “malo, horrible”, como negativas. Aletras definió el vocabulario que evalúa las condiciones de una detención. Este mismo principio, en un futuro próximo, podría facilitar un acceso más fácil a la Justicia para muchas personas.

Según Aletras, los altos honorarios legales a menudo impiden que las personas entablen una demanda civil. El software puede ayudar a los bufetes de abogados, basándose en casos anteriores, a predecir si una demanda será exitosa. Estos programas ya son utilizados por ellos para preparar los casos.

En Alemania, la inteligencia artificial se utiliza en el derecho administrativo. Ya hay procesos totalmente automatizados, señala Martin Ebers, especialista en jurisprudencia en la Universidad Humboldt en Berlín. Por ejemplo, la Oficina de Impuestos ya emite evaluaciones fiscales sin participación humana.

se necesitan reglas claras para determinar hasta qué punto se puede recurrir a la inteligencia artificial para llegar a un veredicto. /Unsplash

Se necesitan reglas claras

A través del portal de Internet «Geblitzt.de» se puede evaluar si la objeción a una multa sería exitosa o no. Gracias al software, los abogados podrían trabajar en más de 2.000 casos por año, en lugar de 250. Debido al creciente número de casos, la presión sobre los tribunales para que recurran a los sistemas informáticos está en aumento.

Pero los tres expertos están de acuerdo en que se necesitan reglas claras para determinar hasta qué punto se puede recurrir a la inteligencia artificial para llegar a un veredicto. En Reino Unido, Sofía Olhede y sus colegas están trabajando en la elaboración de un reglamento. En Alemania, la Ley estipula que toda persona tiene derecho a ser escuchada por un juez humano, explica Martin Ebers. Esto hace imposible que los juicios sean totalmente automatizados.

El Consejo Europeo publicó recientemente otros principios éticos para el uso de la inteligencia artificial en el Poder Judicial. Entre otras cosas, los algoritmos solo deben utilizarse si se puede verificar cómo se llegó al veredicto, y si no fomentan la discriminación, lo cual no sucedió en el caso de Eric L.

Este contenido se publicó originalmente en DW.COM y puedes ver esa nota haciendo click en el logo:

 

Siguientes artículos

Micky Ríos trajo a Oakley y Under Armour y ahora viene con Red Hydrogen
Por

El directivo ha sido el encargado de traer al mercado mexicano marcas que no eran convencionales en su momento. Esta vez...