Facultad de Derecho

9 de febrero de 2023

EL JUEZ TERMINATOR

Por: Nicolás Lozada

A propósito de las sentencias judiciales con uso de Inteligencia Artificial

 

En los noventa, en el Reino Unido se consideraba una falta ética que un abogado se comunicara con su cliente por correo electrónico. La moralidad de las comunicaciones imponía el contacto personal o una elegante carta con firma manuscrita: ¿Cómo más se podía verificar la identidad y seguridad del mensaje?

Nuestra percepción cambió porque tuvimos décadas de experimentación con las comunicaciones electrónicas que, desde los mismos años noventa, ya eran más seguras y confiables que las enteramente humanas (a menudo, se nos olvida la época de las montañas de sobres abandonados en las oficinas postales).

Lo que sucedió con los correos electrónicos responde a un sesgo cognitivo común entre los seres humanos: el sesgo conservador o del status quo. A causa de este, estamos inclinados a creer las cosas seguirán como están y tenemos miedo a lo nuevo, una emoción muy humana conocida como misoneísmo.

En el caso de la tecnología, el sesgo conservador nos hace pensar que esta no mejorará y que sus resultados no evolucionarán sustancialmente en poco tiempo. Y tal parece que el sesgo conservador se apoderó del gremio de los abogados colombianos en los últimos días frente a la decisión de un juez en Cartagena que se apoyó en el naciente sistema de IA ChatGTP.

Se dijo que la decisión incurrió en imprecisiones y un uso tildado de “irresponsable” de un modelo de lenguaje a escala, es decir, una herramienta no especializada en asuntos jurídicos sino con aspiraciones generalistas. A la par, muchos salieron airados a decir que el juez “nunca” sería remplazado por máquinas que no saben “razonar”, “ponderar”, ni “entender sutilezas”.

El hecho es que la curiosidad del juez de Cartagena lo hizo pionero en el uso de la IA para la toma de decisiones judiciales en Colombia y puso este interesante debate sobre la mesa.

Yo los invito, queridos lectores, a que nos alejemos un poco de este caso particular tan polémico, y nos abramos un poco a la perspectiva que propone Richard Susskind, uno de los grandes visionarios de la profesión jurídica; el primero que se atrevió a pensar, en los años noventa, que los abogados sí podían comunicarse con sus clientes por correo electrónico.

Susskind (Online Courts, 2019) sugiere que, frente a la decisión judicial, debemos enfocarnos, no en quién emite la decisión (humano o algoritmo), sino en el resultado: la decisión en sí misma.Desde ya partamos de un hecho: los algoritmos y la IA ya están tomando decisiones que nos involucran en el ámbito público: desde la cobertura de un seguro de salud hasta los subsidios estatales que recibimos. La decisión automatizada ya es una realidad.

La pregunta es si estas decisiones son buenas o, por lo menos, mejores que las humanas. Si la IA logra un mejor resultado que un juez promedio (que parece todavía no es el caso), no debemos desecharla solo por tener su origen en un algoritmo. Al margen del buen o mal uso que se haga de la IA, deberíamos medir la decisión final frente a la que hubiera podido tomar un humano en su lugar.

No olvidemos, por otro lado, que los seres humanos estamos biológicamente plagados de sesgos como los ya descritos que nos llevan constantemente a decisiones discriminatorias; decisiones que, por ello, están usualmente sujetas al escrutinio de otros seres humanos (como con las apelaciones o las tutelas).

Y es que los sesgos y malas decisiones son connaturales a nosotros (como dice el aforismo, errare humanum est). Muchos de nuestros atajos cognitivos, la mayoría inconscientes, fueron necesarios para nuestra evolución como especie. Para la muestra, se ha dicho que el rechazo a sujetos diferentes era un mecanismo evolutivo para evitar una amenaza para nuestro clan más cercano. Este sesgo, sin embargo, nos ha llevado a problemas sociales del calibre del racismo. Y todos nuestros sesgos nos hacen decisores bastante imperfectos.

Sesgos estos que, en todo caso, no escapan a los modelos que alimentan los sistemas de IA. Como se ha evidenciado, el sesgo humano puede pasar de su creador, el programador, a su herramienta. Con la IA se puede crear un modelo que termina no siendo neutral y reproduciendo las inclinaciones de sus creadores o de los datos que lo alimentan.

La IA, nótese, no es una sola tecnología (y ciertamente no se limita a ChatGTP), sino una sombrilla de cientos de herramientas que parten de la automatización y el aprendizaje continuo por muchos medios, varios de los cuales aún están por descubrirse. Y, como tecnología, la IA seguramente evolucionará mucho más rápido que los humanos.

De manera que debemos poner en la balanza la decisión humana y la decisión algorítmica (con sus respectivas ventajas y sesgos) y adoptar la que nos funcione mejor como sociedad. Si una decisión judicial está bien fundamentada por un algoritmo y presenta más objetividad y seguridad jurídica que la de un juez, ¿no sería ilógico no aplicarla?

Naturalmente, no se trata de que entremos ahora en un tecnoentusiasmo fanático. Debemos poner el uso de la IA en su justa proporción. Estamos hablando de una herramienta como el correo electrónico o el procesador Word. Y como cualquiera buena herramienta (digamos la energía nuclear), puede ser mal utilizada (y degenerar en una bomba atómica).

La IA, y sobre todo en la toma de decisiones, debe partir de un entendimiento ético que evite el “abuso de la máquina”. Como humanos, debemos filtrar lo que nos brinda la herramienta y no permitir que se desboque. Como humanos, debemos –valga la redundancia- ‘humanizar’ la decisión algorítmica y evitar que esta llegue a absurdos o injusticias.

Por eso, está bien que, en cuanto sociedad, consideremos que algunas decisiones sensibles (digamos, la pena de muerte) deban provenir de seres de carne y hueso. También en algunos casos es mejor caminar y no tomar un carro (este último, a inicios del siglo pasado, para muchos una máquina abominable frente al confiable caballo). Lo importante aquí es revisar la calidad de cada decisión y, en cuanto sociedad, controlar que corresponda con los estándares de justicia, moral social e imperio de la ley contemplados en nuestro sistema.

Así que creo que, en el corto plazo, tres tipos de decisiones judiciales van a convivir: las humanas, las electrónicas y una combinación de ambas, todas con base y control humano. Porque el cambio no va a ser inmediato; el uso de la herramienta será gradual y supervisado, pero, especialmente, enfocado en el mejor resultado para el destinatario de la herramienta: el humano.

En fin: bienvenida la IA en la toma de decisiones, pero bien utilizada. No digamos que el juez “nunca” va a ser remplazado, o peor, que el algoritmo será un robótico terminator de la justicia. Tomemos lo bueno de los dos mundos y apuntemos siempre hacia la mejor decisión.

 

Después de todo, la gente no quiere jueces, quiere justicia.

 

 

 

Artículos Recientes