Por Alejandro Urueña - Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
Y María S. Taboada - Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
La justicia, ese ideal que ha guiado a la humanidad durante siglos, se encuentra hoy en una encrucijada fascinante y perturbadora. Mientras los tribunales se aferran a sus rituales ancestrales, una nueva fuerza irrumpe en el escenario: la inteligencia artificial (IA).
No se trata de robots con toga y martillo, sino de algoritmos capaces de procesar y analizar montañas de datos legales, identificar patrones ocultos y, en última instancia, predecir el resultado de un juicio.
La minería de textos, como la utilizada por Lauderdale & Clark (2014) https://onlinelibrary.wiley.com/doi/10.1111/ajps.12085, ha mostrado cómo los metadatos de votos judiciales pueden revelar preocupaciones subyacentes en las decisiones de los jueces, lo que permite predecir patrones en la resolución de casos judiciales. Esto plantea la pregunta: ¿puede la IA realmente reemplazar la sabiduría humana, o simplemente sirve como una herramienta más para mejorar el proceso judicial?
Detrás de la promesa de una justicia más eficiente y objetiva se encuentra la programación científica. Lenguajes como Python y R, junto con bibliotecas especializadas en análisis de datos y aprendizaje automático, permiten a los investigadores construir algoritmos capaces de analizar grandes volúmenes de información legal. Ello implica la posibilidad de analizar miles de sentencias, identificar patrones en la jurisprudencia y predecir resultados en lapsos de tiempo infinitamente inferiores de los que requeriría la misma tarea por parte de humanos.
La promesa de un sistema judicial que economice ingentes esfuerzos, elimine los sesgos humanos y brinde soluciones rápidas y precisas está al alcance de la mano. Pero, ¿es un avance en aras de una mejor justicia, o una amenaza para la complejidad hermenéutica que reclaman los casos legales?
La minería de textos, alimentada por algoritmos, puede revelar patrones en el lenguaje legal, identificar precedentes relevantes y construir mapas conceptuales de áreas del derecho. Esta capacidad de analizar y visualizar datos legales permite a los investigadores comprender la evolución de la jurisprudencia, identificar tendencias y predecir resultados. A medida que la IA toma mayor protagonismo en la interpretación legal, cabe interrogarse sobre el posible impacto de la delegación y dependencia de las máquinas y la naturalización de sus “capacidades” en la praxis del derecho.
El Procesamiento de Lenguaje Natural (PLN) se ha convertido en una herramienta esencial para que las máquinas “entiendan” el lenguaje legal. Con técnicas avanzadas, los algoritmos pueden identificar conceptos clave, relaciones entre términos y recursos específicos del discurso jurídico. La automatización de tareas como la redacción de documentos legales y la clasificación de casos es cada vez más común. Sin embargo, ¿puede la máquina captar la riqueza y los matices que los jueces, con su experiencia y sabiduría, interpretan al aplicar la ley?
Uno de los aspectos más controvertidos de la IA en la justicia es la predicción de resultados. Al entrenar algoritmos con datos históricos de casos y decisiones judiciales, los sistemas pueden intentar predecir el resultado de nuevos casos. Si bien esta potencialidad puede proporcionar macrodatos en términos de generalizaciones y recurrencias, ¿cómo se gestionan la imprevisibilidad y la singularidad de cada caso? ¿Es posible capturar la complejidad de la justicia sólo a través de algoritmos?
Mapear el territorio legal
La IA tiene la capacidad de identificar temas recurrentes en la jurisprudencia, agrupando casos según sus características, argumentos y resultados. Este modelado de tópicos facilita la investigación legal y ayuda a comprender mejor la evolución de las doctrinas jurídicas.
Sin embargo, la automatización de esta tarea plantea la pregunta de si se puede llegar comprender exhaustivamente el derecho sólo a través de la tecnología, sin tener en cuenta el contexto humano y las circunstancias individuales.
La capacidad de la IA generativa para crear textos legales plantea dilemas éticos fundamentales. Si un algoritmo redacta un contrato defectuoso o un fallo judicial erróneo, ¿quién es el responsable? Este cuestionamiento resalta un aspecto crítico de la IA: su falta de rendición de cuentas.
Los sistemas judiciales deben garantizar que la transparencia y la responsabilidad estén en el corazón de la tecnología legal. La promesa de un sistema judicial más rápido y eficiente sólo puede ser alcanzada si mantenemos el control sobre las decisiones y las máquinas son supervisadas de cerca. Este control reclama la convergencia de especialistas de diversas disciplinas.
De por sí, los expertos en derecho y, a la par, lingüistas y analistas del discurso que puedan monitorear las implicancias, los presupuestos y los contenidos semánticos que se configuran no sólo a partir del léxico o de estructuras (patrones) explícitas sino que resultan de la trama discursiva de estrategias y recursos gramaticales. Es precisamente este plano, el de los implícitos, potencialidad específica del lenguaje humano que deviene de su compleja configuración estructural, la dimensión “débil” de los algoritmos. Lo que no se dice con palabras, sino que emerge de las relaciones entre el discurso y sus contextos de producción y enunciación, y comporta por lo tanto dimensiones socioculturales diversas y conocimiento e interpretación experiencial, es aún un territorio incógnito y vedado para las máquinas.
Lo que “queda claro” para el algoritmo, puede estar impregnado de sesgos o implicancias no deseadas. Las grandes tecnológicas prometen que esta multidimensionalidad del lenguaje podrá ser aprehendida por la computación cuántica. Hasta el presente, no hay evidencia contundente al respecto.
Recientes avances en el PLN y el Aprendizaje Automático (AA) proporcionan herramientas poderosas para construir modelos predictivos que pueden desvelar los patrones que guían las decisiones judiciales. Esto es útil tanto para abogados como para jueces, quienes pueden utilizar estas herramientas como asistencia para identificar rápidamente casos y extraer patrones que conduzcan a ciertas decisiones. Como muestran los estudios de Lauderdale y Clark, esta tecnología puede ser una ayuda valiosa para predecir el resultado de los casos.
Este enfoque se ha aplicado a la Corte Europea de Derechos Humanos (CEDH), donde se han utilizado modelos de clasificación binaria para predecir si un artículo de la Convención de Derechos Humanos ha sido violado en función del contenido textual extraído de los casos. Los modelos, basados en secuencias de palabras (N-gramas) y temas, muestran una tasa de precisión del 79%, lo que destaca el valor de la minería de textos en el ámbito judicial.
Imparcial y transparente
Pero la implementación de estos métodos predictivos plantea preguntas importantes sobre la imparcialidad y la transparencia en las decisiones judiciales. Aunque la IA puede ayudar a eliminar sesgos humanos y agilizar el proceso judicial, también es crucial reflexionar sobre la forma en que estas herramientas pueden influir en la naturaleza misma de la justicia. La capacidad de predecir los resultados de los casos con un alto grado de precisión abre nuevas oportunidades, pero también trae consigo riesgos asociados al reduccionismo de la complejidad humana en el análisis judicial. El ser humano, su psiquis, pensamiento y lenguaje, no son “datos exactos”. Precisamente la capacidad de transformar y transformarse permanentemente del homo sapiens de manera diversa, ante los diversos desafíos, es lo que le ha permitido sobrevivir, doblegar las adversidades del medio ambiente y crear otros mundos.
Si pudiera ser reducido a un dato exacto, monolítico, la ciencia ya lo habría hecho y probablemente esto significaría un posible camino hacia la extinción porque no habría posibilidad de cambiar. La predicción de los algoritmos tiene la frontera de lo hecho y reiterado (y presente en la web).
La IA tiene el potencial de transformar la justicia, pero debe ser implementada con cautela. Mientras que las herramientas basadas en IA pueden hacer el sistema judicial más eficiente y accesible, no deben reemplazar el juicio humano, la empatía, la creatividad, la conciencia y la capacidad de comprender las complejidades éticas de los casos. La justicia no es solo un problema lógico; es un proceso social que involucra emociones, valores y circunstancias humanas únicas. La IA puede ser una poderosa herramienta, pero solo si se utiliza con responsabilidad.
¿Deberíamos confiar en algoritmos para administrar la justicia? El debate sigue abierto. La integración de la IA en el ámbito judicial debe ser cuidadosamente regulada para asegurar no solo la eficiencia, sino también la transparencia, la equidad y la humanidad que el sistema legal debe preservar. Compleja humanidad que interroga acerca del concepto de “imparcialidad” desde los algoritmos.
2025 nos trae esta tarea; la era de los agentes “autónomos” ya está con nosotros y siempre miramos desde atrás al avance tecnológico. Es hora de -por lo menos- estemos a su lado, con el debido control.