Lectura fácil
La Inteligencia Artificial no llega a la justicia como una herramienta neutral ni como una solución definitiva. Su incorporación en sistemas ya marcados por desigualdades históricas no elimina los sesgos existentes, sino que puede reorganizarlos y volverlos menos visibles. En ese cruce entre tecnología y derecho, lo que está en juego no es solo la eficiencia de los procesos, sino la forma en que se producen, se interpretan y se consolidan las decisiones que afectan a las personas.
La ilusión de neutralidad
La Inteligencia Artificial no es neutral, tampoco lo es la justicia. Cuando ambos sistemas se cruzan, los sesgos no desaparecen, se reorganizan y adquieren nuevas formas. Lo que antes era visible como prejuicio puede transformarse en una decisión aparentemente técnica. Esto dificulta su identificación y, sobre todo, su discusión pública.
El sistema judicial arrastra desigualdades históricas en el acceso, en la escucha y en la credibilidad. Estas desigualdades no son fallas aisladas, sino parte de una estructura que ha condicionado durante décadas quién puede hablar, quién es escuchado y quién es creído.
La Inteligencia Artificial aprende de datos, pero los datos no son neutrales. Son registros de decisiones humanas, de lo que se consideró importante guardar y también de lo que se decidió ignorar.
Si durante años ciertas denuncias no fueron tomadas en serio, si algunas violencias fueron minimizadas o directamente invisibilizadas, todo eso queda registrado. Lo que antes era sesgo institucional puede convertirse en patrón de aprendizaje. Así, la IA no corrige la historia del sistema, la reproduce.
Cuando la tecnología entra en la justicia
Cuando la IA entra en la justicia para clasificar casos, priorizar intervenciones o analizar información, no parte de cero. Parte de un sistema ya desigual. Y en ese contexto, la tecnología no necesariamente repara las brechas existentes, puede consolidarlas bajo una apariencia de objetividad.
La promesa de eficiencia convive con un problema de fondo: la automatización de decisiones en contextos desiguales puede volver más difícil cuestionar esas mismas desigualdades.
El acceso desigual a la justicia
El acceso a la justicia nunca ha sido igual para todas las personas. Así, existen diferencias territoriales, económicas y simbólicas que condicionan cada paso del proceso.
No todas las personas saben a dónde acudir, no todas cuentan con recursos para sostener una denuncia, no todas reciben la misma respuesta institucional. Las demoras, la falta de información y la ausencia de acompañamiento también forman parte de la desigualdad. En este escenario puede apoyarse en registros que ya reflejan esas brechas, sin necesariamente cuestionarlas.
En casos de violencia de género o violencia laboral estas desigualdades se hacen más evidentes. Denuncias que no avanzan, relatos que son puestos en duda, pruebas que se valoran de forma desigual.
Todo eso no solo afecta a las personas involucradas, también produce información que alimenta sistemas automatizados. La Inteligencia Artificial aprende de esos patrones, incluso cuando esos patrones provienen de injusticias previas.
Tecnología, poder y decisiones de la Inteligencia Artificial
El problema no es solo técnico, es político. La Inteligencia Artificial no se desarrolla en el vacío, sino dentro de estructuras de poder que determinan qué datos se usan, qué se considera válido y qué queda fuera del análisis.
Incluso herramientas diseñadas para mejorar el acceso a la información muestran una tensión central: si la tecnología puede acercar el derecho a las personas, también revela las fallas del sistema que debería garantizarlo sin intermediarios.
Cuando la Inteligencia Artificial entra en sistemas ya desiguales, no necesariamente los transforma. Puede hacer algo más sutil y preocupante: volverlos más eficientes en la reproducción de sus propias desigualdades.
La discusión no es solo sobre tecnología, sino sobre justicia, poder y responsabilidad institucional.
Añadir nuevo comentario