UNESCO pone límite a la IA en tribunales: no puede sustituir el razonamiento de jueces

La UNESCO publicó nuevas directrices globales para el uso de inteligencia artificial en cortes y tribunales, dejando claro que estas herramientas solo deben servir de apoyo y nunca reemplazar el juicio humano, el debido proceso ni la independencia judicial.

0
5
Foto: Pexels

La UNESCO fijó una línea roja sobre el avance de la inteligencia artificial en la administración de justicia: la tecnología no puede sustituir el razonamiento judicial humano y solo debe utilizarse como herramienta de apoyo bajo estricta supervisión. El nuevo marco fue presentado en el documento Directrices para el uso de sistemas de IA en cortes y tribunales, elaborado tras un amplio proceso de consultas globales en el que participaron más de 36.000 profesionales de más de 160 países.

El texto llega en un momento en el que la IA gana cada vez más espacio dentro de los sistemas judiciales, desde la gestión de expedientes hasta la búsqueda de jurisprudencia y apoyo en la redacción de documentos. Sin embargo, la organización advierte que las decisiones que se adopten hoy sobre su implementación marcarán el rumbo de la justicia durante las próximas décadas, por lo que insiste en que cualquier integración debe estar guiada por criterios éticos, legales y de derechos humanos.

Las directrices reconocen que estas herramientas pueden mejorar el acceso a la justicia, agilizar la tramitación de causas y hacer más eficiente la gestión de los tribunales. Pero al mismo tiempo establecen 15 principios fundamentales para su adopción, entre ellos la transparencia, la responsabilidad, la fiabilidad técnica, la protección de los derechos humanos y, sobre todo, la supervisión humana obligatoria en cualquier proceso que pueda afectar derechos.

La UNESCO subraya que la inteligencia artificial debe cumplir una función complementaria y jamás sustitutiva. Su papel puede ser útil para organizar información, detectar patrones o reducir tiempos procesales, pero la valoración jurídica, la interpretación de la norma y la decisión final deben permanecer en manos humanas, como garantía esencial del Estado de Derecho.

El organismo también advierte sobre los riesgos de un uso inadecuado. Sistemas defectuosos, sesgados o empleados sin controles suficientes pueden afectar derechos como el juicio justo, el debido proceso, la privacidad, la igualdad ante la ley y la imparcialidad judicial. En ese escenario, la IA podría convertirse en un factor de vulneración de derechos en lugar de una herramienta para fortalecer la justicia.

Uno de los puntos más sensibles del documento se refiere al uso de modelos de lenguaje generativo. La UNESCO alerta que estas herramientas pueden producir respuestas aparentemente coherentes, pero jurídicamente erróneas, al operar sobre bases probabilísticas sin comprender el significado real de las normas o de los hechos del caso. Por eso insiste en que su uso debe ser especialmente prudente, sobre todo cuando intervienen personas sin formación legal especializada.

La organización también remarca que la adopción efectiva de estas tecnologías exige capacitación permanente para jueces, fiscales, defensores y personal de apoyo, además de sistemas auditables, accesibles y alineados con estándares de derechos fundamentales. La conclusión es clara: la IA puede ayudar a construir una justicia más rápida y eficiente, pero nunca puede reemplazar el juicio humano que sostiene la legalidad, la independencia judicial y la confianza en las instituciones.

Dejar una respuesta

Por favor, introduce tu comentario
Por favor, introduzca su nombre aquí