LA IA Y EL JUICIO HUMANO: ¿PUEDEN LAS MÁQUINAS REEMPLAZAR LA TOMA DE DECISIONES DE LOS JUECES?

Esta tecnología tiene la capacidad de analizar grandes cantidades de información y proporcionar recomendaciones precisas, sin embargo, las habilidades humanas siguen estando un poco más allá, especialmente en casos que requieren la participación de un juez o un tercero con experiencia en resolución de conflictos, quienes cuentan con habilidades de comprensión y empatía, las cuales son fundamentales en la toma de decisiones éticas y justas.


Es importante recordar que la IA se basa en modelos matemáticos y algoritmos, estos modelos pueden contener (incluso de forma inconsciente) prejuicios y limitaciones que no son evidentes para los programadores o los usuarios de la tecnología, tal como lo indica Juan Fernando Capitani en su trabajo de grado: el riesgo inteligente: el sesgo algorítmico y la toma de decisiones en una sociedad cada vez más tecnológica. Sin embargo, la toma de decisiones humanas tampoco es perfecta, es por esto que requerimos de sistemas jurídicos que permitan corregir los errores y garantizar que se respeten los derechos y la dignidad de las personas involucradas, ejemplo de lo anterior son las Normas de Resolución de Disputas en Línea (Estándares de ODR) creadas por el Consorcio Internacional de Resolución de Disputas en Línea (ICODR) y el Centro Nacional de Tecnología y Resolución de Conflictos (NCTDR) con el fin de contar con un mínimo de requerimientos éticos dentro del proceso de resolución de conflictos mediante la utilización de tecnología y contar con mecanismos apropiados para la rendición de cuentas y el monitoreo de estas.

La IA puede ser útil en ciertos contextos, hay muchas disputas simples y rutinarias que podrán ser resueltas mediante la aplicación de silogismos básicos en el contexto de las plataformas ODR, no obstante, en disputas legales complejas o casos que involucran derechos humanos, es importante que haya una revisión humana en última instancia.


Por ejemplo, los algoritmos de IA pueden perpetuar sesgos ocultos en los datos de entrenamiento que se utilizan para programarlos. Si los datos de entrenamiento son sesgados, el algoritmo también lo será y sus decisiones estarán sesgadas. Esto se convierte en un problema grave cuando se trata de decisiones importantes que afectan a las personas, ejemplo son los sistemas de IA utilizados en la contratación, que han sido acusados de perpetuar sesgos de género y raza.


Las plataformas ODR y en general, cualquier tecnología equipada con IA pueden ser programadas para tomar decisiones autónomas en ciertas circunstancias donde se requiere rapidez y precisión, pero cuando se trata de decisiones que afectan a la vida de las personas, como las decisiones judiciales, en mi opinión, siempre será  importante que haya una revisión humana en última instancia, puesto que como humanos tenemos la habilidad de ponernos en el lugar del otro y de alguna manera sentir en carne propia las consecuencias de este tipo de decisiones.


Es por esto que considero que la IA no es capaz de suplir completamente el razonamiento de un juez, toda vez que los jueces humanos tienen la capacidad de tomar en cuenta la complejidad y la sutileza de un caso, y considerar la justicia y la equidad en su toma de decisiones. La IA, por otro lado, está programada para seguir un conjunto específico de reglas y no puede tomar en cuenta factores subjetivos como lo haría un ser humano, y como ya vimos, la IA puede ser susceptible a prejuicios, ya que su programación se basa en gran medida en datos históricos. Por lo tanto, podría perpetuar y amplificar los sesgos presentes en la sociedad, llegando incluso a desviar el rumbo de la misma mediante decisiones injustas y discriminatorias. 

Christian Ortiz

Christian Ortiz

Abogado especializado en Derecho Laboral y Relaciones Industriales. Egresado de la Universidad de Cartagena. Con más de 7 años de experiencia en litigios y asesorías a empresas, Con profundo conocimiento y habilidades en el área del Derecho Laboral y las Relaciones Industriales.