Academia

El ex ministro encabezó la nueva mesa del Seminario Permanente Derecho y Ciencia, coordinado por El Colegio Nacional y la SCJN

Si vivimos en una sociedad justa, diseñaremos algoritmos justos: José Ramón Cossío

Seminario en la UNAM La mesa de diálogo se realizó en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM. (ECN)

Según el Consejo de la Judicatura Federal, en México, hasta 2023 existen 10 millones 230 mil archivos judiciales. El sistema mexicano cuenta con cierto nivel de automatización para trámites, registros y asesoría, entre otras herramientas con Inteligencia Artificial (IA). Mientras que, la Suprema Corte de Justicia de la Nación (SCJN) dispone de otros apoyos digitales. Sin embargo, la resolución de los juicios sigue siendo responsabilidad de los jueces. Pero ¿se pueden implementar sistemas de IA que intervengan para emitir sentencias?

Con esta pregunta inició una nueva sesión del Seminario Permanente Derecho y Ciencia, coordinado por El Colegio Nacional y la Unidad General de Conocimiento Científico y Derechos Humanos de la SCJN. La conferencia fue en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM.

En la mesa, titulada “Inteligencia Artificial y Justicia”, participaron Alejandro Pisanty Baruch, académico de la Facultad de Química de la UNAM; José Ramón Cossío, miembro de El Colegio Nacional, así como Caleb Antonio Rascón Estebané y Gabriela Sued, investigadores del IIMAS.

“La IA es una herramienta para la humanidad; su uso sigue siendo responsabilidad del ser humano. Al final, es el usuario quien debe responsabilizarse”, señaló Rascón Estebané. Para el computólogo, la “inteligencia” de la IA es solo un comportamiento que se nutre de distintas bases de datos, las cuales pueden estar sesgadas. “Hay que tener cuidado”, advirtió, ya que el algoritmo trabaja con la información que recibe y esta puede ser parcial.

“Me gustaría hablar de la IA no como un algoritmo, sino desde la información que se le entrega para que tome decisiones. En este momento, el sistema está tomando decisiones incorrectas porque la información con la que fue alimentado es incorrecta”, comentó.

Hablando sobre parcialidad, José Ramón Cossío confesó que, así como la IA tiene sesgos, también existen en la SCJN, aunque “nadie se da cuenta”. Por ello, consideró importante analizar en quién recae la responsabilidad. En este sentido, el ministro en retiro recordó un caso en el que un abogado utilizó ChatGPT para desarrollar un precedente y lo presentó ante un juez. Al descubrir que el caso era falso, el juez sancionó al abogado, quien finalmente fue expulsado de la Barra de Abogados.

Cossío enfatizó que juzgar es una acción esencialmente humana y planteó una cuestión: “Tenemos jueces humanos: listos, tontos, corruptos... La pregunta es: ¿qué tendría que ocurrir para que la gente prefiera ser juzgada por una máquina? Me parece un tema interesante porque, aunque juzgar es humano, puede haber quienes prefieran los sesgos de un algoritmo a los de jueces y magistrados”.

Seguidamente, el colegiado habló sobre la responsabilidad jurídica en el desarrollo de la IA. “Alguien construyó la IA bajo ciertos criterios que implican una relación jurídica. Si me entregaste un sistema y me dijiste que hacía ‘A’, ‘B’ o ‘C’, esas especificaciones deben cumplirse”.

En este sentido, Cossío sugirió que el abogado que usó ChatGPT podría haber demandado a la empresa que desarrolló la tecnología; sin embargo, también recalcó que el abogado es responsable del uso que hizo de la IA. “Las responsabilidades están claras”, dijo, y sugirió que los usuarios deben comprometerse e informarse sobre las tecnologías que utilizan.

Por su parte, Gabriela Sued consideró que la decisión de ser juzgados por una IA en lugar de un juez dependería de cada sociedad. Desde la sociología de la tecnología, explicó que sociedad y tecnología se retroalimentan constantemente: “Para nosotros, la sociedad está construida por la tecnología, y la tecnología está construida por decisiones sociales. Por lo tanto, si queremos una sociedad justa, necesitamos un algoritmo que sea justo. Si creemos que vivimos en una sociedad justa, diseñaremos algoritmos justos”.

Sued también se preguntó quién desarrolla estas innovaciones tecnológicas: ¿una empresa privada, el sector público o un consorcio entre ambos? “¿Existe un organismo auditor? ¿Hay informes de transparencia? Los usuarios deben conocer cómo funcionan las herramientas digitales que utilizan”, enfatizó.

Por su parte, Alejandro Pisanty Baruch centró su participación en el concepto de proporcionalidad, en particular en la relación riesgo-costo-beneficio. Explicó que, si se ponen vidas en riesgo, entonces vale la pena implementar un algoritmo bien calibrado. Como ejemplo, recordó que en México ya existe un sistema de sentencia automatizado: las fotomultas.

“¿Por qué las aceptamos sin que haya una rebelión? Porque lo máximo que cuestan son 600 pesos, y porque hay más problemas con los disparadores automáticos, que pueden capturar imágenes sin que realmente haya exceso de velocidad”, explicó. Además, destacó que la frustración de negociar con un algoritmo no es la misma que la de tratar con un policía humano.

Finalmente, Pisanty subrayó la importancia de precisar a qué nos referimos cuando hablamos de IA, ya que estos modelos existían previamente bajo los nombres de machine learning, deep learning y OCR. “Necesitamos saber de qué hablamos cuando hablamos de IA, porque hay millones de sistemas en uso con enorme productividad. Antes daba pena llamarlos IA, hasta la aparición y popularización de ChatGPT”, concluyó.

Lo más relevante en México