Hay un problema ético que se ha hecho muy popular con respecto a vehículos autónomos pero, que en su versión original trata de un tranvía que avanza hacia una bifurcación de vías. Un observador se da cuenta de que, sí el tranvía mantiene su dirección, atropellará a tres personas distraídas caminando sobre la vía. Pero si activa con una palanca el cambio de vías, el tranvía sólo atropellará a una persona que está en la vía alterna. La pregunta es ¿qué debe hacer el observador? ¿activar el cambio de la vía o no? La mayor parte de personas encuestadas responde que activarían el cambio para salvar a tres personas y que muera una sola.
En una variante del problema, alguien observa al tren avanzando desde un puente. Atropellará a tres personas, si continúa su trayectoria, y a ninguna persona, si cambia la vía. Si el observador empuja a la persona del puente, para que se active el cambio de vía con su caída, esa persona morirá, pero se salvarán las tres personas sobre la vía. Aquí la mayor parte de los encuestados no se atreve a sacrificar a la persona en el puente.
El filósofo norteamericano John Rawls propuso desde los años sesenta que para resolver este tipo de problemas éticos hay que evaluarlos detrás del “velo de la ignorancia”. Es decir, en los problemas planteados arriba no sabríamos quién somos, de entre todas las personas mencionadas en el dilema.
Si en la primera versión del problema yo soy la persona en la vía alterna, la que ha sido sacrificada al cambiar la vía, puedo calificar la decisión de totalmente injusta, porque yo había tenido cuidado de no estar en la vía por la que siempre pasa el tren. La persona cauta y sensata es sacrificada, mientras que los tres descuidados sobreviven.
Mucho peor es la decisión desde el punto de vista de la persona que está en el puente y que es sacrificada con su caída. Es totalmente injusto que alguien me tire de un puente, aunque con eso se salven tres personas, ya que hasta el momento de que eso suceda soy una persona que no estaba involucrada en toda la cuestión.
Para vehículos autónomos se han planteado escenarios similares: el vehículo avanza sobre un carril, no tiene tiempo de frenar, pero sí de cambiar carril. En el carril por donde avanza hay un niño y en el otro carril una persona de la tercera edad. Desde un punto de vista utilitarista, es decir, de maximización de años futuros de vida, habría que cambiar de carril y atropellar al anciano. Pero si ahora consideramos las cosas desde el punto de vista del anciano, no sería justo que se sacrifique al que tuvo cuidado al cruzar la calle. El niño puede pedir clemencia, pero él tiene la culpa de estar donde está.
Otra variante sería que la computadora tuviera la tercera opción de que el vehículo se salga de la calle y se estrelle contra un árbol para no atropellar a personas distraídas, dos por cada uno de los dos carriles posibles. Pero entonces el pasajero en el auto perdería la vida. Desde un punto de vista utilitarista, lo mejor es que se descarrile el auto. Pero situándonos detrás del velo de la ignorancia, pudiera ser que fuéramos ese pasajero sacrificado. En ese caso no nos parecería justo salir castigados, si ni siquiera andamos caminando y sólo somos pasajeros de un taxi.
El problema para las computadoras, entonces, es cómo llegar a una decisión “justa” para todos. Como cuando se divide un pastel en dos: la primera persona corta el pastel y la segunda escoge la parte que quiere. Ese es un “algoritmo justo”: nadie sale perjudicado ni puede tomar ventaja. Por eso Rawls propone que una solución es justa, si todos los involucrados están dispuestos a firmar un contrato sin saber de antemano cuál será su papel en los dilemas. Por ejemplo, en los casos discutidos arriba, el contrato estipularía que un vehículo autónomo no debe arrollar a una persona que no se ha metido en peligro, por sus decisiones previas.
Estamos muy lejos en la Inteligencia Artificial, de poder tener algoritmos justos para todos los campos de aplicación. El problema se sigue investigando. Por lo menos es necesario tener conciencia de que una decisión justa lo debe ser para todos los involucrados, considerando todas las perspectivas particulares. Y ahí es donde los filósofos mismos aún no se ponen de acuerdo. Se necesita un marco legal para todas estas aplicaciones y para eso los informáticos tendrán que seguir dialogando con los filósofos de la justicia.
*Profesor de la Universidad Libre de Berlín, Premio Nacional de Ciencias y miembro del Consejo Consultivo de Ciencias
Copyright © 2021 La Crónica de Hoy .