Los coches autónomos son el futuro, o por lo menos eso es lo que se transmite desde la industria del motor. Coches más eficientes, que consumen menos y en teoría más seguros pero ¿hasta qué punto es cierta la última afirmación? Se supone que un coche autónomo no sufre los rigores de la conducción y el inherente cansancio, ni se distrae ni se salta las normas de circulación -no corre más de la cuenta, no se salta semáforos o cedas el paso, ni habla por el móvil-. Llegados a un punto se podría incluso impedir que arrancase si no tiene el seguro en regla.
¿Pero qué ocurre cuando se le plantean dilemas éticos más allá de situaciones normales? Imaginemos que tiene que decidir entre atropellar a tres personas o hacer una maniobra que terminará con la vida de ocupante del vehículo en una variación del conocido problema del tranvía. Seguro que a más de uno se le ha ocurrido en este punto acudir a las tres leyes de la robótica que Isaac Asimov postuló en su obra Runaround (1942) y que son las siguientes:
- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
El problema llega cuando hay que elegir, cuando no se puede proteger la vida de un ser humano sin dañar a otro. En el mencionado dilema del tranvía, que postula lo siguiente: «Un tranvía transita fuera de control por una vía. En su camino se hallan cinco personas atadas a la vía por un filósofo malvado. Afortunadamente, es posible accionar un botón que encaminará al tranvía por una vía diferente, por desgracia, hay otra persona atada a ésta. ¿Debería pulsarse el botón?»
Como en estos dilemas, la forma en la que esté programado el coche hará que actúe en uno u otro sentido. Y es que al final un vehículo autónomo funciona a través de algoritmos que le dicen qué debe hacer en cada momento. Por ejemplo, detenten ante un semáforo en rojo siempre que no haya una gente que diga lo contrario y el resto de normas recogidas en el código de circulación. A estas se añadirán otras situaciones habituales en carretera y que le servirán para determinar su comportamiento frente a otros vehículos.
Pero en última instancia, habría que indicar al vehículo qué hacer ante situaciones comprometidas como decidir entre tu vida como ocupante o la de otros peatones. En la recién estrenada serie «Humans», donde cada familia tiene su propio robot sintético, utiliza la figura del usuario principal como el que decide sobre la máquina y a quien esta debe obedecer en todo momento. Una alternativa en este punto sería introducir cambios que protejan la vida de este usuario principal en caso de conflicto con otros humanos.
Y es que si no se profundizan en las normas se corre el riesgo de que el robot no cumpla su objetivo por no saber qué decidir, como muestra un experimento de Alan Winfiel, del Laboratorio de Robótica de Bristol.
También existe la opción más imparcial: que la decisión se realice en función de las posibilidades de supervivencia de cada individuo en caso de colisión, como por ejemplo ocurre en la película «Yo, Robot». El problema es que como muestra la propia cinta, la decisión puede ser racional pero no ética o sensible. En el caso del detective Del Spooner, interpretado por Will Smith, esto es lo que sucede cuando tras chocar con otro coche una máquina decide salvarlo a él en lugar de la niña del otro vehículo porque sus opciones de sobrevivir eran mayores ¿Qué habrías hecho tú?
De nuevo, es prácticamente imposible establecer una respuesta taxativa y válida para todo el mundo. Por eso una alternativa que ya se está planteando es que sea el propio conductor quien establezca los parámetros éticos de su vehículo. Según una encuesta realizada por RoboHub, un 44% de personas creen que debe ser el dueño quien decida en caso de dudas éticas y determine así cómo actuará el coche por un 12% que opina que este tipo de ajustes debería incluirlos el fabricante y un 33% para el que debería ser algo que esté legalmente determinado.
El informe surge a raíz de una supuesto similar a los que ya hemos indicado. En este caso se trata del dilema del túnel que nos propone la siguiente situación: «Tu coche autónomo conduce por una carretera de montaña y te acercas a un estrecho túnel. Justo antes de entrar un niño cruza la calle, tropieza y queda atrapado en medio bloqueando la entrada al túnel. Tienes dos opciones: atropellar al pequeño y matarlo o impactar contra las paredes del túnel y ser tú quien muera. ¿Qué debería hacer tu coche?»
Un 64% de los encuestados optaron por salvarse ellos mismos y sólo para un 24% tomar la decisión fue difícil por el 48% que lo encontraron fácil.
Lo que parece claro es que todavía queda mucho por avanzar en este campo hasta dar con una solución a los dilemas de la autonomía de los coches. A fin de cuentas, si los problemas éticos fuesen fáciles de resolver no serían verdaderos dilemas.