No me importa lo que usted me dice, me importa usted. (Unamuno)

miércoles, 23 de octubre de 2024

Ética Aplicada. Bioética

Campo de melones. El Prat

Bueno, esto se pone interesante. Lo primero es pedirles disculpas porque no he podido bajarlo directamente, así que habrán de clicar; lo segundo, y a lo que voy, es el enorme problema, a nivel moral, que se presenta y que hace tiempo una antigua profesora, muy buena, por cierto, Begoña Román, en una clase de Ética Aplicada, nos puso como hipotético ejemplo. 

Resulta que aquel ejemplo ha sucedido en la vida real y ahora abre un debate de dimensiones totalmente nuevas; estamos diciendo que con dinero se podrá cambiar la respuesta que la inteligencia artificial tiene aplicada a estos coches, y con ello la forma de responder delante una contingencia.

Después que hayan visto el video, podemos ponernos al caso. 

 https://youtube.com/shorts/DCc6Kf50sIk?si=UJNp-_Bp1Wv6vY-b

Resulta que el Tesla, el coche de Elon Reeve Muskha evitado atropellar una persona, pero se ha empotrado contra otro que venía de frente; se sabe que ha herido de gravedad al conductor de este último. Por lo visto, el Tesla estaba programado para evitar atropellar (a cualquier coste)  un ser humano.

Y a lo que vamos, por lo que parece, los coches se programan dependiendo de la Ley y del país donde se adquieran;  esa programación, por cultura y raigambres de ese país, será de una u otra forma: En Europa del sur nos estrellaremos nosotros antes que atropellar un humano. En África, siempre se salvarán los ancianos y el coche se desviará; en los países nórdicos primarán  los niños si así lo requiere la programación. 

Pero resulta que Tesla puede en su software, y mediante pago, introducir quien ha de sufrir menor daño en caso de accidente, cambiando los parámetros, o sea, que el coche puede discernir mediante su I.A. de forma inmediata, la prioridad de quién tiene que ser el menos perjudicado en caso de tener que actuar, tal como vemos en el vídeo.

En este caso, como pueden suponer, el peatón hubiera resultado atropellado porque el sistema hubiera impedido que se estrellase contra otro coche, dado que eso hubiera sido, según la I.A. del programa, un peligro "mayor".

¿Cómo podremos entender la Ética en este modelo de actuación, si mediante un coste adicional se puede programar quién ha de ser el menos perjudicado en caso de accidente? 

1 comentario:

  1. Pues es lo que nos faltaba, que nuestra vida estuviera en el poder de elección de la IA, si es que no lo estamos ya.

    ResponderEliminar

Ética Aplicada. Bioética

Campo de melones. El Prat Bueno, esto se pone interesante. Lo primero es pedirles disculpas porque no he podido bajarlo directamente, así qu...