26 de marzo de 2017

TECNOLOGÍA Y ÉTICA: LA ÚLTIMA FRONTERA

Un vehículo autoconducido se desplaza a toda velocidad a través de una avenida, en una ciudad cualquiera. De repente, se produce un error fatal: algo ha fallado en el sistema de freno. Ante el automóvil, hay un paso de peatones, en el cuál se encuentran una mujer embarazada y un niño. El coche no puede frenar. El procesador y los sistemas de radar del vehículo se hacen una composición de lugar en milésimas de segundo: atropellar fatalmente a los peatones, o desviarse hacia el carril contrario, por donde se acerca otro automóvil. Los algoritmos inteligentes saben que el choque será brutal, y significará la muerte del pasajero. ¿Qué decisión tomará? ¿Atropellar a los peatones o chocar contra el vehículo que se acerca en dirección contraria? La mente humana no tiene tiempo de tomar esa decisión, actúa de forma instintiva. Pero una centésima de segundo es una eternidad para un procesador de última generación: puede decidir entre dos opciones traumáticas. ¿Qué escogerá el software madre: matar a una familia con niños pequeños o matar a su pasajero?

La seguridad en los automóviles autoconducidos será un factor absolutamente crítico (al nivel de la aviación), cada accidente será analizado con precisión y el software de la totalidad del parque autoconducido se actualizará y mejorará con cada incidencia. Millones de dólares en seguros estarán en juego. Pero, por primera vez, quizá en la historia de la humanidad, una máquina deberá tomar decisiones de vida o muerte sobre humanos. La nueva frontera de la tecnología es también la nueva frontera de la ética. ¿Qué principios deben guiar las decisiones de la inteligencia artificial? He aquí un debate que dará para larguísimos ensayos en los próximos años.

Source: MIT Moral Machine, en WEF
Las implicaciones éticas de las nuevas tecnologías van mucho más allá de los vehículos autoconducidos. Google o Facebook pueden trazar perfiles psicológicos precisos de todos nosotros ¿Qué uso harán? ¿Se pueden utilizar redes sociales, de uso masivo, para influir en el resultado de unas elecciones? ¿Se puede predecir el resultado de unas elecciones usando big data a partir de los comentarios masivos de votantes en los días previos, en las redes sociales? Y, si se puede, ¿una gran corporación digital puede también intentar cambiarlos mediante acciones específicas en dichas redes?

Hace ya tiempo que se está hablando de las implicaciones económicas y éticas de la revolución genómica: ¿quién más interesado que nuestra compañía de seguros, en conocer nuestro código genético y saber las probabilidades que tenemos de contraer un cáncer en los próximos años – con el incremento de la prima que esta información comportaría en nuestro seguro de vida? ¿Podemos programar a nuestros bebés activando los genes precisos para que tengan un coeficiente de inteligencia de 150?

¿Y qué tal con los drones? ¿Nos gustaría ver un dron sobrevolando nuestro apartamento equipado con una máquina de vídeo, junto a la ventana, mientras nos duchamos? O, ¿nos gustaría ver a nuestro hijo de 8 años estableciendo una animada conversación con un bot digital, con expresión facial indistinguible al de una angelical joven a través de su iPad, como los inquetantes chatbots de la startup Soul Machines? ¿Qué le estará explicando? ¿De qué habla mi hijo con un robot?

Y, si los sistemas de inteligencia artificial siguen progresando en su capacidad de interacción con el entorno, de interpretación de datos y de generación de resultados, ¿podría un algoritmo inteligente, por ejemplo, registrar una patente a su nombre? ¿Podría detectar una oportunidad de negocio y reclamar derechos sobre la misma? ¿Podría un robot ser emprendedor? Al fin y al cabo, una sociedad mercantil es una entelequia jurídica ficticia, propietaria de bienes y responsable de actos ante la ley. ¿Podría tener forma jurídica, propiedades y responsabilidades, un robot?

Creo que las tres leyes de Asimov (un robot no puede herir a un humano, un robot debe obedecer a los humanos, y un robot debe proteger su existencia mientras esto no suponga violar alguna de las dos primeras leyes) se nos van a quedar muy cortas ante la inmensa casuística y los apasionantes dilemas morales a los que nos está llevando la era de las tecnologías exponenciales.


(Para más info, ver The Moral Dilemmas of the Fourth Industrial Revolution, del World Economic Forum)

3 comentarios:

  1. Gran exposición de ideas y hechos pero como siempre la regulación llegara tarde y tendremos primero el "problema" o la "oportunidad" antes que la misma y alguien ya debería estar trabajando en esto, porque aparte de dar la altura y en que zonas de los drones que hemos regulado. Los sigo viendo por ahí sin ninguna restricción. Ya no llego a imaginarme que pasaría si fuesen robots inteligentes tomando decisiones policiales.....para pensarlo.

    ResponderEliminar
  2. Creo que un auto de manejo automático debe estar preparado para actuar en caso de fallas, En el caso que se plantea (quedar sin frenos) por ejemplo deberá aplicar el freno de mano,que es independiente del freno hidraulico, ir rebajando cambios, y apagar el motor.No tendrá que elegir el software madre a quien debe conducir a la muerte, sino cual es la solución del problema y aplicarla.

    ResponderEliminar
  3. Si bien hay detrás toda una discusión de regulaciones y muchas cosas mas, lo cierto es que siempre lo programará un humano.

    ResponderEliminar