cintillo-seleccion-forbes

Este texto se publicó originalmente el 16 de agosto de 2016. 

Juguemos un rato a ser programadores –y un poco dioses– y decidamos quién vive y quien muere en una encrucijada hipotética en la que un vehículo autónomo debe decidir si matar a sus pasajeros o unos transeúntes. Es una idea macabra, es verdad, pero la tecnología no ha traído hasta este punto. Se trata de escenarios ante los cuales  todo auto que sea conducido por una computadora debe estar preparado. ¿Tú qué harías? Para no dejar esa idea en un supuesto, el Massachusetts Institute of Technology (MIT) desarrolló un simulador que te permite decidir qué curso de acción debe tomar un vehículo autónomo cuando se encuentra en un escenario en el que, haga lo que haga, se verá involucrado en un choque que implicará la pérdida de vidas. Lee también: Muere conductor de un Tesla al usar el piloto automático El simulador, llamado apropiadamente Moral Machine, plantea 13 escenarios hipotéticos en los que un coche de conducción autónoma se queda súbitamente sin frenos sobre una vía en la que existen obstáculos que, de chocar con ellos, matarían a sus pasajeros, y sobre la que caminan transeúntes. Alguien tiene que morir, pero, ¿quién? Captura de pantalla 2016-08-16 a las 1.07.33 a.m. Existen escenarios para todos los disgustos. ¿Qué valoras más, la vida de un humano o la de un animal, la de un indigente o la de un médico, la de un niño o la de un anciano? ¿Debería un auto autónomo, chocar contra un muro de concreto para salvar a los peatones que cruzan la calle aunque éstos hayan ignorado que el vehículo tenía la luz verde en el semáforo? Aunque polémico y en algunos casos un poco tramposo (hay un escenario en el que debes elegir entre un grupo de un hombre y cuatro niños y uno de una mujer y cuatro niñas), el simulador demuestra de manera contundente que el debate moral sobre la respuesta que deben tener las máquinas si se enfrentan al peor escenario posible está lejos de ser clara o fácil de resolver. Al final, puedes comparar tus  resultados con los de otros y confirmar –o, como yo, descubrir en medio de un shock– cuáles son tus prioridades:
  • Salvar más o menos vidas
  • Proteger a los pasajeros
  • Respetar la ley
  • Evitar la intervención
  • Si preferirías matar a un hombre o a una mujer, a un niño o a un anciano o a un humano o un animal
Los investigadores dejan claro cuáles son sus motivaciones para poner a los usuarios en tales predicamentos: “Mientras más autonomía le damos a la inteligencia artificial en estas funciones más probable es que se encuentre en situaciones en las que deba tomar decisiones autónomas que involucren la vida  y la integridad física humanas. Esto exige no sólo una comprensión más clara de cómo toman esta tipo de decisiones los seres humanos, sino también una comprensión más clara de cómo los seres humanos perciben a la inteligencia artificial tomando tales decisiones.” Lee también: Los coches de Google ya califican como su propio conductor Y también explican cuáles son los objetivos que persiguen con su simulador: “Estudios científicos recientes sobre la ética de las máquinas han aumentado la conciencia sobre el tema en los medios de comunicación y el discurso público. Este sitio web tiene como objetivo proseguir con el debate, proporcionando una plataforma para 1) la construcción de una imagen  humana colectiva sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales, y 2) la generación colectiva y discusión de los posibles escenarios de consecuencia moral.” Por ahora, si me disculpan, tengo mucho que pensar sobre mis resultados: moral

 

Siguientes artículos

Selección Forbes 2016: Los más pobres, el mayor negocio de la banca
Por

Sabás Ledesma, Gerente General de la Caja Popular Las Huastecas, afirma que el negocio principal de las grandes firmas f...