¿Cómo saber si las decisiones que tomarán los robots están bien o mal?, ¿Quiénes les enseñan a las herramientas tecnológicas (que actualmente se diseñan) lo que es bueno o malo?, ¿Para quiénes trabajarán? Estos y otros cuestionamientos son los que las compañías, gobiernos y sociedad se están enfrentando ante la inminente llegada de herramientas como la Inteligencia Artificial. En un mercado global de Inteligencia Artificial (IA) en donde se calcula que para 2030 se moverán cerca de 15,000 millones de dólares, es importante saber a quiénes les servirán estas tecnologías. No necesariamente en un marco laboral, sino en una medición moral y ética en donde tanto desarrolladores como usuarios aprendan a lidiar con decisiones tomadas por algoritmos que a final de cuenta son creados or seres humanos. Lee también: Las desventajas de ser mujer en el sector tecnológico El análisis de Government, Artificial Intelligence, Readiness Index 2019, realizado por Oxford Insights, da cuenta de los riesgos y las oportunidades que se están presentando ante los desarrollos tecnológicos. Dice que al ser elaborados o diseñados por seres humanos corren el riesgo de estar manipulados con decisiones de sus creadores, bajo el esquema de lo que les parece bien o mal a ellos. “La llamada cuarta revolución industrial, no solo no cosecharán los beneficios potenciales de la IA, sino que también existe el peligro de que la implementación desigual ensancha las desigualdades globales”, señala. En esto coinciden algunos especialistas y catedráticos como Rafael Ramírez de Alba López, profesor del IPADE Business School, quien dice que los riesgos de este tipo de implementaciones deben ser ordenados y balanceados ara que no existan sesgos de inequidad y hasta de desigualdad social. “Un reto muy importante es que a veces confiamos ciegamente en estos algoritmos y en estas tecnologías, me refiero a la discriminación. Por ejemplo, cuando utilizas un sistema de Inteligencia Artificial (para predecir qué tan exitosa será una persona que estás considerando para contratar, si tu alimentas este sistema, si lo entrenas con esta información histórica donde haya habido discriminación por ejemplo hacia las mujeres, ese sistema lo que va a hacer es captar lo que se hacía en el pasado y lo que va a hacer será justo eso”, detalla para Forbes México. Para el catedrático de la institución uno de los grandes problemas que se enfrentan actualmente las compañías que desarrollan tecnología, es que se requiere que quienes diseñen los algoritmos con los que se trabaja por ejemplo en la Inteligencia Artificial, sean personas diversas para que en todo momento se evite la discriminación y esta tecnología esté dotada de mayores elementos predictivos. “A veces inconscientemente estás perpetuando esa discriminación porque a veces nos podemos confundir y pensar que estos sistemas son totalmente objetivos y que por lo tanto no pueden discriminar, depende de la información con la que entrenes a los algoritmos y los resultados que te van a dar, entonces si tu tienes discriminación antes van a tener discriminación y peor aun, no te vas a dar cuenta que lo estás haciendo”, dice. Y es que según Oxford Insights, esto es de suma urgencia, ya que el uso de la Inteligencia Artificial está creciendo a pasos agigantados y se presenta como un diseño tecnológico óptimo para que gobiernos, países, sociedades y empresas en general puedan adoptar tarde o temprano. “El aumento de la inteligencia artificial plantea varias promesas y riesgos para los gobiernos y las sociedades de América Latina, como en otras regiones. Las tecnologías de inteligencia artificial podrían ayudar para mejorar la eficacia del gobierno, mejorar la transparencia y revolucionar la economía, sin embargo, esto podría tener el costo de consecuencias sociales significativas, considerando la desigualdad estructural y el déficit democrático en el país”, detalla la organización británica. Para el representante del IPADE Business School, la tarea debe ser de todas las partes, desde las empresas en temas de manejo de seguridad y privacidad; por la sociedad en la forma en la que ocupamos la tecnología y los gobiernos en la parte de regulación. “La herramientas y las facilidades que nos dan son impresionantes, es decir, nos hacen la vida más cómoda en muchos aspectos, entonces la adopción de la tecnología es rapidísima. El punto está en quienes la implementan y quienes dan estos servicios y estas soluciones al público, ahí es en donde tenemos que cuidar los aspectos éticos de una manera muy importante”, señala. Del lado sociedad, advierte que es necesario que las instituciones educativas, familia y sociedad en general hagan un pausa y generemos vínculos para capacitar a los nuevos usuarios y tener presente la ética para la toma de decisiones y el diseño de nuevos model0s tecnológicos. “Creo que la tecnología en general necesitamos capacitar a las nuevas generaciones en el uso responsable de estas nuevas tecnologías, y esto tiene que ver con educación que empieza desde la familia y que va más allá de temas técnicos”, detalla. Sin embargo ante los ojos internacionales como los de Oxford Insights, México va por buen camino, ya que lo resalta junto con Uruguay de las dos regiones que más están cuidando y poniendo su atención para la utilidad que se le dará a herramientas tecnológicas como la Inteligencia Artificial. “Hasta la fecha, solo dos países latinoamericanos (México y Uruguay) han desarrollado, o están desarrollando, políticas y estrategias de IA. Estos son hitos importantes para estructurar el uso de la IA en el sector público”, detalla. 

 

Siguientes artículos

Qué dejamos en Google, Tripadvisor y Facebook
Por

Si queremos vender, nuestros servicios y nuestros productos, a través de canales digitales, debemos de comprender que no...