Noticia internacional, y que ha corrido literalmente como bola de nieve, es la divulgación de todo un entramado de espionaje, con base en el software Pegasus, de la empresa israelí NSO Group, con el cual se espió a alrededor de 50 mil teléfonos de distintos personajes en naciones varias, desde 2016.

La investigación la realizó un conglomerado de medios de élite mundial, entre los que se encuentra The Washington Post.

Ya se ha escrito mucho al respecto a nivel global y en México, donde decenas de víctimas estuvieron involucradas y resultaron afectadas de distintas formas. En nuestro país, de hecho, el asunto ya se inscribió en la agenda político-judicial del actual gobierno.

Lo destacable es que, desde hace ya casi un lustro, se había comentado sobre estas sospechas, hoy confirmadas, sobre un sofisticado programa que sólo se vendió a gobiernos formalmente establecidos. Ello implica que, en el seno de éstos, inevitablemente, se incurrió en el uso ilegal de tal tecnología para espiar a opositores políticos, periodistas y líderes sociales, algunos perseguidos y hasta asesinados después del inicio formal en el uso de dicho software.

Síguenos en Google Noticias para mantenerte siempre informado

Sobre este tipo de abusos en los que puede incurrirse, con el uso de la más sofisticada tecnología, llama la atención en el estudio “La Comprensión de la Toma de Decisiones Algorítmicas: Oportunidades y Riesgos”.

Es un trabajo sobresaliente del Instituto Nacional de Investigación en Informática y Automatización (Inria, por sus siglas en francés), presentado en 2019, por encargo del Panel para el Futuro de la Ciencia y la Tecnología, del Parlamento Europeo.

De entre los destacables tópicos que los autores de dicho trabajo abordan, justamente en materia de los peligros y riesgos con los llamados Sistemas de Desarrollo Algorítmico (SDA), se subraya el manejo ilegal y persecutorio por parte de gobiernos corruptos:

“Los Estados pueden mal utilizar los SDA para controlar a personas, por ejemplo, identificación de opositores políticos. De manera más general, los grupos de interés o los Estados pueden verse tentados a utilizar estas tecnologías para controlar e influir en el comportamiento de los ciudadanos. Estas tecnologías también se pueden utilizar para distorsionar la información, para dañar la integridad del discurso democrático y la reputación de los líderes gubernamentales o políticos”, se lee en el texto, perfectamente aplicable al caso Pegasus.

Sigue la información sobre los negocios y la actualidad en Forbes México

Las bonanzas en el uso de los sistemas automatizados, generados gracias a los SDA, para planear el funcionamiento y crecimiento de empresas o la aplicación de políticas públicas, con la fundamental toma de decisiones basada en lo que esos datos ofrecen, es apreciado por todos aquéllos que son ya conscientes del potencial de esas herramientas y ya las utilizan.

Sin embargo, no siempre se toman en cuenta los riesgos, errores y consecuencias negativas que han de padecer, tanto quienes emplean esas bases algorítmicas, como los destinatarios de programas empresariales o políticas públicas, cuando se ha usado mal la tecnología.

Los autores del estudio que comento llaman la atención sobre la naturaleza de esos fallos, que comúnmente pueden tener un origen involuntario, ante descuidos en cuestiones técnicas, legales o éticas, sin dejar de llamar la atención cuando estamos frente a distorsiones engendradas voluntariamente, con el objetivo de lograr intereses mezquinos, como parte de competencia desleal o para obtener ganancias (económicas, políticas, gubernamentales), fuera del marco normativo aplicable.

Además de dedicar una gran importancia a las cuestiones técnicas relacionadas con la labor de los desarrolladores de los SDA, los investigadores del Inria abordan las cuestiones éticas, políticas, legales a las que se debe prestar atención de forma permanente, en el desarrollo de algoritmos en los que se basarán decisiones individuales, empresariales o de políticas públicas.

Sigue la información de los negocios en nuestra sección especializada

Áreas como las de justicia, educación, salud, laboral, seguridad y muchas más, a nivel privado y público, recurren ya desde hace años a esos sistemas con algoritmos que ayudan a automatizar el trabajo y asumir determinaciones antes sólo realizadas por humanos.

Las ventajas de rapidez, precisión y eliminación de vicios (como prejuicios tan característicos de las personas) son algunos de los mayores beneficios que, no obstante, tampoco han podido ser eliminados por los programas y máquinas que ahora realizan tales labores, simplemente porque, por errores humanos en la alimentación de datos, se sigue incurriendo en sesgos e injusticias.

Algoritmos construidos con criterios discriminatorios, como eliminación de universidades públicas para elegir a futuros empleados, el origen étnico o geográfico, que privilegia a algunos y descarta a otros, no pocas veces han sido incluidos en los datos que inevitablemente caerán en la toma de decisiones parciales e injustas.

La selección de nuevos estudiantes, trabajadores, sujetos de crédito, beneficiarios para ser considerados en un programa social, cuando ello depende de la labor de los SDA, debería garantizar siempre los criterios de democracia, y oportunidades igualitarias, si quien desarrolló y quien aplica estos sistemas pretende garantizar un comportamiento ético, legal y socialmente responsable.

Sigue la información sobre el mundo en nuestra sección internacional

“La Comprensión de la Toma de Decisiones Algorítmicas: Oportunidades y Riesgos”  también brinda recomendaciones y criterios a tomar en cuenta cuando se pretende usar correctamente los SDA:

1. Es importante desarrollar investigación interdisciplinar, ante lo complejo del tema y el enriquecimiento de distintas disciplinas (filósofos, expertos en ética, científicos sociales, abogados, informáticos y expertos en inteligencia artificial deben trabajar juntos).

2. Debate público sobre beneficios y riesgos. Deben cumplirse varias condiciones para garantizar la calidad del debate e involucrar a todas las partes interesadas.

3. Adaptar la legislación para mejorar la rendición de cuentas. Es aconsejable evitar legislación apresurada que podría crear más problemas de lo que resuelve. La nueva reglamentación debe promulgarse sólo cuando el asunto haya sido debidamente entendido, se ha realizado debate público y establecido que las leyes existentes son insuficientes.

Encuentra aquí las noticias más destacadas de la política mexicana

4. Lograr herramientas para mejorar la responsabilidad de los diseñadores y desarrolladores de ADS. Para los usuarios preocupados, se requiere mejor explicación.

5. Medidas efectivas de validación y seguimiento, con evaluaciones de impacto de protección de datos y mecanismos de certificación.

Como cualquier herramienta desarrollada por el ser humano, los algoritmos han de definir su utilidad dependiendo del uso correcto e inteligente que les otorguemos.

Suscríbete a Forbes México 

*Javier Murillo es Ingeniero electrónico e informático mexicano, especialista en analítica de datos y maestro en ciberseguridad.

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

 

Siguientes artículos

Equilibrio y seguridad en el mercado de gas
Por

Las estrategias de control de precios invariablemente encuentran oposición de grupos que ven afectados sus intereses.