En el horizonte del 2024 la prevención de riesgos se posiciona como un tema central para el desarrollo corporativo y global. Si bien es cierto que el inicio del nuevo año se antoja complicado por los diferentes frentes de confrontación que existen en el mundo, la necesidad generar certidumbre y de reducir la especulación influye todos los ámbitos.

Una sólida gestión de riesgos representa la mejor forma de fomentar el cumplimiento normativo, especialmente en áreas sumamente sensibles para el desarrollo empresarial.

Aunque la inteligencia artificial no es un tema nuevo y sus aplicaciones tienen décadas en desarrollo, en los últimos años el vertiginoso trayecto hacia el uso masivo de las tecnologías digitales ha fomentado su uso masificado, que no necesariamente ha sido estratégico ni equitativo.

Quizá uno de los mayores retos se encuentra en el desarrollo de la regulación que pueda cubrir los vacíos que hoy por hoy generan incertidumbre y que llevan a una serie de limitantes tanto para el nivel de coordinación y cooperación como para la implementación de marcos normativos y éticos que cubran las bases del manejo de datos, los derechos humanos y el derecho del Estado a salvaguardar su propia seguridad.

La regulación europea sobre el uso de la inteligencia artificial, particularmente el Acta de Inteligencia Artificial de la Unión Europea, propuesta en abril de 2021, está configurada para ser el primer marco legal integral del mundo para la inteligencia artificial. 

Encuentra en la Red Forbes la opinión y análisis de personajes clave para el país

Entre las áreas de mayor controversia que habían dificultado la aprobación de la IA Act  se encuentran el uso de la IA para la vigilancia biométrica en espacios públicos, la definición de IA de alto riesgo y la gobernanza, incluyendo la implementación y el cumplimiento a nivel nacional y los niveles de coordinación. En esta primera legislación en la materia también se incluyeron temas como la regulación de la IA generativa y las evaluaciones para aplicaciones de alto riesgo después de su despliegue.

A más de dos años del inicio de este importante proceso legislativo, la Unión Europea vuelve a sentar precedente en materia regulatoria y aunque aún hay un camino importante por recorrer, hoy la Ley de Inteligencia Artificial es un hito en la historia de la tecnología, de la prevención de riesgos y del compliance. Es sumamente relevante el trabajo conjunto entre el Consejo y el Parlamento Europeo pues aunque la implementación de la Ley se prevé para el 2026, hoy el énfasis de la normativa se centra en el equilibrio entre seguridad y derechos humanos con un especial énfasis en la definición de los riesgos (de mínimos hasta inaceptables) que constituyen el primer parámetro para el desarrollo de estrategias de mitigación, identificación de infraestructuras críticas e imposición de obligaciones para el cumplimiento de criterios de ciberseguridad.

Para las empresas, esta primera versión de la Ley se centra en su capacidad para cumplir con las regulaciones propuestas, se identifican desafíos en áreas como la transparencia, el acceso a modelos y las evaluaciones de impacto. Como contexto previo a la definición de esta Ley, se habló mucho acerca de los lineamientos éticos para el desarrollo y uso de la IA. 

Aunque en Estados Unidos se han emprendido esfuerzos interesantes para contribuir con una regulación en la materia, la propuesta europea sobresale por su enfoque en la seguridad, la ética y los derechos humanos. Dentro de las fortalezas de la Ley sobre Inteligencia Artificial está el establecimiento de un marco legal claro y comprensivo para la IA, lo que podría promover la confianza y la seguridad en su uso. En su forma evolucionada y ya con las primeras fases de implementación en marcha, esta Ley podrá incluir el impulso a la innovación y la adaptación de la IA a estándares éticos y de seguridad globales que permitan a todos los países del mundo la adopción de criterios normativos en las legislaciones nacionales e incluso regionales para lo cual será necesario asegurar una constante innovación y adaptabilidad para evitar la falta de armonización entre regiones y la posibilidad de que la regulación sea vista como un obstáculo para el desarrollo tecnológico.

En cuanto a los escenarios para las regiones sin regulación, se podría esperar una mayor incertidumbre y posiblemente un desarrollo más rápido pero potencialmente menos ético y seguro de la IA. La forma en la que la regulación sobre el uso de la inteligencia artificial puede ayudar al cumplimiento normativo debe proporcionar un marco normativo claro para el desarrollo y la implementación de la IA, promoviendo así prácticas éticas y seguras.

Contacto:
Correo: [email protected]
Twitter: @ArleneRU
LinkedIn: Arlene Ramírez-Uresti

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

Suscríbete a Forbes México

 

Siguientes artículos

De la emoción a la razón dentro de una empresa familiar
Por

“El diálogo es la mejor prevención de los conflictos en las empresas familiares”