Estados Unidos elegirá al próximo presidente en noviembre de 2024. Para entonces, si las cosas siguen como hasta ahora, el uso de la inteligencia artificial tendrá mayor adopción y sus efectos tanto positivos como negativos serán más evidentes. Serán, de hecho, las primeras elecciones presidenciales con mayor presencia de inteligencia artificial y el Congreso lo sabe, tanto que ya ha empezado a mostrar cierta preocupación sobre el tema.

Además, esto no es privativo para la nación estadounidense, México también vivirá un proceso electoral presidencial para el próximo año que podría estar fuertemente marcado por el uso de inteligencia artificial para, por ejemplo, la creación y difusión de propaganda electoral, algo que supondría desafíos de regulación electoral en materia de financiamiento de campañas.

De hecho, cada vez es más común ver a políticos mexicanos con aspiraciones electorales hacer uso de inteligencia artificial para generar mensajes para sus seguidores.

Lee también: Inteligencia Artificial: la ONU busca a expertos en esta tecnología

Forbes México revisó un informe del Servicio de Investigación del Congreso de Estados Unidos, fechado el 4 de agosto de este año, en el que se advierte que “a medida que la tecnología continúa evolucionando, han surgido preocupaciones sobre el uso de anuncios de campaña (electoral) generados por inteligencia artificial y su potencial para difundir desinformación”, lo que en el argot político mexicano llaman “guerra sucia”.

Este medio publicó hace unos días que la inteligencia artificial es la tecnología que habilita los deepfakes o falsificaciones ultra realistas de fotos o videos en las que, por ejemplo, la imagen de un político o un aspirante presidencial, puede ser falsificada por sus opositores para hacer parecer que hace o dice cosas que le pueden perjudicar ante la opinión pública y confundir al electorado.

De hecho, estas falsificaciones profundas son un caldo de cultivo para la desinformación, manipulación de elecciones y de la opinión pública, difusión de teorías de la conspiración y noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública; y su creación ya no es exclusiva de personas con conocimiento técnico para ello, ya que hoy existe software disponible de forma gratuita que crea estas falsificaciones rápidamente.

Te puede interesar:
Zoom, envuelta en polémica por el uso de datos para entrenar su inteligencia artificial

“El uso de la IA para generar deepfakes está causando preocupación porque los resultados son cada vez más realistas, se crean rápidamente y se hacen a bajo costo con software disponible gratuitamente y la capacidad de alquilar potencia de procesamiento a través del cómputo en la nube. De este modo, incluso los operadores no cualificados podrían descargar las herramientas informáticas necesarias y, utilizando datos públicos, crear contenidos falsificados cada vez más convincentes”, alerta un documento del Congreso de EU, fechado el 17 de abril de este año, consultado por Forbes México.

Y este es un tema que ha llamado la atención del Congreso estadounidense. La Ley Federal de Campañas Electorales de Estados Unidos (FECA, por sus siglas en inglés) no regula específicamente el uso de la inteligencia artificial en anuncios de campaña política.

Por esta razón, el 22 de junio pasado la Comisión Federal de Elecciones de Estados Unidos (FEC) discutió, pero no aprobó, una petición de Public Citizen que le solicitaba analizar si deberían dictaminar si se aplica la legislación electoral a los “anuncios de campaña de inteligencia artificial deliberadamente engañosos”.

No te pierdas: Entrevista | Es importante regular la inteligencia artificial para mitigar riesgos: AWS

Public Citizen es una organización civil fundada en 1971 en Estados Unidos dedicada a la promoción de la transparencia y la participación ciudadana en los asuntos públicos de ese país. Su petición sostenía que “un clip de audio o video deep fake hecho por un candidato que representa a un candidato opositor diciendo o haciendo algo que no ocurrió, como hacer un comentario ofensivo o aceptar un soborno, violaría” la legislación electoral de ese país.

Y es que, por ejemplo, según la norma electoral de Estados Unidos, “para anuncios de radio y televisión de comités de candidatos, la FECA generalmente requiere que la comunicación indique quién financió el anuncio, junto con una declaración de audio del candidato identificando al candidato y declarando que el candidato ha aprobado” el mensaje’”.

“En el caso de los anuncios de televisión, también se requiere que la declaración del candidato se transmita mediante una vista sin obstrucciones de pantalla completa del candidato haciendo la declaración o, si el mensaje del candidato se transmite por voz en off, acompañado de una imagen claramente identificable del candidato, junto con un mensaje de atribución al final de la comunicación”.

Para entender mejor: Deepfakes: un peligroso caldo de cultivo para la desinformación, teorías de la conspiración y más

Desde el 1 de marzo pasado, la FEC promulgó nuevas regulaciones que amplían los requisitos de aviso legal para las comunicaciones públicas en internet. Antes, las regulaciones generalmente requerían avisos legales en comunicaciones públicas, definidas para incluir anuncios que se “colocan a cambio de una tarifa en el sitio web de otra persona”, que fueran realizados por comités políticos, contenían promoción expresa o solicitaban contribuciones de campaña.

Las nuevas regulaciones especifican que este requisito también se aplica a “comunicaciones colocadas a cambio de una tarifa en el dispositivo digital, la aplicación o la plataforma publicitaria de otra persona”. Pero, independientemente de si el spot de campaña fue creado con inteligencia artificial, la ley no requiere que los avisos legales indiquen que el anuncio fue creado con IA.

Ya que el uso de inteligencia artificial en campañas electorales es un área gris, se han presentado en el Congreso de Estados Unidos algunas iniciativas que buscan regular el uso de inteligencia artificial en campañas electorales federales.

“Específicamente, para un anuncio que contenga una imagen o video generado, en su totalidad o en parte, por la IA, la legislación requeriría que el anuncio incluya una declaración que indique dicho hecho”, describe el informe consultado por Forbes México.

¿Ya nos tienes en Facebook? Danos like y recibe la mejor información

 

Siguientes artículos

Disney-series-Marvel
Disney crea un grupo de trabajo para explorar la IA y reducir costos
Por

Creado a principios de este año, antes de la huelga de guionistas de Hollywood, el grupo pretende desarrollar aplicacion...