La inteligencia artificial (IA) avanza, pero también lo hacen las deepfakes. Las supuestas fotos del expresidente Donald Trump siendo detenido por el FBI; las fotos falsas del papa Francisco vistiendo una gran chamarra blanca; las representaciones pornográficas de cantantes y actrices de Hollywood; la imagen del presidente francés Emmanuel Macron corriendo entre la policía antimotines y los manifestantes; o la foto de una explosión en el Pentágono son ejemplos de las llamadas “falsedades profundas”. 

En el panorama de la IA generativa, las deepfakes, esas sofisticadas falsificaciones que superponen la imagen de alguien en el cuerpo de otra persona creando contenidos audiovisuales muy convincentes y engañosos, tienen el potencial de causar estragos a gran escala. Desde la desinformación, engaño y fraude financiero y la distorsión de las narrativas políticas, hasta la explotación del entretenimiento para adultos, estas creaciones suponen una amenaza por el alcance que pueden tener. 

Síguenos en Google Noticias para mantenerte siempre informado

“A la IA Generativa le puedes dar instrucciones y te contesta con texto imagen o un video. Como estas funcionalidades están, además, al alcance de cualquier persona, [la herramienta] puede ser peligrosa”, dice Claudia Del Pozo, directora y fundadora de Eon Institute, en entrevista con Forbes México. 

Las deepfakes, de acuerdo con la experta, hoy se están utilizando para cuatro actividades principales: pornografía, robo o fraude, extorsión y desinformación. “Hay algunas plataformas, como Dall-e de OpenAI, financiada por Microsoft, que tienen ciertos límites; por ejemplo, si les pides que te pongan a Pedro Pascal en cierto tipo de imagen, como tienen una restricción para no usar caras de personas reales, no te lo hacen. O si quieres que te ilustren algo violento, tampoco lo permiten. Y está bien que OpenAI lo haga, pero eso no significa que todas las plataformas respeten esos lineamientos éticos”, dice Del Pozo. 

manipulaciones de IA
Foto: Pexels.

PORNOGRAFÍA DEEPFAKE 

A principios de este año, una youtuber y streamer de Twitch llamada QTCinderella descubrió que su rostro se estaba propagando por sitios web de pornografía ilegal. Meses más tarde, la cantante Rosalía también fue víctima de este acto, cuando se comenzaron a difundir fotos sexualizadas de ella creadas con esta tecnología. 

Esto sólo muestra una pequeña imagen de lo que está ocurriendo con la facilidad de acceso a la creación de deepfakes. De acuerdo con un estudio realizado en 2019 por Deeptrace Labs, el 6% de los videos deepfake en línea son pornográficos y consisten principalmente en imágenes de rostros de famosas unidos a cuerpos de estrellas del entretenimiento para adultos. 

De acuerdo con Del Pozo, para dimensionar el riesgo, primero hay que entender cómo funciona la creación de una deepfake. 

¡Ya estamos en Threads!; síguenos para recibir la mejor información

“Estas herramientas buscan en la red pedazos de diferentes fotos para crear la imagen que el usuario pide. Esto quiere decir que cualquier imagen de nosotros que esté en línea es un insumo potencial para la creación de una deepfake”, explica la experta. “Va a haber un impacto desproporcionado en las mujeres. En el mundo entero, las deepfake pornográficas están afectando a celebridades, pero, por su fama, ellas tienen plataformas y una voz para desmentir. Lo preocupante es cuando esto recae en personas que no tienen ese estatus de celebridad. No lo puedes borrar y tienes que lidiar con que tus amigos, familia y comunidad se entere, sin muchos recursos a los que puedas acudir”, dice Del Pozo. 

Un ejemplo claro y reciente es el de la streamer ya mencionada, QTCinderella, quien hasta ahora no ha podido interponer una demanda contra el propietario de la página que publicó los videos porno deepfake en los que aparece ella, pues las áreas grises en estos asuntos legales aún son muchas. 

“Todos los abogados con los que he hablado han llegado esencialmente a la conclusión de que ‘no tenemos caso’ [imposibilidad de sustentar una demanda]. No hay forma de demandar al tipo”, dijo ella a NBC. 

IA noticias
Imagen creada con Bing Image Creator.

REGULACIÓN 

Para Del Pozo, antes de hablar de regulación, es importante informar a las personas (desde las escuelas y empresas) sobre la existencia de las deepfakes, pues actualmente 70% de las personas en México no saben qué es una de esas falsedades profundas. Pero, añade, no todo puede dejarse en manos de los individuos, porque, aunque la gente aprenda a reconocer las deepfakes, los sistemas de IA van a ser cada vez mejores, y diferenciar lo real de lo falso se volverá cada vez más complicado. 

Es ahí, entonces, donde las plataformas tendrían que asumir su responsabilidad en este asunto, dice Del Pozo. Pero, ¿una plataforma puede ser responsable por el contenido que se comparte en ella? Ésta es una pregunta que ha rondado a las grandes empresas tecnológicas desde hace años. El artículo 230 de la Ley de Decencia en las Comunicaciones (Communications Decency Act), aprobada en 1996, establece que ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o altavoz de la información facilitada por otro proveedor de contenidos informativos. Es decir, hasta ahora no hay ninguna responsabilidad que recaiga sobre ellas. 

Sigue la información sobre los negocios y la actualidad en Forbes México

Un reciente reflejo de esto son los cambios en el sistema de verificación en Twitter, que ahora permite que cualquier persona u organización pague para obtenerla. Apenas en mayo de este año, una foto falsa de la explosión del Pentágono, compartida desde una cuenta verificada en Twitter, provocó una breve caída de la bolsa de valores en Estados Unidos. 

“Yo creo que esto [el artículo 230]lo decidieron porque iba a ser imposible para las plataformas hacerlo. Cambiaría internet como lo conocemos; todo tendría que ser diferente. Imagínate que hoy escribes algo en Twitter, pero se publica en dos días porque se tiene que revisar. Evidentemente, las plataformas no pueden ser responsables de todo, pero sí tienen que tomar algunos pasos voluntarios”, dice Del Pozo. 

Con elecciones cruciales en el horizonte, como las de México y Estados Unidos, el impacto de las deepfakes en el proceso democrático y el potencial de manipulación y desinformación son también alarmantes. 

Inteligencia Artificial
Foto: Pexels.

“Esta vez, se junta la posibilidad de generar desinformación y fake news, con la posibilidad de crear imágenes y videos falsos que se ven reales y convincentes. Si algo así pasó en las elecciones anteriores, con toda la manipulación que hubo en redes sociales, podemos prever que ahora será aun peor. Puedes ver una imagen que te haga cambiar de opinión política y un día después de las elecciones enterarte de que era falsa”, dice la directiva. 

Por ahora, la capacidad de detectar de manera rápida las noticias falsas y las deepfakes será crucial. “Poco a poco estamos avanzando en la regulación de este tipo de contenido y de la Inteligencia Artificial, pero ‘poco a poco’ no es suficiente”, opina Del Pozo.

 

Siguientes artículos

100 Startups: las reglas del juego han cambiado
Por

Este listado pretende enaltecer a los mejores emprendimientos mexicanos y al continuo crecimiento que ha tenido la indus...