“Estamos entrevistando al único superviviente del reciente tiroteo en una escuela: el TikToker Krishna Sahay”, parece decir la presentadora de CBS News, Anne-Marie Green, al principio del segmento informativo.

” Eso debió de ser absolutamente traumático”, le dice a Sahay un entrevistador en otro vídeo. “¿Qué pasaba por la cabeza de todos?”.

Sahay hace una pausa, antes de responder: “¡Balas, duh!”

En otro aparente segmento informativo sobre el tiroteo en la escuela, esta vez de la CNN, un entrevistador pregunta a Sahay: “¿Cómo lo viviste? ¿Estabas leyendo una revista o algo durante el tiroteo?”.

“¿Leyendo?” Sahay responde sobre la revista. “¡Estaba desocupando una!”

La estrella de TikTok y YouTube forma parte de un creciente grupo de usuarios de redes sociales que han recurrido a la IA generativa y a otros tipos de software para producir segmentos de noticias aparentemente reales emitidos por los presentadores más conocidos de los principales medios de comunicación, desde Norah O’Donnell, de CBS Evening News, hasta periodistas de la CNN, la BBC, etc.

Gracias a esta tecnología, los presentadores parecen y suenan como ellos mismos. Y gracias a los potentes algoritmos de las plataformas, las historias sensacionalistas y los titulares falsos con sus nombres y parecidos (o el logotipo de un medio de comunicación) se hacen virales bajo la apariencia de ser noticias fiables.

Esta semana, un vídeo real de la corresponsal de la CNN Clarissa Ward poniéndose a cubierto de los cohetes cerca de la frontera entre Israel y Gaza se hizo viral con un audio falso que desvirtuaba su reportaje. A principios de este mes, circuló por Internet un clip generado por IA de la copresentadora de CBS This Morning, Gayle King, promocionando un producto que nunca había usado o del que ni siquiera había oído hablar. Un deepfake del presentador de la CNN Anderson Cooper, en el que afirmaba que el ex presidente Donald Trump estaba “rompiéndoles el culo”, también se hizo viral recientemente después de que Trump y su hijo lo compartieran en Truth Social y Twitter.

Y los supuestos noticiarios de Sahay —que le ayudaron a acumular una audiencia de millones— han incluido a más de una docena de destacados presentadores de diversas cadenas de televisión que hacen comentarios problemáticos y entrevistan al creador mientras se burla de los tiroteos en las escuelas, los atentados terroristas del 11 de septiembre, las víctimas de violaciones y otras personas perjudicadas por criminales.

En muchos casos, estos segmentos inventados protagonizados por locutores reales están atrayendo más miradas que los clips legítimos publicados en las cuentas de redes sociales de las organizaciones de noticias. Uno de los últimos deepfakes de Sahay sobre Margaret Brennan, de Face The Nation, por ejemplo, recibió más de 300.000 me gusta en TikTok, mientras que el vídeo más popular publicado el mismo día en la cuenta oficial de TikTok de Face The Nation solo obtuvo 7.000 me gusta.

Sahay fue expulsado de TikTok mientras Forbes informaba de esta historia y no respondió a las múltiples peticiones de comentarios y a una detallada lista de preguntas. Aunque su cuenta de TikTok está ahora inactiva, los vídeos de gran alcance de Sahay siguen siendo fáciles de encontrar en la plataforma, reenviados por otros usuarios, y varios de ellos siguen en directo en YouTube.

La mayoría de las grandes plataformas de redes sociales tienen políticas contra los deepfakes. Ariane Selliers, portavoz de TikTok, ha declarado que “TikTok exige a los creadores que etiqueten los contenidos realistas generados por IA”, ya sea con una pegatina o en un pie de foto, y que TikTok “sigue eliminando contenidos que puedan inducir a error o suplantar la identidad de las personas”. (La mayoría de los vídeos de Sahay no incluían ningún disclaimer de este tipo).

TikTok prohíbe los deepfakes que contengan el parecido de personas privadas y “aunque se da más latitud a las figuras públicas, no por ello se quiere que sean objeto de abusos, ni que se engañe a la gente sobre cuestiones políticas o financieras”, afirma la compañía en su reglamento. La portavoz de YouTube, Elena Hernández, dijo que “desde hace tiempo existen políticas de desinformación para prohibir contenidos que hayan sido técnicamente manipulados o trucados de forma que supongan un grave riesgo de daño atroz”.

La portavoz de la CNN, Emily Kuhn, declinó hacer comentarios sobre los segmentos de noticias deepfake, pero dijo que el audio manipulado en el clip del corresponsal de la CNN cerca de la frontera entre Israel y Gaza “es fabricado, inexacto y distorsiona irresponsablemente la realidad del momento que fue cubierto en directo por la CNN, que la gente debería ver en su totalidad por sí misma en una plataforma de confianza.” O’Donnell, la presentadora de la CBS, no respondió inmediatamente a una petición de comentarios, pero la portavoz de CBS News April Andrews dijo que “la CBS se toma muy en serio sus derechos de propiedad intelectual”. La portavoz de la BBC Robin Miller dijo que “cada vez que tenemos conocimiento de un vídeo deepfake, nuestros abogados toman medidas” y que “en un mundo de creciente desinformación, instamos a todos a comprobar los enlaces y URL para asegurarse de que están recibiendo noticias de una fuente de confianza.”

UNA NUEVA ERA PARA LAS ‘DEEPFAKES’

Los deepfakes, y los “cheapfakes” de bajo presupuesto, no son nuevos, y sólo este mes se han utilizado para atacar a todo el mundo, desde Tom Hanks (cuyo doble de IA promocionaba un plan dental) hasta el principal creador de YouTube, MrBeast (que parecía estar organizando “el mayor sorteo de iPhone 15 del mundo”). “¿Están preparadas las plataformas de redes sociales para hacer frente al auge de los deepfakes de IA?”.

MrBeast, cuyo nombre real es Jimmy Donaldson, advirtió la semana pasada en Twitter. “Esto es un problema serio”. (Aclaración: Donaldson está programado para convertirse en miembro de la junta de Forbes cuando se complete una venta planificada de la compañía). La Junta de Supervisión de Facebook también anunció esta semana un caso relacionado con un vídeo manipulado del presidente Joe Biden.

Pero los noticiarios trucados que utilizan las voces y los rostros de periodistas de alto nivel parecen ser una táctica más reciente y potencialmente más peligrosa. A principios de este año, la empresa de análisis de redes sociales Graphika publicó un estudio sobre “una forma nueva y distintiva de contenido de vídeo” que había encontrado en Facebook, Twitter y YouTube: presentadores de noticias generados por IA que formaban parte de “una operación de spam político prochino”. (Los medios estatales chinos también han experimentado con presentadores de noticias generados por IA). Y los vídeos deepfake más largos y de mayor producción, como algunos de los segmentos de noticias de Sahay, siguen ganando tracción en todas las plataformas.

“Vamos a tener que tomarnos más en serio la protección de los derechos de las personas cuya imagen y voz están siendo cooptadas”.

Hany Farid, profesor de la UC Berkeley y experto en deepfake

“Los vídeos de presentadores de telediarios son un vehículo convincente para difundir desinformación”, afirma Hany Farid, profesor de la Escuela de Información de la Universidad de Berkeley que ha testificado ante el Congreso sobre deepfakes. “En muchos casos, los telespectadores conocen a los presentadores y confían en ellos, e incluso si no es así, el formato general de las noticias les resulta familiar y, por tanto, más fiable”.

“Los resultados, aunque siguen sin ser perfectos, son muy buenos, sobre todo cuando se ven en un dispositivo móvil y cuando los espectadores se mueven rápidamente por las redes sociales”, añadió Farid, cuyas investigaciones se han centrado en la percepción humana y el análisis de imágenes. “Vamos a tener que tomarnos más en serio la protección de los derechos de las personas cuya imagen y voz se están cooptando”.

Los deepfakes se utilizan a menudo en memes para hacer reír a la gente, y el escenario más extremo no ha llegado a producirse —que este contenido manipulado pudiera utilizarse para difundir información errónea o desinformación con el objetivo de cambiar el curso de las elecciones, las OPV de las empresas y otros acontecimientos de alto riesgo—.

Sin embargo, las elecciones de 2020 se adelantaron notablemente a la explosión de IA que supuso ChatGPT, que a principios de este año se convirtió en una de las aplicaciones de consumo de más rápido crecimiento de la historia y ha contribuido a la adopción generalizada de la tecnología y a la financiación multimillonaria de nuevas empresas de IA.

Ahora, casi cualquiera puede emplear un software de IA fácil de usar y de fácil acceso para crear vídeos o audios de personajes públicos (o personas normales) haciendo y diciendo cosas que en realidad nunca hicieron. Esto ha aumentado los temores de que la IA transforme las inminentes elecciones de 2024 en un caótico Salvaje Oeste, una preocupación que solo se intensifica por el aumento de deepfakes que se convierten en armas como noticias aparentemente auténticas.

La mayor preocupación, según el abogado Kevin Goldberg, especialista en la Primera Enmienda de la organización sin ánimo de lucro Freedom Forum, con sede en Washington DC, es que los vídeos que utilizan presentadores de noticias reales en situaciones de apariencia realista puedan utilizarse como una “forma agresiva de desinformación… una preocupación real con la que vamos a tener que lidiar de cara a las elecciones de 2024”.

Pero advirtió que “tampoco queremos exagerar”.

“Sí, hay potencial para el mal aquí”, dijo a Forbes. “Pero nuestro sistema jurídico y nuestra sociedad están más que preparados para manejar este nuevo medio”.

Este artículo fue publicado originalmente en Forbes US

Te puede interesar: Europa también da 24 horas a TikTok para detallar cómo ataca la desinformación en su red

 

Siguientes artículos

‘La IA está cambiando el juego’, así es el enfoque de Globant para el futuro de la industria deportiva
Por

El texto, "La IA está cambiando el juego" de Globant revela que la IA está optimizando las operaciones e involucrando a...