Como era de esperarse, las aplicaciones de inteligencia artificial que hay disponibles en el mercado son bastantes y hacen prácticamente lo que sea: desde escribir un guión, hasta crear un jingle con letra de manera personalizada. Y aunque están en un camino de aprendizaje, es muy probable que dentro de poco podamos ver piezas de contenido con una calidad similar e incluso mayor a la de un humano.

Más allá de la impresión de primera instancia que se puede tener al interactuar con inteligencia artificial (que de hecho es bastante), aún quedan muchos huecos éticos y legales que deben discutirse con el fin último de beneficiar a las industrias creativas y no solo a los desarrolladores de aplicaciones.

Una inteligencia artificial generativa, en realidad no lo es tanto, ya que su funcionamiento no se basa en crear las piezas solicitadas basadas en su “creatividad”, sino en el análisis de las obras que son estadísticamente más significativas y de las cuáles retoma los elementos que le dan sustancia. Por ejemplo, si pedimos que escriba un ensayo o un guión sobre el calentamiento global, buscará cuáles son los resultados más importantes al respecto para analizarlas y después reescribir un ensayo que parece nuevo, pero que dista mucho de serlo.

Así, el primer problema a enfrentar es la correcta citación de las fuentes, ya que, en esencia, la inteligencia artificial no crea algo, lo imita y recompone de contenidos que fueron desarrollados previamente. Y si bien los robots no copian tal cual, sí se alimentan de lo que encuentran para reconstruir; y aunque se solicite que cite fuentes, en realidad cita la información que citan los contenidos, no a los autores o artículos retomados.

De ahí que muchos contenidos desarrollados por inteligencia artificial en realidad se estén copiando entre sí y la capacidad de producción novedosa sea cada vez menor (por ello, toma cierta relevancia la teoría del internet muerto). Así, indudablemente al leer o escuchar un contenido desarrollado por un robot, tendremos la sensación de haberlo visto en otra parte.

Otro punto importante, es que aún no queda claro a quién pertenecen las obras desarrolladas por robots. Al no tener intención o motivación (condición sine qua non una obra intelectual existe), las máquinas no pueden considerarse autores. Pero tampoco los desarrolladores, puesto que, si bien han creado una aplicación capaz de producción de contenidos, no son ellos quienes realizan las piezas. Y tampoco son los usuarios, pues técnicamente no escribieron la obra, sino la encargaron.

Por tanto, la situación se vuelve confusa pues no hay a quién atribuir la autoría de una pieza que, en esencia fue encargada y realizada a partir de múltiples fragmentos de autores no reconocidos por un robot que no tenía intención de hacerlo, ya que solo recibía órdenes.

La obra como pieza de creación intelectual podría perder ese sentido y convertirse en una especie de “manualidad” digital impulsada por una serie de creadores entre los que se contemplan a quien solicita la obra y a quien escribió el código para que el robot pudiera desarrollarla.

Entonces cabría hacer una reflexión sobre qué significa una obra en el contexto de la inteligencia artificial y quiénes son los autores, incluso que puede significar no solo en la industria del entretenimiento, sino en el mundo del arte y la creatividad, ya que tales conceptos empezarán a reescribirse en la medida en la que los robots nos ayuden a impulsar el desarrollo creativo.

Contacto:

Twitter: @sincreatividad

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

Sigue la información sobre los negocios y la actualidad en Forbes México

 

Siguientes artículos

Responsabilidad afectiva empresarial:  qué es y cómo cultivarla con cinco tácticas concretas
Por

De origen esencialmente humanista, la responsabilidad afectiva corporativa promueve un mayor entendimiento y manejo cons...