Una tecnología de inteligencia artificial (IA) creada por una empresa cofundada por el multimillonario Elon Musk ha ganado elogios por su capacidad para generar y escribir historias coherentes, novelas e incluso códigos de computadora. No obstante, permanece ciega a conceptos más complejos como el racismo o el sexismo.

GPT-3, como se conoce al último modelo de lenguaje de IA de la empresa californiana OpenAI, es capaz de completar un diálogo entre dos personas, continuar una serie de preguntas y respuestas o terminar un poema al estilo de Shakespeare.

Quien lo use puede empezar una frase o un texto y GPT-3 lo completará, basando su respuesta en la gigantesca cantidad de información que ha recibido. Esto podría resultar útil para el servicio al cliente, los abogados que necesitan resumir un precedente legal o para los autores que necesitan inspiración.

Textos que se asemejan a la escritura humana

Si bien la tecnología no es nueva y aún no ha aprendido a razonar como una mente humana, la última oferta de OpenAI ha ganado elogios por la forma en que su texto se asemeja a la escritura humana.

“Es capaz de generar oraciones muy naturales y plausibles”, dice Bruce Delattre, especialista en inteligencia artificial de la agencia de consultoría de datos Artefact. “Es impresionante ver cuánto es capaz el modelo de apropiarse de estilos literarios, incluso si hay repeticiones”.

Recientemente, el diario británico The Guardian le pidió a OpenAI que GPT-3 escribiese un artículo para su portal, el cual fue publicado este martes.

“Regularidades estadísticas”

GPT-3 también es capaz de encontrar respuestas precisas a problemas, como el nombre de una enfermedad a partir de una descripción de síntomas. Puede resolver algunos problemas matemáticos, expresarse en varios idiomas o generar código de computadora para tareas simples que los desarrolladores tienen que hacer pero que felizmente evitarían. 

Wikipedia representa 3% de toda la información

GPT-3 ha sido alimentado con el contenido de miles de millones de páginas web que están disponibles gratuitamente en línea y todo tipo de trabajos escritos.

Para dar una idea de la magnitud del proyecto, todo el contenido de la enciclopedia en línea Wikipedia representa solo el tres por ciento de toda la información que se le ha dado.

Potencialmente racista, antisemita o sexista

Por otra parte, Claude de Loupy, cofundador de la empresa francesa Syllabs que se especializa en la creación automatizada de textos, dice que el sistema carece de “pragmatismo”.

Otro gran problema es que replica sin pensarlo dos veces cualquier estereotipo o discurso de odio alimentado durante su período de formación, y puede convertirse rápidamente en racista, antisemita o sexista.

Delattre dijo a la agencia AFP que todo funciona gracias a “regularidades estadísticas”. “El modelo sabe que una palabra (o expresión) en particular es más o menos probable que siga a otra”.

No sería útil para la existencia de un roboperiodismo

Como tal, los expertos entrevistados por la agencia francesa sintieron que GPT-3 no era lo suficientemente confiable para ningún sector que necesitara depender de máquinas, como el roboperiodismo o los servicios al cliente. Sin embargo, puede ser útil, al igual que otros modelos similares, para escribir reseñas falsas o incluso producir noticias en masa para una campaña de desinformación.

Preocupado por las “aplicaciones maliciosas de la tecnología”, OpenAI, que fue cofundada en 2015 por Musk y está financiada por Microsoft, entre otros, optó por no lanzar la versión anterior del modelo, GPT-2, en febrero de 2019.

Originalmente una organización sin fines de lucro, OpenAI luego se convirtió en una empresa de “ganancias limitadas”, lo que significa que los inversores obtienen un rendimiento limitado. Y en junio, la empresa cambió de táctica y abrió su modelo GPT-3 al uso comercial, lo que permitió la retroalimentación de los usuarios. Un paso que, según Claude de Loupy, podría generar grandes beneficios.

No hay “duda de que la cantidad de texto generado por la IA está a punto de explotar en la web”, aseguró.

Este contenido se publicó originalmente en DW.COM y puedes ver esa nota haciendo click en el logo:

DW banner

 

Siguientes artículos

WhatsApp_cadena_información_covid-19_coronavirus_pandemia
Covid-19 es una bacteria con radiación 5G y las otras mentiras en las cadenas de WhatsApp
Por

Se han reportado varios mensajes en cadenas de WhatsApp con información falsa que circulan en varios puntos de latinoamé...