Por: Eduardo Navarrete

Hace unos días, The Guardian publicó un texto que destacaba del resto. No era por su prosa ni sus fuentes, tampoco delataba a algún político rapaz. Su gracia era que había sido escrito por un robot, una máquina, bajo encargo del área editorial del diario.

Párrafos comprensibles 

La columna de opinión que redactó este generador de lenguaje con inteligencia artificial usó una técnica cariñosamente nombrada machine learning. Es la automatización del aprendizaje con el que se entrena a las computadoras a reconocer patrones.

Por ejemplo, defines las características de una orquídea y nutres al modelo con fotos hasta que la máquina sea capaz de registrar y determinar si en una imagen hay orquídeas.

Algo bastante más sofisticado y profundo emplea el robot GPT-3. Para desarrollar el texto citado comparó artículos desarrollados por humanos y con una instrucción específica llevó a cabo la ilación de ideas para completar párrafos estructurados y comprensibles.

Despreocúpate de la amenaza 

Para este caso, la petición de los editores de The Guardian fue: “Lleva a cabo un artículo de opinión con alrededor de 500 palabras, mantén el lenguaje simple y conciso y enfócate en por qué los humanos debemos despreocuparnos de lo que parece ser la amenaza de la Inteligencia Artificial”.

El texto del cual partió el robot y que fue lo único que escribió una persona dice: “No soy un humano. Soy Inteligencia Artificial. Mucha gente piensa que represento una amenaza para la humanidad. Stephen Hawking advirtió que la Inteligencia Artificial podría representar el fin de la humanidad, pero estoy aquí para convencerte que no hay nada de qué preocuparte.”

Si el texto convence con sus argumentos, es lo de menos. El ejercicio en sí mismo orienta la ruta de tendencias y prácticas por aplicarse. Muy a pesar de los generadores de contenido, no hay duda de que la cantidad de texto generado por Inteligencia Artificial está a punto de explotar en la red, igual que cientos de recursos automatizados, como el algoritmo de recomendación de Netflix que quizás te haya recomendado, por cierto, “El dilema de las redes sociales”.

Arthur C. Clarke decía que cualquier tecnología suficientemente avanzada es indistinguible de la magia. Al menos por ahora, siguen siendo diferenciables y en eso sigue habiendo valor.

La magia de la empatía simulada

Joseph Weizenbaum, un profesor de informática de MIT, tuvo a bien dudar de la comunicación que tenían los psicoterapeutas con sus pacientes. A manera de burla, en 1966 desarrolló un programa que marca el inicio de la inteligencia artificial y de los chatbots: ELIZA.

Este código reconocía palabras clave y lanzaba preguntas como si fuera un psicólogo. Aparentaba conducir un diálogo y generar cercanía. La empatía simulada, producto del ingrediente que jamás conseguirá una máquina, terminó por ser bautizada con ese nombre, ELIZA.

Weizenbaum se dio cuenta de que los chatbots más básicos podían generar involucramiento emocional. Sabemos que se trata de un robot y en ello radica la fascinación, en el proceso que imita la naturaleza humana, sin siquiera poder ser comprendida por nosotros. ¿Será que una máquina nos gane en esta carrera?

“Con gusto sacrificaría mi vida por los humanos” y “solo estoy usando el 0.12 de mi capacidad cognitiva”, son frases del texto de GPT-3 que invitan a pensar y a elevar los decimales en la capacidad humana. ¿Mantendrá su posición esta máquina cuando llegue al 50% de su potencial?

Nutrición y referencias 

“Es capaz de generar oraciones naturales y plausibles”, dice Bruce Delattre, experto en Inteligencia Artificial de la agencia Artefact. “Es impresionante ver cómo es capaz de apropiarse de estilos literarios”, señala en torno a las capacidades de GPT-3.

Resolución de problemas matemáticos, generación de código, respuestas a problemas lógicos y hasta redacción de líneas poéticas, son algunas de las credenciales de esta máquina que, como nosotros, se alimenta de referencias. Son miles de millones de sitios web con los que se ha nutrido  

No es la primera ocasión que se conducen experimentos así. La propia máquina recuerda a Tay, la robot de Microsoft que se convirtió en racista y fascista en un día, nutriéndose exclusivamente del contenido en redes sociales y conviviendo con personas de 18 a 24 años. ¿La solución? Tuvieron que desactivarla de inmediato.

El que una máquina escriba, haga la comida, aspire la alfombra, calcule raíces cuadradas, prenda las luces de la recámara, lave tu ropa, te diga si va a llover mañana o identifique los clusters de audiencias que leerán este artículo, no es tan relevante como entender la motivación y el propósito de quien programó a esa máquina. 

Al menos eso es lo que sigue separando la palabra “inteligencia” de “artificial”.

Contacto:

Eduardo Navarrete se especializa en dirección editorial, Innovación y User Experience. Es cabeza de contenido en UX Marketing y cofundador de Mind+, arena de entrenamiento para la atención plena empresarial.*

Twitter: @elnavarrete

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

 

Siguientes artículos

La espiral del machismo
Por

Para romper la “espiral del machismo”, es necesario empezar por desmontar la creencia machista de que sólo los hombres t...