Hace un año, la Humanidad brincó desde lo más profundo de su entender. La inteligencia artificial alcanzó un nivel que ha hecho temblar al ser humano. Muchos han sentido miedo frente a las calamidades que parecen venir cuando una máquina es capaz de hacer lo que este procesador lingüístico puede, la mayoría lo hemos usado y probado sus ventajas, poco se ha reflexionado en torno a los cambios que ChatGPT ha transformado nuestras vidas en poquísimo tiempo.

En cuestión de semanas, estudiantes, empresarios, emprendedores, profesores, y personas de todo nivel han hecho uso de la aplicación que la empresa OpenAI, una institución que aparentemente no tiene fines de lucro. El progreso entró sin pedir permiso a nuestras empresas, casas y centros educativos. Muchos vieron y han saboreado las posibilidades que tiene este modelo de lenguaje de inteligencia artificial llamado GPT-3 cuya función es generar textos basados en el aprendizaje de patrones lingüísticos a partir de grandes cantidades de datos disponibles en internet.

OpenAI es una empresa de investigación en inteligencia artificial con el objetivo de desarrollar tecnologías avanzadas de IA de manera ética y segura, al menos eso es lo que manifiesta el propio ChatGPT. Pero cuidado, recientemente personas como Elon Musk y Bill Gates, ambos son figuras prominentes en el mundo de la tecnología y que han mostrado muchísimo interés en el tema, han expresado preocupaciones sobre el potencial impacto y los riesgos asociados con el desarrollo de la inteligencia artificial.

Elon Musk ha señalado su preocupación acerca de los posibles riesgos existenciales que la inteligencia artificial avanzada podría representar si no se maneja de manera cuidadosa. Ha mencionado la necesidad de regular y supervisar el desarrollo de la IA para garantizar que sea segura y beneficiosa para la humanidad.

Por su parte, Bill Gates también ha compartido inquietudes similares sobre los riesgos asociados con la IA, enfatizando la importancia de tener en cuenta consideraciones éticas y de seguridad en su desarrollo. Ha mencionado la necesidad de establecer directrices y regulaciones para garantizar que la inteligencia artificial se utilice de manera responsable y para el beneficio de la sociedad.

En realidad, las críticas y las preocupaciones no se dirigen específicamente hacia el modelo de inteligencia artificial, sino más bien hacia las implicaciones más amplias y los posibles peligros asociados con el desarrollo de la inteligencia artificial avanzada y su impacto en la sociedad. No se trata del objeto sino del uso que se le da. Parece como si hubiésemos renunciado a ejercer la facultad de pensar. De pronto, colegios y universidades han sido inundados con trabajos, ensayos e investigaciones que, de tan perfectas, son plásticas. Entonces, nos enteramos de que no fue ni la inteligencia humana ni el aprendizaje lo que produjo esos textos. Es posible que después de haberle pedido el trabajo a ChatGPT, ni siquiera lo hayan leído. El antiguo y terrible copy paste, llega remasterizado.

Encuentra en la Red Forbes la opinión y análisis de personajes clave para el país

Lo que aterra no es tanto la herramienta sino el uso que le damos. La pregunta es si cierta parte de la población ha decidido dejar de pensar, ha elegido poner su mente en pausa y delegar su capacidad de esfuerzo a una aplicación. Ya ha sucedido en otras ocasiones en las que el ser humano ha resuelto a favor de una máquina. ¿Cómo no? Cuando algo es más eficiente es lógico optar por ello. El centro de todo está en el cuándo y cómo se debe usar. 

Evidentemente, ChatGPT piensa más rápido que yo, tiene más memoria que yo, entrega las asignaciones con mucha mayor velocidad y comete menos errores. ChatGPT aprende no sólo de lo que encuentra en línea, sino que aprende de lo que yo le pregunto en específico. No obstante, sigo creyendo que todos estos atributos han de usarse sí, pero hay que darles un uso cuidadoso. El filtro del análisis, el toque que le da la mano humana y que busca profundidad, sólo lo da la calidez de la carne y huesos con inteligencia racional. No todos lo entienden así.

ChatGPT podrá guiar un dron sobre un objetivo específico y ser muy certero para dar en el blanco. Sólo una persona podrá darse cuenta de que ese lugar es un Jardín de Niños y detenerse a reflexionar si eso está o no bien. Un procesador con la inteligencia artificial avanzadísima como la que hemos visto todavía no puede hacer esa valoración.  

Como modelo de inteligencia artificial, el mal uso de la tecnología puede ocurrir a través de diferentes manifestaciones que dan origen a preocupaciones muy legítimas que ya se están observando en el mundo corporativo.

Generación de contenido engañoso: Algunas personas podrían usar modelos como ChatGPT para generar información falsa, desinformación o noticias engañosas con la intención de manipular opiniones o difundir información errónea.

Creación de spam o contenido no ético: Se podría utilizar la inteligencia artificial para generar grandes cantidades de contenido no deseado, como spam en redes sociales, correos electrónicos u otros medios, lo cual puede ser molesto o perjudicial para los usuarios no puede sesgar sus apreciaciones.

Comportamiento discriminatorio o inapropiado: Si el modelo no se entrena adecuadamente o se utiliza de manera incorrecta, podría generar respuestas discriminatorias, prejuiciosas o inapropiadas hacia ciertos grupos de personas, lo cual sería inaceptable y perjudicial.

Suplantación de identidad: Los modelos de lenguaje como ChatGPT podrían usarse para crear textos que imiten a personas reales o para realizar suplantación de identidad, lo cual podría ser utilizado para propósitos fraudulentos.

Dicen que OpenAI, el equipo detrás de ChatGPT, ha estado tratando ed implementar medidas para mitigar estos problemas, como la moderación, el filtrado y la ética en el desarrollo de la inteligencia artificial. Es claro que la responsabilidad de utilizar esta tecnología sobre las bases de las buenas prácticas recae tanto en los desarrolladores como en los usuarios finales para garantizar un uso virtuoso y respetuoso. 

El punto nodal recae, es evidente, en el honor y la dignidad de quienes estamos en posibilidad de hacer uso de esta herramienta. El entusiasmo vibrante por esta aplicación se entiende, los excesos en su uso se han visto, el cuidado y la responsabilidad deben advertirse. El propio ChatGPT lo dice. Y, al final, tal como sucede con la herramienta más rudimentaria, es la forma en la que la utilizamos lo que la puede convertir en un objeto glorioso o en un arma destructiva. 

La reflexión continuará y los debates en torno a la inteligencia artificial tendrán argumentos a favor y en contra. Eso es lo que hay que impulsar, pensar, poner nuestras ideas en juego, valorar y hacer uso de nuestra parte humana. Sí, esa sorpresa que nos ha invadido este año es algo que un bot no experimenta y es eso, precisamente a eso a lo que me refiero.

Contacto:

Correo[email protected]

Twitter: @CecyDuranMena

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

Suscríbete a Forbes México

 

Siguientes artículos

Devoluciones legítimas e ilegítimas: el reto del ecommerce en el cierre de 2023
Por

El cierre de año es siempre una montaña rusa para las empresas, sin importar el ciclo económico en el que nos encontremo...