Muchos trabajadores de Estados Unidos recurren a ChatGPT para que les ayude con tareas básicas, según una encuesta de Reuters/Ipsos, a pesar del temor que ha llevado a empresas como Microsoft y Google a frenar su uso.

Firmas de todo el mundo estudian la mejor manera de usar ChatGPT, un programa de chatbot que utiliza Inteligencia Artificial generativa para mantener conversaciones con los usuarios y responder a innumerables preguntas.

Sin embargo, empresas y firmas de seguridad han expresado su preocupación porque puede dar lugar a filtraciones de propiedad intelectual y de estrategias.

Algunos ejemplos de cómo las personas usan ChatGPT para ayudarles en su trabajo diario son la redacción de correos electrónicos, el resumen de documentos y la investigación preliminar.

Un 28% de encuestados usa ChatGPT

Alrededor del 28% de los encuestados en el sondeo en línea sobre Inteligencia Artificial, realizado entre el 11 y el 17 de julio, dijo haber usado ChatGPT con regularidad en el trabajo, pero sólo 22% indicó que sus jefes permitían explícitamente este tipo de herramientas externas.

La encuesta de Reuters/Ipsos a 2 mil 625 adultos de todo Estados Unidos tiene un intervalo de credibilidad, una medida de precisión, de unos 2 puntos porcentuales.

Un 10% de los encuestados dijo que sus jefes prohibían explícitamente las herramientas externas de Inteligencia Artificial, mientras que alrededor del 25% no sabía si su empresa permitía el uso de esta tecnología.

ChatGPT se convirtió en la aplicación de mayor crecimiento de la historia tras su lanzamiento en noviembre. Ha creado tanto expectación como alarma, y ha enfrentado a su desarrollador, OpenAI, con las autoridades reguladoras, sobre todo en Europa, donde la recolección torrencial de datos ha generado críticas de organismos de control de la privacidad.

Lee: Este unicornio alemán está tratando de enfrentarse a Google Translate y ChatGPT

Los revisores humanos de otras empresas pueden leer cualquiera de los chats generados, e investigadores descubrieron que una Inteligencia Artificial similar podría reproducir los datos que absorbió durante el entrenamiento, lo que supone un riesgo potencial para la información con derechos de propiedad.

“La gente no entiende cómo se usan los datos cuando usan servicios de Inteligencia Artificial generativa”, dijo Ben King, vicepresidente de confianza del cliente en la firma de seguridad corporativa Okta.

“Para las empresas esto es medular, porque los usuarios no tienen un contrato con muchos servicios de Inteligencia Artificial -porque son gratuitos-, así que las corporaciones no habrán pasado el riesgo por su proceso habitual de evaluación”, dijo King.

OpenAI no quiso hacer comentarios cuando se le preguntó por las implicaciones de que empleados usen ChatGPT, pero destacó una reciente entrada en el blog de la empresa en la que se aseguraba a los socios corporativos que sus datos no se usarían para seguir entrenando al chatbot, a menos que dieran su permiso explícito.

Cuando los usuarios utilizan el Bard de Google, se recopilan datos como el texto, la ubicación y otra información de uso. La empresa permite a los usuarios eliminar la actividad anterior de sus cuentas y solicitar que se elimine el contenido introducido en la Inteligencia Artificial.

Google, propiedad de Alphabet, no quiso hacer comentarios cuando se le pidieron más detalles. Microsoft no respondió inmediatamente a una solicitud de comentarios.

Utilizan ChatGPT para ‘tareas inofensivas’

Un empleado estadounidense de Tinder dijo que los trabajadores de la aplicación de citas usaban ChatGPT para “tareas inofensivas”, como escribir correos electrónicos, a pesar de que la compañía no lo permite oficialmente.

“Son correos electrónicos normales. Muy intrascendentes, como hacer divertidas invitaciones de calendario para eventos de equipo, correos de despedida cuando alguien se va (…) También lo utilizamos para la investigación en general”, dijo el empleado, que no quiso que se mencionara su nombre porque no estaba autorizado a hablar con periodistas.

El trabajador declaró que Tinder tiene una “regla de no ChatGPT”, pero los empleados todavía lo utilizan de una “manera genérica que no revela nada acerca de que estamos en Tinder”.

Reuters no pudo confirmar de forma independiente cómo usaban ChatGPT los empleados de Tinder. Esta plataforma dijo que proporcionaba “orientación regular a los empleados sobre las mejores prácticas de seguridad y datos”.

Te puede interesar: Ya le puedes pedir a ChatGPT todo lo que quieras, cuando quieras, ahora en Android

En mayo, Samsung Electronics prohibió a su personal en todo el mundo el uso de ChatGPT y herramientas de Inteligencia Artificial similares, después de descubrir que un empleado había subido código sensible a la plataforma.

“Estamos revisando medidas para crear un entorno seguro para el uso de Inteligencia Artificial generativa que mejore la productividad y eficiencia de los empleados”, dijo Samsung en un comunicado el 3 de agosto.

“Sin embargo, hasta que estas medidas estén listas, estamos restringiendo temporalmente el uso de Inteligencia Artificial generativa a través de dispositivos de la compañía”, agregó.

Reuters informó en junio que Alphabet había advertido a empleados sobre cómo utilizar chatbots incluyendo Bard de Google, al mismo tiempo que comercializa el programa a nivel mundial.

Lee: Bard, el chatbot de IA de Google, se expande a Europa y Brasil para competir contra ChatGPT

Google dijo que, aunque Bard puede hacer sugerencias de código no deseadas, ayuda a los programadores, además que pretendía ser transparente sobre las limitaciones de su tecnología.

Empresas adoptan ChatGPT sin perder de vista la seguridad

Algunas empresas dijeron a Reuters que están adoptando ChatGPT y plataformas similares, sin perder de vista la seguridad.

“Hemos empezado a probar y aprender sobre cómo la Inteligencia Artificial puede mejorar la eficacia operativa”, dijo un portavoz de Coca-Cola en Atlanta, Georgia, añadiendo que los datos permanecen dentro de su firewall.

“Internamente, hemos lanzado recientemente nuestra versión empresarial de Coca-Cola ChatGPT para la productividad”, expresó el portavoz, añadiendo que Coca-Cola planea usar la Inteligencia Artificial para mejorar la eficacia y la productividad de sus equipos.

inteligencia-artificial-robot-tecnologia
Foto: Alex Knight / Pexels.

La presidenta financiera de Tate & Lyle, Dawn Allen, dijo a Reuters que el fabricante mundial de ingredientes estaba probando ChatGPT, tras haber “encontrado la manera de utilizarlo de forma segura”.

“Tenemos diferentes equipos decidiendo cómo quieren utilizarlo a través de una serie de experimentos. ¿Lo utilizamos en las relaciones con los inversores?, ¿lo utilizamos en la gestión del conocimiento?, ¿cómo podemos utilizarla para realizar tareas de forma más eficiente?”.

Algunos empleados dicen que no pueden acceder en absoluto a la plataforma en las computadoras de la empresa.

“Está completamente prohibida en la red de la oficina, como si no funcionara”, afirmó un empleado de Procter & Gamble, que quiso permanecer en el anonimato por no estar autorizado a hablar con la prensa.

P&G no quiso hacer comentarios. Reuters no pudo confirmar de forma independiente si sus empleados no podían utilizar ChatGPT.

Paul Lewis, director de seguridad de la información de la empresa de ciberseguridad Nominet, señaló que las empresas tenían razón al desconfiar.

“Todo el mundo se beneficia de esa mayor capacidad, pero la información no es completamente segura y puede ser manipulada”, dijo, citando “mensajes maliciosos” que pueden ser usados para conseguir que los chatbots de inteligencia artificial revelen información.

“Todavía no se justifica una prohibición general, pero debemos actuar con cautela”, agregó Lewis.

Con información de Reuters

Síguenos en Google Noticias para mantenerte siempre informado

 

Siguientes artículos

Inteligencia Artificial China
Ciberseguridad, manejo de datos y generación de valor, los retos frente a la IA
Por

El 35% de las empresas a nivel global ya adoptaron esta tecnología para automatizar procesos, reducir costos y mejorar l...