La administración Biden está preparada para abrir un nuevo frente en su esfuerzo por salvaguardar la IA estadounidense de China y Rusia con planes preliminares para colocar barreras alrededor de los modelos de IA más avanzados, el software central de los sistemas de inteligencia artificial como ChatGPT, dijeron las fuentes.

El Departamento de Comercio está considerando un nuevo impulso regulatorio para restringir la exportación de modelos de IA propietarios o de código cerrado, cuyo software y los datos en los que se entrena se mantienen en secreto, dijeron tres personas familiarizadas con el asunto.

Cualquier acción complementaría una serie de medidas implementadas durante los últimos dos años para bloquear la exportación de sofisticados chips de IA a China en un esfuerzo por frenar el desarrollo de tecnología de punta por parte de Beijing con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de los rápidos avances de la industria.

El Departamento de Comercio se negó a hacer comentarios, mientras que la Embajada de Rusia en Washington no respondió de inmediato a una solicitud de comentarios. La embajada china describió la medida como un “acto típico de coerción económica e intimidación unilateral, al que China se opone firmemente”, y añadió que tomaría “las medidas necesarias” para proteger sus intereses.

Actualmente, nada impide que los gigantes estadounidenses de la IA, como OpenAI, respaldado por Microsoft, Google DeepMind de Alphabet y su rival Anthropic, que desarrollaron algunos de los modelos de IA de código cerrado más potentes, los vendan a casi cualquier persona en el mundo sin supervisión gubernamental.

A los investigadores del gobierno y del sector privado les preocupa que los adversarios estadounidenses puedan utilizar los modelos, que extraen grandes cantidades de texto e imágenes para resumir información y generar contenido, para lanzar ciberataques agresivos o incluso crear potentes armas biológicas.

Una de las fuentes dijo que cualquier nuevo control de exportaciones probablemente apuntaría a Rusia, China, Corea del Norte e Irán. Microsoft dijo en un informe de febrero que había rastreado grupos de piratería afiliados a los gobiernos de China y Corea del Norte, así como a la inteligencia militar rusa y a la Guardia Revolucionaria de Irán, mientras intentaban perfeccionar sus campañas de piratería utilizando grandes modelos de lenguaje.

Lee más: Otra cara de la inteligencia artificial: una carrera por armas autónomas entre EU, China y Rusia

EU busca bloquear el acceso de China a todas las herramientas de IA

Para desarrollar un control de exportación de modelos de IA, las fuentes dijeron que Estados Unidos puede recurrir a un umbral contenido en una orden ejecutiva de IA emitida en octubre pasado que se basa en la cantidad de potencia informática necesaria para entrenar un modelo. Cuando se alcanza ese nivel, un desarrollador debe informar sus planes de desarrollo del modelo de IA y proporcionar los resultados de las pruebas al Departamento de Comercio.

Ese umbral de potencia informática podría convertirse en la base para determinar qué modelos de IA estarían sujetos a restricciones de exportación, según dos funcionarios estadounidenses y otra fuente informada sobre las discusiones. Se negaron a ser identificados porque los detalles no se han hecho públicos.

Si se utiliza, probablemente sólo restringiría la exportación de modelos que aún no se han lanzado, ya que se cree que ninguno ha alcanzado el umbral todavía, aunque se considera que el Gemini Ultra de Google está cerca, según EpochAI, un instituto de investigación que sigue las tendencias de la IA. .

La agencia está lejos de finalizar una propuesta de reglamentación, subrayaron las fuentes. Pero el hecho de que se esté considerando una medida de este tipo muestra que el gobierno de Estados Unidos está tratando de cerrar las brechas en su esfuerzo por frustrar las ambiciones de IA de Beijing, a pesar de los serios desafíos para imponer un régimen regulatorio fuerte a esta tecnología en rápida evolución.

Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA “son obviamente una de las herramientas, uno de los posibles puntos de estrangulamiento en los que hay que pensar aquí”, dijo Peter Harrell, ex Consejo de Seguridad Nacional. oficial. “Queda por ver si, de hecho, en la práctica, se puede convertirlo en un cuello de botella controlable para las exportaciones”, añadió.

Te recomendamos: OTAN pide a China a limitar su arsenal nuclear y la inteligencia artificial

La comunidad de inteligencia, los grupos de expertos y los académicos estadounidenses están cada vez más preocupados por los riesgos que plantea el hecho de que actores extranjeros malintencionados obtengan acceso a capacidades avanzadas de IA. Los investigadores de Gryphon Scientific, abre una pestaña nueva y Rand Corporation, abre una pestaña nueva señalaron que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas.

El Departamento de Seguridad Nacional dijo que los ciberactores probablemente utilizarían la IA para “desarrollar nuevas herramientas” que “permitan ciberataques a mayor escala, más rápidos, eficientes y más evasivos” en su evaluación de amenazas nacionales de 2024.

“La explosión potencial del uso y explotación (de la IA) es radical y, de hecho, nos está costando mucho seguir eso”, dijo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, en una reunión sobre control de exportaciones en marzo, señalando el avance de China como una preocupación particular.

Para abordar estas preocupaciones, Estados Unidos ha tomado medidas para detener el flujo de chips de IA estadounidenses y las herramientas para fabricarlos hacia China.
También propuso una regla para exigir que las empresas de nube estadounidenses informen al gobierno cuando los clientes extranjeros utilizan sus servicios para entrenar potentes modelos de IA que podrían usarse para ataques cibernéticos.

Pero hasta ahora no se ha abordado los modelos de IA en sí. Alan Estevez, que supervisa la política de exportación de Estados Unidos en el Departamento de Comercio, dijo en diciembre que la agencia estaba analizando opciones para regular las exportaciones de modelos de lenguaje grande (LLM) de código abierto antes de buscar comentarios de la industria.

Tim Fist, experto en políticas de inteligencia artificial del grupo de expertos CNAS con sede en Washington DC, dice que el umbral “es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y los riesgos de los nuevos modelos”.

Jamil Jaffer, exfuncionario de la Casa Blanca y del Departamento de Justicia, dijo que la administración Biden no debería utilizar un umbral de potencia informática, sino optar por un control basado en las capacidades del modelo y el uso previsto. “Centrarse en el riesgo de seguridad nacional en lugar de los umbrales tecnológicos es la mejor opción, porque es más duradera y se centra en la amenaza”, afirmó.

El umbral no está escrito en piedra. Una de las fuentes dijo que Comercio podría terminar con un piso más bajo, junto con otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían usarse para fabricar un arma biológica.

Independientemente del umbral, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son de código abierto, lo que significa que quedarían fuera del ámbito de los controles de exportación que se están considerando.

Incluso imponer controles a los modelos patentados más avanzados resultará desafiante, ya que los reguladores probablemente tendrán dificultades para definir los criterios correctos para determinar qué modelos deberían controlarse, dijo Fist, señalando que China probablemente esté sólo dos años por detrás de Estados Unidos en desarrollando su propio software de IA.

El control de exportaciones que se está considerando afectaría el acceso al software backend que impulsa algunas aplicaciones de consumo como ChatGPT, pero no limitaría el acceso a las aplicaciones posteriores.

Con información de Reuters.

Síguenos en Google Noticias para mantenerte siempre informado

 

Siguientes artículos

Ucrania-guerra-Rusia
Ucrania aprueba el reclutamiento voluntario de algunos presos comunes
Por

La ley prevé acortar las penas de prisión de los presos si éstos firman un contrato con el Ejército. No pueden acogerse...