Este es el año de la inteligencia artificial (IA). ChatGPT marcó el inicio de la carrera por el control de la inteligencia artificial conversacional, con Microsoft dando el primer manotazo sobre la mesa, seguido de una respuesta más bien tibia de Google. Los chatbots generaron, en apenas unos meses, las expectativas que no logró el metaverso. Sin embargo, la carrera por la inteligencia artificial tiene, como casi toda tecnología, un lado b algo más oscuro.

El propio ChatGPT lo advierte. Forbes México le preguntó sobre cuáles son las formas más peligrosas en las que puede ser usada la inteligencia artificial, a lo que el chatbot de moda respondió: “la inteligencia artificial es una herramienta poderosa con un gran potencial para mejorar nuestras vidas en muchas formas. Sin embargo, como con cualquier tecnología, también hay riesgos asociados con su mal uso”.

Entre las formas en las que la inteligencia artificial podría ser peligrosa si se utiliza de manera inapropiada, mencionó ChatGPT, están la vigilancia masiva, la discriminación, la manipulación, el desempleo masivo y las armas autónomas. Este último punto ha desatado ya una carrera por el control de la inteligencia artificial militar, contienda en la que los jugadores más importantes son Estados Unidos y sus rivales (hablando en términos geopolíticos y económicos) China y Rusia.

“Una preocupación importante es el uso de la inteligencia artificial en armas autónomas, que podrían tomar decisiones de ataque sin intervención humana. Esto plantea preocupaciones éticas y de seguridad significativas”, dice ChatGPT sobre los usos peligrosos de la tecnología que le dio vida al chatbot que atrajo miles de millones de dólares de las cuentas de Microsoft, un movimiento que simboliza la importancia de la inteligencia artificial para los negocios y otros sectores.

Lee también: Musk, Hawking y Wozniak advierten sobre las armas autónomas

Formas en que la IA podría ser peligrosa, según ChatGPT:

  • Armas autónomas: Una preocupación importante es el uso de IA en armas autónomas, que podrían tomar decisiones de ataque sin intervención humana. Esto plantea preocupaciones éticas y de seguridad significativas.
  • Vigilancia masiva: La IA se puede utilizar para recopilar grandes cantidades de datos sobre las personas y sus actividades, lo que plantea preocupaciones sobre la privacidad y el potencial abuso por parte del gobierno o de las empresas.
  • Discriminación: Si la IA se entrena con datos sesgados, puede perpetuar y amplificar la discriminación, especialmente en áreas como la contratación y el crédito.
  • Manipulación: La IA se puede utilizar para crear contenido falso y engañoso, lo que podría usarse para manipular a las personas o influir en la política.
  • Desempleo masivo: La IA también tiene el potencial de desplazar a los trabajadores de ciertas industrias, lo que podría tener un impacto significativo en la economía y en la calidad de vida de las personas.

Consultado una vez más sobre si conoce cuáles son los países que están desarrollando armas autónomas, ChatGPT responde: “hay varios países que se sabe que están trabajando en el desarrollo de armas autónomas, aunque es difícil obtener información precisa sobre las actividades de defensa de cada país”, pero ofrece la siguiente lista de países: Estados Unidos, Rusia, China, Israel y Reino Unido.

De acuerdo con un informe publicado el 14 de febrero pasado por el Servicio de Investigación del Congreso de Estados Unidos, los sistemas letales de armas autónomas “aún no están en desarrollo generalizado. Sin embargo, a medida que avanza la tecnología, en particular la inteligencia artificial, un mayor número de países pueden considerar desarrollar y operar” este tipo de armas, lo que supondrá desafíos legales, éticos, estratégicos y operativos.

Las armas autónomas son definidas como “sistemas que, una vez activados, pueden seleccionar y atacar objetivos sin la intervención adicional de un operador (humano)”. El documento del Congreso de Estados Unidos indica que “aunque la búsqueda de sistemas letales de armas autónomas aún no está generalizada, algunos analistas han argumentado que la munición merodeadora Harpy de Israel”. califica como tal.

Harpy fue desarrollada por Israel Aerospace Industries. Se encarga de buscar y destruir con una ojiva explosiva sistemas de defensa aérea enemigos por cuenta propia. Se considera un arma de disparar y olvidar, porque una vez que se lanza desde una aeronave, no requiere control humano para buscar y destruir los radares enemigos. Según el Congreso estadounidense, esta arma autónoma ha sido exportada a Chile, China, India, Corea del Sur y Turquía.

El exsecretario de Defensa de Estados Unidos, Mark Esper, ha señalado que el fabricante chino Ziyan ha anunciado un sistema totalmente autónomo, el helicóptero no tripulado Blowfish A3, que, según se informa, ha exportado a Oriente Medio. Además, según un informe de la Junta de Innovación de Defensa, Estados Unidos desarrolló un sistema letal de arma autónoma durante la década de 1980 pero ya no tiene este tipo de armas en su inventario.

Más sobre IA: Buscador con inteligencia artificial de Microsoft da respuestas perturbadoras

¿Qué opina la comunidad internacional?

Las armas autónomas han sido objeto de debate de la comunidad internacional desde 2014, cuando la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) ha convocado a los países parte, observadores y sociedad civil para discutir los aspectos legales, éticos, tecnológicos y militares de los sistemas letales de armas autónomas. En 2017 esas reuniones pasaron a ser un grupo formal de expertos gubernamentales.

En 2019, los Estados partes de la CCW acordaron que el derecho internacional humanitario se aplicaría a los sistemas letales de armas autónomas, por lo que los seres humanos deben seguir siendo responsables de las decisiones sobre el uso de la fuerza y que los Estados deben considerar los riesgos de la adquisición o proliferación de los sistemas letales de armas autónomas por parte de los terroristas”.

México se ha posicionado a favor de la prohibición preventiva de las armas autónomas, con países como Austria, Brasil, Nueva Zelanda, entre otros. Países como Australia, Francia, Alemania, Corea del Sur, Reino Unido, Estados Unidos, España, entre otros. Además de países como México, 165 organizaciones no gubernamentales han pedido una prohibición preventiva de las armas autónomas debido a preocupaciones éticas.

“Estas preocupaciones incluyen una falta percibida de responsabilidad por el uso y una incapacidad percibida para cumplir con los requisitos de proporcionalidad y distinción del derecho internacional humanitario”, menciona el informe del Congreso sobre armas autónomas consultado por Forbes México. Por ejemplo, el analista del Centro para una Nueva Seguridad Americana, Paul Scharre, advierte que errores de software podrían derivar en bajas civiles.

“Aunque tales riesgos podrían estar presentes en los sistemas automatizados, podrían aumentar en los sistemas autónomos, en los que el operador humano no podría intervenir físicamente para terminar los enfrentamientos, lo que podría resultar en casos de fratricidio, bajas civiles o más numerosos o a mayor escala”, describe el documento del Congreso publicado el pasado 14 de febrero.

Los países que se oponen a la prohibición preventiva de las armas autónomas argumentan que éstas tienen utilidad militar potencial, por ejemplo, para operar en entornos con comunicaciones degradadas o denegadas donde los sistemas tradicionales pueden no funcionar, o la posibilidad de crear enjambres de armas autónomas para abrumar a los sistemas defensivos enemigos.

“Los países que se oponen a una prohibición preventiva también han señalado los posibles beneficios humanitarios de las armas autónomas, que pueden ser capaces de ‘atacar objetivos militares con mayor precisión y con menos riesgo de daños colaterales o bajas civiles’ que los sistemas tradicionales. Estos países sostienen que los operadores humanos seguirán siendo responsables del despliegue de los sistemas y de garantizar que el uso de los sistemas cumpla con el derecho humanitario internacional”.

Tipos de armas autónomas, según la IA ChatGPT:

  • Drones de combate autónomos: Estos son aviones no tripulados que pueden volar y atacar objetivos sin la necesidad de intervención humana. Algunos drones de combate autónomos ya están en uso por algunos países.
  • Sistemas de armas terrestres autónomos: Estos son robots terrestres que pueden moverse y atacar objetivos sin intervención humana. Algunos ejemplos incluyen sistemas de armas autónomas montados en vehículos terrestres.
  • Munición merodeadora: Estos son sistemas de armas autónomos que se lanzan desde aviones y buscan y atacan objetivos en tierra.
  • Sistemas de defensa antiaérea autónomos: Estos son sistemas de armas autónomos diseñados para detectar, rastrear y derribar aviones enemigos sin la necesidad de intervención humana.

Te recomendamos: EU y la Unión Europea pactan alianza para investigar la inteligencia artificial

EU, China y Rusia en la carrera

La carrera por la aplicación de inteligencia artificial en el campo militar es encabezada por las tres potenciales mundiales en la materia: Estados Unidos, China y Rusia, países que tienen ciertas disputas políticas, económicas y militares, particularmente del gobierno estadounidense con el ruso y el chino. Los tres países se han opuesto a una prohibición preventiva del desarrollo y producción de armas autónomas.

Estados Unidos argumenta que los sistemas letales de armas autónomas “podrían proporcionar un beneficio humanitario y que el derecho humanitario internacional existente es suficiente para regir el desarrollo y uso de éstas”.

Rusia piensa que las armas autónomas podrían “’garantizar una mayor precisión de la guía de armas en objetivos militares, al tiempo que contribuye a una menor tasa de ataques no intencionales contra civiles y objetivos civiles’. También ha argumentado que no existe un precedente legal adecuado para una prohibición internacional preventiva de toda una clase de armas”.

China por su cuenta “ha declarado que apoya la prohibición del uso, pero no del desarrollo de armas autónomas, que define como sistemas indiscriminados y letales que no tienen supervisión humana y no se pueden eliminar. China es el único país que define las armas autónomas de esta manera, y los analistas señalan que tal arma no podría cumplir con el derecho humanitario internacional y, por lo tanto, sería intrínsecamente ilegal. Algunos analistas han argumentado que China mantiene una ‘ambigüedad estratégica’ sobre su posición sobre las armas autónomas”.

Tal es la relevancia del tema que, como parte de la conferencia de La Haya, el pasado 16 de febrero Estados Unidos lanzó una iniciativa que promueve la cooperación internacional sobre el uso responsable de la inteligencia artificial y las armas autónomas con miras a regular y controlar esta tecnología.

“Como una tecnología que cambia rápidamente, tenemos la obligación de crear normas sólidas de comportamiento responsable con respecto a los usos militares de la inteligencia artificial y de una manera que tenga en cuenta que las aplicaciones de la IA por parte de los militares sin duda cambiarán en los próximos años”, dijo Bonnie Jenkins, la subsecretaria de control de armas y seguridad internacional del Departamento de Estado.

“Estamos a tiempo de mitigar los riesgos y evitar que la inteligencia artificial se salga de control, y estamos a tiempo de evitar que la inteligencia artificial nos lleve a un lugar en el que simplemente no queremos estar”, dijo el ministro de Asuntos Exteriores holandés, Wopke Hoekstra como parte de la conferencia de La Haya.

¿Ya nos tienes en Facebook? Danos like y recibe la mejor información

 

Siguientes artículos

Meta Facebook multa Irlanda privacidad
Palomita azul en Instagram y Facebook: Meta lanza servicio de verificación de pago
Por

La suscripción de Meta Verified arrancará en en $ 11.99 dólares al mes para web y 14.99 dólares al mes para el sistema o...