...

Información para decidir con libertad

Apoya el ejercicio de la libertad de prensa

La república tecnológica armada

Durante la guerra fría, la imaginación del desastre nuclear tuvo una forma precisa: un botón rojo, una sala cerrada, dos potencias enfrentadas y la amenaza de destrucción total. La era nuclear organizó el miedo del siglo XX porque concentraba el poder de terminar con la civilización humana en pocos actores, con arsenales visibles, doctrinas reconocibles y cadenas de mando relativamente identificables. En nuestros días, la inteligencia artificial ha cambiado esa imagen.

La semana pasada, Palantir -la empresa tecnológica vinculada al mundo militar y de inteligencia en Estados Unidos- publicó un manifiesto de 22 puntos, derivado del libro The Technological Republic, de Alex Karp y Nicholas Zamiska. La idea sobre la que se sostiene es que la era de la disuasión nuclear ha dado paso a una nueva etapa construida sobre inteligencia artificial, software militar y equipo militar autónomo. Sostienen que esas armas serán desarrolladas inevitablemente; la pregunta, dicen, es quién las construirá y con qué propósito.

Conviene tomar la advertencia en serio sin aceptar todo su entusiasmo. La era nuclear no ha terminado. Las armas nucleares siguen ahí, como amenaza extrema y como columna vertebral de la disuasión entre grandes potencias. Lo que ocurre es distinto; sobre esa arquitectura se superpone una capa algorítmica capaz de acelerar las decisiones de la guerra, neutralizar los frenos morales y dispersar la responsabilidad en sistemas técnicos. La IA comprime el tiempo de la deliberación y permite que una orden política se lea como una recomendación técnica.

Pero, ¿qué son exactamente las armas con inteligencia artificial? No son robots que disparan sino sistemas que detectan patrones, integran datos satelitales, clasifican riesgos, recomiendan blancos, coordinan drones, anticipan movimientos y reducen el tiempo entre la identificación de una amenaza y la respuesta militar. En el extremo, pueden seleccionar y atacar objetivos con distintos grados de autonomía. El problema no está sólo en la capacidad de fuego, sino en la velocidad de la decisión.

Esa transformación tiene una segunda capa, especialmente importante para México: el crimen organizado o los grupos terroristas. Una bomba nuclear está fuera del alcance de un cártel; la inteligencia artificial, no. Drones comerciales, cámaras térmicas, reconocimiento facial, clonación de voz, vigilancia de rutas, extorsión automatizada, deepfakes, análisis masivo de datos y hackeo de autoridades locales pueden convertir a una organización criminal o terrorista en una estructura de inteligencia paralela. La democratización tecnológica iguala, también, las capacidades de daño.

Así, la guerra algorítmica no llegará solamente por los ejércitos. Puede avanzar por los mercados ilegales, por empresas fachada, por operadores privados, por redes de hackers y por grupos criminales que aprendan a usar herramientas baratas con fines de control territorial. La violencia organizada siempre ha usado tecnología disponible -radios, armas largas, criptomonedas, cámaras, drones-. La inteligencia artificial amplía ese repertorio y le añade capacidades de predicción, suplantación y vigilancia.

La tercera capa es ética. La pregunta importante no es si una máquina calcula más rápido que un soldado, eso es un hecho. Lo que hay que cuestionarse es qué ocurre cuando la duda moral se convierte en una recomendación operativa. Un algoritmo puede ordenar prioridades, cruzar información y sugerir un blanco. Pero no puede responder por la muerte de una persona. La responsabilidad queda repartida entre el político que compró el sistema, la empresa que lo diseñó, el mando que lo desplegó, el operador que lo activó y el programador que nunca estuvo en el campo de batalla.

Hoy, a la pregunta de quién tiene la bomba se suma otra: quién controla los datos, los drones y la decisión invisible que convierte a una persona en objetivo.

Recomendar Nota

Facebook
X / Twitter
WhatsApp