Destrucción masiva e inteligente: guerra, IA y armas autónomas
Destrucción masiva e inteligente: guerra, IA y armas autónomas
Pablo A. Ruz Salmones CEO, X eleva Group
Una vez, una empresa nos invitó a participar en un proyecto de Inteligencia Artificial (IA) para uso bélico. No lo dudé: me opuse de inmediato, incluso a costa de perder un contrato clave. Para mí, era una línea roja infranqueable. Recuerdo pensar con claridad: “Nuestra tecnología no debe servir para matar”.

Argumentos a favor Este tema, sobre la incorporación de la Inteligencia Artificial en las armas y en la guerra, lo he debatido con expertos en todo el mundo. Ninguno —yo incluido— ha encontrado respuestas satisfactorias a favor o en contra de la incorporación de esta tecnología en la guerra. Los argumentos a favor que suelen presentarse son, en su mayoría, débiles. Uno de los más comunes es: “Salvan vidas al evitar que personas vayan al campo de batalla”, razonamiento francamente risible cuando las armas se usan para matar civiles como en los conflictos que enfrentamos hoy en día. Otro parecido es: “Acortan los conflictos al aniquilar al enemigo más rápido”. ¿Consuelo macabro?
Sin embargo, hay un argumento que sí resulta difícil de rebatir, al menos desde una lógica pragmática: “Si no lo hacemos nosotros, lo harán otros”. Y ahí radica el verdadero peligro. A diferencia de las armas nucleares, por ejemplo, —controlables por la escasez de materiales e infraestructura necesaria para desarrollarlas—, la IA es accesible, barata y fácil de integrar.
Dicho de otra forma: el Tratado de Tlatelolco (formalmente Tratado para la Proscripción de las Armas Nucleares en América Latina y el Caribe) que prohíbe la proliferación de armas nucleares en América Latina —y que le valió el Premio Nobel de la Paz a Alfonso García Robles—, no tiene hoy un equivalente posible en el campo de la IA y la guerra. A diferencia del uranio, la IA no requiere materiales difíciles de obtener ni grandes recursos para ser implementada. Una prohibición que no se puede hacer cumplir es como echarle agua a un canasto.
Es cuestión de grados
Y por si este argumento práctico no fuera ya convincente para muchas naciones, otra característica que abona es que la autonomía de un arma no es binaria —“autónoma o no”—; existe en grados, y con ellos, los límites éticos se vuelven borrosos, y en vez de ser blanco y negro, se crea una línea gris. Ya no se trata de un “sí o no”, sino de un “¿hasta dónde?”.
Imaginemos una espada: requiere que alguien la empuñe para matar. Un arma de fuego da un paso más: no requiere contacto entre el agresor y el agredido. Los drones y misiles modernos —con capacidad para reconocer objetivos mediante cámaras o radares— representan un salto aún mayor: ni siquiera es necesario ver a las personas a las cuales se les está “apuntando” con el arma.
Y cuando la autonomía del arma crece, matar - quizá uno de los actos más personales que supongo puede haber - se vuelve totalmente impersonal.
Además, para como está la situación, no resulta difícil prever la creación de armas que vayan más allá y que decidan por sí mismas qué objetivos atacar, basadas en directrices vagas como “inflige el mayor daño al enemigo”. O, peor aún, que decidan a quién hacerle la guerra, tal como sucede en Superman: Red Son, donde Brainiac elige atacar a Estados Unidos para sostener el régimen soviético. ¿Ficción? La pregunta hoy no es si ocurrirá, sino cuánto falta para que ocurra.
Siempre habrá una narrativa
El resultado previsible de todo esto es preocupante: con un argumento pragmáticamente convincente para el uso de la IA en la guerra, el ético se diluye al aplicar el argumento de grados. Como nadie quiere pensar que una computadora se pueda hacer cargo de tomar la decisión de si matar a alguien o iniciar una guerra- salvo quizá el responsable de llevar a cabo el acto - se podrá decir fácilmente que no fue la IA la que lo decidió, que no es totalmente autónoma, puesto que “there was a human in the loop”, para aplicar la expresión de la jerga tecnológica.
Bajo una narrativa donde parece no haber ya el más mínimo valor en la vida humana, lo cierto es que la IA estará —o ya está, en algún grado— presente en las armas y en las guerras. No es un tema de si debería estar o no: la verdadera pregunta es si lo aceptaremos; si tendremos el valor de aceptar que en un mundo donde hemos delegado a la tecnología nuestro entretenimiento, qué rutas tomar para llegar más rápido al trabajo, o qué nos sugiere comer el día de hoy, también le hemos delegado el que decida por nosotros cuánto vale una vida humana.
En uno de estos debates que mencioné arriba, un experto me preguntó: “¿Qué diferencia hay entre matar con un misil o con una flecha? ¿O entre usar IA o un cuchillo?”. Ese día comprendí que estábamos discutiendo de destrucción masiva e inteligente, deliberando sobre la manera más “ética” de matar personas.
Qué discusión tan repugnante.