OPINIÓN

Wilson Vega

La ética de las cosas violentas

La tecnología ya está en el frente de batalla y opera en un vacío normativo donde la distinción entre un error de la máquina y una decisión humana se vuelve cada vez más borrosa.
6 de marzo de 2026, 2:43 p. m.

La integración de la inteligencia artificial (IA) en el escenario de la guerra ha dejado de ser teoría para convertirse en un componente operativo de primer orden. El reciente despliegue de Claude, de Anthropic, en operaciones del Comando Central de Estados Unidos contra objetivos en Irán marca un hito en la aplicación de modelos generativos en escenarios de combate.

Según informes publicados por The Wall Street Journal, la herramienta se empleó para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla. Esta realidad técnica despoja a los chatbots de su imagen como simples “asistentes de redacción” y los pone en el centro de la toma y ejecución de decisiones letales.

Por supuesto, el uso de sistemas de procesamiento de lenguaje natural en conflictos armados del mundo real no es exactamente una novedad; pero sí lo es la profundidad de su integración. Tampoco es nuevo el uso de Claude, que en enero de este año probó ser clave durante la operación que resultó en la captura de Nicolás Maduro.

No está del todo claro cómo se desplegó la herramienta, cuyas capacidades van desde el análisis de grandes volúmenes de información hasta el pilotaje de drones autónomos. Pero la confirmación de su uso evidencia una dependencia que precede y sobrepasa a la regulación.

El problema de la IA en el campo de batalla es que nadie, ni siquiera las autoridades mundiales en este ámbito, han terminado de dilucidar el dilema que plantea la ética de la tecnología diseñada para la violencia. La naturaleza de las tareas asignadas a la inteligencia artificial en el campo de batalla plantea interrogantes sobre la precisión y la responsabilidad y cuestiona hasta qué punto es moral dejar que un modelo de IA influya en la decisión de matar, o peor aún, que la tome.

El concepto de identificación de objetivos mediante modelos de lenguaje implica que algoritmos diseñados para predecir matemáticamente la siguiente palabra en una frase —no para entenderla realmente ni para evaluar sus implicaciones— están siendo utilizados para sugerir coordenadas o estimar bajas civiles. El riesgo reside en la alucinación, un fenómeno intrínseco a los modelos de lenguaje de gran escala (LLM) y que conoce bien cualquiera que haya usado Gemini o ChatGPT.

Cuando la IA alucina, el sistema genera información falsa con una apariencia de total certeza, solo para cumplir su objetivo —dar una respuesta—, en lugar de admitir que no tiene idea de lo que dice. Durante su entrenamiento, estos modelos son “premiados” por ofrecer respuestas antes que admitir incertidumbre, por lo que la posibilidad de errores en la identificación de blancos es no solo constante, sino una probabilidad estadística.

Existen precedentes de esta fragilidad técnica. Las Fuerzas Armadas israelíes anunciaron recientemente que emplean Lavender, un sistema automatizado para seleccionar objetivos humanos. Esta práctica, inédita hasta ahora en el conflicto de Oriente Próximo, no solo plantea debates éticos, sino consideraciones mucho más concretas, relacionadas con el hecho de que Lavender (vale la pena aclararlo: no es un modelo de lenguaje) tiene un margen de error del 10 %. Si, como reporta El País, este sistema “marcó durante las primeras semanas de guerra a 37.000 palestinos y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza”, un 10 % de error representa cientos —o incluso miles— de vidas.

El tema se vuelve más alarmante cuando se considera que el siguiente paso lógico es llevar estas capacidades hacia el control de hardware. Surge así el concepto de armamento autónomo o, como lo llama la campaña global que pide su prohibición, “robots asesinos”.

Bloomberg News reportó que Anthropic presentó una propuesta de 100 millones de dólares al Pentágono para desarrollar tecnología de enjambres de drones controlados por voz. El proyecto buscaba que Claude tradujera las intenciones de un comandante en instrucciones digitales para coordinar flotas de drones en tiempo real, desde el lanzamiento hasta la terminación de la misión. Aunque el contrato no se adjudicó, la existencia misma de la propuesta confirma que la industria busca eliminar la mediación humana en la ejecución táctica.

Ese dato contrasta con la posición que llevó a Anthropic a enfrentarse con el Departamento de Defensa de EE. UU. por negarse a levantar las salvaguardas que impiden que su tecnología sea utilizada en operaciones de vigilancia masiva y armamento autónomo. En respuesta a la negativa, el Pentágono impuso una designación formal de “estatus de riesgo” al laboratorio de inteligencia artificial, pero aun así usó su tecnología en Irán.

Esta aceleración de los ciclos de decisión es, para académicos como Elke Schwarz de la Queen Mary University de Londres, una receta para resultados no deseados. La velocidad que aporta la IA reduce el escrutinio humano y diluye la responsabilidad legal. En el marco del Derecho Internacional Humanitario, según el artículo 36 de la Convención de Ginebra, un sistema de IA que aprende y se actualiza constantemente en función de su entorno puede convertirse en una entidad distinta en cada iteración, lo que hace que los estándares de prueba tradicionales resulten obsoletos e inaplicables.

La falta de visibilidad sobre cómo estas herramientas operan en la práctica es el desafío más urgente. La ausencia de un marco de reporte claro sobre el uso de modelos como Claude en operaciones militares impide que la sociedad civil y los organismos internacionales evalúen si estas máquinas respetan los principios de distinción y proporcionalidad. La tecnología ya está en el frente de batalla, operando en un vacío normativo donde la distinción entre un error de la máquina y una decisión humana es cada vez más borrosa. Establecer mecanismos de transparencia ya no es una opción académica, sino una necesidad operativa para evitar que la automatización de la violencia se convierta en una norma irreversible y exenta de rendición de cuentas.

VER MÁS