Redacción Tecnología, 14 feb.– El uso de la inteligencia artificial en operaciones militares alcanzó un nuevo hito con la participación de Claude, la herramienta desarrollada por Anthropic, en la reciente captura del ex dictador venezolano Nicolás Maduro durante un operativo de fuerzas especiales estadounidenses en Caracas.
La revelación evidencia el creciente protagonismo de la IA en tareas bélicas y genera tensiones entre Anthropic y la administración Trump, poniendo en duda el futuro de un contrato de hasta USD 200 millones con el Pentágono, según reportes de The Wall Street Journal y Fox News.
Detalles del operativo y rol de Claude
El operativo que culminó con la detención de Maduro y su esposa incluyó su traslado a Estados Unidos para enfrentar cargos por narcotráfico. La IA Claude habría sido utilizada a través de un acuerdo con Palantir Technologies, ampliamente empleada en el Departamento de Defensa y agencias federales, aunque ni Anthropic ni el Pentágono confirmaron oficialmente su participación, citando protocolos de confidencialidad.
Un portavoz de Anthropic señaló que no puede confirmar si Claude fue usado en operaciones clasificadas o no, y recalcó que las políticas de la compañía prohíben el uso de la IA para facilitar violencia, desarrollar armas o tareas de vigilancia. Sin embargo, fuentes consultadas afirman que la compañía monitorea el uso clasificado y confía en que las normas se respetaron.
Regulación y dilemas éticos en la IA militar
El empleo de Claude en seguridad nacional representa un impulso de legitimidad para empresas de IA, que buscan demostrar responsabilidad y utilidad social frente a valoraciones multimillonarias. No obstante, su uso militar plantea dilemas éticos sobre la aplicación de la tecnología y el riesgo de su participación en misiones letales.
El director ejecutivo, Dario Amodei, ha manifestado públicamente que la IA no debe emplearse sin regulaciones estrictas, abogando por límites que prevengan daños sociales y supervisión de usos bélicos o de vigilancia. La relación con la administración Trump se ha tensado, ya que el gobierno estadounidense evalúa limitar o cancelar contratos debido a las restricciones impuestas por Anthropic.
Nuevas alianzas y competencia en defensa
Claude se convirtió en la primera IA de Anthropic contratada oficialmente para operaciones clasificadas del Pentágono, con aplicaciones que incluyen desde análisis de documentos hasta coordinación de drones autónomos. Otros actores del sector, como Google y OpenAI, han desarrollado plataformas como Gemini, orientadas a apoyo militar y generación de reportes para personal operativo.
Durante enero, el secretario de Defensa estadounidense, Pete Hegseth, afirmó: “No emplearemos modelos de IA que no permitan librar guerras”, reflejando los desafíos y tensiones con Anthropic sobre la integración de la IA en operaciones bélicas.
Futuro de Claude y la IA en el ámbito militar
Las políticas internas de Anthropic establecen que Claude no debe utilizarse en acciones ofensivas, desarrollo de armas ni vigilancia sobre la población, aunque la presión para acelerar la adopción de IA en defensa continúa. El contrato con el Departamento de Defensa, valorado en hasta USD 200 millones, refleja la apuesta estratégica por la IA militar, mientras se reportan siete militares estadounidenses heridos durante el operativo en Venezuela.
La participación de Claude marca un precedente en la utilización de inteligencia artificial en seguridad nacional, y plantea importantes interrogantes sobre ética, regulación y responsabilidad en el uso de tecnologías avanzadas en conflictos internacionales.



