Como la historia de la ciberseguridad ha cambiado, ambos bandos están usando las mismas armas, esto no es el principio y tampoco el fin.
Imaginemos dos ejércitos enfrentadose en un campo de batalla invisible. Con la gran diferencia que no hay explosiones, ni titulares dramáticos. Únicamente código, algoritmos, pura inteligencia artificial tomando decisiones en fracciones de segundo, a una velocidad que ningún humano puede seguir.
Eso es lo que está pasando hoy en el mundo de la ciberseguridad. ¿Te recuerda a una película o caricatura de ficción?
Y lo más interesante, los atacantes no son los únicos que usan inteligencia artificial. Es que los defensores también la usan, y aun así, puede que usen los mismos agentes. Que batalla tan igualada y las marcas de soluciones de seguridad también implementan este tipo de innovación en sus soluciones.
Cómo llegamos aquí
Durante décadas, la seguridad informática funcionó con una lógica relativamente simple: los atacantes creaban amenazas, los defensores las estudiaban, y luego publicaban “firmas” — ó huellas digitales — para que los sistemas las reconocieran y bloquearan.
Era lento. Era reactivo. Pero funcionaba.
El problema es que ese modelo asumía algo que ya no es cierto: que las amenazas permanecen iguales el tiempo suficiente para ser identificadas.
La inteligencia artificial cambió este principio.
El lado oscuro: IA como arma
Hoy, los grupos de cibercriminales y actores maliciosos utilizan modelos de lenguaje e inteligencia artificial para hacer artefactos o acciones que antes requerían equipos enteros de hackers especializados.
Phishing hiperpersonalizado. Antes, un correo de phishing era genérico, mal redactado, fácil de detectar. Hoy, la IA puede analizar el perfil público de una persona — su LinkedIn, sus publicaciones, su empresa — y generar un mensaje tan convincente que parece escrito por su jefe directo. Con nombre, contexto y todo.
Malware que muta solo. Esta es quizás la innovación más perturbadora. Recientemente, Google alertó sobre una nueva generación de malware que utiliza IA para reescribir su propio código cada vez que detecta que alguien intenta analizarlo. Como un virus biológico que muta para resistir el antibiótico. Las “huellas digitales” que los antivirus buscan simplemente… desaparecen.
Automatización de ataques a escala. Lo que antes requería meses de trabajo manual — encontrar vulnerabilidades, probar accesos, moverse dentro de una red sin ser detectado — ahora puede automatizarse. Un solo actor malicioso con las herramientas correctas puede lanzar ataques coordinados contra miles de objetivos simultáneamente.
La barrera de entrada para convertirse en “hacker” nunca había sido tan baja.
El lado de la luz: IA como escudo
Las organizaciones, marcas y profesionales de seguridad también adoptaron la inteligencia artificial, y en algunas áreas, están ganando terreno.
Detección de anomalías en tiempo real. En lugar de buscar amenazas conocidas, los sistemas modernos aprenden cómo se ve el comportamiento “normal” dentro de una red. Cuando algo se desvía de ese patrón — aunque sea sutilmente — la IA lo detecta y alerta.
Respuesta automática a incidentes. Cuando se detecta una amenaza, cada segundo cuenta. Los sistemas de IA pueden aislar dispositivos comprometidos, bloquear accesos sospechosos y contener el daño en milisegundos, mucho antes de que un analista humano siquiera reciba la notificación.
Análisis predictivo de amenazas. Las plataformas de inteligencia de amenazas usan IA para procesar millones de indicadores globales y anticipar qué tipos de ataques están ganando tracción, hacia qué sectores se están dirigiendo, y qué organizaciones podrían ser los próximos objetivos.
El problema del espejo
Atacantes y defensores están usando, en esencia, la misma tecnología.
Los mismos modelos de lenguaje que ayudan a un equipo de seguridad a analizar código malicioso, pueden ayudar a un atacante a escribirlo. Las mismas técnicas de automatización que permiten a un SOC (Centro de Operaciones de Seguridad) monitorear miles de eventos, permiten a un criminal lanzar miles de ataques.
No hay una ventaja tecnológica inherente para ninguno de los dos bandos. Lo que marca la diferencia, cada vez más, es la velocidad de adopción, la calidad de los datos, y — algo que no podemos olvidar — el factor humano.
¿Quién está ganando?
La respuesta honesta es: depende de a quién le preguntes.
Los optimistas señalan que las grandes organizaciones con inversión en ciberseguridad están mejor protegidas que nunca. Los sistemas de detección son más rápidos, más precisos, y más autónomos.
Los pesimistas — o quizás los realistas — señalan que la mayoría de las organizaciones en el mundo no son empresas gigantescas. Son pequeñas y medianas empresas, instituciones de salud, gobiernos locales, que no tienen los recursos para implementar estas defensas avanzadas. Y son exactamente los objetivos favoritos de los atacantes.
La IA democratizó el ataque antes de democratizar la defensa. Eso es un problema serio.
Anthropic vs. ¿El Pentágono, la NASA y todo E.U.? – Como de novela –
Esta es una de las historias más interesantes del año en IA.
El origen: El Pentágono, que utilizaba Claude en sus redes clasificadas, quería poder usarlo para “todos los fines legales”. Pero Anthropic tenía dos líneas rojas: que Claude no se usara en armas autónomas y que no se usara en vigilancia masiva de ciudadanos estadounidenses.
La ruptura: El gobierno de Trump ordenó a las agencias federales y contratistas militares que suspendieran negocios con Anthropic después de que la empresa se negara a ceder.
La respuesta de Anthropic: Anthropic demandó a múltiples agencias federales, alegando que sus sistemas fueron excluidos de la contratación gubernamental sin los procedimientos legales requeridos.
La NASA aparece aquí: La demanda fue presentada contra una lista larguísima de agencias que incluye el DoD, el Departamento de Tesoro, el Departamento de Estado, el Departamento de Salud, el Departamento de Comercio, la NASA, el Departamento de Energía, la Reserva Federal, y más.
Competencia: Mientras Anthropic enfrenta este veto, otras empresas como OpenAI y xAI han comenzado a negociar contratos similares con el Pentágono bajo las nuevas condiciones del gobierno
El giro inesperado: A pesar de perder el contrato, la app de Claude superó a ChatGPT de OpenAI en la App Store por primera vez, con más de un millón de registros diarios nuevos durante esa semana.

Lo que esto significa para todos nosotros
No necesitas ser ingeniero de seguridad para que esto te importe.
Cada correo que recibes, cada aplicación que usas, cada sistema con el que interactúas en tu trabajo podría estar en el centro de esta batalla. Y las consecuencias de que el lado equivocado gane no son abstractas: son datos robados, operaciones paralizadas, dinero perdido, confianza destruida.
Lo que sí podemos hacer — todos, no solo los especialistas — es entender que el panorama cambió. Que las amenazas de hoy no se parecen a las de hace cinco años. Que un correo bien redactado no es garantía de que sea legítimo. Que la seguridad ya no es un problema técnico que alguien más resuelve: es una responsabilidad compartida.
La carrera no tiene línea de llegada
En una guerra convencional, eventualmente alguien gana. Hay un tratado, hay un final.
Esta carrera no funciona así.
Cada nueva herramienta de defensa inspira una nueva técnica de ataque. Cada vulnerabilidad parcheada revela otra. Los modelos de IA se vuelven más poderosos, y con ellos, tanto la capacidad de proteger como la de dañar.
Lo que sí tenemos claro es esto: ignorar la carrera no es una opción. El campo de batalla ya existe, quieras participar o no.
La pregunta no es si la IA va a transformar la ciberseguridad. Ya lo hizo.
La pregunta es si vamos a estar preparados para lo que viene después.
Referencias
Reporte especial de IA (marzo 2026): Mandiant publicó un reporte especial donde documenta que los actores de amenaza están evolucionando más allá de las ganancias de productividad simples, hacia el despliegue de malware adaptativo que ofusca su código dinámicamente para evadir detección. Google Cloud 👉 URL: https://cloud.google.com/security/resources/ai-risk-and-resilience
Reporte técnico de GTIG (noviembre 2025): Por primera vez, GTIG identificó familias de malware como PROMPTFLUX y PROMPTSTEAL que usan Modelos de Lenguaje durante su ejecución. Google Cloud 👉 URL: https://cloud.google.com/blog/topics/threat-intelligence/threat-actor-usage-of-ai-tools
Reporte técnico: Google Cloud Security observó en la segunda mitad de 2025 que la ventana entre la divulgación de una vulnerabilidad y su explotación activa colapsó de semanas a tan solo días, acelerada por actores de amenazas que usan IA para identificar aplicaciones sin parches. Google Cloud URL: https://cloud.google.com/blog/products/identity-security/cloud-ciso-perspectives-new-threat-horizons-report-highlights-current-cloud-threats
Video noticiario: Video de Sky News analiza el conflicto entre la empresa de inteligencia artificial Anthropic y el gobierno de los Estados Unidos.👉 https://www.youtube.com/watch?v=bkeXb1o7-qw
