En el incesante juego del gato y el ratón de la ciberseguridad, ha llegado un nuevo actor que ha cambiado las reglas: la inteligencia artificial (IA). Durante años, hemos anunciado la IA como una herramienta revolucionaria de defensa, capaz de identificar amenazas a velocidad ultrarrápida. ¿Hará la IA más inteligentes a los hackers? La respuesta más sencilla es un rotundo e inquietante “posiblemente”. Pero no se trata solo de si los hará más inteligentes, sino también más rápidos, más eficaces y peligrosamente escalables.

Este artículo se adentra en el inquietante mundo del hackeo con inteligencia artificial, analiza con precisión cómo los ciberdelincuentes aprovechan la IA para sus fines, la nueva generación de ciberataques que se avecinan y qué debemos hacer para prepararnos ante este cambio en la seguridad digital.

¿Qué son los ataques con IA?

La “ciberdelincuencia basada en IA” abarca cualquier actividad delictiva que tiene lugar en el espacio digital y en la que los atacantes utilizan la inteligencia artificial, incluidos el aprendizaje automático, los grandes modelos de lenguaje (LLM) y la automatización, para planificar, ejecutar o mejorar sus operaciones.

Las amenazas que la IA hace posibles no son un peligro aislado, sino más bien un amplio abanico de desafíos. Por un lado, están los ataques automatizados de gran volumen mejorados con IA, como las campañas de phishing hiperrealistas, que pueden engañar incluso a la mirada más perspicaz. En el otro extremo, tenemos operaciones más sofisticadas y muy selectivas. Ya no se basan en conceptos remotos sacados de películas de ciencia ficción; son métodos que se están desarrollando e implementando en este mismo momento. Para construir una defensa estratificada, inteligente y verdaderamente integral de nuestra vida digital, es fundamental reconocer el espectro completo de actividades de hackeo impulsadas con IA.

Cómo aprovechan la IA los atacantes

La inteligencia artificial actúa como un poderoso multiplicador de fuerzas que ayuda a los ciberdelincuentes sea cual sea su nivel de competencia. Para los novatos, la IA reduce drásticamente la barrera de entrada, ya que les permite recurrir a herramientas de IA maliciosas disponibles en la dark web y fáciles de usar, como WormGPT, para usar funciones sofisticadas. Gracias a que tienen acceso a estas herramientas, pueden crear malware o elaborar convincentes emails de phishing, tareas que antes exigían importantes conocimientos técnicos.

Para los grupos de hackers de élite patrocinados por Estados, la IA automatiza las fases más laboriosas y lentas del ataque, como el reconocimiento y el análisis de vulnerabilidades. De este modo, los expertos humanos quedan libres para concentrarse en lo que mejor saben hacer: desarrollar creativas estrategias de infiltración y atacar a objetivos complejos y de gran valor.

El impacto de la IA en la ciberseguridad

Veamos estas estadísticas:

  • En 2024, Thomson Reuters calculó que el coste medio de una filtración de datos por organización sumaba 4,88 millones de dólares. Algunas empresas están contraatacando utilizando seguridad asistida por IA.
  • El informe 2025 AI Threat Report de KELA indica un aumento del 200 % en las menciones de herramientas de IA maliciosas en foros de ciberdelincuencia.

Estas cifras ilustran una situación que no alberga dudas: la IA está transformando rápidamente el panorama de las ciberamenazas. El coste medio por filtración de datos (4,88 millones de dólares) es impresionante y subraya las graves consecuencias económicas que tiene un ataque que consigue su objetivo. El aumento del 200 % de los debates sobre herramientas maliciosas de IA en la dark web demuestra que los delincuentes están adoptando y perfeccionando activamente estas tecnologías.

Además, asistimos al auge de las plataformas de malware como servicio y fraude como servicio, que usan los desarrolladores de la dark web para crear, agrupar y vender herramientas basadas en IA, como WormGPT y FraudGPT. Estos LLM se entrenan con datos ilícitos, desprovistos de medidas de protección éticas, para ayudar a los aspirantes a delincuentes a escribir código malicioso, elaborar emails fraudulentos convincentes y encontrar vulnerabilidades explotables.

Estas tendencias confirman que la carrera armamentística de la IA está muy avanzada, por lo que es más indispensable que nunca contar con una protección robusta impulsada por IA.

¿Hace la IA más inteligentes a los hackers?

La verdad es que, aunque la IA brinda a los hackers la capacidad de ampliar su público objetivo, producir mensajes fraudulentos a gran escala o acelerar su distribución no necesariamente aumenta su inteligencia ni su creatividad. Sin embargo, la IA actúa como un multiplicador de fuerzas sin precedentes y amplía sus competencias fundamentalmente de tres formas.

Mayor escala y velocidad

Un hacker humano, por brillante que sea, sigue estando limitado por el tiempo. Solo puede analizar un sistema, escribir un fragmento de código o redactar un email a la vez. La IA elimina esta limitación, ya que permite a los hackers analizar simultáneamente miles de redes, generar un millón de emails de phishing diferentes en una hora y probar miles de millones de combinaciones de contraseñas durante la noche. La genialidad del ataque se basa en la capacidad de la IA para procesar información y ejecutar tareas a una escala y con una velocidad que sencillamente no están al alcance de las facultades humanas.

Reducción de la barrera de entrada

Antes, para lanzar un ciberataque sofisticado hacían falta profundos conocimientos técnicos en programación, redes y sistemas de seguridad. La IA ha derribado esta barrera natural. Con herramientas como WormGPT, ahora un estafador aficionado con muy pocos conocimientos de codificación puede generar malware funcional o crear un deepfake de voz clonada con una sencilla aplicación. En este sentido, gracias a la IA, los atacantes potenciales son mucho más capaces y peligrosos.

La automatización libera la creatividad

La mayor ventaja de la IA es la automatización, que libera a los hackers de las tediosas tareas de reconocimiento y acceso inicial. Los hackers ya no tienen que pasar semanas buscando una vía de acceso; la IA hace se encarga del trabajo rutinario, localiza los puntos débiles del sistema y aprovecha el código existente para construir una estructura funcional y maliciosa sin intervención humana directa. Esto permite a los hackers humanos centrarse en navegar por complejas redes internas, desactivar sofisticados sistemas de seguridad e idear métodos novedosos para lograr su objetivo final.

Características principales de los ataques con IA

Los ciberataques basados en IA reúnen varias características que los diferencian de los métodos tradicionales impulsados por humanos. Estas son algunas:

  • Hiperautomatización: a diferencia de la ciberdelincuencia tradicional, que suele basarse en código escrito manualmente y planes dirigidos por humanos, la ciberdelincuencia basada en IA utiliza el aprendizaje automático, los LLM y la automatización para planificar, ejecutar o mejorar sus operaciones. Estas herramientas ejecutan tareas 24/7 a una velocidad imposible para los seres humanos.
  • Gran volumen: en un ataque tradicional, un ciberdelincuente puede pasar horas elaborando un email de phishing o días buscando vulnerabilidades. En los ataques impulsados por IA, un modelo de aprendizaje automático puede generar miles o millones de emails de phishing realistas y personalizados en cuestión de segundos o recorrer redes en busca de fallos de seguridad a una velocidad y con un volumen sin precedentes.
  • Adaptabilidad: a diferencia del malware tradicional, que sigue un guion fijo, las amenazas impulsadas por IA pueden aprender y adaptarse. Un ataque dirigido por IA puede analizar las defensas de seguridad de un sistema y, a continuación, modificar su propio código o comportamiento en tiempo real para encontrar una forma de burlarlas.
  • Clandestinidad: al automatizar las tareas e imitar el comportamiento humano con increíble precisión, estos ataques a menudo pueden pasar desapercibidos para los sistemas de seguridad convencionales que buscan amenazas conocidas y estáticas. Por ello, son extraordinariamente difíciles de detectar y bloquear con los métodos convencionales.
  • Enorme personalización: la IA ha transformado la ingeniería social extrayendo datos de las redes sociales y otras fuentes públicas para luego elaborar emails y SMS de phishing muy personalizados, o bien deepfakes de audio increíblemente convincentes. Estos mensajes mencionan detalles concretos de la vida o el trabajo de una persona para generar confianza.

La IA amplifica los ciberataques

Con estas características, la IA mejora todas las fases del ciclo de vida de los ataques, desde el reconocimiento hasta la ejecución y la evasión. Para comprender realmente el impacto de la IA en la ciberdelincuencia, veamos cómo los hackers adaptan la IA a sus fines malintencionados.

Descubrimiento y aprovechamiento automatizados de vulnerabilidades

Mediante algunas técnicas, la IA acelera drásticamente la laboriosa tarea del hacker de encontrar una grieta en la armadura de su víctima. Algunos de estos métodos incluyen:

  • Fuzzing potenciado por IA: en este caso, se introducen datos aleatorios o semialeatorios en un programa para ver si se bloquea o se comporta de forma inesperada, lo que revela posibles vulnerabilidades. Si es así, la IA genera entradas más eficaces para encontrar fallos ocultos con mayor rapidez que los métodos tradicionales.
  • Análisis de código a gran escala: un hacker puede utilizar la IA para analizar en cuestión de minutos todo el código fuente de una aplicación y sacar a la luz puntos débiles que un analista humano tardaría días o semanas en encontrar.

Ingeniería social hiperpersonalizada

El peligro más inmediato de la IA en cuanto a hackeo reside en su capacidad para sacar partido de la confianza humana. La ingeniería social impulsada por IA se ha adentrado en un nuevo reino de hiperpersonalización y engaño que se basa en estudiar las publicaciones en redes sociales, el historial profesional y la actividad online de la víctima, para luego redactar emails de phishing cuyo contexto no permite distinguirlos de comunicaciones legítimas.

Malware basado en IA y código evasivo

El software antivirus y los sistemas de seguridad funcionan principalmente identificando patrones de código malicioso o malware llamados firmas. Gracias a la IA, el malware puede ser polimórfico, lo que significa que puede cambiar su código con cada nueva infección utilizando una clave de cifrado variable para eludir la detección basada en firmas. El malware metamórfico es aún más avanzado, ya que reescribe por completo su lógica subyacente al tiempo que conserva su función maliciosa. Hay soluciones como las de McAfee que se centran en identificar comportamientos sospechosos, en lugar de limitarse a buscar una firma conocida, lo que supone una contramedida necesaria frente a estas amenazas en evolución.

Hackeo mediante deepfakes creados con IA

El hackeo que usa deepfakes creados con IA consiste en el uso malicioso de la inteligencia artificial para generar contenido de audio y vídeo muy realista, aunque falso. Estos medios sintéticos pueden suplantar a personas de forma convincente, manipulando su voz y su aspecto para difundir información errónea, cometer robos de identidad o fraudes, o socavar la confianza.

Relacionado: How to Spot a Deepfake on Social Media (Cómo detectar un deepfake en las redes sociales)

Clonación de voz para estafas de vishing y suplantación de identidad

Uno de los usos más alarmantes de la IA es la clonación de voz o phishing de voz, también llamado vishing. Con solo unos segundos de audio de una persona, a menudo extraído de vídeos de redes sociales o mensajes de voz públicos, la IA puede crear un clon muy realista de su voz. En el mundo empresarial, el estafador puede incluso utilizar un breve fragmento de sonido de una entrevista del director general para clonar su voz y después utilizar el audio falso para dar instrucciones al departamento financiero para que lleven a cabo una transferencia bancaria fraudulenta.

Contraseñas descifradas a velocidades sin precedentes

Analizando enormes conjuntos de datos de contraseñas filtradas, los modelos de IA pueden aprender los patrones, sustituciones y estructuras que suelen utilizar las personas al crear contraseñas. En lugar de probar con aaaa y aaab, un cracker basado en IA podría empezar por Contraseña2024! o Invierno!23 y aprender del contexto y la psicología humana. Así se reduce drásticamente el tiempo necesario para comprometer una cuenta.

Relacionado: Weak Passwords Can Cost You Everything (Si usas contraseñas débiles lo arriesgas todo)

Ataques de fuerza bruta

En los ataques de fuerza bruta tradicionales, el hacker prueba múltiples combinaciones de nombres de usuario y contraseñas hasta dar con la correcta. Con la IA, el aprendizaje automático optimiza considerablemente la tarea de adivinar credenciales, ya que idea millones, o más bien miles de millones de combinaciones por segundo para introducir sistemáticamente nombres de usuario y contraseñas hasta conseguir acceder a un sistema.

Descifrado de CAPTCHA

El descifrado de CAPTCHA con IA utiliza una solución automatizada de aprendizaje profundo o basada en algoritmos para eludir las pruebas CAPTCHA, diseñadas para distinguir a los humanos de los bots. Esto plantea un problema de seguridad cada vez mayor, ya que los modelos de IA son cada vez más eficaces para resolver incluso CAPTCHAS visuales o de audio complejos.

Ataques de IA adversarial

Este método consiste en que los hackers atacan los sistemas de IA a los que las organizaciones confían su seguridad. Dos formas habituales de hacerlo son:

  • “Envenenamiento” del modelo: consiste en corromper sutilmente los datos utilizados para entrenar el modelo de IA de una empresa. Por ejemplo, un hacker podría alimentar un sistema de seguridad de reconocimiento facial con miles de imágenes mal etiquetadas de la cara de alguien. Así, esa persona podría pasar por delante de las cámaras sin ser detectada. Del mismo modo, podrían “envenenar” los datos de entrenamiento de un filtro de spam para asegurarse de que sus emails de phishing se marquen siempre como seguros.
  • Ataques de evasión: los hackers intentan manipular un modelo de IA realizando a una imagen modificaciones mínimas, casi imperceptibles, para que la IA identifique erróneamente, por ejemplo, una señal de Stop como una de límite de velocidad, una perspectiva aterradora para los vehículos autónomos. En ciberseguridad, esto podría alterar un malware para que fuera invisible ante un sistema de detección de amenazas impulsado por IA.

Enjambres de ataque autónomos

Los agentes de hackeo autónomos, a veces llamados enjambres de IA, son sistemas inteligentes que pueden llevar a cabo toda una campaña de ciberataques sin intervención humana directa. Se programa un agente con un objetivo, por ejemplo, robar datos de clientes de la empresa X, y este ejecutará de forma independiente en cuestión de minutos, durante 24 horas al día, 7 días a la semana la cadena de ataque (kill chain): reconocimiento, identificación de vulnerabilidades, ejecución de la intrusión y extracción de los datos. El sistema solo avisa al hacker humano una vez cumplido el objetivo.

Relacionado: ChatGPT: la nueva herramienta de los estafadores

Cómo afrontar el nuevo panorama de amenazas

El conflicto entre la IA maliciosa y la defensiva ha desencadenado una nueva carrera armamentística tecnológica en el mundo de la ciberseguridad. Mientras los hackers utilizan la IA para crear ataques más evasivos y escalables, los defensores de la seguridad mundial también aprovechan la IA para crear sistemas de seguridad más inteligentes, rápidos y predictivos.

La rápida evolución del hackeo basado en inteligencia artificial puede parecer desalentadora, pero no estás indefenso. Eres un participante activo y fundamental de tu propia seguridad digital. Simplemente te hace falta un enfoque más inteligente y moderno de la seguridad. Si tienes una visión completa de la situación y conoces los métodos basados en IA que emplean los hackers, sentarás las bases de las estrategias defensivas que pueden mantenerte seguro.

Piensa que tu sensibilización es un potente sensor que la IA no puede replicar. Cada vez que te paras a cuestionar un email sospechoso o a verificar una petición urgente, estás jugando un papel vital. Como aliado, McAfee te proporciona las herramientas y los conocimientos que necesitas. Con tu intuición basada en la información y nuestra tecnología inteligente, podemos crear una excelente defensa para que disfrutes con tranquilidad del mundo digital.

Pasos prácticos para mitigar los ciberataques con IA

  • Protege los inicios de sesión: utiliza un gestor de contraseñas para crear y almacenar contraseñas largas, únicas y complejas para cada cuenta. Y lo que es más importante, siempre que sea posible activa la autenticación multifactor (MFA) que es una poderosa barrera contra las intrusiones.
  • Analiza detenidamente las comunicaciones: supervisa especialmente los emails, SMS y llamadas de voz que generan sensación de urgencia. Antes de actuar, verifica las solicitudes inesperadas a través de un canal independiente y de confianza.
  • Mantenlo todo al día: actualiza regularmente el sistema operativo, el navegador web y las aplicaciones. Estas actualizaciones suelen contener parches de seguridad críticos que cierran las vulnerabilidades que aprovechan los hackers.
  • Despliega defensas impulsadas por IA: la forma más eficaz de luchar contra las amenazas basadas en IA es con defensas impulsadas por IA. Utiliza una solución de seguridad integral como McAfee, que aprovecha la inteligencia artificial para detectar y bloquear ataques sofisticados en tiempo real.

La dualidad de la IA: espada y escudo

En el mundo de la ciberseguridad, la inteligencia artificial es verdaderamente un arma de doble filo. Las mismas ventajas que la convierten en un arma potente para los hackers, como su velocidad sin precedentes, el reconocimiento de patrones y la automatización, también la hacen nuestro escudo más valioso. Un modelo de IA que puede entrenarse para escribir un email de phishing convincente también puede entrenarse para reconocer los sutiles patrones lingüísticos de un mensaje. Una IA capaz de encontrar y explotar una vulnerabilidad también puede utilizarse para corregir y proteger esas mismas vulnerabilidades.

De cara al futuro, la IA en la ciberdelincuencia tendrá mayor autonomía y accesibilidad. Prepárate para ver más enjambres de ataques autónomos, en los que varios agentes de IA trabajan juntos para ejecutar una filtración, sin intervención humana. Además, proseguirá la comercialización de herramientas de hackeo con IA en la dark web, lo que pondrá sofisticadas capacidades de ataque a disposición de más delincuentes.

Sin embargo, el porvenir no es del todo sombrío. La IA defensiva evoluciona con la misma rapidez. A medida que los atacantes son más inteligentes, también lo son nuestras protecciones, y hay empresas como McAfee que están a la vanguardia del desarrollo de la nueva generación de seguridad impulsada por IA para neutralizar estas futuras amenazas.

Conclusiones

La era del hackeo con inteligencia artificial no se vislumbra en el horizonte: ya está aquí. La IA ha otorgado a los hackers una velocidad sobrehumana, ha automatizado tareas complejas y ha reducido la barrera de entrada. Ya vemos su impacto en el aumento de phishing hiperrealista, malware adaptativo y comercialización de herramientas de IA maliciosas.

La misma IA que puede utilizarse para el ataque nos proporciona la vía de defensa más prometedora. La tecnología de IA avanzada de McAfee se basa en el aprendizaje profundo, el análisis contextual y el modelado de comportamientos, y procesa continuamente billones de señales de amenazas para ofrecer protección en tiempo real, como detección de deepfakes y fraudes, así como soluciones antivirus. Con visibilidad en los dispositivos, aplicaciones y la Web, identifica y bloquea proactivamente la actividad maliciosa antes de que pueda causar daños. Ya se trate de detener intentos de phishing, detectar malware de día cero o identificar comportamientos inusuales, la IA avanzada de McAfee está diseñada para adelantarse a los ciberdelincuentes y garantizar tu seguridad en todos los puntos de contacto digitales.

Si te mantienes informado, fomentas una cultura de concienciación sobre la ciberseguridad e inviertes en herramientas de seguridad de última generación impulsadas por IA, tendrás capacidad para enfrentarte a los riesgos potenciales y a la desinformación.