Presentamos la segunda parte de este informe que supone un cambio de fase en la cibercriminalidad orientada al sector sanitario, con la adopción de IA generativa y técnicas de “deepfake”. Incluimos también el informe completo descargable como recurso.
En esta segunda parte, continuando lo ya expuesto anteriormente y continuando el esquema, se tratarán los siguientes puntos a partir del 2.4:
Habilidades ofensivas potenciadas con Inteligencia Artificial y Tipología operativa del Deepfake en el entorno sanitario:
–Deepfakes de texto: LLMs para spear-phishing, helpdesk y BEC
–Modalidades combinadas: Campañas multicanal
Victimología:
–Profesionales sanitarios, Infraestructura, Pacientes, Proveedores
Finalidad Criminal :
–Extorsión / ransomware, Fraude, ingeniería social para credenciales, Daño reputacional / coacción

2.4. Deepfakes de texto: LLMs para spear-phishing, helpdesk y BEC
En este vector, el atacante no necesita crear desde cero ya que puede apoyarse en herramientas LLM listas para uso interactivo en tiempo real (p. ej., chatbots/agentes configurables tipo GPTs en ChatGPT o Gems en Gemini) y también en modelos locales desplegables en equipos propios para automatizar y escalar la redacción y adaptación de mensajes según objetivo y contexto [NIST, 2025;C2PA, s.f.;NIST,2024]. Además, los flujos basados en agentes con herramientas (p. ej., tool/function calling) permiten integrar el LLM con fuentes internas/externas (plantillas, directorios, tickets, OSINT) para generar comunicaciones aún más coherentes con procesos y lenguaje corporativo [Reality Defender, 2025].
Uso de modelos de lenguaje para generar mensajes altamente plausibles, coherentes con jerga sanitaria y con contexto organizativo (roles, procesos, urgencias), destinados a engaño.
El uso de modelos de lenguaje como instrumento delictivo actúa como un multiplicador porque eleva de forma sustancial la calidad persuasiva del texto y reduce la presencia de señales clásicas de phishing. Al generar mensajes coherentes, con buen estilo y sin errores evidentes, el atacante pierde menos credibilidad en los primeros segundos de lectura, que suelen ser decisivos para que el destinatario active o no una verificación adicional. Además, los LLMs facilitan la personalización contextual ya que permiten redactar comunicaciones que encajan con procedimientos internos y rutinas operativas del entorno salud (por ejemplo, solicitudes de reset de credenciales, avisos de cambio de guardia, comunicaciones sobre incidencias de laboratorio o urgencias vinculadas a un proveedor crítico), incrementando el realismo situacional y, por tanto, la probabilidad de cumplimiento.
Esta capacidad de generar engaños contextualmente precisos se apoya en un proceso de ingeniería de prompts y orquestación de sistemas que consta de varias capas. En un nivel básico, el atacante utiliza técnicas de in-context learning, proporcionando al LLM ejemplos de comunicaciones sanitarias reales (filtradas o generadas sintéticamente) para que el modelo aprenda el registro lingüístico, la jerga clínica y las fórmulas de cortesía o urgencia propias del sector. Por ejemplo, un prompt bien construido podría incluir varias facturas reales de un proveedor y la instrucción: «Genera una factura urgente similar, pero cambiando el número de cuenta por el controlado por el atacante y añadiendo una nota sobre un retraso en el envío de material sensible».

En un nivel más avanzado, la integración con sistemas mediante function calling o APIs permite una personalización dinámica y a escala. El LLM no solo redacta, sino que puede actuar como un agente que consulta fuentes de datos en tiempo real para rellenar los huecos de la estafa con información veraz. Un flujo de ataque típico que podría darse: 1) El agente consulta un directorio LDAP filtrado o de fuentes OSINT para obtener el nombre del director de farmacia y su correo. 2) Accede a un ticket de helpdesk real (o a un patrón aprendido) sobre una incidencia con un lote de medicamentos. 3) Con esos datos, redacta un correo al jefe de compras suplantando al director de farmacia, haciendo referencia a la incidencia real (el ticket) y solicitando una transferencia urgente a un nuevo proveedor (controlado por el atacante) para solucionar el desabastecimiento. La coherencia no es solo textual, sino procedimental: el mensaje encaja en un flujo de trabajo real porque el LLM ha sido alimentado con los elementos correctos de ese flujo.
Finalmente, la iteración y el refinamiento automáticos juegan un papel crucial. Los atacantes pueden usar el propio LLM como crítico, empleando un segundo modelo o una segunda pasada del mismo para evaluar el mensaje generado y preguntar: ¿Es este correo lo suficientemente convincente para un médico con poco tiempo? ¿Qué señales de alerta podría tener?. De esta forma, el mensaje se pule automáticamente para eliminar cualquier ambigüedad o elemento que pueda levantar sospechas, maximizando así la probabilidad de éxito del fraude.
2.5. Modalidad combinada: campañas multicanal como patrón dominante
En ataques complejos, el patrón más realista no es un deepfake aislado, sino una campaña multicanal que encadena modalidades para construir credibilidad por capas: un correo impecable (texto) con un documento justificativo (imagen/documento), seguido de una llamada (audio) y, si hace falta, una videollamada (vídeo). Este encadenamiento reduce fricción psicológica (“ya he visto el email”, “ya hay un documento”, “ahora me lo confirma por teléfono”) y complica la respuesta si la organización no tiene verificación de origen y autenticación de identidad out-of-band (por ejemplo, callback a número conocido o validación en un canal corporativo alternativo).
Cadena típica (kill chain social)
– Preparación: recopilación de contexto (roles, organigrama, proveedores, lenguaje interno) y construcción del pretexto.
– Entrada por texto: email/chat con tono perfecto y detalles operativos.
– Refuerzo con “prueba”: adjunto o documento (política, incidencia, pedido, “autorización”, captura).
– Escalada por voz: llamada para presionar, resolver “dudas” y forzar excepción (reset MFA, transferencia, cambio administrativo).
– Cierre por vídeo: reunión breve para “confirmar identidad/urgencia” cuando el objetivo pide garantías.

Casos reales donde la IA actúa como un factor central:
1) Vishing y presión a helpdesks en salud (reset de credenciales / re-enrolamiento MFA).
Alertas del HHS (HC3) describen campañas de ingeniería social avanzada contra IT help desks del sector sanitario, con llamadas (vishing) orientadas a conseguir resets de contraseña y/o reinicio o re-enrolamiento de MFA, a veces abusando de relaciones de confianza con soporte subcontratado. El patrón encaja con el “multicanal” ya que el atacante suele sostener el pretexto con contexto organizativo y continuidad entre canales.
2) Fraude corporativo con voz deepfake (precedente operativo desde 2019).
Un caso ampliamente citado documentó una transferencia tras una llamada con voz clonada suplantando a un directivo (orden urgente y verosímil), mostrando cómo la síntesis de voz puede reemplazar, o reforzar, el clásico BEC. Aunque no sea salud, el TTP (instrucción urgente + canal de voz convincente + presión temporal) es directamente trasladable a entornos hospitalarios y finanzas sanitarias.
3) Deepfake en videoconferencia con pérdidas millonarias (Hong Kong/Arup, 2024).
En 2024 se hizo público un fraude en el que una persona fue inducida a transferir grandes cantidades tras participar en una videoconferencia donde los supuestos “colegas/directivos” eran deepfakes (imagen y voz), elevando el nivel de persuasión y cerrando el ciclo multicanal. Es un ejemplo claro de por qué “ver una cara” ya no garantiza identidad [World Economic Forum (2025)].
4) Campañas multimodales con mensajería + reunión corporativa (WPP, 2024).
También se documentó un intento dirigido contra el CEO de WPP [The Guardian (2024)] que combinó WhatsApp (suplantación con imagen) y una reunión en Microsoft Teams con elementos de clonación/impersonación para empujar a acciones sensibles. Este caso ilustra la tendencia a mezclar chat + vídeo + pretexto empresarial como paquete único.
En conjunto, informes recientes [Microsoft (2025), Europol (2024), FBI (2024)] (industria y sector público) sitúan estas campañas como una evolución natural de la ingeniería social, lo que deriva en más personalización, mejor calidad del señuelo y más “salto” entre canales para superar controles humanos y procedimentales.
| Estudio | Descripción | Fuente |
| 1. Deepfake Vishing Incidents Surge by 170% in Q2 2025 | Reporte de CyberCheck Labs que documenta un aumento del 170% en ataques de vishing potenciados por deepfakes en 2025. Se destaca el uso de voces clonadas para suplantar a ejecutivos y personal médico en llamadas a helpdesks y centros de atención. | daily security review |
| 2. AI Deepfake Threats: Voice Cloning & Video Attacks | Análisis técnico de cómo los atacantes usan modelos neuronales para clonar voces con solo unos segundos de audio. Se describe cómo estas técnicas se han usado para suplantar a figuras públicas y personal sanitario en contextos de fraude y acceso no autorizado. | clarity-sec |
| 3. Case Study: Anatomy of a Deepfake Social Engineering Attack | Estudio de caso detallado sobre cómo se utilizó voz sintética para ejecutar un fraude financiero en una institución. Aunque centrado en banca, el patrón es extrapolable a hospitales: uso de IA para suplantar a un directivo y autorizar una transferencia. | reality defender |
| 4. Common Examples of Voice Deepfake Attacks – Pindrop | Revisión de ataques reales con voz clonada, incluyendo su uso en ingeniería social, fraude financiero y suplantación de identidad. Se destaca el crecimiento del fraude en centros de contacto, con un aumento del 40% en 2022. | pindrop |
| 5. AI-Generated Voice Deepfakes: How They’re Being Used | Informe que revela que el 49% de las empresas encuestadas en 2024 experimentaron fraudes con deepfakes de voz o vídeo. Se citan casos donde se usaron voces clonadas para autorizar pagos, acceder a cuentas o manipular procesos internos. | resemble |
3. Victimología
La victimología en los ataques apoyados en IA generativa contra el sector salud debe leerse con la misma lógica que la ciberperfilación [Damiani, 2019]. No se trata solo de enumerar “quién resulta perjudicado”, sino de reconstruir cómo el agresor selecciona y explota perfiles dentro de un ecosistema organizativo. Igual que al perfilar actores persistentes (APT o crimen organizado) analizamos objetivos, TTPs y condiciones de oportunidad , en victimología se analiza el reverso del mismo proceso: qué roles son más rentables para el atacante por su exposición, autoridad, privilegios y, sobre todo, por su capacidad de activar procesos críticos (restablecimientos de acceso, validación de instrucciones, autorizaciones, pagos, intercambio de información, etc.). La víctima, por tanto, no se elige únicamente por vulnerabilidad individual, sino por su posición funcional en la cadena de decisión y por la fricción, o ausencia de ella, en los mecanismos de verificación.

Desde esta perspectiva, la victimología actúa como un mapa de exposición y privilegios, pero también como un mapa de rutas de ataque. En salud, la urgencia asistencial, la presión operativa y la alta interdependencia entre equipos y terceros convierten la manipulación de la confianza en un recurso especialmente rentable: basta con inducir un atajo procedimental o aprovechar una excepción “por continuidad del servicio” para transformar una interacción aparentemente legítima en un acceso, una autorización o una acción con impacto. Por eso ciertos colectivos aparecen de forma recurrente como blancos donde cada uno aporta un tipo distinto de ventaja al agresor, ya sea legitimidad (suplantar a un facultativo o gestor), privilegio (cuentas con acceso amplio), información sensible (datos clínicos y operativos), palanca reputacional (coacción) o acceso indirecto (terceros y supply chain).
Entendida así, la victimología conecta directamente con la ciberperfilación y es que actor y víctima forman una pareja situacional. Los patrones del atacante (persistencia, monetización, espionaje, doble extorsión, acceso inicial) encuentran su correspondencia en perfiles victimizables que maximizan probabilidad de éxito con mínimo coste y riesgo. De ahí que sea útil segmentar los blancos en grupos como profesionales sanitarios, infraestructura de identidad y soporte (helpdesk/IAM/MFA), pacientes y proveedores asumiendo que las campañas más eficaces combinan varios eslabones en cadena. En términos criminológicos y operativos, esto permite pasar de la mera descripción técnica del deepfake a un análisis explicativo: cómo se selecciona la víctima, qué elementos de su contexto se explotan y qué fallos de verificación se inducen para materializar el daño.
3.1 Profesionales sanitarios (suplantación de médico/gestor)
Constituyen un objetivo prioritario porque su identidad es “operativamente valiosa”. Un médico, supervisor o gestor clínico suele disponer de legitimidad contextual para solicitar accesos, cambios de prioridad, autorizaciones excepcionales o información sensible, especialmente en situaciones de guardia o incidencia. La IA generativa permite explotar esa legitimidad mediante suplantación en audio, vídeo o texto, reduciendo la fricción psicológica del engaño (“parece él/ella”, “habla como siempre”, “conoce el procedimiento”) y maximizando la obediencia por autoridad. Además, estos perfiles suelen estar expuestos públicamente por razones profesionales (ponencias, entrevistas, redes, publicaciones), lo que incrementa la disponibilidad de material para clonación de voz o construcción de pretextos creíbles.
3.2 Infraestructura (helpdesk, IAM, MFA, procesos de autorización)
Representa un blanco crítico porque actúa como “punto de apoyo” para comprometer al resto del ecosistema. En particular, helpdesk, IAM, MFA y los procesos de autorización concentran decisiones de alto impacto: un restablecimiento de credenciales, un cambio de permisos o una excepción procedimental pueden abrir la puerta a historias clínicas, sistemas de laboratorio, correo corporativo y aplicaciones de negocio. En este ámbito, la victimización se centra menos en individuos concretos y más en la explotación de flujos de trabajo como puedan ser atacantes que fuerzan atajos, inducen verificación insuficiente o manipulan escalados, apoyándose en deepfakes o mensajes generados para simular legitimidad y urgencia.

3.3 Pacientes (desinformación/estafa, coerción)
Por su parte, son también víctimas tanto directas como instrumentales. En el plano directo, pueden ser objeto de estafas y desinformación mediante suplantación de profesionales o centros, con impactos que van desde pérdidas económicas hasta decisiones perjudiciales para la salud. En el plano instrumental, el paciente puede convertirse en vehículo del ataque donde un atacante puede utilizar su identidad o su situación clínica como pretexto para presionar a personal administrativo o clínico, o para justificar solicitudes urgentes. Asimismo, en esquemas de coerción o extorsión, los pacientes son especialmente vulnerables al uso de contenidos sintéticos que explotan miedo, vergüenza o sensibilidad de datos, amplificando el daño percibido y la probabilidad de pago.
3.4 Proveedores (terceros, supply chain)
Los proveedores y terceros (laboratorios, servicios externalizados, mantenimiento, software sanitario, call centers, logística o facturación) representan un frente de victimización estructural asociado a la cadena de suministro. El sector salud depende intensamente de terceros, y esa dependencia genera superficies de ataque: canales de comunicación interorganizacionales, accesos remotos, integraciones, cuentas compartidas, urgencias de servicio y presión contractual. La IA generativa facilita aquí el fraude por suplantación (órdenes de compra, cambios de IBAN, incidencias críticas), pero también habilita intrusiones indirectas, donde el atacante compromete primero a un proveedor con controles más débiles para pivotar hacia el hospital o clínica objetivo. Por ello, en tu redacción conviene tratar al proveedor no solo como víctima, sino como eslabón potencial de propagación y como actor clave en estrategias de mitigación.

4. Finalidad criminal
En el marco de los ciberdelitos contra el sector salud apoyados en IA generativa, la finalidad criminal no es un simple “motivo” añadido a posteriori, sino la variable que organiza todo el evento delictivo: qué modalidad de contenido sintético se selecciona (audio, vídeo, documento o texto), a qué perfil se ataca, por qué canal se contacta y en qué momento operativo se ejecuta. Este planteamiento encaja con la lectura criminológica de Fernando Miró Llinares sobre el cibercrimen como problema de oportunidad [Miró Llinares, 2011] quedando patente que más que una suma de “maldad + tecnología”, es la convergencia situacional de un ofensor motivado, un objetivo adecuado y un déficit de vigilancia (técnica y humana), donde en el ciberespacio la conducta y exposición de la víctima (y los mecanismos de verificación) adquieren un peso aún mayor.
En salud, esa oportunidad se intensifica por una combinación específica de una urgencia estructural, alta interdependencia, roles con privilegios elevados y una necesidad permanente de “hacer que el sistema funcione”, lo que crea excepciones, atajos y superficies de ingeniería social especialmente explotables. Además, siguiendo la lógica de la adaptación situacional [Miró Llinares, 2021], la IA generativa actúa como acelerador no inventando necesariamente finalidades nuevas, pero sí reconfigurando rápidamente guiones, suplantaciones y artefactos para encajar con el contexto organizativo y maximizar probabilidad de éxito [Miró Llinares, 2022] .
Desde esta óptica, resulta operativo agrupar estas campañas en cuatro finalidades dominantes como son la extorsión (ransomware y doble extorsión), el fraude económico-administrativo, el acceso inicial y el daño reputacional/coacción [Diel et al. (2025)], siendo recomendable al mismo tiempo vincularlas desde el inicio con una ciberperfilación básica de actores persistentes. En sanidad conviven, al menos, dos grandes familias: (1) actores de espionaje (APT) orientados a acceso sostenido y exfiltración (p. ej., grupos documentados por MITRE [MITRE, s.f.] como Orangeworm, históricamente focalizado en organizaciones sanitarias, o APT41, que ha sido observado atacando múltiples sectores incluido healthcare), y (2) ecosistemas criminales (ransomware/“big game hunting”, brokers de acceso inicial) cuyo objetivo es monetización rápida mediante interrupción y/o robo de datos, con abundante casuística y alertas públicas sobre su impacto en el sector.
4.1 Extorsión / ransomware / doble extorsión
Persigue maximizar el refuerzo sobre la organización mediante la amenaza de no disponibilidad operativa y/o exposición pública de información sensible. En salud, ese soporte es estructural ya que una interrupción puede comprometer continuidad asistencial (urgencias, laboratorio, farmacia, programación y listas de espera) y la sensibilidad del dato clínico eleva el impacto reputacional y regulatorio, incrementando el “coste percibido” de resistir la extorsión. Este patrón se refleja en análisis empíricos de incidentes y brechas, donde el ransomware y la extorsión asociada a robo de datos aparecen de forma recurrente como vectores de alto impacto en múltiples sectores, incluido healthcare [Verizon, 2025]. La IA generativa amplifica este vector al elevar la calidad persuasiva y la personalización de las comunicaciones extorsivas y de ingeniería social contra el sector, facilitando narrativas más verosímiles y sostenidas [HHS/HC3, 2024]. En escenarios de doble extorsión, el contenido sintético puede operar como catalizador: no solo se amenaza con filtrar datos exfiltrados, sino con difundir materiales falsos plausibles atribuidos a profesionales o a la institución, elevando el daño reputacional anticipado y la presión negociadora; en paralelo, se observa la consolidación de modelos de (multi)extorsión y el uso de la exposición como palanca, incluyendo referencias a cumplimiento (p. ej., GDPR) como mecanismo adicional de presión [ENISA, 2024].
4.2 Fraude (pagos, seguros, recetas)
Engloba un espectro amplio de conductas orientadas a obtener beneficio económico o administrativo mediante engaño, especialmente en procesos donde la documentación y la apariencia de legitimidad funcionan como “llave” para activar trámites, autorizaciones y pagos. En el ámbito sanitario destacan, por un lado, los fraudes de desvío de pagos y BEC (órdenes de transferencia, cambios de IBAN, facturación y compras), donde el atacante explota cadenas de correo reales, suplantación de autoridad y pretextos operativos para alterar instrucciones de pago sin levantar sospechas [ENISA, 2024; HHS/HC3, 2024]. Este patrón se observa también en alertas sectoriales específicas, donde se documenta el uso de cuentas corporativas comprometidas para modificar instrucciones con procesadores o proveedores y redirigir fondos a cuentas fraudulentas [American Hospital Association, 2024]. En paralelo, el fraude asociado a seguros, reembolsos y documentación clínica se beneficia de la capacidad de fabricar justificantes, reclamaciones y soportes “verosímiles”, y la IA generativa reduce barreras de entrada al producir textos y documentos con alta calidad formal, consistentes con jerga y plantillas institucionales, adaptados al contexto de cada organización. El efecto práctico es un desplazamiento desde el fraude “burdo” hacia un fraude procedimental en el que las piezas que no solo buscan engañar al ojo humano, sino activar flujos internos por confianza interdepartamental y dependencia de terceros, especialmente cuando los controles se apoyan en revisión superficial o en la presunción de legitimidad del canal [ENISA, 2024]. A nivel macro, los informes anuales de denuncia e inteligencia criminal señalan a BEC como una fuente sostenida de pérdidas y como componente central de la “Financial Fraud Kill Chain”, lo que refuerza su relevancia cuando el objetivo es monetización rápida mediante manipulación de pagos y documentación [FBI IC3, 2024].
4.3 Acceso inicial (ingeniería social para credenciales/tokens)
Constituye, en muchos incidentes, el objetivo táctico que habilita daños posteriores (exfiltración, ransomware, fraude interno), porque transforma una interacción humana en una entrada “legítima” al sistema. En términos empíricos, los análisis agregados de brechas muestran que el abuso de credenciales y el phishing siguen ocupando un lugar central como vectores de acceso inicial, lo que refuerza que el “punto de fallo” suele estar en la identidad y su verificación [Verizon, 2025]. En este contexto, el atacante recurre a ingeniería social para obtener credenciales, tokens de sesión, aprobación de MFA o ejecutar acciones que permitan persistencia; desde el punto de vista táctico, esto se corresponde con patrones ampliamente documentados como el abuso de cuentas válidas (Valid Accounts) o el phishing dirigido (spearphishing) como técnicas de acceso inicial [MITRE ATT&CK, s.f.].
En salud, los procesos de helpdesk, los restablecimientos de contraseña, la gestión de identidades (IAM) y las excepciones “por urgencia” son puntos de fricción recurrentes, precisamente porque existen para garantizar continuidad operativa bajo presión. Por ello, se han publicado alertas sectoriales específicas sobre campañas de ingeniería social contra mesas de ayuda en organizaciones sanitarias, donde la suplantación y el pretexting buscan desencadenar reseteos, cambios de factores o validaciones incompletas [HHS/HC3, 2024; American Hospital Association, 2024]. La IA generativa incrementa la eficacia de esta fase al facilitar suplantaciones más creíbles y la capacidad de sostener interacciones conversacionales más complejas (correo, chat o teléfono) hasta vencer controles procedimentales, especialmente cuando el adversario combina guiones bien calibrados con información contextual previa.
El resultado típico no es un “hack” visible, sino un acceso que parece normal (por credencial válida, sesión ya aprobada o token), lo que retrasa la detección y complica la atribución si no se preservan adecuadamente registros, evidencias y trazabilidad. En esa línea, los boletines técnicos sobre credential harvesting subrayan que la obtención de credenciales suele ser el primer paso de campañas más complejas que derivan en escalado, exfiltración o disrupción, reforzando la necesidad de correlación y preservación probatoria desde el primer indicio [HHS/HC3, 2024b].
4.4 Daño reputacional / coacción
Constituyen finalidades que, aunque a veces se integran en la extorsión, merecen un tratamiento específico por su lógica criminológica, ya que el objetivo principal no es necesariamente interrumpir sistemas, sino explotar la confianza pública en la institución sanitaria y en sus profesionales como palanca de control. La literatura viene subrayando que los deepfakes facilitan estas situaciones mediante difamación, “false endorsement” y fabricación de conductas impropias, haciendo que el perjuicio puede mantenerse incluso cuando el contenido se identifica como falso, debido a la persistencia del impacto social y a la dificultad de “revertir” la primera impresión en entornos digitales [George, 2024; Nowak, 2023]. En ese marco, los contenidos sintéticos (declaraciones atribuidas a médicos o directivos, audios comprometidos, documentos que sugieren mala praxis o comunicaciones internas fabricadas) pueden operar como mecanismo de coerción forzando pagos, silencios, dimisiones o cambios de conducta mediante la amenaza de exposición y degradación reputacional [Romero Moreno, 2024; Chawki, 2026]. Desde una perspectiva organizacional, además, se ha señalado que este tipo de ataques no solo impacta a individuos, sino que erosiona la confianza en marcas e instituciones, afectando a legitimidad, credibilidad y continuidad operativa, lo que en salud adquiere un valor estratégico por su vínculo directo con la seguridad del paciente [Mustak et al., 2023]. Por lo tanto, la mitigación no puede limitarse a controles técnicos, ya que existe el deber de exigir la capacidad de aplicar protocolos de gestión de crisis, comunicación institucional y preservación de evidencia que permitan responder con rapidez y sostener una narrativa verificable apoyada en trazabilidad, autenticidad y corroboración contextual [Hoek et al., 2025; Navarro Martínez et al., 2024].
5. Conclusión
Los indicadores disponibles apuntan a una aceleración sostenida de las amenazas que combinan ingeniería social y capacidades de IA generativa. Por un lado, organismos europeos han observado incrementos en campañas de ingeniería social habilitadas por IA (incluida clonación de voz y phishing generado), lo que reduce el coste de producción y aumenta la plausibilidad del engaño. Por otro, los análisis agregados de incidentes muestran que el ransomware y la extorsión asociada (con y sin cifrado) mantienen una presencia creciente. En el sector sanitario se reporta un incremento significativo del peso del ransomware en brechas revisadas en el último ciclo anual, lo que refuerza que la extorsión y la doble extorsión siguen siendo un motor de impacto operativo y reputacional. Además, alertas sectoriales específicas en salud describen campañas dirigidas a IT help desks para obtener control de cuentas mediante tácticas avanzadas, lo que encaja con el patrón de “acceso inicial por identidad”.

En este contexto, la respuesta no puede limitarse a medidas reactivas caso a caso. Es necesario adoptar modelos de previsión (threat forecasting) que asuman que las capacidades de generación (voz, vídeo, texto y documento) seguirán mejorando y que los atacantes tenderán a explotar el eslabón donde la verificación sea más débil en casos como recuperación de cuentas, excepciones operativas, canales de soporte y procesos interorganizacionales. Aquí resulta útil articular un enfoque “de ciclo de vida” de identidad (incluida recuperación y gestión de credenciales) como superficie crítica a proteger, y no como simple trámite operativo.
Asimismo se justifica impulsar protocolos estandarizados (mínimos comunes) para el sector como pueda ser un marco homogéneo que evite respuestas dispares “por libre” entre organizaciones, hospitales, servicios regionales y proveedores. La lógica es doble: (i) reducir variabilidad en controles de identidad, evidencia y verificación (donde la IA explota la inconsistencia), y (ii) facilitar coordinación entre centros y con terceros. Este enfoque encaja con el espíritu de marcos europeos orientados a elevar un nivel común de ciberseguridad en sectores críticos, incluyendo salud, y con la necesidad de gobernanza y medidas base compartidas.
Propuestas:
– Clasificación de solicitudes (bajo/medio/alto) y step-up obligatorio en alto impacto (callback verificado + segundo factor + prohibición de excepciones no auditadas).
– Evidencia mínima y trazabilidad (logs, tickets, identidad declarada, canal, timestamps, correlación).
– Controles de procedencia para material audiovisual/documental cuando sea posible (y política explícita cuando no lo sea).
– Analítica de anomalías (picos de resets, patrones coordinados, solicitudes fuera de horario).
– Protocolos de crisis reputacional (comunicación + preservación probatoria + verificación rápida de autenticidad).
– Gestión de terceros (verificación de cambios de pago/IBAN, canales autenticados con proveedores, controles contra BEC).
REFERENCIAS
[1] NIST (2024). NIST AI 100-4 «Reducing Risks Posed by Synthetic Content». DOI: 10.6028/NIST.AI.100-4 https://doi.org/10.6028/NIST.AI.100-4
[2] HHS / HC3 (2022-08-18). «The Impact of Social Engineering on Healthcare» (TLP: WHITE). (https://www.hhs.gov/sites/default/files/the-impact-of-social-engineering-on-healthcare.pdf)
[3] American Hospital Association (2024-01-12). «Hospital IT help desks targeted by sophisticated social engineering schemes». https://www.aha.org/news/headline/2024-01-12-hospital-it-help-desks-targeted-sophisticated-social-engineering-schemes
[4] HHS / HC3 (2022-08-18). «The Impact of Social Engineering on Healthcare» (TLP: WHITE). https://www.hhs.gov/sites/default/files/the-impact-of-social-engineering-on-healthcare.pdf
[5] Wang et al. (2023). «Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers» (VALL-E). arXiv:2301.02111. https://arxiv.org/abs/2301.02111
[6] Jia et al. (2018). «Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis». arXiv:1806.04558. https://arxiv.org/abs/1806.04558
[7] Liu et al. (2022). «ASVspoof 2021: Towards Spoofed and Deepfake Speech Detection in the Wild». arXiv:2210.02437. https://arxiv.org/abs/2210.02437
[8] Rössler et al. (2019). «FaceForensics++: Learning to Detect Manipulated Facial Images». ICCV 2019. https://openaccess.thecvf.com/content_ICCV_2019/html/Rossler_FaceForensics_Learning_to_Detect_Manipulated_Facial_Images_ICCV_2019_paper.html
[9] Vahdati et al. (2024). «Beyond Deepfake Images: Detecting AI-Generated Videos». arXiv:2404.15955 (CVPRW 2024). https://arxiv.org/abs/2404.15955
[10] NIST (2025). SP 800-63-4 «Digital Identity Guidelines» (Final, July 2025). DOI: 10.6028/NIST.SP.800-63-4. https://csrc.nist.gov/pubs/sp/800/63/4/final
[11] C2PA (s.f.). “C2PA | Verifying Media Content Sources (Content Credentials)”. https://c2pa.org/
[12] NIST (2024). NIST AI 100-4 “Reducing Risks Posed by Synthetic Content”. DOI: 10.6028/NIST.AI.100-4. https://doi.org/10.6028/NIST.AI.100-4
[13] Reality Defender (2025-07-31). “Reality Defender launches free access to deepfake detection API (public developer API/SDK)”. https://www.realitydefender.com/insights/reality-defender-launches-free-access-to-deepfake-detection-api
[14] Sensity AI (s.f.). “Sensity AI: Deepfake Detection (video, image, audio)”. https://sensity.ai/
[15] Amped Software (s.f.). “Amped Authenticate | Photo, Video, and Deepfake Forensics”. https://ampedsoftware.com/authenticate
[16] Harvey, P. (s.f.). “ExifTool by Phil Harvey”. https://exiftool.org/
[17] InVID Project (s.f.). “InVID Verification Plugin”. https://www.invid-project.eu/tools-and-services/invid-verification-plugin/
[18] WeVerify (s.f.). “Deepfake Detector”. https://weverify.eu/tools/deepfake-detector/
[19] HHS (HC3) (2024). “Social Engineering Attacks Targeting IT Help Desks in the Health Sector” (Sector Alert, April 3, 2024). (https://www.hhs.gov/sites/default/files/help-desk-social-engineering-sector-alert-tlpclear.pdf)
[20] HHS (HC3) (2024). “Social Engineering Attacks Targeting the HPH Sector” (April 11, 2024). (https://www.hhs.gov/sites/default/files/social-engineering-targeting-the-hph-sector-tlpclear.pdf)
[21] Damiani, J. (2019). “A Voice Deepfake Was Used To Scam A CEO Out Of $243,000”. Forbes. (https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/)
[22] The Guardian (2024). “Company worker in Hong Kong pays out £20m in deepfake video conference call scam” (Feb 5, 2024). (https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam)
[23] World Economic Forum (2025). “Cybercrime: Lessons learned from a $25m deepfake attack” (Feb 4, 2025). (https://www.weforum.org/stories/2025/02/deepfake-ai-cybercrime-arup/)
[24] The Guardian (2024). “CEO of world’s biggest ad firm targeted by deepfake scam” (May 10, 2024). (https://www.theguardian.com/technology/article/2024/may/10/ceo-wpp-deepfake-scam)
[25] Microsoft (2025). “Cyber Signals Issue 9: AI-powered deception” (Apr 16, 2025). (https://www.microsoft.com/en-us/security/blog/2025/04/16/cyber-signals-issue-9-ai-powered-deception-emerging-fraud-threats-and-countermeasures/)
[26] Europol (2024). “Internet Organised Crime Threat Assessment (IOCTA) 2024” (Jul 2024). (https://www.europol.europa.eu/cms/sites/default/files/documents/Internet%20Organised%20Crime%20Threat%20Assessment%20IOCTA%202024.pdf)
[27] FBI (2024). “FBI warns of increasing threat of cyber criminals utilizing artificial intelligence” (May 8, 2024). (https://www.fbi.gov/contact-us/field-offices/sanfrancisco/news/fbi-warns-of-increasing-threat-of-cyber-criminals-utilizing-artificial-intelligence)
[28] Microsoft (2025). “Microsoft Digital Defense Report 2025” (PDF). (https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/msc/documents/presentations/CSR/Microsoft-Digital-Defense-Report-2025.pdf)
[29] Miró Llinares, F. (2011). “La oportunidad criminal en el ciberespacio. Aplicación y desarrollo de la teoría de las actividades cotidianas para la prevención del cibercrimen”. Revista electrónica de ciencia penal y criminología, Nº 13. https://dialnet.unirioja.es/servlet/articulo?codigo=4396388
[30] Miró Llinares, F. (2021). “Crimen, cibercrimen y COVID-19: desplazamiento (acelerado) de oportunidades y adaptación situacional de ciberdelitos”. IDP: revista de Internet, derecho y política, Nº 32. https://dialnet.unirioja.es/servlet/articulo?codigo=7962061
[31] Miró Llinares, F. (2022). “Inteligencia artificial, delito y control penal: nuevas reflexiones y algunas predicciones sobre su impacto en el derecho y la justicia penal”. El Cronista del Estado Social y Democrático de Derecho, Nº 100 (Septiembre–Octubre), pp. 174–183. https://dialnet.unirioja.es/servlet/articulo?codigo=8653178
[32] MITRE (s.f.). “Groups | MITRE ATT&CK®”. https://attack.mitre.org/groups/
[33] Verizon (2025). “2025 Data Breach Investigations Report (DBIR)”. https://www.verizon.com/business/resources/T16f/reports/2025-dbir-data-breach-investigations-report.pdf
[34] HHS / HC3 (2024-04-11). “Social Engineering Attacks Targeting the HPH Sector” (TLP:CLEAR). https://www.hhs.gov/sites/default/files/social-engineering-targeting-the-hph-sector-tlpclear.pdf
[35] ENISA (2024). “ENISA Sectoral Threat Landscape: Public Administration Threat Landscape 2024”. https://securitydelta.nl/media/com_hsd/report/690/document/ENISA-Threat-Landscape-2024.pdf
[36] FBI / IC3 (2024-12-03). “2024 IC3 Annual Report” (PDF). https://www.ic3.gov/AnnualReport/Reports/2024_IC3Report.pdf
[37] HHS / HC3 (2024-04-03). “Help Desk Social Engineering Sector Alert” (TLP:CLEAR) (PDF). https://www.hhs.gov/sites/default/files/help-desk-social-engineering-sector-alert-tlpclear.pdf
[38] HHS / HC3 (2024-12-17). “Credential Harvesting” (TLP:CLEAR) (PDF). https://www.hhs.gov/sites/default/files/credential-harvesting-analyst-note-tlpclear.pdf
[39] MITRE (s.f.). “Valid Accounts (T1078)”. https://attack.mitre.org/techniques/T1078/
[40] MITRE (s.f.). “Phishing (T1566)”. https://attack.mitre.org/techniques/T1566/
[41] George, A. (2024). “Defamation in the Time of Deepfakes”. Columbia Journal of Gender and Law, 45(1), 122–172. DOI: 10.52214/cjgl.v45i1.13186. https://doi.org/10.52214/cjgl.v45i1.13186
[42] Nowak, A.; Tóth, B.; Ionescu, A. (2023-04-01). “Legal Challenges of Deepfakes: Liability, Harm, and Regulatory Responses”. Legal Studies in Digital Age, 2(2), 49–60. https://jlsda.com/index.php/lsda/article/view/306
[43] Romero-Moreno, F. (2024). “Generative AI and deepfakes: a human rights approach to tackling harmful content”. International Review of Law, Computers & Technology, 38(3), 297–326. DOI: 10.1080/13600869.2024.2324540. https://doi.org/10.1080/13600869.2024.2324540
[44] Chawki, M.; Basu, S.; Choi, K.-S. (2026). “Deepfake Sextortion in England, Wales and Northern Ireland: A Doctrinal and Regulatory Analysis”. Laws (MDPI), 15(1), 11. DOI: 10.3390/laws15010011. https://doi.org/10.3390/laws15010011
[45] Mustak, M.; Salminen, J.; Mäntymäki, M.; Rahman, A.; Dwivedi, Y.K. (2023). “Deepfakes: Deceptions, mitigations, and opportunities”. Journal of Business Research, 154, 113368. DOI: 10.1016/j.jbusres.2022.113368. https://doi.org/10.1016/j.jbusres.2022.113368
[46] Diel, A.; Lalgi, T.; Mellis, F.; Teufel, M.; Bäuerle, A. (2025). “The harm of deepfakes: a scoping review of deepfakes’ negative effects on human mind and behavior”. AI & SOCIETY. DOI: 10.1007/s00146-025-02774-0. https://doi.org/10.1007/s00146-025-02774-0
[47] Hoek, S.; Metselaar, S.; Ploem, C.; Bak, M. (2025). “Promising for patients or deeply disturbing? The ethical and legal aspects of deepfake therapy”. Journal of Medical Ethics, 51(7), 481–486. DOI: 10.1136/jme-2024-109985. https://doi.org/10.1136/jme-2024-109985
[48] Navarro Martínez, O.; Fernández-García, D.; Cuartero Monteagudo, N.; Forero-Rincón, O. (2024-10-03). “Possible Health Benefits and Risks of DeepFake Videos: A Qualitative Study in Nursing Students”. Nursing Reports, 14(4), 2746–2757. DOI: 10.3390/nursrep14040203. https://doi.org/10.3390/nursrep14040203
Autores:
Juan Pablo Castillo Cubillo
Criminólogo y Ciencias de la Seguridad (VIU)
Experto en ciberseguridad
Josep Salvador López
Ingeniero Informático (UPV)
Experto en Inteligencia Artificial

Deja una respuesta