Habilidades ofensivas potenciadas con Inteligencia Artificial y Tipología operativa del Deepfake en el entorno sanitario:
– Deepfake de audio – clonación de voz y vishing asistido porIA
– Deepfake de video – impersonation en videollamada y telemedicina
-Deepfakes de imagen y documento – informes, pruebas, recetas y credenciales
CONCEPTOS:
“IA Generativa” / “ciberseguridad sanitaria” / “amenazas persistentes (APT)” / “técnicas de detección de contenido sintético” / normativa / deepfakes / clonación por voz / vishing / BEC (Business Email Compromise) / trazabilidad / identidad digital / ransomware / helpdesk / C2PA (Content credentials) / forense multimedia (media forensics) / OSINT de verificación / ciberperfilación / ecosistemas criminales / supply chain (proveedores sanitarios).
INTRODUCCIÓN: UN CAMBIO DE FASE EN LA CIBERCRIMINALIDAD
Es un día cualquiera en un centro hospitalario, con la habitual masificación asistencial, un miembro del equipo correspondiente al servicio de informática recibe una llamada aparentemente rutinaria. Al otro lado del aparato una voz que el receptor identifica como parte del personal facultativo, informa de que no tiene acceso a su cuenta. Con un tono urgente, coherente con el contexto clínico, solicita un restablecimiento inmediato. Para dar veracidad a la solicitud, aporta datos personales correctos y transmite conocimientos internos utilizando además un vocabulario habitual del centro. Por otro lado, lo que pide esta persona no levanta sospechas, pues la continuidad asistencial rara vez permite retrasos. Sin embargo, esa voz no pertenece a la persona que dice ser, sino a una síntesis generada en tiempo real con Inteligencia Artificial a partir de muestras de audio accesibles en redes, sesiones grabadas o comunicaciones filtradas. Y de esta manera, un procedimiento de restauración de acceso a una cuenta, diseñado para ayudar a una gestión dinámica, se convierte en la puerta de entrada a sistemas con información clínica, agendas, prescripción y, potencialmente, a decisiones con impacto directo sobre la salud.

Conviene además precisar que, en la práctica, el escenario tecnológico sanitario puede no reducirse a “una cuenta” única. Los profesionales trabajan con un ecosistema de aplicaciones clínicas y administrativas, y el acceso a información especialmente sensible se articula a través de sistemas como la Historia Clínica Digital y plataformas corporativas (HIS/EHR, laboratorio, farmacia, imagen médica, etc.), que suelen estar segregadas y sometidas a distintos controles. En muchos entornos se emplean mecanismos de autenticación reforzada (tarjetas inteligentes, certificados digitales, claves de un solo uso o autenticación multifactor) y, además, los accesos quedan registrados (trazabilidad, auditoría, logs), precisamente por la criticidad y sensibilidad del dato sanitario. Ahora bien, en España no existe un único estándar operativo homogéneo: la realidad varía entre comunidades autónomas, servicios de salud, hospitales concretos y, de forma aún más heterogénea, en el ámbito privado. Pueden coexistir desde accesos basados en usuario y contraseña hasta sistemas más robustos con doble factor o credencial física, y esa diversidad influye directamente en el tipo de ataque viable y en el eslabón más débil explotable.
Ataques como el que se ha descrito al comienzo de este texto, resumen a la perfección un cambio de fase en la cibercriminalidad orientada al sector sanitario, con la adopción de IA generativa y técnicas de “deepfake”. Y es que ya no se trata de mejorar campañas de phishing tradicionales, sino que introduce un vector cualitativamente distinto basado en la suplantación de identidad con un altísimo nivel de credibilidad.
De la misma forma hay que comprender que el problema no es únicamente técnico, sino que sobre todo afecta a la confianza operativa en canales de comunicación con un factor humano determinante (llamadas, videoconferencias, mensajes) y pone en duda procedimientos críticos como puedan ser la verificación de identidad, la autorización de accesos y la validación de instrucciones. Es importante señalar que en el sector sanitario los roles poseen privilegios elevados y la urgencia es estructural debido a la necesidad de abordar las diversas situaciones que se puedan dar desde una gran interoperatividad.
1. Habilidades ofensivas potenciadas con Inteligencia Artificial
La IA generativa incrementa de forma notable la capacidad de un atacante para vulnerar privilegios elevados sin explotar una vulnerabilidad técnica clásica. El cambio clave es que automatiza dos etapas críticas del ataque: Primero la personalización del engaño (mensaje, acento, jerga clínica, urgencia) y segundo, la impostación multimodal (voz y/o vídeo) que incrementa credibilidad en canales donde antes se confiaba en “reconocer” a la persona. En sanidad, esto se vuelve especialmente peligroso en procesos de account recovery o escalado de permisos gestionados por soporte (reset de contraseña, desactivación/alta de MFA, desbloqueo de cuenta, alta urgente de usuario, cambios de rol). En estos flujos, la presión asistencial favorece atajos, y un atacante que logre convencer al helpdesk puede obtener acceso inicial y después moverse lateralmente hacia sistemas críticos.

Dado que ya se está tomando conciencia de estas técnicas, han comenzado a publicarse alertas y marcos técnicos que describen tanto el riesgo derivado del contenido sintético como su uso para reforzar campañas de ingeniería social en el sector sanitario. En particular, el NIST ha sistematizado el problema del contenido sintético (provenance, watermarking y detección) como un factor que incrementa la superficie de engaño y complica la verificación de autenticidad en comunicaciones digitales [NIST, 2024], mientras que HHS/HC3 ha advertido específicamente del impacto de la ingeniería social en healthcare y de cómo estos esquemas se orientan a capturar credenciales, tomar control de cuentas y forzar acciones operativas a través de canales de soporte y asistencia [HHS/HC3, 2022]. A este contexto se suma que los avances en síntesis de voz y clonación (incluyendo enfoques que aprovechan aprendizaje por transferencia desde verificación de locutor y modelos modernos de generación de voz a partir de pocos ejemplos) reducen barreras de entrada y aumentan la plausibilidad de la suplantación en canales telefónicos o de mensajería de voz, reforzando el potencial de abuso en escenarios de vishing y helpdesk [Jia et al., 2018; Wang et al., 2023]. En este escenario, la ingeniería social encuentra un terreno especialmente fértil donde se combina presión asistencial, urgencia organizativa y rutinas procedimentales que, si no se refuerzan con verificación robusta, pueden convertirse en el eslabón explotable del sistema.
Por otra parte, la IA generativa amplifica un segundo componente con implicaciones forenses. La posibilidad de crear o manipular audio, vídeo e imágenes de forma realista complica la evaluación inicial de incidentes, favorece estrategias de coerción y extorsión, y erosiona la presunción intuitiva de veracidad de ciertos artefactos digitales.
Lo primero es diferenciar herramientas de autenticidad/procedencia (lo que permite demostrar origen e historial) de las herramientas de detección forense (las cuales pueden estimar si algo es sintético/manipulado y extraen huellas técnicas). A continuación las diferenciaremos en diversos bloques:

1.1) Procedencia y autenticidad “de origen” (lo más defendible cuando existe)
- C2PA / Content Credentials define un estándar abierto para adjuntar y verificar “credenciales de contenido”, esto es, información de historial y procedencia vinculada criptográficamente al archivo (imagen, vídeo, audio o documento), lo que permite evaluar si el material dispone de una trazabilidad verificable o si dicha trazabilidad está ausente o ha sido comprometida [C2PA, s.f.].
- NIST “Reducing Risks Posed by Synthetic Content” ofrece un marco técnico de referencia sobre procedencia (provenance), watermarking y detección para reducir los riesgos asociados al contenido sintético, y resulta especialmente útil para delimitar qué puede sostenerse con garantías en un análisis (triage) frente a lo que requiere mecanismos de autenticidad verificable y trazabilidad para un contexto probatorio [NIST, 2024].
1.2) Plataformas de detección de deepfakes (operativas, multimodales)
Se emplean para screening (triage) de audios/vídeos/imágenes sospechosos, y para apoyar investigaciones:
- Reality Defender ofrece una plataforma operativa (suite web) y capacidades para desarrolladores (API/SDK) orientadas a la detección de contenido sintético o manipulado en formatos como audio, imagen y vídeo, lo que la hace útil como herramienta de screening (triage) en entornos empresariales donde se necesita priorizar rápidamente evidencias o comunicaciones sospechosas [Reality Defender, 2025].
- Sensity AI se presenta como una plataforma de detección multimodal (audio, vídeo e imagen) orientada a apoyar tareas de investigación y monitorización de amenazas vinculadas a suplantación y contenido sintético, resultando especialmente útil como capa de screening para identificar y priorizar materiales sospechosos en investigaciones de deepfakes [Sensity AI, s.f.].
1.3) Suites forenses “clásicas” adaptadas al reto deepfake (muy útiles en laboratorio)
- Amped Authenticate es un software forense orientado a la autenticación de foto y vídeo que incorpora análisis de integridad, estructura de archivo, metadatos e inconsistencias, además de funcionalidades enfocadas específicamente a escenarios de deepfake forensics, por lo que resulta adecuado para análisis en laboratorio cuando se requiere sustentar hallazgos con una metodología técnica verificable [Amped Software, s.f.].
- ExifTool se considera un estándar de facto para la extracción e inspección de metadatos en una amplia variedad de formatos (imagen, audio, vídeo y documentos), y se utiliza de forma transversal en múltiples disciplinas (incluida la informática forense) para identificar incongruencias, ausencia de procedencia, “software tags”, líneas temporales y otros indicios técnicos relevantes para la autenticación y reconstrucción de eventos [Harvey, s.f.].
1.4) OSINT/verificación de vídeo e imagen (muy útil para “prueba” extorsiva y desinformación).
- InVID-WeVerify Verification Plugin es una extensión y toolkit orientado a la verificación de imágenes y vídeos (incluyendo extracción de keyframes, búsquedas inversas, análisis de contexto y revisión de metadatos), por lo que resulta especialmente útil cuando el contenido sospechoso llega como vídeo adjunto, publicación, captura o enlace en campañas de coerción o desinformación, donde la verificación rápida del material y su contexto puede orientar la respuesta e investigación [InVID Project, s.f.].
- En el mismo ecosistema, WeVerify proporciona herramientas relacionadas (incluyendo un detector de deepfakes) que pueden emplearse como capa complementaria para screening y análisis preliminar de contenido potencialmente manipulado, especialmente en entornos donde se requiere triage rápido antes de un análisis forense más profundo [WeVerify, s.f.]
En un escenario donde la mayor parte del tiempo la toma de decisiones es a contrarreloj entre los profesionales que forman la estructura de una entidad sanitaria (personal clínico, administración, proveedores y servicios externalizados), la combinación de suplantación convincente y presión temporal incrementa la probabilidad de errores de validación y reduce la eficacia de controles basados exclusivamente en reconocimiento subjetivo. Una contramedida práctica es implantar un esquema de verificación rápida “step-up” que no dependa de la confianza en la llamada/videollamada, sino de evidencias independientes y trazables. En términos de identidad digital, significa elevar el nivel de aseguramiento de autenticación para acciones de alto impacto (p. ej., resets, elevación de rol, acceso a EHR, cambios de MFA) [NIST, 2025].numerar bien las referencias!

Implementación típica (mínima fricción, alta eficacia):
1) Callback a número verificado ya registrado (no al número entrante).
2) Aprobación fuera de banda: push en app corporativa, OTP por canal alternativo, o autenticador fuerte tipo FIDO2/WebAuthn.
3) Privilegios Just-in-Time: roles temporales con expiración automática, obligando a revalidar para mantener el acceso.
4) Modo “break-glass” (urgencias clínicas): permitir acceso excepcional, pero con logging reforzado, alertas y auditoría obligatoria posterior.
Este diseño reduce el impacto de deepfakes porque la voz/vídeo pasan a ser solo un “canal de comunicación”, no una prueba de identidad [NIST, 2024].
2. Tipología operativa del deepfake en el entorno sanitario
En el contexto de los ciberdelitos contra la salud, la “modalidad” del deepfake no es un atributo meramente técnico, sino una variable que condiciona el canal de ataque, la probabilidad de éxito, el tipo de evidencia disponible y los mecanismos de mitigación. A efectos analíticos, resulta útil clasificarlos según el formato del contenido sintético (audio, vídeo, imagen/documento y texto), asumiendo que en campañas reales estas modalidades tienden a combinarse (“multicanal”) para reforzar credibilidad y acelerar la decisión de la víctima.

2.1. Deepfakes de audio: clonación de voz y vishing asistido por IA
Consiste en la generación o modificación de voz para simular la identidad de un interlocutor legítimo (médico, supervisor, directivo, proveedor). Puede ir desde “voice cloning” (imitación con timbre y prosodia) en tiempo real hasta variantes más simples y toscas como “text-to-speech” con un guion persuasivo diseñado para evitar los problemas de la interrupción temporal en la generación del audio.
En el sector salud, el deepfake de audio resulta especialmente eficaz porque se inserta con naturalidad en un entorno donde la urgencia y la continuidad asistencial priman sobre la verificación exhaustiva. Las guardias, las incidencias técnicas y la presión operativa favorecen decisiones rápidas, y muchas interacciones críticas se resuelven por teléfono o a través del helpdesk.
¿Qué entendemos por Helpdesk?
Por helpdesk (o service desk) entendemos el punto de entrada operativo donde se gestionan incidencias y solicitudes de servicio: restablecimiento de contraseñas, desbloqueo de cuentas, altas/bajas de usuarios, acceso a aplicaciones clínicas, cambios de permisos, soporte de telemedicina, etc. En un hospital puede estar centralizado en TI, distribuido por unidades (p. ej., soporte de EHR, biomédica) o externalizado; y por ello cambian los niveles de identificación exigidos (desde validaciones manuales por el operador, hasta flujos automatizados integrados con IAM).
Análisis de riesgo
En el análisis de riesgo, lo importante es que el helpdesk suele tener capacidad de modificar el estado de autenticación (reset/desbloqueo) o atributos de autorización (roles/grupos). Si el proceso de verificación falla, equivale a “conceder acceso” sin necesidad de explotar software. Por eso el sector ha alertado de campañas de ingeniería social específicamente dirigidas a helpdesks hospitalarios como vector de acceso inicial [American Hospital Association, 2024; HHS/HC3, 2022]. En ese marco, la verificación de identidad suele apoyarse en señales humanas (reconocimiento de voz, tono de autoridad, contexto clínico) o en preguntas de conocimiento que pueden ser deducidas, lo que convierte a la suplantación vocal en un mecanismo de alto rendimiento para el atacante. A nivel técnico-procedimental, la mitigación más efectiva es estandarizar y automatizar el “árbol de decisión” del helpdesk para solicitudes sensibles, reduciendo variabilidad humana.
Para mitigar el riesgo de acceso inicial mediante ingeniería social en el sector salud, es útil partir de una premisa operativa: el helpdesk no es un elemento “auxiliar”, sino un componente funcional del sistema de identidad, porque puede alterar estados de autenticación (reset/desbloqueo), atributos de autorización (roles/grupos) y, en algunos modelos, habilitar o restablecer factores de autenticación. En consecuencia, cuando la verificación falla en el canal de soporte, el efecto práctico equivale a “conceder acceso” sin necesidad de explotar vulnerabilidades técnicas. Esta realidad ya aparece reflejada en alertas sectoriales que describen campañas específicamente dirigidas a helpdesks hospitalarios y su explotación para derrotar controles como MFA [American Hospital Association, 2024; HHS/HC3, 2022]. A nivel de marco, las Digital Identity Guidelines de NIST refuerzan que la gestión y recuperación de credenciales forma parte esencial del ciclo de vida de la identidad digital, por lo que debe tratarse como superficie de riesgo y gobernarse con controles equivalentes al acceso [NIST, 2025]. En paralelo, dado que parte del engaño se apoya en contenido sintético y guiones más verosímiles, el marco de NIST sobre riesgo de contenido sintético aporta un lenguaje útil para justificar controles de procedencia, verificación reforzada y detección de patrones de abuso [NIST, 2024].
Medidas de prevención y registro de actividad
A partir de este encuadre, se proponen las siguientes medidas concretas:
– Clasificar solicitudes por impacto (bajo/medio/alto) y vincular cada clase a controles obligatorios, evitando que incidencias de alto impacto se tramiten con el mismo nivel de fricción que las de bajo impacto. Esta clasificación debe contemplar acciones como reset de contraseña, alta de dispositivo, cambios de MFA, elevación de privilegios o desbloqueos de cuenta, por su capacidad de habilitar acceso persistente [NIST, 2025].
– Para solicitudes de impacto alto, aplicar step-up verification: callback a un número verificado previamente + segundo factor por canal alternativo, y prohibición explícita de excepciones no auditadas. La idea es neutralizar el pretexting basado en urgencia, autoridad o continuidad asistencial, precisamente los patrones descritos en alertas sectoriales [American Hospital Association, 2024; HHS/HC3, 2022].
– Registrar evidencia mínima para trazabilidad y soporte probatorio: identidad declarada, canal, número/cuenta origen (si aplica), agente que atiende, motivo, acción ejecutada, resultado, timestamps y correlación con ticket/incidencia. Este registro no solo apoya investigación posterior, sino que habilita correlación en SIEM/UEBA y reduce la ventana de impunidad del atacante [NIST, 2025].
– Analítica de anomalías y correlación para detectar campañas coordinadas: picos de resets, solicitudes fuera de horario, repetición sobre los mismos objetivos, cambios de dispositivo atípicos, y patrones conversacionales o lingüísticos consistentes con guiones (por ejemplo, “urgencia + autoridad + petición de excepción”), especialmente cuando se combinan con señales de suplantación o contenido sintético [NIST, 2024; HHS/HC3, 2022].
En canal telefónico, la clave es asumir que la voz no es un factor fiable ya que se puede complementar con un detector automático de spoofing como señal de riesgo (p. ej., para subir el nivel de verificación), pero la decisión debe basarse en autenticación fuera de banda [Liu et al., 2022 ,NIST, 2025].
– NIST SP 800-63-4: para justificar el “step-up” y endurecer recovery/alta de autenticadores
– AHA (Adversarial/Attack Hypothesis Assessment o Adversarial Hypothesis Analysis)
Es decir, la justificación formal del patrón de ataque que se usa para argumentar por qué un control de seguridad es necesario, proporcional y la eficacia del callback/protocolos estrictos.
– ASVspoof 2021 + paper de análisis (arXiv 2210.02437): para sostener científicamente que hay detectores y benchmarks, pero con límites de generalización/canal/condiciones “in the wild”, por eso lo planteamos como señal de riesgo.
En cuanto a los casos de uso delictivo más frecuentes, la clonación de voz se emplea, en primer lugar, para suplantar a un profesional con el fin de desencadenar un restablecimiento de contraseña o lograr un bypass de MFA mediante ingeniería social, aprovechando la legitimidad aparente del rol y la urgencia del momento. En segundo término, aparece como soporte de órdenes falsas atribuidas a la dirección o a responsables jerárquicos, orientadas a forzar cambios de prioridad, autorizaciones excepcionales, derivaciones operativas o pagos urgentes. También se utiliza como vector de coacción reputacional, mediante audios supuestamente “comprometedores” atribuidos a médicos o directivos, donde la extorsión se apalanca en el temor a la difusión y el daño institucional.
Técnicamente, la clonación de voz moderna suele estructurarse en tres bloques: (1) identidad del hablante (embedding obtenido por un speaker encoder), (2) modelo acústico que convierte texto en una representación intermedia (p. ej., espectrogramas o unidades discretas), y (3) vocoder / decodificador que genera la señal final. Esta separación permite “adaptar” la voz a partir de una muestra corta, sin reentrenar el sistema completo [Jia et al. 2018].
Rangos operativos:
– Calidad de muestra: ruido y compresión telefónica degradan la naturalidad y pueden introducir artefactos, pero en escenarios de ingeniería social a menudo sigue siendo suficiente.
– Duración de muestra: en investigación se reporta clonación con segundos (caso VALL-E), aunque la robustez suele aumentar con más referencia [Wang et al. 2023].
– Similitud: se cuantifica con similitud de embeddings y con ASV; el objetivo del atacante no es “igualdad espectral perfecta”, sino superar controles humanos/procedimentales.
En un esquema de ingeniería social, estos sistemas se usan para reforzar autoridad y urgencia en llamadas de soporte, donde el operador tiende a priorizar continuidad asistencial y rapidez.
Desde el punto de vista forense y operativo, existen indicadores que, sin ser concluyentes por sí solos, elevan la sospecha cuando se presentan en conjunto. Un patrón típico son las solicitudes que presionan para saltar el procedimiento (“no puedo pasar por el canal habitual”, “es una urgencia”, “si no se hace ahora habrá consecuencias”), especialmente si buscan activar un cambio sensible sin verificación adicional. También son relevantes ciertas incongruencias en la interacción, como pueda ser una entonación inusualmente estable, ausencia de ruido ambiental esperable para el contexto declarado (por ejemplo, guardia, planta o pasillos), o respuestas poco naturales ante interrupciones, preguntas inesperadas o cambios de tema cuando el atacante sigue un guion. A nivel de trazas, cobran valor probatorio las grabaciones disponibles, los logs de centralita/VoIP, metadatos de la llamada, correlación con tickets de soporte, tiempos de escalado y cualquier divergencia entre el canal usado y los patrones habituales del usuario suplantado. Detección y límites (análisis técnico). El estado del arte en detección de deepfake speech explota huellas en el dominio espectral/temporal (inconsistencias de fase, artefactos de códec, patrones de prosodia) y modelos profundos entrenados en benchmarks como ASVspoof. Estos trabajos demuestran mejoras, pero también límites prácticos: generalización a nuevos generadores, degradación por canal telefónico/compresión y adaptación adversaria mediante post-procesado [Liu et al., 2022].
Por ello, en el contexto hospitalario la detección automática debería usarse como señal de riesgo (para disparar step-up o revisión), no como veredicto único. Un diseño robusto combina:
(a) autenticación fuera de banda para acciones críticas,
(b) trazabilidad (logs y correlación con tickets)
(c) analítica de comportamiento para identificar campañas coordinadas [NIST, 2024; NIST, 2025].
Umbral técnico
Respecto a dependencias y barreras de entrada, el umbral técnico es relativamente bajo en comparación con otros tipos de deepfake, basta con disponer de muestras de voz del objetivo -obtenidas de forma pública o a partir de filtraciones- y de un guion persuasivo bien adaptado al contexto sanitario. Esta combinación reduce costes, permite iterar rápidamente sobre el “pretexto” y facilita la escalabilidad, especialmente en ataques dirigidos (spear vishing) donde el atacante personaliza la narrativa con datos operativos de la organización y maximiza la credibilidad situacional.
2.2. Deepfakes de vídeo: impersonation en videollamada y telemedicina
Hablamos de la sustitución o síntesis de la apariencia facial y/o corporal para aparentar ser otra persona en una videoconferencia o contenido grabado. En salud tiene relevancia particular por el crecimiento de telemedicina, coordinación intercentros y reuniones operativas.

Operativamente, el riesgo y las contramedidas pueden ordenarse en tres ejes complementarios:
1- Capacidad de generación (latencia y realismo)
El atacante necesita realismo suficiente (textura facial, expresión, sincronía labial, iluminación) y latencia baja para que el “face-swap” o reenactment sea creíble en tiempo real (sin cortes, flickering o retardos evidentes). En videollamadas, además, la generación puede combinarse con audio (p. ej., clonación de voz) y con estrategias sociales (cámara mala, excusas de conexión) que reducen el umbral de realismo necesario.
2- Capacidad de detección (robustez frente a compresión, iluminación, oclusiones)
Los datasets y estudios de detección como FaceForensics++ muestran que la detección por humanos es limitada y que los detectores automáticos pueden degradarse cuando cambian condiciones del vídeo (p. ej., compresión o cambio de dominio) [Vahdati, 2024]. Además, trabajos recientes destacan que detectar vídeo generado por IA requiere tratar explícitamente coherencia temporal y no solo análisis “frame a frame” [ NIST, 2025]. En entornos clínicos, esto empuja a enfoques más robustos a dominio (cámaras distintas, plataformas, códecs) y, cuando sea posible, a detección multiseñal (vídeo + audio + dinámica temporal).
3- Recolección de evidencia (grabación, metadatos, sellado temporal)
Más allá de “detectar”, importa la capacidad de investigar a partir de una grabación con calidad suficiente, metadatos (fecha/hora, plataforma, identificadores de sesión, códec/bitrate, participantes, dispositivo si aplica) y medidas de integridad (hash y sellado temporal) para mantener cadena de custodia. Esto es especialmente crítico en telemedicina si la sesión deriva en decisiones clínicas, consentimientos o incidencias de seguridad.
Por tanto, cuando una videollamada habilita decisiones clínicas o de acceso, la respuesta técnica razonable es: autenticación fuerte de la sesión, verificación fuera de banda para acciones críticas y trazabilidad end-to-end [NIST, 2024; NIST, 2025].
Vectores de distribución
Los deepfakes de vídeo se insertan en vectores particularmente plausibles por el peso creciente de la videocomunicación en coordinación clínica, gestión y telemedicina. Un escenario recurrente es la suplantación en reuniones de equipos con el objetivo de inducir la aprobación de acciones de alto impacto, como autorizar pagos urgentes, aceptar cambios de acceso, validar excepciones procedimentales o facilitar el intercambio de información sensible bajo apariencia de legitimidad jerárquica. Otra variante es la presencia de impostores en consultas o videollamadas, donde el vídeo se utiliza para captar información, obtener credenciales de forma indirecta o “normalizar” un proceso fraudulento. Conviene distinguir varios tipos de “impostor”, porque condicionan la trazabilidad y los controles: (1) externo que se hace pasar por profesional sanitario (fraude a pacientes), (2) externo que se hace pasar por paciente/familiar para obtener información o acceso, (3) suplantación de un profesional real (deepfake/audio para ordenar acciones), y (4) insider (empleado legítimo que abusa de su acceso).
Desde la óptica técnica, la “fuerza probatoria” mejora si las comunicaciones relevantes se registran con garantías de integridad: grabación centralizada cuando aplique, sellado temporal, cálculo de hash, registro de metadatos de sesión (identidad autenticada, dispositivo, IP, plataforma) y cadena de custodia digital. Esto no sustituye el análisis legal (consentimiento, normativa aplicable), pero sí define qué evidencia es técnicamente recolectable y verificable ante incidentes con contenido sintético [NIST, 2024]. El vídeo también puede instrumentalizarse como elemento de extorsión mediante piezas presentadas como “prueba” en supuestas declaraciones, escenas o conductas atribuidas a personal sanitario o directivo, diseñadas para maximizar el daño reputacional y forzar un pago por no difusión.
Desde el punto de vista de indicadores y huellas, el análisis debe combinar señales audiovisuales con evidencias de contexto digital. En condiciones reales, los deepfakes suelen delatarse por inconsistencias en la sincronía labial, artefactos en los bordes faciales (especialmente en movimiento), iluminación no coherente con el entorno, microexpresiones rígidas o latencias anómalas entre imagen y audio; no obstante, estas señales no siempre son evidentes en entornos de baja caliad de transmisión, por lo que conviene tratarlas como indicios y no como prueba única. Deepfakes en videollamada: fallos y real-time. Cuando aparecen, los fallos típicos se relacionan con inconsistencias espaciotemporales como bordes y texturas en la zona facial, desajustes de iluminación, artefactos al mover la cabeza y fallos de sincronía labial. Sin embargo, la evidencia experimental indica que en condiciones reales (webcam + compresión + baja resolución) muchos artefactos son sutiles para humanos y que los detectores automáticos pueden perder rendimiento al cambiar de dominio o tras compresión [Rössler et al., 2019]. Además, existen enfoques de generación de vídeo por IA con atención explícita a coherencia temporal, lo que dificulta la detección basada solo en “señales visuales” simples [Vahdati et al., 2024].
Por eso, la recomendación práctica no es confiar en inspección visual, sino diseñar el proceso para que una videollamada no sea suficiente para autorizar acciones críticas sin una prueba adicional independiente (step-up) y sin trazabilidad completa [NIST,2024; NIST,2025]. En paralelo, la evidencia contextual suele ser decisiva: invitaciones y enlaces de reunión, dominios utilizados, identidad digital de la cuenta que convoca, registros de la plataforma (Teams/Zoom/WebRTC), direcciones IP, huellas de dispositivo, patrones de inicio de sesión y correlación temporal con tickets o acciones administrativas. Esta capa contextual permite reconstruir el “cómo” del acceso y, en muchos casos, identificar anomalías aunque el contenido visual sea persuasivo.
Potencialidad del video en el marco de la acción criminal
En términos de valor analítico, el vídeo tiene un doble efecto. Por un lado, incrementa la persuasión psicológica y refuerza dinámicas de autoridad y urgencia. Por otro, introduce más superficie verificable que el audio: metadatos, cuentas, plataforma, trazas de autenticación, registros de acceso y consistencias de identidad digital, lo que ofrece mejores oportunidades para contrastar la legitimidad del interlocutor y para sostener un análisis forense robusto si se preservan adecuadamente los registros y se documenta la cadena de custodia digital.
2.3. Deepfakes de imagen y documento: informes, pruebas, recetas y credenciales
Tratamos en este punto de generación o manipulación de imágenes y documentos para simular autenticidad en informes clínicos, resultados de laboratorio, partes médicos, recetas, justificantes, identificaciones o pantallazos “verificadores”.

Proceso de Generación y Manipulación
La materialización de estas falsificaciones se apoya en un ecosistema de modelos generativos cada vez más accesibles y precisos. Para la manipulación de documentos existentes, los atacantes emplean herramientas de edición basadas en inteligencia artificial que permiten modificar texto, cifras o firmas en un documento escaneado (por ejemplo, un informe de laboratorio o una receta) mediante técnicas de inpainting, donde el modelo «rellena» el área modificada con un contenido nuevo y estilísticamente coherente con el entorno, eliminando rastros evidentes de manipulación como bordes difuminados o inconsistencias de color. Esto permite, por ejemplo, alterar un valor de glucosa en un análisis o la dosis de un medicamento en una receta, manteniendo la tipografía, el sello y la estructura general del documento original.
Para la generación de documentos completos desde cero, los flujos de trabajo suelen combinar modelos de lenguaje y modelos de difusión. En una primera fase, un LLM puede redactar el contenido textual del informe, imitando la jerga clínica y la estructura narrativa de un parte médico o un informe de alta. Posteriormente, ese texto se integra en una plantilla visual mediante modelos de difusión entrenados o ajustados (fine-tuning) con ejemplos de documentos auténticos del sistema de salud objetivo. Técnicas como el LoRA (Low-Rank Adaptation) permiten a los atacantes, con un número limitado de muestras reales (filtradas o fotografiadas), entrenar un pequeño modelo adicional que especializa un generador de imágenes para reproducir con alta fidelidad el logotipo de un hospital, la tipografía corporativa de un informe, el aspecto de un sello de caucho húmedo o la firma escaneada de un facultativo. El resultado es un documento que, a simple vista, no solo contiene el texto correcto, sino que además luce exactamente como el destinatario espera que luzca, incluyendo esos pequeños detalles de desgaste, sombras o textura de papel que aportan verosimilitud.
Además, la integración con LLMs permite una fase de validación contextual previa al envío. El atacante puede preguntar al modelo: «Revisa este informe de alta. ¿El código de diagnóstico CIE-10 es coherente con el tratamiento prescrito? ¿El formato de la fecha y el número de historial clínico siguen el estándar del Servicio de Salud X?». De esta forma, se depuran inconsistencias médicas o administrativas que podrían delatar la falsificación ante un profesional sanitario, afinando el resultado hasta que sea prácticamente indistinguible de un documento auténtico. Esta capacidad de iteración y refinamiento rápido es lo que convierte a estos modelos en un multiplicador de eficacia para el fraude documental.
Los deepfakes de imagen y documento presentan una relevancia criminológica elevada porque ofrecen un retorno directo en múltiples modalidades de fraude donde el “papel” sigue funcionando como mecanismo de legitimación. La falsificación o manipulación de recetas, partes de baja, informes clínicos, justificantes, documentación para seguros, reembolsos o reclamaciones permite al atacante construir una apariencia de normalidad administrativa con un coste relativamente bajo y una escalabilidad significativa. Además, estas piezas no solo se usan como fin en sí mismas, sino también como palanca de pretexting como el envío de un supuesto informe, una orden interna o una credencial actúa como soporte narrativo para justificar accesos, acelerar pagos o provocar que el destinatario eluda controles al percibir que existe una base “formal” detrás de la solicitud.
Desde una perspectiva forense, el análisis debe contemplar tanto el contenido como la trazabilidad del artefacto. En el plano técnico-documental, resultan centrales los metadatos, el historial de edición cuando exista, y las incoherencias internas ya sean tipografías no habituales, alineaciones y espaciados irregulares, sellos y firmas con patrones inconsistentes, o estructuras de formularios que no se ajustan a plantillas institucionales. Al mismo tiempo, la verificación cruzada con los sistemas fuente suele ser determinante con mecanismos como comparar el documento con registros en HIS/EHR/LIS, repositorios documentales, logs de emisión, numeración interna, trazas de impresión/escaneado y cualquier identificador que vincule el artefacto a un evento real en el sistema. Este contraste no solo ayuda a confirmar o descartar autenticidad, sino que permite reconstruir el recorrido del documento y detectar puntos de manipulación o inserción maliciosa.
La prueba: retos y riesgos
El riesgo probatorio más relevante es que un documento convincente, especialmente si reproduce estética y lenguaje institucional, puede acelerar decisiones operativas y administrativas cuando no existe un mecanismo robusto de verificación de origen. Si la organización no dispone de controles de procedencia (provenance), sellado temporal fiable o validación criptográfica, el documento se convierte en un vector de confianza artificial capaz de activar acciones sensibles antes de que se produzca la comprobación contra el sistema fuente. Por ello, la discusión de esta modalidad debe vincularse de forma explícita a medidas de autenticidad y trazabilidad, tanto para prevención como para sustento pericial en caso de incidente.
En la segunda parte se terminará de analizar los deepfakes de texto – LLMs para spear-phishing, helpdesk y BEC así como las modalidades combinadas. Igualmente, se tratará la victimología y la finalidad criminal. finalizando con algunas propuestas para mejorar el actual marco de seguridad.
Autores:
Juan Pablo Castillo Cubillo
Criminólogo y Ciencias de la Seguridad (VIU)
Experto en ciberseguridad
Josep Salvador López
Ingeniero Informático (UPV)
Experto en Inteligencia Artificial
Para cualquier duda o comentario, no duden en escribirnos, todas los comentarios se revisan manualmente y por su índole, si se desea, podrán mantenerse ocultos tras la aceptación o ser contestados de manera particular por los autores.

Deja una respuesta