Deepfakes y su impacto en el sistema judicial: nuevas formas de prueba y desinformación

 

Universidad de las Ciencias

En los últimos años, el avance de la inteligencia artificial ha permitido la creación de contenidos audiovisuales muy realistas, conocidos como deepfakes. Estos materiales (videos, audios o imágenes) pueden simular con gran precisión la voz, el rostro o las acciones de una persona, dificultando la distinción entre lo real y lo manipulado. Esto, además de fomentar la desinformación, ha planteado grandes retos para el sistema judicial, que a lo largo de las últimas décadas, se ha sustentado en la evidencia documental y audiovisual.

¿Qué son los deepfakes y cómo funcionan?

Los deepfakes son contenidos generados mediante algoritmos de aprendizaje profundo (deep learning) que permiten incorporar o sobreponer rostros, replicar voces o modificar gestos con gran precisión. A diferencia de las técnicas tradicionales de edición, estos sistemas no solo alteran imágenes, sino que “aprenden” patrones humanos, lo que les permite producir contenidos multimedia altamente realistas (Coaquira, 2025).

Aunque su uso puede tener fines constructivos y positivos, como facilitar el trabajo en áreas como en el cine y la educación, su accesibilidad desafortunadamente ha propiciado su uso indebido para crear contenidos desinformativos, o incluso, para cometer delitos, incluyendo la suplantación de identidad, el fraude y la manipulación de información. En este sentido, los deepfakes representan una evolución de prácticas históricas de manipulación visual, pero con una escala, velocidad y nivel de realismo sin precedentes, lo que incrementa significativamente sus riesgos.

La crisis de la evidencia audiovisual

Durante años, los materiales audiovisuales han sido considerados pruebas confiables dentro de los procesos judiciales. Fotografías, grabaciones de audio y video han servido para reconstruir hechos, identificar responsables y sustentar decisiones judiciales. Sin embargo, en la actualidad, la irrupción de los deepfakes ha generado una crisis en la veracidad de la evidencia audiovisual.

Ahora bien, la manipulación de imágenes no es algo nuevo. Desde el siglo XIX, existen antecedentes de este fenómeno. Un caso famoso es el del fotógrafo William H. Mumler, quien en 1860 producía fotografías en las que aparecían fantasmas. El caso fue llevado a los tribunales de Manhattan para una audiencia; sin embargo, el juez no pudo avanzar en el proceso, debido a que, aunque existía sospecha de fraude, la fiscalía no demostró cómo se habían producido las imágenes (Coaquira, 2025).

Si bien es cierto que anteriormente el problema radicaba en demostrar la intención de manipulación, hoy el reto se centra en la verificación técnica de la autenticidad de un material (Neira, 2026). Además, surge un fenómeno particularmente complejo: el llamado “Liar’s Dividend”, donde las personas involucradas en actos ilícitos pueden desacreditar pruebas reales alegando que se trata de manipulaciones digitales. Así, la existencia de tecnología capaz de falsificar evidencia no solo permite fabricar pruebas, sino también cuestionar las auténticas.

Un ejemplo  ampliamente documentado es el de la Masacre de Bucha, durante la guerra de Ucrania (abril de 2022). Cuando las fuerzas ucranianas tomaron la ciudad tras la retirada rusa, se difundieron imágenes y vídeos reales de cadáveres de civiles en las calles. El gobierno ruso y sus canales de propaganda utilizaron el Liar’s Dividend y declararon que las imágenes eran un "montaje". Además, utilizaron videos de baja resolución para afirmar que los cuerpos "se movían" o "parpadeaban". 

Desinformación, manipulación y daño social

Los deepfakes no solo afectan los procesos judiciales, sino que también inciden en el entorno social en el que estos se desarrollan. La difusión de contenidos falsos puede influir en la opinión pública, generar prejuicios y afectar la percepción de culpabilidad o inocencia de una persona (Neira, 2026). Por ejemplo, en años recientes, la imagen de Elon Musk fue vinculada a una estafa de inversiones en criptomonedas, y se difundieron videos y anuncios en X y en YouTube de supuestas oportunidades de inversión que prometían altas ganancias en Bitcoin. 

En casos graves, un video manipulado puede dañar la reputación de una persona involucrada en un proceso, intimidar a víctimas o testigos, o alterar la narrativa de los hechos. Por ejemplo, en Córdoba, un joven de 19 años fue procesado penalmente por usar inteligencia artificial para generar imágenes pornográficas falsas de sus compañeras de la escuela y publicarlas en Internet.

Desde la psicología jurídica, este fenómeno resulta especialmente relevante, ya que la percepción social y mediática puede influir indirectamente en jueces, jurados y operadores del sistema jurídico (Neira, 2026). Asimismo, las víctimas de deepfakes pueden experimentar afectaciones emocionales al ver su imagen o identidad utilizada sin su consentimiento en contextos falsos o dañinos (Aguirre-Lanegra y Ramos, 2025).

Avances y retos en materia legal en México

Frente a este escenario, algunos sistemas judiciales han comenzado a incorporar herramientas tecnológicas para la detección de manipulaciones digitales, así como protocolos más rigurosos en la evaluación de pruebas audiovisuales. Por ejemplo, en Estados Unidos, se han desarrollado tecnologías forenses basadas en inteligencia artificial para identificar inconsistencias en patrones faciales, parpadeo o sincronización labial en videos sospechosos. Asimismo, organismos como el Departamento de Defensa han impulsado programas de investigación como el Media Forensics, orientados a detectar contenidos falsos.

México ha dado pasos importantes, aunque indirectos y aislados, para castigar el uso malintencionado de estas tecnologías:
  • Actualización de la Ley Olimpia: originalmente diseñada para combatir la difusión de contenido íntimo real, las reformas en diversos estados (como la CDMX) ya contemplan el uso de material digital manipulado o generado artificialmente. Si alguien crea un deepfake de una persona, el delito es equiparable a la vejación de la intimidad sexual.
  • Reconocimiento de la evidencia digital: el Código Nacional de Procedimientos Penales (CNPP) ya permite el uso de medios electrónicos como prueba. El avance aquí no es la ley en sí, sino la creciente especialización de la Policía Cibernética y la Guardia Nacional en el análisis de metadatos para verificar la autenticidad de un archivo.
A pesar de los avances, México enfrenta desafíos estructurales que dificultan la aplicación de la justicia. Por ejemplo, para que un video sea válido en un juicio, debe demostrarse que no ha sido alterado. El reto radica en  que los deepfakes, en ocasiones, son tan perfectos que un perito no siempre tiene las herramientas necesarias para detectar la manipulación a nivel de píxel o de frecuencia de audio. Además, muchos de estos contenidos se generan con servidores fuera de México o de forma anónima (Márquez y Pisanty, 2025). 

Finalmente, otro de los retos que enfrenta México es el uso de deepfakes en campañas políticas. Aunque el INE fiscaliza estos procesos, no existe una ley clara que sancione la desinformación generada por inteligencia artificial que pueda alterar el resultado de una elección o calumniar a un candidato en tiempo real.

Reflexión final

Los deepfakes representan uno de los mayores desafíos contemporáneos para la administración de justicia. No solo ponen en duda la confiabilidad de las pruebas audiovisuales, sino que también obligan a replantear principios fundamentales como la verdad, la evidencia y la credibilidad.

En este nuevo escenario, el sistema judicial enfrenta la necesidad urgente de adaptarse, integrando conocimientos tecnológicos, jurídicos y psicológicos. Más que rechazar estas innovaciones, el reto consiste en comprenderlas y regularlas de manera adecuada, para evitar que se conviertan en herramientas de manipulación,  desinformación y de injusticia. En última instancia, la pregunta no es si los deepfakes transformarán la justicia, sino si las instituciones estarán preparadas para responder a esa transformación.

Referencias

Aguirre-Lanegra, A. J., & Ramos, F. (2025). Deepfakes sexuales y violencia algorítmica: hacia un marco normativo integral de protección de la dignidad digital. Estudios En Derecho a La Información, 11(21), e20198. https://doi.org/10.22201/iij.25940082e.2026.21.20198  

Coaquira Flores, Á. J. (2025). Los deepfakes y su incidencia en el derecho probatorio. REIJ: Revista Estudiantil de Investigaciones Jurídicas, (16). https://doi.org/10.20983/reij.2025.1.2 

Márquez, L. y Pisanty, A. (2025, 9 de diciembre). Regulación de deepfakes en San Luis Potosí. Nexos. https://eljuegodelacorte.nexos.com.mx/regulacion-de-deep-fakes-en-san-luis-potosi/  

Neira Pena, A. M. (2026). Deepfakes como prueba: un nuevo desafío para el sistema judicial. Revista General de Derecho Procesal, (68).

Comentarios

Entradas populares de este blog

Los retos actuales de la Psicología Clínica en México: Un campo en evolución

Reclutamiento de jóvenes por el crimen organizado: factores de vulnerabilidad y estrategias de prevención

Sigmund Freud: influencia y aportes para el mundo actual