Deepfakes como una nueva forma de violencia de género

Jennifer Arias Mijangos[1]

 Resumen: Los deepfakes se han convertido en una forma de violencia de género. Estas herramientas, basadas en inteligencia artificial, permiten la creación de contenido audiovisual manipulado que altera de manera realista la imagen o la voz de una persona. Aunque inicialmente surgieron como innovaciones tecnológicas, se han convertido en un grave problema que vulnera los derechos de las mujeres, ya que se utilizan, sobre todo, para crear material pornográfico no consensuado y para difundir representaciones falsas que humillan, difaman o controlan a las víctimas. En este artículo se analiza cómo los deepfakes pueden destruir la privacidad de las mujeres, suplantar su identidad y ser utilizados como herramientas de extorsión o desprestigio, afectando gravemente su integridad y derechos fundamentales. También se examinan los vacíos legales existentes en México, ya que la legislación actual, como la Ley Olimpia, no aborda de manera específica los desafíos que presentan los deepfakes, dejando a las mujeres desprotegidas frente a una forma emergente de ciberviolencia que combina avances tecnológicos con intenciones misóginas.

Palabras clave: deepfakes, inteligencia artificial, ciberviolencia, violencia de género, tecnología.

La globalización y el creciente uso de internet han traído consigo numerosos beneficios, pero también desafíos significativos para la humanidad. Internet, como herramienta que permite la conexión instantánea entre personas alrededor del mundo, ha transformado profundamente nuestras formas de interacción. Las relaciones personales, el comercio, la manera en que socializamos y nos comunicamos, han experimentado una evolución constante, adaptándose a este entorno digital. Esta revolución ha impulsado el desarrollo de avances tecnológicos sin precedentes, llevando a la creación de herramientas como la inteligencia artificial (ia). 

Sin embargo, el desarrollo de la inteligencia artificial ha dado lugar a un fenómeno cada vez más preocupante y alarmante: los deepfakes. Los deepfakes son un medio sintético, ya sea un video, imagen o audio, generado por inteligencia artificial que imita de manera altamente convincente y realista la apariencia y el sonido de una persona real (seon, 2023). Si bien estas herramientas pueden ser utilizadas en campos innovadores, también han emergido como una nueva forma de violencia. 

Los deepfakes constituyen una amenaza directa a la seguridad y el bienestar de las mujeres, ya que permiten la creación y difusión de videos manipulados que pueden utilizarse para desprestigiar a las mujeres, suplantar su identidad o generar contenido pornográfico sin su consentimiento. Este tipo de ciberviolencia sexual no sólo afecta la reputación y la vida profesional de las víctimas, sino que también les inflige un daño emocional y psicológico profundo. En este contexto, los deepfakes se convierten en herramientas de opresión y control, perpetuando las dinámicas de poder patriarcales que buscan humillar y deshumanizar a las mujeres. 

Los deepfakes representan una grave amenaza para los derechos humanos, particularmente el derecho a una vida libre de violencia, protegido por la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer y la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia en México, el cual busca garantizar que las mujeres vivan sin el temor o la experiencia de la violencia física, psicológica, sexual o económica. Este derecho se ve severamente vulnerado cuando los deepfakes son utilizados para crear y difundir contenido dañino y no consensuado. 

La falta de regulación específica en México para abordar el uso malintencionado de deepfakes exacerba este problema, ya que la ausencia de una legislación adecuada impide que las víctimas reciban la protección y justicia que requieren, dejándolas vulnerables a abusos continuos. Sin mecanismos legales claros para sancionar y prevenir el uso de deepfakes con fines de violencia, las mujeres quedan desprotegidas frente a una forma emergente de abuso que vulnera directamente sus derechos humanos. 

Debido a la gravedad de este problema surge la siguiente pregunta de investigación: ¿Cuáles son las implicaciones jurídicas que tiene la producción y difusión de deepfakes que violentan la intimidad de las mujeres? 

La hipótesis que tenemos es que la producción y difusión de deepfakes que exhiben a mujeres desnudas o en actos sexuales sin su consentimiento, constituyen una forma grave de violencia de género que aún no ha sido abordada de manera adecuada en la legislación vigente en México. Esta tecnología pone en riesgo la seguridad, integridad y dignidad de las mujeres, quienes se ven expuestas a la humillación pública, el acoso y la explotación sin haber participado en la creación de dicho contenido. Sin una regulación específica y mecanismos de acción inmediatos, las autoridades mexicanas se encuentran limitadas para prevenir y sancionar este tipo de agresiones, dejando a las mujeres en una situación de desprotección ante un nuevo tipo de ciberviolencia. 

El objetivo general de este trabajo es demostrar que los deepfakes constituyen una forma novedosa de violencia contra la mujer, que no está prevista en la normativa vigente en México. Por medio del análisis del caso Javellana, examinaremos los riesgos del uso de deepfakes y los alcances de la normativa vigente en México, así como los recursos normativos que han sido desarrollados en otros países para combatir los deepfakes que violentan los derechos de las mujeres. 

La metodología que se va a utilizar en este trabajo, en primer lugar, es un estudio de caso que nos permitirá dar cuenta de la gravedad y cómo afectan la vida de las mujeres los deepfakes no consensuados; después, haremos una interpretación jurídica de los retos que enfrenta esta problemática y, por último, se realizará un estudio de derecho comparado entre México y Estados Unidos. 

En el primer apartado, desarrollaremos el marco teórico en torno al problema que representa la producción y difusión de deepfakes sin el consentimiento de las personas afectadas, especialmente cuando el contenido es pornográfico. En el siguiente, se explicará por qué los deepfakes constituyen una forma de violencia de género. En el tercero, expondremos el caso Javellana, para ejemplificar los riesgos que representa la difusión de este tipo de producciones. El cuarto apartado nos permitirá realizar un análisis comparado con la legislación de Estados Unidos para demostrar que existen recursos normativos que pueden emplearse en nuestro país para combatir esta nueva forma de violencia. Por último, presentaremos las conclusiones.

1.     Marco teórico

La violencia de género es una problemática histórica que afecta a las mujeres de manera desproporcionada en diversos contextos, desde el ámbito doméstico hasta el espacio público. Esta forma de violencia se refiere a cualquier acto de agresión basado en el género que cause daño físico, psicológico o sexual, y que tiene como propósito o consecuencia el control y la subordinación de las mujeres (cdhcu, 2021). Aunque la violencia de género ha existido durante siglos, las tecnologías digitales han facilitado el surgimiento de nuevas formas de violencia, especialmente a través de lo que se conoce como ciberviolencia. 

La ciberviolencia abarca una amplia gama de conductas agresivas y violentas que ocurren en el entorno digital. Estas incluyen el ciberacoso, la extorsión digital, la distribución no consensuada de imágenes íntimas, el hackeo de cuentas personales, entre otras. En muchos casos, las mujeres son las principales víctimas de estas formas de violencia. La ciberviolencia se manifiesta mediante amenazas, insultos o mensajes degradantes, mientras que la distribución no consensuada de contenido íntimo suele incluir fotografías o videos de naturaleza sexual que se comparten sin el consentimiento de la persona afectada (Luchadoras, 2017). 

De acuerdo con datos de organismos internacionales, como la Organización de las Naciones Unidas (onu), 73% de las mujeres a nivel global ha experimentado algún tipo de violencia en línea, un problema que se ha intensificado con el aumento de las interacciones digitales. En México, los datos también reflejan esta realidad: aproximadamente 9 millones de mujeres mayores de 12 años han sido víctimas de acoso cibernético, de acuerdo con el Instituto Nacional de Estadística y Geografía (inegi, 2022). Esta estadística pone de manifiesto la magnitud del problema, que afecta la vida cotidiana de millones de mujeres y pone en riesgo su bienestar físico y emocional. 

La Ley Olimpia surgió como una respuesta legislativa en México ante el incremento de la violencia digital contra las mujeres, con el fin de ofrecer protección legal en casos de difusión no autorizada de contenido íntimo. Esta ley fue impulsada por Olimpia Corral Melo y derivó en reformas a la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia (lgamvlv) y los códigos penales de varios estados. Su propósito principal es sancionar la violencia digital, entendida como la difusión, exhibición o distribución de material íntimo sin el consentimiento de las mujeres involucradas. La Ley Olimpia reconoce el derecho de las mujeres a la intimidad sexual, lo cual incluye no sólo los espacios físicos, sino también los entornos digitales (Profeco, 2021). 

Las reformas introducidas por la Ley Olimpia fueron un paso crucial para la protección de las mujeres en el entorno digital; sin embargo, no son suficientes para abordar todas las formas de ciberviolencia. Aunque esta ley se enfoca en la difusión de imágenes o videos íntimos reales, no contempla situaciones en las que el contenido ha sido manipulado con inteligencia artificial para crear material falso. Además, la disparidad entre las normativas estatales y federales en México genera vacíos legales que los agresores pueden aprovechar. 

En este contexto, los deepfakes emergen como una nueva forma de ciberviolencia que desafía los marcos jurídicos y los mecanismos de protección existentes. Un deepfake es un contenido audiovisual manipulado mediante algoritmos de inteligencia artificial para modificar o generar imágenes, videos o audios falsos con un alto grado de realismo (National Geographic, 2023). Estas tecnologías permiten sustituir el rostro o la voz de una persona para hacerla parecer que está haciendo o diciendo algo que no ocurrió. 

Existen dos tipos principales de deepfakes: los deepfaces, que manipulan los rasgos faciales de una persona y los colocan en otro cuerpo; y los deepvoices, que falsifican la voz, creando audios donde parece que la persona dice algo que nunca dijo (eserp, 2024). Estas tecnologías se utilizan principalmente en la creación de contenido pornográfico no consensuado, colocando el rostro de una mujer en el cuerpo de una actriz pornográfica. Según un estudio de la firma DeepTrace, 96% de los videos deepfake en internet son pornográficos manipulados, y las mujeres son las principales víctimas (Hidalgo, 2023). 

Los deepfakes representan una forma extrema de violencia de género digital al violar derechos como la privacidad, la integridad personal y el derecho a una vida libre de violencia. Pueden ser utilizados para humillar, intimidar o controlar a las mujeres, y también con fines lucrativos. Las víctimas enfrentan desafíos adicionales: no sólo pierden el control sobre su imagen personal, también sufren consecuencias sociales derivadas de la exposición pública no consensuada. En muchos casos, son sometidas a doble victimización: primero, por el daño del contenido falso, y luego, por el estigma y la humillación pública. 

Cerdán Martínez y Padilla Castillo destacan que: 

Ellas protagonizan falsas escenas eróticas y pornográficas; ellos, discursos y circunstancias relacionados con el humor o con la política, apareciendo normalmente vestidos. Ellas asoman en espacios privados e íntimos; ellos, en espacios públicos, ostentando el poder o un protagonismo sano. Ellas son cosificadas y sus rostros se pegan al cuerpo de una actriz despersonalizada. Ellos tienen otro cuerpo, u otra voz, pero no pierden su esencia personal ni son tratados como objetos porque lo llamativo es lo que dicen o hacen. Ellas son sujetos pasivos; ellos son protagonistas activos y mueven la acción. (Cerdán y Padilla, 2019, pp. 516-517) 

Otro uso preocupante de los deepfakes es como herramienta para obstaculizar denuncias de violencia de género. Los agresores pueden crear contenido falso para poner en duda la versión de las víctimas, generando confusión sobre los hechos. Por ejemplo, en un caso de violación, un agresor podría presentar un deepfake donde la víctima parece estar dando consentimiento, reforzando dinámicas de poder y control que dificultan el acceso a la justicia. 

Uno de los mayores desafíos en la lucha contra los deepfakes es que la legislación actual no los aborda de manera directa. Aunque la Ley Olimpia y otras normativas avanzaron en la protección contra la violencia digital, no contemplan la creación y difusión de contenido ficticio generado por inteligencia artificial. Este vacío legal deja a muchas mujeres vulnerables, ya que estos contenidos, aunque falsos, generan daños reales y profundos en la vida de las víctimas. 

Además de la regulación, es esencial implementar políticas públicas preventivas que incluyan educación y sensibilización sobre los derechos de las mujeres en entornos digitales. Estas políticas deben desafiar normas patriarcales que perpetúan la violencia de género, promoviendo una cultura de igualdad y respeto, incluso en espacios digitales.

2.     Los deepfakes como violencia de género

2.1 Difusión de contenido sexual no consensuado

La difusión de contenido sexual no consensuado mediante deepfakes es una forma de violencia sexual digital que tiene graves repercusiones sobre la privacidad, dignidad y bienestar de las mujeres. Este tipo de videos falsos, que parecen reales por la inteligencia artificial, representan a las mujeres en escenas sexuales explícitas sin su consentimiento, lo que las expone a la humillación pública y las deja vulnerables a la cosificación (Cerdán y Padilla, 2019). Aunque la tecnología puede ser utilizada para muchos fines, los deepfakes han sido empleados principalmente para crear contenido sexual no consensuado, lo que refleja cómo la violencia de género sigue adaptándose a nuevas herramientas tecnológicas.

La destrucción del consentimiento es una de las características más alarmantes del abuso mediante deepfakes. En situaciones de violencia sexual tradicional, el consentimiento es el eje central de la violación o abuso. Sin embargo, los deepfakes eliminan por completo la posibilidad de consentimiento, ya que crean escenas sexuales falsas que nunca ocurrieron, en las que las mujeres nunca estuvieron. Esto genera una nueva forma de violencia en la que las víctimas son representadas como si hubieran participado activamente en conductas sexualmente explícitas o degradantes, sin tener conocimiento de ello y mucho menos control.

La eliminación del consentimiento también perpetúa la cosificación de las mujeres, al representar sus cuerpos como objetos sin agencia. Los deepfakes no sólo sexualizan y degradan a las mujeres, sino que también refuerzan una visión patriarcal en la que los cuerpos femeninos pueden ser utilizados y manipulados sin que ellas tengan control sobre ello. Este tipo de abuso borra cualquier posibilidad de autonomía personal y refuerza la idea de que las mujeres son vulnerables y no pueden controlar cómo son vistas o representadas en la sociedad.

La difusión en el entorno digital amplifica enormemente el impacto de los deepfakes a través de la viralización en redes sociales, plataformas pornográficas o foros clandestinos. Una vez que un video falso se publica en plataformas como Facebook, Twitter, TikTok o YouTube, puede ser compartido por millones de usuarios en cuestión de minutos, exponiendo a las víctimas a una humillación pública masiva y duradera. Esta amplificación del abuso transforma el acoso individual en un ataque global, haciendo que las víctimas pierdan completamente el control sobre su imagen y reputación. 

2.2  Suplantación de identidad para control y extorsión

Otra manifestación de la violencia de género a través de deepfakes es la suplantación de identidad, que se utiliza como herramienta de control y extorsión. Los perpetradores crean videos falsos en los que las mujeres parecen estar involucradas en actividades sexuales, ilegales o comprometedoras, y luego utilizan estos videos para chantajearlas. Este tipo de sextorsión implica que los agresores amenazan con divulgar el contenido falso a menos que las víctimas cumplan con sus exigencias, que pueden incluir dinero, favores sexuales o el control sobre su comportamiento.

La amenaza constante de la exposición pública por medio de estos deepfakes genera un ambiente de terror psicológico en el que las mujeres pierden su autonomía. Las víctimas de sextorsión viven bajo una presión extrema, ya que sienten que cualquier acción que realicen podría desencadenar la publicación del video. Además, el nivel de realismo que presentan estos deepfakes hace que sea casi imposible para la víctima demostrar que el contenido es falso, lo que aumenta la sensación de impotencia.

Esta forma de violencia es una extensión del control coercitivo, una dinámica de poder en la que el agresor utiliza la intimidación y la manipulación emocional para dominar a la víctima. Al crear deepfakes, los perpetradores no sólo están violando los derechos de las mujeres, sino que también están reforzando estructuras de poder patriarcales que buscan someterlas mediante amenazas.

Esta forma de acoso puede incluir desde comentarios degradantes hasta amenazas de violación o violencia física. En muchos casos, las víctimas se ven obligadas a eliminar sus perfiles de redes sociales y aislarse del mundo digital para evitar el acoso, lo que limita su acceso a la información, la participación en espacios en línea y su libertad de expresión. 

2.3. Desprestigio y difamación

El desprestigio mediante deepfakes es una estrategia utilizada para dañar la credibilidad y la reputación de las mujeres, especialmente de aquellas que tienen roles públicos o profesionales. En estos casos, los agresores crean videos falsos en los que las víctimas parecen estar involucradas en actos inmorales o indecentes, como participar en escenas sexuales explícitas o en conductas ilegales. Este tipo de contenido se distribuye con el propósito de destruir su imagen pública y minar su legitimidad como profesionales, periodistas, activistas o figuras políticas (González y Cuzcano, 2024).

El impacto del desprestigio mediante deepfakes es particularmente grave porque se basa en estereotipos de género que sexualizan y desvalorizan a las mujeres. Al ser representadas de manera degradante, las víctimas pierden su autoridad y visibilidad en espacios donde han trabajado arduamente por posicionarse. En muchas ocasiones, los deepfakes se utilizan para silenciar a mujeres que denuncian injusticias o que desempeñan roles de liderazgo, como en el caso de la periodista Rana Ayyub, quien fue víctima de un deepfake pornográfico para desacreditar sus investigaciones sobre la implicación de altos cargos de India en la persecución de musulmanes (Caselli y Pereyra, 2019).

La creación de deepfakes que simulan delitos perpetúa el estereotipo de que las mujeres no son dignas de confianza, lo que agrava aún más la discriminación que ya enfrentan en el sistema legal (Simó, 2023). Este tipo de ataques, además de lesionar su autoestima, restringe su participación en el debate público y en el ecosistema digital, lo que refuerza las dinámicas de exclusión de las mujeres en espacios de poder (Cepal, 2023). 

Este fenómeno también tiene un efecto disuasorio sobre otras mujeres que participan en la vida pública o en el activismo. Al observar cómo las víctimas de deepfakes son atacadas y expuestas públicamente, muchas mujeres pueden optar por reducir su presencia en redes sociales o abstenerse de expresar opiniones o tomar posiciones públicas, por temor a convertirse en las próximas víctimas de este tipo de violencia digital. Los deepfakes no sólo victimizan a las mujeres individualmente, sino que también refuerzan un clima de intimidación que restringe la libertad de expresión y la participación de las mujeres en la esfera pública.

3.     Análisis del caso Sabrina Javellana[2]

Sabrina Javellana, una joven política de Florida, se convirtió en una de las funcionarias electas más jóvenes de la historia del estado, al ganar un escaño en la comisión municipal de Hallandale Beach en 2018, a los 21 años. A lo largo de su carrera, sus posiciones políticas progresistas le habían creado enemigos, y tras proponer un cambio de nombre para una carretera estatal llamada Dixie Highway a finales de 2019, recibió amenazas violentas en las redes sociales. Sin embargo, el 5 de febrero de 2021, recibió un mensaje inusual que la alertaba sobre la difusión de fotos suyas en internet, acompañadas de comentarios grotescos.

A medida que investigaba, Javellana descubrió que se estaban compartiendo imágenes suyas manipuladas que la mostraban desnuda, basadas en selfies publicadas en su Instagram. Estas imágenes eran deepfakes, que distorsionaban su imagen para crear contenido pornográfico que parecía auténtico. “Pensé que eso era ridículo”, “Esto tiene que ser falso. Las fotos parecían tan reales, pero no lo eran. Eran imágenes robadas de mis redes sociales”, “Sentía que no tenía elección sobre lo que me pasaba o lo que le pasaba a mi cuerpo”, dijo Sabrina Javellana a The New York Times. A pesar de que había contactado al Departamento de Aplicación de la Ley de Florida, le informaron que no podían investigar la fuente, ya que la ley estatal no abordaba este tipo de material.

En 2022, Javellana se enteró en internet que la senadora de Florida, Lauren Book, había propuesto un proyecto de ley que criminalizaba la creación y difusión de deepfakes en el estado, conocido como la Ley SB 1798. Javellana se puso en contacto con la senadora y juntas discutieron sobre el proyecto de ley, además de que dio su testimonio en apoyo a esta ley en Florida. La ley fue aprobada por unanimidad en la Cámara de Representantes y el Senado de Florida, y el gobernador Ron DeSantis la firmó el 24 de junio de 2022.

La Ley SB 1798 establece que la creación y difusión de deepfakes no consentidos es un delito, lo que permite a las víctimas presentar denuncias ante las autoridades. Además, otorga a las víctimas la posibilidad de interponer demandas civiles contra quienes difundan este tipo de contenido, brindándoles una vía para buscar compensación económica y justicia.

Sin embargo, a pesar de la aprobación de la ley, Javellana se enfrentó a desafíos significativos, ya que la ley no es retroactiva, lo que significa que sólo se puede aplicar a las imágenes distribuidas después de su promulgación. Esto dejó a Javellana y a otras víctimas sin recursos legales para abordar el material que ya estaba en circulación antes de la entrada en vigor de la ley. Además, el volumen de material existente y la dificultad de identificar a los agresores complicaron aún más la situación.

A medida que hablaba sobre su experiencia, el acoso en línea se intensificó. Los usuarios de 4chan, en particular, la atacaron compartiendo su número de teléfono personal y la dirección de su madre, lo que la llevó a un estado de horror y ansiedad crónica. Debido a esto, Javellana se sintió cada vez más vulnerable, su miedo y paranoia aumentaron, y comenzó a tomar medidas para proteger su vida personal, como hacer privado su Instagram y eliminar fotos en traje de baño. Aunque sabía que estos cambios no eran una solución real, le proporcionaban una sensación de control. La situación afectó su vida diaria y su carrera, tanto que decidió dejar la política.

Finalmente, Javellana decidió compartir su experiencia en Twitter destacando el problema de los deepfakes y agradeciendo a la senadora Book:

El año pasado me traumaticé cuando me enteré de que se estaban creando imágenes “deepfake” mías. Lo llevé al FDLE, pero no pudieron investigar la fuente porque la ley de Florida no abordaba este problema. Gracias @LeaderBookFL por tu trabajo en esto y lamento mucho que te haya pasado esto. Sabrina Javellana vía Twitter. 

A pesar de las dificultades, Javellana continuó luchando por la justicia y la protección de las víctimas de los deepfakes, convirtiéndose en una voz importante en la lucha contra este tipo de abuso. 

El artículo de The New York Times nos muestra cómo los deepfakes afectaron la vida personal y profesional de Javellana. En los medios de comunicación, este caso ha sido presentado como un ejemplo de los desafíos que plantea la tecnología de los deepfakes en la era digital, los discursos subyacentes en la cobertura mediática incluyen la preocupación sobre la invasión de la privacidad, la difamación y la falta de legislación adecuada para abordar este problema emergente. Además, enfatiza la vulnerabilidad de las figuras públicas, especialmente las mujeres, ante este tipo de violencia digital. 

Al contextualizar este caso en los medios, se observa una narrativa que busca concientizar sobre los peligros de las tecnologías de manipulación de imágenes y la necesidad de establecer marcos legales y éticos para proteger a las personas afectadas. 

Analizando este caso, podemos ver cómo la falta de legislación en el momento de los hechos, ya que no existía ninguna ley en Florida que regulase los deepfakes, dejó a Javellana en una situación de total indefensión y vulneración de sus derechos. Este caso evidencia cómo las tecnologías están generando nuevas formas de violencia y ciberviolencia de género que van en aumento. Lo preocupante es que las legislaciones no pueden adaptarse al mismo ritmo, lo que deja obsoletas las normativas existentes y a las víctimas en un estado de indefensión, mientras que los perpetradores permanecen impunes ante la falta de sanciones específicas. 

En cuanto a la creación y difusión de deepfakes, no sólo implica un abuso tecnológico, sino que representa una grave violación de los derechos humanos fundamentales de las víctimas. Entre los derechos vulnerados destacan el derecho a la privacidad, la integridad personal y el derecho a una vida libre de violencia, consagrados en la Constitución, en la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (cedaw) y la Declaración Universal de los Derechos Humanos. 

Los deepfakes vulneran gravemente el derecho a la privacidad de las víctimas, que está protegido en la Constitución. Este derecho protege la esfera íntima de las personas contra injerencias arbitrarias o ilegales en su vida privada, su familia, su domicilio y su correspondencia, así como los ataques ilegales a su honra o reputación. Por tanto, los deepfakes crean una imagen falsa que expone a la víctima, distorsionando su identidad y dejándola vulnerable a la explotación y humillación pública, lo cual es irreversible. 

Los deepfakes también atentan contra la integridad personal de las víctimas al utilizarlas para generar contenido falso, frecuentemente de carácter sexual o humillante, sin su conocimiento o autorización. Según el artículo 5 de la Declaración Universal de los Derechos Humanos, la integridad personal implica el respeto del cuerpo físico, además de la imagen, el nombre y la dignidad de las personas. 

La violencia digital derivada de los deepfakes constituye una forma de vulneración del derecho a una vida libre de violencia, ya que afecta de manera desproporcionada a las mujeres, perpetuando la cosificación y el control sobre sus cuerpos y su imagen. Instrumentos como la Convención de Belém do Pará, la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y la Ley Olimpia buscan garantizar que las mujeres no sólo estén libres de violencia en sus entornos físicos, sino también en el espacio digital. Sin embargo, la creación de deepfakes revela las lagunas en la legislación y en los mecanismos de protección, dejando a muchas víctimas sin recursos para defenderse y también envía un mensaje de tolerancia hacia este tipo de ciberviolencia. 

El caso de Sabrina Javellana evidencia la importancia de contar con un marco legal sólido para combatir la violencia digital, especialmente en el contexto de los deepfakes. En México, la Ley Olimpia ha sido un avance crucial en la protección de las víctimas de ciberviolencia, pero sigue presentando lagunas importantes frente a las nuevas formas de abuso facilitadas por la tecnología. 

Esta ley tipifica como delito el videograbar, audiograbar, fotografiar o elaborar videos reales o simulados de contenido sexual íntimo, de una persona sin su consentimiento o mediante engaño, al igual que difundir este contenido sabiendo que no hay consentimiento. Sin embargo, aunque en esta ley se mencionan videos simulados, deja una laguna, ya que es ambiguo y en el Código Penal federal no se mencionan los videos simulados; por tanto, esto deja fuera a los deepfakes, donde el contenido es manipulado o fabricado por inteligencia artificial sin que la víctima haya participado en absoluto. 

Aunque la Ley Olimpia representa un avance significativo, no cubre la complejidad de los deepfakes porque no están tipificados en el Código Penal federal. En estos casos, no se trata de la distribución de imágenes íntimas preexistentes, sino de la creación de contenido falso a partir de la manipulación de imágenes públicas (como fotos de redes sociales), o incluso la generación de imágenes completamente ficticias generadas con ia. Este tipo de ciberviolencia deja a las víctimas desprotegidas, ya que no existe un marco legal específico que penalice la creación y difusión de contenido manipulado mediante inteligencia artificial. 

El vacío legal en México sobre los deepfakes abre la puerta para que los agresores puedan utilizar esta tecnología sin enfrentar las consecuencias jurídicas correspondientes. Las víctimas, como en el caso de Sabrina Javellana, no sólo sufren la invasión de su privacidad y el daño a su reputación, también enfrentan una falta de herramientas legales claras para detener la circulación de este tipo de contenido o buscar justicia por los daños ocasionados. 

4.     Estudio comparado

Para un análisis completo de este fenómeno, es necesario el estudio de un derecho comparado entre la legislación mexicana que abarca los temas de violencia digital y la Ley SB 1798 de Florida, que se mencionó en el caso de Sabrina Javellana. La legislación mexicana por comparar será el Código Penal federal, la Ley Olimpia y la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia. 

En primer lugar, la Ley SB 1798 define los deepfakes o “representaciones sexuales alteradas”, como cualquier imagen digitalmente manipulada que muestre a una persona identificable en actividades sexuales que no realizó, utilizando alteraciones como la superposición de partes del cuerpo de otra persona o la creación de partes del cuerpo mediante generación computarizada. El proyecto tipifica la promoción de estos deepfakes como delito grave, subrayando la voluntad de penalizar conductas que atenten contra la privacidad y la integridad de las personas, incluso si no hay contacto físico. 

En México, ni el código ni ninguna de las dos leyes definen explícitamente los deepfakes, lo que limita su aplicación en casos de manipulación digital. Aunque la Ley Olimpia y la lgamvlv[3] definen la violencia digital en términos amplios, incluyendo “la difusión de imágenes, audios o videos reales o simulados” sin consentimiento, siempre que contengan contenido íntimo sexual, el término “simulado” podría extenderse para incluir loa deepfakes, pero no se especifica el tipo de alteración o manipulación que constituye una violación. En México, la ley protege el contenido íntimo, pero sin una diferenciación entre lo que es genuino y lo que es alterado digitalmente, y el Código Penal sólo abarca el contenido real, lo que puede llevar a vacíos legales. 

En cuanto a las penas que impone la Ley SB 1798, varían según la gravedad y la intención de la promoción del deepfake. La distribución de estos contenidos sin fines de lucro constituye un delito de tercer grado, mientras que la promoción con fines de lucro incrementa el delito a un segundo grado, lo cual implica penas de prisión más severas. Además, el proyecto permite a las víctimas buscar compensación económica a través de demandas civiles por los daños psicológicos o económicos sufridos. 

En México, las penas para la violencia digital varían según el estado, ya que los códigos penales estatales implementan la Ley Olimpia. Generalmente, la difusión no consentida de contenido íntimo puede llevar a penas de prisión de hasta seis años y multas. Sin embargo, no existen sanciones diferenciadas para los deepfakes, ya que se sancionan bajo el concepto amplio de violencia digital sin especificar la alteración digital. Aunque las víctimas pueden recibir medidas de protección y reparación, no existe un marco claro que contemple compensaciones económicas específicas, pero en el Código Penal federal sólo se tipifica como delito el contenido real, por lo que los deepfakes quedan fuera. 

La Ley SB 1798 permite a las víctimas buscar compensación civil por daños psicológicos y económicos, lo que proporciona un recurso adicional para las personas afectadas por deepfakes

Las legislaciones mexicanas no ofrecen un marco claro para la compensación económica en casos de deepfakes. Aunque existe la posibilidad de demandas civiles, la falta de especificidad en la legislación puede dificultar la obtención de reparaciones adecuadas. 

Las víctimas de deepfakes en Estados Unidos pueden buscar una compensación civil, además de las sanciones penales impuestas a los responsables. La Ley SB 1798 también facilita a las víctimas solicitar la eliminación del contenido alterado de las plataformas mediante órdenes judiciales, asegurando que se respeten sus derechos de privacidad y protección frente a la manipulación digital. 

En México, las víctimas de violencia digital pueden solicitar medidas de protección que incluyan la eliminación de contenido no autorizado de las plataformas y redes sociales. También tienen acceso a protección inmediata y a medidas cautelares en algunos casos, como órdenes de restricción; sin embargo, no se menciona explícitamente el derecho a compensación económica en el caso de daños psicológicos o reputacionales causados por deepfakes, y la ley no es tan clara en cuanto a las indemnizaciones. 

La Ley SB 1798 establece excepciones para ciertas entidades y circunstancias. Por ejemplo, plataformas digitales que sólo transmitan o almacenen contenido sin participar en su creación o promoción están exentas de responsabilidad, siempre que no intervengan directamente en el contenido. También están exentos los medios de comunicación y agencias de seguridad cuando utilizan el material en el cumplimiento de funciones oficiales. Estas excepciones aseguran que la ley no penalice a actores que no tengan control sobre la creación del deepfake

En México, la ley permite ciertas excepciones en contextos donde el contenido íntimo es utilizado en investigaciones o procedimientos legales, siempre bajo una regulación estricta para no vulnerar los derechos de la víctima. Sin embargo, la ley no es específica sobre la responsabilidad de las plataformas digitales en cuanto a la manipulación o difusión de deepfakes, ni establece protecciones o excepciones claras para los proveedores de servicios en línea. 

En este estudio de derecho comparado podemos ver cómo el marco legal de Estados Unidos ofrece un enfoque específico y exhaustivo sobre los deepfakes como una nueva forma de violencia digital, con definiciones, sanciones y derechos de las víctimas claros, adaptados para enfrentar los desafíos únicos que plantea esta tecnología. Este marco diferencia los deepfakes sexuales de otros tipos de violencia digital, lo que ayuda a proteger la privacidad y dignidad de las víctimas de manera eficiente; esta estructura se vuelve relevante y útil en el contexto actual, donde la manipulación digital con inteligencia artificial está en auge. 

En México, la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y la Ley Olimpia representan avances importantes en la protección contra la violencia digital al contemplar el contenido “no consensuado” y “simulado”. Sin embargo, ambos marcos carecen de una definición específica para los deepfakes, lo que podría limitar su aplicación y efectividad en casos de manipulaciones digitales avanzadas. Además, el Código Penal federal no incluye el contenido “simulado”, creando un vacío legal en el cual los deepfakes, al no estar clasificados como delito, no pueden ser perseguidos ni sancionados. Esta ausencia de regulación impide que las víctimas encuentren justicia y limita la capacidad del sistema judicial para procesar y castigar a los responsables. 

Para enfrentar los riesgos que representan los deepfakes, la legislación mexicana podría beneficiarse al adaptar sus leyes para abordar los riesgos específicos de los deepfakes. Incorporar un enfoque detallado y específico permitiría sancionar efectivamente este tipo de violencia y proteger mejor a las víctimas. Sin embargo, es necesaria la creación de un marco específico contra los deepfakes para mejorar la capacidad de respuesta del sistema legal frente a la violencia digital, ofreciendo a las víctimas una protección efectiva.

Conclusiones

Las conclusiones de este trabajo de investigación sobre el uso de deepfakes como una forma de violencia de género me han permitido comprender a profundidad la gravedad y la complejidad de esta problemática en el contexto actual. En primer lugar, evidenciando que los deepfakes, al ser manipulaciones digitales de imágenes y videos, se utilizan con frecuencia para crear contenido sexual no consensuado que afecta profundamente la dignidad y la privacidad de las mujeres. Este tipo de violencia digital no sólo invade el espacio personal de las víctimas, sino que también perpetúa un ambiente de acoso y humillación que contribuye a la desigualdad de género. La tecnología, que en su origen prometía ser un espacio de libertad, se ha transformado en una herramienta de control y subordinación, especialmente hacia las mujeres, quienes son las principales víctimas de estas prácticas.

El caso de Sabrina Javellana ilustra de manera contundente las repercusiones que puede tener la difusión de deepfakes en la vida de una mujer, ya que, a pesar de su éxito como joven política, Javellana se convirtió en blanco de ataques violentos tras la viralización de un deepfake pornográfico falso. Este caso resalta la falta de protección legal que enfrentan las mujeres en situaciones similares, donde la creación y distribución de deepfakes se realiza sin su consentimiento, dejándolas vulnerables a la cosificación y al acoso. La ausencia de regulaciones específicas en México para abordar esta forma de violencia digital es alarmante, ya que las leyes actuales no están equipadas para enfrentar los desafíos que presentan los deepfakes, lo que deja a las víctimas sin recursos legales para defenderse.

Además, se ha identificado que la falta de una legislación adecuada, además de impedir que las víctimas obtengan justicia, refuerza las dinámicas de poder patriarcales, permitiendo que los agresores actúen con impunidad. Este vacío legal es particularmente preocupante, ya que los deepfakes, aunque falsos, pueden causar un daño real y profundo en la vida de las mujeres, afectando su reputación, bienestar emocional y seguridad. Este trabajo de investigación buscó plantear la necesidad urgente de desarrollar un marco normativo que contemple explícitamente el uso de deepfakes en contextos de violencia de género, tomando en cuenta las legislaciones de otros países que han comenzado a implementar medidas efectivas para combatir esta problemática.

Por otro lado, es fundamental reconocer que la violencia de género digital no puede ser abordada únicamente desde una perspectiva penal, también es necesario implementar políticas públicas preventivas que incluyan programas de educación y sensibilización sobre los derechos de las mujeres en entornos digitales. Estas iniciativas deben desafiar las normas patriarcales que perpetúan la violencia y fomentar una cultura de igualdad y respeto en todos los espacios, incluidos los digitales. La educación es clave para empoderar a las mujeres y a la sociedad en general, permitiendo que reconozcan y rechacen comportamientos abusivos.

Finalmente, con este trabajo de investigación se concluye que la lucha contra la violencia de género en el contexto digital, exacerbada por el uso de deepfakes, es una responsabilidad compartida que requiere la participación activa de todos los sectores de la sociedad. La colaboración entre el gobierno, la sociedad civil y las plataformas tecnológicas es esencial para abordar esta problemática de manera integral, ya que sólo a través de un enfoque que combine la legislación, la educación y la innovación tecnológica se podrá avanzar hacia un entorno digital más seguro y equitativo para todas las mujeres. Tratar y darle voz a este fenómeno es fundamental porque la ciberviolencia no es un fenómeno pasajero, sino una realidad que seguirá afectando a las mujeres si no se establecen garantías jurídicas claras y eficaces. Las leyes deben adaptarse a los cambios tecnológicos y reconocer que el daño causado por los deepfakes es real, incluso si el contenido es falso. 

La ausencia de regulaciones específicas deja en desventaja a quienes más necesitan protección: mujeres jóvenes que crecen y desarrollan sus vidas en un entorno digital que, en lugar de ser un espacio de crecimiento y expresión, se ha convertido en un escenario de riesgo. Garantizar su seguridad jurídica es un paso esencial para avanzar hacia sociedades más justas, donde la tecnología no sea un mecanismo de opresión, sino una herramienta para la igualdad y el empoderamiento. 

Referencias

Cámara de Diputados H. Congreso de la Unión. (CDHCU). (2021). Ley General de Acceso de las Mujeres a una Vida libre de Violencia. Última Reforma DOF 26-01-2024. En línea: https://www.diputados.gob.mx/LeyesBiblio/pdf/LGAMVLV.pdf

Caselli, Irene y Pereyra, Ignacio. (2019, 13 julio). Un vídeo porno y otras venganzas contra la periodista que se infiltró en el Gobierno indio. El País. Recuperado de: https://elpais.com/elpais/2019/07/10/planeta_futuro/1562767188_326286.html

Cerdán, Víctor y Padilla, Graciela. (2019). Historia del “fake” audiovisual: “deepfake” y la mujer en un imaginario falsificado y perverso. Historia y comunicación social, 24(2), 516-517.

Comisión Económica para América Latina y el Caribe. (2023). La igualdad de género y la autonomía de las mujeres y las niñas en la era digital: aportes de la educación y la trans-formación digital en América Latina y el Caribe. Santiago, Chile: Cepal.

El Financiero. (17 de abril de 2023). ia ‘del mal’: Deepfake permite crear imágenes porno no consensuadas de mujeres. El Financiero. Recuperado de https://www.elfinanciero.com.mx/tech/2023/04/17/ia-del-mal-deepfake-permite-crear-imagenes-porno-no-consensuadas-de-mujeres/?outputType=amp

eserp. (25 de marzo de 2024). ¿Qué es el deepfake? eserp Digital Business & Law School. Recuperado de https://es.eserp.com/articulos/que-es-el-deepfake/

González, Constanza y Cuzcano, Ximena. (15 de abril de 2024). Desafíos y dimensiones de la desinformación en alac: deepfakes y la urgencia de proteger los derechos de las mujeres, 167-170. Recuperado de https://www.espacioimasd.unach.mx/index.php/Inicio/article/view/392/1519

Hidalgo, Nidia. (2023, 28 noviembre). Deepfakes: violencia basada en género en la era de la Inteligencia Artificial. ¿Y Si Hablamos de Igualdad? Recuperado de: https://blogs.iadb.org/igualdad/es/deepfakes-violencia-basada-en-genero-inteligencia-artificial/

Instituto Nacional de las Mujeres. (13 abril de 2022). Mujeres de 18 a 24 años tienen 27% más de probabilidad de ser víctimas de violencia en línea: Informe del mesecvi. Gobierno de México. Recuperado de https://www.gob.mx/inmujeres/articulos/la-cirberviolencia-y-el-ciberacoso-es-una-realidad-que-debe-ser-visibilizada-con-datos

Kraft, Coralie. (4 de agosto de 2024). Los troles usaron su cara para hacer porno falso. ella no pudo hacer nada. The New York Times en español. Recuperado de https://www.nytimes.com/es/2024/08/04/magazine/sabrina-javellana-porno-ultrafalso.html

Luchadoras. (23 noviembre de 2017). 13 formas de agresión relacionada con las tecnologías contra las mujeres. Recuperado de https://series.luchadoras.mx/13-formas-violencia-linea-las-mujeres/

National Geographic. (2023, 15 noviembre). ¿Qué es un deepfake? Recuperado de: https://www.nationalgeographicla.com/ciencia/2023/11/que-es-un-deepfake

onu-Mujeres. (s. f.). Violencia contra mujeres y niñas en el espacio digital, lo que es virtual también es real. onu-Mujeres, México. Recuperado de https://mexico.unwomen.org/sites/default/files/Field%20Office%20Mexico/Documentos/Publicaciones/2020/Diciembre%202020/FactSheet%20Violencia%20digital.pdf

Procuraduría Federal del Consumidor. (26 de abril de 2021). La “Ley Olimpia” y el combate a la violencia digital. gob.mx. Recuperado de https://www.gob.mx/profeco/es/articulos/la-ley-olimpia-y-el-combate-a-la-violencia-digital?idiom=es

Sandoval, Francisco, De la Rosa, Donají y Aguilar, Verónica. (2021). La Ley Olimpia: una estrategia contra la violencia patriarcal en la era digital. Recuperado de https://ru.iiec.unam.mx/5609/

seon. (19 de abril de 2023). Deepfake: ¿Qué es y cómo funciona? seon es. Recuperado de https://seon.io/es/recursos/glosario/deepfake/

Simó, Elisa. (2023). Retos jurídicos derivados de la Inteligencia Artificial Generativa. InDret. Recuperado de https://raco.cat/index.php/InDret/article/view/415772/510577

[1] Jennifer Arias Mijangos es licenciada en Derecho y recién egresada, con un fuerte interés en los derechos humanos, especialmente en la defensa y promoción de los derechos de las mujeres. A lo largo de su formación, se ha enfocado en la equidad de género y la justicia social. Su perfil puede consultarse en ORCID: 0009-0008-4810-9052

[2] Toda la información de este caso fue obtenida de Kraft, Coralie. (2024, 4 de agosto). Los troles usaron su cara para hacer porno falso. ella no pudo hacer nada. The New York Times en español. Recuperado de https://www.nytimes.com/es/2024/08/04/magazine/sabrina-javellana-porno-ultrafalso.html

 

[3] Ley General de Acesso de las Mujeres a una Vida Libre de Violencia.

Anterior
Anterior

Experiencia corporizada de la discapacidad y el comienzo de una transformación como sujeto de derecho en un contexto de capacitismo

Siguiente
Siguiente

Ciencia y cultura, un viaje multidimensional a través del tiempo