Proteger a víctimas de acoso y pornografía desarrollada con IA
21 enero, 2026
*** La inteligencia artificial ya se usa para violentar
*** México es uno de los países más peligrosos para mujeres, menores y población LGBTTTIQ+ en materia de acoso sexual y crímenes de odio; la omisión legal abre la puerta a la violencia digital: Mónica Sandoval
Redacción / Con Tlatelolco TV
Ciudad de México, miércoles 21 de enero de 2026.- La inteligencia artificial dejó de ser únicamente una herramienta de innovación para convertirse también en un nuevo instrumento de violencia sexual.
Hoy, la imagen, la identidad y la intimidad de mujeres, menores de edad y personas LGBTTTIQ+ están expuestas a la manipulación digital con fines sexuales, en un ecosistema virtual donde el acoso, la extorsión, la trata y la violencia de género avanzan con mayor velocidad que la ley.
El vacío legal protege a los agresores
La ausencia de un marco regulatorio sólido y actualizado ha permitido que estas prácticas se multipliquen con impunidad. La falta de sanciones claras y ejemplares deja en indefensión a las víctimas y convierte a México en terreno fértil para delitos sexuales cometidos mediante inteligencia artificial, particularmente contra sectores históricamente vulnerables de la población.
Reformar el Código Penal para frenar la pornografía de odio
Ante este escenario, la diputada del Grupo Parlamentario del Partido Revolucionario Institucional (PRI), en la Cámara de Diputados, Mónica Sandoval, presentó una iniciativa con proyecto de decreto para reformar el Código Penal Federal en materia de pornografía en razón de orientación sexual, identidad de género o condición social, con el objetivo de cerrar los vacíos legales que hoy permiten la violencia digital y la revictimización.
Deepfake sexual: violencia sin contacto, daño permanente
Una de las expresiones más graves de esta problemática es el deepfake sexual, es decir, la creación de pornografía no consentida mediante herramientas de inteligencia artificial. Esta práctica vulnera la dignidad, la privacidad y la identidad de las personas, y reproduce patrones de violencia sexual y de género cuyos daños psicológicos, sociales y laborales pueden ser irreversibles.
La IA avanza más rápido que la protección a las personas
Mientras la inteligencia artificial se integra de manera acelerada en la educación, el trabajo y la vida cotidiana, la protección legal de las personas avanza a paso lento. Estudios de la Universidad Nacional Autónoma de México (UNAM) revelan que más de 80 por ciento de docentes y estudiantes utilizan herramientas de IA en actividades académicas, sin que existan protocolos efectivos para prevenir su uso con fines delictivos.
Productividad para las empresas, riesgo para las víctimas
En el ámbito laboral, 67 de cada 100 trabajadores y 78 por ciento de las empresas ya emplean inteligencia artificial para optimizar procesos, incrementando la productividad y los beneficios económicos. Sin embargo, este avance tecnológico contrasta con la falta de controles éticos y legales que impidan que las mismas herramientas sean utilizadas para violentar cuerpos, identidades y vidas en el entorno digital.
La industria de la pornografía con IA tiene rostro de mujer
Los datos exhiben una realidad alarmante: 96 por ciento de las imágenes generadas con inteligencia artificial son pornográficas y 99 por ciento de ellas representan a mujeres. La violencia digital reproduce la desigualdad estructural y coloca nuevamente a los cuerpos feminizados como objeto de explotación sexual.
La niñez, objetivo creciente de la violencia digital
La Internet Watch Foundation (IWF) alertó sobre un incremento del 360 por ciento en la manipulación de imágenes de niñas y niños de entre 7 y 10 años con fines sexuales. La inteligencia artificial ha ampliado el alcance de los agresores, mientras la respuesta institucional sigue siendo insuficiente.
La diversidad sexual, blanco permanente de la violencia
De acuerdo con la Encuesta Nacional sobre Diversidad Sexual y de Género (ENDISEG) 2021, en México existen más de 97 millones de personas mayores de 15 años, de las cuales al menos 5 millones —alrededor del 5 por ciento— se reconocen como parte de la comunidad LGBTTTIQ+. Lejos de garantizar su protección, el país se mantiene como uno de los más peligrosos para esta población, tanto en el espacio público como en el entorno digital.
Crímenes de odio y omisión del Estado
Más de 37 por ciento de las personas LGBTTTIQ+ ha denunciado actos de discriminación en los últimos años. Entre el 1 de octubre de 2024 y el 30 de septiembre de 2025, se registraron 281 asesinatos de personas trans por crímenes de odio. Las mujeres lesbianas enfrentan una doble discriminación, mientras que los hombres gay se ubican entre los grupos con mayores índices de violencia y acoso.
Omisión del Estado, violencia garantizada
La violencia digital no es un daño colateral del avance tecnológico, sino una consecuencia directa de la falta de voluntad política. Mientras el Estado retrasa la actualización del marco legal, los agresores operan con impunidad y las víctimas quedan desprotegidas. No legislar sobre el uso criminal de la inteligencia artificial equivale a tolerar el acoso sexual, la pornografía no consentida y los crímenes de odio. La responsabilidad es institucional, el daño es colectivo y la deuda del Estado con mujeres, infancias y la comunidad LGBTTTIQ+ sigue creciendo.


