

Por: Ana Reza Calvillo
Publicación original de: El Sol de México
La inteligencia artificial ya no es una promesa futura: está integrada en la vida cotidiana. Produce textos, imágenes y videos con una facilidad que hasta hace poco parecía ciencia ficción. Sin embargo, mientras celebramos sus posibilidades, un riesgo antiguo se expande con una fuerza inédita: la violencia sexual contra niñas, niños y adolescentes.
Desde una perspectiva de derechos, este no es un problema técnico. Es un problema de protección, de prevención y de responsabilidad social que no admite neutralidad.
Las cifras son una primera señal de alarma. En los últimos dos años, la línea internacional de denuncias cibernéticas del National Center for Missing and Exploited Children (NCMEC) ha recibido más de 70 mil reportes de explotación sexual infantil vinculados al uso de inteligencia artificial. El propio centro advierte que estos casos no harán más que aumentar. No se trata de escenarios hipotéticos ni de riesgos futuros, es una situación que está ocurriendo ahora.
Uno de los frentes más graves es la generación de material de abuso sexual infantil mediante herramientas de inteligencia artificial. Hoy es posible crear imágenes sexualizadas de niñas y niños —incluidos desnudos o actos sexuales explícitos— sin que exista un hecho real previo. Aplicaciones de nudify transforman fotografías ordinarias en imágenes sexualizadas en cuestión de segundos. Basta muy poco para generar estas imágenes, pero el daño que causan es profundo y duradero.
Por eso la discusión no puede quedarse atrapada en si la imagen es “real” o “falsa”. La vulneración es real. Se violan derechos fundamentales: a la intimidad, a la imagen, a la integridad personal y a un desarrollo libre de violencia. El impacto psicológico y emocional no distingue entre lo generado y lo simulado; acompaña a la víctima durante años, a veces durante toda la vida.
La inteligencia artificial también ha redefinido los riesgos de agresión sexual en línea. La creación de cuentas de redes sociales falsas cada vez más verosímiles, el uso de fotos de perfil “confiables” y conversaciones automatizadas facilita el acercamiento de agresores con fines sexuales. Esto no solo vuelve más difícil la prevención, sino que traslada la carga de protección a niñas, niños, adolescentes y sus familias, obligándoles a identificar amenazas que se perfeccionan constantemente.
A esto se suma un fenómeno particularmente peligroso: la sextorsión mediada por inteligencia artificial. Los agresores crean imágenes sexuales sintéticas para chantajear; exigir más contenido, forzar conductas sexuales o extorsionar económicamente. El NCMEC ha documentado situaciones en las que, ante la negativa del niño, niña o adolescente a enviar una imagen íntima, el agresor genera una imagen explícita con IA para ejercer presión. Aquí, el daño no depende de lo que ocurrió, sino del poder de la amenaza y del miedo.
Y no siempre se trata de adultos desconocidos. La violencia entre pares también está mutando. En contextos escolares, compañeros pueden crear o difundir imágenes o videos falsos con fines de humillación, control o castigo social. La rapidez con la que estos contenidos circulan convierte el acoso en una forma de violencia persistente, difícil de contener y devastadora para quien la padece.
La inteligencia artificial permite producir y difundir violencia simbólica a gran escala, con bajo o ningún costo, alto anonimato y enormes dificultades para su detección. La sofisticación técnica no solo beneficia a la innovación; también fortalece a los agresores.
Existe además un riesgo más profundo, menos visible pero igualmente peligroso: la normalización de la sexualización infantil en entornos digitales. Concebir este tipo de contenido como simulación, experimento o avance tecnológico diluye límites éticos esenciales. Desde una perspectiva de derechos, esto es inaceptable. La infancia no puede convertirse en un terreno de prueba del desarrollo tecnológico.
El debate, entonces, no es si la inteligencia artificial debe avanzar, sino bajo qué reglas, con qué responsabilidades y con qué límites. El principio del interés superior de la niñez exige que la protección de sus derechos esté por encima de intereses comerciales, vacíos legales o esquemas de autorregulación que han demostrado ser insuficientes.
Aquí el papel del Estado es insustituible. En México, las autoridades deben actuar con claridad y sin demora. Se requieren marcos legales que reconozcan la generación y difusión de contenidos sexuales mediante inteligencia artificial como formas de violencia y explotación contra niñas, niños y adolescentes. Se necesitan capacidades reales para investigar y sancionar estos delitos, así como obligaciones claras para las plataformas tecnológicas.
Sin embargo, la respuesta no puede ser solo punitiva. Es indispensable fortalecer la prevención y la educación digital, dotar a escuelas y familias de herramientas para identificar riesgos, y garantizar rutas de denuncia y atención que sean accesibles, eficaces y centradas en las víctimas.
La pregunta de fondo no es tecnológica, es moral y política: ¿qué estamos dispuestos a tolerar como sociedad en nombre del progreso? Cada día que la regulación se posterga, que la responsabilidad se diluye y que la protección de la infancia se subordina a la velocidad de la innovación, se envía el mensaje de que el daño es un costo aceptable. La inteligencia artificial no es neutral, y tampoco lo es la inacción.
Si el desarrollo tecnológico avanza más rápido que nuestra capacidad de proteger a niñas, niños y adolescentes, entonces no estamos frente a un avance, sino frente a una renuncia a la responsabilidad colectiva.