La tendencia es tan alarmante como creciente: cada vez más pedófilos utilizan inteligencia artificial (IA) para crear material de explotación sexual de niñas, niños y adolescentes, la mal llamada “pornografía infantil”. Se trata de un fenómeno mundial del cual la Argentina no escapa: mediante el uso de esta tecnología, se generan imágenes y videos hiperrealistas que luego son comercializados en la dark web, la internet oculta donde suelen operar las redes criminales.
Esta realidad plantea nuevos desafíos en el ámbito penal, ya que la legislación argentina —a diferencia de lo que ocurre en otros países, como España— no contempla expresamente las creaciones digitales de este tipo de material.
En ese contexto, la Cámara de Apelaciones de Zárate-Campana emitió hace unas semanas un fallo pionero: consideró que el actual artículo 128 del Código Penal, que regula la tenencia, producción y distribución de material de explotación sexual de chicos y chicas, también comprende las representaciones generadas o modificadas mediante IA, aun cuando no haya víctimas reales identificadas.
Para la Cámara, la creación de estas imágenes constituye un delito y puede ser penada. Fue la primera vez que los magistrados tuvieron que expedirse sobre un caso de este tipo, y no conocían antecedentes en el país.
Desnudadas con IA: el abuso al que le temen las adolescentes
“Eran niños de entre tres y 13 años”
En ocasiones, el material creado por IA incluye rostros de chicos reales (a veces extraídos de sus redes sociales o de las de sus padres o amigos). Pero también existe material completamente falso, en el que tanto los rostros como los cuerpos son generados digitalmente.
En todos los casos, se muestra a niños, incluso bebés, siendo abusados sexualmente. De hecho, el término “toddlers”, que refiere a pequeños de menos de tres años, es uno de los más buscados en las redes de pedofilia.
El fallo de la Cámara se basó en que el daño provocado por este tipo de material, incluso si es digital, es real y vulnera el interés superior de niñas, niños y adolescentes. Además, se inscribe en un contexto donde crece el consenso sobre la urgencia de reformar el Código Penal para tipificar de manera explícita estos delitos.
El caso que dio lugar al fallo comenzó cuando un hombre, identificado en el expediente, al que accedió LA NACION, como D.O.P., fue acusado de tenencia y distribución de material de explotación sexual de menores de entre 3 y 13 años, tras hallarse numerosas fotos y videos en su computadora.
Su defensa sostuvo que no se había acreditado la existencia de víctimas reales y que el contenido podía haber sido generado o alterado con IA. Argumentó que el artículo 128 busca proteger a menores concretos y no penaliza representaciones ficticias.
Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro rechazaron esa postura y confirmaron la elevación de la causa a juicio. Fuentes judiciales explicaron a LA NACION que, tras varios días de debate, los magistrados concluyeron que el artículo 128, reformado por la Ley 27.436 en 2018, contempla representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas.
“La defensa del acusado planteó, en primer lugar, algo clásico en estos casos: la falta de individualización de los menores en las imágenes y la indefinición de sus edades. Decían que no había víctimas concretas porque no se sabía quiénes eran esos chicos ni qué edad tenían. Pero, viendo las fotos, era evidente que se trataba de menores, incluso de menos de 13 años, lo que es un agravante”, señaló a LA NACION una fuente judicial cercana al caso.
El segundo argumento de la defensa, por su novedad, fue el más desafiante: alegar que las imágenes podrían haber sido generadas por IA. Los jueces lo abordaron en dos planos. Primero, citaron el informe de un perito que aseguró que es posible determinar mediante análisis técnico si las imágenes fueron creadas digitalmente, algo que podría definirse en la etapa judicial posterior.

Aunque eso bastaba para elevar la causa, los jueces decidieron además pronunciarse sobre si las imágenes creadas con IA pueden constituir delito. Para responder, se basaron en:
- La definición de “representación” de la Real Academia Española, que indica que es una “imagen o idea que sustituye a la realidad”. Según los jueces, estos contenidos generados por IA contribuyen a normalizar la pedofilia y pueden llevar a buscar material real.
- La Convención sobre los Derechos del Niño, que insta a los Estados a prohibir la explotación sexual en todas sus formas.
- El Segundo Protocolo Facultativo de esa Convención, que define “pornografía infantil” como toda representación, por cualquier medio, de un niño en actividades sexuales explícitas, reales o simuladas.
- El Convenio de Budapest sobre ciberdelincuencia, al que Argentina adhirió, aunque con reservas que excluyeron de la definición de “pornografía infantil” los casos donde un adulto aparece disfrazado de menor y las imágenes realistas que representen a un menor en actos sexuales explícitos. “Nuestro país hizo la reserva porque entendía que esos supuestos eran incompatibles con el Código Penal. Pero también había hecho una reserva respecto de la tenencia simple de pornografía infantil, y eso cambió en 2018, cuando se la tipificó como delito”, explicó la misma fuente judicial.
La reforma de 2018 amplió el artículo 128 para incluir la tenencia simple de material de explotación sexual de chicos y chicas, y elevó las penas. También adecuó el lenguaje a estándares internacionales, refiriéndose a “representaciones de menores de 18 años dedicados a actividades sexuales explícitas o cualquier representación de sus partes genitales con fines sexuales”.
“Todo esto les permitió a los magistrados decir que las imágenes simuladas configuran delito en los términos del artículo 128 y, por ende, pueden ser penadas”, resumieron fuentes judiciales.}
Un fiscal revela cómo operan las grupos de pedofilia en las juegos en línea y redes sociales
Entre 400 y 500 denuncias por día
¿Cómo llegan a la Justicia los casos de pedófilos que producen o difunden este material? Daniela Dupuy, titular de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas porteña (UFEDyCI), explica que el circuito comienza cuando las empresas de internet detectan que algún usuario sube imágenes o videos de explotación sexual. Deben denunciarlo a la ONG estadounidense National Center for Missing and Exploited Children y, si el IP está en Argentina, el caso se deriva a UFEDyCI.
A nivel nacional, se reciben entre 400 y 500 reportes diarios. Dupuy y su equipo ven cada vez más casos vinculados a material creado mediante IA. Según explica, hay dos grandes situaciones:
- Cuando las imágenes son completamente ficticias, tanto rostro como cuerpo. Hoy, esto no está expresamente tipificado como delito en la Argentina, por lo que la fiscal considera fundamental incorporarlo en la ley, tal como recomiendan tratados internacionales como el Convenio de Budapest. “El protocolo explicativo interpreta —y yo coincido— que incluso las imágenes irreales, ya sean dibujos animados o creadas por IA, son usadas por delincuentes para convencer a niños de participar en abusos, porque las naturalizan”, advierte Dupuy.
- Cuando se utiliza la cara de un niño real y se la monta en un cuerpo sexualizado. Aunque aún no está previsto expresamente en la ley argentina, como fiscal Dupuy insistiría, ante un caso como este, en que la Justicia condene a los responsables basándose en el artículo 128 del Código. “Acá tenés una personita, un niño, que está siendo vulnerado”, dice.
Dupuy, quien además dirige el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral, recuerda el motivo por el cual en 2018 se incorporó la figura de la tenencia simple de material de explotación sexual infantil. “Esto tiene que ver con el circuito de los pedófilos: el que tiene una o dos imágenes siempre quiere más y distintas. Para acceder a ese material, hay que intercambiarlo, como si fueran figuritas. Y la demanda genera más oferta. La oferta implica producción, y la producción implica abuso”, advierte.
En esa última reforma del Código no se discutió la posibilidad de sumar expresamente las imágenes generadas por IA, porque el fenómeno todavía no era tan visible. Para Dupuy, es urgente avanzar en una reforma legal: “Se necesita una modificación expresa del Código que nos evite interpretaciones. Es muy difícil determinar si las imágenes creadas con IA son reales o ficticias. Aunque los chicos que aparecen no existan, esto vulnera el interés superior de niñas, niños y adolescentes”, concluye.
Después de que un hombre fuera acusado de distribuir material de chicos de entre 3 y 13 años, la Cámara de Apelaciones de Zárate-Campana determinó que aún si hubiese sido creado digitalmente, debía ser penado; no hay otros antecedentes en el país Comunidad

