GÉNEROS
La Ley Belén vs el vacío legal de la IA
La norma que busca penar la difusión no consentida de imágenes íntimas aún enfrenta serios obstáculos. La irrupción de la Inteligencia Artificial plantea nuevos desafíos normativos y éticos para el resguardo de las víctimas de deepfakes, ciberflashing o “sextorsión”. Los delitos de este tipo están en crecimiento y en la Argentina no hay condenas.

La imagen mostraba el rostro de una adolescente argentina desnuda. Circulaba por WhatsApp en grupos escolares y nadie podía precisar de dónde había salido. Ella negaba haber posado. Tenía razón, no había posado. La foto no era real: había sido generada por Inteligencia Artificial (IA) a partir de una selfie pública en redes. No había cámara ni sesión ni consentimiento. Solo un software, un click y el daño estaba hecho. Este nuevo desafío encuentra un límite legal en el proyecto de la Ley Belén, heredera del caso de Belén San Román, pero aún camina en terreno movedizo. ¿Avanza la norma? ¿Responde al ritmo de la tecnología?
En los últimos meses del 2025 y 2024 se registraron en Argentina varias denuncias por la aparición de “deepfakes sexuales” generados mediante IA. Uno de los casos en Paso de los Libres, Corrientes, en mayo de este año, derivó en el bloqueo judicial de una web que permitía crear este tipo de contenidos, incluso con rostro de niñas y adolescentes. La jueza de Familia, Niñez y Adolescencia Marta Rut Legarreta, encargada del caso, remarcó que “el entorno digital no garantiza barreras efectivas de edad ni consentimiento” y calificó estos sitios como una nueva forma de violencia digital. El expediente cita a la Ley Olimpia y la Ley Belén.
Legislaciones como la Ley Olimpia (26,736) y otras medidas cautelares preexistentes han sido herramientas útiles para la remoción de contenido íntimo sin consentimiento y para preservar las evidencias para posibles acciones legales. Sin embargo, son medidas desactualizadas y no contemplan la pena ni la condena para quienes cometen los delitos, dejándolos así libres e impunes.
Belén San Román, madre de dos hijos, se quitó la vida en 2020 a los 25 años, luego de que se viralizara un video íntimo sin su consentimiento. La causa fue cerrada, nadie fue condenado. La Ley que lleva su nombre, impulsada por su familia y organizaciones como Amnistía Internacional, intenta reparar ese vacío legal: busca tipificar de manera clara la difusión no consentida de material íntimo y la creación de este tipo de imágenes mediante herramientas artificiales, modificando el Código Penal a través de la incorporación del artículo 155 bis.
Algunos de los delitos de violencia digital que penaliza son: el envío no solicitado de contenido sexual (ciberflashing), la “sextorsión” o chantaje a través de la amenaza de difundir material íntimo, la obtención sin consentimiento de imágenes sexuales o de desnudez, la distribución o reenvío de ese tipo de material sin autorización y la divulgación de montajes pornográficos generados mediante IA, conocidos como deepfakes pornográficos.
Casos de distribución de contenido íntimo en Argentina hubo siempre. Desde chicas adolescentes hasta mujeres de la farándula. A partir de 2023, los episodios aumentaron, esta vez con la intervención de la inteligencia artificial. En Rosario, un adolescente fue denunciado por crear y viralizar imágenes falsas con IA de sus compañeras desnudas; en Córdoba, una docente descubrió que circulaban deepfakes con su rostro en sitios pornográficos; y en Chubut, la fiscalía intervino ante la difusión de montajes íntimos sobre una influencer local. Y estos, son solo algunos de los casos conocidos.
UN EFECTO TRANSVERSAL
“La difusión no consentida de imágenes íntimas tiene un impacto transversal en todos los ámbitos de la vida de quien la sufre”, aseguró a ETER Digital la licenciada Laura Gamallo, psicóloga del Equipo Contra las Violencias Digitales del Ministerio de Justicia de la Nación: “Es clave trabajar en prevención, acompañamiento y educación digital con perspectiva de género, tanto en las familias como en las instituciones”.
Según advirtió, la difusión no consentida de imágenes íntimas puede generar “vergüenza, retraimiento social, culpa por haber confiado en la persona que compartió el material, ansiedad, ataques de pánico, insomnio, aislamiento, miedo al rechazo o al bullying, deterioro de la autoestima, depresión e incluso ideaciones suicidas”.
Las víctimas, en general, son mujeres especialmente adolescentes y adultas jóvenes. Y a la vez son quienes enfrentan una mayor carga de estigmatización social: “La cultura machista tiende a culpabilizar a la víctima, cuestionando por qué se sacó esas fotos, en lugar de responsabilizar al agresor por haberlas difundido”.
Aunque los efectos varían según la edad y el contexto, en adolescentes, el daño puede ser grave. “Afecta profundamente las relaciones familiares, sociales, escolares, laborales y comunitarias”, explicó.
AUMENTAN LOS CASOS EN COLEGIOS
Según un relevamiento de la Internet Watch Foundation (IWF), a partir de la incorporación de la Inteligencia Artificial hubo un crecimiento del 360 por ciento de las fotos sexuales publicadas en la web de niños y niñas de entre 7 a 10 años. A esta realidad global, se le suma además un panorama nacional actual donde la amplificación de los discursos de odio hacia las mujeres han aumentado. Pero el fenómeno no es local. Estos discursos de odio han crecido alarmantemente en el último año con el crecimiento de la ideología conservadora en todo el mundo.
Según el informe internacional “Synthetics Without Consent” de 2024, el 96 por ciento de todos los deepfakes en línea son pornográficos, no consensuados, y casi exclusivamente con mujeres como sujetos. La gran mayoría están generados con IA usando rostros de mujeres y niñas reales.
Durante el ciclo lectivo 2024–2025, se registraron en la Ciudad y en la Provincia de Buenos Aires al menos una decena de casos de deepfakes escolares, en los que estudiantes varones crearon y viralizaron imágenes sexuales falsas de compañeras mediante herramientas de IA.
En el Instituto Compañía de María del barrio porteño de Colegiales, tres alumnos fueron acusados de editar al menos 400 fotos con Inteligencia Artificial con caras de sus compañeras, chicas de otros cursos, alumnas egresadas y hasta profesoras, y unirlas a cuerpos desnudos.
En el Colegio San Agustiniano, de San Martín, un alumno vendía fotos creadas con IA de sus compañeras desnudas a través de un grupo de Discord con más de 8 mil miembros. Hubo más de 22 víctimas.
En un colegio de La Plata, el San Cayetano, un chico de 13 años, alumno del Colegio San Cayetano, trucó las fotos de sus compañeras, les agregó cuerpos de mujeres desnudas y las viralizó.
“LA PREVENCIÓN ES UNA TAREA COLECTIVA”
Estos son algunos de los casos que se conocieron en la Ciudad de Buenos Aires y en la Provincia. Sin embargo, a lo largo del país también ocurrieron hechos similares en Córdoba, Entre Ríos, Chaco, Río Negro, Santa Fe y hasta en una Universidad de San Juan.
Uno de los ejes que Laura Gamallo remarcó como importante es la posibilidad de prevenir estas violaciones: “La prevención es una tarea colectiva, cada institución y cada persona adulta debe comprometerse a construir entornos digitales más cuidados, empáticos y respetuosos”.
“No alcanza con que adolescentes sepan usar la tecnología: hay que enseñarles a hacerlo con responsabilidad, empatía y conciencia de los riesgos”, aseguró.
La especialista subrayó también la necesidad de una legislación más clara y una justicia más efectiva: “La falta de respuesta penal sigue siendo un factor que refuerza la impunidad de los agresores y revictimiza a quienes atraviesan estas situaciones. Es fundamental que las leyes se actualicen y que las respuestas judiciales sean más ágiles y efectivas. Esto no solo ayudaría a proteger a las víctimas, sino también a validar su experiencia y darles el espacio para sanar emocionalmente”, puntualizó.
“TENÍA 16 AÑOS CUANDO ME ARRUINARON LA VIDA”
Ante la alarmante situación, se activaron en CABA protocolos de ciberprotección en varias escuelas porteñas con denuncias formales e implementación de capacitaciones a docentes, intervenciones institucionales, procedimientos de denuncia ante fiscalías especializadas, y medidas institucionales para acompañar tanto a las víctimas como al resto de la comunidad escolar.
El protocolo, impulsado por el Ministerio de Educación de la Ciudad, apunta a orientar a escuelas públicas y privadas frente a situaciones como ciberacoso, difusión no consentida de imágenes íntimas, hackeo de cuentas o la publicación de información personal sin autorización.
Según datos de la Encuesta Periódica de Acoso Escolar 2024, el 40 por ciento de los adolescentes argentinos reportaron haber recibido mensajes ofensivos a través de redes o dispositivos móviles por parte de compañeros y se cree que la cifra está en aumento. Además, el protocolo no sólo establece sanciones, sino que promueve la reparación y prevención, incluyendo espacios de reflexión, registro de intervenciones, asesoramiento a familias y estrategias para la revinculación escolar de estudiantes responsables, con el fin de generar un entorno seguro, respetuoso y sostenible.
Detrás de cada caso, hay alguien que sufre. “Tenía 16 cuando me arruinaron la vida”: una adolescente de 17 años —cuya identidad prefirió no revelar— decidió contar en primera persona qué significó ser víctima de la difusión de contenido sexual falso creado con inteligencia artificial, y cómo esa experiencia cambió su vida para siempre. [Leé el testimonio completa acá] (Recuadro 1)
EL VACÍO LEGAL
En Argentina, el uso de deepfakes sexuales sin consentimiento aún está en un área gris. Según Damian Rodrigo Pizarro, abogado graduado de la UBA, hay proyectos para solucionarlo, pero actualmente el Código Penal no contempla estos casos en ningún artículo, lo que hace casi imposible la condena si estos delitos los sufre un adulto. “Hay un vacío legal y un daño social profundo. Se necesita un accionar político y legislativo que aún no se produjo”, sostuvo Pizarro.
“La violencia digital ha mutado y hay herramientas legales que todavía son extremadamente básicas y deficitarias. La Ley Belén dio un paso enorme y súper valiente en cuanto a esta lucha social, pero lo cierto es que todavía estamos a pasos agigantados de que el activismo se pueda traducir en justicia para las mujeres, sobre todo, u hombres que puedan ser afectados de esta manera”, aseguró el profesional.
“Hasta hoy, no hay condenas firmes por el uso de inteligencia artificial para generar imágenes íntimas falsas en Argentina. Hay denuncias, hay medidas cautelares, se ha ordenado la baja de contenidos para proteger la identidad digital, hay fallos civiles de reparación.. pero aún no hay penales”, ratificó el abogado. “Aún con una persona muerta, puede haber una persona no culpable. Y lamentablemente es lo que pasó con Belén San Román”.
La Ley Belén es un hito contra la violencia sexual digital y reconoce que la intimidad debe contar con protección jurídica. Sin embargo, su impacto depende de su implementación. La violencia digital no es una hipótesis del futuro, ya está sucediendo. Si el marco legal no se adecúa al ritmo de las herramientas que la potencian, los derechos digitales continuarán siendo una expectativa, no una garantía. La pregunta queda abierta: ¿evolucionarán la ley y la Justicia al ritmo de la tecnología o quedarán siempre rezagadas?
“Mi cuerpo dejó de ser mío”
Testimonio en primera persona de una víctima de deepfakes escolares*
“Tenía 16 cuando me arruinaron la vida. Era noviembre del año pasado, ya casi terminaba el año y yo estaba con la cabeza en las vacaciones, en terminar tranquila. Nunca pensé que algo así me podía pasar.
Pasó un lunes. Llegué al colegio y empecé a notar que me miraban raro. Al principio pensé que era idea mía, pero después vi a un par de compañeros riéndose con el celu en la mano, y a otros mirándome con una cara horrible. Pasé cerca y uno bajó la pantalla rapidísimo, pero ya lo había visto: era una foto mía, desnuda. No entendía nada. Yo nunca había mandado ninguna foto así. Me fui corriendo al baño, llorando, temblando y sin saber que hacer, me moría de vergüenza y no podía salir.
Más tarde me contaron unos compañeros a los que les llegaron las fotos, que habían usado una inteligencia artificial. Agarraron fotos mías de Instagram y con eso hicieron imágenes y hasta videos falsos. En algunos aparecía teniendo sexo con compañeros del colegio y hasta con un profesor. Obviamente todo era mentira, pero se veía tan real que un montón se lo creyeron.
El video llegó al grupo de padres del curso. Así se enteraron mis viejos. Me llamaron llorando. Mi mamá fue a buscarme al colegio, vino gritando, pidiendo explicaciones. Yo sólo quería desaparecer.
Las semanas después fueron una pesadilla. Dejé de ir al colegio porque mis compañeros me cargaban y no soportaba las burlas ni la vergüenza, aunque todo fuera mentira. No podía dormir, tenía miedo de salir a la calle y que me reconozcan chicos de otros colegios que hayan visto los videos. Me sentía sucia, sentía que mi cuerpo no me pertenecía más, que era de otros.
Empecé terapia y me enteré que no era la única. Que esto les pasó y les pasa a un montón de chicas de otros colegios. Me enteré que es un delito, que en otros países podes ir preso por hacerlo. Pero acá no.
Nunca se supo que compañeros lo hicieron, nunca nadie se hizo cargo y hasta siguieron riéndose como si fuera algo gracioso. Pero no es una joda. No tiene nada de gracioso. Hay chicas que se quitaron la vida por cosas así, me contó mi psicóloga.
Hoy ya pasaron unos meses y estoy en otra escuela. Todavía me cuesta hacer amigos de nuevo. Desde el día que pasó cerré todas mis redes y nunca más quise sacarme una foto. Todavía me cuesta. Estoy mejor, pero ya no soy la misma.
Y aunque nadie haya sido castigado por lo que me hicieron, cuento esto porque necesito que se sepa. Que es algo que pasa. Que te mata por dentro. Que no le pase a ninguna chica más.”
*El nombre fue reservado para preservar la identidad de la víctima.