Deepfakes y adolescentes: existe un vacío legal sobre los videos con contenido sexual creados con IA y su difusión en redes

Los deepfakes son contenidos generados con inteligencia artificial para crear secuencias falsas pero realistas. En la Argentina, varias escuelas reportaron casos de videos falsos con contenido pornográfico, y la problemática preocupa a los adolescentes y sus familias.

SociedadEl lunes Chequeado.com
Deepfakes

El uso de la inteligencia artificial para producir deepfakes con contenido sexual no consentidos está generando preocupación a nivel global y también en la Argentina. La utilización de esta tecnología para crear videos falsos con contenido pornográfico se reportó en escuelas de la Provincia de Buenos Aires, Córdoba, Chaco, Río Negro y San Juan.

A nivel mundial, la situación no es diferente, y existen miles de casos registrados en Corea del Sur, los Estados Unidos y Europa. Según el informe anual State of Deepfake 2023 de la empresa Security Hero que analiza al panorama en los Estados Unidos, la cantidad de deepfakes que simulan pornografía aumentó 464% en 2023. El 99% de este contenido falso está compuesto por mujeres.

¿Qué dice la legislación argentina sobre la creación y difusión de deepfakes con contenido sexual? ¿Cómo actuar ante la difusión de imágenes íntimas sin consentimiento? Te lo contamos en esta nota.

Qué es un deepfake

Se trata de un contenido generado sintéticamente con tecnología basada en inteligencia artificial (IA) con el objetivo de crear secuencias falsas pero realistas: a veces son imágenes y otras con videos con o sin voz real o clonada. 

En éstas se busca modificar la apariencia física e incluso la voz de las personas y hacerles decir o hacer algo que nunca dijeron o hicieron. Se denominan deepfake por la comunicación de deep learning (aprendizaje profundo, en inglés) y fake (falso, en inglés). 

Un vacío legal en la Argentina

“No hay una figura del Código Penal que castigue específicamente la creación de imágenes con inteligencia artificial”, explicó a Chequeado Florencia Zerda, abogada, especialista en género y cibercrimen y fundadora de Genti, una organización que promueve el activismo contra la ciberviolencia de género.

Según indicó la especialista, algunas fiscalías del país están intentando llevar adelante investigaciones por estas conductas basadas en el artículo 128 del Código Penal que castiga la tenencia, la distribución, la comercialización y la producción de material de abuso sexual infantil. “La realidad es que es difícil que se logre una condena porque allí no se habla de inteligencia artificial ni de imágenes creadas con IA. Considero que debería crearse una figura específica”, agregó Zerda.

Según explicó a Chequeado el fiscal Horacio Azzolin, a cargo de la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI), desde que se incorporó la figura de abuso sexual en en el Convenio de Budapest [N. de R.: un tratado internacional creado con el objetivo de proteger a la sociedad frente a los delitos informáticos y los delitos en Internet], a principios de siglo, se discutió acerca del tipo de imágenes juzgadas: ¿debían ser imágenes reales o podían ser simuladas?. 

“En ese entonces, el problema eran los dibujos. La convención dejó abierta la posibilidad para cada país y Argentina optó por sancionar la producción y tenencia de imágenes reales porque lo que protege la norma es la integridad sexual de niños y niñas”, explicó el especialista. 

Esa misma discusión resurge con la inteligencia artificial. “Si la imagen no muestra abusos reales, no encuadra en el delito de tenencia o producción de pornografía infantil del artículo 128 del Código Penal, pero sí habilita acciones legales por daños y perjuicios o penales por delitos contra el honor”, señaló Azzolin.

Por el momento, una de las vías legales ya existentes para abordar estos casos es la Ley Olimpia, una normativa que incorpora el concepto de “violencia contra mujeres en entornos digitales” a la Ley 26.485 de “Protección Integral a las Mujeres”.

“Con esta ley se le da la posibilidad a las mujeres, en este caso menores de edad, que sufren estas conductas. Por ejemplo, si el material está alojado en algún link que puede ser identificable, la persona denunciante podría solicitar el retiro de este contenido, la conservación de los datos informáticos y la posterior revelación para una investigación posterior que se realice ya sea por un delito o por daños y perjuicios”, indicó Zerda y aclaró que la Ley Olimpia solo aplica a víctimas que son mujeres.

En el caso de adolescentes varones, Zerda indicó que “la víctima podría interponer una medida cautelar preventiva del derecho civil común para peticionar que se retire este contenido porque afecta derechos fundamentales y el interés superior de niños, niñas y adolescentes, además de estas medidas cautelares para pedir la remoción de contenido”.

Para Ana Correa, coordinadora del posgrado sobre violencia de género en entornos digitales de la Facultad de Derecho de la Universidad de Buenos Aires, la falta de legislación está produciendo demasiado daño a las víctimas de deepfakes sexuales.

“Si bien hay herramientas importantes para aplicar en los casos de elaboración y difusión de deepfakes de índole sexual como el actual delito de injurias y la Ley Olimpia, urge incorporar a la Educación Sexual Integral (ESI) la prevención y concientización en niños y niñas sobre esta herramienta que genera mucho malestar, dolor y consecuencias sociales y en la salud mental, tanto en las víctimas como en los perpetradores menores de edad”, sostuvo.

Proyectos de ley presentados ante el Congreso

Existen diversos proyectos legislativos en curso para penalizar estas conductas. “Desde la organización Gentic y el grupo Ley Olimpia Argentina, presentamos con la diputada Mónica Macha (Unión por la Patria) un proyecto complementario a Ley Olimpia”, explicó Zerda. El proyecto presentado por Macha, denominado “Ley Belén”, prevé penalizar específicamente la figura de los montajes con inteligencia artificial.

También existen otros proyectos que proponen penalizar la creación y difusión de contenidos deepfake sin consentimiento, como el presentado por el diputado nacional Juan Brügge (Encuentro Federal), o el proyecto de la diputada Silvana Giudici (PRO) que propone incorporar al Código Penal penas de prisión de hasta 6 años y multas para quienes utilicen estas tecnologías sin autorización del titular de los datos con la intención de causar daño. 

El 2 de diciembre último se presentó otra propuesta por parte de la diputada por Chubut Eugenia Alianiello y el diputado por Jujuy Guillermo Snopek (Unión por la Patria) para regular los delitos contra la integridad sexual. La propuesta es incorporar 2 artículos al Código Penal para proteger a niños, niñas y adolescentes de la violencia digital. 

Qué pasa en otros países

En el resto del mundo, también se están adecuando las normas para tipificar la creación y distribución del deepfake como un delito. Se destacan las legislaciones de algunos estados de los Estados Unidos, como Virginia y California, o Gales e Inglaterra que regulan el material deepfake que simula material audiovisual de contenido sexual. 

En la Unión Europea, esta problemática fue contemplada en la flamante Ley de Inteligencia Artificial que se complementa con las leyes de privacidad existentes y establece un sistema de etiquetado para las tecnologías de IA pero no contempla mecanismos punibles. Por eso se está trabajando en una normativa que penaliza la creación de deepfakes sexualmente explícitos. 

En Corea del Sur y en Inglaterra, se aprobaron proyectos de ley que tipifican como delito poseer y compartir imágenes y videos deepfakes sexualmente explícitos, con penas que incluyen hasta 7 años de prisión y multas. En España, se aprobó un anteproyecto que tipifica como delito las ultra falsificaciones, que incluyen la creación y distribución de vídeos, fotos o audios manipulados que parecen reales. 

Cómo actuar ante la difusión de imágenes íntimas

Con respecto a cómo actuar en caso de difusión de imágenes íntimas, sean o no deepfakes, Zerda indica que es recomendable el acompañamiento terapéutico para las víctimas: “No juzgarlas, no revictimizarlas, no cuestionar la actividad digital que tienen. Es muy común en los padres decir: ‘Bueno, ¿por qué subiste tantas fotos a tu Instagram? Ahora te las robaron’. No caer en ese tipo de cuestionamientos porque no suman nada, perturban a los y las adolescentes”. 

También recomienda: 

  • Resguardar la evidencia digital.
  • Consultar con un perito informático o un escribano para que se constaten los mensajes o las publicaciones que se hayan hecho antes de instar una acción judicial.
  • Siempre denunciar, si quiere la víctima.

“Aunque no haya quizás una figura legal específica recomendamos hacerlo porque quizás se crean precedentes sobre el artículo 128 del Código Penal. También se pueden hacer acciones civiles o acciones precautorias que le pueden dar un poco de tranquilidad a las personas afectadas”, sostuvo Zerda.

Para más asesoramiento, se puede acudir a la Línea 144 que brinda asistencia y orientación a las víctimas de violencia de género, acudir a la fiscalía más cercana o consultar a Género y TIC, que brinda asesoramiento jurídico y psicológico y ofrece opciones de contacto.

Desde el Ministerio Público Fiscal de la Ciudad de Buenos Aires indican, además, que se puede radicar la denuncia a través del sitio web del organismo. 

Te puede interesar
Lo más visto