Grave en Córdoba: estudiantes usaron IA para editar videos pornográficos con caras de compañeras

La familia de una de las chicas realizó la denuncia en la fiscalía de delitos contra la integridad sexual, pero según el fiscal hay una zona gris en la legislación y la justicia no puede hacer demasiado.

POLICIALES 02 de julio de 2024
20230922065717001392

Un gran escándalo en la comunidad educativa de un reconocido colegio de la ciudad de Córdoba generó la edición de material pornográfico por parte de estudiantes al que, mediante el uso de la Inteligencia Artificial, les agregaron las caras de sus compañeras.

El rostro de las damnificadas se colocó en cuerpos de mujeres adultas que aparecían en videos de contenido erótico, que fueron luego fueron subidos a la web y divulgados en sitios pornográficos.

El padre de una de las adolescentes involucradas realizó la denuncia ante la fiscalía de delitos contra la integridad sexual, que encabeza Juan Ávila Echenique, pero se encontró con limitaciones legales debido a que las víctimas tienen 18 años.

Según publica Cadena 3, el fiscal derivó la investigación a una unidad judicial contravencional de género, ya que desde el ámbito penal no se puede tomar ninguna acción al respecto. 

La situación generó indignación y cuestionamientos sobre la falta de sanción contra este tipo de delitos en los que ahora se utiliza inteligencia artificial, ya que no hay legislación al respecto.

Hace pocos días el diputado nacional por Córdoba, Juan Brügge, presentó un proyecto de ley para regular el uso de la IA de manera ética y transparente, respetando los derechos humanos, la privacidad, la seguridad y la equidad, pero aún no fue tratado por el Congreso.

Un Clic que destroza el Consentimiento

Paula Wachter, directora ejecutiva de Red por la Infancia, reflexiona acerca de cómo las aplicaciones de IA “borran de un plumazo el consentimiento” de las personas, pudiendo generar contenidos que “definitivamente son una forma de violencia sexual y digital”. La repercusión en la salud mental de las niñas, niños y adolescentes víctimas, alerta, está siendo enorme, gatillando problemáticas como los trastornos de ansiedad y depresión, autolesiones y hasta ideas de muerte. “Lo que nos tenemos que preguntar es cómo desarmamos esta cadena, que encima se va de las manos en un segundo: con tan solo un ‘click’, se puede desatar el infierno de un adolescente”, opina Wachter.

 Falta de Legislación

Las imágenes de chicas y chicos (muchas extraídas de sus propias redes sociales, de las de sus padres o amigos) son usadas para generar un contenido que después es comercializado en redes de pedofilia de la darkweb. Pero también hay material 100% “falso”: es decir donde tantos los rostros como los cuerpos son generados con inteligencia artificial. Se trata de un fenómeno nuevo que tiene en alerta a los especialistas, quienes ponen el foco en una cuestión central: hoy, en la Argentina resulta clave aggiornar la legislación para dar respuesta a esta tendencia en alza.

El avance de las nuevas tecnologías nos desafía a observar las legislaciones penales. A nosotros nos ingresan casos que son producciones ficticias, hechas con inteligencia artificial, tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en una situación de abuso sexual. Hoy en muchísimas legislaciones penales, tanto a nivel regional como internacional, esto ya es considerado un delito. Es una deuda que aún tenemos en la Argentina”, explica Daniela Dupuy, al frente de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas porteña.

Respecto a la situación normativa en nuestro país, la especialista diferencia entre:

  • Aquellos casos donde las imágenes de las chicas y los chicos son completamente ficticias, tanto el cuerpo como el rostro (es decir, que no se involucran a niños reales): esto en nuestro país aún no es considerado delito y sería fundamental que se lo incorpore cuanto antes a nuestra legislación penal, tal como ocurrió en otros países y como recomienda el Convenio de Budapest [un tratado internacional sobre ciberdelitos al cual la Argentina adhirió]. En ese sentido, Dupuy señala: “Su protocolo explicativo hace una interpretación sobre la que yo estoy a favor y es que todas esas imágenes irreales, ya sea a través de dibujos animados o que aparentan ser reales mediante el uso de la inteligencia artificial, son utilizadas por los delincuentes para convencer a los niños de que formen parte de actividades de abuso sexual, porque las naturalizan”.
  • Aquellos casos donde se utiliza la cara de una niña, niño o adolescente real y se hace un montaje con su cuerpo. Si bien esto aún no está contemplado como tal en nuestra legislación, como fiscal Dupuy insistiría, ante un caso como este, en que la Justicia condene a los responsables basándose en el artículo 128 del Código Penal, que habla de la producción y distribución de material de explotación sexual de niñas, niños y adolescentes. “Acá tenés una personita, un niño, que está siendo vulnerado”, dice Dupuy.

Hay dos proyectos de ley clave que buscan ponerle un freno a esta violencia. Uno de ellos busca penalizar la obtención y difusión no consentida de material íntimo. Se lo conoce como “Ley Belén”, en homenaje a Belén San Román, una joven de Bragado que se suicidó tras enterarse de que una expareja había viralizado un video íntimo suyo sin su consentimiento. El otro, busca incorporar este tipo de violencia digital como otra forma de violencia contra las mujeres. Lleva el nombre Olimpia, en honor a Olimpia Coral Melo, una mujer mexicana que fue víctima de la difusión no consentida de un video íntimo y que en 2020 logró que su país reconociera este tipo de prácticas como violencia digital.

Te puede interesar
Lo más visto