MENÚ
MALDITA EXPLICA

Corea del Sur se enfrenta a un aumento de casos de 'deepfakes' pornográficos de menores de edad, creados con IA y distribuidos a través de Telegram en institutos

Publicado
Actualizado
Claves
  • En Corea del Sur, se ha denunciado la creación y distribución de cientos de 'deepfakes' pornográficos creados con IA, una práctica que afecta principalmente a chicas menores de edad
  • Según el Gobierno del país, los autores son adolescentes y hombres jóvenes que difunden los contenidos a través de canales de Telegram 
  • Hasta julio de este año, según la Policía del país, se han denunciado un total de 297 casos en el país

Comparte
Categorías
Recursos utilizados
Búsqueda de Google
Superpoderes

Usuarios en las redes sociales, medios de comunicación y las autoridades de Corea del Sur han informado en los últimos días de centenares de casos de creación y distribución de 'deepfakes' pornográficos. Se trata de imágenes sexuales realizadas con inteligencia artificial (IA) a partir de imágenes reales de las víctimas. Algunas creaciones incluyen a chicas menores de edad

Se han reportado deepfakes en centros educativos, pero también se ha informado de casos entre familiares o compañeros de trabajo. Los contenidos manipulados con IA se crean y distribuyen en canales tematizados de Telegram. La práctica está penada en Corea del Sur con cinco años de cárcel o una multa de hasta 33.800 euros.

Según el presidente de Corea del Sur, las víctimas son mayoritariamente chicas menores de edad y los autores son adolescentes y hombres jóvenes

Los delitos se están perpetrando mayoritariamente en centros educativos del país, desde escuelas, institutos o universidades. Según el presidente de Corea del Sur, Yoon Suk-yeol, quien ha pedido investigar lo sucedido, las víctimas son menores de edad y los autores de las imágenes son adolescentes y jóvenes de entre 20 y 30 años. "Instamos a las autoridades a que lleven a cabo una investigación exhaustiva y erradiquen estos delitos sexuales digitales", dijo el mandatario el 27 agosto en declaraciones recogidas por los medios.

Se trata de imágenes pornográficas de mujeres jóvenes creadas con IA. La práctica se está denunciando en las redes sociales de gran alcance como Twitter (ahora X) y en inglés, para llegar al mayor número de personas. Una usuaria indicaba precisamente en X que, junto a los centros educativos, también se están produciendo casos entre familiares y compañeros de trabajo. El periódico surcoreano Hankyoreh menciona que hay funcionarias, profesoras, enfermeras, deportistas y mujeres dentro del Ejército de Corea del Sur o la Policía que también han sido víctimas de esta práctica digital.

Por ello, han surgido iniciativas ciudadanas, como un mapa interactivocreado por un estudiante de secundaria tras saber que compañeras suyas habían sido víctimas, y denunciar el problema. El mapa recoge los presuntos delitos de deepfakese incluye un buscador por escuelas, ya hay al menos 588 centros registrados. "Hemos recibido cientos de correos electrónicos [...] y estamos recopilando una lista de las escuelas que se han visto afectadas, pero nuestra capacidad para determinar los daños reales es limitada", indica el creador en una entrevista con la televisión coreana JTBC el 28 de agosto.

Fuente: deepfakemap.xyz.

La BBC, The Guardian y Reuters, que mencionan a fuentes de la policía de Corea del Sur, indican que, hasta julio de este año, se han denunciado 297 casos, frente a los 180 casos denunciados de 2023. Según Yonhap, la principal agencia de noticias de Corea del Sur, el Ayuntamiento de Seúl cuenta con un servicio de ayuda y asesoramiento para quienes hayan sido víctimas de estos delitos sexuales. La distribución de 'deepfakes' está penada con cinco años de cárcel o una multa de hasta 33.850 euros (5.000 wones), según recoge la ley que castiga los delitos de violencia sexual en Corea del Sur.

Los 'deepfakes' se crean con IA y se distribuyen a través de canales de Telegram organizados por áreas o centros educativos

Los contenidos pornográficos generados con IA se distribuyen a través de aplicaciones de mensajería como Telegram. Según las denuncias publicadas en las redes sociales, las salas de chat están organizadas por regiones, escuelas y universidades. Allí, enviando imágenes o vídeos de las víctimas, obtenidas a través de las redes sociales, los deepfakes se crean al instante de forma gratuita o previo pago y luego se extorsiona a las víctimas o se quedan publicados en las salas de chats tematizadas. En uno de esos canales ha llegado a haber hasta 227.000 usuarios.

Fuente: periódico surcoreano Hankyoreh.
Fuente: periódico surcoreano Hankyoreh.

Aquí en España, el pasado mes de septiembre, varias madres de Almendralejo (Extremadura) denunciaron la difusión de desnudos de sus hijas creados con IA. A nivel legal, el uso de deepfakes sin el consentimiento de la persona y con fin sexual en España se consideraría una "intromisión ilegítima" en el honor, la imagen y los datos de la persona, algo que está protegido por ley y vulneraria los derechos de la persona afectada.

Eduard Blasi, abogado y divulgador del canal Tech and Law y maldito que nos ha prestado sus superpoderes, indica a Maldita.es que también se podría considerar un delito de revelación de secretos [art. 179 del CP] y acoso sexual [art. 184 del Código Penal]. Si los deepfakes se usan para hacer daño a la víctima, se trataría de un delito de injurias que conlleva una pena de tres a siete meses o de seis a 14 si es con agravantes. 

Blasi detalla también que el Gobierno aprobó en junio de 2024 un anteproyecto de ley sobre la protección de las personas menores de edad en los entornos digitales. En el texto, aún pendiente de aprobar, se "tipifica como delito" la creación de un deepfake con fin pornográfico, buscando así un "tipo específico delictivo" para estas situaciones y evitar su "inseguridad jurídica".

El uso de deepfakes sin consentimiento en contenidos pornográficos es una práctica extendida que afecta mayoritariamente a mujeres famosas. El próximo 1 de septiembre tendrá lugar una campaña en X para denunciar públicamente a los agresores surcoreanos con el uso de una serie de hashtags.

En este artículo ha colaborado con sus superpoderes el maldito Eduard Blasi, experto en derecho digital y cofundador de Tech and Law

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla:mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos yhazte Embajador.

* Este artículo se ha actualizado el 10 de septiembre de 2024 para añadir las declaraciones de Eduard Blasi.


Primera fecha de publicación de este artículo: 30/08/2024

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.