¡Feliz sábado, malditos y malditas! Esta semana hemos tenido que volver a estar pendientes de Twitter, que andaba suspendiendo cuentas a diestro y siniestro, y de estafas telefónicas, como te contamos al final de la newsletter. Pero el tema central que nos ocupa es bastante crudo, como pasa a menudo cuando nos sumergimos en redes sociales como TikTok: hay vídeos permitidos por la plataforma que llegan a menores y dirigen a webs con pornografía.
En TikTok hay vídeos que pueden llevar a menores a pagar por reseñas de penes
Frotar un objeto con forma fálica o simular el orgasmo. Estos contenidos y otros muchos llenos de gestos sexuales y expresiones eróticas se publican en TikTok detrás de trends y hashtags. Se hace en perfiles sobre todo de mujeres jóvenes (reales o generadas con inteligencia artificial), que después dirigen a páginas de contenido explícito pornográfico y de pago, como OnlyFans.
Este es el quid de la cuestión, que TikTok no es OnlyFans. TikTok es una plataforma donde la edad mínima para crearse una cuenta es de 13 años (aunque, en realidad, es bastante fácil mentir y abrir una cuenta incluso siendo menor de esa edad) y que usan a diario millones de niños, niñas y jóvenes. Aunque no sean vídeos explícitos, la respuesta de nuestra mente al verlos sí es pornográfica, según nos han explicado los expertos con los que hemos hablado.
Estos contenidos están permitidos dentro de la aplicación, aunque TikTok aplica algunos obstáculos para limitar su difusión: los excluye del Feed 'Para Ti' y no los muestra a usuarios menores de edad… Pero sí que se pueden buscar, sea cual sea nuestra edad. Así hicimos: nos creamos una cuenta como si tuviéramos 14 años (facilísimo) y empezamos a buscar este tipo de contenidos (también muy fácil). Tras varios días consumiendo contenido erótico y visitando perfiles de mujeres que únicamente publican estos vídeos, el algoritmo nos los mostraba automáticamente al abrir la aplicación.
¿Riesgos? Como adelantábamos, todas las cuentas de TikTok que hemos analizado tienen el mismo objetivo: dirigir a los usuarios a una plataforma externa que permite imágenes y vídeos eróticos. En esta segunda plataforma, hay contenido explícito de pago. Hay ejemplos en los que TikTok dirige al usuario a canales abiertos de Telegram donde comercializan con contenidos explícitos y el método de pago es muy directo. Establecen los precios para cada tipo de contenido: imágenes, vídeos e incluso servicios extra como dar reseñas de penes por texto, vídeo o videollamadas. Es loquísimo, por no decir otro adjetivo, pensar que hasta ahí pueden llegar niños.
Que los menores consuman este tipo de vídeos a esa edad también implica otros riesgos, para ellos y para la sociedad: facilita la creación de una imagen distorsionada de la sexualidad y los encuentros sexuales, y normaliza ciertos comportamientos (roles y prácticas sexuales que se pueden considerar normales cuando no lo son) e ideas (como la hipersexualización de la mujer). Lo hemos analizado e investigado todo aquí.
No son los únicos contenidos jodidos que hay en TikTok (y en otras redes sociales). Vídeos que pueden potenciar trastornos de alimentación, especialmente entre los adolescentes; minijuegos de apuestas; retos que se hacen virales y son peligrosos… Repito, ¿es que nadie va a pensar en los niños?
Mientras, en la Unión Europea siguen hablando de los riesgos de la “adicción” a redes sociales como esta y de proteger a los niños con la Ley de Servicios Digitales (DSA). La Comisión Europea ya ha abierto un expediente sancionador contra TikTok por la falta de protección a menores, falta de transparencia y uso de diseños adictivos, como contamos aquí. En España, el presidente del Gobierno, Pedro Sánchez, anunció en enero de 2024 una propuesta para una ley que proteja a los menores en internet, concretamente del porno, y se ha creado un comité de expertos.
La distopía ya no es la historia, sino cómo está grabada
Después de la explosión de la IA generativa de imágenes a finales de 2022 y 2023, varios análisis han pronosticado que en 2024 le llega el turno al vídeo y vimos avances como Sora, de OpenAI. Bueno, pues esperamos que lo que está por llegar no sea esto…
“An AI powered love story”. Es decir, una historia de amor impulsada por la IA. Esto es el tráiler de Next Stop Paris, una comedia romántica digna de Peli de Tarde presentada por TCLtv+, que es un servicio de televisión digital gratuito que viene integrado en los televisores TCL.
Como puedes ver en el tráiler, está lleno de errores visuales típicos de los vídeos generados con inteligencia artificial. Sincronización de labios errónea, miradas a la virulé, escenas y fondos borrosos, formas de caminar extrañas, deformaciones… Es un cuadro. ¿Será una broma? Pues la compañía dice que no. Lo he leído en 404 Media, donde lo analizan.
Sobre otro tipo de generación de contenidos con IA están dando pasos en Reino Unido: una nueva iniciativa del Gobierno británico quiere que las personas que generen deepfakes porno se enfrenten a una pena de cárcel. Y es que, más allá de otros usos puntuales que empezamos a ver, como ese tráiler infame, hay un uso más infame aún: alrededor del 96% de los deepfakes se utilizan para crear contenidos sexuales de mujeres (a menudo famosas) sin su consentimiento, y no hay normativa al respecto.
En cinco bits
El gepetero que lo gepetee, buen gepetista será. La Fundación del Español Urgente está actualizadísima: ha explicado que el verbo gepetear es un neologismo válido que se emplea en redes sociales con el sentido de utilizar la aplicación ChatGPT. Los que estamos fuerísima somos nosotros, que no nos habíamos enterado de que ese palabro se está usando. Fundeu también aclara que se pueden construir los términos gepetero o gepetista para referirse al usuario que utiliza este chatbot de inteligencia artificial. Pues gepeteando, que es gerundio.
Alucinando con las tildes. Hablando de ChatGPT, en The Conversation publican este tema sobre por qué no hay que pedirle ayuda con la ortografía. Un ejemplo que comparte el autor, Esteban Vázquez-Cano de la UNED: según ChatGPT, María lleva tilde por ser un nombre propio, no por ser un hiato. Es un ejemplo más de cómo un chatbot de IA se puede equivocar y tener alucinaciones.
¿Te están llamando desconocidos diciéndote que les has llamado? Esto nos ha contado un lector de Maldita.es, y hay más usuarios denunciando que se está suplantando su número de teléfono para ofrecer falsas inversiones en criptomonedas a otras personas. Es una técnica que usan timadores para que el identificador de llamadas del receptor muestre un número diferente al que realmente está realizando la llamada. Aquí te contamos qué hacer si nos damos cuenta de que están suplantando nuestro número de teléfono: denunciarlo cuanto antes y advertir a familiares y amigos.
Elon, máquina, devuélveme mi cuenta. El pasado martes, de pronto, sin avisar y sin explicación aparente, se suspendieron en Twitter (X) las cuentas de varias divulgadoras, investigadores y webs. Las políticas de Twitter detallan que para suspender una cuenta se tienen que dar motivos como que se detecte actividad relacionada con el spam… pero no fue el caso. Las cuentas se suspendieron por error, según ha reconocido la red social. Otra liada del Twitter de Elon Musk. Por si alguna vez te pasa, aquí te dejamos cómo puedes intentar recuperar tu cuenta.
Esto es laaa voooz… tecnológica. El martes también fue el Día Mundial de la Voz y en Maldita Tecnología hemos hablado mucho de su relación con las nuevas tecnologías. Aquí te contamos cuándo puede considerarse la voz un dato personal y aquí qué pasa con nuestros derechos de voz, pensando en los sistemas de inteligencia artificial que imitan voces y que traen de cabeza a los cantantes. Aunque esto también puede tener usos preciosos, como vimos con su aplicación para devolver la capacidad de hablar a quiénes la han perdido por una enfermedad, una discapacidad o un accidente.
¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.