MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: violencia, vejación y sexualización de famosos en la IA generativa de X, y datos biométricos y excepción de seguridad nacional en la ley de IA

Publicado
Comparte
Categorías
Recursos utilizados
Material producción propia

¡Feliz sábado, malditas y malditos! Ya queda menos para que pase el calor (si lo estás sufriendo desde donde nos leas). Si así es, estás en un alojamiento turístico y te hace falta poner el aire acondicionado, aquí te contamos que, si el dueño de la vivienda quiere controlarlo a su antojo, tiene que haber quedado firmado en el contrato.

Más cositas veraniegas, que nos queda poco: como la ciberdelincuencia no descansa ni en verano, para que no te arruinen las vacaciones dale un repaso a estos consejos. Antes de salir de casa revisa el router y tus dispositivos conectados, y una vez de viaje no tengas 24/7 conectados el wifi, el bluetooth o el GPS. Te lo explicamos en este vídeo, y vamos con los temas de esta semana.

Una IA generativa ¿sin límites?

El payaso de McDonald's ensangrentado, Barack Obama y George Bush consumiendo cocaína, Taylor Swift sexualizada y apuntando con un rifle, o Donald Trump y Kamala Harris esperando un hijo e impactando en las Torres Gemelas. Leerlo es fuerte. Verlo, aún más.

Grok-2, la nueva versión de la inteligencia artificial multimodal de Elon Musk en X (Twitter), se lanzó el 13 de agosto en versión beta y permite a usuarios Premium y Premium+ generar imágenes hiperrealistas. ¿Qué tipo de imágenes?

En la teoría, los usuarios de Grok se comprometen a no crear ciertas temáticas (ya sabes, es lo que está escrito en los términos y condiciones de uso que nadie lee). Pero es solo la teoría, porque en la práctica el modelo no parece incluir restricciones o, si lo hace, es extremadamente fácil saltárselas. Por eso hemos visto a montones de usuarios compartiendo imágenes de contenido violento, perturbador, vejatorio y sexualizado, con figuras políticas y mujeres famosas como protagonistas.

Las imágenes están al alcance de una petición, Grok las genera y se pueden publicar directamente en X, así que corren como la pólvora y tienen muchísimo impacto. Como ya venimos diciendo desde que se democratizaron las herramientas de IA, cada vez es más difícil distinguir qué es real y qué no, pero que además una herramienta así esté integrada en una red social como X le da aún más alas a la desinformación. Como contexto, la Comisión Europea tiene abierta desde diciembre de 2023 una investigación contra X por incumplir sus obligaciones sobre contenidos ilegales y desinformación.

¿Esto es algo que no pase con otras herramientas de IA? Pues depende. Otros modelos de generación de imágenes (como ChatGPT con Dall-E, Midjourney o Copilot de Microsoft) sí incluyen filtros para evitar usos indebidos. Agunos han ido incorporándolos por el camino al ver lo que los usuarios eran capaces de conseguir. De hecho, muchos de estos usuarios se quejan de la censura, aunque también hay que reconocer que no son infalibles porque muchas de las limitaciones se pueden saltar si se usan las instrucciones adecuadas.

El tema es que en Grok parece no haber filtros, según Elon Musk, que respondió a un usuario que celebraba que “el nuevo @grok 2.0 es claramente el modelo (...) sin censura de su clase hasta la fecha” con un “¡Grok es la IA más divertida del mundo!”. Quizá también es la más gore y vejatoria. Hemos escrito a X pero, como de costumbre desde que Musk adquirió la red social, no nos han respondido. Aquí tienes lo que hemos analizado.

Pistolas más grandes y reales para Musk

Además, Musk parece tener especial fijación por las armas, o eso muestra en X. No le basta con querer que Grok las ilustre en mayor tamaño, como sugería en esta publicación, donde dice que hay un espacio de mejora para ello. También ha hecho que actualmente X sea la única plataforma que tiene un emoji de pistola que se asemeja a una real, según él porque “el debilitamiento del emoji de la pistola coincide con el auge del virus de la mente progresista”. La realidad es que si buscas el término ‘pistola’ o ‘gun’ en la Emojipedia, el único resultado que nos devuelve es la expresión ‘pistola de agua’.

Ahí se puede ver y se cuenta la evolución del emoji: aunque originalmente se representaba como una pistola clásica, en 2016 Apple cambió su diseño para que fuera un juguete y otros proveedores importantes siguieron el ejemplo en 2018; también Twitter. En julio de 2024, ya convertida en X, la red social actualizó para volver a mostrar un arma de fuego real, y ahora en agosto se ha modificado para que parezca aún más real. 

Hay que decir que, precisamente, muchas de las imágenes más escabrosas y espeluznantes que algunos usuarios han compartido de Grok muestran al propio Musk con armas, perpetuando tiroteos y matanzas en centros educativos junto a Mickey Mouse.

Una ley para IA y datos biométricos, y una excepción

Ya te hablamos hace un par de semanas de la Ley Europea de Inteligencia Artificial (AI Act), el primer marco jurídico integral sobre IA en todo el mundo que entró en vigor el 1 de agosto y marca una serie de obligaciones que los sistemas de IA deberán ir cumpliendo paulatinamente. Aquí lo explicamos todo sobre ella, pero, como es tan amplia, nos hemos metido a profundizar un par de cosas más.

Primero, qué establece sobre los sistemas de IA que usan datos biométricos (nuestras huellas dactilares, imágenes faciales o patrones del iris). Por ejemplo, prohíbe el reconocimiento de emociones en el trabajo o estudio, y la identificación biométrica remota en tiempo real en espacios públicos con fines policiales. Sí permite otros como el reconocimiento de emociones con fines de seguridad y médicos, pero bajo ciertas obligaciones. 

Pero, tanto en los sistemas de IA que usan biometría como en el resto, hay una excepción: la ley no aplica a los sistemas de IA que se utilicen exclusivamente con fines militares, de defensa o seguridad nacional desarrollados o utilizados por entidades públicas o privadas. Como te imaginarás, esto puede ser ambiguo y generar dudas a la hora de su aplicación, y ha levantado algunas preocupaciones que analizamos aquí

En tres bits

  • No uses imágenes de mujeres para desinformar. La desinformación se presenta en cientos de formas; también hay a quien le parece buena idea utilizar a las mujeres para ello. Hemos encontrado cuentas que difunden bulos de forma habitual en redes sociales y que utilizan nombres e imágenes robadas de mujeres para esconder su verdadera identidad. Tanto fotografías reales como ilustraciones. Al margen de lo grave que es difundir desinformación, además es que en España no es legal usar las fotografías de otra persona en redes sociales sin su consentimiento. Y aún más grave, utilizarlas para hacerse pasar por ella puede considerarse un delito de suplantación de identidad. Aquí todo el análisis.

  • No busques a la IA integrada en WhatsApp si estás en la UE. Todísimas las compañías están subiéndose a la IA y quieren su propio ChatGPT. La apuesta de Meta (la compañía detrás de Instagram, Facebook y WhatsApp) es Meta AI. Este asistente de inteligencia artificial responde a preguntas, genera imágenes y está disponible de forma gratuita en Instagram, Messenger y WhatsApp… salvo que estés en la Unión Europea, porque aquí no ha llegado, y no tenemos claro si lo va a hacer ni cuándo. Sí está en Argentina, Chile, Colombia, Ecuador, Estados Unidos, México y Perú. Aquí te lo contamos.

  • No te pierdas este historión sobre la primera calculadora de bolsillo. Todos pudimos tener a nuestro alcance una calculadora en el cole. Parece algo natural, ¿no? Qué vamos a decir, si ahora tenemos teléfonos móviles que caben en nuestra mano y son como ordenadores. Pero toda tecnología ha necesitado desarrollo y evolución. Esta es la historia de cómo el mecánico austriaco Curt Herzstark inventó una máquina de calcular de bolsillo (como las de la imagen de arriba) en un campo de concentración nazi. En The Conversation. Fotografía superior: Werner Kratz.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.