menu MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: mentiras con IA generativa sobre política en YouTube, la IA de Musk suelta como Gabete y el impacto medioambiental de la IA

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditas y malditos! Ayer fue el Día Internacional de las Matemáticas (sí, el llamado Día π). Así que recuperamos este tema que lamentablemente sigue siendo necesario compartir con algunas personas: no, a las niñas y a las mujeres no se nos dan peor las matemáticas que a los hombres. Y sí, nos gustan. Ahora te hablamos de otras mentiras, las que comparten canales de YouTube apoyándose en imágenes y voces creadas con IA generativa, y del primer año de Grok, la IA de Elon Musk. 

IA generativa para desinformar sobre política

“Europa ECHA LA BRONCA a Sánchez asaltar la Justicia: "Presionó a los jueces"”. “¡GIORGIA MELONI acaba de DEMOLER a ZAPATERO en el PARLAMENTO EUROPEO!” “🚨¡TERRIBLE BRONCA! ¡ÚRSULA VON DER LEYEN EXPLOTA y HUMILLA a BOLAÑOS POR LA AMNISTÍA!😱”.

Lo sentimos, son muchísimas mayúsculas, qué espanto. Es que así es como escriben una serie de canales que publican desinformación en YouTube enfrentando a políticos europeos con españoles. Todos estos canales siguen los mismos patrones.

Como miniatura, usan una imagen hecha habitualmente con IA que representa a los dos políticos supuestamente enfrentados, con una supuesta frase del rifirrafe destacada (TAMBIÉN EN MAYÚSCULAS, CLARO, HAY QUE GRITAR). En el vídeo se usa una voz sintética, con indicios de haber sido creada de forma digital y con inteligencia artificial. De fondo hay fotos de archivo de los políticos que mencionan. Como te ejemplificaba arriba, los títulos de la publicación habitualmente tienen un emoji inicial, mayúsculas y símbolos de exclamación que hablan de “humillaciones”, “aplastamiento” y “destrozos” a políticos españoles por parte de otro político europeo.

Te damos todos estos detalles para que puedas identificarlos si los ves, porque lo que cuentan esos vídeos no es verdad. Por ejemplo, Von der Leyen no ha expulsado a Teresa Ribera del Parlamento Europeo. Pero es fácil que te lo encuentres: hemos dado con 49 canales de YouTube que comparten este tipo de afirmaciones sobre supuestas discusiones entre políticos europeos y políticos españoles en el Parlamento Europeo (que no han sucedido). A día de hoy los canales siguen en activo y tienen más de 400.000 seguidores. 

Ya hace un mes detectamos este tipo de tendencia, y encontramos 35 canales de YouTube con más de 36 millones de visualizaciones que publican desinformaciones políticas con este y otros enfoques, y también usan IA para crear imágenes y audios sintéticos. Así tratan de colárnosla, incluso usando argucias como cambiarle el nombre a los canales. Por ejemplo, un canal pasó de llamarse ‘Ponte al Día’ a ser ‘España al Día’, y en vez de publicar supuestos cotilleos de famosos, ahora sube bulos políticos. 

Y no solo pasa en YouTube, también en TikTok, donde hay perfiles que usan IA generativa para desinformar sobre supuestos casos de corrupción destapados en EEUU que afectarían a Sánchez y su Gobierno. En los vídeos no se aporta ningún tipo de prueba, evidencia o fuente que acredite esas afirmaciones ni se recogen en medios. A las supuestas mujeres que salen en cámara se le emborronan los ojos al parpadear o se solapan rostro y párpados, hacen movimientos poco naturales y otras cosas sospechosas (o sea, son IA).

Mucho ojo, y ya sabes, contrasta siempre la información que te encuentras (especialmente en redes sociales), busca fuentes de fiar y, ante cualquier duda, siempre puedes preguntarnos en nuestro chatbot de WhatsApp en el +34 644 22 93 19.

La IA de Musk suelta como Gabete

Desde que se lanzara en marzo de 2024 la versión de Grok para suscriptores Premium de Twitter (X), la IA de la plataforma ha ganado usuarios, alentados por Elon Musk, que anima constantemente a usar el chatbot integrado en la red social. Una y otra vez tuitea Grok it! Grok it! ¿Te lo imaginas mientras duerme en el suelo de su despacho gritando de noche, Grooooook it, damn it!?

¿Por qué tanto interés? Por nuestros datos personales, que le salen gratis y con los que puede entrenar su modelo de IA. Por eso no deja de pedir que subamos documentos e imágenes (también médicas) y que utilicemos el modo de voz (los datos de audio son más difíciles de conseguir). ¡Hasta quiere que nos ennoviemos con Grok! (Imposible, y mala idea, igual que usarlo como psicólogo como te contamos en este vídeo). Con todos esos datos puede mejorar a Grok, pero también hacer que el chatbot refleje la ideología y sesgos de los usuarios de X (en concreto, los seguidores de Musk) y provocar polarización en sus resultados. Aquí lo analizamos.

Para nosotros como usuarios, que se utilice nuestra información para entrenar modelos de IA conlleva riesgos de privacidad (pero ssshhh, no se lo digas a Musk, podemos oponernos). 

El caso es que ha pasado un año, ahora Grok es gratuito, ha lanzado actualizaciones, y en estos meses hemos visto usos cuestionables de sus capacidades, porque esta IA parece tener pocas restricciones (o es fácil saltárselas); vamos, que Grok está suelto como Gabete.

Se ha utilizado para obtener respuestas sobre temas potencialmente peligrosos (como cómo asesinar a alguien o cómo fabricar armas nucleares), generar imágenes racistas y con contenido vejatorio, violento y sexualizado sobre personajes públicos y mujeres famosas. Grok también responde a temas sobre desinformación: dice que es un problema en la plataforma, que más de la mitad de los tuits de Musk son falsos o engañosos, y que puede que Trump sea un “activo ruso”. Aquí repasamos las respuestas, limitaciones y riesgos del primer año de Grok.

En tres bits

  • La IA siempre tiene sed. La revolución de la IA no sale gratis, tampoco a nivel medioambiental. Como analizan en El País, las enormes infraestructuras que los gigantes de internet se están apresurando a construir para sustentar sus modelos requieren unas cantidades de recursos inéditas, especialmente energía y agua. Y esto último preocupa mucho en un país como España, aquejado de problemas de sequía. Les ha costado, porque hay mucha opacidad en torno a estos datos, pero en el reportaje han analizado el consumo de agua de la IA, en concreto, de la nube de Amazon en España.

  • “Luces un poco Taylor con su jet privado usándome tanto”. Hablando de impacto medioambiental, con la idea de hacernos reflexionar sobre cuánto cuesta en términos de recursos hacer una consulta a un chatbot (las mejores estimaciones dicen que 10-50 preguntas son 500 ml de agua) para que no lo usemos a la ligera, en la agencia de comunicación científica AGATA han creado ChatPEC, un chatbot sarcástico que conciencia sobre el uso de la IA generativa. La plataforma ofrece píldoras de información sobre su impacto medioambiental en un tono divertido y mordaz. Y no, PEC no es “por el culo”, es “por el clima”. 

  • Cómo hacer la IA sostenible. La pregunta entonces es, ¿y esto se puede resolver? Por ejemplo, cuando se lanzó DeepSeek, unas de las cosas que se alabó del modelo fue su eficiencia. Hay debate sobre el tema. Un informe del que se hizo eco Wired recogió medidas para una IA generativa sostenible: evaluación exhaustiva de proyectos, uso de energías renovables, optimización de modelos y colaboración sectorial. Nosotros, a nivel usuario, debemos usarla (como cualquier otra tecnología) con responsabilidad. Igual que no te dejas el grifo del agua abierto (espero), no te pases el día preguntándole chorradas a ChatGPT o a Grok (ya sabes, ni regalando tus datos). Usa la IA con cabeza.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.